
Alcuni mesi fa avevamo parlato dei problemi in Italia legati all’utilizzo dei software di riconoscimento facciale e di monitoraggio a distanza degli studenti durante gli esami della sessione estiva.
Secondo un’inchiesta di Motherboard, in America vi sono i medesimi problemi, peraltro ancor più accentuati, sia sulla loro invasività che sulle discriminazione che generano, e le proteste provengono tanto dagli studenti quanto dal corpo docenti.
Occorre ricordare che i software di proctoring algoritmico son in circolazione da diversi anni, ma il loro utilizzo è esploso quando la pandemia COVID-19 ha costretto le scuole e soprattutto le università a passare rapidamente all’apprendimento a distanza. Le aziende di Proctoring, per vendersi meglio sul mercato, citano studi che prevedono che una larga parte degli studenti universitari, tra il 50 ed il 70%, tenterà una qualche forma di imbroglio, e avvertono che gli imbrogli si diffonderanno a macchia d’olio se gli studenti non saranno adeguatamente monitorati nelle loro case.
In realtà non mancano studi, anche recenti, sia che dimostrano che non è detto che coloro i quali facciano una prova con i software di proctoring a controllarli conseguano un voto più basso di chi non venga monitorato, sia quelli che dimostrano che chi ha fatto esami con il controllo remoto abbia sentito livelli di ansia più alti durante la prova e sia comportato peggio.
Quando gli atenei ricorrono a questi software, spesso in combinazione con altre forme di controllo a distanza quali videochiamate da uno o più ulteriori dispositivi, non prendono in considerazione le persone che provengono da comunità svantaggiate ove, sostengono i critici, gli strumenti, o meglio la loro assenza o minor qualità, sono destinati a danneggiare gli studenti a basso reddito, gli studenti con disabilità, quelli con figli o altre persone a carico e altri gruppi che già affrontano insormontabili barriere verso l’istruzione superiore. Secondo alcuni studenti “questo tipo di esame online misura il patrimonio generazionale di una persona e non la sua conoscenza”.
Un importante punto di divergenza tra le aziende produttrici dei programmi di monitoraggio e le comunità universitarie attiene alle tecniche algoritmiche che il software utilizza per individuare potenziali imbrogli: le webcam monitorano i movimenti degli occhi e della testa (e non mancano i problemi di chi, poiché di carnagione scura, non viene riconosciuto dalla videocamera), i microfoni registrano i rumori nella stanza e gli algoritmi registrano la frequenza con cui lo studente muove il mouse, scorre su e giù su una pagina e preme i tasti.
Ad esempio Proctorio fornisce alle università una guida dove afferma che l’IA determina se il “livello di sospetto” di un tester in un dato momento è basso, moderato o alto, rilevando “anomalie” nel suo comportamento. Peccato che per anomalia intenda uno scostamento dalla media degli studenti che stanno affrontando quello stesso esame, tanto verso il basso quanto verso l’alto. Perciò se uno studente distoglie lo sguardo dallo schermo più dei suoi coetanei che sostengono lo stesso esame, viene segnalato per un’anomalia ma allo stesso modo se distoglie lo sguardo meno spesso, viene ugualmente segnalato per anomalia.
E questo avviene anche in riferimento al numero di tasti premuti da uno studente mentre risponde a una domanda, per il numero di clic e per una serie di altre metriche.
Una variazione al di fuori della deviazione standard risulta in un flag.
Secondo un ricercatore dell’Università del Colorado è probabile che questa metodologia porti a un esame diseguale delle persone con disabilità fisiche e cognitive o condizioni come l’ansia o il deficit dell’attenzione.
“Questi codificatori stanno definendo, matematicamente, il corpo ideale dello studente: quanto spesso fa, o non fa, questi certi attributi, e qualsiasi cosa al di fuori di quell’ideale viene trattata con sospetto”.
Per tutelarsi da qualsiasi possibile accusa, al pari di molte altre aziende tecnologiche, anche le società produttrici dei vari Respondus – LockDown Broswer, ProctorExam, Safe Exam Browser, SMOWL CM, Proctortrack, Proctorio ecc. si rifiutano di accettare l’idea di essere responsabili dell’uso del loro software. Mentre i loro algoritmi segnalano un comportamento che i progettisti hanno ritenuto sospetto, queste aziende sostengono che la decisione finale di stabilire se si sia verificato un imbroglio o meno rimane completamente nelle mani del docente.
Ritengono di fornire semplicemente uno strumento per gli insegnanti per controllare e rivedere l’esame in base a quel che stanno cercando. Dipende dall’istruttore come il software viene utilizzato, in genere aiuta gli insegnanti che sono predisposti a distribuire rapporti di disonestà accademica (ADR) per “semplificarsi” il lavoro.
Da non tralasciare poi l’accanimento che le società hanno nei confronti di chiunque voglia muovergli una critica.
Quando uno studente di ingegneria informatica di Miami, sapendo che due dei suoi professori gli avrebbero chiesto di usare il software di proctoring digitale Proctorio durante loro lezioni, ha manifestato le sue preoccupazioni su Twitter e postato l’analisi del codice di Proctorio sul portale pastebin, ha scoperto che poco al suo indirizzo IP era stato vietato l’accesso ai servizi dell’azienda.
Inoltre ha ricevuto un messaggio dal CEO di Proctorio in persona, Mike Olsen, dove gli veniva chiesto di eliminare il post di Pastebin. Lo studente si è rifiutato di farlo sebbene temesse ripercussioni legali e accademiche.
(l’analisi non è più disponibile su Pastebin ma è presente qui)
Quando invece un ricercatore ha pubblicato un articolo critico, dal titolo “Our Bodies Encoded: Algorithmic Test Proctoring in Higher Education” sulla rivista Hybrid Pedagogy, Proctorio ha inviato una lettera alla rivista chiedendo una ritrattazione, puntualmente rifiutata dalla redazione.
Ad Ian Linkletter, uno specialista in tecnologie dell’apprendimento presso la University of British Columbia, che aveva condiviso su Twitter i video di allenamento del software Proctorio ed i documenti che spiegavano la metodologia di rilevazione delle anomalie dell’azienda, i video sono stati rimossi da YouTube e Proctorio ha richiesto al tribunale un’ingiunzione per impedire a Linkletter di condividere il suo materiale di formazione.
All’Università della California Santa Barbara, dopo che gli studenti di una delle facoltà hanno lanciato un appello al corpo docenti, e questi ultimi, attraverso la loro associazione, hanno manifestato per iscritto all’amministrazione dell’ateneo i loro dubbi sulla possibilità che ProctorU condivida i dati degli studenti con terzi, la facoltà ha chiesto all’UCSB di rescindere il contratto con la società e di scoraggiare i professori dall’utilizzare servizi simili.
In risposta, un avvocato della ProctorU ha minacciato di citare in giudizio l’associazione dei docenti per diffamazione e violazione della legge sul diritto d’autore.
Uno dei membri della facoltà che per primo aveva sollevato domande sul software di ProctorU ha affermato che occorre fare di meglio che sottoporre i propri studenti alla sorveglianza e alle costanti violazioni della loro privacy, non permettendo la sorveglianza algoritmica attraverso la sorveglianza biometrica come nuova norma per l’istruzione.