AI & ROBOTICA

Fattore umano: è veramente l’anello debole?

Con l’intelligenza artificiale e sistemi a elevati livelli di automazione, siamo sicuri che la progressiva riduzione dell’intervento umano porti a un rafforzamento della sicurezza dei sistemi e delle informazioni?

Sistemi destinati ad elevati livelli di automazione, impiego diffuso di tecnologie di intelligenza artificiale. Oggi la vulgata vorrebbe il fattore umano relegato ad una vulnerabilità, ma se è vero che vox populi, vox dei, altrettanto vero è che il pantheon della cybersecurity è piuttosto variegato e potrebbe prevedere divinità folli degne dei miti di Lovecraft.

Insomma: siamo sicuri che la progressiva – ed apparente – riduzione dell’intervento umano porti ad un rafforzamento della sicurezza dei sistemi e delle informazioni? O forse è un racconto che viene impiegato come leva commerciale e che, al suo ripetersi, non fa altro che attribuire sempre più al fattore umano il ruolo di anello debole omettendo di intervenire sulle cause di tale fenomeno?

Qual è il ruolo dell’operatore in un panorama tecnologico sempre più complesso e automatizzato? Dipende dal suo posizionamento e dal ruolo che assume, ma non può mai essere insignificante.

Per quanto riducibile al minimo, infatti, l’impatto della decisione umana comunque sussiste e sussisterà sempre su almeno due piani: progettazione e attuazione operativa. In entrambi, minore è il suo ruolo formale e maggiore diventa l’impatto. Ancor più significativo poi è l’impatto se coinvolge informazioni personali. Se pensiamo ad esempio ai recenti casi riguardanti algoritmi discriminatori, o ai problemi di impiego di procedure automatizzate all’interno dei processi di selezione del personale, le questioni che possono emergere sono tutt’altro che di secondaria importanza.

Ovviamente, in sede di progettazione gli operatori predispongono la tecnologia, ne impostano i parametri e definiscono i sistemi stessi. Un errore di questi soggetti comporta necessariamente una o più vulnerabilità tecnologiche che spaziano da semplici bug a misconfiguration, tutte riparabili con successivi interventi di patch. Ma fino a che punto è possibile prevenire tali evenienze? A questa domanda le organizzazioni rispondono spesso in modo efficace solo nel momento della selezione, richiedendo e valutando soft e hard skills.

Per quanto riguarda invece gli operatori che si collocano con una qualifica assimilabile a quella degli end-users, ridurre il loro grado di intervento in un processo automatizzato non fa altro che rendere ancor più significativo l’impatto di un singolo errore o distrazione. Qui però non è la selezione bensì sono la sensibilizzazione e l’addestramento a giocare un ruolo di prevenzione fondamentale.Senza però la progettazione di un monitoraggio successivo, quale ad esempio quello per prevenire il c.d. rischio da burnout, il sistema è destinato ad essere inefficace in quanto incompleto. E tutte le competenze, conoscenze, abilità ed interventi sono destinati a disperdersi come lacrime nella pioggia, citando il monologo finale di Blade Runner. E così contribuisce ad alimentare la profezia auto-avverante: nell’era dell’automazione, il fattore umano è l’anello debole. Certamente ciò è vero (e rimarrà tale) solo in assenza di interventi diretti alla risoluzione stabile di tale vulnerabilità.

Back to top button