
Nella giornata di mercoledì il Parlamento europeo si è espresso sulla legge per regolamentare l’Intelligenza Artificiale (Ai) con 499 voti a favore, 28 contrari e 93 astensioni ed è pronto ad avviare i negoziati con gli Stati Ue sul testo definitivo.
Il Regolamento è volto a garantire che l’Ai sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’Ue, ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale.
Per questo, il Regolamento introdurrà il divieto totale di utilizzo di tecnologie di riconoscimento biometrico ad intelligenza artificiale in tempo reale nei luoghi pubblici. È stato infatti bocciato l’emendamento del Ppe che chiedeva di inserire nell’Ai Act, alcune eccezioni per permettere l’uso di telecamere riconoscimento facciale nelle strade e al confine dell’Ue per motivi di sicurezza nazionale o nei casi di minori scomparsi.
Le norme del Regolamento seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che può generare.
Saranno vietati quei sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, ad esempio quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali) : rispetto al testo iniziale, è stato ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’IA, come: l’uso di sistemi di identificazione biometrica remota “in tempo reale” e “a posteriori” in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati);i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione; e l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla privacy).
Il testo approvato dal Parlamento Europeo prevede che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente.
Sono stati aggiunti alla lista anche i sistemi di IA utilizzati per influenzare gli elettori e l’esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme di social media.
I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, secondo il testo, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall’IA), aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per l’addestramento.
Il voto dà il via ai negoziati interistituzionali con i rappresentanti del Consiglio Ue (che ha adottato la sua posizione a dicembre 2022) per la stesura finale del testo che dovrebbe essere entro la fine di quest’anno.