CAMPANELLO DI ALLARME

Oltre 700 siti d’informazione sono generati da AI

Secondo Newsguard, le notizie riportate sono generiche, approssimative e contengono errori, ma spessol’utente medio non si accorge della fake news

Sono oltre 700 i siti di notizie generati dall’AI senza una supervisione umana: li ha identificati Newsguard che cita due esempi di disinformazione dello scorso anno:  il primo aprile celebritiesdeaths.com, sito dedicato agli aggiornamenti sulle morti di persone famose, aveva dato la notizia della morte del presidente degli Stati Uniti Joe Biden (era un pesce d’aprile apparso su Twitter), mentre a novembre il sito pakistano Global Village Space titolava: “Lo psichiatra del Primo Ministro israeliano si suicida”, riprendendo un articolo satirico pubblicato su Legalienate nel 2010.

A dicembre 2023 il New York Times ha accusato OpenAI,  società creatrice di ChatGPT di aver utilizzato senza permesso milioni di articoli protetti da copyright per addestrare l’AI, che avrebbe poi utilizzato intere parti di testo per rispondere agli utenti. Qualche giorno fa  -secondo l’agenzia Reuters OpenAI ha ribaltato le accuse, sostenendo che la testata avrebbe “ingannato” l’AI con prompts (indicazioni per l’intelligenza artificiale) pretenziosi e insistenti per ottenere prove fuorvianti a favore dell’accusa.

Secondo il portavoce di OpenAI inoltre «il Times non può impedire che l’AI acquisisca conoscenza a proposito dei fatti che accadono, proprio come altri giornali non possono impedire al Times di riportare storie che non ha investigato in prima persona».

La diatriba è particolarmente scottante, perché i giudici che stanno analizzando il caso non hanno ancora definito se l’utilizzo di testi protetti dal diritto d’autore per addestrare gli algoritmi sia effettivamente illegittimo. Si pone poi un problema di qualità dell’informazione importante:

la riproduzione automatica di notizie senza una supervisione umana e senza il fact checking, espone al rischio di una diffusione incontrollata di notizie inaccurate quando non totalmente false. Secondo Newsguard le piattaforme di notizie generate con l’AI sono infatti costruite in modo da trarre in inganno chi legge: i testi sono generici, approssimativi, scritti male o con errori,  ma non sempre l’utente medio ha la consapevolezza o gli strumenti per accorgersi che quello che sta leggendo non è un testo scritto da una persona e dunque neanche per rendersi conto dell’eventuale falsità delle informazioni e della necessità di verificarle con altre fonti.

Il problema si allarga ulteriormente perché  una volta che una notizia falsa viene pubblicata su un sito web può essere ripresa e rimbalzata molte volte da altre tecnologie di intelligenza artificiale generatrici di notizie che, in assenza di supervisione umana, la prenderanno per vera e la riutilizzeranno ancora e ancora fino a farla diventare una vera e propria fake news virale e fuori controllo.

Inoltre questi siti sono in grado di attrarre investimenti attraverso la raccolta pubblicitaria,  generando traffico online, e utilizzando le AI per generare testi sono in grado di pubblicare centinaia di nuovi contenuti ogni giorno e questo configura la concorrenza sleale per quelle piattaforme di informazioni curate da autori o giornalisti.

Per gli utenti del web sarà sempre più difficile orientarsi nel mondo dell’informazione e capire quando ci si trova di fronte ad una fake news.

Back to top button