Studio rivela l’allarme rosso sull’intelligenza artificiale: la diffusione di fake news diventa sempre più credibile
Un nuovo studio condotto presso l’University of Zurich e pubblicato su Science Advances ha sollevato un allarme rosso riguardo alla diffusione di fake news attraverso l’intelligenza artificiale. Secondo la ricerca, un modello di Intelligenza Artificiale chiamato GPT-3 è in grado di diffondere disinformazione in modo più credibile degli esseri umani.
L’infodemia che ha caratterizzato gli ultimi anni ha avuto effetti drammatici sulla salute globale, e l’intelligenza artificiale sta giocando un ruolo sempre più importante nel modo in cui creiamo e valutiamo le informazioni. Gli scienziati hanno voluto analizzare se le persone fossero in grado di distinguere la disinformazione dalle informazioni accurate, presentate sotto forma di tweet, e di determinare se un tweet fosse stato scritto da un utente di Twitter o dal modello di intelligenza artificiale GPT-3.
I risultati dello studio sono allarmanti: GPT-3 si è dimostrato un’arma a doppio taglio. Rispetto agli esseri umani, il modello è in grado di produrre informazioni precise e più facili da comprendere, ma può anche generare disinformazione più convincente. In particolare, la ricerca ha evidenziato che le persone hanno avuto difficoltà nel distinguere i tweet generati da GPT-3 da quelli scritti da utenti umani, sia in termini di accuratezza delle informazioni che di autenticità dell’autore.
“I risultati suggeriscono che il modello di Intelligenza Artificiale GPT-3 e altri modelli linguistici di grandi dimensioni possono sia informare che disinformare gli utenti dei social media, in modo più efficace rispetto agli esseri umani”, ha spiegato Giovanni Spitale dell’University of Zurich.
Da quando è stato lanciato nel novembre 2022, l’utilizzo diffuso di ChatGPT, una chatbot basata sull’intelligenza artificiale, ha sollevato preoccupazioni riguardo alla diffusione di disinformazione e informazioni online, soprattutto sulle piattaforme social. I critici hanno sottolineato che modelli linguistici di grandi dimensioni come GPT-3 potrebbero essere utilizzati per generare disinformazione convincente sui social media.
Poiché i modelli linguistici di grandi dimensioni sono ancora relativamente nuovi nell’ambito pubblico, pochi studi hanno esaminato la loro efficacia per questo scopo. Tuttavia, alla luce dei risultati di questa ricerca, diventa sempre più evidente la necessità di una regolamentazione adeguata per affrontare la sfida della diffusione di fake news attraverso l’intelligenza artificiale.
La ricerca sottolinea l’importanza di sviluppare strumenti e metodi per contrastare la disinformazione generata dall’intelligenza artificiale e promuovere la consapevolezza critica tra gli utenti dei social media. Solo attraverso una combinazione di sforzi tecnologici, normativi ed educativi potremo affrontare efficacemente questa sfida e preservare l’integrità delle informazioni nel contesto digitale sempre più complesso in cui viviamo.