Con l’approccio delle elezioni comunitarie e l’avvento dell’Intelligenza Artificiale (IA), l’Unione Europea sta adottando una normativa anti fake news, poiché l’IA potrebbe amplificare la diffusione delle notizie false già ampiamente presenti sul web. L’uso crescente di software come ChatGPT, Dall-E, Bing AI, Bard e altri, che si basano su informazioni prelevate dalla rete, potrebbe intensificare la disinformazione.
Uno studio condotto dall’Università di Berkeley, California, mette in luce il rischio derivante dall’uso di intelligenze artificiali generative, evidenziando come queste possano rafforzare credenze errate in individui che cercano informazioni partendo da presupposti distorti.
Affidabilità dei Software IA
Gran parte del problema riguarda il funzionamento dei software IA, i quali ricercano dati online per rispondere alle domande degli utenti. Il pericolo principale è che spesso gli utenti tendono a fidarsi ciecamente delle risposte fornite dall’IA, poiché percepiscono queste tecnologie come estremamente intelligenti e competenti, a causa della presentazione esagerata e irrealistica delle loro capacità. Si presume erroneamente che le IA siano in grado di rilevare automaticamente le fake news e di fornire risposte veritiere. Tuttavia, questo non avviene sempre, specialmente quando le domande si basano su presupposti errati. Questo rischia di favorire la diffusione di informazioni false e stereotipi negativi.
La Difficoltà nel Cambiare le Proprie Opinioni
Lo studio ha evidenziato un altro aspetto preoccupante: una volta ricevuta una risposta dall’IA, gli individui sono meno inclini a cambiare idea. Questa tendenza umana alla radicalizzazione delle proprie conoscenze, soprattutto tra coloro con un’istruzione limitata e provenienti da classi sociali svantaggiate, li rende più propensi a credere in fake news e disinformazione.
Una Possibile Soluzione
Il team di ricerca suggerisce che implementare una componente psicologica nelle IA potrebbe migliorare la situazione. Questo potrebbe significare fornire risposte meno categoriche e introdurre un sistema di valutazione da parte di esperti nei vari campi, che valutino l’accuratezza delle risposte. Tuttavia, la soluzione ultima risiede nell’educazione del pubblico, compito dei politici, scienziati e mezzi di informazione. Questi dovrebbero presentare l’IA in maniera realistica, evitando l’illusione di infallibilità.