Laboratorio, Oltre la notizia

Intelligenza artificiale: combatte o promuove le disinformazioni?


Alia Matteo 2H

I.I.S. Leonardo - Giarre (CT)

L’intelligenza artificiale e le fake news: un’arma a doppio taglio 

Intelligenza artificiale: combatte o promuove le disinformazioni?

Esplorazione dell’impatto dell’intelligenza artificiale nella divulgazione di informazioni

                                   

Nell’era dell’informazione digitale l’intelligenza artificiale, meglio nota come AI, è diventata parte della nostra vita quotidiana, assumendo un ruolo di rilievo nell’orientare il  nostro pensiero. Un esempio di questo fenomeno è Chat GPT, il cui sito web, secondo varie statistiche, viene visitato 1,8 miliardi di volte al mese. Il potere di una macchina è immenso: per questo la maggior parte degli utenti si fida ciecamente delle informazioni fornite dal bot. Tuttavia, sarebbe opportuno non basarsi sempre su ciò che viene “prescritto” da una macchina fredda, in quanto  la sua autorità è strettamente legata a una significativa responsabilità. Una delle sfide più pressanti è il ruolo dell’AI nella diffusione di fake news.

Le intelligenze artificiali sono in grado di distorcere la realtà. All’origine della generazione di contenuti sta una ricerca da parte dell’AI, col fine di rispondere alle domande degli utenti. Tuttavia, se le informazioni trovate sono non veritiere, si potrebbe assistere a un aumento esponenziale di diffusione delle disinformazioni. 

In una serie di reportage sono emersi dei seri motivi di preoccupazione. La corsa presidenziale statunitense è solo una delle 50 elezioni che si svolgono quest’anno, e le immagini e l’audio generati dall’IA destinati a ingannare, persuadere o semplicemente confondere gli elettori sono pronti a spazzare il globo mentre i governi faticano a stare al passo.

Sono stati citati diversi esempi. Tra questi vi è l’audio falso del leader del Partito Laburista britannico Keir Starmer che rimprovera il suo staff. Inoltre, sono state riportate delle chiamate automatiche con un ipotetico “Joe Biden” che scoraggia gli elettori dal partecipare alle primarie del New Hampshire, evento chiave nel processo elettorale degli Stati Uniti. E per aumentare lo stato di confusione, un falso Tom Cruise critica le Olimpiadi di Parigi come parte di uno sforzo di propaganda russa.

Per creare un deepfake, ossia un contenuto multimediale manipolato, vengono utilizzati degli algoritmi di apprendimento automatico, che analizzano e imitano  le caratteristiche facciali di una persona in un video di riferimento, generando immagini o video che sembrano autentici.

Tuttavia, nonostante le sfide, l’intelligenza artificiale possiede le giuste capacità per contrastare il fenomeno della disinformazione. Ad esempio, gli algoritmi di apprendimento automatico potrebbero essere addestrati per rilevare e segnalare i deepfake. Una svolta rivoluzionaria verrebbe rappresentata dalla collaborazione tra governi, industria tecnologica, organizzazioni non governative e istituzioni accademiche. Con un buon principio di partnership basato sulla condivisione di dati e risorse  e sulla promozione della ricerca interdisciplinare, potrebbero svilupparsi delle strategie vincenti per mitigare questo impatto negativo.  

È importante ricordare che, nonostante l’AI possa generare contenuti convincenti, ciascun utente assume le proprie responsabilità una volta divulgate le informazioni ottenute. In ogni caso, bisogna essere consapevoli dei rischi provocati da un processo di disinformazione ed è necessario mostrarsi propensi all’adozione di un approccio critico nei confronti delle informazioni ricevute.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *