banner

Blog

Jun 18, 2023

Il ricercatore costruisce anti

Will Knight, wired.com - 30 agosto 2023 13:51 UTC

A maggio, Sputnik International, un media russo di proprietà statale, ha pubblicato una serie di tweet in cui criticava la politica estera degli Stati Uniti e attaccava l’amministrazione Biden. Ognuno di essi ha suscitato una confutazione secca ma ben congegnata da un account chiamato CounterCloud, a volte includendo un collegamento a notizie o articoli di opinione pertinenti. Ha generato risposte simili ai tweet dell’ambasciata russa e dei notiziari cinesi che criticavano gli Stati Uniti.

Le critiche russe agli Stati Uniti sono tutt'altro che insolite, ma il materiale respinto da CounterCloud è stato: i tweet, gli articoli e persino i giornalisti e i siti di notizie sono stati realizzati interamente da algoritmi di intelligenza artificiale, secondo la persona dietro al progetto, che si fa chiamare chiama Nea Paw e afferma che è progettato per evidenziare il pericolo della disinformazione sull’intelligenza artificiale prodotta in serie. Paw non ha pubblicato pubblicamente i tweet e gli articoli di CounterCloud, ma li ha forniti a WIRED e ha anche prodotto un video in cui descriveva il progetto.

Paw afferma di essere un professionista della sicurezza informatica che preferisce l'anonimato perché alcune persone potrebbero credere che il progetto sia irresponsabile. La campagna CounterCloud che respinge la messaggistica russa è stata creata utilizzando la tecnologia di generazione di testo di OpenAI, come quella dietro ChatGPT, e altri strumenti di intelligenza artificiale facilmente accessibili per generare fotografie e illustrazioni, dice Paw, per un costo totale di circa $ 400.

"Non penso che esista una soluzione miracolosa per questo, proprio come non esiste una soluzione miracolosa per gli attacchi di phishing, spam o ingegneria sociale", afferma Paw in una e-mail. Sono possibili mitigazioni, come educare gli utenti a prestare attenzione ai contenuti manipolativi generati dall’intelligenza artificiale, fare in modo che i sistemi di intelligenza artificiale generativa tentino di bloccare gli usi impropri o dotare i browser di strumenti di rilevamento dell’intelligenza artificiale. "Ma penso che nessuna di queste cose sia davvero elegante, economica o particolarmente efficace", afferma Paw.

Negli ultimi anni, i ricercatori che si occupano di disinformazione hanno avvertito che i modelli linguistici dell’intelligenza artificiale potrebbero essere utilizzati per creare campagne di propaganda altamente personalizzate e per alimentare account di social media che interagiscono con gli utenti in modi sofisticati.

Renee DiResta, responsabile della ricerca tecnica presso l'Osservatorio Internet di Stanford, che monitora le campagne di informazione, afferma che gli articoli e i profili dei giornalisti generati nell'ambito del progetto CounterCloud sono abbastanza convincenti.

“Oltre agli attori governativi, le agenzie di gestione dei social media e i mercenari che offrono servizi di operazioni di influenza prenderanno senza dubbio questi strumenti e li incorporeranno nei loro flussi di lavoro”, afferma DiResta. Ottenere contenuti falsi ampiamente distribuiti e condivisi è una sfida, ma questo può essere fatto pagando utenti influenti per condividerli, aggiunge.

Sono già emerse alcune prove di campagne di disinformazione online basate sull’intelligenza artificiale. Alcuni ricercatori accademici hanno recentemente scoperto una rozza botnet che spinge criptovalute, apparentemente alimentata da ChatGPT. Il team ha affermato che la scoperta suggerisce che l’intelligenza artificiale dietro il chatbot è probabilmente già utilizzata per campagne di informazione più sofisticate.

Anche le campagne politiche legittime si sono rivolte all’uso dell’intelligenza artificiale in vista delle elezioni presidenziali americane del 2024. Ad aprile, il Comitato Nazionale Repubblicano ha prodotto un video in cui attaccava Joe Biden e includeva immagini false generate dall’intelligenza artificiale. E a giugno, un account sui social media associato a Ron Desantis ha incluso immagini generate dall’intelligenza artificiale in un video inteso a screditare Donald Trump. La Commissione elettorale federale ha affermato che potrebbe limitare l’uso dei deepfake negli annunci politici.

Micah Musser, un ricercatore che ha studiato il potenziale di disinformazione dei modelli linguistici dell’intelligenza artificiale, si aspetta che le campagne politiche tradizionali provino a utilizzare modelli linguistici per generare contenuti promozionali, e-mail di raccolta fondi o annunci di attacco. "È un periodo totalmente traballante in questo momento in cui non è veramente chiaro quali siano le norme", dice.

Gran parte del testo generato dall’intelligenza artificiale rimane abbastanza generico e facile da individuare, afferma Musser. Ma far sì che gli esseri umani controllino i contenuti generati dall’intelligenza artificiale che spingono la disinformazione potrebbe essere molto efficace e quasi impossibile smettere di usare i filtri automatizzati, dice.

CONDIVIDERE