banner

Blog

Jun 20, 2023

Opinione: regolamentare l’uso dell’intelligenza artificiale negli annunci politici è un imperativo

Di Thomas R. Bundy III e Andrew D. Herman

Thomas R. Bundy III è stato cofondatore dello studio legale Lawrence & Bundy, dove si occupa di difesa, contenziosi commerciali e indagini interne. Andrew D. Herman è presidente del gruppo di diritto politico di Lawrence & Bundy, dove si concentra sulle elezioni e su altre attività politiche.

Poco dopo il suo insediamento, il governatore del Maryland Wes Moore (D) ha visitato un istituto di ricerca che si occupa di intelligenza artificiale, apprendimento automatico e realtà virtuale e aumentata. Ha pubblicizzato il progetto come “un perfetto esempio di come il Maryland può diventare più competitivo dal punto di vista economico creando opportunità attraverso partenariati innovativi”. Tuttavia, quando lo Stato abbraccia la promessa dell’intelligenza artificiale, deve anche affrontare i rischi presentati da questa tecnologia.

Ad esempio, l’intelligenza artificiale è un elemento importante negli attuali scioperi di Hollywood. Il presidente della SAG-AFTRA, Fran Drescher, ha riassunto la preoccupazione: “Se non teniamo duro in questo momento, saremo tutti nei guai, correremo tutti il ​​rischio di essere sostituiti dalle macchine”.

Anche altri personaggi pubblici che fanno affidamento sui media visivi per la promozione dovranno affrontare questo problema. Ma, a differenza dei talenti di Hollywood, questo gruppo può affrontare la minaccia in modo unilaterale. Un recente editoriale del Washington Post ha riassunto il problema: “Preparatevi per un sacco di campagne pubblicitarie letteralmente incredibili. L’intelligenza artificiale potrebbe devastare le elezioni”. Pertanto, i funzionari eletti del Maryland dovrebbero agire con decisione su questo tema.

La minaccia dell’intelligenza artificiale al discorso politico è reale. I candidati alla nomina presidenziale repubblicana hanno già condiviso parodie basate sull’intelligenza artificiale che prendono in giro i loro avversari, e il Comitato nazionale repubblicano ha recentemente mandato in onda un video falso che raffigura un futuro paesaggio infernale sotto il presidente Biden. Alcuni di questi annunci rivelavano l’uso dell’intelligenza artificiale, altri no.

E le cose possono peggiorare. Con l’avvicinarsi delle elezioni, la tentazione di inventare pubblicità più estreme potrebbe rivelarsi troppo allettante. Dopotutto, se un inganno reso possibile dall’intelligenza artificiale è efficace, è molto più facile chiedere perdono in seguito, soprattutto se non esistono vincoli legali specifici. L’ampia latitudine che i tribunali attualmente concedono al discorso politico ostacolano risposte efficaci a queste tattiche. La vittoria in una causa per diffamazione mesi dopo un’elezione fornirà una piccola ricompensa per un candidato perdente denigrato da un’invenzione dell’intelligenza artificiale.

Inoltre, nell’ultimo decennio si sono verificati numerosi tentativi stranieri di interferire con le elezioni nazionali attraverso i social media e altri mezzi. Non è difficile immaginare che attori stranieri utilizzino l’intelligenza artificiale nel 2024 per provocare il caos e screditare candidati e funzionari americani.

La soluzione migliore sarebbe, ovviamente, una legge federale che imponga standard a livello nazionale per l’uso dell’intelligenza artificiale nel discorso politico, penalizzi le violazioni e autorizzi le vittime a rimuovere rapidamente violazioni evidenti. A maggio, la senatrice Amy Klobuchar (D-Minn.) e la deputata Yvette Clarke (DN.Y.) hanno presentato progetti di legge nelle rispettive camere. Il REAL Political Advertisements Act richiederebbe la completa divulgazione dei contenuti generati dall’intelligenza artificiale negli annunci politici. Altre proposte più restrittive, compreso un disegno di legge che stabilisce sanzioni penali per la creazione di “falsi media elettronici che appaiono realistici”, sono fallite al Congresso. L'attuale disfunzione di Capitol Hill rende improbabile che il Congresso imponga presto riforme efficaci.

Le possibilità di regolamentazione nel ramo esecutivo sono leggermente migliori. A giugno, l’autorità di regolamentazione con l’autorità di affrontare questo problema, la Commissione elettorale federale, si è bloccata sulle proposte di regolamento sugli annunci politici che utilizzano l’intelligenza artificiale. La FEC ha riprovato questo agosto, cercando il commento del pubblico su una richiesta di regolamentazione che specificasse che l'uso di falsi contenuti generati dall'intelligenza artificiale, o "deepfakes", negli annunci della campagna viola il divieto federale di falsa dichiarazione fraudolenta dell'autorità della campagna. Sebbene abbia votato a favore della pubblicazione di questa richiesta, il commissario Allen Dickerson, ha affermato che l’intelligenza artificiale rimane un problema per il Congresso, identificando “gravi problemi legati al Primo Emendamento in agguato sullo sfondo di questo sforzo”.

CONDIVIDERE