Mercoledì 6 settembre il garante del Movimento 5 Stelle, Beppe Grillo, ha pubblicato nel suo Blog un video poi ripreso dai media, in cui, grazie all’intelligenza artificiale parla in cinese, prospettando ironicamente l’incrocio della ‘via della seta’ con la ‘via del basilico’. Il video richiama quello di Kemal Kilicdaroglu, che è stato il principale sfidante del presidente Tayyip Erdogan, in cui il politico parlava in inglese grazie all’AI.
I due episodi sono esempi macroscopici dei possibili usi dell’AI nei social media nel dibattito politico e durante le elezioni, ciò può avere serie conseguenze, tra cui la diffusione di notizie false, la polarizzazione politica e la manipolazione dell’opinione pubblica. Questi effetti possono essere paragonati agli effetti collaterali di un farmaco che richiedono attenzione e controllo.
Da ciò se ne dovrebbe dedurre l’importanza di regolamentare l’uso dell’AI nei social media, soprattutto durante le elezioni, come accade per i farmaci, affinché ci siano norme che guidino l’uso etico delle tecnologie AI in politica volte a preservare l’integrità delle dinamiche democratiche.
Senza norme chiare si diffonde disinformazione, messaggi sensazionali e controversi, si polarizza l’elettorato, sempre più chiuso nelle ‘bolle informative’, rafforzando le divisioni politiche.
Da una buona normativa, tutti potrebbero coglierne benefici perché l’AI è in grado di elaborare grandi quantità di dati dai social media e può quindi fare previsioni elettorali accurate, ma, soprattutto, può aiutare a coinvolgere gli elettori, migliorando la partecipazione e la comprensione delle questioni politiche.
L’AI potrebbe essere impiegata per identificare e mitigare la diffusione di notizie false e disinformazione online, contribuendo a mantenere un ambiente di informazione affidabile, ma non sembra essere questa la strada che si sta prendendo.
I seguenti quattro articoli evidenziano le sfide legate alla disinformazione online e al ruolo delle piattaforme dei social media nelle dinamiche politiche:
“As the US Election Campaign Heats Up, So Could the Market for Misinformation” (Kari Paul, The Guardian, 5 settembre 2023) esamina la decisione di Twitter di consentire nuovamente la pubblicità politica sulla sua piattaforma, sollevando preoccupazioni sulla diffusione della disinformazione in vista delle elezioni del 2024. L’acquisto di Twitter da parte di Elon Musk ha ulteriormente sollevato dubbi sulla gestione delle elezioni attraverso le piattaforme di social media.
“Meta Rejects Own Board’s Request to Suspend Account of Cambodian Strongman” (Regine Cabato, The Washington Post, 30 agosto 2023) riporta che Meta ha respinto la richiesta del suo Oversight Board di sospendere l’account Facebook del leader cambogiano Hun Sen per incitamento alla violenza. Nonostante l’Oversight Board abbia sottolineato la necessità di non utilizzare le piattaforme di social media per minare le elezioni, Meta ha basato la sua decisione su protocolli relativi al discorso delle figure pubbliche, sollevando preoccupazioni sulla sua attenzione ai diritti umani e alla sicurezza degli utenti.
“Meta Overhauls Controversial ‘Dangerous Organizations’ Censorship Policy” (Sam Biddle, The Intercept, 25 agosto 2023) rivela che Meta ha aggiornato la sua politica di censura delle “Organizzazioni e individui pericolosi” per ridurre la rimozione di contenuti legittimi. Tuttavia, gli esperti ritengono che i nuovi cambiamenti possano lasciare irrisolti problemi significativi.
“Following Elon Musk’s Lead, Big Tech Is Surrendering to Disinformation” (Naomi Nix e Sarah Ellison, The Washington Post, 25 agosto 2023) mette in evidenza come le principali aziende di social media, inclusi Twitter, Facebook e YouTube, stiano riducendo i loro sforzi nel combattere la disinformazione politica, specialmente in vista delle elezioni presidenziali del 2024. Queste piattaforme stanno allentando le restrizioni sui contenuti politici falsi e ciò potrebbe avere un impatto significativo sulle elezioni, anche perché l’ex presidente Donald Trump continua a sostenere che la frode elettorale ha causato la sua sconfitta nel 2020.
Questi articoli confermano la preoccupazione che l’AI possa alterare la formazione spontanea della volontà collettiva, che rappresenta il fondamento della legittimità del potere nelle nazioni democratiche attraverso le elezioni.
Sembra perspicua l’analogia tra l’AI e il farmaco: entrambi sono strumenti potenti che, se non gestiti con responsabilità, possono avere effetti devastanti sulla società. Proprio come un farmaco può curare o danneggiare la salute di una persona a seconda del suo uso, anche l’AI può essere un potente strumento per il bene comune o un mezzo per distorcere la verità e influenzare negativamente la politica.
Solo attraverso un utilizzo consapevole e attento dell’AI è possibile garantire che il processo democratico rimanga fedele ai principi fondamentali di partecipazione libera e informata da parte dei cittadini.
Foto di Arnaud Jaegers su Unsplash