Ne discutiamo con Brando Benifei europarlamentare e co-rapporteurs per il Parlamento Europeo dell’AI act incontrandolo prima a Bruxelles e poi al Circolo dei lettori il 16 novembre.
Uno studio del McKinsey Global Institute del 2019 riteneva lo spazio europeo fosse molto in ritardo nel campo dell’AI, sia come aziende e istituzioni, rispetto alle controparti statunitensi e cinesi nell’adozione delle tecnologie legate ai big data e all’apprendimento automatico su cui si basa l’IA.
Nel dicembre 2023 è stata approvata l’AI Act, la prima Direttiva europea che è anche il primo regolamento mondiale per mettere ordine alla complessità della materia.
Abbiamo rivolto all’Onorevole Benifei tre domande semplici: ieri, oggi e domani dell’intelligenza artificiale di matrice europea.
Ieri. L’Unione europea ha iniziato a occuparsi di intelligenza artificiale già dal 2018, anche se è in questa legislatura che c’è stata un’accelerazione. La Commissione europea ha lavorato partendo dalla costituzione di un gruppo di esperti e da una serrata consultazione tra le parti coinvolte, imprese, società civile, settore pubblico per recuperare il tempo perduto. A metà legislatura, il Parlamento costituisce il Comitato Speciale sull’intelligenza europea (AIDA), di cui sono relatore, per lavorare di pari passo con la Commissione alla preparazione, nel 2021, della prima proposta di direttiva. Lo spirito di questo testo nasce dall’esigenza di colmare un gap e di arginare la frammentazione che si stava creando in assenza di una Direttiva. Per esempio, Germania e Francia stavano iniziando a fare leggi nazionali sull’intelligenza artificiale e l’intento del regolamento è proprio di armonizzare lo spazio europeo.
Oggi. L’iter istitutivo che nel giugno di quest’anno ha portato all’approvazione dell’AI Act, prevede un trilogo a dicembre, ovvero una negoziazione finale che coinvolge Parlamento europeo, la Commissione e il Consiglio, superata la quale il testo diventerà esecutivo ed obbligherà tutti gli Stati membri ad adeguarsi nel giro di due anni, in quanto tema proprio della policy del Mercato Unico su cui le decisioni dell’Unione europea diventano vincolanti. Questa è una fase decisiva, molto delicata e problematica, perché la negoziazione finale potrebbe benissimo bloccarsi ed i tempi si allungherebbero, cosa che non auspichiamo.
I temi si cui c’è ancora molta distanza sono due in particolare. Il primo riguarda le regole per i modelli più potenti di AI generativa su cui il Parlamento vorrebbe più severità e trasparenza, mentre alcuni governi oggi sono meno favorevoli perché salvaguardano gli investimenti già fatti; il secondo si riferisce invece alla sorveglianza sociale e in particolare alle deroghe per polizia e forze dell’ordine. Su questo il Parlamento europeo ha ancora distanze significative, con alcuni governi che vorrebbero avere più libertà per applicare tecniche di intelligenza artificiale per il controllo sociale e la sorveglianza, mentre la posizione europea vorrebbe limitarne l’uso anche da parte della polizia per difendere il diritto fondamentale alla privacy ed evitare l’abuso di tecniche di controllo. Su altri punti invece la vicinanza delle posizioni è quasi raggiunta, come ad esempio per la classificazione dell’alto rischio, cioè, identificare quali sistemi possano potenzialmente diventare nocivi e per questo essere sottoposti a una procedura di conformità e verifiche sulla qualità dei dati.
Le parti sono abbastanza d’accordo, anche, sulla definizione di rischio dell’AI e sulla protezione di alcuni ambiti più delicati e sensibili, come i luoghi di lavoro, la scuola, l’esercizio dei processi democratici, la salute, l’amministrazione o la giustizia. Così come sulla governance dei dati, sull’uso dell’AI per la sostenibilità ambientale, sulle regole per la supervisione umana. Su tutti questi punti l’accordo è praticamente raggiunto. Sicuramente l’arrivo dell’intelligenza artificiale generativa nell’ultimo anno ha squassato il dibattito pubblico e ha richiesto una sezione speciale specifica nel regolamento, in particolare sui temi della trasparenza e della riconoscibilità dei contenuti prodotti da intelligenza artificiale. La nostra proposta, ad esempio, è di inserire una filigrana invisibile, ma leggibile dai sistemi elettronici che verificano i contenuti e possono classificarli come tali. Poi anche su temi complicatissimi dal punto di vista tecnico come la tutela del copyright e del diritto d’autore, rispetto al fatto che i prodotti di ingegno vengono usati per allenare i sistemi in maniera del tutto indiscriminata e senza nessuna compensazione, stiamo arrivando ad una soluzione che offra più tutele nei confronti delle big tech.
Domani. Dopo l’approvazione della direttiva AI Act dovranno passare ancora un paio d’anni perché diventi operativa in quanto dovranno essere costituite le basi nazionali per approvare la legge, le autorità di supervisione e un ufficio europeo dell’intelligenza artificiale per quella che viene chiamata governance and enforcement di questa legge. L’atto legislativo sarà poi rafforzato da un patto per l’intelligenza artificiale, che è stato lanciato a Madrid lo scorso 16 Novembre in cui, dopo aver pubblicamente spiegato la direttiva, è stato chiesto il coinvolgimento di tutte le parti in causa, funzionari pubblici, imprese, sviluppatori e utilizzatori e offerti strumenti di accompagnamento nella compliance del rispetto della legge proprio per evitare di produrre uno shock nel momento in cui diventerà obbligatoria la direttiva.
L’AI act europeo ha una forte connotazione etica dato che affronta soprattutto questioni più di tipo valoriale di garanzia democratica, cioè l’idea che l’Europa possa avere un proprio modello che mette al centro l’essere umano e la tutela dei diritti fondamentali dei consumatori, dei lavoratori, dei cittadini, delle imprese e delle istituzioni pubbliche. L’AI europea rappresenta un modello che non si occupa soltanto delle logiche di mercato, ma vuole generare uno spazio sicuro per la vita quotidiana dei suoi cittadini e cittadine. E su questo aspetto anche gli altri big player ci stanno venendo dietro. L’executive order della Casa Bianca di fatto apre alle questioni etiche e alle maggiori tutele. Anche le delegazioni del Regno Unito, benché fuori dall’Unione, ma con una grossissima quota di investimento pubblico e privato nel campo dell’AI, discutono con noi della necessità di salvaguardare i due livelli, il rischio quotidiano legato alla vita comune e il rischio sistemico legato alle concentrazioni di mercato.
Siamo consapevoli che alcuni rischi non siano eliminabili, ma possono essere controllati e ridotti almeno su tre fronti: la salute, la sicurezza e i diritti fondamentali come intesi dalla Carta europea dei diritti.
A livello globale, soprattutto rispetto al discorso della riduzione del rischio, lo spirito sta cambiando e molte delle decisioni che stanno prendendo altri players assomigliano alle nostre. Forse le decisioni non sono così cogenti come quelle europee, ma comunque almeno a livello di raccomandazioni e di codici di condotta la direzione è quella. E noi siamo i primi a fare una legge.
Lo scenario futuro, nonostante l’ottimismo di Bruxelles, è comunque molto incerto. Secondo alcuni osservatori internazionali l’Unione europea rischia di perdere nuovamente il recuperato terreno per via della farraginosità del suo processo decisionale e dell’incompiutezza del processo di integrazione. Le maggiori economie europee, Francia, Germania, e a traino anche Italia, si stanno alleando per ostacolare l’approvazione della legge europea opponendosi alla regolamentazione sui tipi più potenti di intelligenza artificiale. In un articolo di POLITICO (Power grab by France, Germany and Italy threatens to kill EU’s AI Bill del 20 novembre) si legge che i tre paesi stanno ostacolando l’approvazione affermando che l’Europa ha bisogno di “un quadro normativo che promuova l’innovazione e la concorrenza, in modo che gli attori europei (ndr. i singoli Stati) possano emergere e portare la loro voce e i loro valori nella corsa globale dell’intelligenza artificiale”. Che potrebbe essere tradotto con la difesa degli interessi nazionali.
Mentre in Europa calano le prime ombre della sera, negli Stati Uniti viene adottato un approccio più verticale nella governance dell’IA che, cosa importante, non comporterà una nuova legislazione significativa e garantirà tempi più rapidi di attuazione. Il Governo di Washington vuole autorizzare le agenzie federali esistenti a utilizzare le leggi già in vigore per imporre maggiori controlli su campi specifici di intelligenza artificiale. Non è il modo più organico di governare il campo, ma il fatto è che gli Stati Uniti si muoveranno più velocemente dell’Europa sull’effettiva governance dell’intelligenza artificiale e questo riporta a Washington il boccino per potersi rivolgere a quei paesi che cercano un’alternativa più liberista e meno stringente rispetto alla proposta di Bruxelles.
To be continued…
Foto di Christian Lue su Unsplash
Dal progetto AI Aware nasce il Magazine Intelligenza Artificiale, che contiene tutti i contenuti che trovavi in questo sito, che mantiene solo lo storico dei contenuti ma non verrà più aggiornato.
Continua sul nuovo sito magia.news