La crescente confusione e la lotta aperta su come regolare l’intelligenza artificiale sono questioni prevedibili e affrontate in modo proattivo da molti studiosi del settore. Dopo 10 anni di attiva partecipazione a questi sforzi, è giunto il momento di sintetizzare alcune idee chiave della ricerca precedente in un quadro regolamentare. Questo framework potrebbe significativamente contribuire a guidare la regolamentazione dell’IA in modo da armonizzare gli incentivi delle aziende tecnologiche private e dei governi pubblici.
L’idea chiave è quella di richiedere agli sviluppatori di IA di fornire documentazione che dimostri il raggiungimento degli obiettivi fissati per proteggere i diritti delle persone durante tutto il processo di sviluppo e implementazione. Questo offre un modo diretto per collegare i processi degli sviluppatori e l’innovazione tecnologica alla regolamentazione governativa, sfruttando al meglio l’esperienza degli sviluppatori e dei legislatori, supportando così l’avanzamento di un’IA allineata con i valori umani.
Gli sviluppi attuali nell’IA sono guidati dal Machine Learning (ML), che può essere compreso come una progressione attraverso quattro pilastri: Formulazione del Problema, Raccolta dei Dati, Valutazione e Analisi del Modello, e Implementazione. Questi pilastri possono essere utilizzati come verità fondamentali per i regolatori, connettendo la regolamentazione a ciò che le aziende tecnologiche sono più predisposte a fare. Questa prospettiva fornisce un approccio regolamentare che esamina l’IA nell’intero processo di sviluppo, compresi gli sviluppatori e le persone soggette agli output.
Ogni pilastro influisce sui diritti e dovrebbe generare documenti regolamentari. Questi diritti includono i diritti umani, civili e culturali, e gli artefatti regolamentari includono una documentazione rigorosa che dettaglia cosa entra in ogni pilastro e cosa ne esce. La regolamentazione orientata ai diritti può richiedere che gli sviluppatori forniscano prove che specifici diritti siano garantiti.
La regolamentazione esterna dello sviluppo dell’IA dovrebbe basarsi sul ricorso offerto alle diverse parti e su come i loro diritti sono infine influenzati. La regolamentazione dovrebbe garantire che chiunque utilizzi il lavoro di qualcun altro senza consenso possa essere notificato e rimuovere il proprio lavoro dal sistema. I diritti dovrebbero includere il diritto all’esistenza, affrontando rischi esistenziali diretti o indiretti da parte dell’IA.
Non dobbiamo essere reattivi ai risultati della tecnologia. Concentrandoci sui diritti delle persone e sull’anticipazione rigorosa degli esiti tecnologici, possiamo plasmare l’IA per massimizzare i benefici per l’umanità, riducendo al minimo i danni alle nostre vite, alla nostra libertà e alle nostre opportunità.
Leggi qui l’intero articolo: The Pillars of a Rights-Based Approach to AI Development