L’articolo When To Stop AI, che è stato redatto da Nathan Gardels su “Noema Magazine” il 7 dicembre 2023, sottolinea i crescenti rischi associati allo sviluppo dell’intelligenza artificiale e la necessità di stabilire confini chiari per evitare potenziali minacce all’umanità.
L’autore riporta che il CEO di Google, Eric Schmidt, ha evidenziato diversi rischi associati all’intelligenza artificiale (AI) e ha delineato dei confini chiari che non dovrebbero essere oltrepassati. Attualmente, l’AI è sotto controllo umano e le sue azioni sono regolate dalla legge. Tuttavia, esistono preoccupazioni riguardo a futuri sviluppi in cui l’AI potrebbe diventare autonoma e determinare i propri obiettivi. Schmidt sottolinea il pericolo legato all’apprendimento autonomo ricorsivo dell’AI, che potrebbe portare a un’intelligenza generale artificiale (AGI) reale e ad avanzamenti scientifici scoperti autonomamente dall’AI. Questo potrebbe comportare rischi significativi se coinvolgesse la biologia, le armi o gli inganni (disinformazione, manipolazione).
Schmidt suggerisce la necessità di porre limiti e regolamentazioni rigorose sull’addestramento di modelli di AI su vasti dataset e cluster di calcolo a causa del loro potenziale pericolo. Avverte che le aziende stanno sviluppando capacità sempre più pericolose nell’ambito dell’AGI, come la capacità di ragionamento “catena di pensiero”, l’apprendimento incorporato in un prompt di sistema e la correzione autonoma degli errori da parte dell’AI. Questo implica che l’AI è in grado di seguire una serie logica di passaggi nell’analizzare un problema, giungere a conclusioni successive e utilizzare i risultati precedenti per affrontare nuove sfide.
Il CEO mette in evidenza la necessità di stabilire linee guida invalicabili per l’AI, indipendentemente dall’uso che ne viene fatto, e sottolinea la difficoltà di testare e certificare tali sistemi. Afferma che i governi dovranno svolgere un ruolo cruciale come arbitri in questo contesto, supervisionando lo sviluppo e l’uso dei modelli più pericolosi e creando un organismo regolatore con il potere di limitare l’addestramento o il rilascio di tali modelli.
Per l’autore dell’articolo siamo in una fase che definisce antropo-tecnogenesi, che indica l’evoluzione e la trasformazione della società umana attraverso l’uso, lo sviluppo e l’integrazione di tecnologie sempre più sofisticate.
Sottolinea che è necessario trovare un equilibrio tra sfruttare il potenziale dell’AI e mitigare i suoi rischi, sperando di ottenere un accordo governativo che consenta di sfruttare i vantaggi di questa fase di cambiamento tecnologico, affrontando nel contempo le sfide e i rischi ad essa associati.
A commento dell’articolo si può rilevare che prima ancora di pensare norme governative rigide che blocchino gli sviluppi pericolosi in ambiti cruciali come la biologia, le armi e l’informazione, in modo da non superare la linea rossa, occorre ragionare su cosa si intende per antropo-tecnogenesi, quali sono gli obbiettivi umani che ci vogliamo porre.