Per introdurre la questione della difficoltà di avere AI in grado di dare spiegazioni oltre che di fare previsioni, Il prof. Boella ha menzionando AlphaGo, un programma di intelligenza artificiale che ha sconfitto campioni di Go, ma che spesso non è in grado di fornire spiegazioni per le sue mosse.
Successivamente, ha fatto un collegamento con Isaac Newton, noto per la scoperta della legge di gravitazione universale. Newton è stato uno scienziato, ma aveva anche interessi alchemici e una visione non materialista del mondo, si dichiarava religioso, quasi a voler dire che non tutto può essere completamente spiegato o razionalizzato. L’astrofisico Edmund Halley gli chiese aiuto per calcolare l’orbita di una cometa, ma Newton si rifiutò proprio perché era consapevole della complessità delle previsioni nei sistemi planetari a causa delle interazioni tra variabili. Anche quando si ha un modello di spiegazione è difficile fare previsioni.
Inoltre la teoria del caos enfatizza come tutto nel mondo sia interconnesso e come piccole azioni o cambiamenti possano portare a grandi effetti: il minimo battito d’ali di una farfalla è in grado di provocare un uragano dall’altra parte del mondo.
Il prof. Boella ha messo in evidenza che l‘incapacità dell’AI di fornire spiegazioni chiare solleva problemi di responsabilità e questioni etiche nei casi in cui sono coinvolte decisioni complesse, come avviene nell’utilizzo delle armi, dei veicoli, dei droni autonomi, contesti in cui l’AI prende decisioni sulla vita e sulla morte.
Ha continuato analizzando i mutamenti sociali dovuti all’AI, la manipolazione del linguaggio con varie tecniche retoriche di marketing e i cambiamenti nel mondo del lavoro che stanno aumentando le disuguaglianze e la concentrazione di potere nelle mani delle grandi aziende tecnologiche, come spiega Varoufakis nel suo Technofeudalism.
Nell’ultima parte della lezione viene presentata la tensione tra tecnologia AI e libertà: l’intelligenza artificiale può garantire efficienza e benessere, ma c’è una crescente preoccupazione riguardo al controllo esercitato da giganti tecnologici come Google e Meta che possono costituire una sorta di totalitarismo di cui Arendt ci ha spiegato le dinamiche nel secolo scorso.
Queste aziende utilizzano algoritmi avanzati per determinare ciò che vediamo online, dalla pubblicità personalizzata alle notizie che ci vengono mostrate. Sebbene possa sembrare un servizio utile, questa pratica solleva dubbi sulla nostra libertà di scelta e la nostra privacy. Siamo influenzati da decisioni automatizzate che cercano di massimizzare il coinvolgimento dell’utente e i profitti aziendali.
Ciò ci porta a riflettere sulla prospettiva di un futuro simile alle distopie descritte nei romanzi “1984” e “Brave New World“. In questi mondi, la tecnologia è usata per il controllo totale o per modellare il pensiero e il comportamento delle persone.
La lezione si conclude citando lo storico e filosofo Harari che teme che l’AI, manipolando l’informazione e l’esperienza, possa frammentare i miti condivisi, cioè le religioni, le narrazioni, i valori e le ideologie. Questo potrebbe mettere in discussione la coesione sociale, la condivisione di valori fondamentali e la democrazia.
Foto di Igor Omilaev su Unsplash.