Nella lezione “Ethics and AI” del 4 Ottobre, il Professor Guido Boella, ha sottolineato che l’intelligenza artificiale non è solamente una questione tecnologica, bensì è parte integrante di un contesto più ampio che abbraccia aspetti industriali, economici, sociali e ambientali. Questo insieme di fattori contribuisce all’impatto complessivo dell’AI sulla società, rendendo le questioni etiche ancora più rilevanti e urgenti.
Il Prof. Boella, prendendo spunto dalle riflessioni di Daniel Dennett, evidenzia l’errore comune di attribuire contenuti intenzionali all’AI. Come illustrato in modo eloquente da Emily M. Bender e Timnit Gebru, i sistemi AI sono simili a “pappagalli stocastici” incapaci di comprendere il contesto. Questo è un aspetto cruciale da considerare quando si affrontano le questioni etiche legate all’AI.
Uno degli argomenti centrali della lezione è stato il concetto di “bias” nei sistemi di AI. Il Prof. Boella ha illustrato come gli algoritmi di apprendimento automatico possano ereditare i pregiudizi presenti nei dati di addestramento, causando risultati discriminatori e ingiusti. Questo problema non è da considerarsi un mero errore tecnico, ma rappresenta un riflesso delle disuguaglianze sociali e culturali esistenti nella società, amplificandole attraverso la tecnologia. Kate Crawford, nel suo lavoro “Atlas of AI”, ha sottolineato che l’AI è fortemente influenzata dal contesto sociale e politico, evidenziando come i dati di addestramento riflettano spesso i pregiudizi culturali presenti nella società.
Un altro tema rilevante, affrontato nella lezione, riguarda la categorizzazione nei contesti dell’AI. Boella ha spiegato che l’assegnazione automatica di categorie di identità, come genere o razza, non è un processo neutro ma piuttosto è un atto di potere, influenzato da valutazioni culturali e sociali. Questo solleva preoccupazioni sull’eccessiva semplificazione, sulla mancanza di controllo individuale riguardo a come le persone vengono categorizzate e identificate. Mettere un’etichetta ha implicazioni politiche, poiché può influenzare il modo in cui le persone vengono percepite e trattate.
L’esplicabilità nei sistemi di AI è stato un altro aspetto chiave affrontato durante la lezione. Boella, facendo riferimento al testo “Everyday Chaos” di David Weinberger, ha sottolineato come la necessità di comprendere il motivo per cui un sistema di AI prende decisioni specifiche o effettua previsioni entri in conflitto con la complessità dei modelli di AI e dei processi decisionali coinvolti. Questa mancanza di comprensione può essere paragonata alla conoscenza tacita (tacit knowledge) di cui parla Michael Polanyi, poiché le ragioni dietro le decisioni dell’AI possono essere oscure e non facilmente comunicabili in modo esplicito. Ciò solleva questioni etiche legate alla trasparenza e alla comprensibilità delle decisioni prese dai sistemi di AI.
In conclusione, la lezione del Prof. Boella ha chiaramente dimostrato che l’AI non è semplicemente una tecnologia isolata, ma è parte integrante di un contesto più ampio che coinvolge aspetti sociali, politici ed etici. La discussione sull’etica dell’AI è in costante evoluzione e l’applicazione dei quattro principi della bioetica (Beuchamp e Childress) potrebbe non essere sufficiente a risolverli, serve un approccio etico rinnovato.
Guarda la registrazione della lezione