Nel libro AI Snake Oil, di Arvind Narayanan e Sayash Kapoor spiegano le differenze fondamentali tra i vari tipi di intelligenza artificiale, il motivo per cui persone, aziende e governi cadono nella trappola dell’intelligenza artificiale ingannevole. Il libro fa luce sul perché l’intelligenza artificiale non può risolvere i problemi dei social media e perché dovremmo preoccuparci molto di più di come le persone useranno l’IA piuttosto che di quello che l’IA potrebbe fare da sola. Mentre l’IA generativa cattura l’attenzione dei media, l’IA predittiva utilizzata nella giustizia penale, nella finanza, nella sanità e in altri settori ha un impatto molto più significativo nella vita delle persone. Discutiamo approfonditamente di come l’IA predittiva possa fallire. Il libro pone anche l’attenzione sui pericoli di un mondo in cui l’IA continua ad essere controllata da grandi aziende tecnologiche sostanzialmente irresponsabili.
Il libro non è semplicemente un manuale: ogni capitolo include ricerche originali. Tramite esercizi e domande, può orientare le discussioni da utilizzare in aula, sia di scuola che di corsi specialisti sul rapporto uomo-tecnologia.
Più informazioni sul sito di AI Snake Oil: