Dopo Geoffrey Hinton, anche l’altro “padrino dell’AI”, Yoshua Bengio, direttore scientifico del Montreal Institute for Learning Algorithms (MILA), lancia l’allarme “rischi catastrofici causati dall’AI” in un intervento sull’Economist: una “superhuman AI” potrebbe “violare i diritti umani, minare la democrazia o minacciare l’umanità intera”.
Perchè non si rende conto, come anche Hinton e molti altri autorevoli scienziati, che nel lanciare questo allarme sta screditando il lavoro dei tanti scienziati che guardano ai già molti rischi più a breve termine e che già ora chi ha cattive intenzioni può usare l’AI per violare i diritti umani e minare la democrazia?
Perchè ipotizza che la responsabilità possa essere nell’AI stessa, diventando “un’altra specie sulla terra che ci sorpassa in intelligenza e potere”, facendoci “perdere il controllo sul nostro futuro”?
Perchè parla solo di intelligenza sovraumana, implicitamente indirizzando la ricerca verso il solo obiettivo di creare AI che emulano gli esseri umani e non considerando altre forme di intelligenza, come l’intelligenza distribuita della società?
Chi ha l’autorevolezza di Bengio e Hinton dovrebbe capire che le proprie affermazioni condizionano il lavoro della comunità scientifica e dovrebbero essere coscienti delle responsabilità che si prendono in questo ruolo.
Altrimenti il termine “padrino” diventa davvero pertinente.
Per un punto di vista diverso: