Come la pensano i tanti ricercatori che non sono d’accordo con i “padrini” dell’AI che ci allarmano prefigurando il rischio dell’estinzione della razza umana per colpa di una superhuman intelligence?
Blaise Agüera y Arcas di Google Research con Blake Richards, Dhanya Sridhar, e Guillaume Lajoie sull’Economist, fanno notare due retropensieri riguardo alle affermazioni di Hinton, Bengio e altri.
Primo, si sta invocando implicitamente l’argomentazione della scommessa di Pascal: anche se il rischio fosse remotissimo, è così grave che è meglio prenderlo in considerazione.
Ma da dove viene il rischio? Se anche un’intelligenza superumana entrasse in competizione con la razza umana, perchè questo dovrebbe portare alla nostra estinzione? Se si usa la metafora dell’evoluzione naturale allora bisogna guardare a come funziona davvero: perchè escludere possibilità di simbiosi fra esseri umani ed AI? Però gli autori dimenticano il presupposto degli allarmisti esistenziali è che l’AI dovrebbe difendersi dalla razza umana che vuole spegnerla. Quindi il problema in ultima analisi siamo noi.
Secondo, si invoca una regolazione statale e internazionale dell’AI contro i rischi esistenziali. Implicitamente questo vuol dire però delegare lo sviluppo dell’AI solo ai grandi player che danno garanzie, facilitando implicitamente l’emersione di monopolisti euno sviluppo di una AI che persegue i vantaggi del capitale, ma restringendo la possibilità di un approccio diverso all’AI che guarda prima di tutto ai benefici per la società.
Si fa dimenticare così l’urgenza di regolare gli aspetti che fanno già danni, come la mancanza di trasparenza sui dataset, la contraffazione degli umani, i rischi di monopolio.