Cerca
Close this search box.

Yann LeCun di Meta non crede nella narrazione catastrofica generata da IA. Ecco perché!

Il vicepresidente e capo scienziato dell’intelligenza artificiale di Meta, Yann LeCun, insiste nel sostenere che i nostri timori riguardo la competenza, in continua espansione, dell’intelligenza artificiale sono eccessivi.

LeCun è uno dei leader più importanti del gruppo di ingegneri della Silicon Valley. Spesso definito come uno dei “padrini dell’intelligenza artificiale”, LeCun ha aperto la strada, negli anni ’90 ed inizio degli anni 2000, al sottoinsieme dell’apprendimento automatico noto come ‘deep learning’, su cui sono stati costruiti grandi modelli linguistici come GPT-3 e GPT-4. Nel 2013, LeCun ha, poi, creato il laboratorio di ricerca sull’intelligenza artificiale di Facebook.

Tuttavia, LeCun ha visto, in prima persona, come spesso ci sia stata un’opposizione al rilascio libero di questo tipo tecnologie, per paura di reazioni pubbliche avverse e rischi legali. Tali strumenti, infatti, per quanto impressionanti ed utili possano essere, presentano grossi difetti, sostiene LeCun.

Non a caso, meno di due settimane prima del debutto di ChatGPT, Meta ha rilasciato il proprio chatbot chiamato ‘Galactica’, ma lo ha staccato a distanza di tre giorni, dopo che era stato ampiamente criticato per aver prodotto solo ‘sciocchezze’.

Così, LeCun riconosce che distribuire gratuitamente e liberamente questo tipo di tecnologia comporta il rischio di abuso da parte degli utenti. Lo stesso Facebook è nato come social network per studenti universitari ed è poi, alle volte, stato utilizzato per sovvertire le elezioni ed alimentare la propaganda terroristica. Per cui, ci saranno, senza dubbio, conseguenze indesiderate dell’intelligenza artificiale generativa.

Tuttavia, LeCun ritiene che dare a più persone l’accesso a questa tecnologia aiuterà anche a migliorarla rapidamente, ed è un qualcosa che dovremmo desiderare tutti.

In questo senso, lo stesso LeCun, per esempio, non crede nella narrativa catastrofica (i.e. ‘doomer narrative’). “I grandi modelli linguistici sono inclini alle allucinazioni e non hanno alcuna idea di come funziona il mondo, nessuna capacità di pianificazione e nessuna abilità di completare compiti di base che un bambino di 10 anni potrebbe apprendere in pochi minuti”, sostiene. “Non sono arrivati ​​neanche lontanamente al raggiungimento dell’intelligenza umana o addirittura animale”, continua, “e ci sono poche prove a questo punto che ci riusciranno”.

LeCun, dunque, ritiene che, sì, ci sono dei rischi nel rilasciare questo tipo tecnologia, rischi che le multinazionali giganti come Meta sono diventate rapidamente inclini ad assumersi; ma, di certo, non il rischio che possano distruggere l’umanità (sic!).

Leggi l’articolo completo:

Why Meta’s Yann LeCun isn’t buying the AI doomer narrative – Fast Company (FC)

Immagine di copertina via duckduckgo

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto