Cerca
Close this search box.

Le aziende di intelligenza artificiale devono essere ritenute responsabili dei danni che causano

I sistemi di intelligenza artificiale sviluppati con non curanza minacciano di amplificare l’ingiustizia sociale ed eroderne la stabilità, agevolare attività criminali o terroristiche su larga scala ed indebolire la comprensione della realtà.

Perciò, urge la necessità di stabilire la responsabilità delle relative aziende, in caso di danni causati dai loro prodotti, soprattutto se prevedibili e prevenibili. Oltrechè:

  • Dare ai revisori indipendenti l’accesso ai laboratori di intelligenza artificiale;
  • Stabilire un sistema di licenze per la costruzione di modelli all’avanguardia;
  • Adottare, da parte delle aziende di intelligenza artificiale, misure di sicurezza specifiche se si trovano capacità pericolose nei loro modelli;
  • Etc…

Gli esperti, d’altronde, hanno avvertito che gli attuali sistemi di intelligenza artificiale stanno già mostrando segni di capacità preoccupanti, che indicano l’emergere di sistemi autonomi tali da poter pianificare, perseguire obiettivi ed “agire nel mondo”. Il modello di intelligenza artificiale GPT-4, che alimenta lo strumento ChatGPT, sviluppato dalla società statunitense OpenAI, è stato in grado di progettare ed eseguire esperimenti di chimica, navigare sul web ed utilizzare strumenti software tra cui altri modelli di intelligenza artificiale.

Dunque, se si costruisce un’IA autonoma altamente avanzata, si rischia di creare sistemi che perseguono autonomamente obiettivi indesiderati: necessaria è, quindi, la possibilità di tenerli sotto controllo.

Leggi l’articolo completo:

AI firms must be held responsible for harm they cause, ‘godfathers’ of technology say – The Guardian

Immagine di copertina via DuckDuckGo

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto