Cerca
Close this search box.

Cosa ci si può aspettare da OpenAI?

OpenAI ha avuto inizio nel 2015 come laboratorio di ricerca senza scopo di lucro dedicato allo sviluppo sicuro dell’intelligenza artificiale generale (AGI). Fondata da Sam Altman ed Elon Musk con un finanziamento di 1 miliardo di dollari, OpenAI mirava a contrastare le grandi aziende tecnologiche che stavano correndo verso l’AGI senza considerare adeguatamente la sicurezza.

Nei primi anni, OpenAI ha faticato a progredire. Nonostante l’assunzione di primi ricercatori in AI come Ilya Sutskever, il team non aveva una strada chiara verso l’AGI. Il momento di svolta è arrivato quando hanno deciso di focalizzarsi sull’espansione delle architetture delle reti neurali “transformer”, addestrandole su enormi dataset. Sutskever ne ha riconosciuto il potenziale dopo l’originale articolo di Google sul transformer. Il ricercatore Alec Radford ha guidato il lavoro sui modelli GPT, dimostrando inaspettate capacità “zero-shot” nel compiere nuovi compiti senza un diretto addestramento.

Entro il 2018, GPT-2 era in grado di generare testi coerenti, il che ha preoccupato OpenAI per un potenziale uso improprio. Questo ha portato a dibattiti su “apertura contro sicurezza”, poiché inizialmente hanno trattenuto il modello GPT-2 completo. In questo periodo, Musk ha proposto senza successo di assumere il controllo di OpenAI, per poi lasciare il consiglio a causa di conflitti. Affrontando problemi finanziari senza il sostegno di Musk, OpenAI ha creato un’entità a scopo di lucro nel 2019 per permettere investimenti esterni, pur rimanendo tecnicamente un’organizzazione senza scopo di lucro.

I dettagli di questa ristrutturazione sono estremamente complessi e opachi. Ma essenzialmente gli investitori ottengono rendimenti fino a un “tetto” stabilito se il valore di OpenAI raggiunge i trilioni. Alcuni primi ricercatori come Dario Amodei se ne sono andati in questo periodo per formare Anthropic, sentendo che OpenAI si stava allontanando dalla sua missione.

In seguito, Microsoft ha investito miliardi in OpenAI, ottenendo diritti esclusivi di licenza e una partecipazione azionaria del 49% nell’azienda a scopo di lucro. Ciò ha deviato dagli ideali originali di OpenAI di apertura e trasparenza. Ma le risorse hanno permesso l’addestramento di GPT-3 nel 2020 con 175 miliardi di parametri, che ha mostrato una spaventosa versatilità, creatività e conoscenza.

Nonostante le preoccupazioni per la sicurezza, OpenAI ha perseguito una strategia di “dispiegamento iterativo” per rilasciare prodotti come ChatGPT alla fine del 2022, basato su GPT-3.5. L’interfaccia conversazionale ha mostrato le capacità dell’IA alle masse, guadagnando immediatamente enorme popolarità. Ma ha anche evidenziato problemi relativi a allucinazioni e disinformazione. Gli approcci di sicurezza hanno incluso l’addestramento di debate partners per individuare inconsistenze e difetti, e il red teaming per sondare i danni. Ma i modelli a volte rispondono ancora in modo non etico o fabbricano convincenti falsità.

Mentre l’interesse pubblico cresceva, il policy maker Sam Altman lavorava per posizionare OpenAI come leader responsabile nella sicurezza e nell’etica dell’IA. Ma i critici temono che OpenAI si sia allontanata dalla sua pura missione di ricerca, rilasciando prodotti a ritmo veloce e inseguendo profitti. Anche contribuenti chiave di GPT come Rewon Child hanno recentemente lasciato.

Sebbene non sia più un piccolo laboratorio, OpenAI dice di mantenere l’obiettivo di sviluppare AGI in modo sicuro. Ma cosa significhi veramente “AGI”, e se possa essere effettivamente resa sicura, rimane poco chiaro. Il rapido progresso di GPT sorprende persino i suoi creatori, e ha obbligato la società a confrontarsi con l’IA prima del previsto. In modo insolito, il fondatore Altman ha evitato di assumere una quota in OpenAI, pur rimanendo saldamente al controllo come CEO.

La strategia di “dispiegamento iterativo” mira ad abituare il pubblico all’IA, ma è incerto se questo approccio renda effettivamente l’AGI più sicura a lungo termine, o semplicemente ne acceleri le capacità in modo imprudente. Essendo una forza prominente nell’IA, OpenAI ora fa ricerca su come guidare responsabilmente una trasformazione tecnologica di “magnitudo gargantuesca e catastrofica” che potrebbe propellere l’umanità in avanti o segnare la sua fine.

Fonte: https://www.wired.com/story/what-openai-really-wants/

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto