L’AI si basa sulla raccolta dell’infinita conoscenza creata e pubblicata da noi esseri umani sul web utilizzata per addestrare i sistemi di apprendimento automatico di “deep learning”. La metafora biblica del “frutto dell’albero della conoscenza” nel giardino dell’Eden per rappresentare l’AI generativa non è poi così sbagliata. Purtroppo come ci spiega lo scienziato cognitivo George Lakoff, la scelta di una metafora si porta dietro delle conseguenze. In questo caso, la proibizione di raccogliere il frutto dell’albero della conoscenza.
La proibizione, fuor di metafora, non è di origina divina, ma è l’essenza della proposta di molti attori, specialmente legati alle grandi aziende produttrici di sistemi AI. Questa proibizione di raccogliere il frutto del peccato prende la forma giuridica del concedere licenza (“licensing”): il legislatore o un organo delegato dovrebbe decidere quali aziende possono costruire e rilasciare sistemi AI.
Ad es., propone questa soluzione il whitepaper “Frontier AI Regulation: Managing Emerging Risks to Public Safety” (FAR) molti dei cui autori sono legati a OpenAI, Google, e Microsoft.
La motivazione è che poiché i modelli linguistici di grandi dimensioni (LLM) sono dispositivi informatici generici, il che significa che possono essere utilizzati per una varietà di scopi, tra cui alcuni che potrebbero essere dannosi. È impossibile garantire che gli LLM non vengano utilizzati per scopi dannosi, proprio come è impossibile garantire che un computer non venga utilizzato per inviare e-mail di ricatto.
Per affrontare questo problema, alcune aziende stanno creando servizi che forniscono una piccola finestra sugli LLM, ma non l’accesso completo. Ad esempio, OpenAI fornisce l’accesso pubblico a un’interfaccia di conversazione basata su testo strettamente controllata e ottimizzata per GPT-4, ma non fornisce l’accesso completo al modello GPT-4 stesso.
Tuttavia, il licensing a poche aziende presenta un proprio insieme di problemi. Se una azienda controlla un potente modello linguistico che media tutto il consumo e la produzione di informazioni, può plasmare ciò in cui le persone credono, come agiscono e cosa viene censurato. Questo è un percorso pericoloso e fragile per la società, perché significa che un piccolo numero di aziende avrà un enorme controllo su ciò che le persone possono pensare e fare.
L’idea del licensing alla fine porta a una situazione in cui la frontiera dell’IA è controllata da un piccolo numero di aziende. Questo è un percorso pericoloso e fragile per la società, perché significa che queste aziende avranno un enorme controllo su ciò che le persone possono pensare e fare.
La proposta FAR sostiene “L’incertezza sull’approccio normativo ottimale per affrontare le sfide poste dai modelli di IA di frontiera non dovrebbe impedire un’azione immediata”. Ma il licensing non è l’unica alternativa.
Dei limiti dell’approccio del licensing ne parlano in dettaglio i ricercatori di Princeton Sayash Kapoor e Arvind Narayanan in questo articolo: