AI GENERATIVA: COME CI CAMBIERÀ? | Ciclo di dialoghi al Circolo dei lettori di Torino – 5, 18, 31 ottobre – 16 novembre
Al via il ciclo di dialoghiAI GENERATIVA: COME CI CAMBIERÀ?Un progetto dell’Università degli Studi di Torino, Fondazione Circolo dei lettorie Società Italiana per l’Etica dell’Intelligenza Artificiale5, 18, 31 ottobre16 novembreOre 18, Circolo dei lettori di Torino – Sala Grande Prende il via il ciclo di incontri “AI generativa: come ci cambierà?”: quattro dialoghi che si terranno al Circolo dei […]
Cresce il team legale di OpenAI | Law.com
Negli ultimi mesi OpenAI ha quasi raddoppiato il numero dei suoi legali interni: il creatore di ChatGPT, con sede a San Francisco, ha acquisito avvocati con competenze in materia di regolamentazione, privacy dei dati e proprietà intellettuale. L’ondata di assunzioni arriva mentre l’azienda si trova ad affrontare crescenti grattacapi legali e pressioni normative, tra cui […]
VIDEO | Intelligenza artificiale: opportunità e rischi per la pace e la sicurezza internazionale – Consiglio di Sicurezza (ONU)
Oggetto del dibattitoMantenimento della pace e della sicurezza internazionale – Intelligenza artificiale: opportunità e rischi per la pace e la sicurezza internazionale. Di cosa si è discusso, in breve? Leggi il post correlato: Guarda tutte le sessioni delle Nazioni Unite qui: UN Web TV
Linee guida sull’AI per gli avvocati europei
È stata da poco pubblicata la versione in italiano delle prime linee guida rivolte agli Avvocati europei, per utilizzare al meglio i software di Intelligenza Artificiale e i modelli linguistici di grandi dimensioni (LLM). Il documento è stato elaborato dalla commissione Nuove Tecnologie di FBE · Fédération des Barreaux d’Europe (di cui l’Ordine degli Avvocati di Trento è […]
Paper | L’AI generativa è un ecosistema inquinato
Proprio come un fiume, i dati possono essere una fonte di ricchezza per alcuni, una fonte di vulnerabilità per altri e una risorsa pubblica per molte comunità. Quando un fiume può essere deviato per scopi di irrigazione, può anche dare origine a diritti di navigazione e di pesca, a divieti di inquinamento e a rischi […]
Una proposta di legge del Massachusetts per limitare l’uso del riconoscimento facciale | MIT Technology Review
Una proposta di legge nel Massachusetts che mira a limitare l’uso del riconoscimento facciale da parte della polizia potrebbe stabilire lo standard per la regolamentazione di questa tecnologia in America. Se questa proposta dovesse fallire, sarebbe un duro colpo per un movimento che un tempo era promettente. Solo quattro anni fa, il movimento nato per […]
Norvegia: divieto temporaneo di pubblicità comportamentale su Facebook e Instagram
L’Autorità norvegese per la protezione dei dati impone un divieto a Meta di effettuare pubblicità comportamentale basata sulla sorveglianza e la profilazione degli utenti in Norvegia. Il divieto si applicherà inizialmente fino a ottobre. Gli utenti sulle piattaforme di proprietà di Meta vengono profilati in base alla loro posizione, al tipo di contenuti a cui […]
I giudici negli Stati Uniti stanno regolamentando l’AI | MIT Technology Review
Negli Stati Uniti, c’è una crescente preoccupazione riguardo al ruolo dei giudici rispetto ai politici nella regolamentazione dell’Intelligenza Artificiale (IA). Mentre i politici sembrano avere difficoltà nel contenere i potenziali danni dell’IA, alcuni esperti ritengono che saranno i giudici, tramite organi come la Federal Trade Commission (FTC), a stabilire le norme e ad introdurre migliori […]
L’AI è già in uso per le elezioni | The New York Times
Le carenze nelle norme relative alle campagne elettorali consentono ai politici di diffondere sempre più immagini e messaggi generati da tecnologie di intelligenza artificiale. A Toronto, un candidato alle elezioni comunali ha pubblicato una serie di promesse elettorali illustrate dall’intelligenza artificiale, tra cui finte immagini distopiche di persone accampate in una strada del centro e […]
Yann LeCun intervistato al Corriere della Sera
Il suo non è un ottimismo fideistico. «Bisogna partire dicendo cosa c’è di sbagliato nei modelli attuali di “machine learning”. Fanno schifo, almeno rispetto a esseri umani e animali. Sono sistemi specializzati e fragili. Sono in grado di passare un esame da avvocato perché si tratta di reperire informazioni, ma non ragionano davvero. Non hanno alcuna comprensione reale […]