Una “dieta digitale sana” contro la misogenia
L’articolo presenta una ricerca sull’impatto degli algoritmi dei social media, soprattutto TikTok, nel promuovere contenuti misogini. La ricerca, effettuata da team dell’University College London e dell’Università del Kent, ha monitorato l’evoluzione dei contenuti suggeriti da TikTok, rilevando un incremento quattro volte maggiore di video con tematiche misogine in un arco di cinque giorni. Questo aumento evidenzia una tendenza allarmante non solo online, ma anche nel comportamento reale dei giovani, specialmente negli ambienti scolastici.
6 Febbraio: “Safer Internet Day”
Il Safer Internet Day, che si tiene il 6 febbraio 2024, è un evento importante per aumentare la consapevolezza sull’uso sicuro e responsabile di internet, soprattutto tra i giovani. Promossa dall’Unione Europea, questa giornata affronta le sfide legate all’aumento della digitalizzazione nella vita dei minori.
Facebook: guadagni in crescita, etica sotto esame
L’articolo esprime una critica pungente nei confronti di Mark Zuckerberg, CEO di Facebook, e delle sue recenti scuse al Congresso. Cadwalladr evidenzia come le scuse di Zuckerberg appaiano vuote di fronte ai gravi problemi associati a Facebook, che comprendono rischi per la sicurezza dei bambini e adolescenti e l’influenza manipolativa sulla politica mondiale. L’autrice sottolinea la mancanza di una risposta legislativa adeguata a tali problemi e come, nonostante le critiche, Facebook continui a prosperare economicamente.
Sam Altman e l’oscillazione tra promesse e realtà
Altman, figura emblematica nel panorama dell’intelligenza artificiale, ha suscitato vasto entusiasmo e grandi aspettative con le sue affermazioni passate. Descrivendo inizialmente i progressi verso l’AGI e i nuovi prodotti OpenAI, come il GPT-5, in termini quasi rivoluzionari, Altman ha recentemente adottato un tono più sobrio. Il suo ridimensionamento del GPT-5 a “semplicemente ok” e la sua visione più temperata sull’impatto dell’AGI sollevano interrogativi sulla veridicità e le motivazioni di tali dichiarazioni.
Contrastare i deepfake pornografici
Il fenomeno dei deepfake è stato facilitato dall’avanzamento dell’AI generativa e ha portato a un aumento di immagini e video pornografici creati senza consenso, colpendo soprattutto le donne. L’articolo sottolinea l’importanza di un approccio combinato che includa sia soluzioni tecniche che normative per combattere efficacemente i deepfake pornografici non consensuali.
Gen AI e Copyright: una sfida che trascende il legale
La causa legale intrapresa dal New York Times contro OpenAI ha evidenziato che ChatGPT, il modello di AI sviluppato da OpenAI, produce testi notevolmente simili a quelli del NYT. Questo episodio ha catalizzato un dibattito significativo che si estende ben oltre le questioni legali e coinvolge sia l’input dei dati, ovvero il materiale utilizzato per addestrare i modelli di AI, sia l’output dei dati, cioè i contenuti generati dall’AI stessa.
L’AI per la segnalazione della pedopornografia
Questa analisi mette in evidenza una complessa interazione tra innovazioni tecnologiche, normative legali e l’imperativo etico della protezione dei minori. La dipendenza crescente dall’AI e le restrizioni legali presenti creano ostacoli significativi in una risposta efficace e tempestiva alle segnalazioni di abuso sessuale su minori online.
NYT vs Open AI: Sfide Etiche e Legali nell’AI Generativa
La disputa NYT vs OpenAI solleva questioni etiche e legali nell’AI generativa: la battaglia legale si focalizza sulle violazioni di copyright e plagio, sottolineata dalla capacità dei modelli come GPT-4 di replicare testi protetti, il dibattito tecnico indaga l’influenza dei dati di addestramento sui modelli di AI. A livello morale, emerge il conflitto tra progresso tecnologico e diritti dei lavoratori-creatori.
New York Times vs OpenAI e Microsoft: si può applicare la norma del “fair use”?
La disputa legale tra il New York Times, da un lato, e OpenAI e Microsoft, dall’altro, ruota attorno all’accusa di violazione del copyright del New York Times. La querela sostiene che le due aziende tecnologiche abbiano illegalmente utilizzato “milioni” di articoli protetti dal copyright del Times per sviluppare i modelli di intelligenza artificiale di strumenti come ChatGPT e Bing. Questo caso, l’ultimo di una serie di cause attive, potrebbe influenzare significativamente l’industria dell’IA generativa.
L’impatto dell’AI sull’informazione: non solo immagini distorte
L’articolo esamina l’impatto significativo dell’Intelligenza Artificiale (AI) sulla diffusione della disinformazione nel corso del 2023. Tuttavia, l’articolo cita anche esempi di buona informazione: Scimex.org, Platformer.news, RetractionWatch.com, DailyYonder.com e On3.com producono contenuti basati sui fatti e sull’analisi accurata, fornendo informazioni affidabili e precise.