L’intelligenza artificiale e il sistema detentivo: spunti di riflessione
L’articolo analizza l’impiego dell’IA nei sistemi carcerari, evidenziando come possa migliorare sicurezza e rieducazione ma sollevando preoccupazioni su privacy e rischio di discriminazioni dovute a bias nei dati. Sottolinea l’importanza della trasparenza, della responsabilità degli sviluppatori e delle autorità nel garantire decisioni equilibrate e rispettose dei diritti umani, enfatizzando la necessità di un quadro normativo chiaro per un utilizzo etico e responsabile dell’IA nel contesto penitenziario.
Il disegno di legge italiano sull’IA: cosa contiene la bozza
Il disegno di legge sull’intelligenza artificiale proposto dal governo Meloni comprende diversi aspetti cruciali per regolare l’utilizzo responsabile e trasparente dell’IA in vari settori. La legge stabilisce che l’intelligenza artificiale deve essere sviluppata e utilizzata nel rispetto dell’autonomia umana, della prevenzione del danno, della conoscibilità e della spiegabilità. Deve anche garantire il corretto svolgimento dei […]
OpenAI vuole prendere il controllo
OpenAI sta sviluppando un agente software innovativo che, secondo quanto riportato da The Information, assumerà il controllo dei dispositivi degli utenti per eseguire compiti complessi. Questo agente funzionerà tra diverse applicazioni sul computer, eseguendo azioni come clic, movimenti del cursore e digitazione di testo, rappresentando una sorta di nuovo sistema operativo. L’obiettivo di OpenAI è […]
Google e i nazisti generati dall’IA: riflessioni sull’inclusione tecnologica
Di recente, Google ha suscitato scalpore con il suo nuovo software di intelligenza artificiale generativa, Gemini, che ha mostrato una serie di soldati nazisti germanici con una varietà di etnie e generi, suscitando critiche e derisione. L’azienda ha chiarito che il suo intento era quello di promuovere la diversità nelle rappresentazioni, ma il risultato ha […]
Linee guida europee per un uso responsabile dell’IA generativa nella ricerca
La Commissione Europea e la Comunità Europea di Ricerca di recente hanno presentato congiuntamente una serie di orientamenti a sostegno di un uso responsabile dell’intelligenza artificiale generativa. Se da un lato, infatti, questi strumenti di IA offrono velocità e convenienza nella produzione di testi, immagini e codici; dall’altro lato, i ricercatori devono anche essere consapevoli […]
TestGen-LLM: La Svolta di Meta nel Testing del Software
Nel settore del software engineering, il testing è fondamentale per garantire la stabilità e la sicurezza delle applicazioni. Meta presenta una svolta con TestGen-LLM, uno strumento progettato per rivoluzionare il miglioramento automatico delle classi di test. Basato sull’integrazione di modelli di linguaggio avanzati, TestGen-LLM estende e affina le classi di test scritte in Kotlin per […]
HyperAttention: calcolo dell’attenzione quasi lineare
I modelli di linguaggio basati su Transformer hanno raggiunto enormi successi in applicazioni come l’elaborazione del linguaggio naturale, la visione artificiale e le previsioni di serie temporali. Tuttavia, il loro principale punto debole è la complessità computazionale quadratica degli strati di attenzione rispetto alla lunghezza del contesto di input. Questo ostacolo ha limitato l’applicabilità di […]
LLM Hackers: Il Nuovo Incubo della Sicurezza Informatica?
Gli agenti basati sui grandi modelli linguistici (LLM) hanno appena dimostrato una nuova e inquietante capacità: possono hackerare siti web in modo completamente autonomo. Una recente ricerca ha rivelato che GPT-4, il modello linguistico più avanzato di OpenAI, è in grado di eseguire con successo attacchi informatici complessi, come l’estrazione di schemi di database e […]
“Parole Senza Senso”: I Modelli di Linguaggio Creano Veri Significati?
Nel dinamico campo dell’Intelligenza Artificiale, i modelli di linguaggio (LM) hanno ottenuto un ruolo da protagonisti, sollevando interrogativi che travalicano l’ambito tecnologico per approdare alla filosofia del linguaggio. Un recente articolo di Matthew Mandelkern e Tal Linzen, affiliati alla New York University, ha acceso il dibattito: le parole generate da questi LMs, macchine capaci di […]
L’IA nella Ricerca: Tra Superpoteri Presunti e Limiti Reali
In un articolo di recente pubblicazione su Nature, Lisa Messeri – antropologa presso l’Università di Yale- e Molly Crockett – scienziata cognitiva a Princeton -, mettono in guardia la comunità scientifica sui rischi legati all’adozione acritica dell’intelligenza artificiale (IA) nella ricerca. Il loro lavoro, basato su un’ampia rassegna di studi e pubblicazioni, sottolinea come gli […]