Cerca
Close this search box.

Come si riconosce un deepkafe?

Il crescente fenomeno delle immagini deepfake, soprattutto quelle di personalità ben note, rappresenta una seria minaccia alla diffusione di informazioni autentiche. Per affrontare questa sfida, la Cornell University ha presentato una ricerca completa su come vengono prodotti i deepfake e su come possano essere identificati. Il fulcro della ricerca è una vasta raccolta di volti […]

Proteggere i neurodati e regolamentare le neurotecnologie basate sull’intelligenza artificiale

Introduzione L’articolo A difesa della privacy dei neurodati e della regolamentazione delle neurotecnologie, scritto da Rafael Yuste e pubblicato su Nature Protocols l’11 settembre 2023, sottolinea la necessità di affrontare con consapevolezza le complesse questioni etiche sollevate dalle neurotecnologie per garantirne una crescita responsabile. Propone soluzioni tecniche, regolamentazioni mediche e l’adozione di un Giuramento Tecnocratico come […]

L’Intelligenza artificiale nell’assistenza sanitaria: potenzialità e rischi di “AI gaslighting”, “AI Hallucinations” e violazione della privacy

Rebecca Voelker, in un articolo pubblicato su JAMA il 20 settembre 2023, presenta un’intervista condotta da Kirsten Bibbins-Domingo, Editor in Chief di JAMA, con il dottor Michael Howell, Chief Clinical Officer di Google Health.  Il dottor Howell spiega che il suo team clinico è composto da medici, infermieri, psicologi ed economisti della salute. Questa squadra […]

Center for Humane Technology

Insieme ai partner, l’organizzazione vuole guidare un cambiamento globale verso una tecnologia che rafforzi il nostro benessere, il funzionamento democratico globale e l’ambiente informativo condiviso. Il lavoro del gruppo si concentra su: Produzione di media per lanciare l’allarme sull’impatto della tecnologia sulle persone, sulle istituzioni e sulla società;Collaborazione con organizzazioni e alleati per perseguire soluzioni […]

The Human Error Project

Come hanno dimostrato recenti ricerche, le recenti tecnologie sono piene di “errori” sistematici, “pregiudizi” e “imprecisioni” ma che possono avere un impatto reale sulle vite individuali e sui diritti umani. Il progetto e le sue ricerche utilizzano il termine “errore umano dell’IA” come concetto ombrello per far luce su diversi aspetti della fallacia algoritmica quando […]

Postdigitale. Per una intelligenza artificiale culturale

L’articolo  Postdigitale. Per una Intelligenza artificiale culturale  di Simone Arcagni, pubblicato sul Sole 24 Ore il 26 settembre 2023, getta una luce interessante sul ruolo dell’Intelligenza Artificiale (IA) come fattore culturale e filosofico, oltre che tecnologico ed economico. Arcagni inizia il suo articolo affermando che la rivoluzione digitale è giunta a termine, e ora ci troviamo in un’epoca in cui […]

Tecnologie Intelligenti

Rischi e regole di Giuseppe Corasaniti per Mondadori Le tecnologie intelligenti sono ormai una realtà in tutti settori. Ci aiutano e diventano sempre più indispensabili, ma ad esse associamo il timore che possano diventare incontrollabili e nocive. Siamo davvero in grado di capire e poi di definire bene i rischi e le soglie accettabili di […]

Trustworthy AI™ Survey 2023 | Lo stato dell’arte delle imprese italiane

La Deloitte Trustworthy AITM Survey è stato il primo questionario nazionale, realizzato con SIPEIA ad indagare le modalità con cui le imprese affrontano l’implementazione delle soluzioni di AI e il governo di esse per rispettare principi etici e requisiti normativi. Questo report ha avuto l’ambizione di contribuire alla promozione dell’importanza del governo dell’AI attraverso un approccio antropocentrico, affidabile e […]

AI for Good: la sfida dello Sviluppo Sostenibile

L’articolo “The ethical dilemma of AI”, pubblicato da Mehdi Hussain su l’Hindustan Times del 25 settembre 2023, sottolinea le molteplici sfide che l’Intelligenza Artificiale sta portando nella società.Il fulcro dell’articolo è il programma “AI for Good“, un’iniziativa che mira a utilizzare l’IA come strumentoper affrontare le questioni globali e promuovere il progresso verso gli Obiettivi […]

L’intelligenza artificiale e i suoi strati “invisibili”

Lo sviluppo dell’IA si è basato, finora, sullo sfruttamento di lavoratori e utenti in tutto il mondo, svolgendo quello che l’antropologa Mary L. Gray e lo scienziato sociale computazionale Siddharth Suri chiamano “ghost work”, il lavoro fantasma. Questo termine si riferisce al lavoro umano spesso nascosto e scarsamente riconosciuto e utilizzato per sviluppare e mantenere […]

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto