‘AI Safety’ vs ‘AI Ethics’
Da un lato padrini dell’AI e miliardari e multinazionali che devono rientrare degli investimenti fatti e che paradossalmente gridano che domani arriverà il lupo dopo averne creato loro uno artificiale, che fanno riferimento a definizioni di intelligenza discriminatorie in articoli non soggetti a peer review e hanno prospettive ideologiche eugenetiche. Dall’altra scienziate e scienziati (e […]
Scintille di quale intelligenza artificiale generale?
L’articolo di Microsoft Research “Sparks of Artificial General Intelligence: Early experiments with GPT-4” (Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang) pubblicato senza peer review su arXiv ha suscitato molto scalpore ed ha […]
IntelligenzE molto naturali
Come ci ricordano Daron Acemoglu, Kate Crawford et al. cercare di imitare e superare l’intelligenza umana è sono una delle scelte possibili. Tale scelta è condizionata da visioni ideologiche dei magnati di Silicon Valley e sta condizionando anche la ricerca pubblica. Si potrebbe puntare a creare intelligenze artificiali che massimizzano la cooperazione fra umani e macchine, oppure […]
Niente paura!
Come la pensano i tanti ricercatori che non sono d’accordo con i “padrini” dell’AI che ci allarmano prefigurando il rischio dell’estinzione della razza umana per colpa di una superhuman intelligence? Blaise Agüera y Arcas di Google Research con Blake Richards, Dhanya Sridhar, e Guillaume Lajoie sull’Economist, fanno notare due retropensieri riguardo alle affermazioni di Hinton, […]
Stochastic Parrots revisited
A due anni dalla sua pubblicazione l’articolo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” di Emily M Bender, Timnit Gebru, Angelina McMillan-Major, Shmargaret Shmitchell (FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency p 610–623) mantiene tutta la sua attualità, avendo precorso i tempi riguardo ai rischi e limiti […]
Uomo avvisato, mezzo salvato
Dopo Geoffrey Hinton, anche l’altro “padrino dell’AI”, Yoshua Bengio, direttore scientifico del Montreal Institute for Learning Algorithms (MILA), lancia l’allarme “rischi catastrofici causati dall’AI” in un intervento sull’Economist: una “superhuman AI” potrebbe “violare i diritti umani, minare la democrazia o minacciare l’umanità intera”. Perchè non si rende conto, come anche Hinton e molti altri autorevoli scienziati, […]
Yann LeCun intervistato al Corriere della Sera
Il suo non è un ottimismo fideistico. «Bisogna partire dicendo cosa c’è di sbagliato nei modelli attuali di “machine learning”. Fanno schifo, almeno rispetto a esseri umani e animali. Sono sistemi specializzati e fragili. Sono in grado di passare un esame da avvocato perché si tratta di reperire informazioni, ma non ragionano davvero. Non hanno alcuna comprensione reale […]
BEWARE workshop alla AI*IA 2023 conference
Anche quest’anno AI Aware assieme a Sipeia partecipano all’organizzazione del workshop BEWARE alla AI*IA 2023 conference. Ecco il CfP: We are delighted to announce that we will be hosting the second edition of the BEWARE workshop on Bias, Risk, Explainability, and the role of Logic and Logic Programming. Our first edition was a great success, […]
Tensions Between the Proxies of Human Values in AI
Fairness, Privacy e Trasparency sono tre pillar per un approccio etico all’AI. Teresa Datta evidenzia come non solo ci siano tensioni fra queste tre dimensioni, ma anche all’interno di esse. IEEE SaTML 2023 – 1st Conference on Secure and Trustworthy Machine Learning
Eugenetica e la promessa di una utopia tramite l’AGI
Una Artificial General Intelligence (AGI) è “a highly autonomous system that outperforms humans at most economically valuable work” (definizione di OpenAI). Perchè realizzare sistemi di Artificial General Intelligence se sono definiti in maniera così imprecisa (“undefined”, “unscoped”) da sembrare che si voglia quasi creare un dio onnipotente, si chiede Timnit Gebru di DAIR, una delle […]