Il modello cinese di AI

La Cina ha fissato l’ambizioso obiettivo di diventare leader mondiale nell’IA entro il 2030. Tuttavia, l’emergere di tecnologie come ChatGPT, sviluppate negli Stati Uniti, ha messo in discussione questa aspirazione, evidenziando le divergenze nei modelli di AI tra le due potenze.

Interfaccia cervello-computer: questioni etico-legali

L’immaginario di un futuro in cui i pensieri umani sono verbalizzati attraverso una sorta di interfaccia esterna porta con sé interrogativi sulla privacy individuale e sulla libertà di scelta. Questa prospettiva inquietante suscita un’attenta riflessione sulle normative e sulle linee guida necessarie per regolamentare queste tecnologie che possono avere un utilizzo benefico. Va sottolineato infatti il potenziale positivo di queste tecnologie, in particolare nel supporto a individui affetti da gravi patologie neurologiche, come la sindrome di Locked-in, per migliorare la loro comunicazione e interazione con il mondo esterno.

Report 2023 sull’AI a scopo repressivo

Il rapporto Freedom on the Net 2023 di Freedom House esamina l’uso crescente dell’intelligenza artificiale (AI) per scopi repressivi in tutto il mondo. Il report rileva che l’AI viene utilizzata per sorvegliare, censurare e controllare i cittadini in molti paesi.

La querela del New York Times contro OpenAI e Microsoft

La querela mette in luce come l’uso non autorizzato dei contenuti giornalistici nell’addestramento delle intelligenze artificiali possa compromettere le entrate delle organizzazioni giornalistiche, minare la loro integrità editoriale e indebolire la fiducia del pubblico nelle fonti tradizionali di informazione.

L’algoritmo predittivo “life2vec”: prevedere malattie e rischi

Gli algoritmi predittivi sono capaci di individuare indicatori di benessere e supportare decisioni informate. È fondamentale, però, comprendere che non si tratta di profezie divinatorie, ma di strumenti analitici basati su correlazioni. Non sono palle magiche, ma strumenti di calcolo. Il loro impiego dovrebbe focalizzarsi non sulla previsione del futuro, ma piuttosto sull’affrontare responsabilmente rischi personali e sociali.

Nuove regole dell’UE sulla responsabilità del prodotto: impatto sull’industria del software

L’Unione Europea ha raggiunto un accordo politico per modificare la legislazione sulla responsabilità del prodotto, includendo prodotti digitali come software e intelligenza artificiale. La nuova direttiva prevede che i produttori siano responsabili dei difetti derivanti da componenti sotto il loro controllo, compresi quelli intangibili come il software. La difettosità di un prodotto è stabilita quando […]

Guidare l’IA: un framework per una regolamentazione orientata ai diritti

La crescente confusione e la lotta aperta su come regolare l’intelligenza artificiale sono questioni prevedibili e affrontate in modo proattivo da molti studiosi del settore. Dopo 10 anni di attiva partecipazione a questi sforzi, è giunto il momento di sintetizzare alcune idee chiave della ricerca precedente in un quadro regolamentare. Questo framework potrebbe significativamente contribuire […]

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto