Cerca
Close this search box.

BEWARE2023 Workshop a AIxIA

Il 2° workshop internazionale sugli aspetti etici emergenti dell’IA, con focus su Bias, Rischio, Spiegabilità e il ruolo della Logica e della Logica Computazionale. BEWARE23 si svolge in concomitanza con la conferenza AIxIA 2023.

Scopi e ambito
Le attuali applicazioni dell’intelligenza artificiale non garantiscono l’obiettività e sono piene di pregiudizi e difficoltà legali. I sistemi di intelligenza artificiale devono funzionare in modo sicuro, ma i problemi di opacità, parzialità e rischio sono pressanti. Le questioni di definizione e di fondazione su quali tipi di pregiudizi e rischi sono coinvolti nelle tecnologie di intelligenza artificiale opache sono ancora molto aperte. Inoltre, l’intelligenza artificiale sfida l’etica e comporta la necessità di ripensare le basi dell’etica. In questo contesto, è naturale cercare teorie, strumenti e tecnologie per affrontare il problema del rilevamento automatico dei pregiudizi e dell’attuazione del processo decisionale etico. La logica, la logica computazionale e le ontologie formali hanno un grande potenziale in quest’area di ricerca, poiché le regole logiche sono facilmente comprensibili dagli esseri umani e favoriscono la rappresentazione della causalità, che è un aspetto cruciale del processo decisionale etico. Tuttavia, la loro espressività e trasparenza devono essere integrate all’interno di tassonomie concettuali e analisi socioeconomiche che collochino le tecnologie di intelligenza artificiale nel loro contesto di applicazione più ampio e ne determinino l’impatto complessivo. Questo workshop affronta questioni di natura logica, etica ed epistemologica nell’intelligenza artificiale attraverso l’uso di approcci interdisciplinari. Il nostro obiettivo è riunire ricercatori in intelligenza artificiale, filosofia, etica, epistemologia, scienze sociali, ecc., per promuovere collaborazioni e migliorare le discussioni verso lo sviluppo di metodi e soluzioni di intelligenza artificiale affidabili che gli utenti e le parti interessate considerano tecnologicamente affidabili e socialmente accettabili.

Il workshop invita scienziati informatici, filosofi, economisti e sociologi che desiderano discutere contributi che vanno dalla formulazione di principi epistemici e normativi per l’intelligenza artificiale, la loro rappresentazione concettuale in modelli formali, al loro sviluppo in procedure di progettazione formale e traduzione in implementazioni computazionali.
Gli argomenti di interesse includono, ma non sono affatto limitati a:

  • Definizioni concettuali e formali di bias, rischio e opacità nell’intelligenza artificiale
  • Principi epistemologici e normativi per un’IA giusta e affidabile
  • L’intelligenza artificiale etica e le sfide portate dall’intelligenza artificiale all’etica
  • IA spiegabile
  • Incertezza nell’intelligenza artificiale
  • Modellazione ontologica di sistemi di intelligenza artificiale affidabili rispetto a sistemi di intelligenza artificiale distorti
    *Definire la fiducia e le sue determinanti per l’implementazione nei sistemi di intelligenza artificiale
  • Metodi per valutare e confrontare le prestazioni dei sistemi di intelligenza artificiale
  • Approcci alla verifica del comportamento etico
  • Applicazioni di programmazione logica nell’etica delle macchine
  • Integrazione della programmazione logica con metodi per l’etica delle macchine e l’intelligenza artificiale spiegabile

Sottomissione

Il workshop invita alla presentazione (possibilmente non originale) di DOCUMENTI COMPLETI (fino a 15 pagine) e DOCUMENTI BREVI (fino a 5 pagine). Gli articoli brevi sono particolarmente adatti per presentare lavori in corso, abstract estesi, tesi di dottorato o panoramiche generali di progetti di ricerca. Si noti che tutti i documenti saranno sottoposti a un attento processo di revisione paritaria e, se accettati, le versioni pronte per la fotocamera dei documenti saranno pubblicate nella sottoserie AIxIA dei procedimenti CEUR (indicizzati su Scopus).

I manoscritti devono essere formattati utilizzando lo stile CEUR-ART a 1 colonna (è possibile accedere al modello sul retro qui). Per ulteriori informazioni, consultare il sito web del CEUR http://ceur-ws.org/HOWTOSUBMIT.html. I documenti devono essere inviati tramite EasyChair: https://easychair.org/conferences/?conf=beware23.

Proceedings

CEUR Workshop Proceedings
Si prega di fare riferimento al sito web del workshop per aggiornamenti riguardanti i procedimenti e un potenziale problema speciale.

Organizzatori

Guido Boella, Università di Torino
Fabio Aurelio D’Asaro, Università degli Studi di Verona
Abeer Dyoub, Università degli Studi dell’Aquila
Laura Gorrieri, Università di Torino
Francesca A. Lisi, Università degli Studi di Bari “Aldo Moro”
Chiara Manganini, Università degli Studi di Milano
Giuseppe Primiero, Università degli Studi di Milano

Appuntamenti importanti

Termine per la presentazione: 10 settembre 2023
Notifica: 6 ottobre 2023
Fotocamera pronta: 20 ottobre 2023

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto