A causa della diffusione dei sistemi di visione artificiale, sono stati prodotti due articoli da alcuni ricercatori di Sony e Meta che mirano ad affrontare i pregiudizi in questi sistemi e migliorare la loro capacità di riconoscere la vasta gamma di attributi umani. Sono stati individuati nuovi strumenti in grado di aiutare gli sviluppatori a valutare la diversità dei loro dataset e migliorare i dati di addestramento per l’intelligenza artificiale e possono anche essere impiegati per misurare la diversità nelle immagini umane generate dall’IA.
Il pregiudizio legato al tono della pelle viene misurato utilizzando la scala di Fitzpatrick, che classifica i toni della pelle da chiari a scuri. Tuttavia, questa scala non cattura adeguatamente la complessità dei toni della pelle umana e trascura i pregiudizi che colpiscono gruppi sottorappresentati, come ad esempio le persone asiatiche. Inoltre, non tiene conto del fatto che il tono della pelle delle persone può cambiare nel tempo.
Per affrontare queste limitazioni, i ricercatori di Sony hanno creato uno strumento che espande la scala del tono della pelle in due dimensioni, misurando sia il colore della pelle (da chiaro a scuro) che la tonalità della pelle (da rosso a giallo). Questo strumento è disponibile gratuitamente online.
Meta, d’altro canto, ha sviluppato uno strumento di valutazione dell’equità chiamato “Fairness in Computer Vision Evaluation (FACET)” per misurare in modo più completo il pregiudizio nei modelli di visione artificiale. FACET include una gamma più ampia di metriche di equità e copre varie attività di visione artificiale, tra cui classificazione, rilevamento e segmentazione.
L’approccio di Meta nel reclutare annotatori geograficamente diversificati e nel rendere i dati liberamente disponibili online è visto come un passo positivo, poiché l’annotazione dei dati può essere costosa e di solito accessibile solo alle grandi aziende tecnologiche.
Nonostante questi strumenti rappresentino un progresso nel contrastare il pregiudizio nella visione artificiale, è importante rimanere realisti riguardo al loro impatto. Probabilmente porteranno a miglioramenti incrementali nell’IA piuttosto che a trasformazioni complete. Raggiungere un sistema che catturi completamente come gli esseri umani si rappresentano rimane un obiettivo difficile.
Leggi qui l’intero articolo: These new tools could make AI vision systems less biased