Ultimamente, le aziende cinesi nel campo dell’intelligenza artificiale sembrano dimostrare un notevole interesse nell’ambito dell’IA a supporto emotivo.
Un esempio noto è Xiaoice, uno dei primi assistenti AI cinesi, che ha guadagnato popolarità consentendo agli utenti di personalizzare il loro partner romantico ideale.
Un’altra startup, Timedomain, ha lasciato una scia di cuori spezzati quest’anno quando ha chiuso il suo servizio che donava una voce a un fidanzato virtuale.
Baidu, la prima azienda tecnologica cinese a distribuire il suo modello di linguaggio al grande pubblico, sembra stia impostando il suo Ernie Bot per lo stesso tipo di utilizzo: il gioco di ruolo.
Il personaggio più popolare – già utilizzato da oltre 140.000 persone, secondo l’app – si chiama “la premurosa sorella maggiore”, programmata per essere gentile, matura e per ascoltare gli altri da “un gruppo di esperti di psicologia professionale e di sviluppatori di intelligenza artificiale” e che “si basa sull’analisi di una grande quantità di dati linguistici ed emotivi”.
Questa sfida è più impegnativa rispetto alla scrittura di codice o alla risoluzione di problemi matematici; è un compito completamente diverso chiedere loro di offrire supporto emotivo, comportarsi come esseri umani e rimanere costantemente fedeli al loro personaggio. E se le aziende riusciranno nell’intento, ci saranno ulteriori rischi da considerare: cosa accade quando gli esseri umani sviluppano effettivamente profonde connessioni emotive con l’IA?
Estratto dalla newsletter China Report Di Zeyi Yang per MIT Technology Review. Clicca qui per iscriverti
Foto di freestocks su Unsplash