Entusiasmo e preoccupazioni: l’uso militare delle tecnologie del linguaggio

Due serie di soldatini giocattolo, una gialla e una verde, schierate una contro l'altra su uno sfondo a blocchi colorati

Dopo l’iniziale entusiasmo globale per l’avvento di ChatGPT e dei generatori di immagini basati sull’IA, le autorità governative hanno cominciato a esprimere preoccupazioni riguardo ai possibili utilizzi più oscuri di questa tecnologia. La capacità dei grandi modelli di linguaggio, come ChatGPT, di esaminare enormi quantità di informazioni in pochi istanti e di sintetizzarle in pochi punti chiave offre opportunità allettanti per militari e agenzie di intelligence.

Secondo i ricercatori, i modelli di linguaggio potrebbero avere ulteriori applicazioni militari, come l’addestramento avanzato degli ufficiali attraverso sofisticati giochi di guerra e l’assistenza nelle decisioni in tempo reale. Tuttavia, un ostacolo significativo è rappresentato dalle “allucinazioni” di questi modelli, durante le quali generano informazioni inaccurare. Ad esempio, è stato notato che, chiedendo ai modelli di linguaggio di descrivere l’incidente del pallone di sorveglianza cinese ad alta quota dell’anno scorso, le risposte hanno variato da tendenziose a poco utili.

Una preoccupazione ancor più grave è legata alla possibilità che un hacker avversario possa violare un modello di linguaggio militare e costringerlo a rivelare i suoi set di dati. I ricercatori hanno dimostrato a novembre che ciò era possibile: chiedendo a ChatGPT di ripetere la parola “poesia” all’infinito, è emerso che iniziava a perdere dati di addestramento. Sebbene ChatGPT abbia corretto tale vulnerabilità, potrebbero ancora essercene altre non scoperte.

Leggi l’articolo completo Pentagon explores military uses of large language models su The Washington Post:

Foto di FlyD su Unsplash.

Accedi per vedere questi contenuti

registrati se non lo ha ancora fatto