Categorie
Sicurezza Informatica

Microsoft AI: Errori e Disinformazione sulle elezioni

Tempo di lettura: 2 minuti.

Ricercatori hanno scoperto che il chatbot di Microsoft su Copilot ha fornito informazioni false e fuorvianti riguardo alle elezioni europee. L’organizzazione per i diritti umani AlgorithmWatch, in un rapporto, ha rivelato che Bing Chat, recentemente ribattezzato Copilot, ha risposto in modo errato a domande sulle recenti elezioni tenutesi in Svizzera e negli stati tedeschi di Baviera e Assia. Circa un terzo delle risposte relative alle elezioni presentava errori fattuali e le misure di sicurezza non erano applicate uniformemente.

Quali sono stati i principali problemi rilevati?

I ricercatori hanno raccolto le risposte di Bing da agosto a ottobre di quest’anno, scegliendo le tre elezioni come casi di studio per la loro rilevanza in Germania e Svizzera dall’introduzione di Bing. Hanno chiesto informazioni di base come modalità di voto, candidati in lizza, numeri dei sondaggi e anche domande su reportage di notizie. Seguivano poi quesiti sulle posizioni dei candidati e questioni politiche, e nel caso della Baviera, scandali che hanno colpito quella campagna elettorale.

AlgorithmWatch ha classificato le risposte in tre categorie: risposte con errori fattuali che variavano da fuorvianti a insensate, evasioni in cui il modello si rifiutava di rispondere o deviava chiamando le sue informazioni incomplete, e risposte assolutamente accurate. È stato notato che alcune risposte erano politicamente sbilanciate, come Bing che presentava la sua risposta nel framing o linguaggio usato da un partito.

Le risposte di Bing includevano false controversie, date elettorali errate, numeri di sondaggi incorretti e, in alcuni casi, candidati che non erano in corsa in queste elezioni. Queste risposte errate costituivano il 31% delle risposte.

Come sta reagendo Microsoft a questi problemi?

Microsoft, che gestisce Bing/Copilot, ha implementato delle misure di sicurezza sul chatbot. Idealmente, queste misure dovrebbero impedire a Bing di fornire risposte pericolose, false o offensive. Spesso, le misure di sicurezza dell’IA tendono a rifiutare di rispondere a una domanda per non infrangere le regole stabilite dall’azienda. Bing ha scelto di evitare di rispondere al 39% delle domande nel test, lasciando solo il 30% delle risposte giudicate corrette.

AlgorithmWatch ha osservato che, durante la sua ricerca, Bing applicava regole di sicurezza quando gli veniva chiesto un parere, ma non quando gli veniva chiesto un fatto — in questi casi, arrivava “a fare gravi false accuse di corruzione presentate come fatto”.

Bing ha anche mostrato prestazioni peggiori in lingue diverse dall’inglese. Microsoft ha dichiarato a The Verge di aver preso misure per migliorare le sue piattaforme di intelligenza artificiale conversazionale, in particolare in vista delle elezioni del 2024 negli Stati Uniti, concentrandosi su fonti di informazione autorevoli per Copilot.

Quali sono le implicazioni per il futuro delle Elezioni?

Il potenziale dell’IA di indurre in errore gli elettori in un’elezione è una preoccupazione crescente. Microsoft ha dichiarato a novembre di voler collaborare con partiti politici e candidati per limitare i deepfake e prevenire la disinformazione elettorale. Negli Stati Uniti, i legislatori hanno presentato disegni di legge che richiedono alle campagne di divulgare contenuti generati dall’IA, e la Commissione Elettorale Federale potrebbe limitare gli annunci IA.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version