Sommario
I regolatori europei stanno affrontando decisioni cruciali riguardo alla regolamentazione dell’intelligenza artificiale (IA) nella regione. Il BEUC, che rappresenta le organizzazioni dei consumatori in 13 paesi dell’UE, ha recentemente esortato l’Unione Europea a smettere di indugiare e a “avviare indagini urgenti sui rischi dell’IA generativa”.
Preoccupazioni riguardo all’IA generativa
Ursula Pachl, Vice Direttore Generale del BEUC, ha espresso serie preoccupazioni su come sistemi di IA generativa come ChatGPT possano ingannare, manipolare e danneggiare le persone. Ha sottolineato che tali sistemi possono essere utilizzati per diffondere disinformazione, perpetuare pregiudizi esistenti che amplificano la discriminazione, o essere utilizzati per frodi. Il BEUC chiede alle autorità di sicurezza, protezione dei dati e dei consumatori di avviare indagini senza attendere che si verifichino danni ai consumatori.
Rapporto norvegese e problematiche dell’IA
Un rapporto di Forbrukerrådet, uno dei membri del BEUC in Norvegia, ha evidenziato numerose problematiche poste dall’IA. Il rapporto sottolinea come alcuni sviluppatori di IA, inclusi i colossi della tecnologia, abbiano reso i loro sistemi inaccessibili allo scrutinio esterno, rendendo difficile capire come vengano raccolti i dati o come funzionino gli algoritmi. Inoltre, il rapporto evidenzia problemi come la produzione di informazioni errate, l’IA costruita per ingannare o manipolare gli utenti, i problemi di pregiudizio e le questioni di sicurezza.
La legge sull’IA dell’UE e i prossimi passi
L’UE ha recentemente approvato la sua legge ufficiale sull’IA, che suddivide le applicazioni di IA in categorie come inaccettabile, ad alto rischio e a rischio limitato. Questa legge, una volta attuata, rappresenterà il primo tentativo al mondo di codificare una sorta di comprensione e applicazione legale su come l’IA viene utilizzata a scopi commerciali e non commerciali. Il prossimo passo sarà per l’UE impegnarsi con i singoli paesi membri per definire la forma finale della legge.