Categorie
Economia

“Limitare il potere delle big tech AI sulla regolamentazione”

Tempo di lettura: 2 minuti. Le organizzazioni no-profit propongono un nuovo quadro per la regolamentazione dell’AI, cercando di bilanciare l’innovazione con la protezione dei consumatori.

Tempo di lettura: 2 minuti.

Le organizzazioni no-profit Accountable Tech, AI Now e Electronic Privacy Information Center (EPIC) hanno presentato proposte politiche che mirano a limitare l’influenza delle grandi aziende AI sulla regolamentazione. Queste proposte, denominate “Zero Trust AI Governance”, si basano su tre principi: far rispettare le leggi esistenti, creare regole chiare e audaci e mettere a carico delle aziende la responsabilità di dimostrare che i sistemi AI non sono dannosi in ogni fase del ciclo di vita dell’AI.

L’urgenza della regolamentazione

Jesse Lehrich, co-fondatore di Accountable Tech, ha sottolineato l’importanza di introdurre il quadro ora, dato che la tecnologia si evolve rapidamente. Con le elezioni imminenti, il destino della regolamentazione dell’AI rimane incerto.

Discriminazione e pregiudizio nell’AI

La discriminazione e il pregiudizio nell’AI sono problemi che gli esperti hanno segnalato per anni. Lehrich ha citato l’indagine della Federal Trade Commission su OpenAI come esempio di come le regole esistenti possono essere utilizzate per identificare potenziali danni ai consumatori.

Collaborazione tra aziende AI e governo

Grandi aziende AI come OpenAI hanno mostrato disponibilità a collaborare con il governo degli Stati Uniti nella creazione di regolamentazioni. Tuttavia, il quadro Zero Trust AI cerca anche di ridefinire i limiti delle leggi di protezione digitale come la Sezione 230, in modo che le aziende AI generative possano essere ritenute responsabili se i loro modelli producono informazioni false o pericolose.

Regole chiare e definite

Accountable Tech e i suoi partner hanno suggerito diverse regole chiare, come il divieto di utilizzo dell’AI per il riconoscimento delle emozioni, la polizia predittiva e la raccolta di dati biometrici in settori come l’istruzione e l’assunzione.

Limitare l’impatto delle grandi aziende tecnologiche

Le proposte suggeriscono di impedire ai grandi fornitori di cloud di possedere o avere un interesse benefico nei grandi servizi commerciali AI, limitando così l’influenza di aziende come Microsoft e Google nell’ecosistema AI.

Regolamentazione simile all’industria farmaceutica

Il gruppo propone un metodo di regolamentazione simile a quello utilizzato nell’industria farmaceutica, con un monitoraggio continuo dopo il rilascio commerciale.

Differenziazione tra le fasi della catena di approvvigionamento AI

Lehrich sottolinea la necessità di differenziare tra le diverse fasi della catena di approvvigionamento AI e di progettare requisiti appropriati per ciascuna fase.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version