OpenAI: team per studiare i rischi catastrofici, inclusi quelli nucleari

da Redazione
0 commenti 2 minuti leggi

OpenAI ha annunciato la creazione di un nuovo team dedicato alla valutazione e all’analisi dei modelli di intelligenza artificiale per proteggere contro i cosiddetti “rischi catastrofici”.

Dettagli sul team “Preparedness”

Il team, denominato “Preparedness”, sarà guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT. Le principali responsabilità di Preparedness saranno monitorare, prevedere e proteggere dai pericoli dei futuri sistemi di intelligenza artificiale. Questi rischi vanno dalla capacità di persuadere e ingannare gli esseri umani, come negli attacchi di phishing, alla generazione di codice malevolo.

Alcune delle categorie di rischio che Preparedness studierà sembrano più lontane dalla realtà rispetto ad altre. Ad esempio, OpenAI ha elencato minacce “chimiche, biologiche, radiologiche e nucleari” come aree di massima preoccupazione in relazione ai modelli di intelligenza artificiale.

Opinioni del CEO di OpenAI

Sam Altman, CEO di OpenAI, è noto per le sue preoccupazioni riguardo all’intelligenza artificiale, temendo che possa “portare all’estinzione umana”. Tuttavia, l’idea che OpenAI possa effettivamente dedicare risorse allo studio di scenari che sembrano usciti direttamente da romanzi distopici di fantascienza è sorprendente.

Altre iniziative di OpenAI

Parallelamente alla creazione del team Preparedness, OpenAI sta cercando idee per studi sui rischi dalla comunità, offrendo un premio di $25.000 e un posto di lavoro nel team Preparedness per le prime dieci proposte.

Annunci

OpenAI afferma che il team Preparedness sarà anche incaricato di formulare una “politica di sviluppo informata sui rischi”, che dettaglierà l’approccio di OpenAI alla costruzione di valutazioni e strumenti di monitoraggio dei modelli di intelligenza artificiale, le azioni di mitigazione del rischio dell’azienda e la sua struttura di governance per la supervisione durante tutto il processo di sviluppo del modello.

La presentazione di Preparedness avviene durante un importante summit del governo britannico sulla sicurezza dell’intelligenza artificiale. Questo segue l’annuncio di OpenAI sulla formazione di un team per studiare forme emergenti di intelligenza artificiale “superintelligente”.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara