Categorie
Tech

OpenAI: team per studiare i rischi catastrofici, inclusi quelli nucleari

Tempo di lettura: 2 minuti. OpenAI annuncia la creazione di un team, “Preparedness”, per valutare e proteggere dai rischi catastrofici associati ai modelli di intelligenza artificiale.

Tempo di lettura: 2 minuti.

OpenAI ha annunciato la creazione di un nuovo team dedicato alla valutazione e all’analisi dei modelli di intelligenza artificiale per proteggere contro i cosiddetti “rischi catastrofici”.

Dettagli sul team “Preparedness”

Il team, denominato “Preparedness”, sarà guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT. Le principali responsabilità di Preparedness saranno monitorare, prevedere e proteggere dai pericoli dei futuri sistemi di intelligenza artificiale. Questi rischi vanno dalla capacità di persuadere e ingannare gli esseri umani, come negli attacchi di phishing, alla generazione di codice malevolo.

Alcune delle categorie di rischio che Preparedness studierà sembrano più lontane dalla realtà rispetto ad altre. Ad esempio, OpenAI ha elencato minacce “chimiche, biologiche, radiologiche e nucleari” come aree di massima preoccupazione in relazione ai modelli di intelligenza artificiale.

Opinioni del CEO di OpenAI

Sam Altman, CEO di OpenAI, è noto per le sue preoccupazioni riguardo all’intelligenza artificiale, temendo che possa “portare all’estinzione umana”. Tuttavia, l’idea che OpenAI possa effettivamente dedicare risorse allo studio di scenari che sembrano usciti direttamente da romanzi distopici di fantascienza è sorprendente.

Altre iniziative di OpenAI

Parallelamente alla creazione del team Preparedness, OpenAI sta cercando idee per studi sui rischi dalla comunità, offrendo un premio di $25.000 e un posto di lavoro nel team Preparedness per le prime dieci proposte.

OpenAI afferma che il team Preparedness sarà anche incaricato di formulare una “politica di sviluppo informata sui rischi”, che dettaglierà l’approccio di OpenAI alla costruzione di valutazioni e strumenti di monitoraggio dei modelli di intelligenza artificiale, le azioni di mitigazione del rischio dell’azienda e la sua struttura di governance per la supervisione durante tutto il processo di sviluppo del modello.

La presentazione di Preparedness avviene durante un importante summit del governo britannico sulla sicurezza dell’intelligenza artificiale. Questo segue l’annuncio di OpenAI sulla formazione di un team per studiare forme emergenti di intelligenza artificiale “superintelligente”.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version