OpenAI Forma un nuovo team per controllare l’Intelligenza Artificiale Superintelligente

da Redazione
0 commenti 2 minuti leggi
ChatGPT di OpenAI

OpenAI, leader nel campo dell’intelligenza artificiale, sta formando un nuovo team guidato dal suo capo scienziato e co-fondatore, Ilya Sutskever. L’obiettivo del team è sviluppare metodi per guidare e controllare sistemi di intelligenza artificiale che superano l’intelligenza umana. Questo annuncio arriva in un momento in cui vi è una crescente preoccupazione per le potenziali implicazioni dei sistemi di intelligenza artificiale avanzata.

Sfida della Superintelligenza

Attualmente, non esiste una soluzione per guidare o controllare un’IA potenzialmente superintelligente e prevenire che diventi incontrollabile. Le tecniche attuali per allineare l’IA, come l’apprendimento per rinforzo basato sul feedback umano, si basano sulla capacità degli esseri umani di supervisionare l’IA. Tuttavia, gli esseri umani potrebbero non essere in grado di supervisionare in modo affidabile i sistemi di IA molto più intelligenti di noi.

Nuovo Team di Superallineamento

Per affrontare queste sfide, OpenAI sta creando un nuovo team di Superallineamento, guidato da Ilya Sutskever e Jan Leike. Il team avrà accesso al 20% delle risorse di calcolo che l’azienda ha assicurato fino ad oggi. Composto da scienziati e ingegneri di OpenAI, così come ricercatori di altre organizzazioni, il team mira a risolvere le sfide tecniche centrali nel controllo dell’IA superintelligente nei prossimi quattro anni.

Ricercatore di Allineamento Automatizzato

L’obiettivo ad alto livello è costruire un “ricercatore di allineamento automatizzato a livello umano”. Ciò implica addestrare i sistemi IA utilizzando feedback umano, addestrare l’IA ad assistere nella valutazione di altri sistemi IA e, infine, costruire IA che possa svolgere ricerche di allineamento. OpenAI ipotizza che l’IA possa fare progressi più rapidi e migliori nella ricerca di allineamento rispetto agli esseri umani.

Limitazioni e Sfide Future

Non esiste un metodo infallibile e l’utilizzo dell’IA per la valutazione ha il potenziale di amplificare le inconsistenze, i pregiudizi o le vulnerabilità. Inoltre, potrebbe rivelarsi che le parti più difficili del problema di allineamento non siano affatto correlate all’ingegneria. Tuttavia, Sutskever e Leike ritengono che valga la pena tentare. Secondo loro, l’allineamento della superintelligenza è fondamentalmente un problema di apprendimento automatico e i grandi esperti in apprendimento automatico saranno essenziali per risolverlo, anche se non stanno già lavorando sull’allineamento.

Annunci

Condivisione e Contributo alla Sicurezza

OpenAI ha in programma di condividere ampiamente i risultati di questo sforzo e considera il contributo all’allineamento e alla sicurezza dei modelli non OpenAI come una parte importante del loro lavoro. Questo rappresenta un impegno da parte dell’organizzazione nel garantire che i progressi nell’intelligenza artificiale siano gestiti in modo responsabile e sicuro.

Si può anche come

MatriceDigitale.it – Copyright © 2024, Livio Varriale – Registrazione Tribunale di Napoli n° 60 del 18/11/2021. – P.IVA IT10498911212 Privacy Policy e Cookies

Developed with love by Giuseppe Ferrara