Sommario
OpenAI, leader nel campo dell’intelligenza artificiale, sta formando un nuovo team guidato dal suo capo scienziato e co-fondatore, Ilya Sutskever. L’obiettivo del team è sviluppare metodi per guidare e controllare sistemi di intelligenza artificiale che superano l’intelligenza umana. Questo annuncio arriva in un momento in cui vi è una crescente preoccupazione per le potenziali implicazioni dei sistemi di intelligenza artificiale avanzata.
Sfida della Superintelligenza
Attualmente, non esiste una soluzione per guidare o controllare un’IA potenzialmente superintelligente e prevenire che diventi incontrollabile. Le tecniche attuali per allineare l’IA, come l’apprendimento per rinforzo basato sul feedback umano, si basano sulla capacità degli esseri umani di supervisionare l’IA. Tuttavia, gli esseri umani potrebbero non essere in grado di supervisionare in modo affidabile i sistemi di IA molto più intelligenti di noi.
Nuovo Team di Superallineamento
Per affrontare queste sfide, OpenAI sta creando un nuovo team di Superallineamento, guidato da Ilya Sutskever e Jan Leike. Il team avrà accesso al 20% delle risorse di calcolo che l’azienda ha assicurato fino ad oggi. Composto da scienziati e ingegneri di OpenAI, così come ricercatori di altre organizzazioni, il team mira a risolvere le sfide tecniche centrali nel controllo dell’IA superintelligente nei prossimi quattro anni.
Ricercatore di Allineamento Automatizzato
L’obiettivo ad alto livello è costruire un “ricercatore di allineamento automatizzato a livello umano”. Ciò implica addestrare i sistemi IA utilizzando feedback umano, addestrare l’IA ad assistere nella valutazione di altri sistemi IA e, infine, costruire IA che possa svolgere ricerche di allineamento. OpenAI ipotizza che l’IA possa fare progressi più rapidi e migliori nella ricerca di allineamento rispetto agli esseri umani.
Limitazioni e Sfide Future
Non esiste un metodo infallibile e l’utilizzo dell’IA per la valutazione ha il potenziale di amplificare le inconsistenze, i pregiudizi o le vulnerabilità. Inoltre, potrebbe rivelarsi che le parti più difficili del problema di allineamento non siano affatto correlate all’ingegneria. Tuttavia, Sutskever e Leike ritengono che valga la pena tentare. Secondo loro, l’allineamento della superintelligenza è fondamentalmente un problema di apprendimento automatico e i grandi esperti in apprendimento automatico saranno essenziali per risolverlo, anche se non stanno già lavorando sull’allineamento.
Condivisione e Contributo alla Sicurezza
OpenAI ha in programma di condividere ampiamente i risultati di questo sforzo e considera il contributo all’allineamento e alla sicurezza dei modelli non OpenAI come una parte importante del loro lavoro. Questo rappresenta un impegno da parte dell’organizzazione nel garantire che i progressi nell’intelligenza artificiale siano gestiti in modo responsabile e sicuro.