Sommario
OpenAI, pioniere nella ricerca sull’intelligenza artificiale, sta affrontando una delle sfide più significative nel campo dell’AI: lo sviluppo di AI superintelligente, super. Con il progresso rapido dell’AI, il team Superalignment di OpenAI, guidato dal co-fondatore Ilya Sutskever, si dedica allo sviluppo di metodi per regolare e governare queste potenti AI.
La Sfida del Superalignment
L’obiettivo principale è allineare i modelli AI che superano l’intelligenza umana, un compito che presenta notevoli difficoltà tecniche. Attualmente, il team utilizza un modello AI meno sofisticato per guidare un modello più avanzato verso comportamenti desiderati, evitando quelli indesiderati.
Velocità e Impatto dell’AI
La velocità del progresso nell’AI è notevole, con aspettative di raggiungere e superare presto i livelli di intelligenza umana. Questo progresso pone questioni urgenti sulla sicurezza e l’etica nell’uso dell’AI.
Governance e Controllo Futuri
OpenAI sta esplorando quadri di governance per futuri sistemi AI potenti. Il team sta testando ipotesi di superalignment utilizzando un approccio di modello debole-forte, dove un modello AI meno complesso guida uno più avanzato.
Iniziative e Supporto
OpenAI ha lanciato un programma di sovvenzioni da 10 milioni di dollari per promuovere la ricerca sull’allineamento superintelligente. Inoltre, è prevista una conferenza accademica nel 2025 per discutere e promuovere questi studi. Il programma di sovvenzioni riceve supporto finanziario da Eric Schmidt, ex CEO di Google e attivo investitore nell’AI.
L’impegno di OpenAI nel controllare l’AI superintelligente è fondamentale per garantire che il futuro sviluppo dell’AI sia sicuro e allineato con i valori umani. Questa ricerca potrebbe definire il corso dell’AI e il suo impatto sulla società nei prossimi anni.