Categorie
Tech

Rischio di estinzione: leader intelligenza artificiale lanciano un allarme globale”

Tempo di lettura: 2 minuti. Top ricercatori e CEO nel campo dell’intelligenza artificiale emettono un breve e potente messaggio di avvertimento sulla potenziale minaccia esistenziale dell’IA per l’umanità.

Tempo di lettura: 2 minuti.

Un gruppo di rinomati ricercatori, ingegneri e CEO nel campo dell’intelligenza artificiale ha diffuso un nuovo avvertimento sul pericolo esistenziale che l’IA potrebbe rappresentare per l’umanità.

Un Messaggio Breve, Ma di Grande Impatto

Il comunicato di 22 parole, volutamente breve per renderlo il più largamente accettabile possibile, recita così: “Mitigare il rischio di estinzione dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerra nucleare.” Questa dichiarazione, pubblicata dal Center for AI Safety con sede a San Francisco, è stata firmata da figure di spicco come Demis Hassabis, CEO di Google DeepMind, e Sam Altman, CEO di OpenAI, così come da Geoffrey Hinton e Youshua Bengio – due dei tre ricercatori di IA che hanno vinto il premio Turing 2018 per il loro lavoro sull’IA. Al momento della scrittura, Yann LeCun, terzo vincitore di quell’anno e attuale capo scienziato di IA presso la società madre di Facebook, Meta, non ha firmato.

L’IA e il Dibattito sulla Sicurezza

La dichiarazione è l’ultimo intervento di alto profilo nel complicato e controverso dibattito sulla sicurezza dell’IA. Quest’anno, una lettera aperta firmata da molti degli stessi individui che sostengono l’avviso di 22 parole ha chiesto una “pausa” di sei mesi nello sviluppo dell’IA. La lettera è stata criticata su più livelli: alcuni esperti ritenevano che esagerasse il rischio rappresentato dall’IA, mentre altri erano d’accordo sul rischio ma non sulla soluzione proposta dalla lettera.

La Breve Dichiarazione e il suo Messaggio

Dan Hendrycks, direttore esecutivo del Center for AI Safety, ha dichiarato al New York Times che la brevità della dichiarazione odierna – che non suggerisce potenziali modi per mitigare la minaccia rappresentata dall’IA – è stata concepita per evitare simili disaccordi. “Non volevamo spingere per un ampio menu di 30 potenziali interventi”, ha detto Hendrycks. “Quando ciò accade, il messaggio si diluisce.”

Hendrycks ha descritto il messaggio come un “coming-out” per le figure del settore preoccupate per il rischio dell’IA. “C’è un malinteso molto comune, anche nella comunità dell’IA, che ci siano solo una manciata di pessimisti”, ha detto Hendrycks. “Ma, in realtà, molte persone esprimerebbero privatamente preoccupazioni su queste questioni.”

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version