I leader del Gruppo dei Sette (G7) hanno messo in evidenza le opportunità innovative e il potenziale trasformativo dei sistemi avanzati di Intelligenza Artificiale (IA). In particolare, hanno dato rilievo ai modelli di base e all’IA generativa. Hanno anche espresso la consapevolezza della necessità di gestire i rischi associati, proteggendo gli individui, la società e i principi condivisi, come lo stato di diritto e i valori democratici, ponendo l’umanità al centro delle loro considerazioni.
I leader hanno ribadito l’importanza di una governance inclusiva per l’intelligenza artificiale. Facendo riferimento ai progressi compiuti dai ministri competenti sul Processo di Hiroshima sull’IA, hanno accolto con favore i Principi Guida Internazionali e il Codice di Condotta Internazionale per le organizzazioni che sviluppano sistemi IA avanzati.
È stato sottolineato come tali documenti saranno riesaminati e aggiornati periodicamente, in risposta all’evoluzione della tecnologia. I leader del G7 hanno esortato le organizzazioni che sviluppano sistemi IA avanzati a impegnarsi nell’applicazione del Codice di Condotta Internazionale.
Inoltre, hanno dato mandato ai ministri competenti di accelerare lo sviluppo di un quadro politico completo per il Processo di Hiroshima sull’IA, collaborando con il Global Partnership for Artificial Intelligence (GPAI) e l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE).
I leader del G7 hanno espresso la convinzione che, attraverso il Processo di Hiroshima sull’IA, si possa creare un ambiente favorevole allo sviluppo di sistemi IA sicuri e affidabili, che massimizzino i benefici della tecnologia e riducano i rischi associati. Hanno anche manifestato interesse per il prossimo vertice sulla sicurezza dell’IA che si terrà nel Regno Unito.
“Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI Systems” mira a promuovere un’IA sicura, affidabile e di fiducia a livello globale. Queste linee guida sono destinate alle organizzazioni che sviluppano e utilizzano i sistemi AI più avanzati e forniscono indicazioni su come affrontare i rischi e le sfide poste da queste tecnologie.
Principi guida per l’IA avanzata
Il “Hiroshima Process International” stabilisce principi guida per le organizzazioni che sviluppano sistemi AI avanzati, promuovendo un’IA sicura e di fiducia a livello mondiale.
- Durante lo sviluppo di sistemi AI avanzati, le organizzazioni dovrebbero identificare, valutare e mitigare i rischi in tutto il ciclo di vita dell’IA.
- Dopo il lancio sul mercato, le organizzazioni dovrebbero identificare e mitigare vulnerabilità, incidenti e schemi di uso improprio.
- Le organizzazioni dovrebbero rendere pubbliche le capacità, le limitazioni e i domini di uso appropriato e inappropriato dei sistemi AI avanzati.
- Si dovrebbe lavorare verso una condivisione responsabile delle informazioni e segnalazione di incidenti tra le organizzazioni.
- Le organizzazioni dovrebbero sviluppare, implementare e divulgare politiche di governance e gestione del rischio basate sull’IA.
- È essenziale investire e implementare controlli di sicurezza robusti in tutto il ciclo di vita dell’IA.
- Le organizzazioni dovrebbero sviluppare e implementare meccanismi affidabili di autenticazione e provenienza dei contenuti.
- La ricerca per mitigare i rischi societali, di sicurezza e di sicurezza dovrebbe essere una priorità.
- Si dovrebbe dare priorità allo sviluppo di sistemi AI avanzati per affrontare le più grandi sfide del mondo.
- Le organizzazioni dovrebbero avanzare nello sviluppo e, ove appropriato, nell’adozione di standard tecnici internazionali.
- Le organizzazioni dovrebbero implementare misure e protezioni appropriate per i dati di input, i dati personali e la proprietà intellettuale.
Questi principi sono stati elaborati come un documento vivente per costruire sui principi AI dell’OCSE in risposta ai recenti sviluppi nei sistemi AI avanzati. Si prevede di sviluppare ulteriormente questi principi come parte di un quadro politico completo, con contributi da altre nazioni e stakeholder più ampi.