Categorie
Notizie

Google presenta il suo Secure AI Framework

Tempo di lettura: 2 minuti. Google ha rilasciato il Secure AI Framework per aiutare a garantire la sicurezza della tecnologia AI in modo collaborativo.

Tempo di lettura: 2 minuti.

Google ha rilasciato un framework concettuale per garantire la sicurezza della tecnologia AI in modo collaborativo. Il Secure AI Framework (SAIF) è stato creato per rispondere alle esigenze di sicurezza nell’innovazione dell’IA, in particolare l’IA generativa, e per stabilire standard di sicurezza chiari per la costruzione e il dispiegamento di questa tecnologia in modo responsabile.

Perché SAIF è stato introdotto ora

SAIF è ispirato alle migliori pratiche di sicurezza, come la revisione, il test e il controllo della catena di fornitura, che Google ha applicato allo sviluppo del software, incorporando al contempo la comprensione delle mega-tendenze di sicurezza e dei rischi specifici per i sistemi AI. Un framework che attraversa i settori pubblico e privato è essenziale per garantire che gli attori responsabili salvaguardino la tecnologia che supporta i progressi dell’IA, in modo che quando i modelli di IA vengono implementati, siano sicuri per impostazione predefinita.

I sei elementi chiave di SAIF

  1. Espandere le solide basi di sicurezza all’ecosistema AI: Questo include l’uso di protezioni infrastrutturali sicure per impostazione predefinita e l’esperienza costruita negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti dell’IA.
  2. Estendere il rilevamento e la risposta per portare l’IA nell’universo delle minacce dell’organizzazione: La tempestività è fondamentale nel rilevare e rispondere agli incidenti di sicurezza legati all’IA, e l’estensione dell’intelligence sulle minacce e altre capacità a un’organizzazione migliora entrambi.
  3. Automatizzare le difese per stare al passo con le minacce esistenti e nuove: Le ultime innovazioni dell’IA possono migliorare la scala e la velocità degli sforzi di risposta agli incidenti di sicurezza.
  4. Armonizzare i controlli a livello di piattaforma per garantire una sicurezza coerente in tutta l’organizzazione: La coerenza tra i framework di controllo può supportare la mitigazione del rischio dell’IA e proteggere in modo scalabile le diverse piattaforme e strumenti.
  5. Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per il dispiegamento dell’IA: Il test costante delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino l’ambiente di minaccia in evoluzione.
  6. Contestualizzare i rischi dei sistemi AI nei processi aziendali circostanti: L’effettuazione di valutazioni del rischio end-to-end relative a come le organizzazioni implementeranno l’IA può aiutare a informare le decisioni. Questo include una valutazione del rischio aziendale end-to-end, come la genealogia dei dati, la validazione e il monitoraggio del comportamento operativo per specifici tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatici per validare le prestazioni dell’IA.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version