Categorie
Sicurezza Informatica

OpenAI e Google: watermark IA contro deepfake e disinformazione

Tempo di lettura: 2 minuti. Sette aziende, tra cui OpenAI, Microsoft e Google, si impegnano a sviluppare tecnologie per marcare con un watermark i contenuti generati da intelligenza artificiale, al fine di prevenire usi ingannevoli e disinformazione.

Tempo di lettura: 2 minuti.

Sette aziende, tra cui OpenAI, Microsoft, Google, Meta, Amazon, Anthropic e Inflection, si sono impegnate a sviluppare tecnologie per marcare con un watermark i contenuti generati da intelligenza artificiale. Questo aiuterà a condividere in sicurezza testi, video, audio e immagini generati da IA, senza ingannare gli altri sulla loro autenticità.

Il funzionamento del watermark

Non è ancora chiaro come funzionerà il watermark, ma è probabile che venga incorporato nel contenuto in modo che gli utenti possano risalire alla sua origine e agli strumenti di IA utilizzati per generarla. Questa mossa arriva in un momento in cui i deepfake stanno diventando una preoccupazione crescente per gli utenti e i responsabili delle politiche Internet.

L’uso improprio degli strumenti di IA

Ci sono stati diversi casi di uso improprio degli strumenti di IA, dove un watermark potrebbe aiutare a proteggere gli utenti da situazioni spiacevoli. Ad esempio, è stato segnalato che un software di generazione di voci basato su IA è stato utilizzato per truffare le persone facendole perdere migliaia di dollari. Inoltre, il mese scorso, l’FBI ha avvertito dell’uso crescente di deepfake generati da IA in schemi di sextortion.

L’impegno di OpenAI e Google

OpenAI e Google si sono impegnate a sviluppare “meccanismi robusti, tra cui sistemi di provenienza e/o watermarking per contenuti audio o visivi”, così come “strumenti o API per determinare se un particolare pezzo di contenuto è stato creato con il loro sistema”. Questo si applicherà alla maggior parte dei contenuti generati da IA, con rare eccezioni, come non marcare le voci predefinite degli assistenti AI.

Altre misure di sicurezza per l’IA

Oltre a sviluppare watermark per i contenuti generati da IA, le aziende tecnologiche hanno preso una serie di altri impegni volontari annunciati dalla Casa Bianca. Tra questi, le aziende tecnologiche hanno concordato di condurre sia test interni che esterni sui sistemi di IA prima del loro rilascio. Hanno anche detto che investiranno di più nella sicurezza informatica e condivideranno informazioni in tutto il settore per aiutare a ridurre i rischi dell’IA.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version