Categorie
Tech

Intelligenza artificiale, Biden: watermark digitali per i contenuti

Tempo di lettura: 2 minuti. L’ordine esecutivo di Biden sull’intelligenza artificiale introduce watermark digitali per identificare contenuti generati da AI

Tempo di lettura: 2 minuti.

L’ordine esecutivo firmato dal Presidente Joe Biden riguardo all’intelligenza artificiale rappresenta un’azione senza precedenti del governo per affrontare alcune delle sfide più grandi della tecnologia, come identificare se un’immagine è vera o falsa.

Watermark digitali per contenuti generati da AI

Tra le varie richieste, l’ordine esige nuovi standard governativi sulla marcatura dei contenuti generati da AI. Simili ai watermark su fotografie o banconote, i watermark digitali aiutano gli utenti a distinguere tra un oggetto reale e uno falso e a determinare chi ne detiene la proprietà. Nonostante l’ampio sostegno da parte della Casa Bianca e dell’industria tecnologica, gli esperti temono che questa tecnologia non sia infallibile.

Le aziende e i watermark

Molte delle principali aziende di AI stanno già integrando la tecnologia di watermarking nei loro prodotti. Alcuni sono semplici, come la marcatura di OpenAI sulle immagini DALL-E, mentre altri sono più persistenti. Ad esempio, Google ha annunciato la versione beta di SynthID, un watermark impercettibile inserito direttamente nei pixel di un’immagine. Questo metodo permette di autenticare l’immagine anche dopo che è stata ritagliata o ridimensionata.

Le sfide dei watermark

Nonostante le promesse, prodotti come SynthID non possono essere l’unica soluzione. Ricerche recenti hanno dimostrato che è possibile distruggere questi watermark e inserire watermark falsi, creando falsi positivi. Inoltre, servizi come DALL-E hanno reso la generazione di immagini più accessibile, portando a una proliferazione di falsi generati da AI sul web.

L’approccio di Biden

L’ordine esecutivo di Biden chiede anche al Dipartimento di Commercio di sviluppare standard per rilevare e tracciare contenuti sintetici sul web. Adobe, ad esempio, ha introdotto un’icona di trasparenza per aiutare a identificare la provenienza di un’immagine. Tuttavia, autenticare e tracciare contenuti generati da AI presenta rischi, in particolare in termini di privacy degli utenti.

Conclusione – La sfida dell’autenticazione

Creare un sistema di autenticazione delle immagini affidabile e interoperabile richiederà tempo. Non è ancora chiaro come l’ordine influenzerà le aziende di AI o quali regole potrebbero essere imposte dal governo. Tuttavia, è evidente che non esiste una soluzione unica per affrontare le sfide poste dai contenuti falsi generati da AI.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version