Categorie
L'Altra Bolla

Meta introduce etichette per foto AI su Facebook, Instagram e Threads

Tempo di lettura: 2 minuti.

Meta ha annunciato che inizierà ad apporre etichette alle foto generate dall’intelligenza artificiale (AI) caricate su Facebook, Instagram e Threads nei prossimi mesi, in vista della stagione elettorale mondiale. L’azienda punirà anche gli utenti che non dichiarano se un video realistico o un pezzo audio sono stati creati con l’AI. Queste misure sono intese a “galvanizzare” l’industria tecnologica man mano che i media generati dall’AI diventano sempre più difficili da distinguere dalla realtà.

Meta applicherà un’etichetta “Immaginato con AI” alle immagini create con il proprio generatore di immagini AI, Imagine AI, e inizierà a fare lo stesso con le foto generate dall’AI create con strumenti di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock. L’industria è ancora indietro nella costruzione di standard per identificare video e audio generati dall’AI, e Meta è in allerta su come tali media possano essere utilizzati per ingannare.

Espansione dell’Etichettatura e Politiche di Divulgazione

Meta sta espandendo l’etichettatura delle immagini generate dall’AI sui suoi social media per includere alcune immagini sintetiche create con strumenti di AI generativa di concorrenti, almeno dove i concorrenti utilizzano ciò che Meta definisce “indicatori standard dell’industria” che il contenuto è generato dall’AI e che Meta è in grado di rilevare. Questo sviluppo significa che l’azienda prevede di etichettare più immagini generate dall’AI che circolano sulle sue piattaforme in futuro.

Meta richiederà presto ai suoi utenti di divulgare quando i post video o audio realistici sono stati creati con l’AI. In caso contrario, “la gamma di sanzioni che si applicheranno spazierà dagli avvertimenti alla rimozione” del post incriminato.

Sfide nella Rilevazione di Video e Audio Generati dall’AI

Quando si tratta di video e audio generati dall’AI, Clegg suggerisce che è generalmente ancora troppo difficile rilevare questi tipi di falsi, poiché la marcatura e il watermarking non sono stati ancora adottati su scala sufficiente affinché gli strumenti di rilevamento possano fare un buon lavoro. Inoltre, tali segnali possono essere rimossi attraverso la modifica e ulteriori manipolazioni dei media.

Meta sta cambiando la sua politica per richiedere agli utenti che pubblicano video AI “fotorealistici” o audio “realistico” di informare che il contenuto è sintetico, e Clegg afferma che si riserva il diritto di etichettare il contenuto se lo ritiene “particolarmente ad alto rischio di ingannare materialmente il pubblico su una questione di importanza”.

Utilizzo di Modelli di Linguaggio di Grandi Dimensioni per la Moderazione dei Contenuti

Clegg ha anche discusso l’uso (finora “limitato”) di AI generativa da parte di Meta come strumento per aiutare a far rispettare le proprie politiche, e il potenziale per l’AI generativa di assumere più responsabilità in questo senso, con il presidente di Meta che suggerisce che potrebbe rivolgersi a modelli di linguaggio di grandi dimensioni (LLM) per supportare i suoi sforzi di enforcement durante momenti di “rischio elevato”, come le elezioni.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version