Categorie
Intelligenza Artificiale

OpenAI impegno per la Sicurezza dei Bambini

Tempo di lettura: 2 minuti. OpenAI si impegna a implementare misure di sicurezza infantile nello sviluppo e manutenzione delle tecnologie di IA generativa

Tempo di lettura: 2 minuti.

OpenAI, insieme a leader del settore come Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI e Stability AI, si è impegnata a implementare misure robuste di sicurezza infantile nello sviluppo, distribuzione e manutenzione delle tecnologie di intelligenza artificiale generativa, conformemente ai principi di Safety by Design in favore dei bambini. Questa iniziativa, guidata da Thorn, un’organizzazione non profit dedicata alla protezione dei bambini dall’abuso sessuale, e da All Tech Is Human, che si occupa di risolvere problemi complessi tra tecnologia e società, mira a mitigare i rischi che l’IA generativa può rappresentare per i bambini.

Dettagli dell’impegno

Adottando i principi di Safety by Design, OpenAI e i suoi colleghi assicurano che la sicurezza dei bambini sia una priorità in ogni fase dello sviluppo dell’IA. Gli sforzi finora compiuti includono minimizzare la possibilità che i modelli generino contenuti che possano danneggiare i bambini, impostare restrizioni di età per ChatGPT e collaborare attivamente con il National Center for Missing and Exploited Children (NCMEC), la Tech Coalition e altri stakeholder governativi e industriali su questioni di protezione dell’infanzia e miglioramenti dei meccanismi di segnalazione.

Principi specifici di Safety by Design:

  1. Sviluppo:
    • Sviluppare, costruire e addestrare modelli di IA generativa che affrontino proattivamente i rischi per la sicurezza dei bambini.
    • Fonti responsabili per i set di dati di addestramento, rilevamento e rimozione di materiali di abuso sessuale su minori (CSAM) e materiali di sfruttamento sessuale di minori (CSEM) dai dati di addestramento, e segnalazione di qualsiasi CSAM confermato alle autorità competenti.
    • Incorporare cicli di feedback e strategie di stress-testing iterativi nel processo di sviluppo.
    • Implementare soluzioni per affrontare l’uso malevolo.
  2. Distribuzione:
    • Rilasciare e distribuire modelli di IA generativa dopo che sono stati addestrati e valutati per la sicurezza infantile, fornendo protezioni durante tutto il processo.
    • Combattere contenuti e comportamenti abusivi, incorporando sforzi di prevenzione.
    • Incoraggiare la proprietà dello sviluppo in sicurezza per progettazione.
  3. Manutenzione:
    • Mantenere la sicurezza del modello e della piattaforma continuando a comprendere e rispondere ai rischi per la sicurezza dei bambini.
    • Impegnarsi a rimuovere nuovi materiali CSAM generati dall’IA creati da attori malevoli dalla nostra piattaforma.
    • Investire in ricerca e soluzioni tecnologiche future.
    • Combattere CSAM, AIG-CSAM e CSEM sulle nostre piattaforme.

Questo impegno rappresenta un passo importante nel prevenire l’uso improprio delle tecnologie di IA per creare o diffondere materiale di abuso sessuale su minori (AIG-CSAM) e altre forme di danno sessuale contro i bambini. Come parte del gruppo di lavoro, OpenAI ha anche concordato di rilasciare aggiornamenti sui progressi ogni anno.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version