Categorie
Tech

OpenAI inaugura il Team dedicato alla Sicurezza dei Minori

Tempo di lettura: 2 minuti.

In risposta alle preoccupazioni espresse da attivisti e genitori, OpenAI ha istituito una nuova squadra incaricata di esplorare strategie per prevenire l’uso improprio o l’abuso dei suoi strumenti di intelligenza artificiale da parte dei minori ai fini della sicurezza. Questo team, denominato “Child Safety team”, collabora con i gruppi di politica delle piattaforme, legali e di indagine di OpenAI, oltre a partner esterni, per gestire processi, incidenti e revisioni legate agli utenti minorenni.

Un impegno verso la Sicurezza

Il team sta attualmente cercando di assumere uno specialista in enforcement della sicurezza dei minori, il quale avrà il compito di applicare le politiche di OpenAI nel contesto dei contenuti generati dall’IA e di lavorare sui processi di revisione relativi ai contenuti “sensibili”, presumibilmente legati ai bambini.

L’impegno di OpenAI nella sicurezza dei minori non sorprende, considerando le leggi esistenti come la Children’s Online Privacy Protection Rule degli Stati Uniti, che impone controlli su ciò che i minori possono accedere sul web e sui tipi di dati che le aziende possono raccogliere su di loro. Tuttavia, la formazione di questo nuovo team, insieme alla recente partnership con Common Sense Media per collaborare su linee guida sull’IA adatte ai bambini, indica una cautela da parte di OpenAI nel navigare le politiche relative all’uso dell’IA da parte dei minori e nella gestione dell’immagine pubblica.

La crescente preoccupazione

I minori si affidano sempre di più agli strumenti di GenAI non solo per aiuti nei compiti scolastici, ma anche per questioni personali. Una ricerca del Center for Democracy and Technology rivela che il 29% dei minori ha utilizzato ChatGPT per affrontare ansie o problemi di salute mentale, il 22% per questioni con amici e il 16% per conflitti familiari. Questo uso crescente solleva preoccupazioni su potenziali rischi, come la creazione di informazioni o immagini false credibili utilizzate per danneggiare qualcuno.

Verso una Regolamentazione

L’UNESCO ha recentemente sollecitato i governi a regolamentare l’uso della GenAI nell’educazione, includendo l’implementazione di limiti di età per gli utenti e misure di protezione dei dati e della privacy degli utenti. “La GenAI può rappresentare un’opportunità incredibile per lo sviluppo umano, ma può anche causare danni e pregiudizi”, ha dichiarato Audrey Azoulay, direttore generale dell’UNESCO, sottolineando la necessità di un coinvolgimento pubblico e di adeguate salvaguardie e regolamenti da parte dei governi.

OpenAI, con la creazione di questo nuovo team, mostra un impegno attivo nel garantire che i suoi strumenti siano utilizzati in modo sicuro e responsabile, specialmente quando si tratta di utenti minorenni.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version