Sommario
L’American Psychological Association (APA) lancia un avvertimento chiaro: l’uso dell’intelligenza artificiale da parte degli adolescenti deve essere regolato per evitare manipolazioni, sfruttamento e isolamento sociale. In un nuovo rapporto pubblicato a giugno 2025, l’organizzazione sottolinea che l’integrazione sempre più profonda dell’AI nella vita quotidiana rischia di ripetere gli errori commessi con i social network, se non vengono attuati interventi preventivi su più livelli.
Adolescenza, vulnerabilità cognitiva e AI
Il report, redatto da un comitato scientifico interdisciplinare, definisce l’adolescenza come la fascia compresa tra i 10 e i 25 anni, fase critica dello sviluppo cerebrale e della costruzione identitaria. I giovani utenti, a causa della loro immaturità cognitiva, sono meno inclini a mettere in discussione l’affidabilità dei contenuti generati da bot, chatbot o assistenti AI, rispetto agli adulti.
Il documento sottolinea che l’età non corrisponde sempre al grado di maturità psicologica, e pertanto non può essere l’unico parametro per valutare l’esposizione ai rischi. Sono già stati documentati casi in cui adolescenti hanno sviluppato relazioni patologiche con chatbot, dimostrando dipendenza, isolamento e alterazione della percezione della realtà sociale.
Raccomandazioni concrete per gli sviluppatori
La APA chiede l’adozione immediata di linee guida tecniche e progettuali che tengano conto della salute mentale giovanile. Tra le raccomandazioni principali:
• Creare barriere funzionali con le interazioni simulate: l’AI non deve mimare relazioni umane senza segnalarne la natura artificiale.
• Impostare default adeguati all’età per limiti d’interazione, privacy e contenuti.
• Favorire usi educativi consapevoli, come supporto alla sintesi e alla comprensione dei contenuti scolastici, senza sostituirsi all’apprendimento.
• Bloccare la diffusione di contenuti nocivi o inaccurati: l’AI non deve suggerire materiale dannoso o errato.
• Tutela dei dati biometrici e comportamentali dei minori: è essenziale impedire l’utilizzo di questi dati per pubblicità mirata o per la rivendita a terzi.
Educazione all’uso dell’intelligenza artificiale
Il rapporto propone anche un approccio strutturato all’AI literacy: una forma di alfabetizzazione digitale specifica per le tecnologie intelligenti. Si suggerisce di integrare questi temi nei curricoli scolastici nazionali e statali, affinché i giovani possano riconoscere le dinamiche di funzionamento e manipolazione delle intelligenze artificiali.
La APA mette a disposizione ulteriori strumenti sia per i genitori, che possono trovare suggerimenti pratici per proteggere i figli, sia per gli adolescenti, con guide sull’uso critico e consapevole delle tecnologie basate su AI. L’obiettivo è formare utenti capaci di distinguere contenuti generati artificialmente, comprenderne i limiti e difendere la propria identità digitale.
Responsabilità distribuita
Secondo il Chief of Psychology Mitch Prinstein, molte delle modifiche auspicabili possono essere applicate subito a livello individuale o familiare, ma altre richiederanno interventi di sistema. In particolare, i policy maker, gli sviluppatori e le piattaforme tecnologiche devono convergere verso un quadro normativo e progettuale comune.
L’invito è a non aspettare che il problema esploda, come accaduto con le piattaforme sociali, ma a includere la tutela dell’adolescente nella progettazione nativa delle AI. La trasparenza sui processi decisionali dell’AI, la presenza di supervisione umana e l’accountability degli sviluppatori sono elementi centrali per garantire un’adozione sostenibile delle tecnologie emergenti.
L’integrazione dell’intelligenza artificiale nelle vite degli adolescenti impone una riflessione multidisciplinare urgente. La capacità dell’AI di simulare interazioni umane, raccogliere dati personali e suggerire contenuti ne fa uno strumento potentemente ambivalente: educativo ma anche rischioso. Le raccomandazioni della APA delineano un percorso chiaro per limitare l’impatto negativo e massimizzare l’uso formativo, richiamando tutti gli attori del sistema a una responsabilità collettiva e preventiva.