La Commissione Europea ha notificato a TikTok le conclusioni preliminari di un’indagine che individua meccaniche di design considerate addictive e potenzialmente in violazione del Digital Services Act. Se le accuse venissero confermate, la piattaforma rischierebbe una sanzione fino al 6% del fatturato globale annuo, una delle più alte previste dal quadro normativo europeo.
Secondo Bruxelles, alcune funzionalità centrali dell’applicazione non sarebbero state progettate tenendo conto dei rischi sistemici per la salute mentale e il benessere degli utenti, in particolare dei minori. L’indagine si concentra su scroll infinito, autoplay dei video, notifiche push e sistemi di raccomandazione personalizzati, elementi che, combinati, spingerebbero gli utenti a un consumo prolungato e difficilmente controllabile dei contenuti.
Le indagini preliminari della Commissione
Gli investigatori della Commissione Europea hanno analizzato il funzionamento delle principali feature di TikTok, valutando in che modo l’architettura dell’esperienza utente incentivi sessioni prolungate. Lo scroll infinito elimina pause naturali nella fruizione, mentre l’autoplay rimuove qualsiasi barriera tra un contenuto e il successivo. Le notifiche push richiamano costantemente l’attenzione degli utenti, anche al di fuori dell’app, e i sistemi di raccomandazione adattano i contenuti in tempo reale sulla base dei comportamenti individuali.
Secondo la Commissione, questo insieme di meccanismi favorisce una fruizione passiva e automatica, riducendo la percezione del tempo trascorso e il controllo consapevole dell’utente. Gli esperti incaricati dall’Unione hanno esaminato documentazione interna della piattaforma e valutazioni di rischio che, a loro giudizio, non affrontano in modo adeguato gli effetti negativi potenziali, soprattutto su bambini e adolescenti.
Le accuse specifiche di violazione del Dsa
Nel dettaglio, Bruxelles contesta a TikTok di non aver identificato e mitigato indicatori chiave di uso compulsivo, come l’elevato tempo di utilizzo notturno da parte dei minori o l’apertura ripetuta dell’app a intervalli molto brevi. Questi segnali, secondo la Commissione, avrebbero dovuto attivare misure di protezione più incisive.
Le funzionalità di mitigazione introdotte da TikTok, come limiti di tempo giornalieri e controlli parentali, vengono giudicate insufficienti perché facoltative, facilmente aggirabili e subordinate all’intervento manuale dei genitori. In questo contesto, le feature addictive continuerebbero a prevalere sulle misure di tutela.
La Commissione ritiene che la piattaforma abbia privilegiato engagement e permanenza rispetto alla sicurezza degli utenti, in contrasto con gli obblighi imposti dal Digital Services Act alle piattaforme di grandi dimensioni.
Possibili conseguenze e obbligo di redesign
Oltre alla sanzione economica, l’indagine apre la strada a interventi strutturali sul design del servizio. Tra le misure richieste figurano interruzioni obbligatorie del tempo di utilizzo, modifiche profonde ai sistemi di raccomandazione per ridurre cicli ripetitivi e la disabilitazione di autoplay e notifiche push per gli utenti minorenni.
Un intervento di questo tipo inciderebbe direttamente sul modello di business di TikTok e sull’esperienza d’uso, con possibili effetti sulla retention e sulla competitività rispetto ad altre piattaforme social. Non a caso, l’intero settore osserva con attenzione l’evoluzione del procedimento, consapevole che un precedente di questo tipo potrebbe estendersi rapidamente anche ad altri operatori.
Il contesto delle sanzioni precedenti
L’azione della Commissione si inserisce in un quadro già segnato da precedenti sanzioni nei confronti di TikTok. Nel 2025, l’autorità irlandese per la protezione dei dati ha inflitto una multa da 530 milioni di euro per il trasferimento illecito di dati personali dall’Area Economica Europea verso la Cina, in violazione del GDPR. Due anni prima, un’ulteriore sanzione da 345 milioni di euro aveva colpito la piattaforma per violazioni legate alla privacy dei minori e all’uso di dark patterns durante la registrazione e la pubblicazione dei contenuti.
A queste si aggiungono indagini avviate in Francia sulla protezione della salute mentale dei bambini, che rafforzano l’idea di un pattern di non conformità già noto alle autorità europee.
Le posizioni ufficiali e i prossimi passi
La commissaria europea per la tecnologia, Henna Virkkunen, ha ribadito che le piattaforme digitali sono responsabili degli effetti dei loro prodotti sugli utenti, soprattutto quando questi coinvolgono menti in fase di sviluppo. TikTok ha ora la possibilità di rispondere formalmente alle accuse e presentare le proprie difese prima che la Commissione adotti una decisione definitiva.
Il procedimento potrebbe tradursi in anni di contenzioso, ma intanto segna un passaggio chiave nell’applicazione del Digital Services Act: non più solo moderazione dei contenuti, ma responsabilità diretta del design e dei suoi effetti sul comportamento umano. In gioco non c’è soltanto una multa, ma la ridefinizione dei limiti entro cui le piattaforme digitali possono costruire l’engagement dei propri utenti.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









