Il Digital Services Act (DSA) rivoluziona le regole del gioco per le piattaforme online nell’Unione Europea, segnando la fine dell’era dell’autoregolamentazione per le Big Tech. Non più zone franche opache, ma spazi soggetti a stringenti obblighi di trasparenza, sicurezza e responsabilità. Dai colossi dei social network e dei motori di ricerca (classificati come VLOP e VLOSE) fino ai grandi marketplace, il regolamento impone motivazioni chiare per la rimozione dei contenuti, lo stop alle interfacce manipolatorie (dark pattern), una rigida tracciabilità dei venditori online e una lente di ingrandimento sui sistemi di raccomandazione algoritmica. Con un sistema di controllo affidato in Italia all’AGCOM e multe previste fino al 6% del fatturato globale, il DSA punta a riequilibrare il potere digitale, restituendo diritti, tutela e capacità di contestazione agli utenti e alle imprese europee.
Cosa leggere
Digital Services Act: perché è la legge europea che cambia il potere delle piattaforme
Il Digital Services Act, conosciuto come DSA, è il regolamento europeo che ridefinisce il rapporto tra piattaforme online, utenti, imprese, autorità pubbliche e contenuti digitali. Non è una semplice norma tecnica per social network e marketplace, ma uno dei pilastri della nuova sovranità digitale europea. Il suo obiettivo è costruire un ambiente online più sicuro, più trasparente e più controllabile, senza lasciare che le grandi piattaforme decidano da sole cosa rimuovere, cosa amplificare, cosa vendere, cosa raccomandare e cosa rendere invisibile. La Commissione europea definisce il DSA come il quadro normativo destinato ai servizi digitali usati ogni giorno dai cittadini europei, includendo marketplace, social network, app store, piattaforme di viaggio e alloggio online. Il regolamento punta a creare uno spazio digitale che rispetti i diritti fondamentali di cittadini e consumatori, introducendo regole comuni in tutta l’Unione Europea e riducendo la frammentazione tra Stati membri.Il DSA è entrato in vigore nel novembre 2022. È diventato applicabile alle piattaforme e ai motori di ricerca di dimensioni molto grandi, cioè VLOP e VLOSE, dal 25 agosto 2023, mentre dal 17 febbraio 2024 si applica più ampiamente ai fornitori di servizi intermediari. In Italia, AGCOM richiama questa scansione e descrive il DSA come una disciplina applicabile ai servizi intermediari, con una governance fondata sulla cooperazione tra Commissione europea, autorità nazionali e Coordinatori dei servizi digitali. Il punto politico è semplice: il DSA non elimina il potere delle piattaforme, ma prova a renderlo verificabile. La moderazione dei contenuti non resta più chiusa in policy aziendali opache. La pubblicità online deve diventare più trasparente. I sistemi di raccomandazione devono essere spiegabili. I marketplace devono conoscere meglio i venditori. Gli utenti devono poter contestare le decisioni di rimozione o limitazione. Le piattaforme molto grandi devono valutare i rischi sistemici che producono su diritti fondamentali, minori, democrazia, salute pubblica, sicurezza e informazione.
Cos’è il Digital Services Act

Il Digital Services Act è il Regolamento (UE) 2022/2065 sui servizi digitali. È un regolamento, non una direttiva, quindi opera direttamente negli ordinamenti degli Stati membri secondo le sue disposizioni, senza dover essere trasformato in una legge nazionale completa come avviene per le direttive. Questa scelta ha un significato preciso: l’Unione Europea vuole evitare che l’applicazione delle regole sulle piattaforme cambi troppo da un Paese all’altro. Il DSA riguarda i servizi intermediari, cioè quei servizi che trasportano, memorizzano o rendono disponibili informazioni fornite dagli utenti. Dentro questa categoria rientrano servizi di semplice trasmissione, hosting, piattaforme online e marketplace. Non tutti hanno gli stessi obblighi. Il regolamento segue una logica proporzionata: più il servizio è grande, influente e rischioso, maggiori sono gli obblighi di trasparenza, controllo e mitigazione. Questa impostazione è decisiva perché evita una lettura semplicistica. Il DSA non tratta allo stesso modo un piccolo hosting provider, un forum locale, un marketplace globale e un social network con centinaia di milioni di utenti. Le piattaforme molto grandi e i motori di ricerca molto grandi sono sottoposti al livello più severo, perché possono incidere in modo sistemico su opinione pubblica, accesso all’informazione, commercio, sicurezza dei consumatori e funzionamento del dibattito democratico.
VLOP e VLOSE: chi sono le piattaforme sotto sorveglianza rafforzata
Il DSA introduce le categorie di Very Large Online Platforms e Very Large Online Search Engines, abbreviate in VLOP e VLOSE. Sono piattaforme o motori di ricerca con oltre 45 milioni di utenti medi mensili nell’Unione Europea, soglia che corrisponde a circa il 10% della popolazione europea. La Commissione europea designa questi servizi sulla base dei numeri di utenti pubblicati dalle piattaforme, che devono essere aggiornati almeno ogni sei mesi. Dopo la designazione, la piattaforma o il motore di ricerca ha quattro mesi per rispettare gli obblighi specifici del DSA. Questa soglia cambia il significato della responsabilità. Una piattaforma con decine di milioni di utenti non è più solo un servizio privato che ospita contenuti. Diventa un’infrastruttura sociale, economica e informativa. Può orientare consumi, reputazioni, conversazioni politiche, visibilità delle notizie, accesso ai mercati e percezione della realtà. Per questo il DSA impone obblighi più duri proprio ai soggetti che hanno maggiore capacità di influenzare la società europea. Tra i servizi designati e supervisionati dalla Commissione rientrano grandi social network, marketplace, app store, piattaforme video, motori di ricerca e altri servizi digitali ad altissima diffusione. L’elenco viene aggiornato dalla Commissione e la vigilanza sui VLOP e VLOSE è distinta dalla vigilanza ordinaria nazionale. La Commissione mantiene un quadro aggiornato delle piattaforme molto grandi e delle attività di enforcement collegate.
Gli obblighi principali del DSA
Il DSA costruisce un sistema di responsabilità graduato. I servizi intermediari devono avere punti di contatto, procedure di segnalazione e regole più chiare. Le piattaforme online devono introdurre meccanismi di notice and action, motivare le decisioni di moderazione, garantire possibilità di reclamo e rendere più trasparente la pubblicità. I marketplace devono rafforzare la tracciabilità dei venditori. I VLOP e VLOSE devono inoltre valutare rischi sistemici, sottoporsi ad audit, dare accesso ai dati ai ricercatori autorizzati e mitigare gli effetti dannosi delle proprie architetture. Il primo obbligo visibile per gli utenti riguarda la segnalazione dei contenuti illegali. Le piattaforme devono predisporre meccanismi facili da usare per segnalare beni, servizi o contenuti illeciti. La Commissione sottolinea che il DSA migliora i sistemi di rimozione dei contenuti illegali e la protezione dei diritti fondamentali online, compresa la libertà di espressione. Il secondo obbligo riguarda la motivazione delle decisioni di moderazione. Quando una piattaforma rimuove un contenuto, limita la visibilità di un post, sospende un account o applica una restrizione, deve spiegare perché lo ha fatto. Questo è uno dei passaggi più importanti per chi produce contenuti, informazione, opinione, ricerca, satira o attività professionale online. Il DSA non impedisce alle piattaforme di moderare, ma le obbliga a rendere più leggibile il potere di moderazione.
Il terzo obbligo riguarda la possibilità di contestare. Gli utenti devono poter usare sistemi interni di reclamo e, in determinati casi, organismi di risoluzione extragiudiziale. La Commissione spiega che questi organismi offrono una via ulteriore per risolvere dispute di moderazione con le piattaforme, più rapida e meno costosa rispetto al giudizio ordinario, pur lasciando sempre aperta la possibilità di rivolgersi ai tribunali nazionali.
Moderazione dei contenuti: più trasparenza, ma non neutralità assoluta
Uno degli equivoci più frequenti è pensare che il DSA imponga alle piattaforme una neutralità assoluta. Non è così. Le piattaforme possono continuare a moderare contenuti sulla base dei propri termini di servizio, purché rispettino obblighi di trasparenza, motivazione, coerenza e possibilità di reclamo. Il regolamento non trasforma social network e marketplace in spazi senza regole, ma cerca di impedire che la moderazione sia arbitraria, opaca e incontestabile. Questo punto è centrale per editori, giornalisti, creator, imprese e utenti comuni. Il DSA non garantisce che ogni contenuto resterà online, ma introduce strumenti per capire perché un contenuto è stato colpito e per contestare decisioni errate. In un ecosistema dove demonetizzazioni, rimozioni, shadow ban, riduzione della reach e sospensioni possono incidere economicamente su testate, aziende e professionisti, la trasparenza diventa una forma minima di riequilibrio. La Commissione ha creato anche una DSA Transparency Database, dove vengono raccolte le dichiarazioni di motivazione inviate dai provider delle piattaforme online sulle decisioni di moderazione. Questo database consente di cercare i singoli statement of reasons e offre uno strumento di analisi pubblica delle decisioni delle piattaforme. Il problema resta aperto: trasparenza non significa automaticamente giustizia. Un utente può ricevere una motivazione, ma quella motivazione può essere generica, automatizzata, formalmente corretta ma sostanzialmente insufficiente. Per questo il DSA è solo l’inizio di una nuova fase: la piattaforma non è più invisibile, ma il controllo effettivo sulla qualità delle sue decisioni richiederà anni di enforcement, audit, ricerca indipendente e contenzioso.
Trusted flagger: potere accelerato e nodo democratico
Il DSA introduce anche la figura dei trusted flagger (QUI LA GUIDA), soggetti ritenuti competenti e affidabili nella segnalazione di contenuti illegali. Le piattaforme devono trattare con priorità e senza indebito ritardo le segnalazioni inviate dai trusted flagger. La Commissione indica che oltre 60 trusted flagger sono già stati nominati dalle autorità nazionali, ad esempio su protezione dei minori, contenuti terroristici e truffe ai consumatori. Questa figura può rendere più efficiente la lotta contro contenuti illegali, frodi, abuso dei minori, terrorismo, prodotti pericolosi e campagne criminali. Tuttavia, porta con sé un nodo democratico evidente. Chi segnala con priorità acquisisce un potere indiretto sulla visibilità online. Se il sistema funziona male, il rischio non è solo la mancata rimozione di contenuti illegali, ma anche l’eccesso di rimozione o il condizionamento della libertà di espressione. Per questo i trusted flagger devono essere indipendenti, competenti, verificabili e sottoposti a controllo. La loro funzione non può trasformarsi in un canale privilegiato per silenziare contenuti controversi ma leciti. Nel DSA, la legittimità di questo strumento dipende dall’equilibrio tra velocità di intervento e garanzie procedurali.
Marketplace e prodotti illegali: il DSA come legge sulla responsabilità commerciale online
Il DSA non riguarda solo opinioni, post e video. Riguarda anche i marketplace, cioè le piattaforme che permettono a venditori terzi di offrire beni e servizi ai consumatori europei. Qui la posta in gioco è molto concreta: prodotti contraffatti, giocattoli pericolosi, elettronica non conforme, farmaci illegali, dispositivi non sicuri, truffe commerciali e venditori anonimi. Il regolamento impone ai marketplace obblighi di tracciabilità dei trader. In sostanza, le piattaforme devono conoscere meglio chi vende attraverso i loro sistemi e devono rendere più difficile l’anonimato commerciale fraudolento. Il principio è che ciò che è illegale offline deve poter essere contrastato anche online, senza permettere alle piattaforme di nascondersi dietro la dimensione globale del commercio digitale. Le indagini europee sui grandi marketplace mostrano perché questa parte è cruciale. Le autorità e la Commissione hanno avviato o proseguito procedimenti e richieste informative su piattaforme come Shein, Temu e AliExpress, in relazione a rischi per i consumatori, vendita di prodotti illegali o non conformi, trasparenza e design delle piattaforme. La Commissione ha ricordato nel 2026 che alcune investigazioni sono ancora in corso e che le grandi piattaforme non conformi rischiano sanzioni fino al 6% del fatturato globale annuo. Per i consumatori europei, questo significa più possibilità di segnalazione e maggiore pressione sui marketplace. Per i venditori legittimi, significa concorrenza potenzialmente più corretta. Per le piattaforme, significa che la crescita del catalogo non può più essere separata dalla responsabilità sulla sicurezza dei prodotti e sull’identità dei trader.
Pubblicità online e sistemi di raccomandazione
Uno dei punti più sensibili del DSA riguarda la pubblicità digitale. Le piattaforme devono rendere più trasparenti le inserzioni, spiegare chi paga, perché un utente vede un annuncio e quali criteri vengono usati per la personalizzazione. Questo obbligo è particolarmente importante nei social network, nei marketplace e nei motori di ricerca, dove la pubblicità non è un elemento accessorio ma il cuore economico del modello di business. Il DSA colpisce anche il rapporto tra piattaforme e sistemi di raccomandazione. I recommender system decidono cosa appare nel feed, quali video vengono suggeriti, quali prodotti emergono, quali notizie ricevono visibilità e quali contenuti scompaiono. La raccomandazione algoritmica non è una funzione neutra: è il motore che organizza l’esperienza online e distribuisce attenzione, denaro e influenza. Per i VLOP e VLOSE, il regolamento impone obblighi rafforzati su trasparenza, valutazione dei rischi e mitigazione. La Commissione può ordinare accesso a dati e algoritmi per verificare come i sistemi promuovono contenuti illegali o generano rischi sistemici. Il quadro di enforcement del DSA attribuisce infatti alla Commissione poteri investigativi, inclusi richieste di informazioni, accesso ai dati e algoritmi, interviste e ispezioni. Il caso TikTok mostra la centralità di questo tema. Nel 2025 la Commissione ha preliminarmente ritenuto che il repository pubblicitario di TikTok non rispettasse gli obblighi del DSA, segnalando il peso della trasparenza sugli annunci come elemento chiave della nuova vigilanza europea.
Minori, dark pattern e design manipolativo
Il DSA entra anche nel territorio del design delle piattaforme. Non si limita a chiedere la rimozione di contenuti illegali, ma punta a contrastare meccanismi che possono danneggiare utenti vulnerabili, minori e consumatori. La Commissione ha presentato il DSA come una norma rivolta anche contro design manipolativo, contenuti illegali, tattiche ingannevoli e modelli che possono creare dipendenza. Questa parte è cruciale perché riconosce che il danno online non deriva solo dal singolo contenuto, ma anche dall’architettura dell’esperienza. Un feed infinito, notifiche aggressive, raccomandazioni opache, dark pattern nei processi di scelta o abbonamento, pulsanti disegnati per spingere un comportamento e interfacce costruite per rendere difficile il rifiuto sono elementi regolatori, non dettagli grafici. Nel 2026 la Commissione ha anche indicato indagini e rilievi preliminari su piattaforme in relazione alla protezione dei minori, inclusa la valutazione dei rischi e delle misure per evitare l’accesso di minori sotto i limiti di età a servizi come Instagram e Facebook. Il DSA porta quindi il design dentro la responsabilità giuridica. Non basta dire che l’utente ha scelto. Se l’interfaccia è costruita per manipolare, spingere o nascondere alternative, la piattaforma può diventare responsabile del proprio modo di orientare il comportamento.
Enforcement: chi controlla il DSA e quali sanzioni rischiano le piattaforme
Il sistema di enforcement del DSA è costruito su due livelli. La Commissione europea ha un ruolo centrale sui VLOP e VLOSE, soprattutto per gli obblighi supplementari legati ai rischi sistemici. A livello nazionale, ogni Stato membro designa un Digital Services Coordinator, responsabile della vigilanza e del coordinamento interno. In Italia, il ruolo di Coordinatore dei servizi digitali è affidato ad AGCOM. Le sanzioni possono essere molto pesanti. Se la Commissione accerta una violazione del DSA, può imporre multe proporzionate alla natura, gravità, durata e ricorrenza dell’infrazione, fino a un massimo del 6% del fatturato globale annuo del provider. Può inoltre imporre misure correttive, misure provvisorie in caso di urgenza e penalità periodiche per ritardi o mancata collaborazione. Il primo grande segnale sanzionatorio è arrivato con X, multata dalla Commissione per 120 milioni di euro per violazioni degli obblighi di trasparenza del DSA. Le violazioni contestate includevano il design ingannevole della spunta blu, la mancanza di trasparenza del repository pubblicitario e il mancato accesso ai dati pubblici per i ricercatori. Questo caso ha un valore simbolico. Dimostra che il DSA non è più solo una promessa regolatoria, ma uno strumento di enforcement reale. La multa a X non chiude la questione, ma segna il passaggio dalla fase di adattamento alla fase sanzionatoria. Le piattaforme hanno capito che la trasparenza non è più volontaria: è un obbligo giuridico europeo.
Il ruolo dell’Italia e di AGCOM
Nel sistema italiano, AGCOM è il punto di riferimento nazionale per il DSA. L’Autorità svolge il ruolo di Coordinatore dei servizi digitali, coopera con la Commissione europea e con le altre autorità nazionali, partecipa alla governance prevista dal regolamento e coordina l’attuazione italiana. Nel 2025 AGCOM ha approvato la prima relazione annuale sulle attività svolte come Coordinatore dei servizi digitali per l’Italia, ai sensi dell’articolo 55 del DSA. Per l’Italia, il DSA ha un peso particolare perché incide su almeno quattro fronti: tutela dei consumatori nei marketplace, moderazione dei contenuti online, protezione dei minori e rapporto tra piattaforme e informazione. Quest’ultimo aspetto è cruciale per editori, giornalisti e testate digitali. Se una piattaforma limita la visibilità di un contenuto, sospende un account, rimuove un post o modifica le regole di raccomandazione, l’impatto può essere economico e democratico. Il punto italiano non è solo applicare il DSA, ma usarlo per rendere più trasparente il potere infrastrutturale delle piattaforme sull’informazione. In un ecosistema editoriale fragile, dove traffico, indicizzazione, social distribution, video platform e advertising dipendono da poche aziende globali, ogni regola di trasparenza diventa uno strumento di riequilibrio. Non risolve il problema della dipendenza, ma permette almeno di documentarla e contestarla.
DSA, DMA, AI Act e GDPR: differenze fondamentali
Il DSA fa parte di una famiglia di regolamenti europei che spesso vengono confusi tra loro. Accanto al DSA ci sono il Digital Markets Act, l’AI Act e il GDPR. Hanno obiettivi diversi e agiscono su livelli differenti del potere digitale. Il DSA non sostituisce queste norme. Le affianca. Se il GDPR protegge il dato personale, il DSA disciplina la responsabilità delle piattaforme.
| Norma | Obiettivo principale | Soggetti più coinvolti | Punto chiave |
|---|---|---|---|
| DSA | Sicurezza, trasparenza e responsabilità dei servizi digitali | Piattaforme, marketplace, hosting, social, app store, motori di ricerca | Contenuti illegali, moderazione, advertising, recommender, rischi sistemici |
| DMA | Concorrenza e limitazione del potere dei gatekeeper | Big Tech designate come gatekeeper | Interoperabilità, self-preferencing, accesso al mercato, portabilità |
| AI Act | Regolazione dei sistemi di intelligenza artificiale in base al rischio | Sviluppatori, deployer, fornitori di AI, PA, imprese | Sistemi ad alto rischio, modelli GPAI, trasparenza, divieti |
| GDPR | Protezione dei dati personali | Titolari, responsabili del trattamento, utenti, autorità privacy | Base giuridica, consenso, diritti degli interessati, data breach |
Se il DMA controlla i gatekeeper dal punto di vista della concorrenza, il DSA guarda alla sicurezza e alla trasparenza dell’ambiente online. Se l’AI Act regola i sistemi di intelligenza artificiale, il DSA interviene anche sugli effetti delle piattaforme quando usano algoritmi, pubblicità e raccomandazioni per distribuire contenuti.
Cosa cambia per utenti, creator, editori e imprese
Per gli utenti, il DSA introduce più strumenti di controllo. Si può segnalare contenuto illegale, ricevere motivazioni sulle decisioni di moderazione, usare sistemi di reclamo e ricorrere a organismi extragiudiziali certificati. Il vantaggio non è solo individuale. Più dati sulle decisioni delle piattaforme significano più possibilità di capire come avviene la moderazione di massa. Per creator ed editori, il DSA offre una base per contestare rimozioni, limitazioni e decisioni opache. Non garantisce automaticamente il ripristino della visibilità, ma obbliga le piattaforme a motivare meglio. In un’economia dell’attenzione dominata da algoritmi proprietari, anche una motivazione imperfetta è un punto di partenza per costruire accountability. Per le imprese, soprattutto quelle che vendono online, il DSA impone maggiore attenzione su marketplace, identità dei venditori, prodotti illegali, trasparenza pubblicitaria e compliance. Per le aziende che gestiscono piattaforme, il regolamento diventa una nuova infrastruttura di compliance: procedure, personale, documentazione, audit, flussi di reclamo, report, interfacce di segnalazione e sistemi di trasparenza. Per le PMI digitali, il DSA può avere un doppio effetto. Da un lato, introduce obblighi e costi. Dall’altro, crea regole comuni in tutta Europa, riducendo la frammentazione normativa e rendendo più chiaro il quadro di crescita. La Commissione sottolinea infatti che il DSA mira anche a consentire a piccole piattaforme, PMI e startup di scalare nel mercato europeo con regole comuni.
Cosa il DSA non risolve
Il DSA è un regolamento potente, ma non risolve tutto. Non elimina la dipendenza economica da poche piattaforme. Non impedisce automaticamente lo shadow ban. Non garantisce che ogni algoritmo di raccomandazione sia equo. Non rende trasparenti tutti i criteri industriali e commerciali delle Big Tech. Non cancella la concentrazione del mercato pubblicitario. Non restituisce agli editori il controllo sulla distribuzione dei contenuti. Il DSA rende più attaccabile giuridicamente il potere delle piattaforme, ma non lo neutralizza. Questa distinzione è fondamentale. Una piattaforma può continuare a cambiare algoritmo, modificare le priorità del feed, favorire certi formati, imporre nuove condizioni di accesso o ridisegnare l’esperienza utente. La differenza è che ora alcune di queste scelte possono essere sottoposte a obblighi di trasparenza, valutazione del rischio, audit e controllo pubblico. Il rischio opposto è l’eccesso di moderazione. Quando una piattaforma teme sanzioni, può reagire rimuovendo più contenuti del necessario, soprattutto se i sistemi automatici sono imperfetti. Questo può colpire satira, giornalismo, ricerca, documentazione di violazioni, contenuti politici controversi o materiali sensibili pubblicati con finalità informative. Per questo il DSA deve essere applicato con equilibrio: la lotta all’illegalità online non deve diventare una scorciatoia per restringere contenuti leciti.
Perché il Digital Services Act è un pilastro della democrazia digitale?
Il Digital Services Act è un pilastro dei cittadini digitali europei perché attraversa tutti i livelli della vita digitale contemporanea. Tocca social network, marketplace, app store, motori di ricerca, piattaforme video, pubblicità online, tutela dei minori, frodi, disinformazione, moderazione, giornalismo, commercio elettronico, diritti degli utenti e responsabilità delle Big Tech. Il DSA non è solo una legge sulle piattaforme: è il tentativo europeo di trasformare l’ambiente digitale da spazio privato regolato unilateralmente dalle Big Tech a spazio pubblico-privato sottoposto a obblighi di accountability. La sua efficacia dipenderà da enforcement, risorse delle autorità, qualità dei reclami, indipendenza dei ricercatori, coraggio della Commissione e capacità degli utenti di usare gli strumenti previsti.
Il futuro del DSA: dalla norma alla battaglia sull’algoritmo
La fase decisiva del DSA non è più l’approvazione, ma l’applicazione. Le piattaforme stanno adattando interfacce, procedure e report. La Commissione ha aperto indagini, inviato richieste di informazioni, formulato rilievi preliminari e già adottato sanzioni. AGCOM e gli altri coordinatori nazionali stanno costruendo la capacità amministrativa necessaria per rendere effettivo il regolamento. Il prossimo terreno sarà quello degli algoritmi. Non basta sapere che un contenuto è stato rimosso. Bisogna capire perché un contenuto viene amplificato, perché un prodotto pericoloso emerge nei risultati, perché un minore riceve certi suggerimenti, perché una notizia viene spinta o nascosta, perché un annuncio truffaldino supera i controlli e perché un sistema di raccomandazione produce rischi sistemici. La vera partita del DSA è la possibilità di rendere verificabile l’infrastruttura invisibile delle piattaforme. Il feed, il ranking, l’ad repository, il sistema di moderation, il marketplace trust layer e il recommender system diventano oggetto di regolazione. È qui che il Digital Services Act si trasforma da norma di compliance a strumento di sovranità digitale. Il DSA non farà sparire il potere delle piattaforme, ma lo costringerà a lasciare più tracce. E nel mondo digitale, lasciare tracce significa poter essere studiati, contestati, sanzionati e corretti. Per l’Europa, questa è la vera posta in gioco: non creare una rete statale, ma impedire che lo spazio online resti governato solo da regole private, opache e non negoziabili.
Il Digital Services Act è quindi uno dei passaggi più importanti della regolazione digitale europea: non perché risolva da solo tutti i problemi della rete, ma perché stabilisce che le piattaforme non sono più semplici intermediari neutrali quando organizzano, filtrano, vendono e monetizzano la vita online di milioni di cittadini.
FAQ sul Digital Services Act
Che cos’è il Digital Services Act?
Il Digital Services Act, o DSA, è il regolamento europeo che disciplina i servizi digitali, le piattaforme online, i marketplace, i social network, gli app store, i servizi di hosting e i motori di ricerca. Il suo obiettivo è rendere l’ambiente online più sicuro, più trasparente e più responsabile, imponendo obblighi proporzionati alla dimensione e all’impatto delle piattaforme.
A chi si applica il Digital Services Act?
Il DSA si applica ai servizi intermediari online che operano nel mercato europeo. Rientrano nel perimetro provider di accesso, servizi di hosting, piattaforme online, marketplace, social network, app store, piattaforme di condivisione video e motori di ricerca. Gli obblighi diventano più severi per le piattaforme molto grandi e per i motori di ricerca molto grandi, cioè VLOP e VLOSE.
Cosa sono VLOP e VLOSE?
Le VLOP sono le Very Large Online Platforms, mentre le VLOSE sono le Very Large Online Search Engines. Sono piattaforme e motori di ricerca con almeno 45 milioni di utenti medi mensili nell’Unione Europea. Per questi soggetti il DSA prevede obblighi rafforzati su rischi sistemici, trasparenza pubblicitaria, audit, accesso ai dati per i ricercatori e controllo dei sistemi di raccomandazione.
Il DSA obbliga le piattaforme a rimuovere tutti i contenuti illegali?
Il DSA impone alle piattaforme di predisporre procedure efficaci per la segnalazione e la gestione dei contenuti illegali, ma non introduce un obbligo generale di sorveglianza preventiva su tutto ciò che viene pubblicato dagli utenti. Le piattaforme devono agire quando ricevono segnalazioni adeguate, devono motivare le decisioni di moderazione e devono offrire strumenti di reclamo.
Il Digital Services Act limita la libertà di espressione?
Il DSA non nasce per limitare la libertà di espressione, ma per bilanciare sicurezza online, contrasto ai contenuti illegali e tutela dei diritti fondamentali. Il regolamento obbliga le piattaforme a spiegare le decisioni di rimozione, sospensione o limitazione dei contenuti e consente agli utenti di contestare decisioni considerate ingiuste. La libertà di espressione resta un diritto centrale, ma viene inserita in un sistema più trasparente di responsabilità digitale.
Cos’è una decisione di moderazione secondo il DSA?
Una decisione di moderazione è qualsiasi intervento della piattaforma su contenuti, account, visibilità, monetizzazione o accesso al servizio. Può includere la rimozione di un post, la sospensione di un profilo, la riduzione della visibilità, la demonetizzazione o la limitazione dell’accesso a una funzione. Con il DSA, queste decisioni devono essere accompagnate da motivazioni più chiare e contestabili.
Il DSA protegge gli utenti dallo shadow ban?
Il DSA non usa necessariamente il termine shadow ban come categoria autonoma, ma interviene sui meccanismi di moderazione e trasparenza che possono riguardare anche riduzioni di visibilità, limitazioni algoritmiche o restrizioni non immediatamente evidenti. Il punto chiave è che le piattaforme devono rendere più trasparenti le proprie decisioni e offrire strumenti di reclamo, anche quando la restrizione non coincide con una rimozione totale del contenuto.
Cosa cambia per i marketplace online?
I marketplace devono rafforzare la tracciabilità dei venditori, contrastare la vendita di prodotti illegali o non sicuri e predisporre meccanismi di segnalazione più efficaci. Il DSA punta a ridurre l’anonimato commerciale fraudolento e a rendere più responsabili le piattaforme che consentono a terzi di vendere prodotti o servizi ai consumatori europei.
Cosa cambia per la pubblicità online?
Il DSA impone maggiore trasparenza sulla pubblicità digitale. Gli utenti devono poter capire quando un contenuto è pubblicitario, chi lo finanzia e perché viene mostrato proprio a loro. Per le piattaforme molto grandi sono previsti obblighi ancora più stringenti, inclusi repository pubblicitari consultabili e maggiore controllo sui criteri di targeting.
Qual è il ruolo di AGCOM nel Digital Services Act?
In Italia, AGCOM svolge il ruolo di Coordinatore dei servizi digitali. Questo significa che l’Autorità partecipa all’attuazione nazionale del DSA, coopera con la Commissione europea e con gli altri coordinatori europei, riceve segnalazioni e contribuisce alla vigilanza sui servizi digitali secondo le competenze previste dal regolamento.
Quali sanzioni rischiano le piattaforme che violano il DSA?
Le piattaforme che violano il DSA possono subire sanzioni molto pesanti. Nei casi più gravi, le multe possono arrivare fino al 6% del fatturato globale annuo del provider. La Commissione europea può inoltre imporre misure correttive, richieste di informazioni, audit, accesso ai dati e penalità periodiche in caso di mancata collaborazione.
Che differenza c’è tra DSA e DMA?
Il DSA regola la responsabilità delle piattaforme rispetto a contenuti, moderazione, pubblicità, marketplace, rischi sistemici e diritti degli utenti. Il DMA, cioè Digital Markets Act, riguarda invece la concorrenza digitale e limita il potere dei grandi gatekeeper tecnologici. In sintesi, il DSA guarda alla sicurezza e alla trasparenza dell’ambiente online, mentre il DMA guarda al potere di mercato delle Big Tech.
Che differenza c’è tra DSA e GDPR?
Il GDPR protegge i dati personali e disciplina come aziende e pubbliche amministrazioni possono raccogliere, usare e conservare informazioni sugli utenti. Il DSA regola invece la responsabilità dei servizi digitali, la moderazione dei contenuti, la trasparenza pubblicitaria, i marketplace e i rischi sistemici delle grandi piattaforme. I due regolamenti possono sovrapporsi, ma hanno obiettivi diversi.
Il DSA riguarda anche l’intelligenza artificiale?
Il DSA non è una legge generale sull’intelligenza artificiale, ma riguarda anche gli effetti degli algoritmi usati dalle piattaforme, soprattutto nei sistemi di raccomandazione, ranking, moderazione automatizzata e pubblicità. Quando una piattaforma usa sistemi automatizzati per decidere cosa mostrare, cosa rimuovere o cosa amplificare, il DSA può imporre obblighi di trasparenza, valutazione del rischio e mitigazione.
Cosa può fare un utente se un contenuto viene rimosso ingiustamente?
Un utente può usare i sistemi di reclamo interni previsti dalla piattaforma e, in alcuni casi, rivolgersi a organismi di risoluzione extragiudiziale certificati. Il DSA rafforza il diritto dell’utente a ricevere una motivazione e a contestare decisioni considerate errate, arbitrarie o sproporzionate.
Perché il DSA è importante per giornalisti ed editori?
Il DSA è importante per giornalisti ed editori perché rende più contestabili le decisioni delle piattaforme che incidono sulla visibilità dei contenuti. Rimozioni, limitazioni, demonetizzazioni o restrizioni algoritmiche possono avere un impatto diretto sul traffico, sui ricavi e sulla libertà editoriale. Il DSA non elimina la dipendenza dalle piattaforme, ma offre strumenti per chiedere più trasparenza e responsabilità.
Il Digital Services Act risolve il problema del potere delle Big Tech?
Il DSA non elimina il potere delle Big Tech, ma lo rende più controllabile. Le piattaforme continuano a gestire feed, algoritmi, pubblicità e moderazione, ma devono rispettare obblighi più severi, fornire motivazioni, valutare rischi sistemici, consentire audit e collaborare con le autorità. È un primo passo verso una maggiore accountability, non una soluzione definitiva alla concentrazione del potere digitale.
Il DSA è già applicabile?
Sì. Il DSA è applicabile alle piattaforme molto grandi e ai motori di ricerca molto grandi già dal 2023, mentre dal 2024 si applica più ampiamente ai servizi intermediari online. La fase decisiva oggi è l’enforcement, cioè l’applicazione concreta delle regole da parte della Commissione europea, di AGCOM e degli altri coordinatori nazionali.
Perché il Digital Services Act è considerato una legge fondamentale per l’Europa digitale?
Il DSA è fondamentale perché stabilisce che le piattaforme online non possono più governare da sole contenuti, pubblicità, marketplace, raccomandazioni e moderazione senza obblighi di trasparenza. È una legge che prova a riportare dentro un quadro democratico e verificabile una parte del potere infrastrutturale esercitato dalle grandi piattaforme sulla vita digitale dei cittadini europei.
Iscriviti alla Newsletter
Non perdere le analisi settimanali: Entra nella Matrice Digitale.
Matrice Digitale partecipa al Programma Affiliazione Amazon EU. In qualità di Affiliato Amazon, ricevo un guadagno dagli acquisti idonei. Questo non influenza i prezzi per te.









