Egy demokratikus jogrendszerben a szólásszabadság korlátozása csak kivételes, szűken értelmezett és bírói ellenőrzés alatt álló esetekben igazolható. Az Európai Unió 2022-ben elfogadott Digital Services Act-je ezzel szemben olyan szabályozási rendszert hozott létre, amelyben a korlátozás normává vált, a fogalmak megvezetően tágak, a végrehajtó hatalom feletti kontroll pedig nem létezik.
A jogszabályi architektúra kritikus pontjai
A Digital Services Act (továbbiakban: DSA) 2022. október 19-én lépett hatályba. 2023 augusztusától a legnagyobb platformokra, 2024 februárjától pedig immár teljeskörűen alkalmazandó. A szabályozás minden EU-ban működő digitális közvetítő szolgáltatóra vonatkozik, de a legszigorúbb kötelezettségek a havonta 45 millió feletti aktív EU-s felhasználóval rendelkező Very Large Online Platformokra (VLOP) és Very Large Online Search Engines-ekre (VLOSE) terjednek ki. Jelenleg 19 ilyen platform létezik: a Google, a Meta teljes platformcsaládja (Facebook, Instagram, WhatsApp), az X (korábban Twitter), a TikTok, a YouTube, az Amazon, az Apple App Store, a Microsoft Bing és mások.
Az alapkötelezettségek – illegális tartalmak gyors eltávolítása, felhasználói panaszmechanizmus – jogos és arányos elvárások. Az igazán kritikus kérdések a 34. és 35. cikkelynél merülnek fel, amelyek a rendszerszintű kockázatkezelést szabályozzák.
A 34. cikkely előírja, hogy a VLOP-ok évente mérjék fel a saját szolgáltatásukból eredő rendszerszintű kockázatokat. Ezek négy kategóriát ölelnek fel: az illegális tartalmak terjesztését, az alapvető jogokra gyakorolt negatív hatásokat, a polgári diskurzust és a választási folyamatokat fenyegető veszélyeket, valamint közegészségügyi kockázatokat.
A 35. cikkely alapján az érintett platformoknak racionális és hatékony korrekciós intézkedéseket kell hozniuk a beazonosított kockázatokkal szemben. A konformitás ellenőrzésére a Bizottság által akkreditált auditorok jogosultak, de a Bizottság maga is vizsgálatot indíthat. A szankció mértéke elérheti a platformok globális éves árbevételének 6 százalékát.
Egy 6 százalékos globális árbevétel-arányú bírság fenyegetése okán ésszerű vállalati döntés az óvatosság: inkább több tartalmat moderáljunk, mint kevesebbet. A jogtudomány ezt chilling effectnek, vagyis visszatartó hatásnak nevezi – a szólásszabadság (sok esetben öncenzúrához vezető) közvetett korlátozásának, amely nem tiltás útján, hanem a jogi bizonytalanság és a szankciótól való félelem révén érvényesül.
A megbízható bejelentők (a „besúgó digitális házmesterek”) rendszere
A DSA 22. cikkelye bevezeti az úgynevezett trusted flagger, azaz a megbízható bejelentő intézményét. Ezek olyan szervezetek – döntően NGO-k és akadémiai intézmények –, amelyeket a tagállami Digitális Szolgáltatási Koordinátorok jelölnek ki. Bejelentéseik – micsoda meglepetés – prioritást élveznek: az általuk megjelölt tartalmakat sokkal gyorsabban és nagyobb valószínűséggel távolítják el.
A megbízható bejelentők akkreditálása tagállami szinten zajlik, és az akkreditált szervezetek politikai függetlenségét senki nem auditálhatja. Az USA Képviselőháza Igazságügyi Bizottságának 2026 februári jelentése azt állítja, hogy a Bizottság 2023 és 2025 között rendszeresen és közvetlenül kapcsolatba lépett tartalomszolgáltatási platformokkal azzal a céllal, hogy a moderációs politikájukat megváltoztassák – nem csupán az EU-ra, hanem globálisan is.
Szégyenletes jogalkalmazás
Az X megbírságolása – 2025. december
Az első komoly DSA-szankcióra 2025 decemberében került sor: az Európai Bizottság 120 millió eurós bírságot szabott ki az X platformra. A Bizottság indoklása szerint az X megsértette az átláthatósági kötelezettségeket: a fiókok hitelesítésére szolgáló fizetős kék pipa rendszer félrevezethette a felhasználókat, a hirdetési adattár nem volt kellően hozzáférhető, a kutatók így nem kaptak megfelelő hozzáférést az adatokhoz.
Kérdés marad azonban, hogy a Bizottság miért éppen az X-et büntette elsőként, és miért ekkora összeggel: az X az egyetlen VLOP, amelynek tulajdonosa nyilvánosan is bírálta a DSA-t, visszavonta az önkéntes dezinformáció-ellenes kódexet, és visszaállított számos korábban moderált politikai hangot. A többi VLOP hasonló átláthatósági hiányosságai dokumentáltak, mégis bírság nélkül maradtak.
A TikTok és a romániai elnökválasztás – 2024–2025
2024 novemberében a romániai elnökválasztás első fordulóját nem kis meglepetésre Călin Georgescu nyerte, részben a TikTokon zajló, koordináltnak tűnő kampány révén. A román alkotmánybíróság a Bizottság nyomására megsemmisítette a választás eredményét.
Az Igazságügyi Bizottság által megszerzett belső TikTok-dokumentumok azonban azt mutatják, hogy a platform – bizottsági nyomásra – legitim politikai véleményeket is cenzúrázott. Georgescu politikai irányvonala nem felelt meg az EU által kívánatosnak tartott kurzusnak.
A zárt ajtók mögött tartott DSA-workshopok – 2025. május
2025 májusában az Európai Bizottság zárt ajtók mögött tartott workshopot a VLOP-ok képviselőivel. A belső dokumentumok alapján a Bizottság képviselői részletes elvárásokat fogalmaztak meg, amelyek jóval túlmutatnak a törvény betűjén. A workshopon bemutatott moderációs útmutató nonkomformnak, uszítónak jellemzett olyan posztokat is, amelyeknek halvány köze nem volt a gyűlöletbeszédhez. A Politico európai lakájpropaganda-kiadvány 2026. februári riportja szerint a workshopok azóta teljesen zárt eseményekké „avanzsáltak”, ahol a Bizottságot felkérték arra, hogy véletlenül se dokumentálja a megbeszéléseket.
Magánszemélyek a rezsim fogságában: három dokumentált eset
1. Päivi Räsänen finn parlamenti képviselő, a politikus, aki a Bibliából idézett
2019 júniusában Päivi Räsänen, a finn parlament 25 éve megválasztott tagja és korábbi belügyminiszter egy X-bejegyzésben megkérdőjelezte, hogy evangélikus egyháza helyesen teszi-e, ha támogatja a Helsinki Pride rendezvényt. A bejegyzéséhez egy idézetet is mellékelt az Újszövetségből. Ezért a finn főügyészség 2021-ben három rendbeli gyűlöletbeszéd-vádat emelt ellene a finn büntető törvénykönyv háborús bűnöket és az emberiesség elleni bűncselekményeket tárgyaló fejezete alapján. A finn Legfelső Bíróság 2026. március 26-án bűnösnek mondta ki a képviselőt egy 22 évvel korábban írt egyházi brosúra miatt, és elrendelte a kiadvány megsemmisítését. A büntetés: 1800 euró pénzbírság, a jogi folyamat időtartama: közel hét év.
A hatás közvetett, de nagyon is valós: a DSA a gyűlöletbeszéd elleni EU-s kódexet 2025 januárjában integrálta saját keretébe, és a Räsänen-ügyben alkalmazott finn jogi kategória – agitáció kisebbség ellen – a kódex alapján a platformokon moderációra feljogosító hivatkozásnak minősülhet.
2. Zoran Mekić – az első DSA-alapú per
Zoran Mekić EU-s digitális jogokkal foglalkozó kutató és aktivista. 2023-ban az X platformon a gyermekek online szexuális kizsákmányolása elleni uniós rendeletről (CSAM-szabályozás) kezdett posztolni, kritikus hangvételű elemzéseket tett közzé. Ezt követően észlelte, hogy bejegyzéseinek elérése drasztikusan visszaesett – ezek a klasszikus shadow ban tünetei. Sem törlési értesítést, sem magyarázatot nem kapott.
Mekić az amszterdami kerületi bírósághoz fordult az európai kis értékű ügyek eljárása keretében, saját magát képviselve. A bíróság helyt adott három kérelmének: megállapította, hogy az X megsértette szerződéses kötelezettségeit és a DSA 17. cikkelyét – amely előírja, hogy a platformoknak értesíteniük kell a felhasználót a moderációs döntésekről és azok indokáról. Ez lett a DSA első shadow ban-ügye bírósági szinten.
3. Future of Free Speech-kutatás – a törölt tartalmak 87–99 százaléka legális volt
A Future of Free Speech jogvédő szervezet 2024-es jelentése Franciaország, Németország és Svédország adatain vizsgálta meg a DSA hatálybalépése utáni tartalommoderációt a Facebook és YouTube platformokon.
Eredmény: a törölt tartalmak 87,5–99,7 százaléka jogilag megengedett lett volna. Vagyis az eltávolított bejegyzések túlnyomó többségét nem azért törölték, mert azok illegálisak lettek volna, hanem mert a platform a lehetséges bírság árnyékában önként döntött a túlteljesítés mellett.
Ráadásul, a törléseket nem is bíró rendelte el, hanem az algoritmus végezte, a bírságtól tartó platform megbízásából.
A brüsszeli beteg
Az EU alapszerződése – az Alapjogi Charta 11. cikkelye – elméletileg garantálja a véleménynyilvánítás szabadságát. Ráadásul, a NATO StratCom Kiválósági Központjának 2025-ös jelentése megállapítja, hogy a DSA hatálybalépése után sem csökkent szignifikánsan a választásokat befolyásoló káros tartalmak mennyisége – magyarul: a rendszer jóformán hatástalannak bizonyult.
A közvetett cenzúra mechanizmusa
Az Egyesült Államok Legfelső Bírósága a Bantam Books v. Sullivan ügyben (1963) lefektette, hogy a cenzúra nemcsak formális tiltás útján valósulhat meg, hanem akkor is, ha a hatóság közvetett nyomással kényszerít magánszereplőket tartalmak eltávolítására. Alkotmányos szempontból ez egyenértékű a közvetlen korlátozással. Ez az elv az EU-ban sajnos egyáltalán nem létezik.
Visszatartó hatás
A 6 százalékos bírság-fenyegetés önkéntelenül is túlzott öncenzúrára ösztönzi a platformokat. Ennek egyenes következménye, hogy Franciaországban, Németországban és Svédországban a törölt tartalmak 87–99 százaléka jogilag megengedett lett volna.
Definiálási monopólium
A rendszerszintű kockázat és a dezinformáció fogalmát az a szerv tölti meg tartalommal, amely a bírságot is kiszabja. Ezt a hatalomkoncentrációt az európai bírósági rendszer jelenleg nem kezeli semmilyen módon.
Privát végrehajtás
A trusted flaggers rendszere olyan egyénekre és szervezetekre ruházza a kifogásolt tartalmak jelentésének jogát, akiket és amelyeket a Bizottság akkreditált. Ezek politikai semlegessége nem garantált és nem auditált. A mechanizmus lehetővé teszi, hogy a Bizottság közvetlenül „ne piszkolja be a kezét”, miközben a rendszer az általa kívánt irányban működik.
Globális, határokon átívelő érvényesülés
Az Igazságügyi Bizottság dokumentumai szerint a platformok – a DSA alapján fenyegető bírság elkerülése érdekében – világszerte szigorítják tartalommoderációs szabályaikat: olyan tartalmakat is eltávolítanak globálisan, amelyek az USA-ban vagy más országokban teljesen legálisak, és amelyeket korábban szabadon terjeszthetőnek minősítettek. Vagyis az EU szabályozása nem az EU határain belül érvényesül, hanem egy amerikai, brazil vagy japán felhasználó bejegyzésére is kihat, anélkül, hogy az érintett országok parlamentjei erről döntöttek volna. Az EU tehát de facto az EU területén kívül élő személyek tartalmait is befolyásolja, ami jogi és politikai szempontból súlyosan aggályos.
A sürgős reformok jogos igénye
A gyermekek védelme, az illegális tartalmak gyors eltávolítása, a hirdetési átláthatóság – ezek legitim és hasznos közpolitikai célok. A legfontosabb kérdés az, hogy ez a konkrét szabályozás arányos-e, és rendelkezik-e az erejével és befolyásával arányos intézményi fékekkel.
Négy területen is azonnali reform szükséges.
Független bírói kontroll. Jelenleg a Bizottság egyszerre szabályalkotó, vizsgálatot indító és bírságoló hatóság. Szükség volna egy ténylegesen független fellebbviteli fórumra, amely a Bizottságtól elkülönülten vizsgálhatja az egyedi döntéseket.
A fogalmak pontosítása. A „rendszerszintű kockázat” és a „polgári diskurzust fenyegető tartalom” bírósági jogesetek nélkül üres lózungok. Az EU jogalkotójának kötelessége ezeket olyan szinten pontosítani, hogy alkalmazásuk előre kiszámítható és érdemben megtámadható is legyen.
A trusted flaggers politikai auditja. Az akkreditált szervezetek politikai függetlenségét rendszeresen, nyilvánosan és az akkreditáló szervtől független intézmény által kellene ellenőrizni.
A globális alkalmazás korlátozása. A jelenlegi gyakorlat, amelyben a platformok globális moderációs szabályaikat módosítják a DSA-megfelelés érdekében, de facto extraterritoriális hatályt teremt. Ez tarthatatlan.
Az Európai Unió (egyelőre) nem totalitárius állam, ugyanakkor megállapítható, hogy egy olyan végrehajtási rendszer, amelynek a jogi-eljárási-működési fogalmai szándékosan tágak, szankciói öncenzúrára kényszerítenek, kiszervezett cenzorai nem állnak független kontroll alatt, és amely dokumentáltan korlátozza konkrét személyek szólásszabadságát. A szabad társadalom mércéje nem a szándékok tisztasága, hanem az, hogy a hatalom korlátozására épített intézmények elégségesek-e. A DSA és EU esetében a válasz: nem, nem elégségesek.
Borítókép: Illusztráció / fotó: Jakub Porzycki / NurPhoto / NurPhoto via AFP

Bejelentkezés