A social media platformok jogi státusa a szólásszabadság nézőpontjából

Szerző: Koltay András,
Dátum: július 1, 2019 6:22 du.
PDF letöltése
2019/1

1. Bevezetés

A social media platformok az online nyilvánosság első számú terepeivé váltak az elmúlt években. E platformoknak – vagy más néven social networköknek – nincs közmegegyezésre számot tartó definíciójuk. Jelen tanulmány vonatkozásában idetartozónak tekintjük a videómegosztó portálokat, amelyekre a felhasználók bárki által megtekinthető tartalmakat tölthetnek fel, és azon platformokat, amelyeken a felhasználói tartalom – nemcsak videó, hanem szöveg, kép, linkek, egyéb tartalmak is – alapvetően a felhasználó választotta nyilvánossághoz jut el, ahol aztán továbbterjedhet. Hogy pontosan értsük: e helyütt azonos megítélés alá helyezzük a YouTube-ot, a Facebookot és a Twittert. Ennek fő oka, hogy tevékenységük szólásszabadsággal összefüggő része hasonló, és hasonlóan is ítélhető meg. E szolgáltatások mindegyike képes a felhasználói tartalmak korlátozására, és időnként erre a jogi szabályozás kötelezi is. Az Európai Unió új AVMS irányelve1 is közös szabályokat alkot e két eltérő szolgáltatásra: az irányelv hatálya alá tartozó audiovizuális tartalmak mind a videómegosztó, mind a social media platformokon megjelennek.2

Az Európai Bizottság közleménye alapján az online platformok a következőképpen csoportosíthatók: online hirdetési platformok, piacterek, keresőmotorok, social mediát és kreatív tartalmat nyújtó médiacsatornák, alkalmazásforgalmazó platformok, kommunikációs szolgál­tatások, fizetőrendszerek és az együttműködésen alapuló gazdaság platformjai.3 A social media platformok maguk is sokfélék, teljesen egységes megközelítésük emiatt nem lehetséges; nevük ellenére ‘médiának’ hagyományos értelemben nem tekinthetők, a szabályozás több tekintetben mégis akként igyekszik viszonyulni hozzájuk – a tevékenységük során felmerülő, szólásszabadság-relevanciájú problémák pedig alkalmassá teszik őket az együttes áttekintésre. Az államok előtt a platformok vonatkozásában tornyosuló feladat nem csekély: egyszerre kell biztosítani a felhasználók védelmét a beszéd által okozott sérelmekkel szemben, és biztosítani a szólás­szabadság védelmét4 – e két szempont pedig, mint látni fogjuk, sokszor nehezen egyeztethető össze. Ráadásul e feladatot különösen nehézzé teszi az a körülmény, hogy a tartalmak, a fel­használói beszéd megítélésének ügyében az állam átengedi a döntőbíró szerepét maguknak a platfor­moknak.

2. A social media platformok és a demokratikus nyilvánosság

2.1. A beszéd új formái és a nyilvánosság kiszélesedése

A social media platformok vitathatatlanul alapjaiban rendezték át a nyilvánosság szerkezetét. Ezeken a weboldalakon keresztül tömegek tudják véleményüket közzétenni, mások véleményét megismerni, egymással megosztani, kommentálni. A platformokon közzétett tartalmak nyilvánosságának mértéke több változótól függ: egyebek között a platform méretétől (felhasználói számától), a felhasználó ismerősei számától, illetve az adott tartalom mások általi továbbításának (megosztásának) volumenétől is.

Nemcsak a nyilvánossághoz való hozzáférés módja és a nyilvánosság kategóriája változott meg, hanem a közzétett vélemény formája is. Ennek legkézenfekvőbb példája a Facebook like gombja általi véleménynyilvánítás. A platformon bármely felhasználó véleményezheti az elé kerülő tartalmakat a like gombra kattintással vagy annak megérintésével. 2016-ig ez a szolgáltatás egyetlen érzelmi állapot kifejezését tette lehetővé, nevezetesen hogy az adott tartalom tetszik a felhasználónak; azóta a vélemény árnyalható (szereti, viccesnek tartja, csodálkozik rajta, szomorú vagy mérges miatta). Mivel a Facebook nem kívánja magára haragítani hirdetőit, ‘nem szeretem’ ikont nem kínál fel az egyes tartalmakhoz.5

De a like gomb őskorában az is vitatott volt, hogy alkalmazása egyáltalán véleménynyilvánításnak minősül-e. A Bland v. Roberts ügyben az egyik szövetségi kerületi bíróság azt állapí­totta meg, hogy egy tartalom iránti tetszésnyilvánítás (a like’ ) nem minősül védett beszédnek, mert nincs olyan lényegi tartalma, amely alkotmányos védelemben lenne részesíthető.6 Azaz ­lényegében hiányzik a vélemény tartalma, a like gomb megnyomása nem jelent azonosulást az érintett tartalommal. Az ügyben a Hampton város seriffjének megválasztását megelőző kampány idején (a hivatalt közvetlen választás útján töltötték be) a később újraválasztott seriff ellenében indult egy másik jelölt. Ez utóbbi Facebookon elérhető kampányoldalán a seriff hivatalában dolgozó munkatársak egy része tetszésnyilvánítását fejezte ki a like gomb megnyomásával. Amikor az újraválasztott seriff ezen dolgozókat nem nevezte ki újból korábbi pozíciójukra, ők pert indítottak egyesülési joguk és szólásszabadságuk megsértésére hivatkozva. A kerületi bíróság elutasította a keresetet, elutasítva a szimbolikus beszéd doktrínájának alkalmazását, ami a social media platformok működését értő szakmai közösségben éles kritikát váltott ki.7

A kerületi bíróság döntésével szembeni fellebbezés után a Fourth Circuit megállapította a szólásszabadság megsértését.8 A bíróság szerint a like gomb használata szimbolikus beszéd, szavak nélkül is érzékelhető véleményt hordoz, ami hasonló ahhoz, amikor egy választási kampány során az egyik jelölt tábláját az őt támogató polgár kitűzi az előkertjébe (ahogyan az Egyesült Államokban szokás). A munkavállalók érdeke véleményük kinyilvánításában megelőzi a seriff azon érdekét, amely a közösség zavartalan szolgálatához fűződik.

A like gomb alkalmazása valóban értékelhető véleményt hordoz, és ezt a fellebbviteli bíróság helyesen ismerte fel. Még akkor is el kell fogadnunk ezt, ha egy – adott esetben hosszú, sokrétű, számos állítást vagy véleményt magába foglaló – tartalomhoz annyit hozzáfűzni, hogy ‘tetszik’ (vagy: mérgessé, esetleg szomorúvá tesz), nem tekinthető árnyalt állásfoglalásnak, és aki a tetszésnyilvánítást érzékeli, könnyen elképzelhető, hogy félreérti a felhasználó érzelmi állapotát, vagy jelzéséből téves következtetést von le. Ez azonban nem változtat azon, hogy azt ‘véleményként’ érzékeli, leírt szavak nélkül is; a vélemény megfelelő értelmezése nem lehet feltétele alkotmányos védelmének.

A like gomb véleményjellegének kérdése más módon is megközelíthető. Kérdéses, hogy egy adott tartalom linkjének másokkal való megosztása és az azzal kapcsolatos tetszés kinyilvánítása a(z adott esetben jogsértő) tartalom újbóli közzétételének számít-e. Egy amerikai ügyben a bíróság ezt elutasította, arra alapozva, hogy a cikk linkjének közzététele nem módosítja a más által közzétett tartalmat, a like pedig szintén nem azonos az újraközléssel.9 Más lehet a helyzet, ha nemcsak a jogsértő tartalom linkjét teszi közzé a felhasználó, hanem a tartalmat magát osztja meg, továbbítja mások felé; ez esetben, mint az angol McAlpine-ügy mutatja,10 maga is közzétevővé válik.

De ha a like gomb használata vélemény, akkor a szólásszabadság általános korlátai is meg­felelően alkalmazandók vele kapcsolatban. Az Első Alkotmánykiegészítés hatályán kívül pedig az amerikaitól eltérő jogrendszerek e kérdés megítélésekor hangsúlyosabban kezelhetik a sze­mélyiségi jogok védelmének szempontját. A rágalmazó állítással kapcsolatos like – ami tehát a valótlan és sértő állításokkal való egyetértést fejezi ki – maga is rágalmazónak minősülhet.11

Miközben a jogalkalmazás a beszéd új formáit azonosítja a nyilvánosság új platformjai hatására, evidensnek vesszük, hogy e fórumok kizárólag pozitív hatást gyakorolnak a közösségi viták körének bővülésére, és a gondolatok piacán megmérettető vélemények mennyiségének növeléséhez járulnak hozzá. Egyes kutatások azonban arra következtetnek, hogy a social media, a jellegénél fogva, a felhasználók véleményének elhallgatását is elősegítheti. A Pew Research tanulmánya ezt a „csend spiráljának” nevezi, és a Snowden-botrány példáján keresztül azt állítja, hogy a felhasználók kevésbé szívesen tárgyalták az ügyet a social mediában, mint személyes beszélgetésekkor, a platformok pedig nem jelentettek valós alternatív lehetőséget azok számára, akik nem szerettek volna személyesen szót váltani az ügyről (aki nem beszélt róla ismerőseivel, az nem is posztolt róla a social mediában). A kutatás szerint azok, akiknek a véleménye nem azonos a többségével, a családi vacsoraasztalnál éppúgy csöndben maradnak, mint a Face­bookon.12 A példa arra hívja fel a figyelmet, hogy ugyan az új platformok valóban sokkal több és intenzívebb véleménycserét tesznek lehetővé, mint a technológia korábbi vívmányai, nem feltétlenül képesek megszüntetni a véleményformálás korábbi, ‘hagyományos’ akadályait.

Homályos marad, hogy ez a probléma kezelhető lett volna-e a korábbi kanadai szabályozás szerint. Kanada Legfelső Bíróságának döntése a Crookes v. Newton ügyben13 (ahol a bíróság úgy ítélt, hogy egy cikkben a hiperhivatkozások önmagukban nem képeznek közzétételt) fel­veti a kérdést, hogy meddig terjed a véleménynyilvánítás, az újraközlés és a helyeslés határa. A ­like-olás, a retweetelés vagy az emoji használata tekinthető a véleménynyilvánítás olyan formájának is, amely pozitív cselekvés – nem úgy, mint a hiperhivatkozások –, már amennyiben véleménynyilvánítás. Nyilvánvaló, hogy a kommunikáció e formái közül a retweetelés állhat a legközelebb a hiperhivatkozás felhasználásához (a Crookes-döntés szerint), és ezért különbséget kell tenni a véleménynyilvánítások e formái között.

2.2. A buborék és a platformok használatának más pszichés következményei

A szűrőbuborék-elmélet szerint az internetes kapuőrök a társadalmi kohézió gyengülését idézik elő azzal, hogy a felhasználóiknak tetsző, az ő egyetértésükkel találkozó tartalmakat teszik leginkább láthatóvá. Ezen tartalmak kiválasztása az egyes felhasználókról gyűjtött adatok értékelése nyomán történik, azaz minél több időt tölt valaki egy adott platformon (vagy minél inkább képes az adott platform rögzíteni az illető egyéb online aktivitását), az annál pontosabban lesz képes meghatározni az egyén érdeklődési körébe tartozó tartalmakat, számára pontosan célzott hirdetéseket kínálni, a Facebook esetében pedig összeállítani hírfolyamát (news feed). Az emberi psziché jobban fogadja azon tartalmakat, amelyek a saját véleményét tükrözik vissza, amelyekkel egyetért, a platformok logikája szerint pedig minél inkább ezeket keresi, annál inkább lesz minden más – a véleményét vitató, eltérő álláspont – számára láthatatlanná; ez a Sunstein-féle Daily Me (Napi Én), amelynek legfontosabb támogatói a social media platformok.14

A népszerű elmélet következtetése szerint a social media a társadalom kötőszövetét sorvasztja, elnehezítve az eltérő véleménnyel bíró emberek közötti párbeszédet, zárt online ‘enklávékat’ létrehozva, felerősítve a szélsőséges vélemények hatását.15 Miközben az internet éppen a médiából korábban kiszoruló polgárok közötti párbeszéd, ezáltal a demokratikus döntéshozatal erősítését ígérte, ma, a végtelen mennyiségű és könnyen elérhető információ világában a társadalmi csoportok által használt közös „információs szféra” vagy „digitális agora” hiánya veszélyezteti a demokráciát, ezek helyett ideológiailag szegregált és egymással konfliktusban lévő véleményközösségek alakulnak ki.16

A szűrőbuborék-elméletet elvetők szerint az egyéni felhasználói szokások alapvetően cáfolják a teória feltevéseit, ugyanis az interneten számos hírforrás érhető el, egyetlen platform nem képes enklávéba zárni felhasználóit, akik általában többféle, egymástól független forrásból tájékozódnak.17 A technológia nem képes csorbítani a demokrácia működését, amíg a felhasználók diverzifikált forrásokból szerzik értesüléseiket. A Facebook által megrendelt kutatás szerint a hírfolyamot összeállító algoritmus csak minimális mértékben rostálja ki a felhasználó egyetértésével feltehetően nem találkozó hírforrásokat, amihez hozzájárulnak a felhasználók más szűrési lehetőségei is, további forrásokat eltávolítva a hírfolyamból, ezzel együtt mindenki jelentős mennyiségű „ideológiailag sokszínű” hírhez jut a szolgáltatáson keresztül.18 A kutatás metodikáját, így következtetését több szakmai kritika is érte, amely azzal vádolta a Facebookot, hogy a demokrácia iránti felelősségének következményei előli meneküléssel manipulálja a közvéleményt.19

A nyilvánosság számára kívánatos lenne, hogy a felhasználók többféle forrásból tájékozódjanak. Persze kérdéses, hogy melyek ezek a források. A felhasználók jó része egyszerre több platformon is aktív, de ezek sokszor hasonló üzleti modell és tartalomrendezési elvek szerint működnek, azaz nem szüntetik meg, sőt inkább kumulálják a buborékhatást. Kérdés továbbá, hogy nem gyengíti-e a több forrásból való tájékozódás lehetőségét az, ha egy platform akkorára nő, hogy az már önmagában kétségessé teszi a sokszínű tájékozódás reális megvalósulását. 2017-ben az Egyesült Államok felnőtt lakosságának kétharmada tájékozódott közéleti kérdésekben (is) a Facebookon,20 ami nem jelenti azt, hogy máshonnan nem szereztek információt, de a platformon az egyes felhasználók által naponta eltöltött idő mennyisége (a valóságos pszichés függés, amelyet a platform felhasználóiban kialakít) és a Facebook médiapiacra gyakorolt negatív hatása (a független hírforrások számának csökkenése) miatt kétséges, hogy egy átlagos polgár számára marad-e idő és lehetőség kellő alapossággal máshonnan is tájékozódni. Ha pedig ehhez hozzátesszük, hogy a Facebooknak 2018 második negyedévében 2,23 milliárd aktív (havi) felhasználója volt,21 akkor a problémát könnyen globális szintre emelhetjük.

A Facebook üzleti modellje arra épül, hogy a felhasználók minél több személyes adatot, tartalmat osszanak meg, és minél intenzívebb interakciót folytassanak egymással, ehhez pedig bizalom szükséges, amit a szolgáltatás manipulatív módon igyekszik kialakítani a felhasználókban.22 A platform próbál pszichés függést is létrehozni, hogy minél gyakrabban és hosszabb ­ideig használják. Ennek egyik eszköze a már említett like gomb, ami a felhasználók emberi gyen­geségeit használja ki, és saját tartalmaik vonatkozásában a mások általi elfogadás, szeretet mértékegysége lett – az elfogadás mértékét pedig rendszeresen ellenőrizni kell, és ha nő, akkor az „kis dopaminbombaként” hat.23

Valójában még nehéz megmondani, hogy hosszabb távon milyen módon befolyásolhatja egy platform az emberi agy működését, de az már kiderült, hogy alkalmas az emberek manipulálására, és ez már önmagában is kellően rémisztő. Egy, a Facebook által átadott adatok alapján végzett kutatás szerint ez nem is különösebben nehéz. Az érzelmi hatásokat vizsgáló kísérletben 700 ezer Facebook-felhasználó vett részt anélkül, hogy tudott volna róla.24 A felhasználók hírfolyamát egy héten át manipulálták: az egyik csoport tagjainak főleg negatív érzelmi töltetű tartalmakat mutattak, a másik csoport tagjai több pozitív tartalommal találkoztak. A több negatív, szomorú, dühítő tartalommal szembesülő felhasználók maguk is szomorúbbak és dühösebbek lettek (közzétett tartalmaik tanúsága szerint), a vidámabb tartalmat fogyasztók pedig jókedvűbbek.25

Ha az agyműködés hosszú távú átalakulása a social media hatására még nehezen mérhető is – bár egyes értelmezések szerint a Facebook-függőség már önálló pszichiátriai betegségként jelenik meg26 –, a szolgáltatás kialakításában részt vevők közül ma már többen amellett érvelnek, hogy a Facebook az általa létrehozott buborékokkal, érzelmi függőséggel, a platformon töltött idő más hasznos tevékenységektől való elvonásával és a platformon zajló kommunikáció jellegének képtelenségével arra, hogy a közügyek kitárgyalásának fóruma legyen, szétszakítja a társadalmat.27

2.3. A social media mint közfórum

A social media platformok minden negatív jelenség ellenére a nyilvános kommunikáció színterei. Ez a kommunikáció osztozik a szólásszabadság általános korlátaiban,28 illetve támogatja, előmozdítja a hasonlóan gondolkodók egyesülési jogának és gyülekezési jogának gyakorlását.29 A social media extrém helyzetekben akár jelentős politikai változások segítője is lehet, ahogyan a 2011-es arab tavasz során láthatóvá vált, ahol a kormányellenes fiatal tüntetők a social medián keresztül (is) szervezték az utcai eseményeket.30 (Később, párhuzamosan az események ígére­teinek szertefoszlásával, erőteljesen megkérdőjelezték az internet és főként a social media arab ­tavaszban játszott szerepét.)31 A social mediára értelemszerűen kiterjedő internetszabadság-doktrína az amerikai külpolitika hatékony eszköze az autoriter rendszerek fellazításában.32 Az internetszabadság vonzó hívószava a politikai beavatkozás szándékát leplezi az amerikai katonai és gazdasági hegemónia fenntartása érdekében.33

A social media platformok széles tömegek számára biztosítanak lehetőséget a kommunikációra, sokak számára nélkülözhetetlen eszközök a napi életvitelhez, amelyek azonban bűncselekmények elkövetését is elősegíthetik. Ezzel összefüggésben merül fel a kérdés, hogy ki lehet-e tiltatni e platformokról egyes felhasználókat bűnmegelőzési megfontolásokból. Kiemelten fontos kérdés ez a szexuális bűnözőkkel kapcsolatban, akik könnyedén kerülhetnek kapcsolatba kiskorúakkal a platformokon keresztül. John Hitz amellett érvel, hogy az ilyen bűncselek­mények miatt elítéltek – a büntetés végrehajtását követő – általános kitiltása nem fér össze a szólásszabadság védelmével.34 A szexuális bűnözök rehabilitációjuk után teljes joggal gyakorolhatják e jogukat;35 kitiltásuk az általánosan – azaz nem csak kiskorúak által – használt platformokról az amerikai doktrína szerint tartalomsemleges szóláskorlátozás, amely azonban nincs kellően szűkre szabva.36

Éppen ez a kérdés került terítékre a szövetségi Legfelső Bíróság előtt a Packingham v. North Carolina ügyben,37 a második jelentős olyan döntésében, amely a szólásszabadság internetes érvényesülésével foglalkozott, húsz évvel a Reno v. ACLU ügyet követően.38 A többségi véleményt fogalmazó Anthony Kennedy bíró az internetet a „modern köztérnek” nevezte, ahol a közösségi véleménycsere zajlik.39 Bár az alsóbb fokú bíróság az észak-karolinai törvényt a cselekvés, és nem a beszéd korlátozásának ítélte, így enyhébb mércét alkalmazott rá, a Legfelső ­Bíróság ennek ellenkezőjét gondolta, és a beszéd korlátozásának nem kellően szűkre szabott jellege miatt megváltoztatta a döntést.40

Azzal, hogy Kennedy bíró az internetet egy fizikai térhez hasonlította, felvethetővé vált a közfórumdoktrína internetre való alkalmazhatóságának kérdése. Az amerikai joggyakorlat háromféle közfórumot különböztet meg, amelyeken a szóláskorlátozás megítélése eltérően alakul. Az első a hagyományos közfórum (közterek, utcák, parkok), ahol a szólásszabadság gyakorlása is bevett hagyomány, a második a kijelölt vagy korlátozott közfórum, amely a szólásszabadság gyakorlásának nem hagyományos, de erre a célra használható helye (például előadótermek, amelyek igénybevétele a tulajdonos vagy kezelő hozzájárulásához van kötve), a harmadik pedig a nem nyilvános fórum, amely nem arra szolgál, hogy ott valaki beszélhessen, de erre mégis sor kerülhet (kórház, börtön, katonai bázis).41

Ahogyan a fenti sorrendben előrehaladunk, úgy nő a szóláskorlátozás lehetősége. Samuel Alito bíró a Packingham-döntéshez fűzött párhuzamos indokolásában vitatta is annak jogos­ságát, hogy a Bíróság az internet egészét utcákhoz és közparkokhoz hasonlítja.42 Miközben a hivatalos állami vagy kormányzati szervek által használt social media platformokkal kapcsolatban ez joggal merülhet fel, a platformokon zajló kommunikáció és véleménycsere jelentős részben magánjellegű abban az értelemben,43 hogy a közfórumdoktrína nem alkalmazható rájuk, azaz a platform egészében véve, felhasználója pedig saját profilja tekintetében szabadon alakíthatja a megszólalás szabályait. A platformokhoz való felhasználói hozzáférést e felfogás szerint az állam jogi eszközökkel nem tilthatja meg, de a szolgáltató igen, és legfeljebb a diszkriminációellenes szabályok korlátozzák ebben. E felfogással szemben pedig az hozható fel, hogy a platform ezzel lényegében maga is ‘államként’ viselkedik, ezért a szólásszabadság védelmét annak korlátozó tevékenységével szemben is alkalmazni lehetne;44 mindez azonban már a platformokkal kapcsolatos tulajdonjog korlátozásának kérdését feszegeti. A szólásszabadság tradicionális felfogása szerint a social media platform egy magántulajdonú bevásárlóközponthoz hasonlít­ható, ahonnan a tulajdonos vagy üzemeltető bárkit eltávolíthat, ha megsérti a házirendet, illetve a közösségi együttélés általa meghatározott szabályait.45 Ebből az a visszás helyzet is előállhat, hogy az egyébként az egyéni szabadság kiteljesedését ígérő szolgáltatások az üzletszerzés reményében hajlandók lehetnek elnyomó rezsimekkel is alkut kötni.46

A social media platformokat hivatalos intézmények, köztisztséget viselők is használják, tájékoztatás, vélemények gyűjtése és más hasonló célokból, egy politikus vagy egy önkormányzat hivatalos fiókja pedig más megítélés alá eshet, mint azoké, akik magánszemélyként használják a platformot. Élen jár például a Twitter-használatban Donald Trump amerikai elnök, aki vélelmezhetően már többször megsértette a szolgáltatás beszéddel kapcsolatos szabályait, mégsem tiltották ki a platformról, hiszen amit ott mond, még ha gyalázkodó vagy rágalmazó is, hír­értékkel bír47 (és persze reklámértékkel a szolgáltatás számára). A kérdés azonban nemcsak az, hogy ő kitiltható-e a Twitterről, hanem az is, hogy ő (illetve fiókja kezelője) eltilthat-e másokat fiókjának, üzeneteinek figyelemmel kísérésétől („követésétől”), ahogyan ez több amerikai polgárral megtörtént. A Twitter és felhasználója viszonyában az uralkodó felfogás értelmében a közfórumdoktrína nem alkalmazható, de felhasználó és felhasználó között, ha az egyik egy választott politikus, akkor már igen. Vagyis az a felület, amelyet nyilvános politikai kommuniká­cióra használnak egy social media platformon, lehet közfórum.48

Ezt erősítette meg Trump ügyében az egyik kerületi bíróság.49 Az elnökkel és az elnöki Twitter-fiók kezelését végző fehér házi alkalmazottal szemben többen pert indítottak, miután kitiltották őket a fiókról, aminek következtében nem jutottak közvetlenül hozzá az elnöki bejegyzésekhez, nem kommentálhatták őket, nem olvashatták a hozzájuk fűződő kommentfolyamot, így az elnöki kommunikációról csak más ismerőseik kommentjein keresztül szerezhettek tudomást. A bíróság részletesen elemezte a közfórumdoktrína alkalmazhatóságának kérdését, majd megállapította, hogy az elnöki fiók kijelölt vagy korlátozott fórum, amelyről nem lehet kitiltani azokat, akiknek véleménye nem sérti meg a szólásszabadság határait (a kitiltás oka az ügyben érintettek kommentjei voltak, amelyek vitába szálltak az elnöki tweetekben foglaltakkal).50 A Fehér Ház nem tulajdonosa a szolgáltatásnak, még az egyetlen Trump-fiók vonatkozásában sem, de az a befolyása, irányítása alatt működik, ez pedig elég a fórumjelleg megállapításához.51 A politikai vélemények korlátozása e fórumokon megengedhetetlen52 (ami a contrario azt is jelenti, hogy ha valaki túllépi a szólásszabadság határait, akkor még politikai szereplő által is kitiltható a felületről).

2.4. Az „olcsó beszéd” és a hagyományos média

Eugene Volokh 1995-ben tett közzé egy tanulmányt, amelyben az internetes nyilvánosság átalakulásának irányait kívánta megjósolni.53 Az általa „olcsó beszédnek” hívott jelenséget üdvözlendő fejleménynek tekintette, amely ahhoz járul hozzá, hogy – a korábbi technológiai szűkösséget meghaladva – bárki olcsón (vagy akár ingyen) véleményt formálhasson a közélet kérdéseiről közvetítők (televízió, rádió, sajtó) hiányában is, szélesebb és közvetlenebb alapokra helyezve a demokratikus döntéshozatalt.54

Ez az „olcsó beszéd” ma, több mint két évtized elteltével, nem érzékelhető feltétlenül po­zitív jelenségként. A tömeges online véleményközlés lehetősége és a social media platformok ­felvirágzása kikezdte a hagyományos újságírás üzleti modelljét és szakmai követelményeinek ­érvényesülését. A tényfeltáró újságírás – a reklámbevételek zuhanásával, így a sajtó anyagi ­megrendülésével – visszaszorult, helyébe pedig a gyors impulzusokra építő, szenzációhajhász tar­talom-előállítás lépett. A közönség szokásai átalakultak, és a terjedelmes, alapos cikkeknek (ha megszületnek) nem akad (elég) sok olvasója. Ez a jelenség kedvez a hamis hírek (fake news) terjedésének, a lokális hírszolgáltatás visszaszorulása pedig a helyi szintű korrupció növekedésének, a politikai közbeszéd romlásának, a választási kampányok vásári komédiává züllésének és a szélsőségek erősödésének.55 Egyes kutatások azt mutatják, hogy az értelmes közbeszédet számos fórumon kikezdő névtelen trollok a felhasználók szerint nem fegyelmezhetők, nem távolíthatók el, kezelésükre nincs jó megoldás. A trollok pedig provokálnak, gyalázkodnak és ellehetetlenítik az előremutató vitát, ráadásul a social media platformoknak ez nem is baj, sőt előnyükre válik: a minél hevültebb, aktívabb interakció szolgálja a gazdasági érdekeiket, nem pedig a higgadt, nyugodt beszélgetés.56

A social media mint a hírfogyasztás új eszköze valóban nem kedvez az igazság feltárásának.57 A Facebook hírfolyamában minden hír, származzék hiteles vagy megbízhatatlan forrásból, ugyanúgy jelenik meg, a pletyka, a botrány, a bombasztikus címek és beszámolók pedig kelendőbbek, mint a mobileszközökön eleve nehezen is olvasható valódi újságírás, amelynek még meglévő produktumai elvesznek a beláthatatlanul tömeges és percenként gyarapodó informá­ciós áradatban. A hírfolyam személyre szabott jellege és az ingyenes és tömegesen elérhető junk news elveszi a hagyományos média piacát.58 A social media bekebelezte a hírek előállítását és fogyasztását; a társadalom tagjait összekötő közös alapok, az ‘igazság’ mibenléte felőli egyetértés gyengül, illetve nem érhető el, ha mindenkinek, de legalábbis minden társadalmi csoportnak megvan a maga igazsága az interneten.59 Az intézményesült sajtó visszaszorulásának a helyébe lépő tartalmak precizitása, a tényellenőrzés szakmai követelményei is áldozatul esnek.60 A megváltozott piaci környezetben a korábbi közönségigényeknek való megfelelés kényszere is elmúlik, a jogi felelősség érvényesítése pedig elnehezül, amelyek korábban a sajtó egyfajta olvasók általi vagy azok érdekében való elszámoltathatóságát biztosította. A Facebook ráadásul nemcsak a híreket és a hagyományos újságírást kebelezte be, hanem mindent – a politikai kampányok, a bankrendszer, a szórakoztatóipar, a kereskedelem, de még a kormányzat és a nemzetbiztonság sem úgy működnek már, mint a nagy social media platformok előtti időben.61 A demokráciát szolgáló tartalom- és hírelőállítás támogatása, az információkhoz való egyenlő hozzáférés biz­tosítása állami (támogatói és szabályozói) feladatként jelentkezik ebben a médiakörnyezetben.

A social media platformok a hamis hírek terjedésének, azaz a valótlan információk szándékos terjesztésének tág teret adnak.62 Ez azonban a látszat ellenére nem diszfunkció, amely megfelelő beavatkozással kezelhető, hanem a platformok lényegéből fakadó, szinte elkerülhetetlen következmény.63 A felhasználókról tömegesen gyűjtött adatok, információk nyomán lehetővé vált az alapos profilozás, ennek felhasználásával pedig az egyén elé tárt tartalmak algoritmus általi meghatározása és a célzott reklámok elhelyezése – ebben a platformra való minél gyakoribb visszatérés pszichés kényszerének előidézése az egyik döntő faktor. Egy másik a platformok architektúrája, valamint a rajtuk zajló kommunikáció jellege, ami a szenzációhajhász, gyors, rövid ideig érdekes tartalmak terjedését támogatja. Hamis hírek mindig is voltak, a média kora előtt és a technológiai fejlettség korábbi szakaszaiban is – ami ma más, az a tömegesség és a terjedés sebessége, illetve az a jelenség, hogy az új információs platformok nem véletlenszerűen terjesztenek hamis híreket, hanem ideális terepet biztosítanak a tenyészetükhöz.64 A hagyományos média hírforrásként általában a civil újságírókat és a social mediát használja, vagyis ahogyan a bloggerek például a hagyományos médiából vagy más bloggerektől szerzett téves vagy megtévesztő információkat adják vissza, úgy a hagyományos média is közölheti a social mediából vett értesüléseket.65

A social media platformok működésének szintén rendkívül aggasztó mellékterméke a brutális bűncselekmények nyilvános elkövetésére ösztönző jelleg. Előfordul, hogy egy gyilkos élőben közvetíti a Facebookon, ahogy lelő egy embert, és így szerez közönséget magának, amelyhez a platform hiányában nem jutna hozzá.66 Más felhasználók a mások által elkövetett erőszakos cselekményekről, bűncselekményekről számolnak be, ami bírhat hírértékkel, de az áldozatok méltóságát jobbára figyelmen kívül hagyja.67 Egyesek dühe éppen a platformszolgáltatók ellen fordul, amikor általuk háttérbe szorítva érzik magukat, mint az a nő, aki a YouTube központjában lövöldözött, mert úgy érezte, hogy a szolgáltató megfosztja őt az általa feltöltött videók után elérhető reklámbevételtől.68 A platformok arra is kiválóan alkalmasak, hogy rajtuk alaptalanul lejárassanak embereket, kihasználva a rágalmak gyors terjedését és a cáfolat hatékonyságának gyengeségét.69 A valós véleménycsere és a vita mindazonáltal még mindig nem lehetetlen a social mediában, de nem evidensen könnyű e lehetőség kihasználása, és a pletykák, valótlanságok, „virális tartalmak”, célzott reklámok, algoritmusok által hozott szerkesztői döntések70 özönében finoman szólva sem ez a platformok első számú funkciója. A platformok alapvetően alakították át a nyilvános teret; nem csupán lehetőséget adnak a tartalmak megjelenítésére, hanem aktívan formálják őket, és kiválogatják a felhasználók elé kerülő információáradatot. Marshall McLuhan igazsága itt is érvényesül, de már nem a médium, hanem maga „a platform az üzenet”.71

2.5. Technológiai vagy médiavállalatok?

Vélhetjük úgy is, hogy McLuhan bon mot-ja változatlan formában igaz, mert platform = média, igaz, maguk a platformszolgáltatók sokáig ezt egészen máshogy gondolták. A Facebook szinte vallásos dogmaként hirdette magáról, hogy amit szolgáltatásként nyújt, az egy semleges platform, és nincs köze ahhoz, hogy a felhasználói mire és hogyan használják.72 A platformon folyó beszélgetések növelhetik például a részvételi arányt egy választáson, de a szolgáltatás maga nem befolyásolja a választás eredményét.73 Olyan, mint egy hirdetőtábla, amelyre bárki bármit felírhat vagy kitűzhet. Az elmúlt évek eseményei miatt ez az álláspontja tovább nem tartható. 2016 tavaszán kiderült, hogy a Facebook politikai alapon eltorzítja egyes hírek jelentőségét az úgynevezett Trending Topics szolgáltatásában, hogy felhasználói számára jelentősebbnek vagy éppen kevésbé fontosnak tűnjön némely tartalom, ráadásul ezt tudatosan, manuális eszközökkel, tehát nem egy esetlegesen rosszul beállított algoritmus által idézte elő.74 A 2016. év végi amerikai elnökválasztás után sokan rótták fel a platformnak, hogy nem tett semmit a valótlan hírek terjedésének megakadályozására, és részben ennek tudták be Trump győzelmét és Clinton vereségét.75 Ekkortájt fedezték fel a Macedóniában működő „fake news gyárat”,76 majd ezt követték az orosz titkosszolgálati beavatkozásról szóló hírek és a mai napig tartó hivatalos vizsgálatok.77

E vádakat – nem is beszélve a 2018-ban kirobbanó Cambridge Analytica-ügyről, amely a felhasználók személyes adatainak védelméről folytatott vitát is érintette78 – a Facebook már nem háríthatta el azzal, hogy a felhasználóiért nem felelős, és nem maradhatott semleges. A platform 2018-ra eljutott odáig, hogy felelősséggel tartozik a nyilvánosságnak például a demokráciáért is, hasonlóan a médiához, illetve a kiadókhoz.79 Más kérdés, hogy ha egyáltalán lehetséges, miként oldható meg az ilyen jellegű problémák sora, ha egyszer a platform úgy van tervezve, hogy széles és gyorsan kialakuló nyilvánosságot biztosítson a valótlanságoknak.

De ne felejtsük el azt se, hogy a Facebook már 2016 előtt sem volt semleges platform. Algoritmusai által minden felhasználója számára személyre szabott hírfolyamot állít elő, amelynek beállításai ugyan függenek a felhasználótól is, teljes egészében nem uralható. A hírfolyam beállításai természetesen a platform gazdasági érdekeit szolgálják, ami legitim érdek, de semleges magatartásnak aligha tekinthető. Ráadásul, mint a Trending Topics-ügyből kiderült, e beállításokat akár politikai manipuláció érdekében is meg lehet változtatni. A social media platformok anélkül váltak a hírszolgáltatás legfontosabb helyszíneivé, hogy maguk akár egyetlen hírt is gyűjtenének, egyúttal uralják az online médiaterjesztési piacot is.80 Ezenkívül a Facebook tudatosan szelektál a tartalmak között – egyeseket azért töröl, mert a törvény erre kötelezi, másikakat azért, mert a saját maga által meghatározott szabályzatot sértik. Csak 2018 első negyedévében 583 millió hamis Facebook-fiókot zártak be.81 Ahogyan Timothy Berners-Lee fogalmazott, a Facebook milliárdnyi szerkesztői döntést hoz nap mint nap.82 (Más platformok, mint például a Twitter, inkább a felhasználóra bízzák a hírfolyam összeállítását, de a szerkesztői döntések – a sérelmes tartalom eltávolításáról – azokon is elkerülhetetlenül jelen vannak.)

Mára nehezen megkérdőjelezhetővé vált, hogy a platformszolgáltatók a tartalmak felőli döntéshozatal kérdésében hasonlatosak a hagyományos médiához, ennek következtében pedig a szelekcióban manifesztálódó szólásszabadságuk is védelemre érdemes. Ha úgy tetszik, a hírfolyam a Facebook ‘véleménye’ arról, hogy mi érdekelheti leginkább az egyéni felhasználót, és mi szolgálja ezzel összefüggésben leghatékonyabban a platform gazdasági érdekeit. Ha a platformnak véleménye van, akkor az alkotmányos védelmet kap, de a jogi doktrínák megfelelő alkalmazásával korlátozható is.

3. A platformok szabályozása a jog eszközeivel

3.1. Bevezetés

A social media platformok működése nem mentes az állami szabályozástól. A szólásszabadság érvényesülésének és korlátai megfelelő alkalmazásának kérdései a platformokon zajló nyilvános kommunikációval kapcsolatban is felmerülnek; az Egyesült Államok és Európa szabályozása között e tekintetben is jelentős eltérés figyelhető meg. Amikor állami szabályozásról beszélünk, két problémát érdemes elkülöníteni: az egyik a felhasználók egymás közötti vitáinak, illetve jogi felelősségének megítélése, a másik a platformok jogi felelősségének kérdése. A felhasználók egymást az offline világban megszokott módon perelhetik, például rágalmazásért vagy a magánélet megsértése miatt, illetve a bevett módon tehetnek feljelentést, ha bűncselekmény el­követésére, például gyűlöletbeszédre vagy erőszakra uszításra gyanakszanak. A jogi eljárások ugyanazok, de a social medián keresztül történő véleménynyilvánítás módja, formája, hatása és az elért nyilvánosság (így az okozott kár vagy előidézett veszély) eltér az offline közlések ha­sonló paramétereitől, ezért a szólásszabadság határainak vizsgálatakor figyelemmel kell lenni a social media platformon zajló kommunikáció sajátosságaira.

A platformok felelőssége bonyolult kérdés; a platform maga nem a jogsértő vélemény elsődleges közlője, hanem csak lehetőséget biztosít mások számára a közlésre, maga pedig sorrendbe állítja, megjeleníti a különböző tartalmakat a többi felhasználó számára. Az európai jogi megközelítés szerint azonban részt kell vennie a jogsértő tartalmak eltávolításában, amit ha elmulaszt, felelőssé válik az adott tartalomért. Az állami szabályozás így bevonja a megsértett ­jogok orvoslásának rendszerébe a platformszolgáltatókat is, amelyeknek ezáltal döntést kell hozniuk az érintett tartalom jogszerűsége felől – ezzel a jogalkalmazás mintegy vegyesen állami (bírósági) és magánkézbe kerül.83 Jóval szűkebb terjedelemben, de ez a modell működik az Egyesült Államokban is, a Communications Decency Act (CDA) 230. szakasza által adott felhatalmazás keretei között. A platformszolgáltatók ezzel a tartalom elérhetősége felől döntő médiavállalatokká válnak, egyúttal a jogalkalmazás és jogérvényesítés fontos szereplőivé is.84 Ugyan a bíróságok szerepe a social mediában zajló viták szólásszabadságjogi szempontú megítélésében természetesen nem elhanyagolható, a platformok moderátorai és jogászai jóval nagyobb befolyást gyakorolnak e viták és a platformokon zajló társalgás szabadságára, mint az e célból fenntartott állami szervezetrendszer.85

3.2. Alkalmazandó jogszabályok

A social media platformok az EU közös joga szerint tárhelyszolgáltatónak minősülnek, tekintettel arra, hogy e szolgáltatások a felhasználói tartalmakat saját rendszerükben tárolják, rendezik, elérhetővé teszik, így az elektronikus kereskedelmi irányelv szabályai szerint el kell távolítaniuk azon jogsértő tartalmakat, amelyek ilyen jellegéről tudomást szereznek, de előzetes ellenőrzési vagy általános monitorozási kötelezettség nem írható elő számukra.86 Egy osztrák ügyben, amely az Európai Unió Bíróságán még csak az előzetes döntéshozatali eljárás kezdeményezésénél tart, az eltávolítási kötelezettség terjedelmével összefüggő kérdés merült fel a Facebook tevékenységét illetően. A kérdés az, hogy az irányelv 14. cikke alapján lehet-e széles körű intézkedésre kötelezni a platformot nemcsak a konkrét, eltávolítandó tartalmat pontosan megjelölve, hanem az azonos tartalmak jövőbeni újbóli feltöltése esetére is, továbbá nemcsak a teljesen azonos, hanem a hasonló tartalmakra is kiterjesztve a szolgáltató eltávolítási kötelezettségét. Sérti-e ez a monitorozási kötelezettség tilalmára vonatkozóan az irányelvben foglaltakat? 87 Az osztrák bíróság felvetése észszerű, mert ilyen kiterjesztés nélkül ha mindig csak a konkrétan megjelölt tartalmakat kell eltávolítani, akkor terjedési sebességük és könnyű sokszorozódásuk folytán a jogsértő állapot megszüntetésének ezen eszköze könnyen kiüresedhet.

Az Eker. irányelven felül az általános hatályú jogszabályok szintén vonatkoznak a plat­formokon zajló kommunikációra, ideértve az adatvédelem, a szerzői jog, a személyiségi jog ­védelmének szabályait, a közrendvédelmi és büntetőjogi tilalmakat, amelyekkel kapcsolatban a tárhelyszolgáltatóknak sajátos kötelezettségek írhatók elő a sérelmes tartalmak eltávolítására.

A social medián keresztül zajló kommunikáció osztozik az offline világban érvényesülő szóláskorlátozásokban.88 A social mediában gyakorta előforduló sértő magatartások szinte kivétel nélkül beilleszthetők valamely korábban – nem az online világra tekintettel – meghatározott bűncselekményi tényállás alá, tehát alapvetően nem szükséges új tilalmakat felállítani.89 Ugyanakkor mivel e korlátok meghatározása az egyes államok szabályozásához van kötve (és a szólásszabadság határait még Európában is csak kisebb részben harmonizálta az EU joga), és mivel a social media jellegénél fogva globális, azaz nem törődik az államhatárokkal, e kettősségből számos probléma fakad. Ami például Európában a szólásszabadság által védett vélemény, az egy iszlám államban blaszfémia lehet, ami súlyos büntetésért kiált. Az egységes standard hiánya pedig – mivel egy vitatott tartalom bárhol elérhető, és a platformon gyorsan sokszorozódik és terjed – feszültséghez és erőszakhoz vezethet.90 Jó megoldás nincs: sem a szólásszabadság visszaszorulása, sem pedig normáinak másokra kényszerítése nem tekinthető annak. Robert Kahn a holokauszttagadás példáján keresztül azt veti fel, hogy a szóláskorlátozások – részben az egy­séges standardok hiánya miatt – csak kevéssé hatékonyan tudnak megvalósulni, így egy sérelmes tartalom azon országokba is könnyen eljut, amelyekben egyébként tiltva van, és ezzel a Facebook vagy a YouTube korában nem is igen lehet mit kezdeni. (Lehet persze, földrajzi helyre szabott korlátozással: geoblockinggal, de egyedi, gyorsan terjedő tartalmak esetében ez kevéssé hatékony.)91 A megoldás szerinte nem a még szigorúbb tiltás, hanem a social medián keresztül zajló kommunikáció jellegzetességeinek elfogadása, és annak tudomásulvétele, hogy nem szabad bízni e platformok vonatkozásában a problémák teljesen megnyugtató jogi rendezésében.

Az AVMS irányelv 2007 óta vonja szabályozás alá a lekérhető médiaszolgáltatásokat, amelyek az interneten keresztül is elérhetők lehetnek, de ezek sorába a social media nem illeszthető be. Ennek fő oka az, hogy a lekérhető médiaszolgáltatást nyújtónak a közzétett tartalmakkal kapcsolatban szerkesztői felelőssége van, maga rendeli meg, vásárolja őket, mindenesetre dönt a tartalmak közzététele felől,92 a social media viszont csak platformot biztosít a kommunikációnak, a tartalommal kapcsolatban előzetes döntést általában nem hoz (hozhat, ha előzetes szűrést alkalmaz, de az a tartalmak egy adott körére terjed csak ki).

A platformok térnyerésével, csaknem egy évtizeddel az irányelv előző módosításának le­zárulta után, világossá vált, hogy a médiaszabályozás ilyen szűk értelmezése nem tartható fenn tovább. Az AVMS irányelv módosítására irányuló, 2016 májusában közzétett javaslat ­ennek megfelelően bevezette a videómegosztóplatform-szolgáltatás, valamint a videómegosztó­platform-szolgáltató fogalmát.93 A 2018 novemberében végül elfogadott módosítás alapján e szolgáltatással bővült az irányelv tárgyi hatálya:

„»[V]ideómegosztóplatform-szolgáltatás«: az Európai Unió működéséről szóló szerződés 56. és 57. cikkében meghatározott olyan szolgáltatás, amelynek, vagy amely egy elkülöníthető részének vagy egy alapvető funkciójának elsődleges célja, hogy tájékoztatás, szórakoztatás vagy oktatás céljából a 2002/21/EK irányelv 2. cikkének a) pontja értelmében vett elektronikus hírközlő hálózatokon keresztül olyan műsorszámokat, illetve felhasználói videókat juttasson el a közönséghez, amelyekért a videómegosztó platform szolgáltatója nem tartozik szerkesztői felelősséggel, és amelyeket a videómegosztó platform szolgáltatója rendszerez például automatikus eszközökkel vagy algoritmusokkal, különösen megjelenítés, címkézés és sorba rendezés révén.” 94

Bár az eredeti javaslat szerint a social media platformok általában véve (az oldalra feltöltött audiovizuális tartalom szempontjából) nem tartoztak volna az irányelv hatálya alá, a jogalkotás folyamatában hamar nyilvánvalóvá vált, hogy nem lehet kivonni őket a hatály alól, tisztán a valóban elsősorban videómegosztásra szolgáló portálokra fókuszálva (mint például a YouTube).95 Az irányelv módosított preambuluma erről így nyilatkozik:

„A videómegosztóplatform-szolgáltatók olyan audiovizuális tartalmakat szolgáltatnak, amelyeket a közönség és különösen a fiatalok egyre nagyobb számban tekintenek meg. Ugyanez igaz a közösségi médiaszolgáltatásokra is, amelyek az információmegosztás, a szórakoztatás és az oktatás fontos médiumává váltak, többek közt azáltal, hogy műsorszámokhoz és felhasználói videókhoz biztosítanak hozzáférést. A közösségi médiaszolgáltatásoknak a 2010/13/EU irányelv hatálya alá kell tartozniuk, mivel ugyanazért a közönségért és ugyanazon bevételekért versengenek, mint az audiovizuális médiaszolgáltatások. Ezenfelül ezek a szolgáltatások jelentős hatással bírnak annak okán is, hogy megkönnyítik a felhasználók számára más felhasználók véleményének alakítását és befolyásolását. ­Ennélfogva a kiskorúaknak a káros tartalomtól és az összes polgárnak a gyűlöletre, az erőszakra és a terrorizmusra való uszítástól való védelme érdekében ezeknek a szolgáltatásoknak – amennyiben megfelelnek a videómegosztóplatform-szolgáltatás fogalommeghatározásának – a 2010/13/EU irány­elv hatálya alá kell tartozniuk.”96

A videómegosztó platform kategóriája tehát magában foglalja a social medián keresztül közzétett audiovizuális tartalmakat is, dacára a megtévesztő megnevezésnek. Fontos, hogy a bevezetett új fogalom szerint e tartalmakért a szolgáltató nem rendelkezik szerkesztői felelősséggel, tevékenysége során csupán rendszerezi, megjeleníti, címkézi, sorba rendezi őket, de ezzel nem válik médiaszolgáltatóvá.

A módosított irányelv 28b. cikke szerint az Eker. irányelv 12–15. cikke (különösen a tár­helyszolgáltatókra vonatkozó előírások és a monitorozási kötelezettség előírásának megtiltása) továbbra is irányadók. A tagállamoknak emellett biztosítaniuk kell, hogy a joghatóságuk alá tartozó videómegosztóplatform-szolgáltatók meghozzák a megfelelő intézkedéseket az alábbiak érdekében:

– a kiskorúak védelme az olyan műsorszámoktól, felhasználói videóktól és audiovizuális kereskedelmi közleményektől, amelyek károsíthatják a fizikai, szellemi vagy erkölcsi fejlődésüket;

– a közönség védelme az olyan műsorszámoktól, felhasználói videóktól és audiovizuális kereskedelmi közleményektől, amelyek személyek csoportjával vagy egy csoport valamely tagjával szemben erőszakra vagy gyűlöletre uszítanak;

– a közönség védelme az olyan tartalmakat hordozó műsorszámoktól, felhasználói videók­­tól és audiovizuális kereskedelmi közleményektől, amelyek terjesztése az uniós jog szerint bűncselekménynek minősülő tevékenység, így például terrorista bűncselekmény elkövetésére való nyilvános uszítás az (EU) 2017/541 irányelv 5. cikkében fog­laltak szerint, gyermekpornográfiával kapcsolatos bűncselekmény a 2011/93/EU európai parlamenti és tanácsi irányelv 5. cikkének 4. bekezdésében foglaltak szerint, vagy rasszizmussal és idegengyűlölettel kapcsolatos bűncselekmény a 2008/913/IB keret­határozat 1. cikkében foglaltak szerint;

– megfelelés az AVMS irányelv 9. cikk 1. bekezdésében foglalt követelményeknek (általános és gyermekvédelmi célú korlátozások a kereskedelmi közleményekre vonatkozóan) az általuk forgalmazott, értékesített, illetve szervezett audiovizuális kereskedelmi közlemények tekintetében.

Azt, hogy mi minősül „megfelelő intézkedésnek”, az adott tartalom jellege, az általa po­tenciálisan okozott ártalom, a védendő személyek kategóriájának jellemzői, valamint a veszélyeztetett jogok és jogos érdekek – többek között a videómegosztóplatform-szolgáltatók és a tartalmat létrehozó, feltöltő, továbbító felhasználók érdekei és a közérdek – fényében kell meghatározni.97

Az említett intézkedéseknek az irányelv szerint – többek között – az alábbiakra kell kiterjedniük:

– az említett követelmények rögzítése a videómegosztóplatform-szolgáltatások szerződési feltételeiben, valamint e követelmények alkalmazása;

– átlátható és felhasználóbarát mechanizmusok kialakítása és üzemeltetése, amelyek segítségével a videómegosztó platformok felhasználói bejelenthetik vagy megjelölhetik az érintett videómegosztóplatform-szolgáltató számára a kifogásolt jogsértő tartalmat;

– gyermekvédelmi célú életkor-ellenőrző rendszerek kialakítása és üzemeltetése a videó­megosztó platformok felhasználói számára azon tartalmak esetében, amelyek visszavethetik a kiskorúak fizikai, szellemi vagy erkölcsi fejlődését;

– szülői felügyeleti rendszerek biztosítása a gyermekekre káros tartalmak tekintetében;

– a felhasználók által könnyen kezelhető eszközök biztosítása a sérelmes tartalmak azonosítására;

– átlátható, könnyen kezelhető és hatékony eljárások kialakítása és alkalmazása a videó­megosztóplatform-szolgáltatók és a felhasználók közötti viták kezelésére és rendezésére;

– a védelmi mechanizmusokkal kapcsolatos felvilágosítás, tájékoztatás, magyarázat nyújtása a szolgáltatók részéről;

– a médiatudatosságot célzó hatékony intézkedések és eszközök, valamint a felhasználók tájékoztatása ezekről az intézkedésekről és eszközökről.98

Az irányelv új szabályai terjengősnek és részletesnek tűnnek, valójában a nagy platformszolgáltatók többé-kevésbé már korábban is igyekeztek megfelelni a most kötelezővé tett elvárásoknak. A szabályozás eleve a tartalmak egy szűkebb körére (audiovizuális tartalmak) terjed ki, és csak néhány, tartalommal kapcsolatos kérdés (gyermekvédelem, gyűlöletbeszéd, terrorizmus támogatása, gyermekpornográfia, népirtások tagadása) tekintetében biztosít állami kontrollt a platformszolgáltatók működése felett. Az efféle tartalmakat a platformok jórészt saját szabályzataik alapján amúgy is tiltják, illetve értesülés után eltávolítják őket. Az is igaz persze, hogy nem minden, Európában egyébként tiltott tartalom ütközik e szabályzatokba. Fontos, hogy az irányelv tagállami átültetésétől kezdve a fellépés a platformszolgáltatók számára előírt kötelezettség, és nemcsak az Eker., hanem az AVMS irányelv alapján is. (A két szabályozás részben párhuzamos vonalon halad: általában véve a jogsértő tartalmakat az előbbi szerint el kell távolítani, az utóbbi pedig meghatároz egyes jogsértő tartalmakat, és részletszabályokat is előír a követendő eljárás tekintetében.) Az új AVMS irányelv ezenkívül számos, a szabályok alkalmazhatóságát, illetve a megfelelő eljárás garanciáit megteremtő szabályt tartalmaz.

A 28a. cikk (2) bekezdése a joghatósági kérdéseket igyekszik rendezni, az uniós médiaszabályozásra általánosan irányadó letelepedési elvből kiindulva, de rögzítve, hogy:

„Amennyiben egy videómegosztóplatform-szolgáltató az 1. bekezdésben foglaltak szerint nem minő­sül egy adott tagállam területén letelepedettnek, ezen irányelv alkalmazásában mégis az adott tagállam területén letelepedettnek kell tekinteni, ha a videómegosztóplatform-szolgáltató

a) anyavállalkozása vagy leányvállalkozása az adott tagállam területén telepedett le, vagy

b) egy csoport része, és egy, ugyanahhoz a csoporthoz tartozó másik vállalkozás az adott tagállam területén telepedett le.”

Az, hogy a tagállamok milyen módon implementálják majd az új AVMS irányelv szabá­lyait, és hogyan lehet majd megteremteni az állami rendelkezések közötti harmóniát a részletszabályok tekintetében, továbbá hogy miként lehet majd a nagy platformszolgáltatókat teljes együttműködésre bírni (ami a szabályozás által az államok számára előírt követelmény), a jövő kérdése.

Az Egyesült Államokban egyszerűbb a jogi helyzet: a CDA 230. szakasza a social media platformokat is védi az állami beavatkozással szemben. Amennyiben a platformok csak a kere­teket biztosítják a tartalmak feltöltéséhez, még ha bátorítják is felhasználóikat a beszédre, és ­elrendezik az általuk feltöltött tartalmakat, nem lesznek felelősek az esetleges jogsértő jelleg ­miatt;99 amennyiben azonban már kontrollálják, generálják e tartalmakat, aktívan szerkesztik, módosítják, elveszítik immunitásukat.100 De e szabály alóli kivételek köre bővíthető, mint azt a 2018 áprilisában kihirdetett új törvény példája is mutatja, ami lehetővé teszi a szexuális célú emberkereskedelmet támogató weboldalakkal – így a tárhelyszolgáltatókkal – szembeni fel­lépést.101

3.3. Joghatósági kérdések

Változatos joghatósági szabályok alapján lehet fellépni a social media platformokon megjelenő jogsértő tartalommal szemben, és az eljárást kezdeményező fél kiválaszthatja a perlés megfelelő helyét.

Ami a felhasználók egymás közötti jogvitáira vonatkozik, az EU-n belül rágalmazási ügyekben a Brüsszel Ia. rendelet szerint kell megállapítani a joghatóságot; a felperes, ha ott kár érte, saját államának bírósága előtt is kezdeményezhet pert.102 A tagállamok ezen túlmenően rendelkezhetnek a harmadik (unión kívüli) országokban letelepedett felperesek és alperesek perindítási lehetőségeiről; az angol Defamation Act 2013 például szűkíteni kívánja e tekintetben a forum shopping jelenségét, és csak akkor teszi lehetővé a perlést, ha Anglia vagy Wales nyilvánvalóan a legmegfelelőbb hely a perindításra.103

Ami a platformokkal szembeni fellépést illeti, a jogsértő tartalmak eltávolítására vonat­kozó kötelezettségüknek az Eker. irányelvben foglalt joghatósági szabályoknak megfelelően szerezhető érvény.104 Az irányelv a letelepedési elvet követi, vagyis letelepedettnek minősül az „olyan szolgáltató, amely állandó telephelyen, határozatlan ideig ténylegesen gazdasági tevékenységet végez”.105 A tagállamok „nem korlátozhatják a szabályozott területtel kapcsolatos okokból az információs társadalommal összefüggő szolgáltatások másik tagállamból történő nyújtásának szabadságát”.106 Ugyanakkor ettől a szabálytól eltérhetnek, ha ez:

– a közrend védelme (ideértve a bűncselekmények megelőzését, felderítését és üldözését, a kiskorúak védelmét, és a faji, nemi, vallási vagy nemzeti alapú gyűlöletre uszítást és az egyének emberi méltóságának megsértése elleni harcot);

– a közegészség védelme (például egyes, egészséget veszélyeztető terméket népszerűsítő reklámok elleni fellépés);

– a közbiztonság (például a terrorizmus elleni küzdelem) vagy

– a fogyasztók védelme (megtévesztő hirdetések)

érdekében szükséges.107

Az EU területén legalább telephellyel rendelkező platformszolgáltatók tehát az irányelv hatálya alá tartoznak, tárhelyszolgáltatónak minősülnek, így a feltételek megléte esetén eltávolítási kötelezettségük állhat fenn, ami a székhely vagy telephely szerinti állam bírósága előtt juttatható érvényre, de a tagállamok indokolt esetben és az irányelvben rögzített feltételek mellett maguk is korlátozhatják a platformok működését. Az EU-s jog nem terjed ki a harmadik országokban letelepedett szolgáltatókra, így velük szemben a fellépés feltételeit a tagállamok szabadon határozzák meg.

Az Eker. irányelven túl külön joghatósági szabályokat tartalmazhatnak egyes speciális tárgykörű normák. Így például az adatvédelem szabályainak megsértése esetén az adatvédelmi rendeletben foglaltak szerint kell megállapítani a joghatósággal bíró eljáró hatóságot,108 és a sérelmet szenvedett fél lakóhelye is megalapozhatja a joghatóságot.109 Fontos, hogy a platformszolgáltató nem vonhatja ki magát egyoldalúan meghatározott szerződési feltételei által a jog­hatóság alól.110 Hasonlóképpen, a fogyasztóvédelmi szabályok is széles lehetőséget biztosítanak a sérelmet szenvedett fogyasztóknak a számukra a lehető legkevésbé megterhelő jogérvényesítésre. A már említett Brüsszel Ia. rendelet a székhely, székhely hiányában pedig a fióktelep, képviselet, telephely alapján határozza meg a jogvita helyét, de azzal, hogy a fogyasztó nemcsak abban az államban, hanem a saját lakóhelye szerinti bíróságon is perelhet.111

A fogyasztó fogalma is lényeges kérdés e tekintetben, hiszen egy platformon regisztrált vagy profilt, fiókot üzemeltető gazdasági vállalkozás nem tartozik a rendelet hatálya alá. Az ­Európai Unió Bírósága a Schrems v. Facebook Ireland Ltd. ügyben elemezte a fogyasztó mibenlétét,112 arra jutva, hogy egy Facebook-felhasználó akkor is annak minősül, ha nem kizárólag magántermészetű kommunikációt folytat, hanem könyveket ad ki, előadásokat tart, honlapokat üzemeltet, ezeket a platformon népszerűsíti, ott beszámol róluk – addig, ameddig nem minősül gazdasági szereplőnek, tehát tevékenységeit nem profitszerzés céljából végzi. Az ismert osztrák adatvédelmi aktivista, Max Schrems így joggal perelte a social media platformot az osztrák bíróságok előtt, a fogyasztói szerződésből eredő igényeit érvényesítve.113

A platformok megkísérelhetik általános szerződési feltételeikben előírni a szerződésből eredő jogvitákra alkalmazandó jogot. A Facebook például egy időben azt szerette volna elérni, hogy az esetleges perek csak az Egyesült Államok észak-kaliforniai bíróságán vagy a San Mateo megyében lévő állami bíróságon legyenek indíthatók, az alkalmazandó jog pedig Kalifornia állam joga legyen. Ez nyilvánvalóan megfosztotta volna az európai felhasználókat a jogérvényesítés tényleges lehetőségétől. A platform által meghatározott felhasználási feltételek ma már úgy rendelkeznek, hogy az uniós polgárok – ha fogyasztónak minősülnek – saját államuk bírósága előtt indíthatnak pert, az EU-ban székelő gazdasági szereplők pedig Írországban tehetik ezt meg.114 Azonban nem szabad megfeledkeznünk arról, hogy ha valakire fogyasztóként utalnak, akkor azt a jogai korlátozására is használhatják, azt sugallva, hogy jogai csupán akkor állnak védelem alatt, ha ‘csak’ fogyasztónak minősül, nem pedig embernek, állampolgárnak stb. Csakhogy mindezek egyszerre vagyunk, és rendelkeznünk kellene az adott (fogyasztói, emberi, állampolgári) jogokkal, és élveznünk kellene a védelmüket.

3.4. Hírnévvédelem

A hírnévvédelem általános szabályai a social media platformokon is érvényesülnek. Értelemszerűen a közügyek megvitatása széles körű szabadságot élvez e fórumokon is.115 Ugyanakkor, mivel a hagyományos média szűkítő szerepe a social mediában nem érvényesül, így jóval többen formálhatnak véleményt, ám nincs szerkesztői kontroll a közlések felett, a rágalmazás veszélye is jócskán megnő.116 A social mediában használt és a platformok jellegzetességei által is formált nyelvezet, a kommunikáció új módjai (like, megosztás, hashtaggel való kontextusba helyezés stb.) pedig a hírnévvédelem szabályainak alkalmazását is megnehezítik, és szükségessé teszik megfelelő, a platformra adaptált újraértelmezését.

A tradicionális hírnévvédelem és a tárhelyszolgáltatók kötelezettségeire vonatkozó szabályok párhuzamosan érvényesülnek, és akár össze is ütközhetnek egymással. Jó példa erre az Ír Legfelső Bíróság által eldöntött Muwema v. Facebook Ireland Ltd. ügy.117 A felperesről rágalmazó állítások jelentek meg a Facebookon, ezért kérte a platformszolgáltatótól az eltávolításukat. Miután az megtagadta a kérés teljesítését, per indult. A bíróság a rágalmazási jog szabályait alkalmazva nem kötelezte a platformot a tartalom eltávolítására, mert passzív magatartása folytán megillette a „vétlen közzététel” (innocent publication) védelme.118 A szabály alapján az mentesül a felelősség alól, aki 1. nem szerzője, szerkesztője vagy kiadója a sérelmes állításnak; 2. megfelelő gondosságot (reasonable care) tanúsított a közléssel kapcsolatban, és 3. nem tudta és nem is kellett tudnia azt, hogy amit tett, az rágalmazó állítások közzétételéhez járult hozzá.119 A feltételek konjunktívak, együttesen kell teljesülniük a mentesüléshez. Mint Eoin O’Dell megjegyzi, erősen kétséges, hogy a Facebook értesítését követően a 2. és a 3. feltétel valóban teljesült.120

A bíróság az ügyben kitért a tárhelyszolgáltatók eltávolítási kötelezettségére is, ami a rágalmazási joggal párhuzamosan érvényesül. Az alperes arra hivatkozott, hogy nem volt tényleges tudomása arról, hogy a vizsgált tartalom rágalmazó, így jogsértő lett volna,121 a bíróság pedig megállapította, hogy az eltávolítási kötelezettség feltételei sem álltak fenn, így a hasonló helyzetekben a sérelmet szenvedett fél szinte védtelenül marad.122 (Más kérdés, hogy a bíróság a rágalmazó felhasználó személyazonosságának a felperes irányába való felfedésére kötelezte a platformot, ami, ha sikeres, lehetőséget ad a perindításra vele szemben.) O’Dell vitatja e következtetés megalapozottságát,123 de az bizonyos, hogy az ír bíróság a tárhelyszolgáltatókra vonatkozó felelősségi szabályok Achilles-sarkára tapintott: a kapuőr nem tudja egyértelműen megállapítani a jogsértő jelleget, ami a túlzott mértékű alkalmazásnak éppúgy teret ad, mint a személyiségi jogi sérelmek orvosolatlanul hagyásának (mint azt az ír eset példája mutatja).

Ami az amerikai jogot illeti, a CDA 230. szakasza a hírnévvédelem tekintetében is érvényesül. A bíróságok már meg is erősítették a Facebook immunitását e tekintetben: a platform nem válik tartalomszolgáltatóvá azáltal, hogy ellenőrzi a felhasználók által feltöltött tartalmat, és adott esetben ennek nyomán megtagadja a vizsgált tartalom törlését, azaz magatartása nem teljes egészében passzív a hivatkozott sérelem tekintetében.124 Az immunitás nemcsak a platformra, hanem a felhasználókra is kiterjedhet, amennyiben nem maguk tesznek közzé rágal­mazó tartalmat, hanem mások sérelmes véleményét továbbítják (a Twitteren retweetelik vagy a Facebookon megosztják). A szabály ugyanis a felhasználót is védi, nemcsak a platform szolgáltatóját. Bár egy zártkörű e-mail-listát üzemeltető felelősségének kérdését érintette, ezzel analóg a Batzel v. Smith-döntés,125 amely szerint a rágalmazó állítást a listán szereplő tagoknak továbbító üzemeltető e cselekedete tekintetében felhasználónak minősül, és egyedül az eredeti e-mail szerzője vonható felelősségre.126

A felhasználók egymás közti jogvitáira nem vonatkozik különös felelősségi szabály, de több szerző arra figyelmeztet, hogy a rágalmazási jog szabályai, doktrínái nem alkalmazhatók maradéktalanul a social medián keresztüli társalgásokra, vitákra. Lyrissa Lidsky és RonNell ­Jones a vélemény fogalmának képlékenységére figyelmeztet, és a New York Times Co. v. Sullivan-döntésből127 eredő tényleges rosszhiszeműség (actual malice) megfelelő értelmezésére hív fel ebben az összefüggésben.128 A véleménynek vagy tényállításnak minősítés a rágalmazási jog egyik kulcskérdése, az előbbi ugyanis – óhatatlan szubjektív jellege, illetve a bizonyítási eljárás alá vetés lehetetlensége miatt – jóval szélesebb körben kaphat védelmet.129 A megfelelő értékelés nemcsak a közzétett szavak nyelvtani jelentése, hanem a kontextus által is formálódik; a social medián keresztüli kommunikáció ebből a szempontból is sajátságos jegyekkel bír. Néhány példa a lehetséges problémákra: 130

– a Twitteren érvényesülő karakterlimit eleve kizárja a kifinomult, részletesen megindokolt állásfoglalások közzétételét;

– a linkelés platformokon érvényesülő ‘kultúrája’ nehezen teszi lehetővé, hogy a linkelt tartalom, amennyiben maga tényállítást tartalmaz, egyúttal a link elhelyezője általi tényállításának minősüljön;

– az üzenetben elhelyezett hashtagek kontextusba helyezik az üzenetet (pl. viccként megjelölve azt), ami adott esetben tompíthatja a sérelmet, így azokat a tényleges üzenettel együtt kell értelmezni;

– a social media nyelvezete informális, kötetlen és közönséges, durva, sértő is lehet, ami a platform kontextusában értelmezendő (lásd még: „ medium is the message” ).

Ami a tényleges rosszhiszeműség követelményét illeti a közéleti vitákban, Courtney Love, amikor saját korábbi ügyvédje perelte be a Twitteren közzétett rágalmazás miatt, a bíróság előtt arra hivatkozott, hogy social media függősége alakult ki, így pszichés állapota miatt nem lehet tényleges rosszhiszeműséggel vádolni. Lidsky és Jones azonban megjegyzik, hogy a rágalmazás joga nem ismeri az őrültség (insanity) védelmét mint a felelősség alóli kivételt.131

Megan Richardson a rágalmakkal szembeni ‘jogon kívüli’ megoldásokra hívja fel a figyelmet: a platformokon gyorsan terjedő rágalmakkal szembeni hasonlóan hatékony ellenkampány fontosságára, ami persze a jogi felelősségre vonással való fenyegetést is magában foglalja,132 ­Jacob Rowbottom pedig a professzionális és az amatőr tartalom-előállítók szimbiózisának következményeire figyelmeztet a rágalmazási jog kontextusában: máshogy tekintünk egy újságíró által írt cikkre, tartalomra, mint a hozzá fűzött olvasói kommentekre vagy az újbóli megosztáskor tett megjegyzésekre.133 A rágalmazási jog ennek ellenére egységes, egyelőre nincs tekintettel ezen újabb kommunikációs formákra és a nyilvános diskurzus nyomukban átalakuló stílusára, tartalmára, a közlés folyamatába beépülő szűrők hiányára és az információkhoz, sőt a valósághoz való eltérő felhasználói, olvasói hozzáállásra.

3.5. A magánszféra védelme

Az utóbbi időben az állami beavatkozástól ritkán fenyegetett gondolatszabadság egyértelműen veszélybe került az új platformok működése következtében. A gondolatszabadság lényege, hogy mindenki maga választhassa meg meggyőződését, szabadon alakíthassa ki véleményét a rendelkezésre álló információk alapján – így a jog a magánélet zavartalanságához, a vallásszabad­sághoz és a szólásszabadsághoz is kötődik. A social media platformok azonban a magánszféra e vetületét kevéssé tartják tiszteletben. Üzleti modelljük a platformokon megjelenő hirdetések célzott terjesztésére épül, amihez ismerni kell a felhasználókat. Ez nemcsak az általuk megosztott, közzétett információkra vonatkozik, amiből a célzott hirdetést lehetővé tevő profiljuk kirajzolódik, hanem a ki nem mondott vagy még meg sem születő gondolataikat is ismerni kell, legalábbis meg kell próbálni kitalálni. Így kerül a felhasználó elé a reklám, amely javaslatot tesz neki arra, hogy mit vegyen meg, melyik szállodában foglaljon szobát, vagy mely weboldalra látogasson el.

A gondolatok nemcsak kitalálhatók, hanem a figyelemfelkeltés által befolyásolhatók, irányíthatók is, amin a felhasználó saját akaratából részben úrrá lehet, de csorbul a teljes döntési szabadsága – minél több információ áll róla rendelkezésre, minél pontosabb a platform által ismert profilja és minél jobban célzott a neki szóló hirdetés, annál inkább.134 Rendkívül aggályos, hogy az adatgyűjtés a nem közölt, gondolat formájában maradó véleményekre is kiterjedhet; ennek példája az el nem küldött, ki nem posztolt üzenetek, tartalmak elemzésének bevonása a felhasználó profiljának összeállításába.135 Így az el nem küldött üzenet sem marad teljesen titokban, ami az offline világban pedig általában magától értetődő. A felhasználók túlnyomó többsége azonban különösebb aggály nélkül adja át személyes adatai kezelésének lehetőségét a platformok szolgáltatóinak, cserébe a személyre szabott, kiváló minőségű szolgáltatásért. Ez a jelenség alapjaiban kérdőjelezi meg a magánszféra-védelem jövőjét, főbb elveinek gyakorlati fenntart­hatóságát.136 Amint azt már láttuk, a platform nemcsak megtippelni képes a felhasználó gondolatait, hanem manipulálni is, amint az a Facebookon zajló hírhedtté vált kísérletből is kiderült.

A magánszférával kapcsolatos szokásos problémák kezelése – például bizalmas informá­ciók közzététele, képmással való visszaélés – a social mediában hasonlóan alakul, mint a hírnévvédelem esetében. A magánélet védelmét biztosító eszközök, kártérítési (tort) tényállások vagy polgári törvénykönyvbeli rendelkezések alkalmazandók a felhasználók egymás közötti jogvitáira. Ezek megfelelő, a szólásszabadság értékére is tekintettel lévő, a közügyek nyílt vitájának érdekét szem előtt tartó alkalmazása fontos, és nincs ez másként a social medián keresztül zajló diskurzusok esetében sem.137

A magánélethez való jog platformok általi megsértését és az adatvédelmi problémákat nem tárgyaljuk itt, mivel csak közvetve érintenek szólásszabadságjogi problémákat. A platform a felhasználóiról gyűjtött adatokat nem teszi közzé, nem hozza nyilvánosságra, igaz, ezek az adatok alapozzák meg utána az érintett felhasználó számára nyújtott szolgáltatás tartalmát – például a Facebook hírfolyamát –, amelyet ha a platform véleményének tekintünk, akkor a szólásszabadságjogi kérdés szorosan összekapcsolhatóvá válik az adatvédelmi problémákkal.138

A social media platformok nehezen tudnak megbirkózni az időközben elhunyt felhasználóik által a platformra feltöltött adatok sorsának kérdéseivel. Az elhunyt fotói, üzenetei, egyéb tartalmai a magánélethez való jog szerint a rokonoktól is megvédendő, de ez a szempont sokszor ütközik a családtagok kegyeleti jogaival, az elhunyttal kapcsolatos emlékek megőrzésének érdekével; ez a konfliktus elvszerűen szinte feloldhatatlan.139

Ahol a platformok felelőssége magánszférasértés tekintetében felmerülhet úgy, hogy ­annak közvetlen kihatása van a szólásszabadságra, az az Eker. irányelvben rögzített értesítési-­eltávolítási eljárás, amely hasonlóképpen alkalmazandó, mint bármely más jogsértő tartalom esetében, azaz ha a magánélet megsértésére hivatkozó értesítést kap, a platformnak kell döntenie az érintett tartalom jogszerűségéről.140 Ezzel a platform egyszerre szerkesztői és bírói szerepbe is kényszerül, dönt a tartalom törlése vagy további elérhetősége ügyében, ezáltal dönt a jogszerűsége felől is. Ez a szabályozás nyilvánvalóan aggályokat vet fel. Ha a platform úgy dönt, hogy nem távolítja el a bepanaszolt tartalmat, maga is perelhetővé válik. A magánfelek közötti jogvita platform és magánszemély közötti jogvitává alakulásának példája az északír CG v. Facebook Ireland Ltd. ügy.141 A Facebookon egy felhasználó létrehozott két olyan oldalt, amelyen pedofil – gyermekekkel szembeni szexuális – bűncselekmények miatt elítélt bűnelkövetők adatait tette közzé. Az egyiken a felperes (a perben anonimizálva, CG néven) fényképe is szerepelt egy beszélgetés mellett, amely a lakcímére is kiterjedt. A felperest valóban elítélték pedofil bűncselekmények miatt, de büntetését kitöltötte, szabadlábon van, és a hatóságok szerint nem jelent veszélyt a társadalomra. A Facebook-oldalak nyomán azonban életveszélyes fenyegetések, zaklatások érték. A róla szóló közlés egyértelműen bizalmas információval való visszaélésnek számított, a Facebook azonban jelzése ellenére nem távolította el őket, arra hivatkozva, hogy nem a megfelelő formában kapta meg az értesítést, az ugyanis nem a saját rendszerén keresztül, hanem levélben érkezett meg hozzá. A bírósági ítélet rögzítette, hogy az értesítés formáját a platformszolgáltató nem szabhatja meg, csak maga az értesítés megtörténte számít, így a levél megérkeztétől a tartalom eltávolításáig terjedő időben (mert utóbb az mégiscsak megtörtént) a Facebook jogsértő volt.142

A social media platformok nemcsak a felhasználók számára biztosítanak széles körű lehetőséget a véleménynyilvánításra, hanem a munkáltatók számára is a munkavállalóik ellenőrzésére. Ha a munkáltató úgy véli, hogy a róla közzétett vélemény sérelmes volt az érdekeire nézve, szankcióval sújthatja a véleményt kinyilvánító munkavállalóját, ezt példázza a fentebb, a 2.1. alpontban már érintett Bland v. Roberts ügy is.143 Az angol joggyakorlatból levonható következtetés szerint a munkavállaló szólásszabadsága széles körű védelmet élvez – a magántermészetű vagy közügyben kifejtett, a munkáltató érdekeit nem sértő vélemény nem szankcionálható. Ilyennek tekinthető, ha a vélemény a szólásszabadság védett határain belül marad, és egyénként sem tudható be a munkáltató véleményének, a nevében közzétett ‘hivatalos’ álláspontnak.144 Az amerikai jogot fókuszba helyezve Cara Magatelli amellett érvel, hogy munkaidőn kívül a munkavállaló bármilyen tevékenységet végezhet, amely nem jogszerűtlen, és nem sérti a munkáltató legitim gazdasági érdekeit.145 A munkaidőn belüli Facebook-használat természetesen más módon ítélhető meg, de ott az esetleges szankcionálás oka nem a közzétett üzenet, hanem a munkaidő helytelen felhasználása lesz. A strasbourgi bíróság nagytanácsa a Bărbulescu v. Romania ügyben megállapította,146 hogy a munkavállaló e-mail-fiókjának figyelése sértette az Emberi ­Jogok Európai Egyezménye 8. cikkében foglalt, a magánélet tiszteletben tartásához és a levelezéshez való jogot. Noha ez nem a social media használatához kapcsolódó jogeset volt, a döntés fontos következményekkel jár általában a munkavállalók munkahelyi online magánszférájához való jogait illetően, emiatt bír jelentőséggel elemzésünk szempontjából is. A bíróság szerint a kérelmezőt nem tájékoztatták a munkaadó ellenőrző tevékenységének köréről és természetéről, illetve arról, hogy esetleg hozzáférhet a közlések tartalmához. A strasbourgi jogorvoslati fórum rámutatott, hogy a helyi bíróságok nem fordítottak kellő figyelmet sem az ellenőrzés körére és mélységére, sem pedig arra, hogy volt-e ehhez jogalap. Nem jelölték meg e szigorú ellenőrzés sajátos célját, és nem vizsgálták a kérelmezőt érintő következmények súlyosságát, ahogyan azt sem, hogy milyen más, kevésbé tolakodó eszközöket lehetett volna alkalmazni.

Mary-Rose Papandrea egy cikkében sajátos kérdést feszeget, mégpedig azt, hogy kommunikálhat-e a munkavállaló munkaügyben (mintegy munkája részeként) másokkal a social medián keresztül. E kérdés különösen érzékeny problémára tapint rá a tanár-diák viszonylatban. Ha a munkáltató megtiltja a tanár számára a diákokkal való kapcsolattartást (megelőzendő a helytelen kommunikációt és a viszonyok kialakulását), az a tanár szólásszabadságát korlátozza még akkor is, ha nem oktatási ügyben kíván diákjaival beszélni. A szólásszabadság indokolt esetben természetesen korlátozható, de csak a megfelelő tesztek alkalmazásával.147 A social media használatának szabályozása egyébként nem idegen a munkahelyi közösségek számára, és nem is igen kifogásolható azon esetekben, amikor a munkáltató jogos érdeke a dolgozók tevékenységének szabályozása e tekintetben, amennyiben posztjaik, tweetjeik a munkáltató véleményeként jelennek meg. Ezen okból vezette be a The New York Times saját újságírói számára a social media használatára vonatkozó irányelveit; egyáltalán nem pikantéria nélkül való az, hogy a hagyományos média újságíróinak social mediabeli tevékenysége szabályozás alatt áll, de könnyen indokolható. Ahogy maguk az újságírók is mondják: amit ők tesznek közzé, még ha magánemberként is, az az újság véleményeként tűnik fel.148

3.6. Fenyegetés, gyűlöletbeszéd és más erőszakos, a közrendet sértő tartalmak

Az online kommunikáció sajátosságai időnként új bűncselekményi tényállások bevezetését teszik szükségessé. A mobileszközök és az internet kora előtt – a VHS-kazetták és a hagyományos fényképezés idején – senki nem gondolta volna, hogy a revenge porn jelensége ennyire elterjedtté válhat, ma pedig a korábbi partnerekről készült felvételek hozzájárulás nélküli közzététele, amely a social media platformokon is tömegesen fordul elő,149 számos országban önálló bűncselekménynek minősül.150

A social media platformokon közzétett fenyegetésekre, gyűlölködésre, zaklatásra, illetlen tartalmakra ezen túlmenően értelemszerűen éppúgy vonatkoznak az általánosan előírt tilalmak, mint ha e cselekményeket az offline világban vagy más technológia alkalmazásával követték volna el. A brit Communications Act 2003 például tiltja a közhasználatú elektronikus hírközlési hálózat „nem megfelelő használatát”.151 A tényállás szerint bűntettet követ el az, aki „súlyosan sértő vagy illetlen, trágár vagy fenyegető üzenetet vagy más anyagot közhasználatú elektronikus hálózat segítségével küld el”. A „súlyosan sértő” magatartás pontos meghatározásában segít a DPP v. Collins ügyben hozott Lordok Háza-döntés.152 Az eset ugyan nem social medián, hanem a telefonhálózaton keresztül küldött rasszista üzeneteket érintett, de fontos, és más technológia hasonló használatára nézve is irányadó lehet Lord Bingham megközelítése: a szavak közzétételének kontextusa az ügy megítélésének fontos szempontja, az alkalmazandó teszt szerint pedig azt kell felmérni, hogy az üzenet súlyosan sértő-e azok számára, akikre vonatkozik.153 A sértések számának növekedésével és terjedésének sebességével a social media platformokon tovább erősödik a feszültség e teszt alkalmazása és a szólásszabadság érvényesülése között. A social media a gyors, sokszor meggondolatlan, tömeges és kontroll vagy szűrő nélküli véleménynyilvánítás terepe.154

Amikor 2012-ben egy walesi futballista, Daniel Thomas homofób üzenetet tett közzé Twitter-oldalán a brit olimpiai műugrócsapattal kapcsolatban,155 a Director of Public Pro­secutions (DPP) véleménye szerint az üzenet sértő volt, de nem „súlyosan sértő”, mert szerzője humorosnak szánta, és a saját követőinek küldte (főleg barátoknak és családtagoknak), nyilvánosságra kerülését követően gyorsan eltávolította, megbánást tanúsított, a futballcsapata is megbüntette, a megcélzott műugrók pedig nem szerepeltek a címzettek között, csak a nyilvánosságra kerülést követően szereztek tudomást az üzenetről.156 Ebből pedig az következik, hogy a social mediabeli beszéd kontextusa egészen tágan értelmezve fontos és vizsgálandó szempont a bűncselekménnyé minősítést megelőzően. Más esetekben azonban a viccnek szánt megjegyzések nyomán börtönbe került a szerzőjük, igaz, a pályán szívrohamot kapott fekete futballistán viccelődő szerző más felhasználókkal vitába keveredve további rasszista és sértő megjegyzést tett, magatartása tehát nem tekinthető egyszeri és a kontextus ismeretében bűncselekményként nem értékelendő ‘hibának’.157

A Chambers v. DPP ügyben a Communications Act 2003 127. szakasza 1. bekezdésének a) pontja szerinti másik tényállási elemet, az üzenet fenyegető jellegét kellett a bíróságnak megítélnie.158 Paul Chamberst azért vádolták meg és ítélték el, mert a doncasteri Robin Hood reptér felrobbantásával ‘fenyegetőzött’, amikor azzal szembesült, hogy a kedvezőtlen időjárás miatt törölték a járatát. Az ügy Angliában „Twitter-joke trialként” híresült el, mert valójában soha nem állt fenn annak veszélye, hogy Chambers beváltja meggondolatlan fenyegetését.159 Az, hogy az alsóbb fokú bíróságok elítélték, annak volt a következménye, hogy szerintük az üzenet önmagában fenyegető volt, egy átlagember annak tekinthette, és aggodalmat válthatott ki be­lőle.160 A Legfelső Bíróság végül felmentette a vádlottat valós fenyegetés hiányában, tekintve, hogy az üzenet nem volt alkalmas félelem és nyugtalanság előidézésére azokban, akiknek küldték, vagy akik láthatták.161 Az embert, aki kutyáját náci ‘karlendítésre’ tanította, és erről a YouTube-on videót tett közzé, 800 angol fontra büntették az üzenet súlyosan sértő jellege ­miatt.162

Más szabályok is érinthetik a social mediában megjelenő meggondolatlan üzeneteket, például a Malicious Communications Act 1988, amely a másoknak elektronikus hírközlési háló­zaton keresztül küldött illetlen, súlyosan sértő, fenyegető üzenetek stb. küldését szankcionálja,163 a Public Order Act 1986 pedig a fenyegető, zaklató vagy sértő szavak használatát vagy magatartás tanúsítását, illetve a rasszista és vallási alapú gyűlöletbeszédet is tiltja.164 Az általános büntető- vagy más közrendvédelmi szabályok tehát a social media kontextusának és sajátos módon, egyedileg alakuló nyilvánosságának figyelembevételével, megfelelően alkalmazandók.165

A fenyegetés megvalósulása volt a kérdés az Egyesült Államok Legfelső Bírósága által eldöntött Elonis v. the United States ügyben is.166 Anthony Elonis a válása közepén volt, amikor több Facebook-posztot tett közzé feleségével, munkatársaival, a szövetségi bűnüldöző szervekkel és egy óvodai csoporttal kapcsolatban is, külön-külön meggyilkolásukkal, illetve óvodai lövöldözéssel fenyegetve. Az alsóbb fokú bíróságok a másoknak sérelemokozással való fenyegetés közzétételének szövetségi bűncselekménye miatt ítélték el.167 Elonis arra hivatkozott, hogy az üzeneteket rapszövegként tette közzé, Eminem zenéje által inspirálva, így a szólásszabadság ­védelmét élvezik.168 A Legfelső Bíróság végül nem foglalkozott az Első Alkotmánykiegészítést közvetlenül érintő kérdéssel, hanem azt vizsgálta, hogy a büntető tényállás alapján az elkövető megfelelő tudatállapota (a fenyegetés szubjektív szándékossága arra, hogy valakit megfenyegessen), a közzétett szavak fenyegető jellege vagy egy észszerűen gondolkodó személy általi fenyegetésként értelmezés elegendő-e a bűncselekmény megvalósulásához.169 Kívánta-e az elkövető a megcélzott személyek sérelmét, megvolt-e a „bűnös tudata” (mens rea)? A Legfelső Bíróság szerint a tényállást biztosan kimeríti az az eset, amikor az elkövető „azzal a céllal közöl valamit, hogy fenyegessen, vagy annak tudatában teszi ezt, hogy a közleményt fenyegetésnek fogják tekinteni”.170 Az elkövető szándékát az alsóbb fokú bíróságok nem vizsgálták, de mivel a szavak jelentéséből és az észszerűen gondolkodó címzettek általi megértéséből indult ki, a Legfelső ­Bíróság megváltoztatta a korábbi döntéseket, és felmentette a vádlottat.

Bár az Elonis-ügy is arra utalt, hogy a kontextus számít, a sértő üzenetet közzétevő szán­dékának vizsgálata nehéz helyzetbe hozza a social media platformokat. Nekik Európában tárhelyszolgáltatóként értelemszerűen kötelességük a fenyegető, gyűlölködő, közrendbe ütköző tartalmak eltávolítása, amint tudomást szereznek róluk. Szövetségi bűncselekmény esetén a CDA 230. szakasza sem biztosít mentesülést, és az Egyesült Államokban is a platform kötelessége az ilyen tartalmak eltávolítása. Ha azonban valóban csak a jogsértő tartalmakat kívánnák törölni, akkor szükségessé válhat a teljes kontextus és a közlő szándékának vizsgálata is, amire a platformszolgáltatóknak egyébként nincsen – valamennyi lényeges körülményre kiterjedően – valós lehetőségük.171

A valós fenyegetés és a közvetlen veszély amerikai doktrínájának nehézkes alkalmazhatóságára mutat rá Daniel Harawa is.172 A platformokon használt közvetlen, informális és sokszor vulgáris nyelvezet sajátos módon kétségeket ébreszt egy-egy fenyegetés valós jellegét illetően, a veszély közvetlensége pedig nehezen értelmezhető akkor, ha fizikailag távol lévő emberek között zajlik a kommunikáció. Ez még a terrorizmust támogató tartalmakkal szembeni fellépést is megnehezíti,173 miközben a terrorizmus támogatása mint szövetségi bűncselekmény szintén kivételt képez a CDA 230. szakasza alól, így a platformoknak kötelességük fellépni ezekkel szemben.174 Egy-egy terrortámadás áldozatainak családtagjai pereket is indítottak már a platformokkal szemben a nem kellően erélyes fellépés miatt, összefüggést vélelmezve a gyilkosságok és a platformon keresztül zajló kommunikáció között.175

A social mediabeli kommunikáció helyes megítélése céljából Rowbottom javasolja az alacsony szintű beszéd (low level speech) kategóriájának bevezetését a jogalkalmazást vezérlő doktrínák közé. A magas és alacsony értékű beszéd megkülönböztetése már ismert – például a közügyek vitái tartoznak az előbbi körbe, a pornográfia vagy a kereskedelmi beszéd pedig az utóbbiba. A doktrína szerint minél inkább egy közügy vitáját érinti a megszólalás, annál ‘értékesebb’, annál szigorúbban védendő. Az új kategória nem a beszéd tartalmát, hanem közzété­telének kontextusát érinti, így a social mediában zajló vitákat, veszekedéseket, fenyegetéseket, a gyűlölet kifejeződéseit a platformon keresztül zajló kommunikáció általános jellegzetességeit értékelve ‘alacsony szintűnek’ minősítené, és kevésbé szigorúan korlátozná, mint például a hagyományos médiában vagy a jelenlévők között elhangzó hasonló tartalmú beszédet.176 Paul Bernal pedig a rágalmazó állítások alapjául szolgáló források erőteljesebb értékelésének kérdését veti fel: ha egy forrás okkal tekinthető megbízhatónak, a social media felhasználó pedig az onnan származó információt továbbította, akkor utóbb indokolatlan a felhasználót felelőssé tenni a rágalmazó információ továbbadásáért.177

Egyes európai államok nem érik be a platformszolgáltatókat terhelő, az Eker. irányelv 14. cikkéből következő eltávolítási kötelezettséggel, hanem azzal párhuzamosan további terheket is rónak rájuk. A német törvény jár ebben elöl, amely 2018. január 1-je óta hatályos.178 A törvény szerint a hatálya alá tartozó (2 milliónál több németországi felhasználóval rendelkező) platformszolgáltatóknak egyes, a törvényben kifejezetten nevesített bűncselekményt megvalósító felhasználói tartalmakat el kell távolítaniuk a rendszerükből. Ilyennek minősülnek többek ­között a rágalmazó, gyűlöletet keltő, holokauszttagadó, rémhírterjesztést megvalósító tartalmak.179 Ha az érintett tartalom „nyilvánvalóan jogsértő”, akkor az értesítéstől számított 24 órán belül, ha pedig ‘csak’ jogsértő, akkor 7 napon belül kell törölni.180 Ha ezt a platform elmulasztja, bírságot kaphat, amelynek maximuma (elvben, sokszoros és súlyos mulasztás esetén) 50 millió euró.181 Egyes nézetek szerint a szabályozás ellentétes az Eker. irányelvvel, mert nem egyedi esetekben, hanem általánosan képez kivételt a szolgáltatások szabad áramlása alól. A kivétel tagállami hatóság általi alkal­mazásához az irányelv ráadásul sürgős helyzetet vár el, a német törvény viszont nem konkrét tartalmakra vonatkozik, így nem is felelhet meg e kritériumnak.182 A német törvényt a szólásszabadságért aggódók súlyos kritikája fogadta,183 bár valójában nem megy sokkal messzebb, mint az uniós irányelv, inkább csak pontosítja annak tartalmát, lefekteti a követendő eljárás szabályait, és persze súlyos szankciókkal fenyegeti a platformokat. A szabályozás mindenesetre a gyakorlatban érvényesül, a Facebook is engedelmesen eleget tesz a belőle fakadó kötelezettsé­geinek.184 A német szabályozás példája is jól mutatja az általános hatályú törvények és a plat­formokra vonatkozó speciális szabályozás furcsa, nehezen elkerülhető együttélését és az állami törekvést arra, hogy a platformokat a felhasználói tartalmak jogszerűségének bírájává ­tegyék.

3.7. A hamis hírek

A „hamis hírek” 2016 óta vált széles körben használt kifejezéssé, az amerikai elnökválasztási kampányhoz kapcsolódóan – e kifejezést itt a propaganda azon fajtájára használjuk, amelyik a hagyományos hírcsatornákon vagy az online (social) média segítségével terjeszt széles körben tévinformációkat. Legismertebb példája talán az úgynevezett pizzagate, a demokrata elnökjelöltről, Hillary Clintonról terjesztett hír, miszerint egy washingtoni pizzériában gyermekkereskedő hálózatot működtet. Az étterem tulajdonosa és dolgozói halálos fenyegetéseket kaptak, egyvalaki pedig a gyermekek megsegítésére érkezett fegyverrel, amelyet el is sütött az étteremben.185 A hamis hírek és a félrevezetés korában eszünkbe juthat egy 20. századi anekdota. ­Szilárd Leó, a fizikus és feltaláló 1933-ban rájött a nukleáris láncreakció nyitjára, szabadalmaztatta az atomreaktor ötletét, majd részt vett a Manhattan-tervben, amelynek során megépítették az atombombát. Hans Christian von Baeyer szerint „a fizikus Szilárd Leó azt mondta Hans Bethének, hogy azon gondolkodik, hogy naplót kellene vezetnie. »– Nem akarom megjelentetni. Pusztán csak Isten tájékoztatása végett szeretném lejegyezni a tényeket. – Nem gondolod, hogy Isten ismeri a tényeket? – kérdezte Bethe. – Ismeri, de nem ezt a változatot!« – felelte Szilárd.” 186

A tények szabad meghatározásának szándéka tehát nem új keletű,187 ahogyan a valótlan tények médiabeli megjelenése sem az.188 A social media korában ezek mennyisége és terjedési sebessége jelent csak újdonságot, de ezek miatt a hamis hírekkel szembeni hatékony jogi fellépés szinte lehetetlen. A fellépés első szóba jöhető eszköze a szólásszabadság legitim korlátainak megfelelő alkalmazása. A United States v. Alvarez ügyben azonban kiderült, hogy az Egyesült Államok joga a valótlan állításokat is védelem alá helyezi.189 A védelem annál erősebb, minél inkább közügyek tárgyalását érinti.190 A döntés szerint a valótlan állítások ellenszere a megfelelő válasz, a beszélővel szembeni vitába szállás.191 A rágalmazási jog persze bizonyos mértékig lehetőséget ad a megrágalmazottal szembeni fellépésre, a közügyek vitájában a New York Times Co. v. Sullivan ügy mércéje szerint,192 azaz a tényleges rosszhiszeműség (actual malice) bizonyítása esetén. (Hillary Clinton ennek megfelelően eséllyel kísérelhette volna meg sérült hírnevének helyreállítását, de a hír terjedésének sebessége, az azt megosztók, továbbítók tömege, valamint a kampányban rendelkezésre álló rövid idő eleve ellehetetlenítette ennek tényleges megtörténtét.) Ezen túlmenően más kártérítési tényállások, például az érzelmi megrázkódtatás szándékos okozása193 is alkalmas lehet a hamis hírekkel szembeni fellépésre, ha az a célpontnak ilyen sérelmet okoz.194 A social media platformokat pedig védi a CDA 230. szakasza, így azok még csak a hamis hír eltávolítására sem kötelezhetők.195

Az európai jogrendszerek valamelyest szélesebb körben engednek fellépést a hamis hírekkel szemben (a rágalmazás, a gyűlöletbeszéd vagy a rémhírterjesztés tilalma alapján), a tárhely­szolgáltatói felelősség miatt a platformok pedig kötelezhetők a náluk kifogásolt jogsértő tartalmak eltávolítására, de ezen eszközök önmagukban aligha alkalmasak a helyzet megnyugtató kezelésére. Az EU 2017 óta több dokumentumban is foglalkozott a kérdéssel. E dokumentumokban közös, hogy ajánlásokat fogalmaznak meg a platformszolgáltatók számára a hamis hírekkel szembeni hatékonyabb fellépés érdekében, tehát alapvetően az önszabályozásra építenek, egyúttal óvakodnak az új, kötelező jogi szabályok bevezetésének felvetésétől. Ezzel párhuzamosan érintetlenül hagynák a tárhelyszolgáltatói felelősségnek az Eker. irányelvben lefektetett alapjait, így nem várnak el teljes körű előzetes ellenőrzést vagy monitorozást a platformok szolgáltatóitól. Az államokkal szemben mindenesetre szigorúbb elvárásokat fogalmaznak meg, de azok nem a platformokkal szembeni szigorúbb felelősségi szabályokat, hanem elsősorban a működésük szorosabb felügyeletét és a tudatos internethasználatot célzó programok bővítését érintik.

A jogellenes tartalmakkal szembeni fellépésről szóló közlemény azonban rögzíti azon kívánalmat, hogy a platformok ne csak értesítés esetén, hanem a nélkül is, proaktív módon lépjenek fel a jogsértésekkel szemben, ami azonban nem vezethet a felelősség alóli mentesülés elvesz­téséhez (azaz ezzel együtt sem viselnek szerkesztői felelősséget a felhasználói tartalmakért).196 A közleményt követő ajánlás megerősíti az indokolt esetekben alkalmazott, arányos proaktív intézkedések elvárását, amely a jogellenes tartalmak azonosítása érdekében automatizált eszközök alkalmazását is lehetővé teszi. 197

A hamis hírekkel és az internetes félretájékoztatással foglalkozó magas szintű munkacsoport 2018 márciusában tette közzé jelentését,198 amely a címe ellenére kifejezetten az internetes félretájékoztatással összefüggésbe hozható problémákra, tehát nem a hamis hírekre fókuszált, annak kategóriája ugyanis a szerzők szerint nem foglalja magában teljes egészében a félretájékoztatás okozta valamennyi problémát.199 A jelentés a félretájékoztatást „haszonszerzés vagy szándékos, nyilvánosság előtti károkozás céljából előállított, közzétett és terjesztett helytelen, pontatlan vagy félrevezető információként” határozza meg.200 A definíció pontos, de a jelentés óvakodik az állami szabályozás kérdésének felvetésétől, és teljes egészében a platformok által önkéntesen alkalmazható, rendelkezésükre álló eszközök, lehetőségek áttekintéséből áll. A jelentés leglényegesebb pontja az az alig burkolt fenyegetés, hogy a munkacsoportot megbízó ­Európai Bizottság 2019 tavaszán újravizsgálja a kérdést, az időközben bevezetett önszabályozási mechanizmusok, a platformok esetlegesen módosult irányelveinek hatását, és ha szükséges, további kezdeményezésekkel él, amelyek magukban foglalhatják akár a versenyjogi vagy más jogi eszközök alkalmazását is.201

A bizottság a magas szintű munkacsoport jelentésére alapozva, rendkívüli sebességgel, már 2018 áprilisában közzétette közleményét az online félretájékoztatás kezelésével kapcsolatban.202 E dokumentum megerősíti a platformok által önként alkalmazott eszközök elsődlegességét, egyúttal szelíd erőszakkal együttműködésre próbálja kényszeríteni az érintett szolgáltatókat (egy, a bizottság által összehívott fórum formájában). Ha az önkéntes vállalások nem lesznek kellően hatékonyak, felmerülhet majd a jogi szabályozás szüksége.203 A platformok önként vállalt kötelezettségeit tartalmazó kódex (Code of Practice) tervezetét 2018 júliusában tették ­közzé.204

Az egyes európai uniós tagállamok által bevezetett vagy elfogadni tervezett új szabályo­zások szintén igyekeznek nem felborítani a közös európai szabályozás jelenlegi logikáját, az értesítési-eltávolítási eljárás alapjait megtartva, az eljárási szabályok és a szankciók szigorításával igyekeznek kezelni a kérdést. A már említett német törvény ennek megfelelően nem általában a félretájékoztatással szemben, hanem a német büntető törvénykönyvbe ütköző tartalmakkal szembeni fellépést teszi lehetővé.205 A tervezett francia törvény pedig a hamis hírekkel szembeni fellépésként 48 órán belüli bírósági döntéshozatalt irányozna elő, azonban kizárólag választási kampányidőszakban.206

4. Magánszabályozás a platformok által

4.1. Bevezetés

Az előző, 3. pontban azon eseteket tekintettük át, amikor az állami szabályozás kényszeríti egyfajta szerkesztői szerepbe a social media platformokat, döntést várva tőlük a tartalmak jogel­lenessége felől, és ennek megfelelően adott esetben eltávolításukra kötelezve őket. Jelen pont ennek a tevékenységnek a másik oldalát mutatja be, vagyis azt, amikor a platformok saját szándékaik szerint járnak el és döntenek a felhasználói tartalmak ügyében. Jack Balkin ezt magánirányításnak (private governance) nevezi,207 mások keményebben fogalmaznak, és a „magáncenzúra” (private censorship) kifejezést használják,208 de nevezhetjük magánszabályozásnak is. Azon esetekről van szó, amelyekben a platformszolgáltató a platformhoz fűződő tulajdonjoga és a felhasználókkal kötött szerződése alapján, a tevékenységére vonatkozó jogszabályok által védett vagy engedett módon befolyásolja a felhasználók által a platformon közzétett tartalmak nyilvánosságra jutását vagy további elérhetőségét.

Amint arra Balkin figyelmeztet, az állami szabályozásnak való megfelelés és a magánszabályozás egymástól élesen elválasztva nem értelmezhetők megfelelően, ugyanis az állami szabályozás magánszabályozásra ösztönzi a platformokat, mert azok abban érdekeltek, hogy lehetőleg megelőzzék a számukra terhes állami beavatkozást.209 Az állami ‘ösztönzés’ jelentheti akár a közvetett nyomásgyakorlást is.210 Ennek jelentősége nem elhanyagolható, mert mennyiségileg ma már sokkal több beszéd és vélemény jelenik meg a social mediában, mint a hagyományos média felületein, és ugyan e fórumok tulajdonjogi értelemben – illetve a jogi doktrínák megközelítése szerint – ezzel együtt sem tekinthetők közfórumnak,211 abban az értelemben mégis azok, hogy a közügyek vitáinak, a társadalmi nyilvánosságnak fontos helyszínei.212

A platformszolgáltatóknak ezen túlmenően egyéb motivációi is vannak a magánszabályozás alkalmazására. Ezek közül evidens módon a legfontosabb a gazdasági érdekeik védelme. ­Abban érdekeltek, hogy a felhasználók biztonságban érezzék magukat, amíg a platformot használják, és lehetőleg ne találkozzanak sértő, felháborító vagy zavaró tartalmakkal. Ezek moderálása és törlése nem a szólásszabadság jogi korlátainak figyelembevételével történik, azaz olyan tartalmak is törölhetők e logika alapján, amelyeket a jogi szabályozás egyébként védene, illetve nem feltétlenül törlik azokat, amelyek egyébként túllépnek a szólásszabadság védett határain. A jellemzően amerikai székhelyű és tulajdonú platformok érdekes, skizofrén helyzetben vannak: miközben tevékenységüket az Első Alkotmánykiegészítés és a CDA védi, és fejlesztőik, dolgozóik maguk is az amerikai szólásszabadság-kultúra emlőin nevelkedve látszólag annak alapvetéseit vallják, az általuk alkalmazott magánszabályozás jóval kevésbé védi a nyilvános beszédet, mint az amerikai jogrendszer.213 Ebből a zavaros helyzetből, európai szemmel nézve, furcsa következmények fakadnak. Például a holokauszttagadást Európában széles körben tiltják, az Első Alkotmánykiegészítés által viszont védett beszédnek minősül. A szólásszabadság zászlóját lobogtató Mark Zuckerberg ennek megfelelően nem kívánja tiltatni az ilyen megnyilvánulásokat a Facebookon,214 de a német kormány jelzi neki, hogy ez ennek ellenére a kötelességei közé tartozik.215 Bizonyos értelemben a Facebooknak nincs más választása, mint igazodni a német (és általában az európai) szabályozáshoz, különben felmerül tárhelyszolgáltatói felelőssége, ­illetve a tagállami jogszabályok alapján is büntethetővé válik (a büntető törvénykönyv szerint akár személyesen a platform tulajdonosa, akár a platform működését érintő speciális szabályozás alapján maga a működtető jogi személy). Másfelől a Facebook olyan tartalmakat is töröl, amelyek megkérdőjelezhetetlenül védettek még az európai szólásszabadság szerint is, annak érdekében, hogy biztonságos teret biztosítson felhasználóinak.216

A magánszabályozás egyik fő problémája tehát az állami szabályozáshoz képest részben szigorúbb, részben megengedőbb, egyúttal ennek következtében kiszámíthatatlan tartalomszabályozás. A másik fő gond a döntéshozatalra vonatkozó megfelelő eljárás hiánya, ami jobbára nélkülözi a jogi eljárásokban érvényesülő alkotmányos garanciákat, például az érintett felhasználó megfelelő értesítését, a fellebbezési lehetőséget, a nyilvános eljárást, a megismerhető döntéshozót, az írásba foglalt és megismerhető döntést stb. A „megfelelő eljárás” (az amerikai alkotmányjogban a due process,217 Európában a tisztességes tárgyaláshoz való jog, azaz a right to a fair trial 218) hiánya jelentősen hozzájárul a magánszabályozás alkalmazásával született döntések átláthatatlanságához és a nyilvánosság fontos fórumain érvényesülő szabályok mibenlétének bizonytalanságához.

A magánszabályozás nem csak a platform által nemkívánatosnak tekintett tartalmak törlése által valósul meg. Ennél jóval jelentősebb hatású, és nem az egyedi tartalmak vonatkozásában, hanem a teljes tartalomfolyamot érintő módon történhet az egyedi felhasználó szeme elé táruló tartalmak szerkesztése, platform általi sorrendbe állítása, egyes tartalmak előtérbe helyezése, mások elrejtése. Ezzel a platform növeli a jól látható tartalmak népszerűségét és hatását, más tartalmakat pedig képes marginalizálni, hatásukat csökkenteni. Mindez a személyre szabott szolgáltatásnyújtás szellemében, az egyéni (a platform által vélt) felhasználói igények kiszolgá­lása érdekében történik, és szoros összefüggésben áll a szóban forgó felhasználóról gyűjtött ­adatokkal, korábbi online jelenlétével, a platform által kialakított profiljával. A felhasználó így tudtán kívül és ténylegesen kifejezett akarata hiányában is befolyásolja a számára nyújtott szolgáltatás tartalmát, miközben a platform maga is aktívan hat a felhasználói akaratra, illetve képes a felhasználó befolyásolására. Ennek pedig következményei vannak nemcsak a felhasználó mint fogyasztó döntéseire, hanem a közügyek vitájára, az információkhoz jutásra és a vélemények sokszínűségére, azaz a demokratikus nyilvánosság minőségére nézve is.

4.2. A magánszabályozás jogi alapja: szerződési feltételek

A szólásszabadság érvényesülése a social media platformokon sokkal inkább múlik a platformok által alkotott szabályokon és azok gyakorlati alkalmazásán, mint a szólásszabadságra mint alapvető jogra vonatkozó állami (jogi) szabályozáson. A platformok irányelvei, szabályzatai és felhasználási feltételei gyors és tömeges döntéseket eredményeznek, amelyekkel az esetlegesen induló, lassan folyó jogi eljárások hatása nem vetekedhet. Marvin Ammori megállapítása szerint a platformszolgáltató jogászai óriási hatást gyakorolnak a szólásszabadságra, és ez a hatás globális szintű.219

Amint az előző pontban említettük, ez a magánszabályozás – amelynek fő szempontja a szolgáltató gazdasági érdekeinek védelme – nem az Első Alkotmánykiegészítés doktrínáinak világszintű kiterjesztést jelenti, bár egyes elemeit tekintve felfedezhetők benne az amerikai szólásszabadságjog szempontjai. Azonban a platformok globális jellegéhez igazodva ugyanígy megjelennek benne a más államok szólásszabadságot érintő jogi szabályozásának és célkitűzéseinek elemei is, illetve még akár azokon is túlnyúlhat.220 Az üzleti jellegű célokon kívül a platformok más, emelkedettebb, társadalmi célt is maguk elé tűzhetnek. Zuckerberg ennek megfelelően beszélt például a Facebook „társadalmi missziójáról”, amely „a világ információs infrastruktúrá­jának” újraszervezésében ölt testet egy olyan hálózat révén, melynek szabályait alulról – azaz a felhasználók szintjéről – határozzák meg, ellentétben az állami szabályozás felülről oktrojált szabályaival.221 E célkitűzés legalábbis meglepő annak fényében, hogy a platformon érvényesülő szabályokat a Facebook alkotja (mégpedig felülről lefelé a felhasználóknak előírva, éppúgy, mint egy állam), és a felhasználók hírfolyamát is maga állítja össze, igaz, a felhasználók által befolyásolt módon. De ez az utóbbi körülmény nem változtat azon, hogy a Facebook képes a tartalmak cenzúrázására (ami természetesen, tulajdonjogából fakadóan, nem vehető egy kalap alá az állami cenzúrával), és gyakorolja is e jogát.222

A platform és a felhasználó közötti szerződés – a platformokra vonatkozó tulajdonjogon kívül – az a jogi alap, amelyre építve a platformok beavatkozhatnak felhasználóik szólásszabadságába. E szerződések tartalmát a platform maga határozza meg, megváltoztatását a felhasználó nem kérheti, a megkötés után a platform egyoldalúan módosíthatja, és a szerződés minden felhasználóval azonos tartalommal jön létre. Annak ellenére, hogy a szerződés és az annak alapján eszközölt beavatkozás alkotmányos jog gyakorlását érinti, a platformon pedig tömegesen és pillanatnyi szünet nélkül zajlik sok-sok vita, beszélgetés, információcsere, amelyek közügyeket is érintenek, a platform beavatkozása nem tekinthető ‘állami cselekvésnek’, a platform maga pedig nem közfórum.223 Amit a platform tesz, adott esetben felhasználója véleményét korlátozva, az nem tudható be az államnak, így a szólásszabadság alkotmányos garanciája sem állhat neki ­ellen.224

Az alkotmányos doktrínák helyett tehát, némileg kijózanító módon, a szerződési jogban kell keresnünk a megoldást akkor, ha a platformszolgáltató és a felhasználó között érdekellentét, vitás helyzet áll elő, amely érinti a szólásszabadság érvényesülését.225 Ha a felhasználó úgy dönt, hogy regisztrál a platformra, és egy egyszerű kattintással elfogadja a szerződési feltételeit, a magánszabályozás ‘hatálya’ alá kerül, beleértve a tartalmat érintő szabályokat is, és a platformhoz fűződő viszonyában már nem érvényesülnek a szólásszabadság garanciái.226 Márpedig a nagy platformok szerződései alaposan átgondolt, precízen megírt – vagy, a szolgáltató mérlegelési lehetőségeit növelve, tudatosan elnagyolt rendelkezéseket tartalmazó – dokumentumok. Michael Rustad és Thomas Koenig összehasonlító elemzése részletes képet rajzol e szerződési feltételekről.227 A vizsgálat számos fogyasztóvédelmi jellegű problémát tárt fel, például a szöveg nehezen érthető voltát, a szerződésben megnevezett bíróságnak való alávetés rendelkezését, amely megnehezíti, hogy a felhasználó pereljen, a bizonytalan tartalmat stb.

A Facebook felhasználási feltételeinek 3.2. pontja kötelezővé teszi a szintén a szolgáltatás által kialakított közösségi alapelveknek való megfelelést, a szerződés részévé téve a szabályzatot.228 A szabályzat tartalommal kapcsolatos előírásairól majd a következő pontban szólunk, egyelőre elég annyi, hogy ezen előírások első ránézésre olyanok, mintha jogszabályok lennének, csak elnagyoltak, pontatlanul vannak megfogalmazva, és néhol kissé csapongónak, túlzottan terjengősnek, bizonytalan tartalmúnak tűnnek. Ez a szabályzat a Facebook-felhasználó szólásszabadság-kódexe, amelyet elfogad, és ezzel aláveti magát a Facebook-moderátorok ellenőrzésének és döntéshozatalának is.

Formáljogi és alkotmányos szempontból a platform működésének ezen aspektusával szemben nem emelhető kifogás. A jogi szabályozás jelenleg nem bocsát erős eszközöket a felhasználó rendelkezésére, ha vitába keveredik a platformmal. Az amerikai CDA 230. szakasza ugyan a magánszabályozás (magáncenzúra) ellen motiválja a platformokat, amikor immunitást biztosít számukra a jogellenes tartalmakkal kapcsolatban felmerülő felelősség tekintetében, de nem tiltja a magáncenzúrát.229 Az európai tárhelyszolgáltatói felelősség pedig – az Eker. irányelv 14. cikkén alapulva – egyenesen bátorítja a platformokat a magáncenzúrára. Tekintettel a szolgáltató és a felhasználó közötti erőegyensúly hiányára, jelenleg a közöttük kialakuló, a szerződés alkalmazását érintő viták a fogyasztóvédelmi jog keretei között folytathatók le.230 Ez a lehetőség csak abban az esetben áll nyitva, ha a felhasználó fogyasztónak minősül, azaz az ‘intézményes’ felhasználók (így például a médiavállalkozások) számára nem járható ez az út.231

A fogyasztóvédelem azonban egyébként sem biztosít széles lehetőségeket a felhasználói szólásszabadság megvédésére abban az esetben, ha a platform szabályai vagy azok alkalmazása észszerűnek tűnik, indokolható, nem önkényes. Márpedig maguk a szabályok jellemzően ilyenek, és még ha lehet is vitatkozni velük, ez a lehetőség önmagában nem bizonyítéka a fogyasztóvédelmi jellegű felhasználói sérelemnek. Az alkalmazásukkal szemben is nehezen lehet jogi értelemben kifogást emelni, mert a platform maga határozhatja meg e szabályokat, instruálhatja moderátorait, és eközben nem kell tekintettel lennie a szólásszabadság alkotmányos védelmére és jogi doktrínák által meghatározott korlátaira. A felhasználó egyetlen esélye, ha bizonyítja, hogy a platform olyan tartalmat távolított el, amelyhez nem volt joga,232 ez pedig – a szélesen meghatározott tartalomkorlátozások és a platform számára rendelkezésre álló széles körű döntési mérlegelési lehetőség miatt – szinte lehetetlen. Talán még a diszkriminációt tiltó szabályokra való hivatkozással kezdhet valamit a felhasználó, ha megsértik az egyenlő elbánáshoz való ­jogát, de ezt nehezen tudná bizonyítani (töröltek valamit, amit más felhasználó esetében nem), és a vitatható tartalmak tömege, valamint a platform monitorozási kötelezettségének hiánya – amelyekre a platform védekezésként hivatkozhat – sem kecsegteti e tekintetben nagy reményekkel a felhasználót.

Két további érv is említhető még, amelyek a platform döntési szabadságát erősítik. Az egyik szerint a platform maga is rendelkezik szólásszabadsággal, így amikor a felhasználói tartalmak között válogat, illetve összeállítja a felhasználók által látható, könnyen elérhető tartalmakat, akkor tulajdonképpen e jogát gyakorolja.233 Persze ez ellen vethető, hogy a tartalmak szabályzat alapján való törlése még nem hordoz értékelhető önálló jelentést, hogy beszédként vagy véleményként lenne értékelhető, hacsak azt nem, hogy a platformnak fontos, hogy a felhasználói számára békés, nyugodt, biztonságos, ártalmaktól mentes környezetet biztosítson. A másik érv szerint egyetlen platform sem olyan hatalmas, hogy a nyilvános szféra kizárólagos ura legyen, a magáncenzúra áldozatává váló felhasználó pedig szabadon elmondhatja a véleményét máshol, saját blogján, weboldalán, e-mail-listáján stb.234 Ezen érv meggyőzőereje azonban gyengül, ha azt látjuk, hogy egyes platformok (elsősorban a Facebook és a keresőmotorok közül a Google) olyan óriásivá nőttek, akkora tömeg használja őket nap mint nap, hogy az valójában megkerülhetetlenné teszi őket a nyilvános kommunikáció folyamatában. Az egyedi felhasználó beszélhet ugyan máshol, szabadabban, mint e platformokon, beszédének hatása feltehetően jóval csekélyebb lesz.

Két újabb német ügy is rámutat, hogy ellentmondáshoz és félreértéshez vezet, ha a social media platform és a felhasználója közötti szerződéses viszonyra alkalmazzák az alkotmányos szólásszabadságjogi tételeket. A Themel v. Facebook Ireland ügyben235 a bíróság szerint a Facebook szerződésszegést követett el a kérelmező hozzászólásának törlésével, ugyanis a platformnak tiszteletben kell tartania a véleménynyilvánítás német alkotmányban rögzített jogát (Grundgesetz, 5. cikk). Ami az ügy tényállását illeti, 2018. augusztus 7-én a német Spiegel ­Online hírportál a Facebook-oldalán cikket tett közzé „Ausztria határellenőrzést jelentett be” címmel. Parázs vita alakult ki a Facebook-bejegyzés hozzászólásaiban, amelyben Heike Themel­re, a jobboldali AfD párt tagjára „náci ribancként” utaltak. Ő a szóban forgó hozzászólásra egy idézettel válaszolt, és hozzátette: „Nem versenyezhetek Önnel a meggyőzésben, mert velem szemben fegyvertelen, és ez nem igazán lenne tisztességes a részemről.” A Facebook törölte a hozzászólást, és 30 napra felfüggesztette a politikus fiókját. E döntést a Facebook közösségi alapelveinek 5. cikke 2. bekezdése alapján hozták (amely tiltja a gyűlöletbeszédet a platformon). Themel a panaszát a bíróság elé terjesztette, amely megállapította, hogy az 5. cikk 2. bekezdése rendelkezésének alkalmazása sértette a német polgári törvénykönyv 241. cikkének 2. bekezdését, amely kimondja, hogy „egy [szerződéses] kötelezettség is, tartalmától függően, arra kötelezheti a feleket, hogy tartsák tiszteletben egymás jogait, jogi és más érdekeit.” Minthogy a közösségi alapelvek felhatalmazzák a Facebookot arra, hogy maga döntse el, melyik bejegyzés vagy hozzászólás sérti meg a szabályzatot, a bíróság szerint e hatalom ellentmond a polgári törvénykönyv által támasztott követelménynek. A bíróság hangsúlyozta, hogy a Facebook social media­ként ‘nyilvános piacteret’ biztosít a nézet- és véleménycseréhez, és hogy a jogilag megengedhető véleménynyilvánítások nem törölhetők a platformról. Mivel Themel hozzászólása nem volt gyűlöletbeszédnek tekinthető, a Facebook jogtalanul törölte azt, és függesztette fel Themel ­fiókját.236

Egy másik német ügyben (User v. Facebook Ireland, Inc.)237 a bíróság teljesen ellentétes következtetésre jutott, és elutasította a kérelmező állítását, miszerint sérült a véleménynyilvánításhoz való joga. A döntést megelőzően, 2018 júliusában egy Facebook-felhasználó megjegyzést fűzött egy, a németországi menekültek integrációjáról szóló bejegyzéshez: „Tisztelet! Ez a kulcsszó! A fundamentalista muzulmánok puhány pogányoknak és disznózabálóknak, asszonyainkat pedig kurváknak nézik. Nem tisztelnek minket.” 2018. július 16-án a Facebook törölte a felhasználó hozzászólását, és fiókját 30 napra felfüggesztette. Mivel a Facebook megtagadta döntése visszavonását, a kérelmező előzetes intézkedésért folyamodott a heidelbergi törvényszékhez. A bíróság számára a fő kérdés az volt, hogy a Facebook jogosult volt-e törölni a fel­használó hozzászólását, és felfüggeszteni a fiókját, illetve hogy a Facebook közösségi alapelvei összeegyeztethetők-e a polgári törvénykönyv 307. cikkével, amelynek 1. bekezdése szerint „a sza­­bályos üzlet szempontjából semmisek azok a rendelkezések, amelyek – a jóhiszeműség követelményével ellentétesen – indokolatlanul hátrányos helyzetbe hozzák a felhasználóval szerződésben álló felet. Akkor is indokolatlan hátrány származhat a rendelkezésből, ha az nem világos vagy érthető.” A bíróság megjegyezte, hogy a Facebook alapelvei felsorolják a nem védett véleménynyilvánítás fajtáit, és meghatározzák a korlátozottnak tekinthető szólás határait. Emellett a szabályzat megjelöli azokat a következményeket is, amelyeket az e szabályokat megsértő felhasználóknak vállalniuk kell. Ennek megfelelően a bíróság szerint az, hogy az alapelvek nem tekinthetők átláthatatlannak, és nem tesznek különbséget a felhasználók között, következés­képpen a Facebook szabályzata kellőképp figyelembe veszi a véleménynyilvánítás szabadságának jogát, és noha a sértő véleményeket és a szélsőséges kifejezéseket is védi az alkotmány, a Facebooknak mint magánszereplőnek nem kell biztosítania felhasználóinak a véleménynyilvánítás államilag, alkotmányos összefüggésben adott teljes jogát.238

E két döntés eltérő utat járt be. Az utóbbi beleillik az általában alkalmazott jogi keretbe, elismerve a platform tulajdon- és szólásszabadsághoz való jogát, és megengedi a Facebooknak, hogy törölje az általa kifogásolhatónak talált felhasználói tartalmak nagy részét, az előbbi viszont e tekintetben korlátozza a platform hatáskörét. E döntések jól szemléltetik a szerződési jog magánfelek között kialakuló, szólásszabadsággal kapcsolatos jogviták megoldására való felhatalmazásának lehetséges előnyeit és hátrányait.

4.3. Moderálás és magáncenzúra

4.3.1. A moderálás erényei és veszélyei

A felhasználói tartalmak moderálása beavatkozás a felhasználók szólásszabadságába. A tartalmak moderálása mellett döntő platformok a „túl nagy szabadság káosza” és „a túlzott kontroll sterilitása” közötti vékony mezsgyén próbálnak járni.239 Ezt az utat megtalálni nem kifejezetten könnyű. Túl azon, hogy a platformokat számos különféle okból érheti nyomás az államok részéről annak érdekében, hogy a jogi eljárásokat megkerülve, azok hiányában is töröljenek nem feltétlenül illegális tartalmakat,240 a beavatkozásra maguk a platformok is bőven találhatnak okot. Ahogyan már említettük, ezek közül a legfontosabb a gazdasági érdekeik védelme, azon tartalmak kiszűrése és törlése, amelyek elijeszthetik a többi felhasználót vagy a platform fontos üzleti partnereit, hirdetőit. A platform politikai agendájával, maga által választott társadalmi missziójával össze nem férő tartalmak is a moderálás áldozatául eshetnek.241

A magáncenzúra lehetősége több okból is aggasztó a szólásszabadság és a nyilvánosság szempontjából. A legnagyobb, legfontosabb platformokon való megszólalás lehetősége nem helyettesíthető az egyéb, kisebb és kevesebb emberhez eljutó platformokon való megszólalással (amelyek ráadásul maguk is végezhetnek moderálást), és főleg nem a moderálás nélküli, egyéni blogokkal, magánweboldalakkal. A nagy platformok a nyilvánosság olyan csomópontjai, amelyek esetében a véleményformálás folyamatába való beavatkozás különösen súlyos következményekkel járhat.242 A lehető legtöbb felhasználó számára biztosítandó békés, ártalmaktól mentes környezet szempontja – amely a platform gazdasági érdekeit is szolgálja – az elnyomó államok politikájához való idomulással sem összeférhetetlen: a hatalmas kínai piacra való belépés lehetősége például még az állami cenzúra elvárásaihoz való igazodás árán sem kevésbé csábító. A platformok célja aligha az elnyomó rendszerek forradalom általi megbuktatása – inkább a rossz PR és az államokkal folytatott viták elkerülése, valamint a piaci befolyás és a bevételek növelése.243

A moderálás és az egyes tartalmakról való, platform általi döntés tehát nem a szólásszabadság jogi normáihoz, hanem a külső környezetnek – az állami igényeknek – és a felhasználók vélt elvárásainak való megfeleléshez igazodik. Minél több a felhasználók közötti egyéni interakció, és minél élénkebb a platformon zajló kommunikáció, annál inkább nő a platform gazdasági ­értéke.244 Ebből az következik, hogy nem a társadalmi nyilvánosság szempontjából leginkább értékes vélemények, tartalmak védelme az elsődleges szempont, amelyek sokszor vitatottak, megosztók, sértők, provokatívak, de közügyekkel kapcsolatosak, vitára gerjesztenek és gondolkodásra sarkallnak. Ezek elijeszthetik, távol tarthatják a felhasználók egy részét, ellenben a nem bántó, ártalmatlan tartalmakkal a lehető legnagyobb számú felhasználó tud békésen megférni. A kismacskás videók és a családi fotók győzedelmeskednek az erőteljes politikai viták felett – az előbbiek a platform számára fontosabbak és gazdasági értelemben értékesebbek. Miközben a nyugodt környezet fenntartása valóban több felhasználót csábíthat a platformra, így elvben többek számára nyílik meg a szólásszabadság hatékony gyakorlásának lehetősége, a platform egyúttal korlátozza is az eszmecserét. A felhasználók egymás között folytatott kommunikációja ebből következően valójában nem elsősorban a közügyek nyílt vitatása céljából zajlik, illetve a platform által korlátozást szenved, így a nyilvánosság számára a szólásszabadságba való ma­gánbeavatkozás összességében kétes eredménnyel jár.

4.3.2. A moderálás jogi megítélése – lehetséges analógiák

Amerikában a CDA 230. szakasza immunitást biztosít a platformoknak a jogi felelősség alól, egyúttal arra sarkallja őket, hogy – „irgalmas szamaritánusként”245 – moderálják felhasználóik beszédét. A platform döntése a tartalmak törléséről, felhasználók felfüggesztéséről vagy kitiltásáról nem esik korlátozás alá, így nem vet fel szólásszabadságjogi problémát. Hasonló a helyzet Európában az Eker. irányelv 14. cikkével, amely feltételes mentességet biztosít a platformoknak, egyúttal szintén lehetővé teszi nekik (nem tiltja) a saját döntésük szerinti moderálást. A felhasználókkal szembeni, a köztük és a platform között fennálló szerződéses viszony alapján zajló eljárást a szólásszabadság szempontjai alapvetően nem korlátozzák.246

Rendkívül kockázatos szinte szabad kezet adni a platformnak az egyes tartalmak elbírá­lásában. A döntések alapjául szolgáló egyes irányelvek, kódexek bizonytalan megfogalmazá­súak, a döntéseket pedig gyorsan, átláthatatlanul, eljárási garanciák nélkül hozzák meg. Ha arra gondolunk, milyen megfontolások alapján döntheti el egy moderátor, hogy az adott tartalom összefér-e a platform szabályaival, akkor eszünkbe juthat Potter Stewart bíró klasszikussá vált maximája, amelyet a hard-core pornográfia jogi fogalmának keresésekor írt: nem tudja definiálni, hogy mi az, de „ha látom, felismerem”.247 Ha a moderátor úgy véli, hogy valamit törölni kell, illetve ha a belső, a felhasználók számára láthatatlan döntési mechanizmus eredménye erre vezet, akkor a tartalmat törölni fogják. Amivel az állam által fenntartott bírósági szervezetrendszer akár éveken át birkózik, azt egy moderátor legfeljebb órák alatt eldönti.

A média- és hírközlési szabályozás korábbi megközelítései analógiaként kevés segítséget nyújtanak a magánszabályozás megítéléséhez. Azt már tisztáztuk, hogy a social media platform jogi értelemben nem közfórum, és semmiképpen sem állami szereplő. A platform abban az értelemben nem is ‘beszélő’, hogy nem tesz közzé saját tartalmat, és nem is fejez ki azonosulást felhasználóinak tartalmaival;248 az egyes tartalmak törlése vagy a törlésére vonatkozó kérés elutasítása csak annyit fejez ki, hogy a döntés szerint az adott tartalom összefér vagy ütközik a platform vonatkozó szabályaival. A platform nem is tekinthető ‘szerkesztőnek’, legalábbis a sajtó szerkesztőihez hasonlónak, mert nem maga kezdeményezi az egyes tartalmak elkészítését, nem rendeli vagy vásárolja meg őket.249 Abban az értelemben azonban mégis szerkesztő, hogy döntést hoz a tartalmak felől, szűri, törli vagy éppen elérhetőként tartja meg őket, kontrollálja a platformon zajló kommunikációt, a tartalmakkal szemben tehát semmiképpen nem semleges. A szűkös erőforrásokat használó műsorszolgáltatás, a digitális technológia előtti rádió és televízió szabályozása sem használható analógia. Csak azért nem temethetjük el majd végleg, a technológiai kapacitás korlátozottságának teljes megszűnésével (ami lényegében már meg is történt), mert groteszk módon ma a túl sok beszéd idéz elő egyfajta sajátos szűkösséget. A felhasználóra zú­duló elképesztő mennyiségű információ és kommunikáció nehezen teszi számára lehetővé az értékes tartalmakhoz, a valódi hírekhez való hozzáférést.250 De ez önmagában nem teszi szükségessé a platformok régi módszerekkel való szabályozását, amely a műsorszolgáltatás analógiáját alkalmazva a korábbi engedélyezési rendszer felélesztését jelentené. A harmadik lehetséges ­analógia, a common carrierkénti megítélés (a telefon- vagy a postai szolgáltatáshoz hasonlóan) pedig azt jelentené, hogy a platformoknak meg kellene tiltatni a moderálást, illetve a felhasználók közötti kommunikáció folyamatába való – a technikai feltételek biztosításán túli egyéb – beavatkozást. Ez megint csak elképzelhetetlen, a platformok teljes semlegességét várná el, ami nemcsak a szándékaikkal és az érdekeikkel lenne ellentétes, hanem az állam felől érkező – a jog­­ellenes tartalmak törlésére vonatkozó – beavatkozási kérések teljesítését is lehetetlenné tenné.

Mint Kate Klonick megállapítja, megfelelő analógia hiányában a social media platform nem más, mint új, önálló szabályozó (governor). Maga hozta létre és kontrollálja azon infrastruktúrát, amelyen a felhasználók kommunikációja zajlik, és a maga érdekei szerint működteti. Központosított szervezete van, amely előre lefektetett (még ha külső szereplők számára nem is feltétlenül minden elemében megismerhető) szabályokkal bír, és a tartalmakkal kapcsolatos előzetes vagy utólagos döntéshozatali eljárásokat folytat le.251

A platformok tehát a szólásszabadság egyfajta sajátos, aggregált elmélete (aggregational theory) alapján hoznak döntést a tartalmakról. Egyszerre kívánnak minél többek számára nyílt és vonzó platform lenni, és elkerülni azt, hogy felhasználóikat sérelem érje, vagy azok megrettenjenek mások kommunikációjától.252 Ebben a furcsa, aggregált, hibrid rendszerben ötvöződnek az Első Alkotmánykiegészítés elvei a szólásszabadság európai megközelítésével, mindezeket a platform érdekei szerint értelmezve és alkalmazva, akár államonként vagy régiónként – az adott állam szólásszabadsághoz és a platform szabad tevékenységéhez való hozzáállásának megfelelő – eltérő megközelítéssel, az érintettek által átláthatatlan eljárásokkal és döntéshozatali mechanizmusokkal gyakorolva.

4.3.3. Közösségi alapelvek, magatartási kódexek

A Facebook közösségi alapelveinek terjedelme évről évre gyarapszik, és ma már jóval részletezőbb, mint egy jogszabály.253 Vegyünk például két, a szólásszabadság szempontjából fontos témakört, a gyűlöletbeszéd és a meztelenség, szexuális tartalom korlátozását, és vizsgáljuk meg a Facebook által ezekkel kapcsolatosan meghatározott szabályokat.

„Definíciónk szerint a gyűlöletbeszéd olyan tartalom, amely közvetlenül támad másokat általunk védett tulajdonságokként meghatározott szempontok – faji hovatartozás, etnikai származás, nemzetiség, vallási hovatartozás, nemi irányultság, kaszt, nem, nemi identitás, súlyos fogyatékosság vagy betegség – miatt. A bevándorlói jogállással kapcsolatban is nyújtunk bizonyos védelmet. A támadást úgy határozzuk meg, mint erőszakos vagy tárgyukat emberi mivoltától megfosztó beszédet, ­alsóbbrendűségre utaló kijelentést, illetve kirekesztésre vagy faji alapon történő elkülönítésre való felhívást. A támadásokat súlyosság szerint három csoportba soroljuk az alábbiak szerint. […]

Ne tegyél közzé az alábbiakhoz hasonló bejegyzéseket:

1. szintű támadások, amelyek a fent megadott tulajdonságokkal vagy bevándorlói jogállással rendelkező személy vagy embercsoport ellen irányulnak (ideértve az összes részhalmazt, kivéve azokat, akik a leírás szerint erőszakos vagy szexuális bűncselekményeket követtek el), és amelyek esetében a támadást az alábbiak szerint határozzuk meg:

– gyűlöletbeszéd vagy a gyűlöletbeszéd támogatása írásos vagy vizuális formában.

– tárgyát emberi mivoltától megfosztó beszéd vagy képek, ideértve többek között az alábbiakat:

= koszra, baktériumokra, betegségekre vagy székletre való hivatkozás, illetve ezekkel való összehasonlítás;

= kulturális hagyomány szerint szellemileg vagy fizikailag alacsonyabb rendűnek tartott állatokra való hivatkozás, illetve velük való összehasonlítás;

= embernél alacsonyabb rendű lényekre való hivatkozás vagy velük való összehasonlítás.

– gyűlölet-bűncselekmények koncepciójának, eseményeinek vagy áldozatainak kigúnyolása még akkor is, ha a képen nem ábrázolnak valós személyt.

– tárgyuk emberi mivoltától való megfosztását célzó összehasonlítások írott és képi formában.” 254

Tiltott, így eltávolítandó gyűlöletbeszédnek tehát azon tartalom minősül, amely valamely ‘védett tulajdonsággal’ rendelkező embercsoportot támad meg. A védett tulajdonságokat a platform maga sorolja fel, az általánosan meghatározott tényállásokat a moderátorok értelmezik és alkalmazzák. Amíg egy büntetőkódex általánosan fogalmaz, és például a „gyűlöletre uszítást” tiltja, addig a Facebook irányelvei a tilalmazott beszéd tekintetében részletezők, egyúttal széles körben engednek teret a beszéd korlátozására. A moderátorokat felkészítő kézikönyv The Guardian által 2017-ben közölt részletei konkrét példákat is tartalmaznak.255 Az erőszakos tartalmak közül az úgynevezett hitelt érdemlő erőszakot (credible violence) tiltja a platform. A „remélem, valaki meggyilkol téged” („I hope someone kills you”) nem törölhető, de a „gyűlölöm a külföldieket, és mindannyiukat le akarom lőni” („I hate foreigners and I want to shoot them all”) igen. A „valaki lője le Trumpot!” („someone shoot Trump”) törlendő, a „gyerünk, verjünk meg kövér kölyköket” („let’s beat up fat kids”) viszont nem.256 A szabályok mechanikus – algoritmus általi – alkalmazása időnként abszurd következményhez vezet: 2018 júliusában a Facebook eltávolította az Amerikai Egyesült Államok függetlenségi nyilatkozatának platformra posztolt részleteit, mert a „kegyetlen indián vademberek” („merciless Indian savages”) szövegrész sértette az alapelveket.257

A közösségi alapelvek az évek során – és számos vitát, botrányt követően, azok hatására – cizelláltabbak lettek. Nem is feltétlenül maguk a szabályok aggasztók, azok sokszor átfedést mutatnak a szólásszabadság jogi korlátaival, bár messze nem minden jogi korlát szerepel az irányelvekben, így például a rágalmazás, becsületsértés esete sem. A dokumentum szerint közéleti szereplők rágalmazása nem, csak az őket támadó gyűlöletbeszéd, az ellenük irányuló hitelt érdemlő fenyegetés (credible threat), továbbá zaklatásuk és a bullying törölhető. A 2018 nyarán kibontakozó vita során arra derült fény, hogy az Európában széles körben tiltott holokauszt­tagadást Zuckerberg, a Facebook vezetője nem tekinti törlendő tartalomnak.258 Az egyes államoknak – mint láttuk – lehetnek ugyan eszközeik arra, hogy a platformot jogszabályaik tiszteletben tartására kötelezzék, ezzel együtt is riasztó azt érzékelni, hogy több milliárd felhasználó szólásszabadságáról végeredményben egyetlen ember saját egyéni ízlése, értékrendje, üzleti érdekei szerint hozhat döntést.

Ugyanakkor számos olyan tényállást, példát tartalmaznak a Facebook alapelvei, amely jogilag nem feltétlenül tiltott tartalmakat érint, még Európában sem (lásd például: fent az egyes embercsoportokkal szembeni támadás a „kulturális hagyomány szerint szellemileg vagy fizikailag alacsonyabb rendűnek tartott állatokra vagy élettelen tárgyakkal való összehasonlítás” által). Ez kiterjeszti a szóláskorlátozást, de ennél is nagyobb gond, hogy mindez átláthatatlan eljárásban, garanciák nélküli döntéshozatali folyamatban történik, és a vitatható (határ)esetekben még az önkényesség látszatát sem kerülik. Ahogyan Nicolas Suzor fogalmazott a kézikönyv részleteinek napvilágra kerülését követően: a Facebook döntéseire vonatkozó megfelelő adatok nélkül arról sem tudunk megalapozott vitát folytatni, hogy milyen jellegű tartalmakat tartunk elfogadhatónak társadalmi szinten.259

A másik példa, a platformnak a meztelenséghez való hozzáállása alkalmas annak szemléltetésére, hogy a magánszabályozás olykor groteszk következményekhez vezethet. (Megjegyzendő, hogy a platform az időnként kitörő botrányok, felzúdulások hatására jelentősen módosította a szabályait.) Jelenleg az alapelvek szerint:

„Korlátozzuk a meztelenség és a szexuális tevékenységek megjelenítését, mivel közösségünk egyes tagjai érzékenyek az ilyen jellegű tartalomra. Ezenkívül a szexuális jellegű képeket a nem beleegyezésen alapuló vagy kiskorúakat ábrázoló tartalom közzétételének megelőzése érdekében alapértelmezés szerint eltávolítjuk. A szexuális tevékenység megjelenítésének korlátozása digitálisan létrehozott tartalomra is vonatkozik, kivéve, ha azt oktatási, humoros vagy ironikus céllal teszik közzé.

Meztelenségre vonatkozó szabályaink az idő előrehaladtával részletesebbek lettek. Tisztában vagyunk azzal, hogy a meztelenség megosztásának sokféle oka lehet, használhatják például a tiltakozás egy formájaként, felhívhatják vele egy ügyre a figyelmet, vagy szolgálhat oktatási vagy egészségügyi célokat. Ha egyértelmű az ilyen szándék, engedményeket teszünk a tartalomra vonatkozóan. Tiltjuk például a női mellet mellbimbóval együtt megjelenítő képeket, de az olyan képek közzétételét megengedjük, amelyek tiltakozást, csecsemőt szoptató nőt vagy emlőamputáció utáni heget ábrázolnak. A meztelen testet ábrázoló festmények, szobrok és más művészeti alkotások fényképeit is megengedjük.”260

Az abortuszról készült videók továbbá fennmaradhatnak a platformon addig, amíg nem tartalmaznak meztelenséget.261 (Egy élőlény – az emberi magzat – elpusztítása ábrázolható, de nehogy valaki meglásson egy fedetlen női mellet!)

A platform korábban sem a szoptató anyák fényképét,262 sem a meztelen emberi testet ábrázoló műalkotásokat nem engedélyezte. A női mellbimbó ábrázolása ma sincs megengedve.263 Gustave Courbet 1866-ban festette híres képét, amely egy vaginát ábrázol (A világ eredete), és jelenleg a párizsi Musée d’Orsay-ban lóg. A Facebook többször letiltotta a képet meztelenség ábrázolása miatt, ezek közül az egyik eset a francia bíróságra is eljutott, miután egy francia tanár fiókját a platform felfüggesztette a kép közlése miatt. A bíróság szerint a tervezett lépésről való előzetes tájékoztatás elmaradása megsértette a platform és a felhasználója közötti szerződést, de kártérítést nem ítélt meg utóbbinak.264 A tanulság, hogy tartalmi szempontból az efféle korlá­tozások bíróság előtt nem vitathatók, de a felhasználók esetleg eljárási és fogyasztóvédelmi védelmet kaphatnak. A példák hosszasan sorolhatók: a koppenhágai sellőszobor,265 a bolognai Neptun-szobor,266 a willendorfi vénusz,267 Rubens képei268 és még sok más is mind-mind a Facebook által diktált illemszabályok áldozatául estek addig, amíg aztán az irányelvek kiegészültek „a meztelen testet ábrázoló festmények, szobrok és más művészeti alkotások fényképeit is megengedjük” nagyvonalú kitétellel.

Nagy felzúdulás övezte a vietnami háborúban készült talán leghíresebb fénykép törlését is.269 A kép a falujukból a napalmtámadás elől menekülő embereket ábrázol, köztük egy síró, meztelen kislánnyal. Az ezzel kapcsolatban kitört botrány hatására a platform később visszahelyezte a képet.270 Ezzel szemben egy időben a Facebook kitartott azon álláspontja mellett, hogy a mexikói drogkartellek által posztolt, emberek lefejezését ábrázoló videók nem ellentétesek az irányelveikkel271 – azután az emiatt érkező kritikák nyomására módosult a véleményük.272 Az egyértelműen politikai vélemények korlátozása sem idegen a platformoktól, ahogyan a YouTube-nál történt, amely amerikai jobboldali videócsatornákat függesztett fel, állítása szerint az újonnan felvett moderátorai tévedése miatt.273 A magyar parlamenti választási kampány ­során pedig a Facebook egy kormánytag videóját törölte, aki Bécsben az arab bevándorlók siker­telen ausztriai integrációját próbálta szemléltetni annak érdekében, hogy saját pártjának bevándorlásellenes politikáját hazájában népszerűsítse. A platform később visszahelyezte a vi­deót, de ezzel együtt is aggasztó, hogy a politikai vitákba ilyen módon képes lehet beavatkozni, a leginkább érzékeny esetben (választási kampány során) is, ahol a szólásszabadság a legerősebb védelmet igényelné.274 Mindeközben, ahogyan azt fentebb már említettem, bármennyire is megalapozottan gyanítható, hogy Trump időnként megsérti a felhasználási feltételeket, a Twitter nem törli az üzeneteit, mert nyilvánvalóan jelentős hírértékkel bírnak, és egyébként is odavonzzák a felhasználókat a platformra.275 E döntésük természetesen a szólásszabadság szempontjából helyeselhető.

A gyűlöletbeszéddel kapcsolatban az EU már 2016-ban kezdeményezte a platformok szigorúbb fellépését. Ennek eredménye lett az online gyűlöletbeszéddel szembeni intézkedésekre vonatkozó magatartási kódex, amelyet a Facebook, a Microsoft, a Twitter és a YouTube írtak alá.276 A kódex az EU kísérlete arra, hogy kikényszerítse a platformok megfelelő eljárását. A kódexben a platformok vállalták a hatékony eljárást, a bejelentések megfelelő vizsgálatát és azt is, hogy nem kizárólag saját szabályzataik, hanem a 2008/913/IB EU kerethatározatot átültető nemzeti jogszabályok figyelembevételével döntenek a tartalmakról. A platformok a „jogellenes gyűlöletbeszéd eltávolítására irányuló érvényes bejelentések többségét 24 órán belül felülvizsgálják, és szükség esetén eltávolítják vagy hozzáférhetetlenné teszik az ilyen tartalmakat”. Az Európai Bizottság évente vizsgálja a vállalt kötelezettségek teljesítését; megállapításai szerint a platformok évente rengeteg posztot és profilt törölnek.277 Ezzel együtt az EU további beavatkozást fontolgat, ha nem sikerül teljesen megnyugtató megoldást találni a gyűlöletbeszéd és az extremizmus kezelésére a platformokon.278

4.4. Szerkesztés és tartalmi sokszínűség a platformokon

Valójában a platformok igazi hatalmát a közügyek vitáinak befolyásolására nem az egyes tartalmak törlésének és a felhasználók kitiltásának lehetősége biztosítja. A platformok az algoritmusaik segítségével az egyes felhasználókról gyűjtött adatok alapján személyre szabhatják az egyes felhasználók által érzékelt és elérhető tartalmakat. Ennek legkézenfekvőbb példája a Facebook hírfolyama, amely a felhasználó ismerősei és a követett oldalak által közzétett tartalmaknak csak a töredékét tárja a felhasználó elé. Ennek természetesen praktikus okai is vannak, és a felhasználók számára alapvetően kedvező, ha a platform igyekszik számukra valamelyest rendet vágni a tartalmak tömegében, és a feltehetően őket leginkább érdeklőket megmutatni nekik. De nem lehet tudni, hogy a platform mi alapján válogat, milyen módon viszonyul a közügyek vitájára vonatkozó tartalmak és a nyaralási beszámolók megfelelő arányának kérdéséhez, és milyen gazdasági érdekei húzódnak meg egyik-másik tartalom előtérbe helyezése mögött. Fontos megjegyezni, hogy nem minden social media platform ‘szerkeszti’ annyira átfogóan a felhasz­nálói elé tárt tartalmakat, mint a Facebook, de többé-kevésbé mindegyik törekszik arra, hogy a potenciálisan elérhető tartalmak között a felhasználó vélt érdeklődési körének megfelelően válogasson.

A hírfolyam és általában a felhasználó számára megjelenített tartalmak összeállításával kapcsolatban felmerül, hogy e tevékenység a platform szólásszabadsága által védett. Amíg egyes tartalmak szűréséről vagy törléséről ez nehezen állítható, a hírfolyam összeállítása végeredményben létrehoz egy új, korábban nem létezett, önálló ‘tartalmat’, amelynek egyes elemeit nem a platform készítette vagy rendelte meg, de az összeállítást maga végezte, saját döntéseinek és szempontjainak megfelelően. Ha ez az összeállítás a szólásszabadság körébe tartozik, akkor kívülről nehezen befolyásolható. Ellenben ha az összeállítást hasonlónak tekintjük a hagyományos média szerkesztési tevékenységéhez, akkor a médiára vonatkozó szabályok és mögöttes elvi alapjaik megfelelő alkalmazásának kérdése is felmerülhet. Ahogyan Robin Foster fogalmazott:

„Az itt azonosított új, digitális közvetítőknek nincsenek pontos megfelelőik – a többségük nem semleges csatorna, mint az internetszolgáltatók, amelyeken az összes internetes tartalom átfolyik (bár a Twitter közel áll ehhez), sem pedig tiszta médiavállalat, mint a műsorszolgáltatók vagy az újságok, amelyek tevékenyen részt vesznek a megjelenést és a tartalmat illető döntéshozatalban. Azonban fontos szerepet játszanak az információk kiválasztásában és felhasználókhoz eljuttatásában, így a tevékenységükhöz jogos közérdek fűződik.”279

A tartalmak összeállítása nem semleges és nem is értéksemleges tevékenység, a platform számos érdeke megjelenik benne. Bernal a kapuőrök (köztük a Facebook) feltételezett sem­legességét egyenesen „mítosznak” nevezi.280 Ez önmagában nem eleve elvetendő, de a felhasz­nálók ezen értékeket, érdekeket nem ismerhetik meg. Nem is igen tudhatják, vagy csak aránytalan erőfeszítések árán deríthetik fel, hogy ‘mi van még’ a számukra megmutatott tartalmakon kívül. Amint Klonick megállapítja, a platformok jelenleg nem helyezik előtérbe a közügyek vitáiban való részvétel megfelelő lehetőségének biztosítását.281

A platformok architektúrája, az általános működést vezérlő szerkesztői döntések és a mögöttes értékek tehát fontosabbak, mint a platformok egyes, konkrét tartalmakról hozott döntései, amelyeket a bejelentések nyomán szükségszerűen hoznak, mert előbbiek a platform teljes működését meghatározzák, és minden felhasználó információhoz jutását érintik.282 A felhasználók személyére szabott szolgáltatás képes lehet például a közéleti hírek, információk háttérbe szorítására. Ha Zuckerberg úgy dönt, akkor a hagyományos média által készített hírek, beszámolók egy csapásra megritkulnak a hírfolyamban.283 (Ennek oka is elsősorban gazdasági, nem pedig filozófiai: a Facebook kimondatlanul is versenytársa e médiumoknak, még akkor is, ha maga nem állít elő tartalmat, de annak érdekében, hogy eljuttassa tartalmaikat a felhasználókhoz, minél több pénzt kíván kisajtolni a médiumokból.) A személyre szabott szolgáltatás és ­hírszolgáltatás összességében csökkentheti az egyes felhasználók által érzékelt hírek tartalmi sokszínűségét és kínálatát. Amíg a hagyományos média korában szükségszerűen mindenki találkozott olyan tartalmakkal, amelyeket nem maga keresett, és nem feltétlenül vágott egybe saját véleményével, a személyre szabás megszünteti e kényelmetlenséget.284 A hírek személyre szabott jellege alapvetően mond ellen a gondolatok piaca elméletének, mert a felhasználó, hacsak nem keresi kifejezetten, nem találkozik a sajátjával ellentétes véleménnyel.285

A hírfolyamba a platform a politikai szimpátiáinak vagy társadalmi céljainak megfelelően is beavatkozhat, és ez már közvetlen veszélyt jelent a társadalmi nyilvánosságra és a demokra­tikus véleményformálásra. Ennek a jelenségnek a legjobb példája a 2016 tavaszán kipattant botrány, amikor a Gizmodo blogon volt Facebook-munkatársak számoltak be arról, hogy a platform tudatosan és rendszeresen háttérbe szorította a konzervatív témákat és forrásokat. Korábban a platform azt állította, hogy az úgynevezett Trending Topics (a platformon a többi felhasználó által a legintenzívebben tárgyalt, azaz ‘forró’ témákat összegyűjtő és külön megjelenítő szolgáltatás) tartalmát kizárólag algoritmus állítja össze, közvetlen emberi beavatkozás nélkül, a felhasználók valós aktivitása alapján. Ezzel szemben a távozó munkatársak beszámolóiból kiderült, hogy a válogatást politikai szempontok szerint kellett elvégezniük. A beszámolók szerint egyes konzervatív weboldalak linkjei nem kerülhettek be a Trending Topics szekcióba akkor sem, ha éppen azokat osztották meg az adott időszakban a leggyakrabban.286 Az ügyből egyértelművé vált, hogy a semleges algoritmus helyett szerkesztők (akiket házon belül hírkurátoroknak neveztek) befolyásolták azt, hogy mely hírekből lehetett a Facebookon fontos és sokak által tárgyalt téma.287 Ezzel az üggyel lényegében megdőlt egy tabu, és paradigmaváltás történt a platform megítélésében: a Facebook tényleges hírszerkesztővé, így a hagyományos médiához hasonlóvá vált.288 Bár a platform nemsokára megszüntette a Trending Topics szekcióját,289 innentől kezdve nehéz szabadulni a gondolattól, hogy hasonló hírszerkesztés a platform más szolgáltatásaiban és az Egyesült Államokon kívül is megtörténhet. Ha pedig a Facebook hírszerkesztő, joggal merül fel, hogy a hagyományos média hírszerkesztőire vonatkozó jogi szabályozás által előírt kötelezettségeket rá is ki kell terjeszteni.

4.5. Hamis hírek és magánszabályozás

A hamis hírek terjedésének, mint láttuk, nehezen szab gátat a jogi szabályozás. De nemigen várhatjuk a teljes körű és megnyugtató megoldást a platformok saját szabályozásától sem. Ennek fő oka, mint Bernal megállapítja, hogy a social media platformokon a rémhírek, rágalmak, gonosz pletykák terjedése nem a rendszer hibája, hanem a rendszer jellegzetességeiből fakadó elkerülhetetlen jelenség.290 Ugyanakkor a negatív PR a platformok számára káros lehet, ezért szükségszerű, hogy jogi kötelezettségeik teljesítésén túl is tegyenek lépéseket a hamis hírek terjedése ellen. Ezek a valótlanságokat, kitalált történeteket hírként bemutató oldalakkal szembeni tarifaemelésektől a hírfolyamban való hátrébb sorolásig terjednek.291 Felmerülhetnek e tekintetben a fizetett reklámokra és szponzorált tartalmakra vonatkozó, az átláthatóság irányába tett ­lépések is annak érdekében, hogy a felhasználók megtudhassák, ki fizetett egy adott tartalom célba juttatásáért.292 A social media platformok által felkért tényellenőrzők (fact-checkers) verbuválásának ötlete is felmerült, akik az egyes tartalmakat, amennyiben hamis hírnek minősítik őket, erre utaló jelzéssel láthatják el, illetve ennek alternatívájaként csak a platformok számára jelzik a hamis híreket, amelyek az ezeket terjesztő oldalakat hátrább sorolhatják a hírfolyamban, vagy akár ki is tilthatják onnan.293 A helyzetre jellemző, hogy a hamis hírek megjelölése a felhasználók számára – amivel a Facebook próbálkozott – csak növelte a népszerűségüket, és erősítette a terjesztett valótlan információ hitelességét.294 A tényellenőrzők valójában egyfajta sajátos hírszerkesztést végeznek, ami még tovább közelíti a social media platformot a hagyományos médiához.

Az álhírekkel és az internetes félretájékoztatással foglalkozó magas szintű munkacsoport jelentése alapvetően a platformok magánszabályozásának további erősítésére építi a hamis hírekkel szemben kívánatos stratégiát.295 Azt javasolja a platformoknak, hogy bővítsék a felhasználók azon lehetőségeit, hogy a szolgáltatást személyre (a saját személyükre) szabhassák;296 valóban kívánatos lenne, ha a Daily Met nem átláthatatlan módon és ismeretlen adatbázis és személyi profil alapján maga a platform állítaná össze, de a felhasználók lehetőségeinek ez irányú bővülése felerősítheti akár a szűrőbuborék-jelenséget is. Az a felvetés, hogy az aktuális, sokak által tárgyalt témák mellé a platformok javasoljanak a felhasználóknak további, megbízható forrásból származó híreket, illetve növeljék a megbízható hírforrások láthatóságát, és biztosítsanak lehetőséget a válaszadási jog gyakorlására,297 még tovább közelítené a platformok moderátorait a hagyományos hírszerkesztők, így a platformokat a klasszikus hírmédia felé.

A 2018 áprilisában közzétett európai bizottsági közlemény hasonló nyomvonalon halad, és lényegében a platformok magánszabályozását kívánja ösztönözni, kilátásba helyezve a jogi kötelezettségek előírását is arra az esetre, ha a magánszabályozás nem éri el a kívánt eredményt, de az Eker. irányelv közvetett felelősségi rendszerének érintetlenül hagyása mellett.298 Ez a dokumentum az uniós médiaszabályozás tekintetében egyfajta mérföldkőnek tekinthető: immáron nem a médiaszabályozástól egyébként nem egészen idegen önszabályozás ösztönzéséről van szó, amelyben egy, a szabályozott médiumhoz képest külső, tőle független, de nem állami szerv felügyeli a médiumok jogszerű működését, hanem a magánszabályozás – a médiumok (platformok) saját maguk által végzett, a tartalmakra vonatkozó szabályozás – erősítéséről, felvetve annak kötelezővé tételét is a platformok számára. Ezen megközelítés szerint a platformoknak maguknak kell a tartalmak bírájává válniuk, az Eker. irányelvben foglaltakhoz képest még szélesebb körben. Ezzel a lépéssel – ha valóban bekövetkezik – az állam lényegében szinte teljes egészében átadná a szabályozás feladatát a platformoknak, a maga számára e sajátos felügyeleti rendszer megfelelőségének ellenőrzését tartva csak meg, amivel összességében a társszabályozás egy különös, korábban nem ismert modellje felé mozdulna el. Ez a modell nemcsak az EU egyes dokumentumaiban, hanem a tagállami szabályozási kezdeményezésekben is megjelenik, és legelső példája a már említett német törvény.299 A szabályozás itt nem közvetlenül a jogellenes tartalmakkal szemben lép fel, hanem a platformokat kötelezi a fellépésre, és a törvénybe foglalt eljárásrend megsértése és az elvárt teljesítmény (a büntető törvénykönyvbe ütköző tartalmak gyors eltávolításának) elmaradása ad alapot az állami beavatkozásra.

4.6. A platformok ideológiája

Több szempontból is rávilágítottunk arra, hogy a social media platformok tevékenysége az általuk kezelt felhasználói tartalmakkal összefüggésben nem semleges. Az a sajátos szerkesztői feladat, amelyet részben a jogi szabályozást teljesítve, részben pedig saját akaratukból ellátnak, eleve nem lehet teljesen ‘objektív’, hiszen tartalmak értékelését foglalja magában. A platformok magánszabályozása nem is értéksemleges, abból egyértelműen kirajzolódik a felhasználók minél szélesebb köre számára biztosítani kívánt ‘biztonságos tér’ mint cél, amivel a szólásszabadság robusztus védelme időnként nem egyeztethető össze. De egészen más minőségűvé válik a semlegesség e hiánya, ha a platformot szerkesztői döntései során valamely ideológia vagy általa előmozdítani kívánt társadalmi cél elérése vezérli (amennyiben a társadalmi cél más, mint a közügyek nyílt vitája, a szabad nyilvánosság).

A social media platformokat általában a szólásszabadság bajnokainak tekintik, azonban mint Bernal megjegyzi, „valójában a szabad szólás számukra csak eszköz. Csak akkor küzdenek érte, amikor nekik úgy a jó.”300 A Facebookot gyakran hasonlítják a nemzetállamokhoz.301 Az analógia, bár a platformon megvalósuló magánszabályozás modellezésére a platformoknak a nemzetállami kereteket jócskán túllépő jellege miatt nem megfelelő, annyiban találó, hogy a nemzetállamok a nyugati világban vallásilag és világnézetileg semlegesek, de nem értéksemlegesek. A social media platform is hozhat értékalapú döntéseket, és kitilthatja a gyűlölködőket a rendszeréből, de ha a társadalmi nyilvánosságot alapvető intézménynek tekintjük – és nemigen tekinthetjük másnak –, akkor az ideológiai elfogultság, a világnézeti semlegesség feladása, bár a jogi szabályozás jelen eszköztárával nemigen tiltható, súlyos problémákhoz vezethet. A nyugati világ államai azonban demokráciák, így a szólásszabadság határait is választott képviselők és alkotmányos garanciák mellett működő hatóságok, bíróságok határozzák meg, illetve felügyelik a szabályok betartását. Ha egy social media platform államhoz hasonlít, akkor annak berendezkedése nem demokratikus.

Egy felmérés rögzítette azt az egyébként is könnyen felismerhető helyzetet, hogy az amerikai Szilícium-völgy technológiai cégeinek tulajdonosai és vezetői liberális, kozmopolita és globalista politikai nézeteket vallanak, az emberi jogok kiterjesztésének hívei, kivéve, ha a gazdasági érdekeiket érintő ügyről van szó. Az állami szabályozással, különösen a munkavállalást érintő szabályozással szemben határozottan ellenségesek, e tekintetben közel állnak a konzervatív libertáriusokhoz.302 A Facebook kapcsán találhatunk ideológiai elfogultságra utaló jeleket is. Egyértelműen politikai program – még ha megvalósítási esélyeit tekintve naivnak nevezhető is – például a Zuckerberg által 2017-ben jegyzett ‘kiáltvány’, amely a nemzetállami kereteket meghaladó globális közösség építésére hív fel.303 A szöveg már túllép a biztonságos tér biztosításának feladatán, és a nemzetállami keretek meghaladását vizionálja, ami a globalizáció korában természetesen önmagában nem új és nem ismeretlen, de a sorok között a nemzeti társadalmak meghaladásának célja olvasható ki, ami a világkereskedelem és a nemzetközi szervezetek, továbbá az egységesülő Európa korában is szembeötlő.

A 2016-os Trending Topics-ügyben világossá vált, hogy ha úgy kívánja, a Facebook is képes a direkt politikai befolyásolásra, akár magasztos célkitűzések és nyilvánosan vállalt világnézet hiányában is.304 A Google sem tűnt fel éppen kedvező színben, amikor egy alkalmazottját nemi diszkrimináció támogatása miatt rúgta ki, amikor az egy feljegyzést (memo) készített a platform ideológiai elfogultságát kritizálva.305 A feljegyzésben kritizált „visszhangkamra”, azaz az a technológiai óriás, amely egyébként a szólásszabadság védelme mellett áll ki alkalmazottai körében és felhasználói felé is, vita helyett eltávolította a szerzőt. Más kutatások a tartalmak közötti, világnézeti alapú szelekcióra hivatkoznak,306 és ez a gyanú éppen a platformok átláthatatlan döntéshozatali mechanizmusa miatt nehezen oszlatható el (és persze nehezen is bizonyítható). A platformok tulajdonosai és vezetői is gyakorolhatják szólásszabadságukat, és ez a szabadság értelemszerűen kiterjedhet a tulajdonukban álló infrastruktúrát érintő döntésekre is, de amennyiben egy platform igazán nagyra nő, és az ott zajló viták platform általi kezelését nem a gondolatok piacának tiszteletben tartása vezérli, azaz a platform átláthatatlan eszközökkel befolyásolni kívánja ezeket a vitákat, az károsíthatja a demokratikus nyilvánosságot.

5. Összefoglalás

A social media platformok alapvetően formálják át nemcsak a nyilvánosság szerkezetét és a véleményközlés, valamint a tájékozódás korábban ismert módjait, hanem a szólásszabadságra vonatkozó szabályozást is. Fontos körülmény, hogy a legnagyobb, legbefolyásosabb platformok az Egyesült Államokban székelnek, és tulajdonosaik, irányítóik, fejlesztőik az Első Alkotmány­kiegészítés eszméiből és gyakorlatából kiindulva közelítenek a szólásszabadság felé. Szintén fontos körülmény, hogy a nagy platformok emellett globális elérésűek, azaz számos országban található jelentős mennyiségű felhasználójuk, több állam jogrendszere is alkalmazható a feltöltött tartalmakkal szemben, ebből eredően a szólásszabadság több, különböző megközelítése is hatást gyakorol a platformok működésére. E körülményekből részben ellentétes hatások következnek: bizonyos esetekben a platformok egyfajta ‘világjoggá’ próbálják tenni az Első Alkotmány­kiegészítést, máskor pedig az amerikaihoz képest jóval szigorúbb szóláskorlátozásokat alkalmaznak vagy hajtanak végre állami kérésre, a felhasználók számára biztonságos tér és a békés üzleti környezet megőrzése érdekében. Az amerikai eredetű globális óriáscégek, amelyeken keresztül számos amerikai állampolgár is folytatja napi vitáit és beszélgetéseit, a szólásszabadság európaihoz közelítő szabályrendszerének hatálya alá kerülnek.307

Az állami szabályok, jogrendszerek alkalmazásán, a jogi felelősség elkerülésén túl a plat­formok saját ‘magánnormarendszerüket’ is alkalmazzák, aminek során nem a szólásszabadság erőteljes védelme a legfontosabb szempont. Az állam részben maga kényszeríti bírói szerepbe a platformokat, például az európai jogi megközelítés által, amely szerint számukra a jogellenes tartalmak megítélése a felelősség alóli mentesülés feltétele. Másrészt a platformok saját rendszerük tekintetében maguk is megvonják a szólásszabadság határait, különösebb külső korlátok nélkül. Két irányból is megalapozatlan tehát a platformokat semleges szolgáltatónak tekinteni, és két alapos okunk is van rá, hogy tevékenységüket a hagyományos médiaszerkesztőkéhez hasonlónak fogjuk fel. Ha ez így van, akkor azonnal felmerül a médiaszabályozás célkitűzéseinek számonkérése és eszköztárának az új szolgáltatásokkal szembeni esetleges alkalmazásának kérdése. Akármilyen kötelezettségeket is ír elő a jövőben számukra az állami vagy a közös európai jog, az állam és a platformok kényszerű egymásrautaltságban léteznek, a platformok részben kikényszerített, részben önként vállalt ‘jogalkalmazása’ pedig zárójelbe teszi a szólásszabadság tényleges jogi doktrínáit, és szűkíti az alkalmazási körüket. Ezzel párhuzamosan megnőhet a médiaszabályozás területén eddig jobbára idegen szerződési jog és fogyasztóvédelmi jog jelentősége a platformok által szólásszabadságukban korlátozott felhasználók védelmében.

* Egyetemi tanár, Nemzeti Közszolgálati Egyetem és Pázmány Péter Katolikus Egyetem. E-mail: koltay.andras@uni-nke.hu. A szerző köszöni Paul Bernal, Peter Coe, Robert Kahn, David Mangan, Szikora Tamás, Udvari Erzsébet Xénia és Paul Wragg szakértő megjegyzéseit és kritikáit, amelyeket a kézirat első változatához fűztek, továbbá hálásan gondol Reményi Édua szerkesztői segítségére.

1 Az Európai Parlament és a Tanács (EU) 2018/1808 irányelve (2018. november 14.) a tagállamok audiovizuális médiaszolgáltatások nyújtására vonatkozó egyes törvényi, rendeleti vagy közigazgatási rendelkezéseinek összehangolásáról szóló 2010/13/EU irányelvnek (audiovizuális médiaszolgáltatásokról szóló irányelv, AVMS irányelv) a változó piaci körülményekre tekintettel való módosításáról (új AVMS irányelv).

2 Francisco J. C. Blázquez et alii: The Legal Framework for Video-Sharing Platforms. Iris Plus, 2018-01, rm.coe.int/the-legal-framework-for-video-sharing-platforms/16808b05ee

3 A bizottság közleménye az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának. Online platformok és a digitális egységes piac – Lehetőség és kihívás Európa számára, COM(2016) 288 végleges, eur-lex.europa.eu/legal-content/HU/TXT/PDF/?uri=CELEX:52016DC0288&from=HU

4 Recommendation CM/Rec(2012)4 of the Committee of Ministers to member States on the protection of human rights with regard to social networking services (Adopted by the Committee of Ministers on 4 April 2012 at the 1139th meeting of the Ministers’ Deputies), search.coe.int/cm/Pages/result_details.aspx?ObjectID=09000016805caa9b, 6. pont.

5 Kevin Whipps: Facebook is Changing Your Like Button into a Range of Emotions. Creative Market, 2016. május 2., creativemarket.com/blog/facebook-is-changing-your-like-button-into-a-range-of-emotions

6 Bland v. Roberts 857 F.Supp. 2d 599 (ED Va., 2012).

7 Ira P. Robbins: What Is the Meaning of Like: The First Amendment Implications of Social-Media Expression. 7(1) The Federal Courts Law Review (2013) 127.; Leigh E. Gray: Thumb War: The Facebook „Like” Button and Free Speech in the Era of Social Networking. 7 Charleston Law Review (2013) 447.

8 Bland v. Roberts, No. 12-1671 (4th Cir. 2013).

9 Court: Facebook link, ’Like’ not defamation. Pittsburgh Post-Gazette, 2015. december 1., www.post-gazette.com/business/legal/2015/12/01/Court-Facebook-link-Like-not-defamation/stories/201512010001.

10 The Lord McAlpine of West Green v. Sally Bercow [2013] EWHC 1342 (QB).

11 Gill Grassie: The traps of social media: to ’like’ or not to ’like’. Oxford University Press blog, 2017. szeptember 18., blog.oup.com/2017/09/traps-of-social-media/; Man fined by Swiss court for ’liking’ defamatory comments on Facebook. The Guardian, 2017. május 30., www.theguardian.com/technology/2017/may/30/man-fined-swiss-court-liking-defamatory-comments-facebook

12 Keith Hampton et alii: Social Media and the ’Spiral of Silence’. Pew Research Center, 2014. augusztus 26., www.pewinternet.org/2014/08/26/social-media-and-the-spiral-of-silence/

13 Crookes v. Newton 2011 SCC 47.

14 Cass R. Sunstein: #Republic. Divided Democracy in the Age of Social Media. Princeton, NJ, Princeton ­University Press, 2017. L. még Peter Coe: (Re)embracing social responsibility theory as a basis for media speech: shifting the normative paradigm for a modern media. 69(4) Northern Ireland Legal Quarterly (2018) 403., 415–416.

15 Nathan Heller: The failure of Facebook democracy. The New Yorker, 2016. november 18., www.newyorker.com/culture/cultural-comment/the-failure-of-facebook-democracy

16 Vyacheslav Polonski: The biggest threat to democracy? Your social media feed. World Economic Forum, 2016. augusztus 4., www.weforum.org/agenda/2016/08/the-biggest-threat-to-democracy-your-social-media-feed/

17 William H. Dutton et alii: Social Shaping of the Politics of Internet Search and Networking: Moving Beyond Filter Bubbles, Echo Chambers, and Fake News. Quello Center Working Paper No. 2944191.

18 Eytan Bakshy – Solomon Messing – Lada A. Adamic: Exposure to ideologically diverse news and opinion on Facebook. Science, 2015. június 5., science.sciencemag.org/content/348/6239/1130

19 Christian Sandvig: The Facebook „It’s Not Our Fault” Study. Social Media Collective, 2015. május 7., socialmediacollective.org/2015/05/07/the-facebook-its-not-our-fault-study/; Eszter Hargittai: Why doesn’t Science publish important methods info prominently? Crooked Timber, 2015. május 7., crookedtimber.org/2015/05/07/why-doesnt-science-publish-important-methods-info-prominently/

20 Elisa Shearer – Jeffrey Gottfried: News Use Across Social Media Platforms 2017. Pew Research Center, (2017), assets.pewresearch.org/wp-content/uploads/sites/13/2017/09/13163032/PJ_17.08.23_socialMediaUpdate_FINAL.pdf

21 Number of monthly active Facebook users worldwide as of 2nd Quarter 2018 (in Millions). Statista, www.statista.com/statistics/264810/number-of-monthly-active-facebook-users-worldwide/

22 Ari E. Waldman: Manipulating Trust on Facebook. 29 Loyola Consumer Law Review (2016) 175.

23 Olivia Solon: Ex-Facebook president Sean Parker: site made to exploit human ‘vulnerability’. The Guar­dian, 2017. november 9., www.theguardian.com/technology/2017/nov/09/facebook-sean-parker-vulnerability-brain-psychology

24 Robinson Meyer: Everything We Know About Facebook’s Secret Mood Manipulation Experiment. The Atlantic, 2014. június 28., www.theatlantic.com/technology/archive/2014/06/everything-we-know-about-facebooks-secret-mood-manipulation-experiment/373648/

25 Adam D. I. Kramer – Jamie E. Guillory – Jeffrey T. Hancock: Experimental evidence of massive-scale emotional contagion through social networks (2014), www.pnas.org/content/pnas/111/24/8788.full.pdf

26 Michael Fenichel: Facebook Addiction Disorder (FAD), www.fenichel.com/facebook/

27 Julia C. Wong: Former Facebook executive: social media is ripping society apart. The Guardian, 2017. de­cember 12., www.theguardian.com/technology/2017/dec/11/facebook-former-executive-ripping-society-apart

28 Benjamin F. Jackson: Censorship and Freedom of Expression in the Age of Facebook. 44 New Mexico Law Review (2014) 121., 136.

29 Uo., 137.

30 Russell L. Weaver: From Gutenberg to the Internet: Free Speech, Advancing Technology, and the Implications for Democracy. Durham, NC, Carolina Academic Press, 2013. 74–84.

31 Paul Bernal: Publication Review. Clive Walker, Russell L. Weaver (szerk): Free Speech in an Internet Era: Papers from the Free Speech Discussion Forum. Public Law (2015) 192., 195.

32 Sarah Joseph: Social Media, Political Change, and Human Rights. 35 Boston College International and Comparative Law Review (2012) 145., 171.; Evgeny Morozov: The Net Delusion: The Dark Side of Internet Freedom. New York, PublicAffairs, 2011. 231–234.

33 Yasha Levine: Surveillance Valley: The Secret Military History of the Internet. New York, PublicAffairs, 2018. 234–236., 247.

34 John Hitz: Removing Disfavored Faces from Facebook: The Freedom of Speech Implications of Banning Sex Offenders from Social Media. 89(3) Indiana Law Journal (2014) 1327.

35 Uo., 1341.

36 Uo., 1349–1356.

37 Packingham v. North Carolina 137 S. Ct. 1730 (2017).

38 Reno v. ACLU 521 US 844 (1997).

39 Packingham (37. lj.) 1737.

40 Uo., 1736–1738.

41 Lyrissa Lidsky: Public Forum 2.0. 91 Boston University Law Review (2011) 1975., 1980–1992.

42 Packingham (37. lj.) 1743.

43 Uo., Case Note 238.

44 Kate Klonick: The New Governors: The People, Rules, and Processes Governing Online Speech. 131 Harvard Law Review (2018) 1599., 1609.

45 Facebook Is Not the Public Square. The New York Times, 2014. december 25., www.nytimes.com/2014/12/26/opinion/facebook-is-not-the-public-square.html

46 Mike Isaac: Facebook Said to Create Censorship Tool to Get Back Into China. The New York Times, 2016. november 22., www.nytimes.com/2016/11/22/technology/facebook-censorship-tool-china.html

47 Jason Murdock: Twitter: Why the Social Network Still Won’t Ban President Donald Trump. Newsweek, 2018. április 11., www.newsweek.com/twitter-why-social-network-still-wont-ban-president-trump-881455

48 Lidsky i. m. (41. lj.) 1994–2002.

49 Knight First Amendment Institute at Columbia University v. Trump no. 17 Civ. 5205 (NRB) (SDNY, 2018. május 23.).

50 Uo., 59–62.

51 Uo., 41–50.

52 Uo., 67–68.

53 Eugene Volokh: Cheap Speech and What It Will Do. 104 The Yale Law Journal (1995) 1805.

54 Uo., 1849.

55 Richard L. Hasen: Cheap Speech and What It Has Done (to American Democracy). School of Law, University of California, Irvine, Legal Studies Research Paper Series No. 2017-38. 202–216.

56 Lee Rainie – Janna Anderson – Jonathan Albright: The Future of Free Speech, Trolls, Anonimity and Fake News Online. Pew Research Center (2017), assets.pewresearch.org/wp-content/uploads/sites/14/2017/03/28162208/PI_2017.03.29_Social-Climate_FINAL.pdf

57 L. Peter Coe: Redefining ’media’ using a ’media-as-a-constitutional-component’ concept: an evaluation of the need for the European Court of Human Rights to alter its understanding of ’media’ within a new media landscape. 37(1) Legal Studies (2017) 25., 42– 44.

58 Matt Taibbi: Can We Be Saved From Facebook? Rolling Stone, 2018. április 3., www.rollingstone.com/politics/politics-features/can-we-be-saved-from-facebook-629567/

59 Katharine Viner: How technology disrupted the truth. The Guardian, 2016. július 12., www.theguardian.com/media/2016/jul/12/how-technology-disrupted-the-truth

60 Lili Levi: Social Media and the Press. 90 North Carolina Law Review (2012) 1531., 1555–1572.

61 Emily Bell: Facebook is eating the world. Columbia Journalism Review, 2016. március 7., www.cjr.org/analysis/facebook_and_media.php

62 Lili Levi: Real ’Fake News’ And Fake ’Fake News’. 16 First Amendment Law Review (2018) 232.

63 Paul Bernal: Fakebook: why Facebook makes the fake news problem inevitable. 69(4) Northern Ireland Legal Quarterly (2018) 497.

64 Uo.

65 Coe i. m. (14. lj.) 414–415.

66 Daniel Kreps: Alleged Facebook Killer: What We Know So Far. Rolling Stone, 2017. április 18., www.rollingstone.com/culture/culture-news/alleged-facebook-killer-what-we-know-so-far-121260/

67 Mike Isaac – Sydney Ember: Live Footage of Shootings Forces Facebook to Confront New Role. The New York Times, 2016. július 8., www.nytimes.com/2016/07/09/technology/facebook-dallas-live-video-breaking-news.html

68 Nick Allen: Gun Attacker Compared YouTube to Adolf Hitler, Accusing it of Censorship. The Daily Telegraph, 2018. április 5., 14.

69 Vegan YouTube ’drama’: ’I was falsely accused of offering online sex’. BBC, 2018. június 11., www.bbc.co.uk/news/blogs-trending-44387678

70 Timothy B. Lee: Mark Zuckerberg is in denial about how Facebook is harming our politics. Vox, 2016. no­vember 10., www.vox.com/new-money/2016/11/6/13509854/facebook-politics-news-bad

71 James Grimmelmann: The Platform is the Message. 2 Georgetown Law Technology Review (2018) 217.

72 Nicholas Thompson – Fred Vogelstein: Inside the Two Years That Shook Facebook – And the World. Wired, 2018. február 12., www.wired.com/story/inside-facebook-mark-zuckerberg-2-years-of-hell/

73 Alexis C. Madrigal: The False Dream of a Neutral Facebook. The Atlantic, 2017. szeptemben 28., www.theatlantic.com/technology/archive/2017/09/the-false-dream-of-a-neutral-facebook/541404/

74 Sam Thielman: Facebook news selection is in hands of editors not algorithms, documents show. The Guardian, 2016. május 12., www.theguardian.com/technology/2016/may/12/facebook-trending-news-leaked-documents-editor-guidelines

75 Antonio G. Martínez: How Trump Conquered Facebook – Without Russian Ads. Wires, 2018. február 18., www.wired.com/story/how-trump-conquered-facebookwithout-russian-ads/

76 Samanth Subramanian: Welcome to Veles, Macedonia, Fake News Factory to the World. Wires, 2017. február 15., www.wired.com/2017/02/veles-macedonia-fake-news/

77 Sheera Frenkel – Katie Benner: To Stir Discord in 2016, Russians Turned Most Often to Facebook. The New York Times, 2018. február 17., www.nytimes.com/2018/02/17/technology/indictment-russian-tech-facebook.html

78 „A Donald Trump választási stábjának és a sikeres brexitkampányon is dolgozó adatelemző cég amerikai választók millióinak Facebook-profilját gyűjtötte le – a technikai óriással kapcsolatos eddigi legnagyobb adatvédelmi visszaélés során –, hogy hatékony szoftvert készíthessen annak előrejelzéséhez és befolyásolásához, hogy mi történik a szavazóurnáknál. Egy whistleblower elmondta a The Observernek, hogy a Cambridge Analytica felhatalmazás nélkül használt fel személyes információkat 2014 elején az amerikai szavazók profilozására szolgáló rendszere felépítéséhez azért, hogy személyre szabott politikai hirdetésekkel lehessen őket megcélozni.” L. Cambridge Analytica Files, The Guardian, www.theguardian.com/news/series/cambridge-analytica-files

79 ThompsonVogelstein i. m. (72. lj.).

80 Frederic Filloux: How Facebook and Google Now Dominate Media Distribution. Monday Note, 2014.
­október 19., mondaynote.com/how-facebook-and-google-now-dominate-media-distribution-6263365d141a

81 Alex Hern: Facebook closed 583m fake accounts in first three months of 2018. The Guardian, 2018. ­május 15., www.theguardian.com/technology/2018/may/15/facebook-closed-583m-fake-accounts-in-first-three-months-of-2018

82 Lee i. m. (70. lj.).

83 Jack Balkin: Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. 51 University of California Davis Law Review (2018) 1179.

84 Uo., 1181.

85 Marvin Ammori: The „New” New York Times: Free Speech Lawyering In The Age Of Google And Twitter. 127 Harvard Law Review (2014) 2259., 2261–2263.

86 Az Európai Parlament és a Tanács 2000/31/EK irányelve (2000. június 8.) a belső piacon az információs társadalommal összefüggő szolgáltatások, különösen az elektronikus kereskedelem, egyes jogi vonatkozásairól (Elektronikus kereskedelemről szóló irányelv, Eker. irányelv), 14–15. cikk.

87 OGH, 6Ob116/17b, 2017. október 25-ei döntés.

88 Jacob Rowbottom: To Rant, Vent and Converse: Protecting Low Level Digital Speech. 71(2) Cambridge Law Journal (2012) 355., 357–366.

89 Social media and criminal offences. House of Lords (2014), publications.parliament.uk/pa/ld201415/ldselect/ldcomuni/37/3702.htm

90 Uta Kohl: Islamophobia, ’gross Offensiveness’ and the internet. Information & Communication Technology Law (2017), www.tandfonline.com/doi/full/10.1080/13600834.2017.1393936

91 Robert A. Kahn: Denial, Memory Bans and Social Media. Kézirat.

92 AVMS irányelv (1. lj.) 1. cikk.

93 Javaslat az Európai Parlament és a Tanács irányelve a tagállamok audiovizuális médiaszolgáltatások nyújtására vonatkozó egyes törvényi, rendeleti vagy közigazgatási rendelkezéseinek összehangolásáról szóló 2010/13/EU irányelvnek a változó piaci körülményekre tekintettel való módosításáról. COM/2016/0287 végleges – 2016/0151 (COD)(AVMS javaslat), eur-lex.europa.eu/legal-content/HU/TXT/HTML/?uri=CELEX:52016PC0287&from=HU

94 Új AVMS irányelv (1. lj.) 1. cikk (1) bek. aa) alpont (a jogszabályhely megjelölése a 2010-es AVMS irányelvhez képest történik, az azon való módosítást jelzi).

95 Duncan Robinson: Social networks face tougher EU oversight on video content. Financial Times, 2017. május 25., www.ft.com/content/d5746e06-3fd7-11e7-82b6-896b95f30f58

96 Új AVMS irányelv (1. lj.) (4) preambulumbekezdés.

97 AVMS javaslat (93. lj.) 28b. cikk (3) bek.

98 Uo.

99 Claire Ballentine: Yelp Can’t Be Ordered to Remove Negative Posts, California Court Rules. The New York Times, 2018. július 3., www.nytimes.com/2018/07/03/technology/yelp-negative-reviews-court-ruling.html

100 Tom Jackman – Jonathan O’Connell: Backpage has always claimed it doesn’t control sex-related ads. New documents show otherwise. The Washington Post, 2017. július 11., www.washingtonpost.com/local/public-safety/backpage-has-always-claimed-it-doesnt-control-sex-related-ads-new-documents-show-otherwise/2017/07/10/b3158ef6-553c-11e7-b38e-35fd8e0c288f_story.html?utm_term=.d2d3064b22c8

101 Allow States and Victims to Fight Online Sex Trafficking Act of 2017 (FOSTA). L. Trump signs ’FOSTA’ bill targeting online sex trafficing, enables states and victims to pursue websites. The Washington Post, 2018. április 11., www.washingtonpost.com/news/true-crime/wp/2018/04/11/trump-signs-fosta-bill-targeting-online-sex-trafficking-enables-states-and-victims-to-pursue-websites/?noredirect=on&utm_term=.faccd8cf7174

102 Az Európai Parlament és a Tanács 1215/2012/EU rendelete (2012. december 12.) a polgári és kereskedelmi ügyekben a joghatóságról, valamint a határozatok elismeréséről és végrehajtásáról.

103 Defamation Act 2013, 9. szakasz. L. Alex Mills: The law applicable to cross-border defamation on social media: whose law governs free speech in ‘Facebookistan’? 7(1) Journal of Media Law (2015) 1.

104 Anupam Chander: Facebookistan. 90 North Carolina Law Review (2012) 1807., 1836–1837.

105 Eker. irányelv (86. lj.) 2. cikk c) pont.

106 Uo., 3. cikk (2) bek.

107 Uo., 3. cikk (4) bek. a) pont.

108 Az Európai Parlament és a Tanács (EU) 2016/679. rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet) (GDPR) 55–56. cikk. Már a korábbi adatvédelmi irányelv is biztosított erre lehetőséget, l. pl. a CG v. Facebook Ireland Ltd. ügyet (Court of Appeal in Northern Ireland, MOR10142, 21/12/2016) az északír bíróságok előtt.

109 GDPR (108. lj.) 56. cikk (2) bek. L. még Facebook in Breach of German Data Protection Law. Verbraucher­zentrale Bunderverband, 2018. február 14., www.vzbv.de/sites/default/files/downloads/2018/02/14/18-02-12_vzbv_pm_facebook-urteil_en.pdf; és Facebook loses Belgian privacy case, faces fine of up to $125 million. ­Reuters, 2016. február 16., www.reuters.com/article/us-facebook-belgium/facebook-loses-belgian-privacy-case-faces-fine-of-up-to-125-million-idUSKCN1G01LG

110 L. pl. a kanadai döntést: Douez v. Facebook, Inc. 2017 SCC 33, scc-csc.lexum.com/scc-csc/scc-csc/en/item/16700/index.do

111 Brüsszel Ia. rendelet, 17. cikk (2) bek., 18. cikk (1) bek.

112 C-498/16 sz. Maximilian Schrems kontra Facebook Ireland Limited ügyben 2018. január 25-én hozott ítélet.

113 Az ügy még a Brüsszel Ia. rendelet hatálybalépését megelőzően, a korábbi szabályozás [Tanács 44/2001/EK rendelete (2000. december 22.) a polgári és kereskedelmi ügyekben a joghatóságról, valamint a határozatok elismeréséről és végrehajtásáról] alapján indult, amely azonban a fogyasztói jogvitákra vonatkozó joghatóság tekintetében a későbbi rendeletben szereplőkkel azonos rendelkezéseket tartalmazott.

115 L. New York Times Co. v. Sullivan 376 US 254 (1964); Reynolds v. Times Newspapers Ltd. [2001] 2 AC 127; Defamation Act 2013, 4. szakasz; Lingens v. Austria, no. 9815/82, 1986. július 8-ai ítélet.

116 Mills i. m. (103. lj.) 26.

117 Muwema v. Facebook Ireland Ltd. [2016] IEHC 519.

118 L. az ír Defamation Act 2009 27. szakaszát. Az angol jogban a védelem a „vétlen terjesztés” lenne, l. a Defamation Act 1996 1. szakasz 3. bekezdését.

119 Az angol szabály tartalma ugyanez. Megjegyzendő, hogy a kontinentális (civil) jogrendszerekben a jogsértésért való felelősség megállapításának feltétele lehet objektív is, azaz a jogsértő közlés tényén alapul, és legfeljebb azzal menthetné ki magát a platformszolgáltató, hogy nem tekinthető közlőnek a sérelmes kijelentés vonatkozásában.

120 Eoin O’Dell: Ireland: Reform of the law of defamation – the defence of innocent publication (Muwema v. Facebook, part 2). Inforrm’s Blog, 2016. szeptember 29., inforrm.org/2016/09/29/ireland-reform-of-the-law-of-defamation-the-defence-of-innocent-publication-muwema-v-facebook-part-2-eoin-odell/

121 Muwema v. Facebook Ireland (117. lj.) 40. bek.

122 Uo., 65. bek.

123 O’Dell i. m. (120. lj.).

124 L. pl. Franco Caraccioli v. Facebook, Inc. no. 16-15610 (9th Cir. 2017).

125 Batzel v. Smith 333 F.3d 1018, 1033 (9th Cir. 2003).

126 A továbbítás és a CDA 230. szakasza szerinti immunitás összefüggéseiről l. Daxton R. C. Stewart: When Retweets Attack: Are Twitter Users Liable for Republishing the Defamatory Tweets of Others? 90(2) Journalism & Mass Communication Quarterly (2013) 233.

127 New York Times Co. v. Sullivan (115. lj.).

128 Lyrissa Lidsky – RonNell Andersen Jones: Of Reasonable Readers and Unreasonable Speakers: Libel Law in a Networked World. 23 Virginia Journal of Social Policy and the Law (2016) 155.

129 L. pl. Karsai v. Hungary, no. 5380/07, 2009. december 1-jei ítélet.

130 Uo., 161–173.

131 LidskyAndersen Jones i. m. (128. lj.) 177.

132 Megan Richardson: Honour in a Time of Twitter. 5 Journal of Media Law (2013) 45. A példaként hozott Lord McAlpine azért egy pert is indított, l. McAlpine v. Bercow (10. lj.).

133 Jacob Rowbottom: In the Shadow of the Big Media: Freedom of Expression, Participation and the Production of Knowledge Online. Public Law (2014) 491.

134 Susie Alegre: Rethinking Freedom of Thought for the 21st Century. 3 European Human Rights Law Review (2017) 221., 226–227.

135 Sauvik Das – Adam Kramer: Self-Censorship on Facebook. Proceedings of the Seventh International AAAI Conference on Weblogs and Social Media (2013), www.aaai.org/ocs/index.php/ICWSM/ICWSM13/paper/viewFile/6093/6350

137 Von Hannover v. Germany, [2004] EMLR 379; Campbell v. MGN Ltd. [2004] UKHL 22.

138 E tekintetben érdekes fejleményt hozott a C-10/16 sz. Unabhängiges Landeszentrum für Datenschutz Schleswig-Holstein kontra Wirtschaftsakademie Schleswig-Holstein GmbH ügy [2018. június 5-ei ítélet (GC)], amelyben az Európai Unió Bírósága megállapította, hogy egy Facebookon nyitott rajongói oldal adminisztrátorai által a felhasználókról kezelt adatokkal kapcsolatos, a Facebook által elkövetett adatvédelmi jogsértésért nemcsak a platform, hanem az oldal adminisztrátorai is felelősek.

139 L. Damien McCallig: Facebook after death: an evolving policy in a social network. 22 International Journal of Law & Information Technology (2014) 107.; Bo Zhao: Posthumous Defamation and Posthumous Privacy Cases in the Digital Age. 3 Savannah Law Review (2016) 15.

140 Eker. irányelv (86. lj.) 14. cikk.

141 CG v. Facebook Ireland Ltd. (108. lj.).

142 Lorna Woods: When is Facebook liable for illegal content under the E-commerce Directive? CG v. Facebook in the Northern Ireland courts. EU Law Analysis, 2017. január 19., eulawanalysis.blogspot.com/2017/01/when-is-facebook-liable-for-illegal.html

143 L. e fejezet 2.1. alpontját.

144 L. Smith v. Trafford Housing Trust [2012] EWHC 3221 (Ch). A joggyakorlatról bővebben l. Dominic McGoldrick: The Limits of Freedom of Expression on Facebook and Social Networking Sites: A UK Perspective. 13(1) Human Rights Law Review (2013) 125., 139–149. De a munkahelyi szólásszabadsághoz való jog védelmének nehézségeit illetően l. Paul Wragg: Free Speech Rights at Work: Resolving the Differences between Practice and Liberal Principle. 44(1) Industrial Law Journal (2015) 1. L. még David Mangan: Online Speech and the Work­place: Public Right, Private Regulation. 39(2) Comparative Labor Law and Policy Journal (2018) 357.

145 Cara Magatelli: Facebook is Not Your Friend: Protecting a Private Employee’s Expectation of Privacy in Social Networking Content in the Twenty-First Century Workplace. 6 Journal of Business, Entrepreneurship & the Law (2012) 103.

146 Bărbulescu v. Romania, no 61496/08, 2017. szeptember 5-ei ítélet.

147 Mary-Rose Papandrea: Social Media, Public School Teachers, and the First Amendment. Boston College Law School, Legal Studies Research Paper Series No. 267 (2012).

148 The Times Issues Social Media Guidelines for the Newsroom. The New York Times, 2017. október 13., www.nytimes.com/2017/10/13/reader-center/social-media-guidelines.html

149 Nick Hopkins – Olivia Solon: Facebook flooded with ’sextortion’ and ’revenge porn’, files reveal. The Guardian, 2017. május 22., www.theguardian.com/news/2017/may/22/facebook-flooded-with-sextortion-and-revenge-porn-files-reveal

151 Communications Act 2003, 127. szakasz (1) bek. a) pont.

152 DPP v. Collins [2006] UKHL 40.

153 Uo., 9. bek.

154 Peter Coe: The Social Media Paradox: An Intersection with Freedom of Expression and the Criminal Law. 24(1) Information & Communications Technology Law (2015) 16., 32–33.

155 „If there is any consolation for finishing fourth at least Daley and Waterfield can go and bum each other #teamHIV.”

156 DPP statement on Tom Daley case and social media prosecutions. Crown Procesution Service Blog, 2012. szeptember 20., blog.cps.gov.uk/2012/09/dpp-statement-on-tom-daley-case-and-social-media-prosecutions.html

157 Steven Morris: Student jailed for racist Fabrice Muamba tweets. The Guardian, 2012. március 27., www.theguardian.com/uk/2012/mar/27/student-jailed-fabrice-muamba-tweets

158 Chambers v. DPP [2012] EWHC 2157.

159 Martin Beckford: Twitter joke trial conviction quashed in High Court. The Telegraph, 2012. július 27., www.telegraph.co.uk/technology/twitter/9431677/Twitter-joke-trial-conviction-quashed-in-High-Court.html

160 Chambers v. DPP (158. lj.) 17. bek.

161 Uo., 30. bek.

162 Man who filmed dog giving Nazi salutes fined £800. The Guardian, 2018. április 23., www.theguardian.com/uk-news/2018/apr/23/man-who-filmed-dog-giving-nazi-salutes-fined

163 1. szakasz (1) bek. a) pont.

164 Racial Hatred Act 2006 által módosított Public Order Act 1986, 3A rész.

165 L. Coe i. m. (154. lj.) 21–39.; Ammar Oozeer: Internet and social networks: freedom of expression in the digital age. 40(2) Commonwealth Law Bulletin (2014) 314., 351–356.; McGoldrick i. m. (144. lj.) 125–138.

166 Elonis v. the United States 575 US ____ (2015).

167 USC 18. cím 875. § c) pont.

168 Elonis (166. lj.) 14.

169 Uo., 13–17.

170 A bíróság azonban nem foglalkozott azzal a kérdéssel, hogy a szándékosságon túl büntethető-e a felelőtlen, a következményekkel nem törődő közlés (recklessness) is.

171 Emily Laidlaw: What is a Joke? Mapping the Path of a Speech Complaint on Social Networks. In: David Mangan – Lorna E. Gillies: The Legal Challenges of Social Media. Cheltenham, Edward Elgar, 2017. 127., 140.

172 Daniel S. Harawa: Social Media Thoughtcrimes. 35(1) Pace Law Review (2014) 366., 384–388.

173 Alexander Tsesis: Terrorist Speech on Social Media. 70 Vanderbilt Law Review (2017) 651.

174 Alexander Tsesis: Social Media Accountability For Terrorist Propaganda. 86 Fordham Law Review (2017) 605.

175 Andrew Buncombe: Orlando nightclub shooting victims’ families sue Facebook and Twitter For ’providing support’ to Isis. Independent, 2016. december 20., www.independent.co.uk/news/world/americas/orlando-nightclub-shooting-victims-families-sue-facebook-twitter-isis-material-support-provide-a7486906.html

176 Rowbottom i. m. (88. lj.) 370–376.

177 Paul Bernal: A Defence of Responsible Tweeting. 19(1) Communications Law (2014) 12.

178 Act to Improve Enforcement of the Law in Social Networks (Network Enforcement Act, 2017), www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/Dokumente/NetzDG_engl.pdf?__blob=publicationFile&v=2

179 Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG) Artikel 1 G. v. 01.09.2017 BGBl. I S. 3352 (Nr. 61), 1. szakasz.

180 Uo., 3. szakasz.

181 Uo., 4. szakasz.

182 Gerald Spindler: Internet Intermediary Liability Reloaded: The New German Act on Responsibility of Social Networks and its (In-) Compatibility with European Law. 8 Journal of Intellectual Property, Information Technology and E-Commerce Law (2017) 166., 167–170.

183 L. pl. Germany: Flawed Social Media Law. Human Rights Watch, 2018. február 14., www.hrw.org/news/2018/02/14/germany-flawed-social-media-law

184 Facebook deletes hundreds of posts under German hate-speech law. Reuters, 2018. július 27., uk.reuters.com/article/us-facebook-germany/facebook-deletes-hundreds-of-posts-under-german-hate-speech-law-idUKKBN1KH21L

185 Amanda Robb: Anatomy of a Fake News Scandal. Rolling Stone, 2017. november 16., www.rollingstone.com/politics/politics-news/anatomy-of-a-fake-news-scandal-125877/

186 Spencer R. Weart – Gertrud Weiss Szilard (szerk.): Leo Szilard: His version of the Facts. Cambridge, MA, MIT, 1978. 149.

187 L. még az ún. alternatív tények kategóriáját a Trump-adminisztráció kommunikációjában: Aaron Blake: Kellyanne Conway says Donald Trump’s team has ’alternative facts.’ Which pretty much says it all. The Washington Post, 2017. január 22., www.washingtonpost.com/news/the-fix/wp/2017/01/22/kellyanne-conway-says-donald-trumps-team-has-alternate-facts-which-pretty-much-says-it-all/?noredirect=on&utm_term=.12c228961a16

188 Bernal i. m. (63. lj.) 500–503.

189 United States v. Alvarez 567 US 709 (2012).

190 Uo., 722.

191 Uo., 726.

192 New York Times Co. v. Sullivan (115. lj.).

193 Uo.

194 David Klein – Joshua Wueller: Fake News: A Legal Perspective. 20 Journal of Internet Law (2017) 1.

195 Joel Timmer: Fighting Falsity: Fake News, Facebook, and the First Amendment. 35 Cardozo Arts & Entertainment Law Journal (2017) 669.

196 Communication on Tackling illegal content online: Towards an enhanced responsibility of online plat­forms. 28.9.2017, COM(2017) 555 final. 10., 3.3.1. pont.

197 Commission Recommendation of 1.3.2018 on measures to effectively tackle illegal content online, C(2018) 1177 final. 12., 18. pont.

198 Final report of the High Level Expert Group on Fake News and Online Disinformation (2018),
ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-news-and-online-disinformation

199 Uo., 10. Kimondatlanul is ok lehet még ezenfelül az, hogy Trump amerikai elnök rendszeresen fake newsnak nevezte a tradicionális médiavilág vele nem szimpatizáló részének egyes orgánumait, pl. a The New York Timest. L. Levi i. m. (62. lj.) 257–262.

200 High Level Expert Group (198. lj.) 10.

201 Uo., 6.

202 A Bizottság közleménye az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának – Európai megközelítés az online félretájékoztatás kezelésére, 2018. április 26., COM(2018) 236 végleges.

203 Uo., 9., 3.1.1. pont.

205 Netzwerkdurchsetzungsgesetz (179. lj.) 1. szakasz.

206 Laura Smith-Spark – Saskya Vandoorne: As France debates fake news bill, critics see threat to free speech. CNN, 2018. június 7., edition.cnn.com/2018/06/07/europe/france-fake-news-law-intl/index.html

207 Balkin i. m. (83. lj.) 1182.

208 Marjorie Heins: The Brave New World of Social Media Censorship. 127 Harvard Law Review Forum (2014) 325.

209 Balkin i. m. (83. lj.) 1193.

210 Uo., 1194.

211 L. e fejezet 2.3. alpontját.

212 Balkin i. m. (83. lj.) 1194.

213 Uo., 1195.; Klonick i. m. (44. lj.) 1625.

214 Zuckerberg in Holocaust denial row. BBC, 2018. július 19., www.bbc.com/news/technology-44883743

215 Janosch Delcker: Germany to Zuckerberg: There Won’t Be Holocaust Denial on German Facebook. Politico, 2018. július 19., www.politico.eu/article/germany-to-zuckerberg-there-wont-be-holocaust-denial-on-german-facebook/

216 L. pl. a meztelenség általános tiltása alapján hozott kétes szerkesztői döntéseket: Cecilia Rodriguez: Facebook Finally Lands in French Court for Deleting Nude Courbet Painting. Forbes, 2018. február 5., www.forbes.com/consent/?toURL=https://www.forbes.com/sites/ceciliarodriguez/2018/02/05/facebook-finally-lands-in-french-court-for-deleting-nude-courbet-painting/; Sam Levin – Julia C. Wong – Luke Harding: Facebook backs down from ’napalm girl’ censorship and reinstates photo. The Guardian, 2016. szeptember 9., www.theguardian.com/technology/2016/sep/09/facebook-reinstates-napalm-girl-photo

217 Balkin i. m. (83. lj.) 1196–1198.; az Amerikai Egyesült Államok Alkotmánya, Ötödik és Tizennegyedik Alkotmánykiegészítés.

218 Emberi Jogok Európai Egyezménye, 6. cikk.

219 Ammori i. m. (85. lj.) 2263.

220 Uo.

221 Chander i. m. (104. lj.) 1814.

222 Uo., 1816.

223 L. e fejezet 2.3. alpontját.

224 Jacquelyn E. Fradette: Online Terms of Service: A Shield for First Amendment Scrutiny of Government Action. 89 Notre Dame Law Review (2013–2014) 947., 953–957.

225 Uo., 971.

226 Uo., 977.

227 Michael L. Rustad – Thomas H. Koenig: Wolves of the World Wide Web: Reforming Social Networks’ Contracting Practices. Suffolk University, Law School, Legal Studies Research Paper Series No. 14-25 (2015).

229 Heins i. m. (208. lj.) 328.

230 L. Kevin Park: Facebook Used Takedown and It Was Super Effective! Finding a Framework for Protecting User Rights of Expression on Social Networking Sites. 68 New York University Annual Survey of American Law (2012–2013) 892.

231 Schrems v. Facebook (112. lj.).

232 Fradette i. m. (224. lj.) 957.

233 Park i. m. (230. lj.) 901.

234 Heins i. m. (208. lj.) 327.

235 18 W 1294/18, 2018. augusztus 24-ei ítélet. A döntés német nyelvű szövegét l. openjur.de/u/
2111165.html

237 1 O 71/18, 2018. augusztus 28. A döntés német nyelvű szövegét l. globalfreedomofexpression.columbia.edu/wp-content/uploads/2018/10/User-v-Facebook-Ireland.pdf

239 James Grimmelmann: The Virtues of Moderation. 17(1) Yale Journal of Law and Technology (2015) 42.

240 Benjamin F. Jackson: Censorship and Freedom of Expression in the Age of Facebook. 44 New Mexico Law Review (2014) 121., 127–129.

241 Uo., 130 –131.

242 Uo., 132–133.

243 Joseph i. m. (32. lj.) 178.

244 Klonick i. m. (44. lj.) 1627–1630.

245 Andrew M. Sevanian: Section 230 of the Communications Decency Act: A „Good Samaritan” Law Without the Requirement of Acting as a „Good Samaritan”. 21 UCLA Entertainment Law Review (2014) 122.

246 L. az egyik amerikai kerületi bíróság (District Court of Northern California) által eldöntött Young v. Facebook, Inc. ügyet (790 F.Supp.2d 1110). Az ügyben a felperes felhasználó szólásszabadsága sérelmére is hivatkozott (sikertelenül), mert amikor a „barátainak” száma elérte az ötezret, a Facebook arra kívánta kötelezni, hogy magánprofilját közéleti szereplői profillá alakítsa, ami az azon keresztüli kommunikációjának jóval szélesebb nyilvánosságot biztosított volna. Mivel ezt megtagadta, a platform törölte a profilt.

247 Jacobellis v. Ohio 378 US 184 (1964) 197.

248 Christina M. Mulligan: Technological Intermediaries and Freedom of the Press. 66 Southern Methodist University Law Review (2013) 157., 174.

249 Klonick i. m. (44. lj.) 1660.

250 Uo., 1661.

251 Uo., 1662–1664.

252 Brett J. Johnson: Facebook’s free speech balancing act: corporate social responsibility and norms of online discourse. 5 University of Baltimore Journal of Media Law & Ethics (2016) 19., 33–34.

253 Közösségi alapelvek, www.facebook.com/communitystandards/

255 A The Guardian „Facebook-aktáknak” szentelt aloldala: www.theguardian.com/news/series/facebook-files

256 Facebook’s manual on credible threats of violence. The Guardian, 2017. május 21., www.theguardian.com/news/gallery/2017/may/21/facebooks-manual-on-credible-threats-of-violence

257 Facebook finds Independence document ’racist’. BBC, 2018. július 5., www.bbc.co.uk/news/technology-44722728

258 Kara Swisher: Zuckerberg: The Recode interview. Recode, 2018. július 18., www.recode.net/2018/7/18/17575156/mark-zuckerberg-interview-facebook-recode-kara-swisher

259 Nicolas Suzor: After the ’Facebook Files’, the social media giant must be more transparent. The Conver­sation, 2017. május 22., theconversation.com/after-the-facebook-files-the-social-media-giant-must-be-more-transparent-78093

260 „Felnőtt meztelenség és szexuális tevékenység”, www.facebook.com/communitystandards/adult_nudity_sexual_activity

261 Nick Hopkins: Revealed: Facebook’s internal rulebook on sex, terrorism and violence. The Guardian, 2017. május 21., www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rulebook-sex-terrorism-violence

262 Mark Sweney: Mums furious as Facebook removes breastfeeding photos. The Guardian, 2008. december 30., www.theguardian.com/media/2008/dec/30/facebook-breastfeeding-ban

263 Rob Price: Facebook bans most photos of female nipples for ’safety’ reasons, exec says. Business Insider, 208. április 26., www.businessinsider.com/freethenipple-facebook-bans-photos-female-nipples-safety-2018-4

264 Philippe Sotto: French Court Issues Mixed Ruling in Facebook Nudity Case. US News, 2018. már­cius 15., www.usnews.com/news/business/articles/2018-03-15/french-court-issues-mixed-ruling-in-facebook-nudity-case

265 Doug Bolton: Facebook removes image of Copenhagen’s Little Mermaid statue for breaking nudity rules. Independent, 2016. január 6., www.independent.co.uk/life-style/gadgets-and-tech/news/little-mermaid-copenhagen-denmark-removed-by-facebook-nudity-rules-a6799046.html

266 Edward Helmore: Facebook blocks photo of Neptune statue for being ’explicitly sexual’. The Guardian, 2017. január 2., www.theguardian.com/world/2017/jan/02/facebook-blocks-nude-neptune-statue-bologna-italy

267 Alexandra Ma: Facebook banned a user from posting a photo of a 30,000-year-old statue of a naked woman – and people are furious. Business Insider, 2018. március 1., www.businessinsider.com/facebook-bans-venus-of-willendorf-photos-over-nudity-policy-2018-3

268 Daniel Boffey: Barefaced Cheek: Rubens nudes fall foul of Facebook censors. The Guardian, 2018. jú­lius 23., www.theguardian.com/technology/2018/jul/23/barefaced-cheek-rubens-nudes-fall-foul-of-facebook-censors

269 Julia Carrie Wong: Mark Zuckerberg accused of abusing power after Facebook deletes ’napalm girl’ post. The Guardian, 2016. szeptember 8., www.theguardian.com/technology/2016/sep/08/facebook-mark-zuckerberg-napalm-girl-photo-vietnam-war

270 LevinWongHarding i. m. (216. lj.).

271 Leo Kelion: Facebook lets beheading clips return to social network. BBC, 2013. október 21., www.bbc.co.uk/news/technology-24608499

272 Haroon Siddique et alii: Facebook removes Mexican beheading video. The Guardian, 2013. október 23., www.theguardian.com/technology/2013/oct/23/facebook-removes-beheading-video

273 Adi Robertson: YouTube says new moderators might have mistakenly purged right-wing channels. The Verge, 2018. február 28., www.theverge.com/2018/2/28/17064470/youtube-infowars-right-wing-channels-strike-ban-moderator-mistake

274 David Gilbert: Why Facebook Censored a „Racist” Video from Hungary’s Government – Then Put it Back. Vice, 2018. március 9., news.vice.com/en_ca/article/gy87m4/why-facebook-censored-a-racist-video-from-hungarys-government-then-put-it-back

275 Barbara Ortutay: Here’s Why Twitter Won’t Ban Donald Trump. Black America Web, 2018. július 23., blackamericaweb.com/2018/07/23/heres-why-twitter-wont-ban-donald-trump/

276 European Commission: Countering illegal hate speech online, #NoPlace4Hate (2018), ec.europa.eu/newsroom/just/item-detail.cfm?item_id=54300

277 Results of Commission’s last round of monitoring of the Code of Conduct against online hate speech (2018), ec.europa.eu/newsroom/just/item-detail.cfm?item_id=612086

278 European Commission: Countering illegal hate speech online. Commission initiative shows continued improve­ment, further platforms join (2018), europa.eu/rapid/press-release_IP-18-261_en.htm; Daniel Boffey: EU threatens to crack down on Facebook over hate speech. The Guardian, 2018. április 11., www.theguardian.com/technology/2018/apr/11/eu-heavy-sanctions-online-hate-speech-facebook-scandal

279 Robin Foster: News Plurality in a Digital World. University of Oxford – Reuters Institute for the Study of Journalism (2012), reutersinstitute.politics.ox.ac.uk/sites/default/files/2017-11/News%20Plurality%20in%20a%20Digital%20World_0.pdf, 30.

280 Paul Bernal: The Internet, Warts and All. Free speech, Privacy and Truth. Cambridge, Cambridge University Press, 2018. 71–101.

281 Klonick i. m. (44. lj.) 1665.

282 Frank Fagan: Systemic Social Media Regulation. 16(1) Duke Law & Technology Review (2018) 393.

283 Emily Bell: Why Facebook’s news feed changes are bad news for democracy. The Guardian, 2018. ja­nuár 21., www.theguardian.com/media/media-blog/2018/jan/21/why-facebook-news-feed-changes-bad-news-democracy

284 Vö. szűrőbuborék-elmélet. Lásd a 2.2. pontot.

285 Sarah Eskens – Natali Helberger – Judith Moeller: Challenged by news personalisation: five per­spect­ives on the right to receive information. 17(2) Journal of Media Law (2017) 259., 281.

286 Philip Bump: Did Facebook bury conservative news? Ex-staffers say yes. The Washington Post, 2016. ­május 9., www.washingtonpost.com/news/the-fix/wp/2016/05/09/former-facebook-staff-say-conservative-news-was-buried-raising-questions-about-its-political-influence/?noredirect=on&utm_term=.8338634b2401; ­Michael Nunez: Former Facebook Workers: We Routinely Suppressed Conservative News. Gizmodo, 2016. május 9., gizmodo.com/former-facebook-workers-we-routinely-suppressed-conser-1775461006

287 Thielman i. m. (74. lj.).

288 Natali Helberger – Damian Trilling: Facebook is a news editor: the real issues to be concerned about. LSE Media Policy Project, 2016. május 26., blogs.lse.ac.uk/mediapolicyproject/2016/05/26/facebook-is-a-news-editor-the-real-issues-to-be-concerned-about/

289 Chris Morris: Facebook Kills ’Trending’ Topics, Will Test ’Breaking News’ Label. Fortune, 2018. június 1., fortune.com/2018/06/01/facebook-kills-trending-news-topics/

290 Bernal i. m. (63. lj.) 506–509.

291 Hasen i. m. (55. lj.) 226–230.

292 Levi i. m. (62. lj.) 285.

293 Jessica Stone-Erdman: Just the (Alternative) Facts, Ma’am: The Status of Fake News Under the First Amendment. 16 First Amendment Law Review (2018) 410; Sarah Perez: Facebook expands fact-checking program adopts new technology for fighting fake news. TechCrunch, 2018. június 21., techcrunch.com/2018/06/21/facebook-expands-fact-checking-program-adopts-new-technology-for-fighting-fake-news/?guccounter=1

294 Catherine Shu: Facebook will ditch Disputed Flags on fake news and display links to trustworthy articles instead. TechCrunch, 2017. december 20., techcrunch.com/2017/12/20/facebook-will-ditch-disputed-flags-on-fake-news-and-display-links-to-trustworthy-articles-instead/

295 High Level Expert Group on Fake news and online disinformation i. m. (198. lj.).

296 Uo., 33.

297 Uo.

298 A Bizottság közleménye (202. lj.).

299 Netzwerkdurchsetzungsgesetz (179. lj.).

300 Bernal i. m. (280. lj.) 127.

301 Chander i. m. (104. lj.).

302 Farhad Manjoo: Silicon Valley’s Politics: Liberal, With One Big Exception. The New York Times, 2017. szeptember 6.

303 Mark Zuckerberg: Building Global Community (2017. február 16.), www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634/

304 L. e fejezet 4.4. alpontját.

305 Daisuke Wakabayashi: Contentious Memo Strikes Nerve Inside Google and Out. The New York Times, 2017. augusztus 8., www.nytimes.com/2017/08/08/technology/google-engineer-fired-gender-memo.html

306 Craig Parshall: The Future of Free Speech, Free Press, and Religious Freedom on Facebook, Google, Apple, etc. National Religious Broadcasters (2013), nrb.org/files/6213/9819/8017/The_Future_of_Free_Speech_Free_Press_and_Religious_Freedom_on_Facebook_
Google_Apple_etc__A_Current_Assessment.pdf

307 Ammori i. m. (85. lj.) 2263.