Kódokba zárt jog Néhány gondolat az új AVMS irányelv kapcsán

Szerző: Ződi Zsolt,
Dátum: december 18, 2019 10:26 de.
PDF letöltése
2019/2

1. Bevezetés

Az új, audiovizuális médiaszolgáltatásokról szóló (AVMS) irányelv1 többféle újítása között az egyik legfontosabb, hogy kiterjesztette hatályát a videómegosztó platformokra is, kötelezve őket arra, hogy tart(as)sanak be a felületükön megjelenő tartalmakkal kapcsolatban bizonyos szabályokat. Ezek a szabályok a veszélyes tartalmakra irányulnak: a kiskorúak fizikai, szellemi vagy erkölcsi fejlődését veszélyeztető közleményekre, valamint a gyűlöletkeltő és bűncselekménynek minősülő tartalmakra (például a gyermekpornográfiára és a terrorista propagandára).2 Mivel az irányelv nem változtatta meg a platformok jogi státusát – így azok továbbra is ún. közvetítő szolgáltatók, amelyek nem kötelesek folyamatosan figyelni a felületükre felkerülő jogellenes tartalmakat, csak utólag, jelzés esetén kell eltávolítaniuk azokat –, az irányelv alkotói (részben) más módszert választottak, hogy érvényesítsék a szabályokat.

Egyrészt az irányelv számos technikai megoldást sorol fel, amelyeket a tagállami jogalkotás során elő kell majd írni, és amelyeket ennek nyomán a videómegosztó platformoknak ki kell fejleszteni és működtetni kell, másrészt szinte biztos, hogy a platformok ennél sokkal tovább fognak menni: előzetesen, már a feltöltés előtt szűrni fogják a tartalmakat – már most is ezt ­teszik. A konkrét megoldásokat még nem látjuk mindenhol, de egy bizonyos: a technológia kulcsszerepet fog játszani a rendelkezések hatékony betartatásában.

Az AVMS irányelv csak egy példája annak, amivel ebben a dolgozatban foglalkozom. Úgy tűnik, hogy a jog egyre kevésbé szabályoz közvetlenül „emberi magatartásokat”, és egyre gyakrabban nyúl a közvetlen technológiaszabályozás módszeréhez – ahhoz, hogy kijelöl, megnevez egy technológiai módszert, funkciót, rendszert, mechanizmust, amelyen keresztül a szabályozandó célt el akarja érni. A technológiát eddig is gyakran használtuk a jog kikényszerítésére (például a nyomozások során), ezekben az esetekben azonban ennél többről van szó: a jogszabályok – amellett, hogy leírják az elérendő célt, és valamilyen emberi magatartást is előírnak – mindezt megtámogatják konkrét „technikai ötletekkel” is. Sőt, olykor a közvetlen emberimagatartás-szabályozás el is marad: a jogszabály előírja a célokat, majd azonnal a cél eléréséhez szükséges technológiát ismerteti. Ezek a szabályok nem neveznek meg konkrét szoftveres megoldást, gyártót vagy rendszert (ebben az értelemben „technológiasemlegesek”), de a szoftver működésére, funkcióira, kimeneteire (esetleg más módszerekkel együtt) konkrétan utalnak. A jogszabályok célja végső soron továbbra is az emberek magatartásának szabályozása, de úgy tűnik, hogy mivel az online világban a magatartást hatékonyabban lehet a technológia közvetlen szabályozásával befolyásolni, mint magatartási szabályokkal, a jogszabályok egyre szélesebb körben élnek ezzel a lehetőséggel.

Írásomban ezt a jelenséget fogom elemezni. A következő részben röviden bemutatom az AVMS irányelvben található szabályozás lényegét, és utalok néhány más példára is, amelyek ehhez hasonlóan a technológián keresztüli magatartásbefolyásolás eszközével élnek. A harmadik részben ismertetem azt a diskurzust, amely már csaknem két és fél évtizede zajlik a szakiro­dalomban a technológia szabályozása és a technológiával (kódokkal, algoritmusokkal) történő magatartásszabályozással kapcsolatban. A negyedik részben megpróbálom számba venni azokat a kockázatokat, amelyeket ez a szabályozási módszer felvet. Végül az ötödik részben ismertetem azokat a szabályozási dilemmákat, amelyeket ez az új helyzet teremtett, és néhány javaslatot teszek a feloldásukra.

2. Technológiaszabályozás az AVMS irányelvben és máshol

Az AVMS irányelv eredeti formájában kizárólag olyan szolgáltatásokra vonatkozott, „ame­ly[ek]ért egy médiaszolgáltató szerkesztői felelősséggel rendelkezik”.3 A szóban forgó platformok nyilván nem televíziótársaságok, ahol szerkesztők és műsorkészítők kontrollálják a tartalmat, hanem a legtöbb esetben olyan weboldalak, ahol felhasználói tartalmak jelennek meg, méghozzá percenként akár százezres nagyságrendben. Ezért az AVMS irányelv megtartotta a videó­megosztó platformok alapvető jogi besorolását (amely az Eker. irányelv4 szerint ún. köz­vetítő szolgáltató) és ezzel együtt azt az elvet, hogy a platformok nem kötelesek folyamatosan szűrni a rájuk felkerülő tartalmakat.5

Ugyanakkor az irányelv egyik komoly újítása, hogy konkrét „ötleteket” tartalmaz arra ­vonatkozóan, hogy milyen intézkedésekre gondol, amikor a tagállamokat arra kötelezi, hogy „a joghatóságuk alá tartozó videómegosztóplatform-szolgáltatók megfeleljenek a 9. cikk 1. bekezdésében foglalt követelményeknek”.6 A j) pontig tartó felsorolásban találhatunk egyszerű kötelezéseket is (mint például: a tilalmaknak bele kell kerülniük a felhasználókkal kötött szer­ződésekbe), de a pontok többsége „funkciókra”, „rendszerekre” és „mechanizmusokra” utal. (Vö. „életkor-ellenőrző”, „szülői felügyeleti”, a tartalom minősítését lehetővé tevő rendszerek stb.) Ez a jelenség manapság egyre gyakoribb: a jogszabályokban megjelennek az adott jogszabály technikai végrehajtásával kapcsolatos alapvető előírások vagy olykor egészen konkrét kötelezések.

Így például az Általános adatvédelmi rendelet (GDPR) „beépített és alapértelmezett adatvédelemre” vonatkozó rendelkezései7 igen hasonlók az új AVMS irányelv vonatkozó rendelkezéseihez, hiszen kimondják, hogy az adatkezelő „olyan megfelelő technikai és szervezési intézkedéseket – például álnevesítést – hajt végre, amelyek célja […] az adatvédelmi elvek hatékony megvalósítása”, továbbá „[a]z adatkezelő megfelelő technikai és szervezési intézkedéseket hajt végre annak biztosítására, hogy alapértelmezés szerint kizárólag olyan személyes adatok kezelésére kerüljön sor, amelyek az adott konkrét adatkezelési cél szempontjából szükségesek.”8

Másik példaként a pénzügyi eszközök piacairól szóló MiFID 2 irányelv9 a „technika” kifejezést 173, míg az „algoritmus” szót 71 alkalommal említi. Itt nemcsak arról van szó, hogy az irányelv technikai intézkedéseket ír elő a magatartási szabályok betartatására, hanem közvet­lenül követelményeket határoz meg a már létező technológiákkal (például a nagy sebességű ­tőzsdeikereskedő-algoritmusokkal) kapcsolatban is. (A tagállamok előírják, hogy „végezzék el az algoritmusok megfelelő tesztelését, […] hogy az algoritmikus kereskedés rendszerei ne hozhassanak létre rendellenes kereskedési feltételeket a piacon.”)10

A magatartásirányító kódok leglátványosabb fajtája azonban mégiscsak az, amelyet éppen a platformok alkalmaznak a rajtuk megjelenő tartalom szűrésére, monitorozására. Ahogy azt fentebb említettem, elvileg erre nem kötelesek, azonban ahogy az előírások szigorodnak, a bírságok pedig nőnek, szinte bizonyos, hogy ez lesz a tartalmakkal kapcsolatos előírások betartatásának fő módja a platformokon. Hogyan kell mindezt elképzelni?

A Facebook a terrorista cselekmények és szervezetek propagandájának tilalmára koncentrálva már létrehozott egy cselekvéssort, amely öt elemből áll.11 A kép-összehasonlító algoritmus (image matching) azonosítja a mozgó- vagy állóképet, és amennyiben már korábban terrorista tartalomként jelölték meg, nem engedi azt nyilvánosságra kerülni. A nyelvi elemző algoritmus megpróbálja megérteni és azonosítani a terrorista tartalmat. A hálózatelemző algoritmus a terroristaként számontartott és letiltott profilokhoz kapcsolódó más profilokat vizsgálja és távo­lítja el (ezt hívja a „terrorista klaszterek” eltávolításának a Facebook). A „visszaeső-azonosító” algoritmus a már korábban letiltott személyek újabb, hamis profilokon keresztül történő próbálkozásait igyekszik kiszűrni. Végül az ötödik módszer az, hogy a Facebook összeveti a tulajdonában levő más platformok (az Instagram és a WhatsApp) adatait is. (Ez utóbbiról nem tudunk túl sokat.)

Bár ez a rendszer nemcsak audiovizuális tartalmakat képes kiszűrni, nagyon valószínű, hogy a logika a tisztán mozgóképi tartalmak közzétételére létrejött platformok esetében sem lesz más: a konkrét képsor elemzésén kívül (korábban volt-e már jogellenes címkével ellátva, a képen található-e tiltott vizuális elem, erőszak, meztelenség, szerepelnek-e rajta tiltott szimbólumok stb.) a rendszer megvizsgálja majd a hanganyagban található szövegeket, valamint elemzi a felhasználóval, feltöltővel kapcsolatos információkat is. A rendszer minden posztot megvizsgál, aminek háromféle eredménye lehet: a kód vagy átengedi a posztot, vagy letiltja, vagy „gyanús” esetként kiszűri, és a moderátoroknak továbbítja, akik azután meghozzák a végső döntést.

A szűrőszoftverek többféle módszer szerint működnek, amelyeknek egy része teljesen átlátható és nagyon egyszerű, mint amilyen a tiltott szavakat tartalmazó szótárral való egybevetés, egy másik része azonban egészen komoly mesterséges intelligenciá(ka)t (MI) tartalmazó kódhalmaz. Ez azért nyugtalanító, mert a platformok a társas életünk rendkívül fontos színtereivé váltak, és kényelmetlen érzés, hogy a rajtuk történő megjelenésről, sőt magáról az online „létezésről” is algoritmusok döntsenek. Ugyanakkor a jelenség nem váratlan vagy meglepő – a kódok fontosságát az online térben a jogtudományi irodalom régóta érzékeli.

3. A magatartásszabályozó kódok diskurzusa az irodalomban

Ahogy Roger Brownsword és Karen Yeung a Regulating Technologies című könyvük bevezető­jében jelzik, a jog és a technológia találkozási pontján két problémahalmaz helyezkedik el:12 a technológia közvetlen szabályozása és a magatartásszabályozás a technológia által.

Az első – a technológia megregulázásának, féken tartásának törekvése a jog segítségével – régóta ismert jelenség, bár a legutóbbi időkig a konkrét technológiák szabályozása inkább a technikai szabványok terrénumára esett. A jog a technológiai megfelelőséget általános megfogalmazásaival igyekezett elérni, azonban újabban már találkozunk olyan szabályokkal is, amelyek a szakmai nyelvezetet meg sem próbálják lefordítani a kötelezések és jogosultságok jogászi nyelvére, hanem közvetlenül és nyersen tartalmazzák a mennyiségi-technikai előírásokat (sokszor a mellékletekben).13

Témánk szempontjából izgalmasabb a második eset: amikor a technológiát magatartás­irányításra használják. Lawrence Lessig14 helyesen írja a könyvében, hogy a magatartásirányítás ilyen, kényszerítő erejű előképe az „architektúrával” való magatartásbefolyásolás. Architektúra például a kerítés, amely a tulajdon szabályait tartatja be, illetve a fekvőrendőr, amely pedig a sebességkorlátozást. A számítógép elterjedésével azután megjelent az architektúra virtuális vál­tozata is: a kód. Ilyen például a felhasználónév–jelszó páros, amely tényleges „jogosultságot” kontrollál, a másolásvédelem, amely a szerzői jogot tartatja be, az elektronikus cégeljáráshoz kapcsolódó űrlap, amelynek rubrikáiba csak az algoritmusok által megengedett – és szerencsés esetben a cégtörvény rendelkezéseivel összhangban levő – értékeket lehet beírni, valamint a bérszámfejtő szoftver, amely a munkajog alapvető rendelkezéseit képezi le.

Eddig ez a kódolt jog – mivel szigetszerűen, olyan rendszerekben jelentkezett, amelyeket szűkebb szakmai közösségek használtak professzionális célokra – nem volt feltűnő, most azonban rohamosan terjed, mert a virtuális térben az egyetlen architektúra a kód. Ezzel egy időben a jogalkotó egyre gyakrabban számol vele, sőt igyekszik ösztönözni a létrehozását. Ennek egyszerű okai vannak: részint a cikk elején említett mennyiségi tényező (a több millió felhasználót és milliárdnyi aktivitásukat – a videómegosztó platformokon a feltöltést – csak a gép tudja kontrollálni), részint pedig az, hogy a kódok hatalmas előnnyel bírnak a joggal szemben (mivel olyanok, mintha a fizikai valóság részei lennének,15 lényegében megszeghetetlenek). Ebből azután egy olyan, önmaga farkába harapó kígyó lesz, amelyet technológiaszabályozás révén létrehozott magatartásszabályozó technológiának nevezhetünk. Ez azt jelenti, hogy a jog már nem közvetlenül szabályozza a magatartást, hanem definiálja azokat a technológiákat, amelyek majd ilyen vagy olyan irányba befolyásolják az embereket.

Mindez számos igen lényeges kérdést vet fel: hogyan fest (fog festeni) az a jövő, ahol szinte minden emberi magatartást kódok irányítanak, és mi lesz ebben a jövőben a jog szerepe? Vajon megőrződik-e a jog primátusa ebben a helyzetben? Egyáltalán, milyen lesz a jog és a kódok viszonya? Hogyan tartjuk féken a kódokat, ha nem a joggal?

Az, hogy az online világban a jog mint magatartásirányító eszköz elgyengül, vagy akár teljesen el is veszíti jelentőségét, már az internet megjelenésének egészen korai időszakában felmerült. A legelső cikk, amelyet a témában írtak, David Johnson és David Post 1996-os írása volt,16 amelyben a szerzők azt fejtegették, hogy az online térben más szabályrendszerre van szükség, mint azokban a terekben, ahol fizikai határok és korlátok vannak. Ez a cikk még arra futott ki, hogy ezek a szabályok nem ismernek államhatárokat, és mivel szinte minden szabályozott emberi aktivitás képes átvándorolni a netre, ez folyamatosan problémákat fog okozni a szabá­lyozóknak. Joel Reidenberg két évvel később már a magatartásirányító kódok jelentőségéről ­beszélt, arról, hogy a technológiai lehetőségekkel és a rendszerek felépítésével kapcsolatos döntések (system design choices) a Lex Mercatoria, a középkori kereskedelmi jog mintájára egyfajta Lex Informaticát hoznak létre.17 A korszak egyik legbefolyásosabb figurája, Lessig könyvében pedig – ahogy azt már említettem – ez a gondolat lett a vezérmotívum.18

Lessig szerint az emberi magatartás irányításának négy módja van: a normák (szokások), a jogszabályok, a piaci törvényszerűségek (ösztönzők) és az architektúra. Az architektúra nemcsak tényleges fizikai tárgyakban jelenhet meg, hanem előre programozott formában is, amelynek kifejlett formája a számítógépes kód. Mirelle Hildebrandt a kódokkal történő szabályozást „konstitutívnak” nevezte, szemben a jog „regulatív” szabályaival.19 Brownsword, továbbszőve Lessig gondolatmenetét, felhívta a figyelmet arra a jelenségre és veszélyre, hogy a „nyugati ­parti” szabályozás (a kód) nem „beszél” a címzettekhez (mint a „keleti parti” szabályok, kihasználva azt, hogy értelemmel rendelkező lényekről van szó), hanem egyszerűen rájuk kényszerít egy megszeghetetlen szabályrendszert.20 Ennek más következményei is vannak: ha a kormányzat az architektúrát (kódot) szabályozza, ezzel az architektúra előállítóját „társ- (vagy helyettes) szabályozóként” vonja be. A cél a helyes szabályozási keverék megtalálása.

Brownsword Andrew – Murray és Colin Scott kibernetikai modelljét rekonstruálva21 – a szabályozás három elemét (vagy lépcsőfokát) különböztette meg, melyek a következők:

1. valamilyen cél, sztenderd, szabály vagy egyéb norma, amelyre a rendszer irányul,

2. valamilyen mechanizmus, amely a rendszer működését méri, monitorozza, és

3. valamilyen mechanizmus, amely visszatereli a rendszert, ha eltér a kívánatos állapottól.

Ha a „nyugat parti”, azaz kóddal történő szabályozást választja a jogalkotó, akkor ez a három dimenzió úgy néz ki, hogy a célt egy általában nagyon általánosan megfogalmazott jog­alkotói előírás és egy ennek nyomán az adott kódot működtető szolgáltató, platform által ­kidolgozott belső szabályzat tartalmazza. Az elv még nyelvi megfogalmazású, de a rendszer működését már tisztán egy – gyakran nem transzparens – kód monitorozza, végül a visszaterelést (szankcionálást, javító intézkedéseket) szintén kódokba zárt mechanizmusok végzik. Vegyük észre, hogy a társszabályozás ezekben az esetekben a szabályozás lényegi részét érinti: valójában sokkal több, mint „részletszabályok” és betartatási mechanizmusok szinte lényegtelen technikai szabályainak megalkotása. A végfelhasználók oldaláról nézve minden részletkérdés a kódokon múlik, a szabályozottaknak pedig esélyük sincs arra, hogy végiggondolják a szabályokat, és esetleg azok megszegését is választhassák, mivel a kódokba épülő szabályok nem „látszanak”, „vivőanyaguk” ugyanis nem a nyelv, így megszeghetetlenek.

4. Kockázatok és mellékhatások

A kódokkal történő magatartásszabályozás bemutatásakor már felmerült néhány kérdés, amelyet annak a jog helyébe nyomulása felvet. Részben kockázatokról van szó, részben pedig csak arról, hogy a jog képe radikálisan meg fog változni a technológiai szabályok elszaporodásával. Ezt az új helyzetet három kockázattal jellemzem: a kódok megszeghetetlenek, vivőközegük nem a nyelv, és nem a jogászi szakma felügyelete alatt állnak.

4.1. A kód megszeghetetlen

Már volt szó arról, hogy az online világ kódokat használ a működéséhez, és a kódokkal igen hatékonyan lehet a vele, sőt benne tevékenykedő (részévé vált) emberek magatartását irányítani – valójában sokkal hatékonyabban, mint a nemzetállamok természetes nyelven megfogalmazott (jogi) szabályaival. Lessig szerint „a cybertér láthatatlan keze olyan architektúrát épít, amely épp az ellenkezője annak, ami a születésekor volt. Ez a láthatatlan kéz, amelyet kormányzatok és cégek irányítanak, olyan architektúrát szerkeszt, amely tökéletes kontrollt és nagyon hatékony szabályozást tesz lehetővé.”22

A jogszabályok csak korlátozott területen érvényesülnek, óriási költségeket generálnak, és hatalmas apparátus segítségével kikényszeríthetők ki. Ehhez képest igen könnyen megszeghetők. A kódok ebből a szemszögből nézve sokkal hatékonyabbak, mert képesek a fizikai világban is akadályokat képezni. Képzeljünk el például egy autót, amely a sofőr leheletét elemzi ki, és nem indul el, ha abban az alkoholszint meghalad egy adott értéket, vagy egy banki programot, amely csak az ingatlan-nyilvántartási bejegyzés után indítja el az utalást; egy olyan dolgozói teljesítménymérő rendszert, amely kizárólag objektív kritériumok és mérések alapján sorolja be és bocsátja el a dolgozókat, vagy akár egy térkamera-hálózatra kötött viselkedéselemzőt, amely ­képes kiszűrni a tipikus bűncselekményre utaló mozgási mintázatokat, és képes azonnal intézkedni.

Persze könnyű azt mondani, hogy e problémának egyszerű a megoldása, mert a kódoknak mindig a jogi szabályok alá rendelten kell érvényesülniük. Csakhogy mindig lesz egy sor olyan szabály is, amelynek teljesen felesleges megírni az emberi verzióját (mert valójában csak a kódok erőltetett visszafordításáról van szó), vagy nem is létezik emberi verziója, mert például egy ön­tanuló MI (kód) fejlesztette ki. Mindnyájan érezzük, mi a probléma itt: a kóddal történő ­magatartásirányítás új szintre emeli az emberek személytelen rendnek történő alávetését. Régóta folyik a (főként baloldali) társadalomelméleti vita annak lehetőségéről, hogy a gépek vagy legalábbis a tárgyak és a személytelen rend veszik át az uralmat az ember felett.

Ezek szerint már a kapitalizmus sem más, mint a termelés, a tőke, a nagyipar és a vele kéz a kézben járó célracionális, gépszerűen működő bürokrácia uralma, „benyomulása az életvilágba”, és az ezzel együtt járó eldologiasodás. Innét nézve a helyzet még súlyosabb lett, mivel – ahogy láttuk – a technológiát mindig is az jellemezte, hogy nemcsak passzív eszköze volt az embernek, hanem annak a világról alkotott képét is alakította, a platformok pedig már az ember legbelsőbb világába tartozó olyan jelenségeket kezdenek szervezni, mint a megismerés (keresőmotorok) vagy a társas érintkezés (közösségi média). Mindezt kódok segítségével teszik, és alapvetően egy profitorientált szervezet (vagy egyes országokban a megfigyelő állam) céljait szem előtt tartva. Az eldologiasodás nem olyan formában jelentkezik, mint az áruviszonynál, amely az emberek közötti kapcsolatot áruvá transzformálja, hanem az emberek közötti kapcsolat látszólag megmarad, azonban e kapcsolatot a kódok a platform és az azt működtető cég érdekeinek megfelelő keretek közé szorítják.

Ráadásul úgy tűnik, hogy a kódok előretörése megállíthatatlan folyamat, ami Julie Cohen szerint egyenesen a kapitalista termelési rend utáni korszak alapvető törvényszerűsége.23 Cohen Polányi Károly elméletét használja a platformok jelenségének megmagyarázására. Polányinál az ipari kapitalizmus kialakulása két egymással összefüggő folyamaton alapult: egyrészt azon, hogy az ipari termelés alapvető tényezőit – a földet, a munkát és a pénzt – mint tömegárut értelmezték újra, másrészt az áruk közvetlen kicserélését nem a helyi valóságos piacokon végezték el, hanem a piac konstruált mechanizmusaiban. Polányi szerint tehát a nemzetállami szabályozás kialakulása szorosan összekapcsolódik a föld, a munkaerő és a pénz áruvá, „kereskedelmi tárggyá” válásával, valamint az önszabályozó piac eszméjének kialakulásával. Jelenleg – érvel Cohen – újabb fordulathoz érkeztünk, mert „[h]árom ezzel megegyező átalakulás formálódik manapság: a nem fizikai erőforrások tulajdonná alakítása, az ipari termelés alapvető tényezőinek demate­rializálása és adattá alakítása és az áruk közvetlen kicserélése és megvásárlása mintázatainak áthelyezése az információs platformokra.”24 A platform tehát nem egyszerűen kiterjeszti vagy épp szűkíti a piaci működést, hanem felváltja, „újramaterializálja” a 19. században dematerializálódott piacot. Így a platformok nem „új üzleti modellek” vagy „új infrastruktúrák”, hanem – Cohen szerint – az új, információs gazdaság fő szervezeti formái. Ez az új entitás a felhasználókat nemcsak azonosítja és nyomon követi, hanem minden önként megadott adatukat és aktivitásukat adattá alakítja („datafikálja”), amellyel azután nemcsak egyediesíteni lehet az üzeneteket, ­hanem minden korábbi módszernél hatékonyabban lehet előre jelezni az egyén viselkedését is.

4.2. A kód nem természetes nyelven íródik

Fentebb már többször említettem, hogy a kódnak nem a természetes nyelv a „vivőanyaga”. Ez sokkal több problémát vet fel, mint gondolnánk. A kódok ugyan látszólag sokkal egyértel­műbbek, mint a jog szabályai, hiszen megfelelnek a logika törvényszerűségeinek, és nem rontja el őket a hétköznapi nyelv homályossága, pontatlansága,25 azonban adott esetben a működésük olyan bonyolult lehet – ahogy a szakirodalom mondja: feketedoboz-szerű –, hogy a létrehozott végeredmény emberi nyelven elmagyarázhatatlan. Márpedig mi, emberek, nehezen viseljük el az indokolás nélküli döntéseket, és minél fontosabb egy döntés, annál inkább vágyunk a megnyugtató indokolásra. Az indokolás azonban – bár a kontinentális jogi kultúra szereti logikai műveletként láttatni – inkább egy hihető és megnyugtató mesébe illesztést jelent, semmint logikai levezetést.

A kód és a jog között kell hogy legyen átjárás, mégpedig többféle is: fordításokra van szükség a két rendszer közt. Lehet, hogy a jog szabályait kell kóddá fordítani, mint például a KRESZ-szabályokat az autonóm járművekben26 vagy a GDPR szabályait a Facebook-kódban.27 Az is lehet, hogy kódokat vagy kódok által meghozott döntéseket kell visszafordítani emberi nyelvre, mint például ahogy egy befektetéseket kezelő robot befektetési döntéseit kell elmagyarázni a befektetőnek.28 De vajon hogyan lehet kódra fordítani a KRESZ veszélyt jelző tábláit? Mit jelent egy gép számára a „bukkanó” tábla, amelynek az lenne az értelme az emberi sofőrök számára, hogy nem belátható útszakasz van előttük? A „Vigyázz, nem belátható útszakasz, ­vezess óvatosan!” felhívás csak úgy fordítható kódra, ha a gép képes azt valamilyen értelmes kimenetté formálni, például „Csökkentsd a sebességet!”.

A kód és a jog közötti különbség akkor látszik igazán, amikor a vegyes, azaz emberek és robotok által közösen „lakott” ökoszisztéma tisztán gépivé alakul: világos, hogy amikor csak autonóm járművek lesznek az utakon, nem lesz szükség többé KRESZ-re, hiszen az algoritmusok (a járművek) egymás és a központi vezérlő algoritmus jelzéseit (ha lesz ilyen), a külső környezetből és az infrastruktúrából érkező jeleket folyamatosan feldolgozzák, és ennek alapján hoznak pillanatnyi döntéseket. Mi szükség lenne egy állandó sebességkorlátozó táblára, ha a rendszer a rengeteg változóból pontosan képes a pillanatnyi optimális sebességet kiszámolni? Sőt, mi szükség van egyedi döntéseket hozó ágensekre ebben a rendszerben, ha az egész közlekedési rendszer működtetése könnyebben megoldható, koordinálható egy központi kód segítségével?

A probléma azonban az, hogy ilyen tiszta gépi rendszerek nem vagy alig lesznek. Így a két szabályrendszernek együtt kell léteznie, és ezekben a fordítás problémája folyamatosan jelen lesz. Már az is kérdésként fog felvetődni, hogy kell-e a kódokat jog formájában, azaz természetes emberi nyelven is megfogalmazni? Jelenleg a nemzetállami jog élvez elsőbbséget, és ha valamilyen problémát akarunk szabályozni, akkor még abban az esetben is megfogalmazzuk jogszabályi formában, ha egyébként tudjuk, hogy azt csak a kódolók fogják használni, és csak addig, ameddig kóddá fordítják.29 Ugyanakkor jogvita esetén a bíróságok a természetes nyelven megfogalmazott jogszabályok alapján fognak dönteni, így a jog és a kód eltérése esetén a jog lesz a mérvadó. De vajon meddig?

Bár nem nyelvi természetű problémának tűnik, valójában akként is megragadható, hogy a jog és a kód viszonyának egyik legneuralgikusabb pontja az értékválasztások algoritmizálása. A modern jog egyik legfontosabb jellegzetessége, hogy rendszerszerűen épül fel, és a részlet­szabályok általában magasabb szintű, absztrakt szabályokon, majd erkölcsileg is „átszínezett” végső elveken alapszanak. Ilyen például a polgári jogban a pacta sunt servanda, a büntetőjogban a nullum crimen sine lege, a polgári eljárásjogban a fegyveregyenlőség elve. Bár a precedensjogok logikája különbözik a kontinentális jogokétól, ez az absztrakciós piramis ott is meg­figyelhető.

Sokan vitatják, hogy a jog algoritmizálásának köze van ezekhez az elvekhez, az utóbbi néhány év fejleményei azonban látványosan megerősítették az alapgondolatot. Létezik egy internetes oldal, amely az MI-vel kapcsolatos értékelvárásokat tartalmazó etikai kódexeket gyűjti össze, és már több mint 80 ilyen szabálygyűjteményt tartalmaz.30 E normarendszerek azt mutatják, hogy valahogyan tükrözni kell az értékelvárásokat a kódban. Csakhogy problémát jelent, hogy ha elkezdjük felbontani ezeket az értékeket, akkor olyan ellentmondásokat lelünk, amelyeket képtelenség kódszinten reprezentálni. A jóhiszeműség és tisztesség szabályai, az elfogulatlanság eszméje és a többi elv olykor már önmagukban is ellentmondásosak, egymással pedig, mint azt a kiterjedt alkotmányjogi irodalom és az alkotmánybíróságok működése megmutatja, egészen bizonyosan ellentmondásba kerülhetnek egyes esetekben. Ráadásul a kódok nemcsak létező, nyelvileg egyszer már megfogalmazott szabályokat tükrözhetnek vagy hajthatnak végre, hanem magánemberek vagy magánszervezetek törekvéseit és céljait is. Emellett a helyzetet reménytelenül bonyolulttá teheti az, hogy a kódok öntanulók is lehetnek,31 vagy előre nem megtervezett, spontán termelődő adathalmazokra és statisztikai összefüggésekre is épülhetnek. Az ilyen kódok érthető nyelvre lefordítása lényegében lehetetlen.

Az AVMS irányelv esetében ugyanennek vagyunk a szemtanúi: a szólásszabadságot nem lehet egyetlen értékkel igazolni,32 tehát az igazolások és az értékek az egyes esetekben hihetetlenül bonyolult viszonyba kerülhetnek.33 Az irodalom ezt sokszor a magánszabályozás vagy magáncenzúra kérdésére futtatja ki,34 de ugyanilyen problematikus, hogy a tartalmak előszűrését algoritmusok végzik, sőt gyakran végleges döntéseket is hoznak, ami azt feltételezi, hogy a bonyolult értelmezési és érték-, illetve igazolási problémákat valahogyan valakik már tükrözték a szűrőalgoritmusok kódjában.

4.3. A kódot nem a jogászok fogják gondozni

Bár ez a fejlemény nem feltétlenül hangzik mindenki számára aggasztónak, a jogász szakmát bizonyosan érzékenyen érinti. A kódok magatartásirányító befolyásának növekedésével a jogászok szerepe mind ezek megalkotásában, mind a szabályok alkalmazásában és kikényszerítésében jelentősen csökkenni fog, vagy legalábbis a jogászok kénytelenek lesznek új kompetenciákra szert tenni.35 Ez részben összefügg az imént említettekkel: itt a normatív struktúrát nem a nyelv hordozza, márpedig a jogászi tudás felfogható egy speciális nyelv beszélésének képességeként. Ha ez a nyelv elvész, akkor a jogászok funkciója is megszűnik – vagy a másik oldalról megfogalmazva: a jog alkalmazásának és kikényszerítésének feladata többé nem lesz napirenden, hiszen a kódok automatikusan érvényesülnek.

A legfontosabb társadalmi viszonyokat persze továbbra is jogszabályokkal fogjuk szabályozni, ez nem kétséges. Mint azt éppen az AVMS irányelv kapcsán láthatjuk, a technológiai szabályokat általában nem közvetlenül kódok formájában érdemes megfogalmazni, de az bizonyos, hogy egyrészt a jogszabályokban egyre szaporodni fognak azok a szabályok, amelyek közvetlenül a kódok kimeneteire vonatkoznak, másrészt ezeket a szabályokat le kell fordítani kódokká, harmadrészt pedig a kódok működését folyamatosan ellenőrizni kell majd, ami egy sor új problémát fog felvetni.

Vegyük például azt a rendelkezést, amely a kiskorúakat akarja megvédeni a káros tartalmaktól. Ezt legalább három absztrakciós szinten és ezen belül legalább háromféle módon is megfogalmazhatjuk. Egyrészt lehetséges egészen általános, alapelvszerű megfogalmazás: a gyermekeket távol kell tartani a káros tartalmaktól. (Itt persze még azzal is lehet játszani, hogy a norma címzettje a médiacég és a médiahatóság is lehet, amelynek szankcionálási kötelezettsége van ezzel kapcsolatban stb.) Azután lehetséges egy jóval részletezőbb szabályozás, amely már leírja például, milyen tartalmak minősülnek károsnak, azokat milyen napszakokban nem lehet sugározni (értelemszerűen lineáris műsorszolgáltatás esetén), milyen figyelmeztető jelzésekkel kell ellátni stb. Végül létezik a szabályozásnak egy egészen konkrét szintje, amely adott esetben lépésről lépésre leírja az eljárási szabályokat, meghatározza az eljárás során használandó nyomtatványokat stb.

Ez a három szint durván megfelel a kódex – ágazati jogszabály – végrehajtási rendelet hármasának. A jogászok az ilyen típusú szabályozásnak szinte minden elemében, lépésében részt vesznek: ők képesek a nagy kódexekbe beépíteni az alapelveket, összefüggésbe hozni azokat a jogrendszer többi részével, ők ismerik a hatósági eljárásokat és a hozzájuk tartozó részleteket (mint például azt, hogy milyen információkra van szükség egy eljárás megindításához, így az űrlapon milyen rubrikát kell létrehozni stb.). Végül a jogászok lesznek azok, akik majd a gyakorlatban az eljárásokban részt vesznek például képviselőként vagy a vita döntnökeként.

Bár elsőre talán azt mondanók, hogy a kódok által történő szabályozás akkor lép a képbe, amikor a jogi szabályozás harmadik szintje véget ér, tehát tulajdonképpen a technológusok a kódokká fordítással „átviszik az életbe” a szabályokat (Carl von Savigny), vagy másképpen: még lejjebb hatolunk a szabályozás részleteibe (tehát a példát folytatva, a kódok az űrlapok elektronizálásában, az egyes eljárási részlépések könnyítésében vesznek részt), ez sajnos nincsen így. Ha a legutóbbi időkig ez volt is a helyzet, mostanra a technológia és a jog viszonya megváltozott. A „régi” rendszerekben valóban arról volt szó, hogy a hagyományos eljárások és logikák megmaradtak, csak a digitalizáció az egyes lépéseket hatékonyabbá, gyorsabbá teszi. Azonban, ahogy ezt Richard Susskind és Daniel Susskind leírja,36 a technológiai fejlődés második fázisában a technológiák átalakítják az adott munkafolyamat vagy életviszony teljes képét. Erre sok példát lehetne hozni: az adatbázis-keresők nem a könyvtári katalóguscédulák fejlesztett vál­tozatai (jóllehet eleinte így próbálták a keresőket felépíteni), a Google pedig nem a korábbi teljes szövegű adatbázis-keresők folytatása. A videómegosztó platformok nem továbbfejlesztett televíziócsatornák, mert a felhasználói tartalmak, a lekérhetőség és a teljes világon történő elérhetőség minőségileg más entitást hoznak létre. Az AVMS irányelv megalkotói, ahogy a GDPR megalkotói is, helyesen ismerték fel, hogy az online térben sokkal hatékonyabban lehet magatartást befolyásolni, terelni, megakadályozni vagy kiváltani a kódokkal, így ezt a szabályozási módszert is be kell vetniük. A technológiaszabályozás a kódokra irányul, amelyek majd létrehozzák a kívánt emberi cselekvést mint végeredményt. A sorrend a hagyományos technológiaszabályozásnál így néz ki: elvek technológiaszabályozás magatartási szabályok formájában önkéntes vagy kikényszerített magatartás kód. Az új szabályozásnál a sorrend ellenben a következőképp néz ki: elvek technológiaszabályozás kód kívánt emberi magatartás.

A jogi dokumentumok az elvek rögzítése után gyakran a kódokra vonatkozó technológiai kívánalmakat közlik. A kódokkal kapcsolatos követelményeket tartalmazó szabályok sokban eltérnek a hagyományos szabályozástól. Egyrészt, mivel a jog alapvetően emberi magatartások szabályozására van felkészítve, a legtöbb kódra vonatkozó szabályozás szintén antropomorfi­záló: a kódok által előállított kimeneteket, állapotokat úgy veszi, mintha a kód, az algoritmus, az MI ember lenne. Például az MI-re vonatkozó etikai kódexek gyakori szóhasználata, hogy az MI „nem diszkriminálhat”, a szűrőalgoritmus „nem korlátozhatja indokolatlanul a szólásszabadságot” stb. Tehát olybá tűnik, mintha a címzett az algoritmus lenne. Az AVMS szabályozása másféle utat követ: a videóplatformokat működtető szolgáltatókat kötelezi (még pontosabban: a tagállamokat kötelezi arra, hogy kötelezzék a szolgáltatókat), hogy hozzanak létre olyan rendszereket, funkciókat, azaz kódokat, amelyek meghatározott, a jogszabály által preferált feladatokat „hajtanak végre”. Egy azonban bizonyos: a végrehajtás e technológiai részében a jogászoknak igen korlátozott szerepük lesz.

5. Hogyan tovább?

Láthattuk tehát az AVMS irányelv megoldását és azt is, hogy ez nem egyedi, hanem egy trendbe – a kódokkal történő szabályozás trendjébe – illeszthető megoldás. Azt is láthattuk, hogy a kódok egy része – azok, amelyek döntéseket hoznak, azaz emberek jogait és kötelezettségeit érintik, illetve amelyek működése nem determinisztikus, vagyis feketedoboz-szerű – tovább súlyosbítja a kódokkal kapcsolatos problémákat. Ebben az utolsó részben a jelenlegi szabályozás – különösen az MI-kkel kapcsolatos etikai kódexek – problematikájából kiindulva arra keresem a választ, hogy az előző részben leírt problémákat hogyan lehetne kezelni.

Először részletesebben kifejtem, hogy a hatékony szabályozáshoz érdemes különbséget tenni a kódok fajtái között, és javaslatot teszek a kódok három szintjére. Röviden kitérek arra is, hogyan lenne (jogi-szabályozási szempontból) a legcélszerűbb definiálni az MI-t, a kódok legfejlettebb, harmadik típusát. Azután arra keresem a választ, hogy elég lesz-e a régi jog az egyes szinteken található kódok szabályozására, vagy új szabályokat kell alkotni. Arra a kérdésre is kitérek, hogy mennyire kell a jognak átalakulnia technikai szabályozó rendszerré, és van-e értelme általános MI-jogról beszélni, vagy a szabályozásnak más utakat kell járnia.

5.1. A kód három szintje

A jogi szabályozás szempontjából a kód három szintjét érdemes megkülönböztetni: a digitális architektúrát, amely nem más, mint a fizikai valóság virtuális leképezése (ilyen például egy felhasználónév–jelszó páros), az automatát, amely már hosszabb műveletsorokat tud elvégezni, de általában meglehetősen kevés számú kimenettel, azaz kiszámíthatóan (ilyenek például az automatikus közúti ellenőrző rendszerek, így a magyar VÉDA is), végül a mesterséges intelligenciát, amely kiszámíthatatlan kimeneteket, valóban feketedoboz-szerű működést képes produkálni – vagy azért, mert a belsejében olyan komplikált döntési fák vannak, amelyeknek százezres vagy milliós nagyságrendű kimeneti állapota van, vagy azért, mert a rendszer öntanuló, önfejlesztő algoritmus, és esetleg a bemeneti oldalon található adatok mennyisége akkora (ez az ún. Big Data-jelenség), hogy a statisztikai alapokon működő algoritmusok vagy például a neurális ­hálók viselkedése kiszámíthatatlan lesz. A három szint megkülönböztetése elsősorban azért jelentős, mert a kockázatok teljesen eltérők a három szinten, így a szabályozás eltérő utakat kell kövessen.

Az architekturális kódok valamilyen egyszerű szabályt tartatnak be jól átlátható logika szerint. A kód a szabálynak alárendelt, emellett a szabály és a rendszer működésének outputja között jól látható kapcsolat van. Ha valakinek a jog jogosultságot ad egy irat megtekintésére, ­akkor a számítógépen is hozzáférést kap, ha pedig nem, akkor nem. Ha a szabály azt mondja, hogy a bankjegykiadó automatából akkor vehető fel pénz, ha a számlán van fedezet, akkor a felhasználó csak ebben az esetben fog pénzt kapni. Az architektúra egy korábban emberek által betartatott egyszerű korlátot állít fel annyi különbséggel, hogy míg az emberek által kikényszerített jogi rendelkezéseket azelőtt meg lehetett szegni, sőt a fizikai valóságban létező architektúrát is meg lehet általában kerülni, a szoftveres architektúrákat sokkal nehezebb vagy egyenesen lehetetlen (legalábbis egy átlagos felhasználó számára). Az architektúra egyetlen valós kockázata annyi, hogy a tényleges kód eltérhet a szabály nyelvi megfogalmazásától: az algoritmus kódolásába hiba csúszhat.

Az automata már hosszabb folyamatokat menedzsel, és a kimeneti állapotainak száma is lehet egészen sok. Ezek a rendszerek már „döntéseket” képesek hozni, vagy legalábbis (az egyébként matematikailag determinisztikus döntési fákon történő lépkedés miatt) úgy tűnik, mintha döntéseket hoznának. Ezek miatt alkották meg még az 1990-es évek közepén az automatikus döntéshozatal szabályait az adatvédelmi jogban.37 E szabályok jól mutatják, milyen kockázatokkal számol a jogalkotó: a GDPR preambulumának (63) bekezdése szerint „minden érintett számára biztosítani kell a jogot arra, hogy megismerje […] azt, hogy a személyes adatok automa­tizált kezelése milyen logika alapján történt”, de főképp azt, hogy bármikor kivonja magát az ilyen adatkezelés alól („az érintett jogosult arra, hogy ne terjedjen ki rá az olyan, kizárólag automatizált adatkezelésen – ideértve a profilalkotást is – alapuló döntés hatálya, amely rá nézve joghatással járna, vagy őt hasonlóképpen jelentős mértékben érintené”).38 Az architektúránál látott kockázat itt is érvényesül – a kód eltérhet a szabályban foglalttól –, de a GDPR vonat­kozó szövegrészletei jól mutatják, hogy a kimeneti állapotok nagy száma újabb kockázatot rejt: a kiszámíthatatlanságot és a megmagyarázhatatlanságot, amely az ember kiszolgáltatottságát és az ezzel kapcsolatos rossz érzéseit jelentősen megnöveli. A GDPR az automatákkal kapcsolatban meglehetősen radikális megoldást alkalmaz azzal, hogy kötelezővé teszi az opt-out lehetőségét a magánszemélyek számára.

Végül a MI-k szintjén a rendszerek determinisztikus működése valóban megszűnik, vagy azért, mert a kód belső logikája szerint „kiszámíthatatlanul” van tervezve (például egy neurális háló esetén), vagy mert a bemeneti adatok mennyisége akkora, hogy a végeredmény kiszámít­hatatlan (Big Data-jelenség), vagy mert a rendszerbe az öntanulás képessége be van építve. Természetesen ez a három tényező egymással is kombinálódhat. Ezeket a rendszereket olykor „adaptívaknak” is nevezik, hiszen képesek a külvilághoz alkalmazkodni.39 Mesterséges intelligencia fut az önvezető autókban, a Facebooknak az írásom elején ismertetett terrorizmusellenes rendszerében (képfelismerő vagy természetes nyelvfeldolgozó rendszer) és még egy sor más helyen. Az AVMS irányelv nyomán szinte bizonyosan bevezetett tartalom-előszűrő rendszerek szintén ilyen MI-alapúak lesznek. A két korábbi szinten megismert kockázat mellett az MI ­igazi kockázata az, hogy a „képességei” miatt olyan területekre is benyomul, amelyek azelőtt az ember kizárólagos területei voltak: az orvosi diagnosztikába, a gondozásba, a tanításba, a jogászkodásba, az államigazgatási döntésekbe, és természetesen az itteni témánk szempontjából releváns területre: a platformok működésének szervezésébe, így a társas életünk közvetett irányításába.

5.2. A szabályozás dilemmái

A platformok és a kódok szabályozásának kérdése sokáig az ismert minta szerint alakult: a jogalkotók radarján nem jelentek meg a platformok, vagy egyszerűen az volt a reakció rájuk, hogy az offline világ szabályai, így különösen az alapjogok tiszteletben tartására vonatkozó szabályok (gyűlöletbeszéd tilalma stb.) elegendők lesznek a megzabolázásukra. A helyzet – más okok mellett, például a használat tömeges elterjedése, a platformokon eltöltött idő növekedése és a hagyományos iparágak (sajtó, televízió) nehéz helyzetbe kerülése miatt – éppen azért változott meg gyökeresen, mert kiderült, hogy a platformokon kódok futnak, és a kódokkal másképpen kell bánni, mint az emberekkel.

Jelenleg a második fázisban vagyunk, amelyben mindenki szeretné megregulázni valahogy a platformokat – leginkább oly módon, hogy egyre nagyobb büntetésekkel sújtja (a verseny-40 és az adatvédelmi hatóságok41 is igen aktívak e területen), és egyre vadabb jogkövetkezményekkel, például államosítással42 fenyegeti azokat. Manapság szinte minden, magára valamit is adó jogász a platformok és az MI szabályozásáról beszél. Az előbbieket általában úgy akarják regulázni, mint régebben a túlnövekedett monopolhelyzetbe került cégeket (a Facebook az új Standard Oil), az utóbbiakat pedig úgy, mint egy új zsarnoki hatalmat vagy elnyomó kormányzatot. Beszédes beleolvasni az algorithmwatch.org43 oldalán található etikai kódexekbe, amelyek úgy kérik számon az MI-n az etikai elveket, mintha az valamiféle rossz szándékú ember lenne.

Meggyőződésem, hogy a zavarokat részben az okozza, hogy a jog nem tud mihez kezdeni a fentebb körülírt új helyzettel és a kódokkal mint magatartásszabályozó eszközökkel. Különösen nehéz a jog és a kód viszonyának tisztázása. Hogyan tudja a jog féken tartani azt a kódot, amely a virtuális térben egyszerűen erősebb nála: nagyobb, mert országhatárokon nyúlik át, láthatatlan és érthetetlen, mert nem a nyelv hordozza, és hatalmasabb, mert megszeghetetlen? Ezért van, hogy sokan új szabályozásért kiáltanak, mások a régi szabályok radikális átértelmezését javasolják. A továbbiakban, részben Brownsword nyomán,44 hat olyan kérdést vázolok röviden, amelyek mindegyike a technológia jogi szabályozásának kérdését feszegeti.

Az első, meglehetősen általánosan megfogalmazott kérdés a jog és a kód általános viszonyára vonatkozik. Yeung45 egy friss írásában e viszonyt a blockchain technológiával illusztrálva háromféle módon jellemzi: a kódot (ez esetben a blockchain technológiát) használhatják a jog megkerülésére (egyfajta alternatív, önvégrehajtó szabályrendszerként), a jog kiegészítésére vagy meghosszabbítására, és lehetséges a kettő közötti állapot is, amikor a „tranzakciós veszteséget enyhítik” a kód segítségével, azaz például csak a költséges és hosszadalmas eljárásokat akarják lerövidíteni a blockchainnel mint önvégrehajtó kóddal. Ez a háromféle viszony más technoló­giákra és a jog viszonyára is igaz: a szűrőalgoritmusok eredetileg a jog végrehajtására szolgálnak, de nagyon könnyen a jog ellen fordulhatnak, és egyelőre nem nagyon látni a megoldást, amellyel ezt meg lehetne akadályozni. Hogyan és ki tudja ellenőrizni, hogy egy kód a jog korrekt végrehajtása-e?

A második, igen gyakran felvetődő kérdés az, hogy egyáltalán kell-e teljesen új szabályozás ebben a kódok által dominált világban, vagy elegendők lesznek a régi szabályok, esetleg ezek (bíróság által) átértelmezett változatai. Jóllehet az első ösztönös válaszunk az, hogy természetesen új szabályok kellenek, a helyzet nem ennyire egyszerű. Először is az architektúráknak és az automatáknak már vannak új szabályaik, az MI-k szabályozásának ötletein végigtekintve pedig nem sok új elemet tudunk felfedezni. A legtöbb egyszerűen egy alapjogi katalógust tartalmaz, azzal a specialitással, hogy az „állami szervek” mint címzett helyett a „mesterséges intelligencia” a címzett, „neki” kellene betartania az alapvető emberi jogokat, nem diszkriminálnia stb. Erre a végeredményre bizonyosan felesleges a papírt pazarolni, hiszen az MI-k valakinek az érdekében „dolgoznak”, így lényegében egyfajta munkavállalónak vagy megbízottnak tekinthetők: a cselekvésük a megbízónak (üzemeltetőnek) számítódik be.46 Ebben pedig semmilyen új mozzanat nincsen.

Ugyanakkor az is igaz, hogy már az automaták is felvetnek bizonyos kérdéseket. Például a jogalkotó Magyarországon nemrég szembesült azzal, hogy az interneten egy nagyobbrészt ­automatizált eljárásban (mint amilyen a cégeljárás) az illetékességi szabályoknak lényegében nincsen értelmük. Ha az iratokat egy központi portálra kell feltölteni, akkor teljesen lényegtelen, hogy ezután milyen fizikai helyen intézik az ügyet. Egy másik példa: a robotbrókerek esetében a pénzügyi tanácsadó cégekre vonatkozó és elsősorban egy szervezet, illetve a természetes­ személy brókerek számára előírt megfelelési, végzettségbeli, szervezeti stb. szabályok értelmüket veszítik.47

A harmadik kérdés, amely meglehetősen gyakran előkerül, és szemmel láthatóan az AVMS irányelv alkotói is küzdöttek vele, az, hogy a hagyományos jognak mennyire kell belemennie a kódok részleteibe. Ha a jog fenn akarja tartani a kódok feletti valódi szupremáciáját, akkor egyáltalán nem magától értetődő, hogy kizárólag magatartási szabályok formájában kell megnyilvánulnia: a valódi kontrollhoz a technológia bizonyos részleteit is szabályozni kell. Ezzel kapcsolatban az a félelem fogalmazódik meg igen gyakran, hogy a technológiai részletekbe belemenő jog nagyon hamar elavulhat. A megoldást általában úgy szokták körvonalazni, hogy ezért a technológiát „technológiasemlegesen” kell szabályozni.48 Mit jelent ez? Éppen azt, amit az AVMS irányelvben olvashatunk: a megfogalmazások elsősorban a technológia által teljesített funkciókra vonatkoznak, a technológia kimeneti oldalát, állapotait tartalmazzák: „olyan funkció biztosítása a felhasználó által létrehozott videót feltöltő felhasználók számára, amelynek révén nyilatkozhatnak arról, hogy az említett videók tudomásuk, illetve észszerűen felté­telezhető tudomásuk szerint tartalmaznak-e audiovizuális kereskedelmi közleményeket”. Egy másik példa az Eker. törvényből: „A szolgáltató köteles megfelelő, hatékony és hozzáférhető technikai eszközökkel biztosítani, hogy az igénybe vevő az adatbeviteli hibák azonosítását és kijavítását megrendelésének elektronikus úton való elküldése előtt el tudja végezni.”49

A negyedik kérdés, amely persze összefügg az előző kettővel, az, hogy a technológiai jellegű előírások esetén mekkora mozgásteret hagyunk a szolgáltatóknak. Ezt úgy is meg lehet fogalmazni, hogy mekkora legyen az önszabályozás/társszabályozás tere a kódok vonatkozásában. A vonatkozó EU-s anyagok50 a kérdést nem a kódokkal összefüggésben tárgyalják, pedig egy kód üzembe helyezése, implementálása nagyon is társszabályozást jelent, mert – ahogy fentebb már jeleztem – egy természetes nyelven megfogalmazott követelmény kóddá transzformálása mindig felvet értelmezési problémákat, és soha nem triviális. Ráadásul, ahogy láthattuk, a szolgáltatók egy sor olyan műveletet is végeznek kódokkal, amelyekre egyébként nem lennének kötelezettek (az AVMS irányelv kapcsán például előzetes tartalomszűrést végeznek).

Az ötödik kérdés, amely a kódok és ezen belül az MI megregulázásával kapcsolatban felmerül, hogy ki legyen a technikai követelményeket előíró szabályok címzettje. A válasz lényegében azon múlik, hogy milyen részletezettségű szabályokat alkotunk (lásd a harmadik kérdést). Ha a szabályok inkább elveket és a kódok által teljesített funkciókat tartalmaznak, akkor elsősorban a kódokat használó, hasznosító vállalkozások lesznek a címzettjei. Minél inkább részletező a szabályozás, annál inkább a fejlesztők lesznek a címzettjei.

Végül a hatodik kérdés, amely többféle formában is felvetődött, az, hogy a kódokra vonatkozó szabályoknak van-e valamilyen általános része, van-e értelme például egy általános robot- vagy MI-törvénynek, vagy a szabályozásnak ágazatinak kell lennie. Ebben a kérdésben elég egyértelműen afelé hajlok, hogy csakis az ágazati szabályoknak van értelmük. A kódok három fajtája közül az architektúra kapcsán fel sem merült, hogy ennek általános szabályozást kellene adni. Az automatákkal kapcsolatban viszont született ilyen szabályozás, hiszen azokat jelenleg az adatvédelmi normák szabályozzák. Ez nagyon jól mutatja, hogy milyen hibát nem szabad újra elkövetni. Az automatizált döntéshozatal szabályai minden szektorra és nemcsak az automatákra, hanem a mesterséges intelligenciákra is vonatkoznak. A szakirodalomban kibonta­kozott élénk vita a „magyarázathoz fűződő jogról”51 nemcsak azt mutatja, hogy a rendelkezés tartalma nem világos (valóban van-e joga az érintettnek a magyarázathoz vagy nincsen), hanem azt is, hogy az MI- (gépi tanulás) alapú rendszerekben a magyarázat a hagyományos fogalmak szerint nagyon nehéz lesz, illetve azt is, hogy a különböző gépi döntési szituációkban, gazdasági ágazatokban, területeken e jog tartalma nagyon változó lehet. Az önvezető járművek, az orvos­diagnosztikai MI-k, a gondozórobotok, a forgalomirányítást végző jövőbeli algoritmusok mind-mind olyan döntéseket hoznak vagy fognak hozni, amelyek „jelentős mértékben érintik” az adatalanyt. Ezekben az esetekben a GDPR szabályai közül szinte egyet sem lehet majd betartani. De nem is biztos, hogy például egy diagnosztikai szoftver diagnózisát valóban mélyreha­tóan el kell magyarázni az érintettnek. Sokkal több értelme lesz azoknak a szabályozásoknak, amelyek (bizonyosan meg fognak születni, és) az adott terület sajátosságait és a kódok komplikáltságának szintjét is figyelembe véve szabályozzák majd e területeket.

Ha visszatérünk az eredeti témánkhoz, az AVMS irányelvhez, nem kétséges, hogy a platformok, így az irányelv által emlegetett videómegosztók a felhasználók szólásszabadságára ki­ható automatizált (adott esetben MI-alapú) döntéseket hoznak majd. A GDPR szabályaival itt sem sokat tudunk majd kezdeni: sem az automatizált döntéshozatal elleni tiltakozás, sem a jog a magyarázathoz nem tűnik hatékony, sőt értelmes korlátozásnak. Valószínűleg itt is figyelembe kell venni e terület sajátosságait, így például a nagy tömegű döntés miatt magukat a szűrőszoftvereket érdemes auditálásnak alávetni, emellett ehhez módszertant és megfelelő szaktudással rendelkező csapatot és eljárást kell kialakítani. A szoftverek auditálásának folyamata már több helyen elindult, például az alapjogokat is érintő MI-kódok auditálására az FRA-nak, az EU alapjogi ügynökségének már fut egy projektje. A közeljövő egyik legfontosabb trendje az lesz, hogy a kormányzatok és a szabályozó hatóságok az egyes ágazatokban, így a médiaszabályozás területén is, kénytelenek lesznek kompetenciát szerezni és projekteket indítani a jog mellett társszabályozóként vagy „társvégrehajtóként” működő kódok megértésére és kontrollálására.

* Tudományos főmunkatárs, Nemzeti Közszolgálati Egyetem, Eötvös József Kutatóközpont, Információs Tár­sadalom Kutatóintézet. E-mail: zodi.zsolt@uni-nke.hu

1 Az Európai Parlament és a Tanács (EU) 2018/1808 irányelve (2018. november 14.) a tagállamok audiovizuális médiaszolgáltatások nyújtására vonatkozó egyes törvényi, rendeleti vagy közigazgatási rendelkezéseinek összehangolásáról szóló 2010/13/EU irányelvnek (Audiovizuális médiaszolgáltatásokról szóló irányelv) a változó piaci körülményekre tekintettel való módosításáról (új AVMS irányelv).

2 Uo., 28b. cikk.

3 Az Európai Parlament és a Tanács 2010/13/EU irányelve (2010. március 10.) a tagállamok audiovizuális médiaszolgáltatások nyújtására vonatkozó egyes törvényi, rendeleti vagy közigazgatási rendelkezéseinek összehangolásáról (Audiovizuális médiaszolgáltatásokról szóló irányelv) 1. cikk.

4 Az Európai Parlament és a Tanács 2000/31/EK irányelve (2000. június 8.) a belső piacon az információs társadalommal összefüggő szolgáltatások, különösen az elektronikus kereskedelem, egyes jogi vonatkozásairól (Elektronikus kereskedelemről szóló irányelv – Eker. irányelv).

5 Uo., 15. cikk.

6 Új AVMS irányelv 28b. cikk (2) bek.

7 Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (Általános adatvédelmi rendelet – GDPR) 25. cikk.

8 Uo.

9 Az Európai Parlament és a Tanács 2014/65/EU irányelve (2014. május 15.) a pénzügyi eszközök piacairól, valamint a 2002/92/EK irányelv és a 2011/61/EU irányelv módosításáról (MiFID 2).

10 MiFID 2 48. cikk (6) bek.

11 Monika Bickert – Brian Fishman: Hard Questions: How We Counter Terrorism. Facebook News, 2017. június 15., newsroom.fb.com/news/2017/06/how-we-counter-terrorism. A policy részletes elemzését l. Stuart Macdonald – Sara Giro Correia – Amy-Louise Watkin: Regulating Terrorist Content on Social ­Media: Automa­tion and the Rule of Law. 15 International Journal of Law in Context (2019) 183–197.

12 Roger Brownsword – Karen Yeung: Regulating Technologies: Tools, Targets and Thematics. In: Roger Brownsword – Karen Yeung (szerk.): Regulating Technologies: Legal Futures, Regulatory Frames and Technological Fixes. Portland, Or., Hart, 2008. 4–8.

13 Pl. 5/1990. (IV. 12.) KöHÉM rendelet a közúti járművek műszaki megvizsgálásáról, 48/2013. (XI. 15.) NGM rendelet a pénztárgépek műszaki követelményeiről, a nyugtakibocsátásra szolgáló pénztárgépek forgalmazásáról, használatáról és szervizeléséről, valamint a pénztárgéppel rögzített adatok adóhatóság felé történő szolgáltatásáról vagy a 253/1997. (XII. 20.) Korm. rendelet az országos településrendezési és építési követelményekről stb.

14 Lawrence Lessig: Code version 2.0. New York, Basic Books, 2006.

15 Ez persze nem ilyen egyszerű: a kód nem létezik a fizikai valóságban, de a cselekvést mégis a fizikai akadály erejével befolyásolja. Ez a kettősség jellemző rá a normativitás szempontjából is: sem nem norma, sem nem valóság. Vö. Ződi Zsolt: A jog és a kód (megjelenés alatt).

16 David R. Johnson – David Post: Law and Borders: The Rise of Law in Cyberspace. 48 Stanford Law Review (1996) 1367–1402.

17 Joel R. Reidenberg: Lex Informatica: The Formulation of Information Policy Rules through Technology. 76 Texas Law Review (1997–1998) 553–594.

18 Lessig i. m. (14. lj.) 4.

19 Mirelle Hildebrandt: Legal and Technological Normativity: More (and Less) than Twin Sisters. 12 Techné (2008) 169–183.

20 Roger Brownsword: Code, Control, and Choice: Why East is East and West is West. 25 Legal Studies (2005) 1–21.

21 Andrew Murray – Colin Scott: Controlling the New Media: Hybrid Responses to New Forms of Power. 65 Modern Law Review (2002) 491–516.

22 Lessig i. m. (14. lj.) 4.

23 Julie E. Cohen: Information Platforms and the Law. 2 Georgetown Law Technology Review (2018) 191–196.; Julie E. Cohen: Law for the Platform Economy. 51 UC Davis Law Review (2017) 133–204.

24 Uo., 135.

25 A számítógép és jog tematika egyik első cikke, az 1949-ben született „Jurimetrics” című írás azonnal felveti, hogy a jog számítógépesítésének legnagyobb hátráltatója a jogi nyelv homályossága. Lee Loevinger: Jurimetrics: The Next Step Forward. 33 Minnesota Law Review (1949) 455–493.

26 L. pl. legfrissebben: Jeremy A. Carp: Autonomous Vehicles: Problems and Principles for Future Regulation. 4 University of Pennsylvania Journal of Law & Public Affairs (2018) 81–149.; Henry Prakken: On the Problem of Making Autonomous Vehicles Conform to Traffic Law. 25 Artificial Intelligence and Law (2017) 341–363.

27 Kimberly A. Houser – W. Gregory Voss: GDPR: The End of Google and Facebook, or a New Paradigm in Data Privacy. 25 Richmond Journal of Law & Technology (2018) 1–109.

28 Report on Automation in Financial Advice. esas-joint-committee.europa.eu/Publications/Reports/EBA, 9.

29 L. pl. a 48/2013. (XI. 15.) NGM rendelet a pénztárgépek műszaki követelményeiről, a nyugtakibocsátásra szolgáló pénztárgépek forgalmazásáról, használatáról és szervizeléséről, valamint a pénztárgéppel rögzített adatok adóhatóság felé történő szolgáltatásáról, melynek mellékletében az Adóügyi Ellenőrző Egységben (AEE) tárolt bizonylati adatok tartalmára és szerkezetére vonatkozó előírások szerepelnek.

31 Az MI-knél ma már szinte minden esetben beleértik az öntanuló jelleget. Az öntanuló jelleg, különösen, ha a neurálisháló-programozással együtt használják, a programozó számára sem átlátható végeredményeket produkálhat, amelyeket lehetetlen elmagyarázni, bármilyen erősen is hangsúlyozzuk azt különböző etikai kódexekben.

32 Koltay András: Az új média és a szólásszabadság. A nyilvánosság alkotmányos alapjainak újragondolása. ­Budapest, Wolters Kluwer, 2019. 21–30.

33 Török Bernát: Szabadon szólni demokráciában. A szólásszabadság magyar doktrínája az amerikai jogiro­dalom tükrében. Budapest, HVG–ORAC, 2018. 48.

34 Uo., 231–248.

35 Richard Susskind: Az ügyvédség vége? A jogi szolgáltatások természetének újragondolásáról. Budapest, CompLex, 2012. 245.

36 Richard Susskind – Daniel Susskind: A szakmák jövője. Budapest, Antall József Tudásközpont, 2017.

37 Jelenleg a GDPR 22. cikke szabályozza az automatizált döntéshozatalt.

38 Uo., (1) bek.

39 High Level Expert Group on Artificial Intelligence: A definition of AI: Main Capabilities and Disciplines. Definition Developed for the Purpose of the AI HLEG’s Deliverables, ec.europa.eu/newsroom/dae/document.cfm?doc_id=56341

40 A két legutóbbi példa a két legnagyobb forgalomirányítóval kapcsolatban: a Bundeskartellamt B6-22/16 ­számú, 2019. február 16-án született döntése a Facebook ellen: www.bundeskartellamt.de/SharedDocs/Meldung/EN/Pressemitteilungen/2019/07_02_2019_Facebook.html?nn=3591568 és az EU versenyhatóságának 2019. márciusi döntése a Google ellen: europa.eu/rapid/press-release_IP-19-1770_en.htm. A Google esetében ez már a harmadik nagyobb bírság volt: 2017 óta minden évre jut egy-egy milliárdos összegű bírság.

41 A legutóbbi példák a következők. A francia adatvédelmi hatóság bírsága a Google ellen: www.theguardian.com/technology/2019/jan/21/google-fined-record-44m-by-french-data-protection-watchdog. Az olasz adatvédelmi hatóság a Cambridge Analytica-botrány után 1 millió euró összegre büntette a Facebookot. Az olasz adatvédelmi hatóság angol nyelvű esetismertetése: www.garanteprivacy.it/web/guest/home/docweb/-/docweb-display/docweb/9121506, a döntés elemzése a Politicón: www-politico-eu.cdn.ampproject.org/c/s/www.politico.eu/article/facebook-fined-cambridge-analytica/amp. A Facebookot eddig Törökországban és Nagy-­Britanniában sújtották adatvédelmi bírsággal (két nagyon eltérő ok miatt), de úgy tűnik, hogy az ír adatvédelmi hatóság, amely illetékességgel rendelkezik az országba bejegyzett platformok felett, hatalmas erőkkel kezdett vizsgálódni a platformok – és ezen belül elsősorban a Facebook – adatkezelési gyakorlata miatt: www.bbc.com/news/business-48357772

42 Nick Srnicek: We Need to Nationalise Google, Facebook and Amazon. Here’s Why. The Guardian, 2017. augusztus 30., www.theguardian.com/commentisfree/2017/aug/30/nationalise-google-facebook-amazon-data-monopoly-platform-public-interest; Gianmarco Raddi: Nationalize Facebook. Politico, 2018. szeptember 10., www.politico.eu/article/nationalize-facebook-data-privacy-hackers-advertisement-social-media

43 L. 30. lj.

44 Roger Brownsword: So What Does the World Need Now? Reflections on Regulating the Technologies. In: BrownswordYeung i. m. (12. lj.) 23–48.

45 Karen Yeung: Regulation by Blockchain: The Emerging Battle for Supremacy between the Code of Law and Code as Law. 82 Modern Law Review (2019) 207–239.

46 Ugo Pagallo: The Laws of Robots: Crimes, Contracts and Torts. New York, Springer, 2013. 102–104.

47 Philipp Maume: Regulating Robo-Advisory. 55 Texas Journal of International Law (2018/2019), papers.ssrn.com/sol3/papers.cfm?abstract_id=3167137

48 Brownsword i. m. (44. lj.) 23.

49 Az elektronikus kereskedelmi szolgáltatások, valamint az információs társadalommal összefüggő szolgálta­tások egyes kérdéseiről szóló 2001. évi CVIII. törvény (Ekertv.) 6. § (1) bek. és Eker. irányelv (4. lj.) 10. cikk (1) bek. c) pont.

50 Principles for Better Self- and Co-Regulation and Establishment of a Community of Practice, ec.europa.eu/digital-single-market/en/news/principles-better-self-and-co-regulation-and-establishment-community-practice; Panteia – VVA (2016): Effectiveness of Self and Co-Regulation in the Context of Implementing the AVMS Directive. Self and Co-Regulation Study, ec.europa.eu/digital-single-market/en/news/audiovisual-and-media-services-directive-self-and-co-regulation-study

51 Lilian Edwards – Michael Veale: Slave to the Algorithm: Why a Right to an Explanation Is Probably not the Remedy You are Looking for. 16 Duke Law & Technology Review (2017–2018) 18–84.; Gianclaudio Malgieri – Giovanni Comandé: Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation. 7 International Data Privacy Law (2017), 243–265.; Margot Kaminski: The Right to Explanation, Explained. University of Colorado Law Legal Studies Research Paper No. 18–24., 2018. ssrn.com/abstract=3196985