Zdarzenia 6 stycznia na Kapitolu w Waszyngtonie były niechlubnym podsumowaniem ery Trumpa, a zarazem jednym z przejawów jej końca. Okazało się jednak, że dodatkowo wywołały na nowo dyskusję – na skalę globalną – o wolności w Internecie i wolności wypowiedzi w sieci.

Decyzje zarządów Twittera i Facebooka o zablokowaniu kont prezydenta USA wywołały bardzo zróżnicowane reakcje.

Jedni pytali, dlaczego tak późno, skoro w ciągu swojej kadencji Trump umieścił na swoich kontach przeszło 30 tysięcy fałszywych informacji, nie mówiąc już o wypowiedziach nienawistnych i poniżających, nazywanych często „mową krzywdzącą”. Podważanie przez niego wyników wyborów, z hasłem: „wybory zostały skradzione”, oraz wezwania do buntu i ataku na Kapitol, chociaż sformułowane nie wprost, rozsiewane były w sieci jeszcze 2–3 godziny przed wydarzeniami. Trump miał wsparcie wielu organizacji, takich jak QAnon, z jego liderem, szamanem w stroju bizona, Jakiem Angelim, Proud Boys, America First Policies czy Women for America First, z Kylie Jane Kremer, która 2 stycznia, promując akcję na Kapitolu, podgrzewała emocje i pisała na Twitterze: „Be a part of History”, co Trump posłał dalej z komentarzem: „I’ll be there! Historic day”. Trwało to cały czas przez 77 dni między wyborami a decyzjami Kongresu i Senatu w sprawie uznania wyników wyborów, a także dniem zaprzysiężenia Bidena [1]. Niewątpliwie zachowania Trumpa groziły ładowi demokratycznemu na wielką skalę. I dlatego firmy internetowe, powołując się na swoje kodeksy etyki i działań, dokonały tego niebywałego ograniczenia swobody wypowiedzi urzędującego jeszcze prezydenta.

Byłoby oczywiście lepiej, gdyby inne mechanizmy i narzędzia pozwalały ograniczać rozsiewanie treści groźnych dla ładu społecznego. Przeciw tym decyzjom, w imię niechęci do samowoli i nadmiaru władzy w rękach firm technologicznych, protestowano na całym świecie – zarówno organizacje obywatelskie, jak i ludzie biznesu amerykańskiego, uważający, że Zuckerberg i tak ma „krew na rękach”, a nawet szefowa Komisji Europejskiej Ursula von der Leyen i Kanclerz Niemiec Angela Merkel. W Unii Europejskiej natychmiast sięgnięto po język oraz retorykę znaną z licznych protestów przeciwko GAFA i dużym amerykańskim korporacjom. Dziwię się temu tylko częściowo. Władza właścicieli wielkich platform internetowych oraz samych tych platform jest tak olbrzymia, że wiele ich działań wymyka się spod demokratycznego nadzoru.

Ale istota problemu jest bardziej skomplikowana, niż obliczone na polityczny oddźwięk publicystyczne pohukiwania potrafią pokazać. Dlatego ważne jest, by widzieć też kontekst tej debaty, istotny dla dyskusji o ramach prawnych tworzących wymogi wobec platform internetowych. Powinny one brać odpowiedzialność za treści na nich zamieszczane i tym samym mierzyć się z problemem wolności wypowiedzi w sieci, nie ograniczając mechanicznie wielkiej wartości, jaką treści generowane przez użytkowników przynoszą nam wszystkim [2].

Reakcja Facebooka i Twittera (później również Amazona), jeśli chodzi o dawanie miejsca w sieci portalom skrajnie prawicowym, była reakcją nie tyle prewencyjną czy nawet ex post (w formie ograniczenia wolności wypowiedzi) wobec samych TREŚCI głoszonych przez Trumpa, ile odpowiedzią na EFEKTY I SKUTKI FUNKCJONOWANIA TYCH TREŚCI (zdarzenia na Kapitolu, gdzie zginęło siedem osób).

To ważne w dyskusji o wolności w Internecie. Nie było i nie ma innych możliwości prawnie uzasadnionej reakcji, bowiem zarówno w USA, jak i w Europie wciąż funkcjonują bardzo już przestarzałe rozwiązania prawne: Section 230 of the Communications Decency Act of 1996 oraz europejska dyrektywa o handlu elektronicznym z 2000 roku. Powstawały one w latach, gdy w imię zasady wolności w Internecie platformę uważano za swoisty „słup ogłoszeniowy”, gdzie każdy może umieścić swoje treści, a właściciele oraz administratorzy nie powinni w nie ingerować.

Oczywiście z czasem powstały narzędzia do usuwania treści niezgodnych z prawem czy zgłaszanych jako niezgodne z prawem albo łamiące pewne zasady. Ten mechanizm „zgłoszenia i zdjęcia treści” (notice and take down) nie był jednak zbyt skrupulatnie stosowany. Towarzyszyło mu wiele niejasności, głównie natury prawnej, a także będących rezultatem otwartego pola interpretacyjnego co do szkodliwości treści, ich nieprawdziwości czy nielegalności. Nie było jasne, kto ma orzekać o tzw. szkodliwości. Po wielu debatach – i mimo oporów, także ze strony firm internetowych, wskazujących na różne problemy techniczne związane z zarządzaniem treściami i ich filtrowaniem oraz na problem szybkości, z jaką treści nieakceptowane prawnie (czy społecznie?) powinny być usuwane – w kilku dziedzinach sprawy zostały uporządkowane. Dzisiaj już wiadomo, jak postępować z treściami terrorystycznymi (propaganda i nawoływanie do czynów), z treściami dotyczącymi przemocy wobec dzieci (jasne reguły definicyjne i zasady reagowania, chociaż przy wdrażaniu dyrektywy trwają w różnych krajach dyskusje, ile czasu dać platformom na zdjęcie treści – w Holandii na przykład mówi się o dwóch godzinach), z treściami związanymi z handlem ludźmi, w szczególności kobietami w celach seksualnych (wymóg prawny dotyczący reakcji platform) oraz – przy całej kontrowersyjności przyjętych rozwiązań – w sprawach dotyczących prawa autorskiego.

Europejskie spory o kształt dyrektywy o prawie autorskim (głównie wokół wyjściowo art. 13, a obecnie art. 17) ujawniły ciekawą przesłankę myślenia o usuwaniu treści nielegalnych (treści objętych tym prawem, ale pozyskanych i promowanych niezgodnie z tym prawem). Firmy wydawnicze i legislatorzy (w końcu) uznali, że aby ograniczyć nielegalne rozprzestrzenianie treści, to, co przepływa przez Internet, powinno być filtrowane zanim zostanie umieszczone w sieci. Czy ten wymóg filtrowania – konieczny w celach ochronnych (dla praw autorskich) – nie zamienia się w swoistą formę cenzury? Zwłaszcza we wszystkich trudnych interpretacyjnie sprawach (np. w przypadku przetwarzania treści w sposób groteskowy, satyryczny, w przeinaczeniach treści w celu ich artystycznego i semantycznego wyszydzenia), gdzie nagle to platformy (firmy) miałyby mieć narzędzie do zatrzymania obiegu jakichś treści. Miarą trudności problemu w tej ostatniej sprawie jest konieczność przedstawienia przez Komisję Europejską po współpracy z partnerami swoistego przewodnika, jak zapisy art. 17 stosować w praktyce (oczekiwanie, że w lutym 2021 roku ten przewodnik się pojawi).

Jest hipokryzją mówienie, że duże platformy trzeba ograniczyć w ich potędze, z równoczesnym oczekiwaniem, że to one wezmą na siebie w niektórych wypadkach ciężar definiowania, co jest niezgodne z prawem oraz normami.

Jest bardzo złym rozwiązaniem oczekiwanie, że to biznes technologiczny będzie określał kształt samodzielnych rozwiązań prawnych. I właśnie, by tego uniknąć, toczy się obecnie cała dyskusja o wolności w Internecie oraz narzędziach i warunkach (przesłankach), w jakich platformy muszą i powinny wziąć na siebie odpowiedzialność za publikowane treści. Jest to szczególnie ważne w czasach, gdy używanie Internetu odbywa się na taką skalę.

Dostęp do Internetu i aktywność sieciowo-telefoniczna (mobilna) charakteryzuje już 5,2 mld ludzi, a w mediach społecznościowych uczestniczy 4,14 mld osób (Facebook – 2,7 mld, YouTube – 2 mld, WhatsApp – 2 mld, Twitter – 360 mln) [3]. Każdego dnia do użytkowników narzędzi cyfrowych dołącza około 2 mln ludzi. Jest jasne, że poszukiwane nowe reguły społecznego funkcjonowania Internetu muszą mieć charakter globalny. W tym kontekście dobrze byłoby, żeby zasady dotyczące ochrony prywatności (europejskie Rozporządzenie o ochronie danych osobowych, realnie funkcjonujące od maja 2018 roku) oraz cyberbezpieczeństwa (standardy i certyfikaty) stawały się powszechne. Tak, jak ważne byłoby rozprzestrzenienie na cały świat reguł związanych z odpowiedzialnością platform za wymienione wcześniej sprawy, jeśli chodzi o funkcjonowanie określonych treści w sieci (terroryzm, przemoc wobec dzieci, handel ludźmi, prawo autorskie na zdrowych zasadach).

Co zatem nadal pozostaje drażliwe i dramatyczne w skutkach, jeżeli chodzi o ład społeczny, gdy mówimy o obecności określonych treści w przekazach umieszczanych na platformach czy w mediach społecznościowych? Dwie niesłychanie istotne sprawy: DEZINFORMACJA i krzewienie nieprawdy (fake news, fake science, w tym teorie spiskowe) oraz MOWA NIENAWIŚCI, mowa krzywdząca w różnych jej przejawach.

Warto – szukając odpowiednich rozwiązań prawnych dotyczących odpowiedzialności platform – zobaczyć, kto bywa źródłem dezinformacji oraz mowy nienawiści. Tu wkraczamy w zupełnie nową sferę – przemysł dezinformacji tworzony przez administracje rządowe, świat polityki i usługi realizowane na ich zlecenia. To rzeczywistość UPRZEMYSŁOWIONEJ MANIPULACJI i WOJENNEGO UZBROJENIA KOMUNIKACJI PUBLICZNEJ. Tym samym to wielkie wzmocnienie nadania polityce charakteru przemocowego, spotęgowanie przemocy wobec ładu społecznego (np. nawoływanie pod fałszywymi hasłami do tego, by się nie szczepić, co jest złamaniem zasad dobra publicznego w imię wyimaginowanej i skrajnie zindywidualizowanej wolności), wreszcie – olbrzymie wsparcie tworzenia warunków dla skrajnej polaryzacji wykorzystującej wszystkie techniki ekstremalnych, plemiennych podziałów w społeczeństwie. W erze populizmu to ostatnie staje się sprawnym narzędziem rządzenia.

Badania przeprowadzone przez Oxford Internet Institute [4] pokazują, jak szybko rośnie liczba krajów, w których na wielką skalę stosuje się komunikację służącą manipulacji – w 2020 roku działo się to już w 81 państwach, w tym w Polsce. Wykorzystywane są różne kanały i różne formy działań prowadzonych w mediach społecznościowych przez: agencje rządowe, polityków i partie polityczne, prywatnych kontraktorów (specjalne agencje, których już w 2020 było prawie 70 na świecie), pseudoorganizacje społeczeństwa obywatelskiego (np. takie, jak Ordo Iuris), samych obywateli oraz sieciowych influencerów. Widać, jak wszechstronne są to oddziaływania. Tylko dziewięć krajów wykorzystuje wszystkie ze wskazanych możliwości; jest wśród nich Polska (pomiędzy: Izraelem, Kuwejtem, Libią, Malezją, Filipinami, Rosją, Wielką Brytanią i USA – skądinąd zastanawiająca lista). Autorzy raportu piszą o cyberośrodkach, cyberoddziałach, cyberwojsku. Do rozprzestrzeniania dezinformacji używa się prawdziwych (często zhakowanych) oraz fałszywych kont. Bywa, że pracują one w sposobu automatyczny, bywa, że dominuje formuła działania botów, bywa, że angażowani są żywi ludzie (ich zadaniem jest rozwijanie interakcji z tymi, którzy są atakowani, oczerniani lub wyraziście prezentują w przestrzeni publicznej odmienne zdanie). Stosuje się trolling, na przykład polegający na akcjach dyskredytacji opozycji. Robiono tak między innymi w Tadżykistanie, gdzie tamtejsze Ministerstwo Edukacji wynajęło do tego nauczycieli, robiono tak w Polsce, gdzie wynajęto pracowników Ministerstwa Sprawiedliwości do działań manipulacyjnych i oszczerczych wobec sędziów.

Część tej wojny odbywa się za pośrednictwem reklam. W zapowiedziach Komisji Europejskiej widać intencję poddania reklam (także politycznych) większej kontroli, choć na razie nie wiadomo, jak miałoby to być realizowane. Na pewno jednak musi zostać zwiększona przejrzystość umieszczania reklam (informacje o nadawcy, odbiorcach, finansowaniu, wówczas gdy reklama jest polityczna, a także potwierdzenie, że zaprezentowane treści są reklamą).

Cele tej wojennej, cyfrowej machiny są niestety oczywiste. I skupione na: propagandzie prorządowej oraz manipulacji, atakowaniu opozycji i przeciwników politycznych czy światopoglądowych, tłumieniu prawdziwej aktywności społecznej i obywatelskiej przez zastraszanie, na ekstremalnej polaryzacji społeczeństwa.

To oczywiście tworzy wielkie zagrożenie dla demokracji rozumianej jako uczestnictwo obywateli w procesach decyzyjnych, oparte na przejrzystych regułach, demokracji rozumianej jako wypełnianie reguł praworządności oraz demokracji szanującej odmienność. To taka demokracja tworzy szanse na dialog i deliberacje nad ważnymi sprawami. Kiedy słyszę, że obecnie największym zagrożeniem dla demokracji jest Internet, to myślę sobie, że jest to błędna ocena. Zagrożeniem jest populizm i ludzie go tworzący, a także – z trochę innej perspektywy – ci, którzy populizmowi ulegają i na populistów głosują. Wzorem w negatywnym sensie są też tradycyjne, skrajnie stabloidyzowane media. Badania przeprowadzone przez centrum badawcze na Uniwersytecie Harvarda [5] nad kampanią prezydencką Trumpa pokazały, że Internet był drugoplanowy, główne przekazy negatywnych emocji powstawały na przykład w Fox News. Niestety Internet daje sprawne narzędzia populizmowi (czy sprawniejsze niż radio dawało Hitlerowi w latach 30.?).

I wynika to z istoty Internetu, który na masową skalę stworzył „gospodarkę uwagi” (attention economy). Wszystkie zasady funkcjonowania Internetu skupiają się na tym, by nasza uwaga była nieustannie generowana, by nią manipulowano, by ją wartościowano, ale i degradowano [6]. Nie powinno to jednak prowadzić w kierunku otwierania prawnych oraz praktycznych furtek do „zamykania” Internetu, ograniczania dostępu do niego na masową skalę. W pracach nad polskimi przepisami o cyberbezpieczeństwie pojawił się taki wątek (choć obecnie chyba zniknął?), by władze mogły „zamykać Internet” ze względu na bezpieczeństwo państwa... To groźne dla demokracji i wolności, czego potwierdzeniem najbardziej aktualnym w początkach 2021 roku są decyzje generałów, którzy dokonali puczu w Mjanmie i „zamknęli” sieć (dostęp do niej) na kilka dni, chcąc powstrzymać organizowanie się protestów.

Administratorzy platform w 2019 i 2020 roku usunęli z sieci ponad 317 tysięcy stron i kont [7], ale to nie postawiło tamy dla dezinformacji, bo nie mogło. Chociaż z drugiej strony trzeba przyznać, że wprowadzona w 2017 roku w ramach polityki Unii Europejskiej (pod auspicjami Komisarz Very Jourovej) zasada współpracy partnerów: rządów w niektórych krajach, Komisji Europejskiej, firm internetowych oraz organizacji obywatelskich, oparta na wspólnym Kodeksie Dobrych Praktyk na rzecz reagowania na dezinformację, a przede wszystkim mowę nienawiści, zaczęła przynosić rezultaty. I skutkuje coraz większą skalą zdejmowania treści zgłaszanych jako „fałszywe” lub „nienawistne”. W grudniu 2020 roku Komisarz Jourova zapowiedziała, że wiosną 2021 roku powstanie nowa wersja tego kodeksu, z mocniejszymi zobowiązaniami dla stron, by reagowały szybciej i bardziej skutecznie na łamanie prawa, ale i na to, co niszczy ład społeczny i osobiste poczucie porządku u wielu ludzi [8].

Dlatego debata o wolności w sieci, która brałaby pod uwagę to, że wolność jednego nie może niszczyć wolności drugiego w przestrzeni publicznej sieci – jest kluczowa.

Niestety żyjemy w świecie wywróconym do góry nogami.

I w momencie, gdy w Unii Europejskiej toczą się ważne prace nad zasadniczą reformą dyrektywy eCommerce, czyli nad rozporządzeniem o usługach cyfrowych [9], gdzie kwestia odpowiedzialności platform jest jedną z najważniejszych – w Polsce rząd (minister Ziobro) proponuje własne rozwiązania. I to jako zasłonę dymną – bo mówi się o wolności, gdy tymczasem chodzi o zniewolenie. W różnych krajach zresztą używa się haseł „bezpieczeństwo” albo „wolność”, by tak naprawdę ograniczyć prawa obywatelskie.

Z analizy prowadzonej przez International Press Institute [10] wynika, że w ostatnich latach, a nawet miesiącach, w wielu państwach pod pretekstem walki z dezinformacją wdrożono prawo, które w istocie ogranicza swobody wypowiedzi, także dziennikarzy (chodzi o krytykę rządów). Rzekomymi obrońcami wolności słowa i ‚prawdziwej prawdy” są liderzy polityczni tacy, jak Putin, Orban (kara za dezinformację w przepisach o stanie wyjątkowym w związku z COVID-19 wynosić może na Węgrzech do pięciu lat więzienia), Duterte z Filipin, Erdoğan w Turcji, Ortega z Nikaragui, Bolsonaro z Brazylii czy oczywiście Łukaszenka na Białorusi.

Słusznie Fundacja Panoptykon [11] nazwała te propozycje „ustawą inwigilacyjną 2.0.”

Pierwszą ustawą inwigilacyjną można nazwać to, co powstało w 2016 roku, w ramach wykoślawionej interpretacji i wdrażania europejskiej dyrektywy, tzw. dyrektywy o policji, powstałej w ramach prac nad regulacją o ochronie danych osobowych. Dotyczyła ona między innymi umożliwienia inwigilacji internetowej poprzez wprowadzenie tzw. stałego łącza między firmami (obsługującymi użytkowników i ich obecność w sieci) a służbami (policja i osiem innych służb). Europejskie rozwiązanie nie mówi o stałym łączu. Ogranicza wydobywanie informacji do określonych przestępstw (pięciu najgroźniejszych przestępstw według interpretacji Trybunału Sprawiedliwości Unii Europejskiej). Dla polskich koordynatorów służb specjalnych każde przestępstwo miałoby być groźne i poważne. I co kluczowe – w europejskiej propozycji decyzje o dostępie do danych i treści użytkownika Internetu powinny być poprzedzone oceną ex ante podjętą przez sąd. Do tej pory, co prawda, dane użytkowników mogły być magazynowane przez platformy i kanały komunikacyjne według własnego uznania co do czasu ich przechowywania. Ale w nowym projekcie minister Ziobro umieścił przepis o konieczności retencji (przechowywania) danych przez co najmniej 12 miesięcy. Podobnie, jak to jest stosowane w Polsce z danymi telekomunikacyjnymi. Tymczasem zgodnie z październikowym orzeczeniem Europejskiego Trybunału Sprawiedliwości w sprawie retencji – jest to nieuprawnione i nielegalne!

Intencją autorów projektu jest stworzenie (rzekomego) mechanizmu odwołania dla użytkowników, gdy ich treści zostaną zdjęte ze stron internetowych czy portali społecznościowych. Reguły odwoławcze rzeczywiście są konieczne, i nad tym też pracuje się w Unii Europejskiej, ale muszą być one poprzedzone jasnością zasad moderacji treści (uzasadnienie, dlaczego coś ma być zdjęte) – o czym toczy się dyskusja w ramach pracach nad regulacją o usługach cyfrowych. Tymczasem Ziobro, wyprzedzając czas, mówi: podważanie decyzji moderacyjnych w Polsce będzie mogło być kierowane do nowej instytucji, Rady Wolności Słowa. A Rada ta miałaby powstać bez wiarygodnego obywatelskiego i politycznego konsensu, czyli w oczywisty sposób stałaby się orężem rządzącej partii. Gdyby Rada podważyła decyzję moderacyjną jakiejś platformy, a użytkownik nie zgadzałby się z tym, to mógłby iść do sądu... administracyjnego! Co z góry topi sprawę na lata i przenosi ciężar sporu w sferę nie prawnej ochrony praw obywatelskich, ale w obszar funkcjonowania procedur administracyjnych. I wreszcie kluczowa sprawa: brak zaufania do Rady i do całej procedury. Wygląda to zatem bardziej na chęć obrony treści, które mogą być uznane za nazistowskie, w sytuacji gdy platformy byłyby gotowe je zdejmować zgodnie z literą i duchem polskiego prawa oraz uznając ład społeczny za ważną wartość. Czy też chęć obrony – w imię wolności poglądów – zdejmowanych z platform treści poniżających osoby LGBT plus.

By móc skutecznie i w sposób przejrzysty ograniczać przejawy mowy nienawiści oraz dezinformacji – także poprzez efektywną odpowiedzialność platform – trzeba jednak uporządkować kilka spraw.

Po pierwsze, precyzyjnie określić reguły funkcjonowania i odpowiedzialność platform w sytuacjach pojawiania się takich treści. Ma powstać nowa formuła modelu „zauważ, zgłoś i zdejmij treści” – z rygorami czasu reakcji i opisem wszystkich niezbędnych procedur oraz karami za niewypełnianie tych obowiązków; w propozycji Komisji kary miałyby być nawet większe niż przy łamaniu zasad ochrony prywatności.

Po drugie, mieć jasność (w Unii Europejskiej i we wszystkich krajach członkowskich) co do prawnego zdefiniowania tego, co nielegalne, łamiące prawo i wymagające zdjęcia z obiegu sieciowego. Komisarz Jourova zapowiedziała [12], że w 2021 roku Komisja Europejska wystąpi z inicjatywą poszerzenia listy przestępstw (w ramach art. 83(1) Traktatu o funkcjonowaniu Unii Europejskiej) i uznania za podlegające penalizacji działań o charakterze mowy nienawiści oraz prowadzących do przestępstw z nienawiści. To uporządkowanie prawa jest kluczowe, by bez nadmiaru problemów interpretacyjnych zdejmować treści uznawane za nielegalne. Harmonizacja prawa w tych dziedzinach w całej Unii jest ważna, ponieważ Internetu nie da się „zamknąć” w graniach danego kraju. Obecnie jest wiele różnic, na przykład w uznawaniu za przestępstwo słów i czynów poniżających osoby o odmiennej orientacji seksualnej czy osoby z niepełnosprawnościami.

Po trzecie, znaleźć sposób, by bez łamania praw swobody ekspresji ograniczać swobodne krążenie w Internecie treści „szkodliwych, łamiących normy społeczne” (harmful). Po całorocznej dyskusji na te tematy (2020 rok) konkretna propozycja legislacyjna Komisji Europejskiej skupia się już wyłącznie na usuwaniu i ograniczaniu obecności w sieci tego, co zostało zdefiniowane jako nielegalne. A zatem pozostają wątpliwości oraz obszary niejasne – czy jakaś odmiana fałszywej informacji jest łamaniem prawa, czy wyrazem czyjejś interpretacji jakiejś sprawy? To najtrudniejsze wyzwanie. Bo – kto miałby definiować szkodliwość tych treści, i to w sposób bezstronny? Często zresztą niuanse mogą decydować o uznaniu czegoś za szkodliwe lub nie; i może to wynikać z odmiennej wrażliwości, wynikającej ze wzorców kulturowych danej grupy społecznej, religijnej, narodowej.

Po czwarte, zrozumieć, że odpowiednie ramy prawne (jak nowa regulacja o usługach cyfrowych) to tylko fragment rozwiązywania problemu. Bo o jakości nowej oferty w traktowaniu tych spraw przesądzi realna egzekucja prawa. Czy za umieszczenie treści wzywających do nazizmu czy fizycznego zniszczenia osoby o odmiennych poglądach albo za wywołanie szkód psychicznych u osoby nękanej i poniżanej w sieci – będzie kodeksowo określona nieuchronność kary, poprzedzona działaniami służb policyjnych oraz prokuratury, inicjowanymi w niektórych sprawach z urzędu?

Po piąte, zagwarantować, by mechanizm odwoławczy, szczególnie w sprawach, które mogą wywoływać kontrowersje i różnice w interpretacjach, był dobrze opisany, opierał się na regułach praw konsumenckich i był sprawny w codziennym funkcjonowaniu. Choć byłoby dobrze, aby w ramach Unii Europejskiej powstała lista dobrych praktyk w kwestiach spornych dotyczących rozumienia sensu i celu funkcjonowania oraz oddziaływania jakichś treści szkodliwych, jak dezinformacja, bo z propozycji legislacyjnej nie wynika przecież, żeby takie treści były traktowane jako nielegalne oraz objęte mechanizmami usuwania z sieci.

Po szóste, promować i zapewnić poczucie bezpieczeństwa platformom czy ich administratorom, którzy z własnej inicjatywy będą prowadzili działania tropiące, identyfikujące źródła, ograniczające dostęp czy usuwające określone treści nielegalne (zasada „Dobrego Samarytanina”) lub zgłoszone przez użytkowników indywidualnych albo podmioty zbiorowe jako szkodliwe, niebezpieczne (jest propozycja, by funkcjonował system osób zaufanych zgłaszających takie sprawy – trusted flaggers).

Po siódme, przejrzyście prowadzić moderacje i ustalić standardy moderacyjne, także ze zwróceniem uwagi na różnice i problemy wynikające z odmienności stosowanych technik moderacyjnych – opartych na systemie algorytmicznym czy prowadzonych przez ludzi (wszystko w warunkach, w jakich projekt rozporządzenia unijnego słusznie potwierdza brak obowiązku powszechnego monitoringu treści, dokonywanego na platformach).

Ta ostatnia kwestia wymaga pogłębionych analiz, zwłaszcza obecnie, podczas debaty nad rozporządzeniem o usługach cyfrowych.

Może się bowiem okazać, że proste zasady usuwania treści nielegalnych nie rozwiążą problemu treści z pogranicza swobody wypowiedzi oraz naruszenia czyichś dóbr i wolności czy łamania norm społecznych. W celu minimalizacji zagrożeń płynących z Internetu dla wolności tych, których mogą boleśnie dotknąć słowa i postawy szerzone w sieci – potrzebna jest rosnąca świadomość tych spraw i zagrożeń, będąca wynikiem publicznego, stałego dyskursu i edukacji. Ale skoncentrowanie uwagi i wysiłku legislacyjnego na tej sferze nie powinno dotyczyć wyłącznie treści, które noszą znamiona nielegalności czy wykraczania poza normy etyczne (by je usunąć z obiegu), ale równocześnie na mocnych gwarancjach swobody wypowiedzi. Dlatego właśnie moderacja treści jest tak ważna [13].

Przy takiej skali przepływu treści w Internecie, z jaką mamy do czynienia obecnie, nie ma innej możliwości niż stosowanie w moderacji – Algorytmicznych Systemów Moderacji Treści (Algorithmic Content Moderation Systems – ACMS). Czynią one moderację w ogóle możliwą, ale zarazem mają różnego typu ograniczenia: są „ślepe” na rozumienie kontekstu, słabo funkcjonują w językach mniej popularnych, mają niską wrażliwość na kreatywność treści. Schematy moderacyjne zależą od charakteru i modelu układu algorytmicznego oraz jakości danych, na jakich został on oparty („wyćwiczony”). To rodzi oczywiste i ważne pytanie: jaka jest, a jaka powinna być, kontrola i nadzór nad modelami moderacji? Projekt unijny zakłada udział ludzi w nadzorze, podkreśla również wagę zasady przejrzystości, czyli udostępniania mechanizmów funkcjonowania systemu do publicznej wiadomości. Niektórzy są zresztą zdania, że zagwarantowanie dbałości o wolność wypowiedzi wymaga, by schematy funkcjonowania ACMS podlegały ocenie skutków, uprzedniej w stosunku do rozpoczęcia pracy – Fundamental Rights Impact Assessment (FRIA). Wszystko to w celu uniknięcia sytuacji, w której brak przejrzystych reguł analizy treści (na tyle, na ile to możliwe) będzie z jednej strony groził ograniczeniami wolności słowa, z drugiej zaś – nie pozwoli na sprawne usuwanie tego, co nielegalne lub łamiące ład społeczny i demokratyczny.

Spory o wolność wypowiedzi w Internecie są ważne dla jakości demokracji i pełnych gwarancji państwa prawa.

Nie można ich trywializować, zamieniając wyłącznie w spór z dużymi firmami technologicznymi. I nie można ich banalizować, stawiając swobodę ekspresji wypowiedzi ponad regułami życia społecznego w sensie norm współistnienia z innymi, szacunku dla cudzych wolności i wartości. Nie można ich również separować od szerszego kontekstu, w którym coraz bardziej uwidacznia się siła populizmu we współczesnej polityce oraz udział państw, rządów, polityki w wojnach dezinformacyjnych, manipulacji oraz generowaniu nienawiści i podziałów społecznych.

Wreszcie, nie należy mieć złudzeń co do tego, że ramy prawne same z siebie rozwiążą wszystkie problemy, bo poza nimi, poza zdefiniowaną nielegalnością, znajduje się szereg spraw, zachowań, treści. A to (usuwanie „niszczycielskich” treści) będzie wymagało kodeksów współpracy firm z zaufanymi organizacjami obywatelskimi i nowymi instytucjami na poziomie Unii Europejskiej (jak proponowany European Board for Digital Services) i w krajach członkowskich (DSC – Digital Services Coordinators, kompetentne instytucje powoływane w każdym kraju, z silną pozycją do rozstrzygania kontrowersyjnych spraw). Czy to zda egzamin praktyczny? Nie wiadomo, ale trzeba próbować.

Wydaje się, że to jedyna droga, by spór o wolność w sieci poprowadzić tak, by wygrały wolność oraz trwała ochrona praw jednostki.

 

Michał Boni

12 lutego 2021 r.

 

PRZYPISY:

 

 

[1] Wiele informacji o zdarzeniach wokół Kapitolu podaję za: Subverting the Election. How a Presidential Lie Stoked the Attack on the Capitol?, „The New York Times”, 6–7 February, 2021.

 

[2] O potrzebie takich regulacji i – szerzej – o różnych wymiarach bezpiecznego Internetu pisała niedawno dla Instytutu Obywatelskiego Ania Mierzyńska, W hybrydowym świecie potrzebujemy bezpiecznego społecznie Internetu. Pięć wyzwań związanych z rewolucją cyfrową, Instytut Obywatelski, wersja elektroniczna.

 

[3] Dane za: Digital 2020 October Global Statshot Report, October 2020, in cooperation with Hootsuite and We Are Social.

 

[4] Podaję za raportem: S. Bradshaw, H. Bailey, Ph.N. Howard, Industrialized Disinformation. 2020 Global Inventory of Organized Social Media Manipulation, Oxford Internet Institute 2020.

 

[5] US Elections Disinformation Tabletop Exercise Package, The Harvard Berkman Klein Center Study, 2020.

 

[6] Ciekawy artykuł na ten temat, dyskutowany zresztą już od dawna: Charlie Warzel, The Cassandra of the Internet, „The New York Times”, 6–7 February, 2021.

 

[7] Dane za: S. Bradshaw, H. Bailey, Ph.N. Howard, Industrialized Disinformation…, op. cit.

 

[8] Vera Jourova, Commissioner, the EC, przy okazji publikacji: On the European Democracy Action Plan, Brussels, COM(2020) 790 final.

 

[9] Projekt Rozporządzenia o usługach cyfrowych, Regulation of the European Parliament and of the Council on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC, Brussels, COM(2020) 825 final.

 

[10] International Press Institute [w:] Inconvenient truths, „The Economist”, February 13th, 2021.

 

[11] Bardzo dobra opinia: Ustawa o wolności słowa? Raczej ustawa inwigilacyjna 2.0!, Panoptykon, artykuł z 4 lutego 2021 r., https://panoptykon.org/inwigilacja-2-0

 

[12] Vera Jourova, przy okazji prezentacji dokumentu EC: On the European Democracy Action Plan, Brussels, COM(2020) 790 final.

 

[13] Wiele z sugestii wykorzystuję za: Sunimal Mendis, Tilburg University, prezentacja o uwarunkowaniach wolności słowa, Digital Humanism TU Wien, Lecture series, Freedom of Expression in the Digital Public Sphere, 2 February, 2021.

  ---

Michał Boni – dr nauk humanistycznych, działacz podziemnej „S” i szef regionu Mazowsze  „Solidarności”, doradca w rządzie Jerzego Buzka, poseł na Sejm RP i minister w wielu rządach, szef doradców strategicznych Premiera Tuska oraz Komitetu Stałego Rady Ministrów, założyciel i szef Instytutu Spraw Publicznych, autor i koordynator prac nad raportem POLSKA 2030 oraz raportami MŁODZI 2011 i MŁODZI  2018, pierwszy w Europie Środkowo-Wschodniej minister cyfryzacji, autor programu POLSKA CYFROWA, poseł do Parlamentu Europejskiego; obecnie adiunkt w SWPS (Uniwersytet Humanistyczno-Społeczny) oraz Senior Researcher Associate w Martens Centre (think tank w Brukseli), senator SME Europe, szef Rady Programowej Fundacji FISE; autor wielu artykułów i prac.

Analizy