Magda Melnyk: Chciałabym, żeby punktem wyjścia dla tej rozmowy była książka Shoshany Zuboff „Wiek kapitalizmu inwigilacji”. Główną tezą autorki jest to, że media społecznościowe dokonały zamachu stanu, a ofiarą jest społeczeństwo. Nie chodzi jej jednak o to, że usunięte zostały konta Trumpa, ale o fakt, że media te masowo gromadzą nasze dane i jest to niebezpieczne dla nas oraz dla demokracji. Jak odnosisz się do tak mocnego komunikatu?
Marek Miller: Doszliśmy do punktu, w którym ja osobiście zastanawiam się już nie tyle czy, ale w jaki sposób należałoby regulować media społecznościowe. Wystarczy spojrzeć, jakiego rodzaju mają zasięgi: Facebook – ponad 2,5 miliarda użytkowników (nie licząc należących do niego Messengera czy WhatsAppa), Twitter, który ma olbrzymie znaczenie dla kreowania opinii w świecie polityki i dyplomacji – 400 milionów użytkowników, Instagram i TikTok o niebagatelnym znaczeniu dla młodych ludzi, LinkedIn – dla biznesu. W tym momencie osobiście traktuję te platformy jako mechanizmy potężnego wpływu na debatę publiczną. Wydaje mi się, że jest już trochę za późno, żeby zostawić je samym sobie, powiedzieć, że państw w ogóle nie powinno obchodzić, co się w nich dzieje i pozwolić im na kreowanie reguł.
Magda Melnyk: Mam wrażenie, że można wyodrębnić dwa główne mechanizmy, na których oparte jest choćby działanie Facebooka. Po pierwsze, są to algorytmy – stworzone w taki sposób, aby ludzi mocniej angażować w dyskusję, co z kolei sprzyja polaryzacji i perwersyjnej dynamice konfrontacji, tworzeniu się baniek ideologicznych – na czym oczywiście zależy Facebookowi, bo ludzie są wówczas bardziej zaangażowani i „klikają”. Wydaje mi się, że prowadzi to do wynaturzenia debaty, tworzenia się fake newsów i alternatywnych faktów, którym musimy obecnie stawiać czoła. Po drugie, kwestia gromadzenia danych. Czy widzisz jakąś możliwość zmiany sposobu działania tych mechanizmów?
Marek Miller: Problem jest wielowarstwowy. Pojawiają się dwa podstawowe problemy. Pierwszy to, jak wspomniałaś, problem danych i gromadzenie wiedzy o użytkownikach. Drugi dotyczy treści i jej jakości. Myślę, że platformy nie tworzą swoich treści i zasłaniają się swego rodzaju ścianą twierdząc, że nie są odpowiedzialne za to, jakiego rodzaju treści generują ich użytkownicy, w ten sposób zrzucają z siebie odpowiedzialność za różnego rodzaju zniesławienia i treści nielegalne, omijając tym samym prawa i przepisy, którym podlegają media tradycyjne, jak choćby prasa i telewizja. Innymi słowy, cały czas tworzony jest wizerunek mediów społecznościowych jako platform wolności słowa, które nie ponoszą żadnej odpowiedzialności za to, co przekazują ich użytkownicy. Łączy się to z tematem zbierania danych o użytkownikach, ale ponieważ platformy społecznościowe zarabiają przede wszystkim na interakcjach użytkowników, zależy im na przytrzymaniu ich przy publikowanych tam treściach. To tak zwane stickiness – przeglądając Facebooka czasami zastanawiamy się: „dlaczego akurat taki filmik, tekst jest mi polecany? dlaczego od tych osób? dlaczego to oglądam?”.
Wracając do kwestii drugiego problemu, o którym wspomniałaś, czyli gromadzenia danych i wiedzy o użytkownikach. Algorytmy platform społecznościowych mają obecnie zdolność do określenia tego kim jesteś i podsunięcia takich treści, które możesz chcieć usłyszeć i zobaczyć. Jest to budowane w oparciu o spersonalizowane decyzje, zachowania w sieci i przeglądane strony internetowe. Można do tego dodać również informacje geolokalizacyjne, pobrane z twojego telefonu komórkowego. Jest masa danych, które algorytmy wybierają po to, aby podsunąć ci taką treść, przy której przypuszczalnie zatrzymasz się jak najdłużej. W oparciu o tak wiele danych behawioralnych, demograficznych i dotyczących działań online, budowany jest twój cyfrowy model tego, kim jesteś – z dużą dokładnością predykcyjną tego, jakiego rodzaju treści będziesz oczekiwać. Problem jest taki, że wszystko to dzieje się bez twojej wiedzy na temat tego, jakiego rodzaju dane są zbierane. Nie wiemy czym kierują się algorytmy, które dobierają treści na naszym feedzie, nie ma w tym procesie jakiejkolwiek przejrzystości. Jest to swego rodzaju paradoks mediów społecznościowych, który będzie się nasilał w miarę pojawiania się coraz to nowszych technologii, jak na przykład tych typu pokroju wearables, czyli noszonych na ciele. Jest to olbrzymi problem i musimy się zastanowić jak go regulować w taki sposób, aby wolność słowa – o której wspomniałaś – została w jak najmniejszym stopniu naruszona.
Magda Melnyk: Kiedy myślę, o tym, co powiedziałeś, o tej swego rodzaju inwigilacji i dopasowywaniu treści do nas, wydaje mi się, że jest to proces, który bardzo przypomina działania populistów. A nawet nie tylko populistów, ale w ogóle dzisiejszych polityków, którzy nie kreują dobrych postaw, do jakich chcieliby nas przekonać, ale patrzą w sondaże i działają zgodnie z ich wynikami. Zastanawiam się, czy jakimś sposobem na uratowanie debaty demokratycznej nie jest pokazywanie nam przez media społecznościowe treści pozytywnych, a nie tylko tego, do czego mamy się „przykleić”? Czy twoim zdaniem to nie mogłoby zadziałać?
Marek Miller: Takie rozwiązania były testowane na innych platformach. Do głowy przychodzi mi gazeta „Nowy Dzień”, był to ogólnopolski dziennik wydawany przez wydawnictwo Agora, które wydało mnóstwo pieniędzy na badania fokusowe, pytając ludzi, jakiego rodzaju gazety im brakuje, z jakiego typu wiadomościami. Jednym z pytań było, czy chcieliby czytać gazetę bogatą w pozytywne wiadomości. Ludzie odpowiadali, że oczywiście. Gazeta utrzymała się na polskim rynku przez trzy albo cztery miesiące, bo w praktyce okazało się, że ludzie wcale nie oczekują tych dobrych newsów, nie chcą się nimi cieszyć. Prawda o dziennikarstwie tkwi w powiedzeniu: good news is no news, no news is bad news, bad news is good news. Bo to właśnie bad news wywołują to, wspomniane już, stickiness. Facebook poszedł o krok dalej – parę lat temu wprowadził „reakcje” pod postami, wchodząc tym samym na poziom emocji użytkownika związanego z przeczytaną treścią. Dzięki temu zyskują dodatkową wiedzę na temat tego, jakie treści zatrzymują nas na dłużej. Oczywiście, byłoby dobrze, gdyby Facebook składał się wyłącznie z pozytywnych informacji. Natomiast myśląc o tym, uśmiecham się do siebie, bo nie wydaje mi się, żeby było to możliwe.
Magda Melnyk: Złe informacje nie przeszkadzają mi tak długo, jak długo mam pewność, że odbył się tzw. fact-checking i to, co czytam znajduje potwierdzenie w rzeczywistości. Na Facebooku jednak przeraża mnie ilość artykułów i treści kompletnie wyssanych z palca. Ludzie nie posiadają jednak kompetencji i narzędzi, żeby skutecznie chronić się przed fake newsami, których wprowadzaniem do sieci zajmują się profesjonaliści. Współcześnie jest to ogromne zagrożenie dla demokracji. Widzieliśmy to choćby przy okazji Brexitu, wydarzeń na Kapitolu czy w Katalonii. To przerażające. Czy nie można w jakiś sposób przesiewać tych informacji? Przykładać więcej uwagi do kontrolowania źródeł, z których pochodzą?
Marek Miller: Źródła, co do których nie ma wątpliwości, że są fake’owe, są blokowane. Pojawiają się pojedyncze narzędzia, wykorzystywane przez Facebooka, dzięki którym takie strony są usuwane. Oczywiście, w idealnym świecie większa ilość informacji zostawałaby poddawana weryfikacji, która zapewniłaby, że informacje, które pojawiają się w social mediach są wyłącznie prawdziwe, żeby nie stosowano za ich pośrednictwem manipulacji. Ta kwestia pociąga jednak za sobą kolejny problem – kto powinien odpowiadać na pytanie: czy dana informacja jest fake’owa albo szkodliwa? Powinniśmy zostawić to w rękach Facebooka i pozwolić mu się samoregulować? A może powinien być wsparty przez zewnętrzne organizacje? Może taki sposób postępowania należy narzucić prawnie?
Warto przy tym jeszcze pamiętać, że media społecznościowe, o których mówimy, mają charakter globalny i jeśli powstaną działania je regulujące, to również powinny być ponadnarodowe. Owszem, biorąc pod uwagę różnice prawne i kulturowe można zostawić margines na wskazanie konkretnie np. czym są treści szkodliwe z poziomu poszczególnych państw, ale absolutnie nie wierzę w regulacje takie jak te proponowane na początku roku przez polski resort sprawiedliwości, z tzw. Radą Wolności Słowa, o której składzie finalnie miałaby decydować partia rządząca. W polskiej rzeczywistości sprawia on wrażenie nie tyle regulowania, co chęci cenzurowania niewygodnych treści.
Magda Melnyk: To przerażające, że przez ostatnie piętnaście lat doszło do stworzenia ogromnych firm, które dysponują nieprawdopodobną ilością informacji na nasz temat i jednocześnie kształtują nasze opinie w wielu kwestiach. Oczywiście, z jednej strony fakt, że ktoś chce mi sprzedać buty albo zegarek nie jest sam w sobie taki straszny – trudno, decyzja o zakupie należy do mnie. Jednak z drugiej strony, w momencie, gdy na przykład nastałyby rządy autorytarne, a dane zostałyby przejęte przez władzę, za ich pośrednictwem społeczeństwo mogłoby być w pełni kontrolowane. To brzmi orwellowsko, nieprawdopodobnie, ale czy faktycznie? W jednej z rozmów Mirosław Sopek, wiceprezes Makolab-u, opowiedział mi, że kiedy w trakcie II Wojny Światowej Niemcy weszli do holenderskich miasteczek w ratuszach zgromadzone były dane na temat wszystkich obywateli pochodzenia żydowskiego, więc zdobycie wiedzy o ich położeniu nie wymagało dużego zaangażowania. Dziś mierzymy się z podobną sytuacją, ale skala gromadzonych informacji jest nieporównywalna. Czy może przesadzam?
Marek Miller: Żebyśmy mogli odpowiedzieć na to pytanie, powinniśmy się posiłkować wiedzą speców od cyberbezpieczeństwa, którzy byliby w stanie ocenić, gdzie są przechowywane nasze dane, na jakich serwerach, jak zabezpieczonych, jak można je zhakować i tak dalej. Porównanie z ratuszem jest w dużym stopniu trafne, bardzo obrazowe i oczywiście całkowicie wykluczyć takiej sytuacji nie możemy. Jednak Facebook uczy się na własnych błędach – szczególnie po sprawie związanej z Brexitem i Cambridge Analytica – dlatego zdążył już podjąć działania zabezpieczające dane użytkowników przed zewnętrznymi podmiotami i firmami – i trzeba mu to oddać, choć nie chciałbym go zanadto bronić. Jak już wspomniałem, powinien on być w jakiś sposób regulowany i problem fakenewsowych treści obraca się wokół pytania, czy sam Facebook arbitralnie powinien decydować, co jest dobre dla użytkownika, a co nie. Bo kiedy już, hipotetycznie, znajdziemy mechanizm rozpoznający i blokujący fake newsy, weryfikujący szkodliwe dla społeczeństwa informacje – zostawimy go w rękach Facebooka? A jeśli zablokuje przy okazji dobre treści? Popełni błąd w ocenie? Albo informacja nie będzie fake newsem, ale opinią? To szeroki problem, który w mojej opinii wykracza poza możliwości platform społecznościowych.
Magda Melnyk: Zgadza się, a dochodzi do niego jeszcze kwestia przygotowania do takiego działania, ponieważ musisz mieć szeroką wiedzę na temat bardzo różnych zjawisk, krajów, przestrzeni kulturowych i obowiązujących w nich uregulowań prawnych. Zdarza się przecież, że niektóre konta w mediach społecznościowych są blokowane i często wynika to z niezrozumienia publikowanych tam treści.
Marek Miller: Zatrzymajmy się przy tym przykładzie – banie albo chwilowym czy całkowitym zawieszeniu strony. Nie wiem, jakie są Twoje doświadczenia z tymi, jak to określa Facebook, „spornymi” treściami, ale mnie zdarzyło się udostępnić film, który zawierał w podkładzie melodię, do której nie miałem prawa i jasne jest dla mnie, że skoro zostało naruszone prawo autorskie, jakieś działania powinny zostać w tym kierunku podjęte. Jednak na ten moment wszelka komunikacja z Facebookiem, który decyduje o tym, czy ta treść jest właściwa, czy nie, wygląda w taki sposób, że mamy do wyboru jedynie kilka przycisków, bez możliwości przedstawienia swoich racji i udowodnienia, że treść, którą wrzuciłem naprawdę była moja, że może ten utwór zremiksowałem, włożyłem konkretną pracę w jego stworzenie. Brakuje mi komunikacji, która pozwalałaby na przedstawienie jasnych zasad tego, na jakiej podstawie dana treść została usunięta.
Magda Melnyk: Tak, takim przypadkom zawsze towarzyszy poczucie bezsilności. Pozostają prośby o przywrócenie danej treści czy strony i czekanie z nadzieję, że się uda. Jakakolwiek interakcja czy rozmowa nie mają miejsca. A przecież jeśli już dochodzi do jakiejś formy cenzury, to osoba cenzurowana powinna mieć też możliwość obrony swoich racji.
Marek Miller: Nie wiem, czy słyszałaś o takim podmiocie jak Społeczna Inicjatywa Narkopolityki, która legalnie funkcjonuje na polskim rynku jako fundacja. Ich rolą jest edukacja w kwestii narkotyków, ale nie w charakterze prewencji, a ostrzegania i udzielania pomocy ludziom, którzy już sięgnęli po środki psychoaktywne. Są to treści dyskusyjne – nie do końca wiadomo, czy promują używanie miękkich narkotyków, czy nie. Balansują na granicy niejasno opisanej w polskim prawie, ale oczywiście jeśli coś nie jest zakazane, to jest legalne. Ich strona, bez żadnego ostrzeżenia została zdjęta w 2019 roku z Facebooka, z setką tysięcy obserwujących, których do tej pory nie odzyskali. Kilka miesięcy temu również Youtube zaczął blokować ich konto. Jeśli jednak prześledzisz ich komunikację na stronie internetowej, to nie jest ona szczególnie dyskusyjna. W niektórych państwach mogłaby zostać uznana za nielegalną, a w innych nie. Strona jednak decyzją Facebooka została usunięta, a jej twórcy szukają innych sposobów komunikacji – do tego stopnia, że na nowych stronach komunikują się szyframi, które będzie trudniej wyłapać algorytmom Facebooka. Ocieramy się tu już o pewien absurd…
Magda Melnyk: Podsumowując, jakie rozwiązania proponowałbyś w sprawie wolności słowa, gromadzenia naszych danych i regulacji treści?
Marek Miller: Trudno mi przepisać recepty na konkretne środki. Jak już powiedzieliśmy, to problem wielowarstwowy. Posługując się zwrotem „wolność słowa”, musimy pamiętać o tym, że nie ma ono charakteru absolutnego. W codziennym życiu także podlega pewnym ograniczeniom i istnieją różne interesy publiczne, które mogą tę wolność słowa ograniczać. Przykładowo, czy karanie za zachowania propagujące nazizm odbieramy jako ograniczenie wolności słowa? No właśnie. Jeszcze raz powtórzę: to już nie jest ten moment, kiedy powinniśmy się zastanawiać czy regulować, ale w jaki sposób to robić. Facebook jednakże niewątpliwie powinien uczestniczyć w procesie tej regulacji – choćby ze względu na rozwiązania technologiczne. Sama wspomniałaś, że niektóre dyskusyjne treści mogą wywołać ogromne szkody, zatem tempo ich usunięcia czy zaingerowania w nie, może mieć olbrzymie znaczenie. Facebook powinien być do tego w jakiś sposób prawnie motywowany, bo musi ponosić odpowiedzialność za to, co dzieje się w tym jego Hyde Parku. Uważam jednocześnie, że nie powinien być do tego nadmiernie motywowany – powinna zatem występować równolegle regulacja, która powstrzyma go od nadmiernego usuwania treści, bowiem to z kolei mogłoby wpływać właśnie na naruszanie wolności słowa.
Z dużą uwagą przyglądam się temu, co szykuje się w Unii Europejskiej, czyli dyskusjom nad dwoma aktami – DSA (Digital Services Act), kierowanemu pod adresem usług cyfrowych oraz DMA (Digital Markets Act), odnoszącym się do największych gatekeeperów, pod kątem rynkowym i biznesowym. Wiedząc jednak, w jakim tempie działają instytucje unijne, nie spodziewałbym się, że zostaną wprowadzone szybciej niż w perspektywie dwóch, trzech lat. Niemniej, w aktach tych pojawiają się ciekawe propozycje. Samo DSA wspomina o tym, że powinien nastąpić koniec arbitralnego usuwania treści przez media społecznościowe – o czym już podczas tej rozmowy wspominaliśmy. Zgodnie z tym rozporządzeniem użytkownicy mają być informowani o przyczynach blokady treści, mają także uzyskać możliwość przedstawiania swoich argumentów, a decyzji o zdjęciu treści nie będą podejmowały algorytmy. Proponowany jest również system niezależnego nadzoru, ale trudno mi sobie wyobrazić, w jaki sposób miałyby funkcjonować zewnętrzne sądy arbitralne – mogłoby to zbytnio rozwlekać decyzję w czasie. W ramach DSA ma zostać również uregulowany system przejrzystości reklam – odnosi się to do algorytmów, o których rozmawialiśmy i zbieranych o nas danych. Każda reklama, która wyświetli się na dowolnym serwisie społecznościowym ma być według tego rozporządzenia wsparta informacją, dlaczego akurat tobie i na jakiej podstawie te informacje są wyświetlone. Co więcej, jeśli stwierdzisz, że jakaś reklama zupełnie nie trafia w twój gust – będziesz mieć możliwość nie tyle usunięcia reklamy, co usunięcia tej konkretnej informacji na swój temat, aby zostać wyciągniętą z worka, który zaliczył cię do grona odbiorców danej reklamy. Co jeszcze jest bardzo ważne – w świetle planowanych rozporządzeń ma zostać wprowadzony pełen standard przejrzystości reklam i platformy będą musiały wyjaśnić sposoby działania swoich algorytmów. Moim zdaniem bez zagłębienia się w te tematy, które są jakby nie patrzeć własnym know how poszczególnych platform społecznościowych, nie będziemy w stanie zrobić niczego. Nawet jeśli rozporządzenia te wydają się w jakiś sposób nadmiernie ingerujące w to, co się teraz dzieje i nazbyt kontrolujące, to osobiście bardzo chciałbym wiedzieć, co dokładnie dzieje się z moimi danymi w mediach społecznościowych.
DMA dotyczy z kolei konkurencji między platformami, łączenia danych pomiędzy Google i Youtubem, Facebookiem i Messengerem. Platformy nie będą mogły budować wspólnych profili dla poszczególnych użytkowników, ale rozmowa dotycząca tych regulacji to temat na dłuższą rozmowę. Zwracam na to uwagę, ponieważ ta dyskusja już się toczy i warto się temu tematowi także przyjrzeć, bo otwiera oczy na niebezpieczeństwa związane z mediami społecznościowymi, o których zakładając konta kilka/kilkanaście lat temu nikt jeszcze nie myślał.
Magda Melnyk: Mogłoby się wydawać, że Europa jest pierwszym obszarem na świecie, który zaczyna regulować te kwestie, ale przecież to Chiny od samego początku, konsekwentnie ograniczały i kontrolowały skalę dostępu własnych obywateli do Internetu i platform społecznościowych, jednocześnie tworząc własne, bo od samego początku zdawały sobie sprawę z potencjału tego, co się dzieje.
Marek Miller: Gdy o tym mówisz, pojawia mi się od razu „blackmirrorowa” wizja i wielokrotnie opisywany chiński system oceny obywateli, w którym dzięki cyfrowemu śladowi jaki po sobie zostawiasz: lokalizacji w połączeniu z technologiami rozpoznawania twarzy, twojemu zachowaniu w różnych sytuacjach, wielkości posiadanego kredytu lub zarobków i wielu innych czynników, jesteś oceniana, a ocena ta decyduje o twoim statucie czy randze społecznej. Dane w rękach państwa służą kontroli obywateli. Europa nie chce przejąć danych obywateli, a raczej wrócić do sytuacji, w której oni sami mają nad nimi kontrolę. Oczywiście, widzę pewne niebezpieczeństwo wynikające z planowanych regulacji, nie jestem w nie ślepo zapatrzony. W tym momencie jednak, jeśli chodzi o regulacje mediów społecznościowych, widzę tyle samo zagrożeń dla demokracji i wolności słowa, co możliwych do wyciągnięcia z nich korzyści.
Magda Melnyk: Pojawia się tu problem monopolu, a jak wiadomo, każdy monopol jest szkodliwy.
Marek Miller: Zauważ, że jest to ciekawy rodzaj monopolu, działającego w taki sposób, że najpierw została wykreowana potrzeba, zaspokojona przez podane na tacy rozwiązanie, którego już nikt nie jest w stanie dogonić. Powstanie monopolu na taką skalę w gospodarce, która była już rozwiniętą gospodarką cyfrową – to moim zdaniem, niesamowite zjawisko.
Magda Melnyk: Podsumowując, Facebook bez wprowadzenia konkretnych regulacji nie zacznie sam siebie ograniczać. Muszą nastąpić działania z zewnątrz. Unia Europejska jest pierwszą, która zaczyna się tym zajmować. Pytanie, czy Stany Zjednoczone podążą tym śladem?
Marek Miller: To już się dzieje. USA, a od niedawna także Australia, skupiają się na rozwiązaniach dotyczących regulacji mediów społecznościowych nie tylko w ujęciu społecznym (problemu fake newsów, mowy nienawiści, etc.), ale też w temacie biznesowym. Bo z jednej strony media społecznościowe postrzegamy jako grupę użytkowników, którzy dzielą się swoimi przemyśleniami i opiniami, ale w tym ekosystemie występują też twórcy treści profesjonalnych, wysokojakościowe gazety i redakcje, które po prostu muszą zarabiać. Facebook zbudował swoją pozycję także dzięki treściom pochodzącym od takich podmiotów, stając się dla wielu podstawowym źródłem informacji. Na Facebooka, Google i Amazona przypada już dwie trzecie amerykańskich wydatków reklamowych. Dlatego regulacje mediów społecznościowych będą też odbywały się na poziomie ekonomicznym.
Marek Miller – Obserwator mediów i dziennikarz z 16-letnim stażem. Przez dużą część tego czasu pracował dla największego wydawcy prasy regionalnej w Polsce – Polska Press Grupa – gdzie miał możliwość praktycznej obserwacji procesu cyfrowej transformacji dziennikarstwa od samego początku. Jako niezależny konsultant mediowy przez wiele lat współpracował z INMA (International News Media Association) – międzynarodową organizacją zrzeszającą światowych wydawców oraz organizacjami takimi jak GEN (Global Editors Network), WAN-IFRA (światowe stowarzyszenie wydawców gazet) oraz FIPP (międzynarodowe zrzeszenie wydawców magazynów). Przez kilka lat pracował dla Związku Kontroli Dystrybucji Prasy (ZKDP), Polskich Badań Czytelnictwa (PBC) oraz Izby Wydawców Prasy (IWP), gdzie organizował konferencje i warsztaty adresowane dla dziennikarzy i wydawców. Był redaktorem naczelnym nieistniejącego dziś serwisu informacyjnego o mediach i dziennikarstwie, Prasa.info. Współpracował z Agorą, wydawcą “Gazety Wyborczej” przy organizacji wielu konferencji i wydarzeń o tematyce mediów i dziennikarstwa (w tym największej dotąd polskiej konferencji o tej tematyce: Digital Journalism Days). Jest stypendystą programu Coaching and Leadership organizowanym w Instytucie Poyntera na Florydzie. Jest aktywnym dziennikarzem publikującym na łamach magazynu “Press”.
Autor zdjęcia: NordWood Themes