Fetysz danych [IGRZYSKA WOLNOŚCI]

Drukuj

Oto wiara naszych czasów: wystarczy zebrać odpowiednio dużo informacji, by zobaczyć przyszłość i zapanować nad teraźniejszością.

Odkąd internet i technologie informatyczne zawładnęły rynkiem i stały się kluczowym narzędziem w walce o polityczne wpływy, ich paliwo – dane – urosły do rangi strategicznego zasobu. Nad ropą mają tę przewagę, że można je eksploatować bez końca.

Nauka nowa

Jak jednak wycisnąć z danych realną wartość? Jak odróżnić informację nieistotną od kluczowej? Czy w niezwykle złożonym systemie, w którym przyszło nam funkcjonować, da się cokolwiek z dużą pewnością przewidzieć?

Nasza cywilizacja, ogarnięta obsesją postępu i racjonalności, nie znosi pytań bez odpowiedzi. Z tej próżni narodził się fetysz wielkich danych: wiara w to, że wystarczy zebrać odpowiednio dużo informacji, by zobaczyć przyszłość i zapanować nad teraźniejszością.

Kto pierwszy dokopie się w tych złożach do prawdy o człowieku, ten wygra wyścig z konkurencją. Bez znaczenia, czy stawką jest długofalowa dominacja na rynku, krótkoterminowa maksymalizacja zysku czy zdobycie politycznej władzy – dzięki stale rosnącym zasobom informacji o ludziach można przewidzieć i wpłynąć na ich zachowania w każdej sferze.

Ale czy rzeczywiście można? Fakty tracą na znaczeniu, jeśli dość dużo osób wierzy, że rzeczywistość jest inna.

Fetysz wielkich danych opiera się na przeświadczeniu, że człowiek nie jest istotą o unikalnych właściwościach, ale kombinacją powtarzalnych cech i zachowań. W przyrodzie występują kombinacje mniej lub bardziej typowe, niemniej jednak każdą z nich da się rozłożyć na czynniki pierwsze, wydobyć związki przyczynowo-skutkowe, nazwać prawidłowości.

To, co na pierwszy rzut oka może wydawać się zagadkowe, przypadkowe a nawet szalone – nieoczekiwanie wysoka suma wydana na parę butów, poważna choroba czy akt terroryzmu – tak naprawdę rządzi się ukrytą logiką, którą możemy odkryć. Potrzebny jest tylko odpowiednio duży zbiór danych o ludziach, ich codziennych czynnościach, rutynach, relacjach, nałogach, marzeniach, lękach, chorobach, problemach.

I tak, w oparciu o analizę korelacji statystycznych między tym, jakie działania podejmujemy i naszymi immanentnymi cechami, budowana jest nowa „nauka” o człowieku.

Liczy się to, czy klikniesz

Technologiczna „czarna skrzynka” skrywa algorytmy, które mają decydujący wpływ na nasze doświadczanie sieci. Właśnie one przesądzają o tym, co wyświetli się na naszym ekranie, a co zostanie pominięte lub schowane; jakie idee będą rozprzestrzeniać się w internecie, i które wiadomości uzyskają największą widoczność.

Algorytmy definiują też nowe formy pracy i wyzysku. Użytkownicy przestają być klientami, dostarczają jedynie danych, które stają się surowym materiałem do produkcji cyfrowych profili – właściwego towaru, sprzedawanego na internetowych giełdach.

Weźmy Facebooka. Z perspektywy jego użytkowników to prosty w obsłudze interfejs do kontaktu ze światem, a zarazem filtr nałożony na internet, który powoduje, że zamiast szumu informacyjnego dostajemy przyjazną, spersonalizowaną gazetę. Wartość, za którą wiele osób byłoby skłonnych zapłacić realne pieniądze.

Facebook nie jest jednak zainteresowany tradycyjnymi formami płatności: dla niego cenniejsze są nasze dane. To właśnie na nich algorytmy i sieci neuronowe uczą się rozpoznawać korelacje statystyczne i profilować konkretnych użytkowników. Ostatecznie liczy się przecież to, czy klikniesz.

Sztuczna inteligencja to podstawa facebookowego strumienia aktualności i systemu rekomendacji. Jej zadaniem jest wyświetlić treść, która najskuteczniej sprowokuje nas do interakcji – czyli wykonania pracy, jakiej oczekuje od nas firma. Technologia ta odpowiada za analizowanie zdjęć (rozpoznawanie ożywionych i nieożywionych obiektów), naturalnego języka i głosu. Dzięki niej Facebook zaczyna naprawdę rozumieć, o czym rozmawiają i czego potrzebują jego użytkownicy.

Algorytm Facebooka bierze pod uwagę to, ilu naszych znajomych polubiło lub podało dalej daną treść, i preferencje, jakie sami ujawniliśmy wykonując tę pracę w przeszłości.

To jednak tylko czubek góry lodowej – w grę wchodzą (podobno, ponieważ sam algorytm nigdy nie został przez firmę ujawniony) setki zmiennych. Algorytmiczne sito musi być bardzo gęste: żeby wybrać jeden post, jaki zobaczymy w pierwszej kolejności zaglądając na swoją stronę, Facebook ma do przeanalizowania tysiące innych.

Danych, które udostępniasz z własnej woli.

Katarzyna Szymielewicz – współzałożycielka i prezeska Fundacji Panoptykon – polskiej organizacji broniącej praw człowieka w kontekście współczesnych form nadzoru nad społeczeństwem. Prawniczka specjalizująca się w problematyce praw człowieka i nowych technologii. Wiceprzewodnicząca European Digital Rights – koalicji 33 organizacji działających na rzecz praw cyfrowych w Europie. Członkini rady Tactical Technology Collective i Amnesty International (Polska). Członkini Rady do Spraw Cyfryzacji. Absolwentka Wydziału Prawa i Administracji UW oraz Development Studies w School of Oriental and African Studies.

21 października o godz. 18:00 w Teatrze Nowym im. Kazimierza Dejmka w Łodzi (Więckowskiego 15) Kamila Łepkowska (Projekt: Polska) poprowadzi spotkanie „Cyfrowe ślady, big data i polityka” z udziałem Katarzyny Szymielewicz (Panoptykon), Bogusława Bławata (Instytut Badań Rynku, Konsumpcji i Koniunktur), Sandrine Müller (Zakład Psychologii, Uniwersytet Cambridge), Adama Pelikanta (Instytut Mechatroniki i Systemów Informatycznych, Politechnika Łódzka).

Program Igrzysk Wolności

Wejściówki

Foto: Foto: ElFofo.com/flickr.com, CC BY-NC 2.0.

Tytuł, śródtytuły i lead od redakcji.

Czytaj również
O autorze
*
KatarzynaSzymielewicz
współzałożycielka i prezeska Fundacji Panoptykon, prawniczka