Etyka sztucznej inteligencji nie powinna być traktowana jako abstrakcyjna idea czy modny slogan, lecz jako zestaw praktycznych pytań, które każda organizacja powinna sobie postawić przed wdrożeniem nowych systemów. Chodzi m.in. o to, czy algorytm nie wprowadza elementów dyskryminacji, czy użytkownik jest świadomy, że wchodzi w interakcję z maszyną, czy decyzje podejmowane przez system da się wytłumaczyć oraz czy zbierane dane są faktycznie niezbędne.
Refleksje, które przedstawiam w tym tekście, są równocześnie głosem w debacie, która odbyła się podczas Kongresu Kobiet w Katowicach. Panel organizuje Patrycja Radek. Wagę rozmów o głębokich technologiach uzasadnia następująco:
Zapotrzebowanie na nowe rozwiązania – głębokie technologie jest dziś wielkie. Ogromne problemy przeludnionej planety wymagają zmiany dotychczasowego sposobu myślenia, innego podejścia do eksploatacji wyczerpujących się zasobów, rozwiązywania problemów zanieczyszczenia środowiska, starzejącego się społeczeństwa czy kurczącego się dostępu do wody pitnej. Tych wyzwań wydaje się być nieskończenie wiele. I równocześnie nigdy wcześniej nie mieliśmy tylu narzędzi, by je rozwiązać, możliwości przyspieszenia operacji, jakie daje sztuczna inteligencja, takiej wiedzy naukowej i świadomości. To, co ważne, to takie debaty, jak ta, którą prowadzimy podczas Kongresu Kobiet, gdy rozmawiamy o projektowaniu głębokich technologii (tych, które po raz pierwszy opuszczają laboratoria i są wdrażane) z myślą o całym społeczeństwie, o różnych grupach odbiorców i ich potrzebach, o możliwości projektowania uniwersalnego, które nie wyklucza. To również konieczność rozmowy o planecie i środowisku naturalnym. A to wszystko wymaga ścisłej i wielokryterialnej współpracy inżynierów, nieinżynierów, etyków, prawników i projektantów, a wszystko wspólnie ze społeczeństwem. Wykształciliśmy różne metody projektowe, jak design thinking, które to umożliwiają. Dziś mamy potrzebę rozwoju świata 5.0 – przejścia do kolejnego etapu rewolucji przemysłowej z człowiekiem w centrum i myśleniem skoncentrowanym na służeniu ludziom i planecie. W tym kontekście potrzebujemy poruszać bardzo wiele tematów. Od dobrego projektowania i pełnego dostrzegania potrzeb, po następstwa rozwoju technologii czy kontekst przyjęcia i wdrożenia technologii z uwzględnieniem praw, natury i obaw ludzi, które wiążą się z wprowadzaniem zmian. Ważny w tym wydaje się kontekst naprawiania, czyli podejście regeneratywne, budowanie rozwiązań, które mają pozytywny wpływ na ludzi i środowisko, a nie tylko szkodzą mniej. Bez współpracy, otwartości na różne perspektywy, połączenia wiedzy z różnych dziedzin, zaprzęgnięcia najnowszych zdobyczy wiedzy i technologii, to się raczej nie uda.
Jeszcze niedawno sztuczna inteligencja i inne głębokie technologie były domeną futurologów i laboratoriów, do których zwykły człowiek nie miał dostępu. Dziś towarzyszą nam niemal w każdej sferze życia: od diagnozy medycznej, przez transport i edukację, po sposób, w jaki komunikujemy się ze światem. Zbyt często jednak rozmawiamy o nich wyłącznie w kategoriach biznesowych – kto szybciej wprowadzi produkt, kto zmonetyzuje dane, kto wygra wyścig patentowy. Tymczasem technologia nigdy nie jest neutralna.
Jak zauważa Shoshana Zuboff, każda innowacja wbudowana jest w konkretny model gospodarczy i służy określonym interesom, a dominującym porządkiem jest dziś kapitalizm nadzoru, oparty na masowej eksploatacji danych¹. To sprawia, że pytanie o AI i deep tech nie sprowadza się do samej inżynierii. To pytanie o wartości i wybory cywilizacyjne. Te same narzędzia mogą wzmacniać nierówności, przyspieszać degradację środowiska i tworzyć cyfrowe więzienia zależności, ale mogą też stać się fundamentem lepszego życia – zdrowszych społeczeństw i bardziej świadomej gospodarki. Yuval Noah Harari ostrzega, że technologie XXI wieku mogą prowadzić albo do emancypacji, albo do „cyfrowych dyktatur”, w których algorytmy wiedzą o nas więcej niż my sami². Dlatego to nie sztuczna inteligencja jest największym wyzwaniem, lecz to, jakie cele jej wyznaczymy.
Deep tech to nie tylko AI, ale także biotechnologia, nowe materiały, energetyka czy technologie kosmiczne. To dziedziny, które mogą odpowiedzieć na największe kryzysy współczesności: od klimatycznego, przez zdrowotny, po bezpieczeństwo energetyczne. AI wspiera już dziś diagnostykę nowotworów i planowanie sieci energetycznych, biotechnologia daje szansę na bardziej zrównoważoną produkcję żywności, a satelity pozwalają monitorować Ziemię i przewidywać katastrofy naturalne. To nie są wizje science fiction, ale codzienność. Natalia Hatalska w Wieku paradoksów przypomina jednak, że każda technologia rozwiązuje jedne problemy, tworząc równocześnie nowe³. To, jak odpowiemy na te paradoksy, zadecyduje, czy deep tech stanie się narzędziem naprawy czy pogłębiania kryzysów.
W tej debacie rośnie rola prawa. Często słyszymy, że regulacje hamują innowacje. To mit, który trzeba odczarować. Mariana Mazzucato pokazuje w swoich badaniach, że to właśnie aktywna polityka publiczna i ramy regulacyjne tworzyły przełomowe innowacje – od internetu po GPS⁴. Dobre prawo nie jest hamulcem, ale kompasem. Wyznacza ramy, w których technologia może się rozwijać, chroniąc jednocześnie to, co najważniejsze – prawa człowieka, bezpieczeństwo i dobro wspólne. Bez prawa sztuczna inteligencja staje się narzędziem tych, którzy mają największe zasoby danych i kapitału. Z prawem – może być dobrem wspólnym, które służy całemu społeczeństwu.
Dlatego obok prawa ogromne znaczenie mają też standardy i zasady, według których rozwijamy technologię. Często wydają się czymś nudnym i technicznym, a w rzeczywistości kształtują nasze życie bardziej, niż nam się wydaje. To one decydują, czy sztuczna inteligencja będzie dla nas przejrzysta i zrozumiała, czy stanie się czarną skrzynką, której nie sposób ani skontrolować, ani rozliczyć. Brak takich reguł nie jest tylko problemem inżynierów – to luka odpowiedzialności wobec obywateli i społeczeństw.
Etyka sztucznej inteligencji nie powinna być traktowana jako abstrakcyjna idea czy modny slogan, lecz jako zestaw praktycznych pytań, które każda organizacja powinna sobie postawić przed wdrożeniem nowych systemów. Chodzi m.in. o to, czy algorytm nie wprowadza elementów dyskryminacji, czy użytkownik jest świadomy, że wchodzi w interakcję z maszyną, czy decyzje podejmowane przez system da się wytłumaczyć oraz czy zbierane dane są faktycznie niezbędne. Kluczowe pozostaje również pytanie o odpowiedzialność – kto w firmie odpowiada za skutki działania technologii.
Tak rozumiana etyka przestaje być kwestią dobrowolnych deklaracji. Staje się formalnym wymogiem – zapisana jest już w AI Act, ujęta w międzynarodowej normie ISO 42001 i oczekiwana przez partnerów biznesowych, inwestorów czy klientów. Przedsiębiorstwa, które poważnie podchodzą do tych zagadnień, nie tylko łatwiej dostosują się do przyszłych regulacji, lecz także minimalizują ryzyko kryzysów wizerunkowych i wzmacniają zaufanie do tworzonych rozwiązań.
Dlatego etyka AI to nie chwilowy trend, ale fundament odpowiedzialności i element kultury organizacyjnej. Nawet bez rozbudowanych struktur firmy mogą zacząć od opracowania wewnętrznych wytycznych dotyczących korzystania ze sztucznej inteligencji – to pierwszy krok do tego, by technologia była nie tylko skuteczna, lecz także sprawiedliwa i transparentna.
Zastanówmy się: co oznacza brak standardów w praktyce? To może być inteligentny dom, w którym urządzenia różnych producentów nie potrafią się ze sobą dogadać. To może być system medyczny, który wydaje decyzję o leczeniu, ale nikt – ani lekarz, ani pacjent – nie umie jej wyjaśnić. To może być algorytm bankowy, który przyznaje kredyt jednym, a odmawia innym, bez żadnej przejrzystości. To właśnie w standardach zapisuje się, czy chronimy prywatność, czy akceptujemy jej erozję; czy tworzymy narzędzia dla wspólnego dobra, czy tylko dla tych, którzy mają kapitał i władzę.
Uzupełnianie tych braków to nie biurokratyczna zabawa w normy, ale budowanie fundamentów zaufania. Tak, jak prawo wyznacza granice, tak standardy wyznaczają codzienne praktyki: jak uczymy algorytmy, jak tłumaczymy ich decyzje, jak odpowiadamy na błędy. To na tym poziomie rozstrzyga się, czy technologia będzie emancypacyjna czy opresyjna. Innowacja i etyka nie muszą się wykluczać – przeciwnie, mogą się wzajemnie kształtować. Jeśli naprawdę chcemy AI, która służy człowiekowi, to właśnie w takich „nudnych szczegółach” kryje się przyszłość naszej wolności.
Warto pamiętać, że technologia jest lustrem naszych wartości. Jeśli nadrzędnym celem jest maksymalizacja zysku, AI będzie zoptymalizowana pod reklamy i manipulację. Jeśli celem jest dobrostan, będziemy projektować systemy wspierające zdrowie, edukację czy ekologię. Sylwia Czubkowska w Bóg techy opisuje, jak wielkie korporacje technologiczne przejmują władzę nad naszym codziennym życiem⁵. Ale to nie jedyny możliwy scenariusz. Możemy równie dobrze wyobrazić sobie technologie oparte na transparentności, współpracy i odpowiedzialności społecznej. To wymaga decyzji, a nie technicznej neutralności.
Inspiracją może być japońska koncepcja społeczeństwa 5.0 – wizja świata, w którym technologia służy poprawie jakości życia, a nie tylko wzrostowi PKB. To idea, w której AI współpracuje z człowiekiem dla dobra wspólnego. Żeby tę wizję urzeczywistnić, potrzebujemy jednak nowego przywództwa. Takiego, które myśli długofalowo, włącza różnorodne perspektywy i nie ucieka od odpowiedzialności. W tym sensie kobiece spojrzenie na rozwój technologii wnosi szczególną wartość: troskę o relacje, wrażliwość na słabszych, umiejętność łączenia innowacji z empatią. Jeśli chcemy budować świat 5.0, głosy kobiet muszą być w tej rozmowie słyszalne i decydujące.
Nie ma jednej odpowiedzi na pytanie, jak będzie wyglądała przyszłość sztucznej inteligencji i głębokich technologii. Wiadomo tylko jedno: nie będzie ona neutralna. To my zdecydujemy, czy stanie się narzędziem dominacji czy emancypacji. Czy pogłębi kryzysy, czy pomoże je rozwiązać. Dlatego zamiast pytać, czy technologia nas ocali, powinniśmy pytać: jakie wartości w nią wpiszemy. Jeśli będą to wartości dobrostanu człowieka, poszanowania planety i równości – AI i deep tech mogą naprawdę służyć budowaniu lepszego życia.
Decyzje o prawie i standardach to w istocie decyzje o kształcie naszej przyszłej demokracji. Jeśli odpuścimy tę debatę, ktoś inny – wielkie korporacje albo autorytarne rządy – zdecyduje za nas. Ale jeśli weźmiemy w niej udział, możemy sprawić, że technologia stanie się naprawdę narzędziem dobra wspólnego. To od nas zależy, czy sztuczna inteligencja będzie kolejną formą dominacji czy fundamentem lepszego, bardziej sprawiedliwego świata.
Przypisy:
- Shoshana Zuboff, The Age of Surveillance Capitalism, Public Affairs, 2019.
- Yuval Noah Harari, 21 lekcji na XXI wiek, Wydawnictwo Literackie, 2018.
- Natalia Hatalska, Wiek paradoksów. Czy technologia nas ocali?, Znak, 2021.
- Mariana Mazzucato, Mission Economy: A Moonshot Guide to Changing Capitalism, Allen Lane/Penguin, 2021.
- Sylwia Czubkowska, Bóg techy. Jak wielkie firmy technologiczne przejmują władzę nad Polską i światem, Znak Literanova, 2025.