Mieć dzieci czy nie? Antynatalistycznie o szczycie klimatycznym w Katowicach :)

W październiku ukazał się alarmujący raport ONZ o globalnym ociepleniu. W listopadzie w Szarm el-Szejk odbyła się międzynarodowa konferencja na temat różnorodności biologicznej. Teraz na nagłówkach jest katowicki szczyt klimatyczny w ramach Porozumienia Paryskiego. Wielu ludzi śledzących te kwestie tylko kątem oka może odnieść wrażenie, że wprawdzie sprawy nie mają się zbyt dobrze, lecz coś się dzieje, ktoś coś robi, jakoś to będzie – można więc spokojnie żyć sobie dalej.

Ale powiedzieć, że sprawy nie mają się zbyt dobrze, to nie powiedzieć nic. Zamiast dalej sobie spokojnie żyć, trzeba zacząć działać. To już ostatni dzwonek.

Według ONZ, mamy dwa lata, by stworzyć skuteczne międzynarodowe porozumienie na rzecz ochrony bioróżnorodności.

Inaczej grozi nam zapaść planetarnych systemów podtrzymywania życia – infrastruktury przyrodniczej, bez której istnienie naszej cywilizacji jest niemożliwe. Poprzednie porozumienia w tej kwestii były niewystarczające i nie spełniły pokładanych w nich nadziei. Na domiar złego niewiele się z nich nauczyliśmy: ambitny cel, by objąć ochroną bezcenne obszary Oceanu Południowego, które stanowią sanktuarium dla wielu gatunków i pochłaniają ogromne ilości dwutlenku węgla z atmosfery, spełzł na niczym, gdy początkiem listopada Rosja, Chiny i Norwegia zablokowały porozumienie w tej sprawie.

Oceany zostały już w 87% zmodyfikowane ludzką działalnością.

Zaśmiecone plastikiem, zanieczyszczone chemikaliami, plądrowane przez odwierty naftowe, cierpią ponadto na przełowienie. Od zdzierającego morskie dno trałowania dennego, przez długie na wiele kilometrów takle, czyli liny z tysiącami haków, po włoki zgarniające za jednym zamachem całe ławice, pozyskujemy na nasze stoły oraz na paszę i nawozy bezprecedensowe ilości morskich zwierząt. Jednocześnie ponad jedna trzecia połowów się marnuje. Jesteśmy w stanie zagrozić nawet tym morskim gatunkom, które istnieją od setek milionów lat i przetrwały kilka masowych wymierań. Poza oceanami nie jest wcale lepiej: zaledwie 23% terenów lądowych pozostało we względnie pierwotnym stanie, reszta jest wykorzystywana na potrzeby jednego tylko gatunku – nas. Rezerwaty przyrody, tak lądowe, jak morskie, są często chronione wyłącznie na papierze, bo ich eksploatacja trwa w najlepsze. Patrząc całościowo, od 1970 roku ludzkość spowodowała zmniejszenie populacji ssaków, ptaków, ryb i gadów o 60%. Spustoszenie biosfery zagraża nam samym: utrata bioróżnorodności stanowi niebezpieczeństwo porównywalne ze zmianą klimatu.

Tymczasem na konferencję w Szarm el-Szejk Stany Zjednoczone nie raczyły się pofatygować. Europa znajduje się w stanie rozproszenia (by nie rzec rozsypki). Brazylia wybrała prezydenta, który zapowiedział wzmożoną eksploatację obszaru Puszczy Amazońskiej, kluczowej tak dla różnorodności, jak i dla klimatu. Przy tym wszystkim uczestnicy wadzili się, czy zmianą klimatu są „głęboko zaniepokojeni”, czy tylko „zaniepokojeni”. Zamykając konferencję zdesperowani delegaci zaapelowali, by przywództwo na rzecz bioróżnorodności przejęły Chiny, gospodarz kolejnej konferencji na rzecz bioróżnorodności w 2020 roku. W końcu chcą przedstawiać się jako odpowiedzialny gracz na arenie międzynarodowej, z działań na rzecz ochrony klimatu i środowiska naturalnego czyniący swój znak rozpoznawczy. Inspirująca retoryka Pekinu maskuje jednak mroczną rzeczywistość: gdyby standardy klimatyczne, jakie Chiny wyznaczyły same sobie, zastosowały wszystkie kraje, do końca wieku ocieplenie przekroczyłoby 5 stopni Celsjusza.

Żródło: pxhere.com

Nawet, jeżeli co do joty wypełnimy obecne ustalenia Porozumienia Paryskiego – na co się na razie nie zanosi – nie ograniczymy globalnego ocieplenia do dwóch stopni Celsjusza, nie wspominając już o półtora stopnia, postulowanego przez naukowców jako górna granica zachowania klimatu, biosfery i społeczeństw we względnie rozpoznawalnej postaci. Jeśli zaś będziemy nadal robić to, co teraz robimy, do końca stulecia przekroczymy cztery stopnie, oznaczające „geofizyczny chaos” zagrażający cywilizacji, jaką znamy.

Według raportu Międzyrządowego Zespołu ds. Zmian Klimatu, mamy czas do roku 2030, by dokonać dogłębnej transformacji naszego sposobu życia. Inaczej skutki – głód, zalane miasta, kryzys uchodźczy bez precedensu – zaczną odczuwać już najbliższe pokolenia.

Wstrzemięźliwość naukowców oraz ingerencje przedstawicieli władz sprawiły, że streszczenie dla decydentów – najbardziej dostępna i przystępna część raportu – przedstawia zagrożenie w złagodzonej formie. Pominięto w nim np. temat punktów krytycznych, po których osiągnięciu zmiana klimatu zaczyna się sama napędzać, postępując błyskawicznie i nieodwracalnie. Najbardziej drastycznym przykładem takiego zjawiska jest uwolnienie się metanu z topniejącej wiecznej zmarzliny lub dna mórz. Metan to gaz cieplarniany wielokrotnie potężniejszy od dwutlenku węgla i zdolny do znacznie szybszego podgrzania atmosfery, ze wszystkimi tego katastrofalnymi skutkami. Punkty krytyczne pojawiły się w roboczej wersji raportu, ale w ramach ostatnich poprawek zostały „zniknięte”. Czy ktoś uznał, że lepiej, by decydenci i obywatele mylnie wyobrażali sobie zmianę klimatu jako proces linearny i przewidywalny?

Nawet jednak i bez punktów krytycznych, sprzężeń zwrotnych i reakcji łańcuchowych październikowy raport ONZ jest ujętym w naukowy żargon, linie wykresów i kolumny tabelek wołaniem o opamiętanie się. Po jego publikacji pojawiły się artykuły postulujące konkretne metody zachowania się w tej sytuacji, od wymuszenia zmian na korporacjach, przez ograniczenie podróżowania, po zmniejszenie spożycia mięsa. Rządy, biznes, indywidualni obywatele – wszyscy muszą się dołożyć do globalnych działań. Kolejne inicjatywy przemykają przez nagłówki światowych mediów, jak na przykład Extinction Rebellion, w ramach której zaniepokojeni obywatele zamierzają obywatelskim nieposłuszeństwem wymusić na władzach działanie. Wobec nieuniknionego pogorszenia sytuacji, powołana została Globalna Komisja ds. Adaptacji pod nadzorem poprzedniego sekretarza generalnego ONZ, mająca na celu promowanie rozwiązań dostosowujących ludzkość do zmieniających się warunków. Już wkrótce w Katowicach przekonamy się, czy coś z tego przebije się do świadomości decydentów, zarówno tych myślących o następnych wyborach, jak i tych, którzy starają się umocnić swoją dożywotnią władzę.

Żródło: pxhere.com

Ale jak na razie niewiele się zmienia.

Pozwolenia na odwierty nadal są wydawane, plany rozbudowy lotnisk są przyjmowane, kładzie się asfalt, wylewa beton, wycina lasy, wznosi zapory. Inicjatywy środowiskowe, które uspokajają opinię publiczną, kończą się często na słowach. Przykładem igrzyska olimpijskie w Tokio w 2020 roku, zapowiadane jako „zrównoważone”: przy budowie infrastruktury, samej w sobie przyczyniającej się do emisji gazów cieplarnianych, wykorzystuje się formy do odlewów betonowych wytwarzane z drewna pochodzącego z zagrożonych lasów tropikalnych Malezji i Indonezji. W zeszłym roku globalny poziom wylesiania był najwyższy od kilkunastu lat, a tymczasem podniosła międzynarodowa impreza sportowa w najlepsze przyczynia się do niszczenia unikalnych siedlisk orangutanów i innych gatunków.

Oparty na niekończącej się eksploatacji system prze dalej siłą inercji, choć stracił już rację bytu.

71% globalnej emisji przemysłowej dwutlenku węgla w ostatnich 20 latach pochodzi ze stu zaledwie firm, w zdecydowanej większości działających w sektorze paliwowym – w tym takich, jak Exxon i Shell, które już w latach 80. wiedziały o katastrofalnych skutkach emisji dwutlenku węgla, ale zachowały to dla siebie. Trzeba krytykować chciwe i krótkowzroczne korporacje, PR-owymi sztuczkami maskujące swoje destrukcyjne działania, oraz idące im na rękę rządy, zapatrzone w PKB i nie sięgające myślą dalej, niż do kolejnych wyborów lub następnego przewrotu. Trzeba mówić o ich przewinach, domagać się zmian, wywierać presję. Ale trzeba też zadać sobie pytanie: cóż zdziałałyby one bez rzeszy swoich klientów i obywateli?

Żródło: pxhere.com

Problemy, przed którymi stoimy, są tym większe, im więcej jest nas samych, oraz im więcej konsumujemy. Rozpowszechniony system produkcji żywności – i innych dóbr – metodami niszczącymi środowisko przyczynia się do zmian klimatycznych, a zarazem jest przez nie zagrożony. Wielkość populacji i poziom konsumpcji – odpowiedzialnej za skalę zużycia surowców i emisji zanieczyszczeń – nie muszą iść ze sobą w parze, ale w warunkach zakorzenionego materializmu obecnego modelu cywilizacji są niestety mocno skorelowane. Prognozy populacji na koniec stulecia wahają się między 6.2 a 15.8 miliarda, zatem przeludnienie może być źródłem postępujących problemów, zwłaszcza w warunkach rozwoju na zachodnią modłę.

Dyskusja na ten temat nie jest jednak łatwa. Przeludnienie i w ogóle ludność jako problem do rozwiązania to drażliwy temat, przywodzący wielu na myśl mroczne historyczne precedensy. Przeludnienie stało się nieomalże zakazanym słowem, a nawoływania do ograniczenia reprodukcji są często zbywane i potępiane jako niedzisiejsze czy wręcz niemoralne. Ale czy w sytuacji, która staje się coraz bardziej dramatyczna, należy gryźć się w język, by uniknąć narażania się na krytykę albo ranienia czyichś uczuć?

Chcemy wierzyć, że posiadanie dzieci to jedna z najważniejszych a zarazem najbardziej osobistych decyzji. I w pewnym sensie tak jest.

Ale przecież dzieci często rodzą się bynajmniej nie z powodu przemyślanej decyzji, zaś rządy wielu krajów ingerowały i ingerują w prokreację obywateli, zarówno by ją wspierać (500+ czy ulgi podatkowe), jak i by ją ograniczać (polityka jednego dziecka stosowana do niedawna w Chinach). Nie tylko dla najbliższych stworzenie nowego człowieka ma długoterminowe i dalekosiężne skutki.

Są ludzie, którzy w potomstwie nie widzą celu życia, ale tylko nieliczni z nich czują siłę, by otwarcie, pod własnym nazwiskiem i własną fotografią, powiedzieć, że żałują posiadania dzieci. Wiele kobiet rodzi z powodu presji rodzinnej lub społecznej, wbrew sobie, czując, że coś bezpowrotnie tracą, ale zachowując tę tajemnicę dla siebie, lub dzieląc się swoimi przejściami tylko pod pseudonimem. Inne zawczasu poddają się sterylizacji, by uniemożliwić (kolejną) ciążę; Polki muszą w tym celu jechać za granicę, bo krajowe przepisy nawet dobrowolne pozbawienie kogoś płodności traktują jako ciężki uszczerbek na zdrowiu, za co grozi do 10 lat pozbawienia wolności. Ale gdyby tak wciąż dominującemu „ustawieniu domyślnemu”, jakim jest pronatalizm, otwarcie powiedzieć nie?

Antynatalista David Benatar zdobył już etykietkę najbardziej pesymistycznego z filozofów.

Nic dziwnego, bo antynatalizm to filozofia pokazująca tragedię ludzkiego istnienia, pozbawionego sensu w wymiarze ponadczasowym, czy inaczej kosmicznym. Benatar przeważającą część swej argumentacji opiera na przekonaniu, że tworzenie nowych ludzi jest złem, dlatego należy przestać sprowadzać ich na ten coraz mniejszy świat. Decydując się na dziecko (lub po prostu nagle odkrywając, że będą mieć dziecko), rodzice często nie biorą pod uwagę, że ich potomstwo doświadczy chorób i wypadków oraz niepowodzeń i żałoby po bliskich – w tym rodzicach – a wreszcie nieuniknionej śmierci. Życie według Benatara nie jest warte zaczynania (choć, jeśli już się zacznie, to zazwyczaj warto je kontynuować, bo alternatywa, czyli śmierć, jest jeszcze gorsza), powołując bowiem do życia nową osobę, nieuchronnie skazujemy ją na cierpienie i śmierć. To zatem nie osoby decydujące się na bezdzietność powinny tłumaczyć się ze swojego wyboru: to ci, którzy chcą obarczać świat swoim potomstwem a swoje potomstwo światem, powinni uzasadnić swoje postępowanie. Sam Benatar nie ma złudzeń: antynatalizm zawsze będzie filozofią mniejszościową, bo sprzeciwia się najdogłębniejszym ludzkim instynktom. Ale według niego właśnie dlatego, że filozofia ta idzie pod tak przeciwny wiatr, zasługuje na wysłuchanie.

Żródło: pxhere.com

Nieco mniej miejsca Benatar poświęca cierpieniu, jakie życie danej osoby sprowadzi na innych. Nie można wykluczyć, że nowy człowiek będzie świadomie czynić zło; jest też pewne, że zaszkodzi innym w mniejszym lub większym stopniu przypadkowo. Ale też samym faktem swojej egzystencji, zwłaszcza w obecnym modelu ekonomicznym, każdy człowiek, jako przedstawiciel najbardziej niszczycielskiego gatunku na Ziemi, krzywdzi inne świadome istoty żywe oraz swoje środowisko, od spożywania ciał zabitych zwierząt, przez ekobójcze wykorzystywanie zasobów i wytwarzanie śmieci, po emisję dwutlenku węgla.

I tu dochodzimy do sedna. Jaki jest otóż najlepszy sposób, by zmniejszyć swój ślad węglowy? Odstawienie samochodu? To zaoszczędzi 2,4 tony ekwiwalentu CO2 rocznie. Odwołanie transatlantyckiego lotu w obie strony? 1,6 tony. Przejście na weganizm? Już tylko 0,82. No to może wymiana żarówek na energooszczędne? Niestety, ledwo 0,1. Ale za to rezygnacja z posiadania dziecka – 58,6 ton ekwiwalentu CO2.

U wielu osób czytających te słowa przytoczone statystyki i poglądy wywołają zrozumiałe oburzenie. Jak można w ogóle mówić w ten sposób o cudzie narodzin, o urokach macierzyństwa i ojcostwa? Ale są też już ludzie, którzy z bezdzietnością, czy raczej wolnością od dzieci ( childfree ), się nie kryją i odnajdują w tej decyzji sposób, by zrobić coś dobrego dla świata. Niektórzy z nich wprost identyfikują się jako antynataliści.

Wobec braku kosmicznego sensu ludzkiego istnienia, Benatar radzi, by skoncentrować się na sensach ziemskich, takich jak poprawianie losu poszczególnych ludzi i innych świadomych istot, oraz stanu środowiska, w którym żyjemy. Taki „pragmatyczny pesymizm” nie gwarantuje sukcesu (nie gwarantuje go nic), ale pozwala zachować czyste sumienie bez oszukiwania samego siebie. To tym ważniejsze, że w czym jak w czym, ale w oszukiwaniu samej siebie ludzkość ma wprawę.

Ale to nie tylko kwestia ludzkości jako takiej. To także kwestia konkretnego człowieka.

Wszystko wskazuje na to, że przychodzące dziś na świat dzieci znaczną część swojego dorosłego życia spędzą w warunkach, jakich nie chcielibyśmy nikomu zostawić w spadku. Zmiany klimatyczne, kryzys bioróżnorodności, a także postępująca w zastraszającym tempie i dotykająca już ponad trzy miliardy ludzi erozja gleb, przełożą się – a właściwie już zaczynają się przekładać – nie tylko na wrogą człowiekowi oraz jego miastom i uprawom pogodę, gdzie fale upałów, huragany i powodzie będą zabijać bezpośrednio, a wyższe temperatury i susze podkopią rolnictwo i hodowlę, ale także na cywilizacyjne dramaty, jak masowe migracje, konflikty zbrojne, społeczne konwulsje i rozpad instytucji. Jak pisałem wiosną na tych łamach, upadek cywilizacji to „destrukcja hierarchii i powiązań, które sprawiają, że społeczeństwo, w którym żyjemy, funkcjonuje i umożliwia nam tzw. ‚normalne życie’. Praca zawodowa, transport, struktury państwa, biznes, ochrona zdrowia, rozrywka, prawo, system oświaty, sport – wszystko to zależy od równowagi międzyludzkiej i instytucjonalnej. Presja ze strony postępujących zmian klimatycznych i pogarszających się warunków środowiskowych będzie wpływać na owo normalne życie, sprawiając, że problemy lokalne i globalne zaczną oddziaływać na siebie synergicznie” – mówiąc wprost, znajoma i przewidywalna rzeczywistość stanie się obca i wroga. Coraz więcej wskazuje na to, że naszym dzieciom i wnukom przekażemy umierającą planetę.

Żródło: pxhere.com

Można to wszystko wiedzieć, można być pesymistą co do kierunku, w którym zmierzamy, a jednak i tak zdecydować się na dziecko.

Amerykański pisarz Roy Scranton narodziny córki przywitał łzami. Po części radości, po części rozpaczy, bo nie ma złudzeń: jej dorosłe życie upłynie w rozpadającym się świecie, przed którym nie będzie w stanie jej ochronić. Jedyne, co może teraz zrobić, to starać się ograniczyć swoje wymagania, zmniejszyć cierpienie innych, szanować współzależność wszystkich elementów przyrody – i przygotować swoją córkę na to, co nieuniknione. Żyjemy bowiem w krótkim odstępie czasu między wiatrem, który zasialiśmy, a burzą, którą zbierzemy.

Nieco ponad dekada, by dogłębnie zmienić nasz model gospodarczy i społeczny. Dwa lata, by zapewnić przetrwanie bioróżnorodności na minimalnie zrównoważonym poziomie. Nawet biorąc poprawkę na motywacyjne słownictwo takich apelów, powiedzmy sobie tak szczerze, jaką mamy szansę? Im mniejszą, tym mocniej trzeba się jej uczepić i zacieklej o nią walczyć. Być może nadszedł czas, by zamiast naiwnej nadziei, zacząć odwoływać się do odwagi. Ale trzeba też powiedzieć sobie wprost, że o ile wkrótce nie nadejdzie przełom – by nie rzec cud – polityczny, społeczny, gospodarczy, naukowy, technologiczny, starość dzisiejszych młodych rodziców upłynie pod brzemieniem strachu o życie swoich będących już wtedy w średnim wieku dzieci, w warunkach zaczynającej się rwać tkanki społecznej. Wiele z tych dzieci może nie mieć szansy zaznać godnej starości. Czy warto podjąć w ich imieniu to ryzyko?

W porządku. A teraz weź się w garść i pomóż zmniejszyć to ryzyko, dla siebie i dla innych. Nie ma czasu do stracenia.

Islam ma swoje miejsce w Europie :)

Żyjemy w okresie niebezpiecznego przełomu. W Europie po wielu dekadach znacznej otwartości, której pokłosiem były zarówno postępy unijnego projektu, jak i relatywna gościnność względem ludności imigranckiej z innych kręgów cywilizacyjnych i kulturowych, stoimy, jak się wydaje, u progu okresu zamknięcia, izolacji i odwrócenia się plecami od świata zewnętrznego. W Europie Zachodniej narasta nostalgia za czasem sprzed dobrych 50 lat, tęsknota za homogenicznością społeczno-kulturową, za nieskomplikowaną rzeczywistością, przewidywalnymi relacjami międzyludzkimi, prostymi procesami gospodarczymi, w tym – szczerze mówiąc – za mniej dynamicznym rozwojem i wolniej zmieniającym się otoczeniem, za poczuciem bezpieczeństwa, którego źródłem było swoiste ziomkostwo, swojskość.

19 Newsha Tavakolian, Listen (Imaginary CD Covers), 2011To zjawisko nie jest szczególnie zaskakujące. Analiza historii niejednej cywilizacji w różnych epokach ludzkich dziejów pozwala wyodrębnić w ich ewolucji (na zmianę) okresy otwarcia i ekspansji, a także okresy izolacji i uwiądu. W powolnie zmieniającym się świecie sprzed wielu stuleci te okresy trwały zwykle bardzo długo, obejmowały po kilka pokoleń. Ale współcześnie wszystko dzieje się szybciej, zatem i przetaczanie się tych zjawisk może mieć znaczące tempo. Pytanie o przyszłość Europy, o jej fundamenty aksjologiczne, ład polityczno-społeczny, pomyślność gospodarczą i o bezpieczeństwo wobec zagrożenia konfliktami zbrojnymi, to dzisiaj w gruncie rzeczy pytanie o to, czy obecny zwrot ku zamykaniu się będzie tylko epizodem, czy jednak wielkim dziejowym przełomem.

Frustracja

Wraz z całym światem Europa staje wobec wielkiego wyzwania głębokiej przebudowy konstrukcji politycznych, ekonomicznych i społecznych. Przez wiele lat globalizacja była dla wyraźnej większości Europejczyków źródłem sukcesów. Nie modyfikując fundamentów systemowych, a tylko skupiając się na rozwijaniu i umiejętnym wykorzystywaniu swoich atutów i przewag, krajom Europy Zachodniej udało się w międzynarodowej konkurencji osiągnąć niezłe rezultaty. Humory zaczęły się pogarszać, gdy kolejne, logiczne z punktu widzenia kierunku procesów, etapy globalizacji stworzyły – jak się okazało – lepsze warunki dla niektórych gospodarek wschodzących. Wraz z pierwszymi niepowodzeniami i negatywnymi skutkami globalnej konkurencji, obejmującymi coraz większe grupy społeczne (i wyborców), pragnienie zawrócenia kijem Wisły, czyli spowolnienia postępu technologicznego i gęstnienia sieci powiązań w światowej gospodarce, zostało wyartykułowane jako czołowy postulat polityczny, a wzięte na sztandary przez populistów staje się potężnym narzędziem walki o władzę.

Frustracja Europejczyków ma dzisiaj dwa impulsy będące oczywiście dwiema stronami tego samego medalu. Jeden wypływa z pogarszającej się sytuacji materialnej, coraz trudniejszego dla niektórych grup zawodowych rynku pracy, kryzysu pokoleniowego spowodowanego świadomością dwudziestoparolatków, że po rodzicach zostaje im świat z o połowę mniejszą szansą, za to kilka razy większym długiem. Druga strona medalu to ksenofobia, pragnienie wzięcia odwetu za pogorszenie się warunków na widocznych „symptomach” globalizacji, które codziennie można spotkać na ulicy: przedstawicielach mniejszości etnicznych, imigrantach lub ich potomkach o innym kolorze skóry, wyznaniu religijnym, inaczej się ubierających czy mających inne zwyczaje. Skumulowanie się obu źródeł frustracji w rzeczywistości najpierw kryzysu finansowego, zadłużeniowego, a następnie kryzysu uchodźczego spowodowało erupcję emocji i śmiało artykułowanej nienawiści na tle rasowym i narodowościowym, której paliwem dodatkowo stała się sieć internetowa (z oferowaną przez nią łatwością wyrażania opinii i jej egalitaryzmem), odrzucenie narracji elit, zanegowanie wartości poglądów eksperckich i furia wobec mechanizmów poprawności politycznej, które skonstruowano w celu ułatwienia funkcjonowania wielokulturowego społeczeństwa w pierwszych kilku etapach jego rozwoju. Projekt integracji europejskiej i wolny przepływ osób w ramach wspólnego rynku został w tych okolicznościach trafiony rykoszetem jako jedno z ogniw filozofii otwierania się społeczeństw i państw, ale główna szpica ataku została skierowana na łatwiej identyfikowalną i trudniejszą ze względu na różnice kulturowe imigrację przede wszystkim muzułmanów. Rosnąca część opinii publicznej widzi ich jeśli nie jako potencjalnych terrorystów, to co najmniej jako dalece niekompatybilnych z wartościami europejskich społeczeństw.

Naszyzm

Populistyczna odpowiedź polityków na takie poglądy obywateli musi uwzględniać obie strony medalu. Oznacza to, że dopóki tego rodzaju nastroje się utrzymują, żadnych szans w politycznej konkurencji nie ma lewica – ani ta umiarkowana, która proponuje nieznaczne korekty, ani ta radykalna, która postuluje całkowicie nierealistyczny plan powrotu do gospodarek narodowych z lat 70. (a którego implementacja w średnim okresie jeszcze bardziej pogorszyłaby materialne położenie sfrustrowanych grup), ale przede wszystkim ignoruje nastroje ksenofobiczne i rasistowskie, ponieważ ze względu na swoją konstytucję światopoglądową nie jest w stanie na nie pozytywnie odpowiedzieć. W tej sytuacji nie może więc dziwić największy popyt na swoistą mieszankę prawicowego populizmu nacjonalistycznego z pakietem obietnic socjalnych. Środowiska te podsycają ksenofobiczne emocje naturalnie dlatego, że obsługa nienawiści wobec mniejszości jest zadaniem trywialnym, podczas gdy reforma gospodarki jest trudna i pozostaje zwykle poza ich intelektualnymi możliwościami.

W ten sposób w Europie wyłania się więc nowy polityczny krajobraz, w którym liczy się trzech graczy. Z jednej strony jest prawicowy populizm, który toruje sobie drogę ku władzy, głosząc program niemożności współżycia ludzi różnych wyznań, ras i tradycji kulturowych w ramach jednego państwa i społeczeństwa, który nie tylko używa ksenofobii jako paliwa swojego wzrostu, lecz także podsyca ją i pogłębia, fałszywie przekonując wyborców, że ich frustracja jest właściwie zaadresowana, oraz rozgrzeszając ich z wyrzutów sumienia przez okazanie zrozumienia wobec ich nienawiści i resentymentów. Z drugiej strony są islamistyczne grupy terrorystyczne, które mają dokładnie takie same cele jak europejski prawicowy populizm – pragną uniemożliwić zakorzenienie się wieloreligijnych i wielokulturowych społeczeństw w Europie, w których jedną z ważnych grup byłby islam. Ich celem jest podsycanie nienawiści po obu stronach, aby zgasić płomyk tolerancji i przekonać obie strony, że nie mogą żyć razem, a jedynym możliwym scenariuszem jest ich wojna ze sobą. W końcu trzecim graczem są środowiska umiarkowane politycznie, których jedyna szansa na to, aby obecny zwrot nastrojów był tylko epizodem, a nie początkiem nowej ery, polega na porzuceniu mrzonek o zatrzymaniu czy cofnięciu globalizacji i przystosowaniu się do jej dalszych trendów, czyli takim przemodelowaniu polityki gospodarczej i społecznej, aby po stronie zwycięzców globalizacji znalazła się liczebna masa krytyczna europejskich obywateli/wyborców, a pozostałym można było udzielić zwiększonego wsparcia dzięki poprawie wskaźników ekonomicznych. Musiałoby to nastąpić na tyle szybko, aby nie został wcześniej przekroczony pewien point of no return, czy to w sensie politycznym, czy też w sensie pojawienia się niewybaczalnych reperkusji lub aktów przemocy wobec jakichkolwiek grup społecznych.

Przybysze

Ksenofobiczny naszyzm, który kroczy po rząd dusz w Europie – najśmielej zresztą w tej jej części, która islamskiego imigranta chcącego się tam osiedlić nie widziała na oczy, a więc w krajach Grupy Wyszehradzkiej, z Polską na czele – zasadza się na przekonaniu o braku miejsca na islam w Europie, na tezie, że islam jest zjawiskiem pozaeuropejskim. Wielu ludzi nawet zupełnie niepodzielających jakichkolwiek uprzedzeń myśli ciągle tym samym schematem, który zakłada, że muzułmanie są postrzegani jako „goście” na naszym kontynencie, „przybysze”, którzy gdzieś indziej mają „dom”, ale są tutaj „mile widziani”. W epoce pierwszych Gastarbeiterów ten sposób myślenia był zrozumiały i uzasadniony, ale od tamtej pory minęło już sporo czasu. W rodzinach należących do tych grup społecznych rodzi się już czwarte pokolenie. Tymczasem muzułmanie nie są w Europie „gośćmi”, tylko współgospodarzami; nie są „przybyszami”, są tu u siebie; tu mają swój dom i nikt nie ma upoważnienia, aby orzekać, czy są gdzieś mile widziani, czy też nie. Chyba że ma na myśli ten rodzaj emocji, jaką odczuwa, spotykając przed blokiem panią Malinowską spod trójki.

Pogląd o pozaeuropejskim charakterze islamu ma uzasadnienie historyczne (w pewnym momencie chrześcijaństwo przez pogan miało prawo być oceniane tak samo). Jednak poglądem zupełnie fałszywym i opartym na myśleniu życzeniowym jest sugestia, że rezultat wczesnośredniowiecznych wędrówek ludów raz na zawsze określił etniczny aspekt „prawa do terytorium” w Europie. Ten rezultat nie musi być ostateczny, a współcześnie możemy nawet z rosnącym prawdopodobieństwem orzec, że ostateczny nie będzie. Owszem, późniejsze procesy państwotwórcze w miarę ustabilizowały polityczną mapę Europy. Ich granice, ich infrastruktura normatywna i aparat przymusu ustanowiły bariery dla swobody przemieszczania się ludzi. To są jednak bariery sztuczne i jako takie mogą w pewnym momencie okazać się nieskuteczne w oporze przed zjawiskami bardziej naturalnymi. W pierwszej kolejności chodzi tutaj oczywiście o procesy demograficzne. Wywołują one jednak cały szereg skutków ekonomicznych i politycznych. Ludność chrześcijańska i postchrześcijańska, która zamieszkuje Europę od wielu wieków, liczebnie się redukuje, a jej struktura wiekowa ulega przy tym, rzecz jasna, niekorzystnym przeobrażeniom. W tle tych faktów mamy globalną konkurencję ekonomiczną i rozwój technologiczny, który umożliwia szybkie przemieszczanie się informacji i wielkich grup ludzi. Z jednej strony Europa pozostaje atrakcyjnym miejscem do życia także w sensie potencjału uzyskania wysokich dochodów. Z drugiej strony zwijanie się jej, powiedzmy, rdzennej ludności generuje miejsce dla nowych przybyszy i zapotrzebowanie na ich pracę. W końcu istnieje świadomość nieuchronnej klęski państw Europy w sieci globalnej gospodarki, jeśli deficyty w podaży siły roboczej nie zostaną uzupełnione. Inne regiony świata na pewno nie okażą zmiłowania wobec słabnącego kontynentu staruszków. Oznacza to nieuchronność rekonfiguracji ludnościowej Europy, która zresztą w większości jej państw już się rozpoczęła. Opór krajów takich jak Polska przed tym zjawiskiem jest skazany na totalną porażkę. Należy albo porzucić ten opór, albo przygotować się na katastrofę ekonomiczną i nędzę swoich podstarzałych obywateli.

Skansen

18 Newsha Tavakolian, Listen (Imaginary CD Covers), 2011Któryś z tych dwóch alternatywnych scenariuszy stanie się przyszłością całego kontynentu. Jeśli zwrot ku izolacji będzie długotrwały, a naszyzm zatriumfuje, to ziści się wizja „skansenu Europa”. Stanie się tak wówczas, gdy bariery mające zatrzymać napływ nowych ludzi okażą się szczelne na tyle długo, że kontynent zdąży utracić większość swoich atutów i potencjału, a w efekcie stanie się miejscem mało atrakcyjnym. Wówczas w istocie biała Europa starych ludzi stałaby się skansenem zabytków i być może przyrody odwiedzanym przez turystów i utrzymującym się z tego jako tako niczym grecka wyspa Simi. Oczywiście bez perspektyw rozwoju, ekspansji, bogacenia się. Na razie jednak bardziej prawdopodobne wydaje się złamanie naszystowskiego oporu i obalenie barier na czas, tak aby zastrzyk nowych sił uchronił Europę przed uwiądem społeczno-gospodarczym i finansowym. Zbyt wielu Europejczyków zbyt wiele musiałoby jednak stracić, gdyby na to pozwolić. Nie można wykluczyć, że tą drogą pójdą pojedyncze państwa peryferyjne, ale jednak nie te o silnych gospodarkach, które mają wielu interesariuszy dalszego dynamicznego rozwoju.

To zaś oznacza, że liczba muzułmanów w Europe dalej będzie rosnąć. Jeśli spojrzymy na ten proces w średniej perspektywie, to istotne stanie się pytanie o sposób ułożenia wzajemnych stosunków z mniejszością, która zacznie być mniejszością bardzo liczną, stanowiącą przykładowo jedną trzecią ogółu obywateli. Jeśli weźmie się pod uwagę dłuższą perspektywę, to trzeba zadać pytanie o ład polityczny w Europie większościowo muzułmańskiej.

Wartości liberalno-demokratyczne nigdy w Europie by nie zaistniały, gdyby kontynent ten pozostał zdominowany przez religijnych fanatyków. Ta sama reguła dotyczy też teraźniejszości i przyszłości. Idee wolności religijnej, tolerancji, wolności sumienia i wolności słowa, prawa obywatelskie, swobody wolnego stanowienia o sobie – wszystkie te wartości uległyby natychmiastowej likwidacji zarówno w kalifacie, jak i w państwie katolickiego „panowania Chrystusa Króla” (protestanckiego zapewne także). Od wyników dalszej gry pomiędzy trzema głównymi graczami politycznymi w Europie zależy liczba religijnych fanatyków po obu stronach. Jeśli islamistyczni terroryści i prawicowi populiści europejscy będą w dalszym ciągu osiągać dużą skuteczność w inspirowaniu wzajemnej nienawiści pomiędzy ludźmi, to liczba fanatyków będzie rosła, a prawdopodobieństwo obalenia ładu liberalno-demokratycznego przez jednych czy drugich pozostanie znaczne. Jeśli jednak wśród wyznawców obu religii zwycięży duch umiarkowania i wola wspólnego życia razem w jednej wspólnocie obywatelskiej, to zasady liberalnej demokracji jako kanonu gwarantującego wszystkim prawo do życia według własnych przekonań i wartości mają szanse przetrwać także w warunkach społeczeństwa większościowo muzułmańskiego (jedną z przesłanek dla tej hipotezy jest sytuacja w Turcji sprzed jej religijnej i politycznej radykalizacji wskutek rządów populistów).

Model

Warunkiem powodzenia będzie jednak wypracowanie odpowiedniego modelu postępowania państwa z problemami, jakie powstają w społeczeństwie kulturowo heterogenicznym, a zwłaszcza wybór modelu współżycia tych grup. Istnieje zasadniczo pięć heurystycznych modeli organizacyjnych.

Pierwszy w sporej mierze wychodzi naprzeciw potrzebie poczucia bezpieczeństwa mniejszości. Jest to model miletów (nazwa nawiązuje do wspólnot mniejszości religijnych w imperium osmańskim). W takim systemie instytucje państwa tworzyłyby tylko słaby szkielet instytucjonalny, w którym funkcjonują zwarte wspólnoty kulturowe i to one organizują całe życie społeczne swoich członków należących do nich z racji urodzenia i są zobowiązani do przestrzegania norm moralnych swojej wspólnoty. Ingerencja z zewnątrz w te zasady współżycia jest wykluczona, a prawo do pielęgnowania tradycji, obyczajów i kultury – nienaruszalne. Państwo jest pozbawione funkcji integracyjnych, obywatelstwo ma charakter czysto formalny, nie ma w zasadzie jednego społeczeństwa, ludzie podlegają zróżnicowanym prawom swoich wspólnot, instytucje polityczne zaś mają zadania wyłącznie techniczne i administracyjne. Model miletów jest radykalnie pluralistyczny, ale potencjalnie nieliberalny. Jeśli wspólnota ogranicza wolność swoich członków, nawet w sposób drastyczny, ma do tego prawo. Takim kosztem poczucie bezpieczeństwa grup mniejszościowych z piewcami ich obyczajowości na czele zostaje zagwarantowane, natomiast zignorowane zostają potrzeby większości, która traci kontrolę nad państwem będącym dotychczas w jej rękach.

Drugi model to całkowite przeciwieństwo pierwszego. Model asymilacji zakłada zniesienie pluralizmu i istnienie wspólnych dla wszystkich obywateli: kultury, hierarchii wartości, przekonań etycznych i zwyczajów. Ma to na celu zachowanie spójności społecznej oraz zapobieganie dezintegracji państwa. Przynależność i lojalność wobec społeczności jest tożsama z patriotyzmem i poczuciem obowiązku wobec państwa. Asymilacja zaspokaja całkowicie potrzebę poczucia bezpieczeństwa większości ludności etnicznej na danym terenie, a odziera z tego poczucia mniejszość. Wszystkie mniejszości są wchłaniane przez dominującą kulturę większości. Ten model jest całkowicie antypluralistyczny i już z tego powodu, jako narzucający jednostkom określony model obyczajowości, jest równocześnie nieliberalny. Nawet jeśli styl życia większości i jej zwyczaje są liberalne w treści, to forma jego funkcjonowania – liberalizm przymusowy – wyklucza liberalny charakter całości. Nie jest liberalne przymuszanie do liberalnego stylu życia, nie jest liberalne dokonywanie wyboru przez państwo w zastępstwie jednostek. Przyjęcie takiego modelu to dziś propozycja prawicowych populistów, która wykluczałaby faktycznie napływ imigrantów i zmierzała ku realizacji scenariusza „skansen Europa”.

Te dwa modele muszą zostać odrzucone przez demokrację liberalną. Żaden z nich nie zaspokaja potrzeby wolności, natomiast absolutyzuje potrzebę bezpieczeństwa jednej grupy kosztem drugiej. Pozostałe trzy modele na różne sposoby kreślą obraz społeczeństwa liberalnego z maksymalną możliwą dozą pluralizmu kulturowego.

Model proceduralny nawiązuje do myśli libertariańskiej i jest relatywnie bliski modelowi miletów. Również i tu istnieje państwo jako twór czysto formalny, państwo minimum. W jego ramach mogą funkcjonować różne grupy i społeczności. Powstają one na różnej drodze, niektóre z nich będą, jak w modelu miletów, społecznościami o charakterze wspólnot kulturowych. Pomiędzy nimi istnieje konieczność zawarcia minimalnego konsensusu, na którego podstawie będzie istnieć państwo minimum. Jednak zasady współżycia ustalają one same, państwo nie ma możliwości ingerowania w sferę duchową czy kulturową życia społeczności. Jej członkowie mogą aspirować do stanowisk państwowych, jeśli chcą, lub całkowicie od sfery publicznej się odizolować i skupić na sobie. Autonomia społeczności jest bardzo szeroka, ale nie tak szeroka, jak w modelu miletów. Państwo ma prawo narzucić im jedną podstawową wartość. Chodzi o gwarancję rzeczywistej wolności wyboru przynależności do wspólnot, którą winna się cieszyć każda jednostka. Nie ma obowiązku pozostawania członkiem społeczności etnicznej, w której przyszło się na świat. Jeśli ona nam nie odpowiada, to w każdej chwili można ją opuścić i przystąpić do innej grupy, w której panują odpowiadające komuś normy współżycia. To zasadniczo odróżnia model proceduralny od modelu miletów i ratuje jego liberalny charakter. Nawet jeśli bowiem niektóre wspólnoty będą pielęgnować dyskryminujące obyczaje, to osoby dyskryminowane mogą z nich odejść. Jedynymi, którzy będą w tym modelu dyskryminowani, pozbawiani wolności lub praw, będą ci, którzy sami się na to zdecydują lub uważają to, np. przez wzgląd na swoje wierzenia religijne, za słuszne. Innym istotnym odejściem od zasad modelu miletów jest rezygnacja ze służebnej funkcji państwa wobec autonomicznych społeczności.

W modelu miletów są one idealizowane, więc państwo ma obowiązek je wspierać i ratować przed dezintegracją, tak aby żadna kultura nie doznała uszczerbku. W modelu proceduralnym państwo jest równoprawnym podmiotem w stosunku do wspólnot. Jeśli tracą one uczestników, to powinny ulec anihilacji w ramach wolnej konkurencji wspólnot o potencjalnych członków. Ten model jest bardzo pluralistyczny i pod warunkiem rzeczywistego wyegzekwowania przez państwo wolnej przynależności jednostek do społeczności (co może być jednak bardzo problematyczne) chroni wolność jednostki. Nie gwarantuje całkowitego poczucia bezpieczeństwa większości, ale także mniejszości muszą zaakceptować pewne ograniczenia, gdyż model proceduralny wymaga konsensusu co do kształtu porządku prawnego państwa minimum i tolerancji wobec zjawiska apostazji wspólnotowej. Nie tworzy jednak nawet namiastki społeczeństwa obywatelskiego i nie jest odpowiedzią na europejskie wyzwanie budowy modus vivendi.

Społeczeństwa obywatelskie istnieją natomiast w ramach dwóch ostatnich modeli. Pierwszy z nich to klasycznie liberalny model rozwidlenia, który pozostaje konsekwentnie po stronie wolności jednostki, akceptuje pluralizm i autonomię grup mniejszości etnicznych w takim zakresie, w jakim ich obyczaje nie naruszają swobody indywidualnej. Jeśli zaś naruszają, to tych zwyczajów mniejszości kultywować nie wolno, gdyż zabrania tego prawo państwa, nadrzędne wobec norm wewnątrzwspólnotowych. Model ten nazywa się rozwidleniem, ponieważ przeczy on istnieniu alternatywy pomiędzy lojalnością wobec państwa a lojalnością wobec swojej grupy etnicznej. Jednostka może w swoim życiu funkcjonować w różnych układach odniesienia, może działać w różnych sferach. Występując w sferze publicznej, ma szansę stosować inne normy zachowania niż w życiu prywatnym, gdzie duży wpływ może zarezerwować dla swojej tożsamości kulturowej czy religijnej. Absolutnie nie ma potrzeby, aby obywatelom narzucać jeden kompleksowy katalog norm, wartości i obyczajów. Człowiek prywatny ma prawo do swoich wyborów, może wieść bardzo nowoczesny, ale i bardzo tradycyjny tryb życia. Nie jest rolą państwa w to ingerować, dopóki swoim działaniem nie ogranicza on wolności drugiego człowieka. Niemniej dla istnienia państwa konieczny jest pewien konsensus polityczny wokół szeregu fundamentalnych wartości politycznych i społecznych, formujący coś na kształt obywatelskiego etosu. Jest to pewne minimum, co do którego musi zapanować zgoda pomiędzy większością i wszystkimi mniejszościami. Mniejszości, dla których oznaczać to może konieczność zgody na pewne ustępstwa, powinny na to przystać, gdyż model rozwidlenia pozostawia im bardzo szerokie pole swobody. Tylko tam, gdzie wolność człowieka jest zagrożona, wkracza prawo państwowe. Ma ono prymat nad obyczajami legitymizowanymi tradycją, ale chroni także mniejszości, ich kulturę i religię przed zakusami tych przedstawicieli większości, którzy odrzucają pluralizm społeczny i oczekują asymilacji. Konsensus konieczny dla istnienia tego modelu jest dużo szerszy niż w wypadku modelu proceduralnego, więc trudniej go uzyskać i utrzymać. Za to mamy jedno społeczeństwo obywatelskie, w którego ramach występują mniejsze grupy. System taki wydaje się trwalszy niż państwo minimum. Ponadto jest bardziej stanowczy w egzekwowaniu wolności indywidualnej: nawet osoby skłonne dobrowolnie poddać się ograniczeniu swobody przez innych nie mogą tego zrobić, nie ma możliwości oddania siebie samego w niewolę. Wolności człowiek nie może się zrzec. Kompromis pomiędzy potrzebami poczucia bezpieczeństwa większości i mniejszości jest bardziej wyważony, podczas gdy model proceduralny oddawał więcej pola potrzebom mniejszości. Model rozwidlenia jest najbliższy ideałowi społeczeństwa całkowicie wolnego i maksymalnie pluralistycznego, a także najlepiej rokuje z punktu widzenia celu znalezienia modus vivendi w Europie przyszłości.

Ostatni model, model pluralistyczny, jest dość podobny. Opiera się na twierdzeniu, że społeczeństwo może, pozostając całkowicie wolne, być jeszcze nieco bardziej pluralistyczne niż zakłada model rozwidlenia. Zdaniem jego zwolenników kultura polityczna, która w modelu rozwidlenia jest podstawą konsensusu politycznego i obywatelskiego etosu, nie może powstać na zasadzie racjonalnej i niepodlegającej negocjacjom umowy, jeśli będzie się opierać na wyobrażeniach i normach politycznych etnicznej większości. Powinna ona dopuszczać negocjacje i wartości kultur mniejszościowych, tak aby ułatwić im identyfikację z państwem. W symbolice i treści życia publicznego kraju obecność mniejszościowych grup powinna być zauważalna. Dzięki temu dochodzi do redefinicji pojęcia wspólnoty politycznej, zanika stopniowo podział na „nas” oraz „ich”. Dodatkowo model rozwidlenia jest niewystarczający z punktu widzenia potrzeb mniejszości. Postuluje on w zasadzie leseferyzm co do wyboru, pielęgnacji i funkcjonowania grup mniejszości etnicznych. Jednak w takich warunkach grupa większościowa łatwo może zdominować resztę społeczeństwa, co będzie prowadzić do powolnej erozji tożsamości mniejszościowych i spontanicznej, choć nienarzuconej administracyjnie asymilacji. Odbędzie się to ze szkodą dla bogactwa kulturowego państwa i ludzkości. Państwo powinno zatem aktywnie wspierać grupy mniejszościowe, aby zapewnić realny, a nie tylko formalny pluralizm społeczny. Postuluje się więc np. pozytywną dyskryminację mniejszości przez obsadzanie z parytetu ich przedstawicieli w różnych instytucjach publicznych. Bez wątpienia jest to model społeczeństwa bardziej pluralistycznego. Dyskusyjne jest jednak, czy rzeczywiście nie dzieje się to kosztem wolności jednostki, ale i tak pewne elementy modelu pluralistycznego będą przydatne przy konstruowaniu europejskiego modus vivendi.

Klucz

Abstrahując od tych szczegółów, kluczem do uniknięcia powstania skansenu na terenie Europy jest przezwyciężenie naszyzmu, strachu i panicznej potrzeby izolacji. Świat jest „straszny”, ale odwrócenie się do niego plecami jest proszeniem się o kopniaka w tyłek. Kluczem jest zwalczanie fanatyzmów religijnych i świeckich kaznodziejów nienawiści rasowej, religijnej i kulturowej. Jest ich coraz więcej, ale mają same stare idee, kalki z dawnych czasów, z którymi walczyć należy choćby poprzez historyczną refleksję. Kluczem jest zbudowanie modus vivendi przez wciąż znaczną większość obywateli o umiarkowanych poglądach politycznych i religijności pozbawionej wrogich postaw. Kluczem jest także wyjście naprzeciw muzułmanom, niebezpodstawnie odczuwających zepchnięcie na margines życia społecznego, i wciągnięcie ich do środka społeczeństwa, do mainstreamu, gdzie – czas najwyższy – powinno się znaleźć dla nich miejsce. Kluczem jest także – nie ukrywajmy – częściowa laicyzacja w środowiskach islamskich pod wpływem liberalnych wartości i liberalnego stylu życia, która nastąpiła przecież wśród chrześcijan. Wówczas zwiększą się szanse na pokój społeczny, a apostołowie wojny religijnej z obu stron umilkną. Tylko w takim świecie gospodarka Europy za sto lat będzie prosperować, tylko w takim świecie nasze dzieci i wnuki znajdą swoje szanse.

Przygotujcie się na nową Europę :)

W autobiograficznym Świecie wczorajszym, znakomitej panoramie kultury i społeczeństwa Europy przełomu XIX i XX wieku, austriacki pisarz Stefan Zweig pokazał, jak szybko mogą dezaktualizować się kategorie i pojęcia opisu otaczającej nas rzeczywistości. Czasy przedwojenne od lat dwudziestych oddzielała raptem dekada, ale z późniejszej perspektywy okresy te wyglądały jak dwie niemające ze sobą wiele wspólnego epoki. Dla piszącego w 1940 roku Zweiga cały ten miniony świat był już niczym nieprawdopodobna legenda.

Nic dziwnego, że książka Zweiga należy dzisiaj do najczęściej czytanych i cytowanych. Poczucie, że epoka pozimnowojenna nieuchronnie zmierza ku schyłkowi (bądź już się skończyła), jest dojmujące. Wraz z nią wczorajszymi (czytaj: przestarzałymi) stały się pojęcia i przekonania, które dotąd porządkowały nasze rozumienie świata. Globalizacja i współzależność, które do niedawna uchodziły za rękojmię pokoju i współpracy, okazały się także źródłem konfliktów i instrumentami nacisku; „It’s the economy, stupid!” straciło swój dogmatyczny charakter – problemy tożsamości i kultury poruszają ludzi w nie mniejszym stopniu niż ich sytuacja materialna. Zaś wiara w nieuchronny triumf liberalnej demokracji ustąpiła pytaniom o jej alternatywy.

Takie przewartościowanie w nie mniejszym stopniu dotyka także Unię Europejską. Nie chodzi przy tym tylko o falę populizmu i eurosceptycyzmu, która przelewa się przez cały kontynent. Ważniejsze jest to, że pod jej wpływem, jak również za sprawą innych czynników (zwłaszcza objęcia przez Donalda Trumpa prezydentury Stanów Zjednoczonych), w głęboki, choć nie w pełni jeszcze widoczny sposób zmieniają się podstawowe założenia, na których dotąd opierał się projekt integracji europejskiej. Sposoby i wzorce działania właściwe danej dziedzinie określa się w nauce mianem paradygmatu. Wiele wskazuje na to, że dokonująca się dzisiaj rewizja trzech dotychczasowych paradygmatów integracji prowadzi do nieuchronnego pożegnania się ze „światem wczorajszym”. Zrozumienie natury i konsekwencji tego Warszawa, luty 2017 procesu będzie miało niezwykle istotne znaczenie z punktu widzenia kluczowego zadania, przed jakim stanie Polska w nadchodzących miesiącach i latach: konieczności odnalezienia się w nowej Europie1.

Bezpieczeństwo zamiast wolności

Integracja europejska opierała się tradycyjnie na prostej zasadzie: służyła przede wszystkim liberalizacji (rynków) i pogłębianiu otwartości (granic). Jej fundamentem są cztery wolności (przepływu osób, towarów, kapitału i usług). Tym samym w stopniu równym, a może nawet większym, co projektem pokojowym integracja była od swojego początku projektem wolnościowym. Dotyczy to także systemu wartości i zasad ustroju politycznego. Ojcowie integracji kierowali się przekonaniem, że ich projekt musi prowadzić do umocnienia liberalnej demokracji w krajach członkowskich, i że to właśnie ta forma rządów jest najlepszą gwarancją położenia kresu epoce konfliktów i wojen na Starym Kontynencie. Ten paradygmat wolności w dotychczasowym wydaniu nie był zaprzeczeniem bezpieczeństwa. Przeciwnie, wolność, liberalizacja, globalizacja – były postrzegane jako gwarancje bezpieczeństwa nie tylko ekonomicznego, ale także twardego. To rozumienie wolności, przede wszystkim w wymiarze liberalizacji rynkowej, często było krytykowane. Unia Europejska, mówi się, świetnie służy uwalnianiu sił wolnorynkowych, ale nie dba dostatecznie o zwykłych obywateli, kiedy wolny rynek potraktuje ich z właściwą sobie brutalnością. Innymi słowy, Unia znosi bariery dla handlu i inwestycji, ale nie zapewnia ochrony socjalnej.

Pod wpływem kryzysu ekonomicznego, zmian technologicznych i utrzymującego się na wysokim poziomie bezrobocia ta krytyka narasta, zaś ani państwa członkowskie, ani instytucje UE nie mogą pozostać na nią obojętne. Owszem, Unia Europejska uchwaliła niedawno pakiet liberalizacji rynku usług, który może być świadectwem działania w zgodzie z zasadami świata wczorajszego. Ale wiatr wieje dzisiaj w przeciwną stronę. O wolności coraz częściej mówi się w kontekście jej „ekscesów”, a populiści karmią się rosnącą w społeczeństwach potrzebą stabilności, pewności i ochrony stanu posiadania. Oznacza to powrót do postrzegania bezpieczeństwa w tradycyjny sposób: silnych tożsamości i odgraniczania się od świata zewnętrznego. Pracownicy zaniepokojeni tanią konkurencją na rynku pracy (dumping socjalny) domagają się większej kontroli migracji zarobkowej. Protekcjonizm (w łagodniejszym wydaniu: patriotyzm) gospodarczy powraca do łask jako instrument zabezpieczenia interesów własnych obywateli. Z kolei strach przed zamachami terrorystycznymi oraz następującymi w związku z migracją zmianami w środowisku lokalnym powoduje, że cena za zabezpieczenie się (albo jego iluzję) przed tymi niebezpieczeństwami, np. poprzez przywracanie kontroli granicznych, wielu nie wydaje się przesadnie wysoka. W rezultacie tym, co najsilniej kształtuje dzisiaj wyobraźnię polityczną społeczeństw i elit, nie jest już dążenie do większej otwartości i integracji, które było motorem zmian w Europie ostatnich dziesięcioleci, lecz przemożna chęć zwiększania bezpieczeństwa i stabilności.

Paradygmat bezpieczeństwa będzie zmieniał państwa członkowskie, a za ich pośrednictwem także UE. Jego oddziaływanie wyraźnie widać zwłaszcza we wspomnianej już sferze ochrony rynku pracy i migracji zarobkowej, nie tylko w Wielkiej Brytanii. Niemiecka minister pracy, socjaldemokratka Andrea Nahles, opowiedziała się za ograniczeniem migrantom zarobkowym pobierania zasiłków na dzieci mieszkające poza granicami Niemiec. Znacznie dalej poszedł kanclerz Austrii Christian Kern (także socjaldemokrata), który w przedstawionym na początku stycznia „Planie A” (programie dla Austrii) zapowiedział, że będzie zmierzał do ograniczenia napływu pracowników z krajów Unii Europejskiej do Austrii wprowadzając zasadę, że pierwszeństwo w staraniach o miejsce pracy będą mieli obywatele austriaccy. W przeszłości z takimi postulatami występowali tylko antyeuropejscy populiści, dzisiaj wychodzą one od lewicy głównego nurtu.

Gdyby Wielka Brytania chciała pozostać członkiem jednolitego rynku Unii Europejskiej, a jednocześnie udałoby jej się uzyskać od UE koncesje w postaci możliwości liczbowego ograniczenia napływu migrantów z Unii, przykład brytyjski mógłby być zaraźliwy. Twardy Brexit, czyli opuszczenie przez Londyn wspólnego rynku, może groźbę takiej dyskusji nieco oddalać, ale jej nie likwiduje. Działania na rzecz ograniczenia turystyki socjalnej, które mogą łatwo przerodzić się w dalej idące ingerencje w cztery wolności, to sfera, skąd elity europejskie najłatwiej mogą wysłać społeczeństwom sygnał, że rozumieją ich zaniepokojenie i potrzebę bezpieczeństwa. Niemniej głosy, że swoboda przepływu osób nie jest warunkiem prawidłowego funkcjonowania jednolitego runku, nie pochodzą tylko od starających się o poparcie społeczne polityków – z taką tezą wystąpili niedawno eksperci jednego z najbardziej renomowanych think tanków europejskich, brukselskiego Bruegel.

Być może takie działania są nawet konieczne, aby uspokoić obywateli oraz – co najważniejsze – zatrzymać ich dryf w kierunku postaw populistycznych i wrogich integracji europejskiej. Jednak nie ulega wątpliwości, że zastępowanie paradygmatu wolności paradygmatem bezpieczeństwa będzie w istotny sposób wpływać na przyszły kształt polityk i sposobu funkcjonowania UE, w tym będzie dotyczyć także kwestii jej finansów. Jednym z ważniejszych pomysłów na stabilizację strefy euro jest dzisiaj wprowadzenie wspólnego dla tego kręgu państw dodatkowego ubezpieczenia od bezrobocia na poziomie europejskim. Miałoby ono służyć za tzw. automatyczny stabilizator strefy euro (w wypadku gwałtownego wzrostu bezrobocia w jednym z państw jego koszty nie prowadziłyby automatycznie do nadmiernego obciążenia budżetu tego kraju, lecz byłyby rozkładane na całą strefę), jak również wychodziłoby naprzeciw potrzebie stworzenia filaru socjalnego UE, który budowałby zaufanie do jej instytucji i polityk, kojarzonych dotąd głównie z liberalizacją i polityką oszczędności. Realizacja takiego niewątpliwie potrzebnego projektu (dzisiaj jeszcze odległa) oznaczałaby z pewnością istotne zmiany w strukturze finansowej UE, kosztem krajów nienależących do strefy euro.

Niemniej paradygmat bezpieczeństwa nie wkracza tylko w sferę socjalną. Równie ważne są kwestie bezpieczeństwa wewnętrznego związane z terroryzmem i problemem uchodźstwa. Od tego, w jaki sposób społeczeństwa europejskie będą reagować na te wyzwania, zależy przyszłość ich modelu, opartego dotychczas na daleko posuniętych wolnościach obywatelskich oraz idei uniwersalnych praw człowieka. Niedawny raport Amnesty International o tym, jak zgodne z paradygmatem bezpieczeń- stwa ustawodawstwo antyterrorystyczne zmieniło rzeczywistość prawną w krajach członkowskich UE w kierunku ograniczenia wolności, jest dobrym przykładem tej ewolucji.

Nie mniej ważnym obszarem jest polityka wobec uchodźców. Znaczenie pytania o to, jak ograniczyć napływ uchodźców do Europy, co jest warunkiem utrzymania pokoju społecznego, przy jednoczesnym zapewnieniu wierności zasadom prawa międzynarodowego (konwencja do spraw uchodźców z 1951 roku) oraz humanitaryzmu, wykracza poza wymiar zarządzania kryzysowego. Europa oparta na wartościach nie może pozwolić sobie na ochronę granic, która łączyłaby się z pogwałceniem zasady non-refoulement (co oznaczałoby odsyłanie uchodźców bez udzielenia im możliwości złożenia wniosku o azyl) lub sprowadzałaby się do tzw. rozwiązania australijskiego (zamykania uchodźców na stałe w obozach na terytorium krajów trzecich). Jednak dążenie do szybkiego rozwiązania problemu uchodźców w imię paradygmatu bezpieczeństwa pcha europejskie elity właśnie w tym kierunku. Erozja europejskich standardów w tej dziedzinie może mieć dalekosiężne skutki, podważając aksjologiczny kościec Unii Europejskiej oraz przesuwając granice prawne i psychologiczne tego, co dopuszczalne i wyobrażalne.

Elastyczność zamiast spójności

Czy te zmiany i reformy, odpowiadające na zwiększoną potrzebę bezpieczeństwa, a także na różnicujące się interesy poszczególnych państw Unii Europejskiej, będzie można wprowadzić w gronie wszystkich 27 krajów członkowskich? Decyzja o Brexicie pokazała, że odrzucenie modelu UE jako organizmu dążącego do względnej jednolitości (nawet jeśli powody decyzji Brytyjczyków były bardziej złożone) może prowadzić do dramatycznych konsekwencji. W miarę postępów integracji, a zwłaszcza wskutek kolejnych rozszerzeń UE, dyskusja o tym, jak pogodzić różne możliwości i ambicje integracyjne państw członkowskich, przybierała na sile. Pojęcia elastyczności, zróżnicowanej geometrii, twardego rdzenia czy awangardy robiły karierę nie tylko w debatach akademickich. Zróżnicowanie integracji od dawna jest zresztą faktem. Nie wszystkie kraje uczestniczą w Schengen, nie każdy wprowadził wspólną walutę, niektóre chcą zachować neutralność wojskową, więc pozostają poza współpracą obronną. Niemniej pomimo tych uwarunkowań wyznacznikiem integracji było podejście oparte na filozofii „coraz ściślejszej unii”. Zakładało ono, że istnieje jakiś bliżej nieokreślony horyzont procesu integracji, do którego wszystkie kraje, czasem w zmiennym tempie i w różnej choreografii, zmierzają. Elastyczność postrzegana była jako niemiła konieczność, odstępstwo od reguły, raczej przejściowy problem, którym trzeba było jakoś zarządzać, niż stały element architektury integracji. Innymi słowy, wyobrażeniami o UE rządził paradygmat spójności – im więcej współpracy i bliskości między państwami członkowskimi, budujących ich współzależność i wzajemną solidarność, tym lepiej dla trwałości i stabilności tego projektu.

Klauzula o „coraz ściślejszej unii” nadal obowiązuje i nie zmieniło tego osłabiające ją przedreferendalne porozumienie Unii Europejskiej z Wielką Brytanią, które ostatecznie nie weszło w życie (miało ono przekonać obywateli brytyjskich do zagłosowania za pozostaniem w UE, co, jak wiadomo, nie nastąpiło). Jednak ani ten cel integracji, ani też paradygmat spójności nie organizują już myślenia o przyszłym kształcie Unii. W przeszłości zróżnicowana integracja była zjawiskiem, którego negatywne konsekwencje należało ograniczyć. Dzisiaj coraz częściej uchodzi ona za obiecujące rozwiązanie problemów, z jakimi boryka się Unia Europejska. Orędownicy pogłębionej elastyczności jako zasady działania UE uważają, że tylko poluzowanie gorsetu integracji i umożliwienie krajom członkowskim bardziej swobodnego decydowania, w jakie przedsięwzięcia wspólne chcą się angażować, jest metodą zapobieżenia rozpadowi UE. Dla krajów Wyszehradu „elastyczna solidarność” jest odpowiedzią na traumę próby narzucenia im mechanizmu relokacji. Francja czy Włochy sympatyzują z powrotem do pomysłu „twardego rdzenia”, dając wyraz zniechęceniu do UE rozszerzonej na wschód. Nie jest do końca jasne, jak elastyczna Unia miałaby funkcjonować – na zasadzie kręgów koncentrycznych czy ośrodków wzmocnionej współpracy w różnych obszarach polityki – ale paradygmat elastyczności niewątpliwie zawładnął umysłami polityków i analityków.

Zwolennicy elastyczności jako nowej zasady rządzącej UE argumentują, że musi ona zakładać, iż żadne państwo nie powinno ponosić negatywnych skutków odmowy uczestnictwa w projektach wzmocnionej współpracy. Chociaż postulat ten może być atrakcyjny na papierze, to jego praktyczna realizacja jest mało prawdopodobna. Spójność UE zawsze była warunkiem, wręcz synonimem, solidarności łączącej państwa członkowskie. Trudno sobie wyobrazić, by rozluźnienie więzów, polegające na wprowadzeniu łatwiej dostępnych możliwości różnicowania stopnia integracji, nie pociągało za sobą erozji tej podstawowej wartości, na której zasadza się UE. Przede wszystkim należy spodziewać się, że wzmocniona współpraca między częścią krajów w danej dziedzinie generować będzie między nimi zwiększone poczucie bliskości i solidarności, co nieuchronnie odbije się negatywnie na krajach pozostających poza tą grupą.

Strefa euro jest, oczywiście, najlepszym tego przykładem. Nawet bez wprowadzania automatycznych mechanizmów transferowych (euroobligacje) świadomość skali i konsekwencji powiązań między jej członkami powoduje, że gotowość do udzielenia wsparcia finansowego państwom w ramach strefy jest większa niż w odniesieniu do członków UE nieposługujących się euro. Utworzenie Europejskiego Mechanizmu Stabilności, polityka łatwego pieniądza Europejskiego Banku Centralnego oraz unia bankowa są wyrazem tego nastawienia, podobnie jak polityka Niemiec skłonnych udzielać wsparcia krajom Południa w imię własnego (wynikającego ze współzależności) interesu. Kolejne kroki w kierunku głębszej integracji strefy euro, takie jak wspomniane ubezpieczenie od bezrobocia, wspólny budżet lub euroobligacje, nieuchronnie będą prowadziły do negatywnych skutków dla reszty państw UE. Skutki te to m.in.: zmniejszenie solidarności finansowej z krajami nieużywającymi euro, względne obniżenie ich wiarygodności na rynkach finansowych, pogorszenie pozycji ich systemów bankowych w stosunku do strefy euro czy zwiększenie ich kosztów zadłużania się na rynkach finansowych. Co więcej, po opuszczeniu Unii Europejskiej przez Wielką Brytanię kraje znajdujące się poza strefą euro będą miały znikomą zdolność do zabezpieczania swoich interesów wobec obszaru wspólnej waluty – Londyn był bowiem dotąd, we własnym interesie, ich potężnym sojusznikiem, z którym Bruksela oraz stolice narodowe musiały się liczyć.

Innym przykładem może być ewentualna wzmocniona współpraca w dziedzinie migracji i polityki azylowej. Uporządkowanie tej sfery i poddanie przepływów migracyjnych (zwłaszcza napływu uchodźców) bardziej skutecznej kontroli i ograniczeniom będzie jednym z najważniejszych wyzwań w najbliższym czasie. Trudno sobie wyobrazić, by skuteczna odpowiedź na ten problem mogła ograniczać się tylko do wzmacniania ochrony granic zewnętrznych. Jest ono niezbędne, ale dalece niewystarczające, i to nie tylko z powodów humanitarnych. Unia potrzebuje przede wszystkim bliskiej współpracy z krajami pochodzenia migrantów, głównie po to, by zapewnić skuteczność polityki readmisji tych, którzy nie otrzymali azylu w Europie. Jednak taka współpraca ma swoją cenę – jej elementami muszą być m.in.: zapewnienie legalnych kanałów migracji zarobkowej do Europy, znaczący udział państw UE w polityce bezpośredniego przesiedlania (resettlement) uchodźców z krajów trzecich do Europy (co odetnie źró- dła dochodu generującym przestępczość gangom przemytników), wspieranie tych krajów finansowo i współpracowanie z nimi w dziedzinie bezpieczeństwa. Z pewnością nie wszystkie państwa UE będą chciały uczestniczyć w takich wspólnych wysiłkach, bez których, podkreślmy, zarządzanie problemem migracji i uchodźstwa nigdy nie będzie efektywne. Jednak grono krajów, które zdecydowałyby się na wspólne podjęcie tego wyzwania i poniesienie ciężarów tak zdefiniowanej polityki, z pewnością będzie kierować się w konsekwencji dużo większą solidarnością między sobą niż względem państw, które odmówiły (z jakichkolwiek powodów) ponoszenia tej odpowiedzialności.

Obszar polityki obronnej, czyli wymiar bezpieczeństwa zewnętrznego, pokazuje także ten sam dylemat. Silniejsza współpraca części państw, polegająca m.in. na integracji ich przemysłów zbrojeniowych, wspólnych zakupach sprzętu wojskowego, łączeniu i wspólnym używaniu zasobów, wreszcie tworzeniu wspólnych oddziałów militarnych, z natury rzeczy będzie te kraje wiązać silniej niż w innych sprawach. Niewątpliwie nie każdy obszar wzmocnionej współpracy będzie generować tak silne poczucie solidarności, jak w opisanych tutaj przypadkach. Jednak najważniejsze jest to, że Europa à la carte, w której każdy kraj na własną rękę określa głębokość integracji w różnych obszarach, w ostatecznym rozrachunku wcale nie musi prowadzić do wielocentrycznej unii lub jej stopniowej dezintegracji. Przeciwnie, zakładając, że spore grono państw (na czele z Niemcami) uczestniczyć będzie we wszystkich, bądź w większości głównych przedsięwzięć integracyjnych, może okazać się, że skutkiem tego procesu będzie model z faktycznym twardym jądrem integracji oraz peryferiami pozbawionymi większego wpływu na kierunek i politykę UE.

Europa post-, a nie transatlantycka

To pytanie staje się kluczowe w związku z trzecią, być może najważniejszą, zmianą paradygmatu, wywołaną prezydenturą Donalda Trumpa. Integracja europejska zawsze była w swej istocie projektem transatlantyckim. Znaczenie Stanów Zjednoczonych nie polegało tylko na tym, że Waszyngton obejmował Europę (najpierw jej zachodnią część, potem także większą część wschodniej) gwarancjami bezpieczeństwa. Nie mniej istotne było to, że z punktu widzenia interesu Stanów Zjednoczonych jedność i bliska współpraca krajów europejskich przedstawiała ogromną wartość. Rola USA w początkach integracji europejskiej była nie do przecenienia. Także w następnych dekadach Stany widziały w zjednoczonej Europie ważnego partnera w promocji swojej wizji świata, opartej na instytucjach międzynarodowych, wolnym handlu, globalizacji, a przede wszystkim wartościach liberalnych i demokratycznych. Mimo podziałów, jak np. w okresie wojny w Iraku, ten paradygmat transatlantycki pozostawał w mocy.

Pierwsze wypowiedzi i działania prezydenta Trumpa, chwalącego Brexit, zachęcającego inne kraje do wystąpienia z Unii Europejskiej oraz krytykującego UE jako projekt służący tylko interesom Niemiec, mogą świadczyć o tym, że za jego rządów to podejście się zmieni. Świadczą one z pewnością o tym, że wartości stanowiące dotąd podstawę wspólnoty atlantyckiej nie będą już tej funkcji pełnić. Nie ulega wątpliwości, że taki kierunek ewolucji polityki amerykańskiej wobec Europy w bardzo istotny sposób dotyka jej bezpieczeństwa i stabilności wewnętrznej. Josef Joffe, znany niemiecki publicysta międzynarodowy, określił USA przed laty mianem „pacyfikatora Europy”, czyli potęgi, która dzięki swojej polityce liberalnego hegemona doprowadziła do uśmierzenia wewnętrznych waśni i konfliktów europejskich. Porzucenie przez Stany Zjednoczone przekonania, że jedność Europy jest wartością samą w sobie, może wyrządzić UE nie mniejszą szkodę niż ewentualny big deal między Waszyngtonem a Moskwą.

Znaczenie paradygmatu postatlantyckiego dla UE będzie wynikać ze sposobu, w jaki poszczególne kraje członkowskie zareagują na zmianę strategiczną (jeśli takowa się utrwali) i konkretne posunięcia administracji amerykańskiej. Niewątpliwie potencjał dezintegracyjny tych reakcji jest z punktu widzenia UE niebagatelny. Najważniejszym obszarem są oczywiście kwestie bezpieczeństwa i obronności. Krytyka Paktu Północnoatlantyckiego jako „zbędnego” sojuszu, z którą Trump wystąpił już w kampanii wyborczej, może, ale nie musi prowadzić do zwarcia szeregów Europejczyków w celu rozwijania skutecznych zdolności obronnych UE. Taki kierunek zarysował się już wprawdzie wcześniej: za sprawą europejskiej strategii globalnej przyjętej w czerwcu 2016 roku, podkreślającej – niezależnie od wyborów amerykańskich – potrzebę większych wysiłków Unii w tym zakresie. Z kolei w grudniu 2016 roku Rada Europejska przyjęła konkluzje, które wyznaczają dalszą agendę prac nad projektem „unii obronnej”. Za tym, by UE przejęła większą odpowiedzialność za własne bezpieczeństwo, już po wyborze Trumpa opowiadali się wyraźnie przywódcy Niemiec i Francji. Konsolidacja Unii Europejskiej jako odpowiedź na niepewność płynącą z Waszyngtonu – to główne przesłanie Angeli Merkel, z jakim zwraca się ona dzisiaj do partnerów europejskich.

Od tego, jak ta konsolidacja będzie przebiegać i jaki będzie stosunek do niej pozostałych krajów UE, zależy nie tylko bezpieczeństwo, ale przede wszystkim jedność Unii. Mogłyby jej zagrozić m.in. próby poszukiwania bilateralnych porozumień ze Stanami Zjednoczonymi przez poszczególne państwa bądź regiony UE, wychodzące naprzeciw sygnalizowanemu przez Trumpa transakcyjnemu podejściu do stosunków międzynarodowych. Dzisiaj nie sposób ocenić, jak silna może być pokusa takiego bilateralizmu. Szanse jego powodzenia wydają się bardzo ograniczone, zwłaszcza że to, co skłaniałoby do tej próby państwa mogące rozważać taką opcję (takie jak Polska, kraje bałtyckie, Rumunia) – a mianowicie osłabienie amerykańskich gwarancji bezpieczeństwa w razie zbliżenia USA z Rosją – jednocześnie przekreślałoby perspektywy gwarancji bilateralnych. Niemniej wydaje się, że myśl o silniejszym związaniu Stanów Zjednoczonych z regionem Europy Środkowo-Wschodniej i Południowo-Wschodniej jest obecna choćby w rozważaniach nad polskim projektem Trójmorza. Wizja Polski jako lidera współpracy państw od Bałtyku po Adriatyk i Morze Czarne, szukających regionalnego partnerstwa z USA, może wydawać się atrakcyjna w kontekście przetasowań w Europie i nieufności wobec partnerów zachodnioeuropejskich, zwłaszcza w dziedzinie bezpieczeństwa. Jednak równoległe próby budowania europejskiej unii obronnej i ewentualne wysiłki na rzecz silniejszego zakotwiczenia USA w UE bądź w jej części (za jaką cenę?) mogą prowadzić do poważnych rozbieżności politycznych w ramach Unii, niezależnie od perspektyw powodzenia obu tych projektów.

Kwestia reakcji Europy na posunięcia Trumpa – czy będzie ona wspólna, czy zróżnicowana? – okaże się trudnym i niebezpiecznym testem jedności Unii Europejskiej także w wielu innych dziedzinach. Możliwe napięcia w sprawach handlowych (np. podniesienie ceł na import samochodów do USA) będą wymagały odpowiedzi UE, których wypracowanie lub ostateczny kształt (wtedy, gdy autorem będzie tylko Komisja Europejska) mogą prowadzić do konfliktów wewnętrznych. Scenariusz wojny handlowej z USA jest mało prawdopodobny, ale pytanie o to, czy w gronie 27 państw uda się znaleźć konsensus, gdyby część krajów chciała ostrzej niż inne zareagować na posunięcia Waszyngtonu, wydaje się uzasadnione. Także w sprawach konsularnych i innych podejmowane już przez Trumpa działania mogą wpływać polaryzująco na kraje UE, skłaniając jedne do większej ustępliwości, a inne do bardziej zdecydowanego stanowiska.

Taki skutek mogą odnosić także intencjonalne działania Waszyngtonu, jeśli Trump uznałby, że Unia Europejska jest bardziej konkurentem niż sojusznikiem, i zmierzał do jej osłabienia lub dezintegracji. Pozytywne reakcje części europejskiej prawicy populistycznej na wybór Trumpa, jego krytykę UE oraz antyestablishmentowy i antyliberalny język – to także świadectwo czekających Europę nowych problemów. Przede wszystkim retoryka Trumpa przesuwa granice w dyskursie publicznym w taki sposób, że jednoznacznie wzmacnia to środowiska i ugrupowania niechętne Unii Europejskiej, wartościom liberalnej demokracji i paradygmatowi wolności, który dotąd kształtował proces integracji europejskiej. Owszem, rozważania nad skutkami prezydentury Trumpa dla Europy pozostają tak długo spekulacją, jak długo nie wykrystalizuje się jego strategia wobec UE. Jednak sama niepewność związana z paradygmatem postatlantyckim stanowi poważne zagrożenie dla projektu europejskiego i sprawia, że o erze przed Trumpem tym bardziej mówić można w kategoriach „świata wczorajszego”.

Polska w nowej Europie

Europa określana przez nowe paradygmaty oznacza dla Polski środowisko międzynarodowe mniej pewne, mniej stabilne i mniej korzystne z punktu widzenia jej głównych interesów: bezpieczeństwa, dobrobytu i solidarności ze strony innych członków UE. Największym zagrożeniem byłaby głęboka erozja struktur Unii Europejskiej, a zwłaszcza jej rozpad, w tym także trwałe pozostanie Polski z boku głównego trzonu UE, który wyznaczać będą Niemcy. Ze względu na swój potencjał, szczególne znaczenie stosunków z USA i Niemcami, a także z uwagi na to, że odgrywa rolę największego państwa wschodniej części UE, Polska będzie jednocześnie istotnym aktorem procesów, które zostaną uruchomione wskutek rewizji dotychczasowych przesłanek integracji europejskiej. Dlatego odnalezienie się w nowej Europie wymagać będzie od Polski przemyślanej i odpowiedzialnej polityki, zdolności do współpracy z partnerami oraz zawierania kompromisów, a także porzucenia pokusy podejmowania działań, które mogłyby prowadzić do wzmocnienia procesów dezintegracji. Z tej oceny wynikają w szczególności cztery wnioski.

Po pierwsze, uelastycznienie UE (polegające na rozluźnieniu ram instytucjonalnych w kierunku zmiennej geometrii integracji, a nawet Europy à la carte) może być nieuniknione. Polska nie powinna jednak być orędownikiem tego zróżnicowania ani ulegać złudzeniu, że może ono służyć jej interesom. W ostatecznym rozrachunku kluczowe znaczenie będą bowiem miały nie formalne zapisy traktatowe bądź uzgodnienia międzyrządowe (np. gwarantujące otwartość kręgów wzmocnionej współpracy na inne kraje lub zapewniające o równym traktowaniu wszystkich członków UE niezależnie od stopnia ich integracji). Ważniejsze będzie to, w jakim stopniu dany kraj członkowski jest gotów ponosić współodpowiedzialność za całą Unię i współpracować w rozwiązywaniu problemów jej dotyczących. Innymi słowy, poziom solidarności ze strony innych państw członkowskich wobec Polski, ich poczucie związku z naszym krajem oraz gotowość do obrony jego bezpieczeństwa – będą proporcjonalne do stopnia zakorzenienia Polski w UE w jej głównych obszarach współpracy. Na dłuższą metę model Unii Europejskiej jako tworu składającego się z różnych, mniej lub bardziej powiązanych ze sobą, kręgów współpracy okaże się zapewne iluzją. Te kręgi współuczestnictwa (euro, polityka migracyjna, polityka obronna etc.) będą się w dużej mierze na siebie nakładać, zaś we wszystkich trzon stanowić będą Niemcy. Zwłaszcza po wyjściu z UE Wielkiej Brytanii (która w innym przypadku mogłaby być teoretycznie odmiennym ośrodkiem współpracy, zewnętrznym w stosunku do „jądra”) ta niemieckocentryczność Unii będzie wyraźna. Najbardziej istotne z punktu widzenia Polski będzie więc pytanie nie tyle o przyszły kształt bardziej „elastycznej” Unii, ile o to, czy tę elastyczność Polska będzie chciała wykorzystać do pozostania z boku, czy też do silniejszego zakorzenienia w UE. Nietrudno wyprowadzić z tej oceny dodatkowy argument na rzecz przystąpienia Polski do strefy euro.

Po drugie, Polska powinna powstrzymać się – zarówno w wymiarze symboliczno-retorycznym, jak i politycznym – od podejmowania działań, które nie służyłyby wzmacnianiu struktur i instytucji Unii Europejskiej lub przynosiły im szkodę. Dotyczy to zwłaszcza nadchodzących miesięcy oraz dyskusji nad przyszłością UE w kontekście tzw. procesu bratysławskiego i jubileuszu integracji w marcu br. Krytyka Unii jako projektu zdominowanego przez wielkie kraje (która współgra z płynącą zza oceanu retoryką Trumpa), nawoływanie do wzmocnienia państw narodowych (szczególnie silnie podkreślane przez rząd Węgier i Polski właśnie), pomysły zmian instytucjonalnych w kierunku osłabienia Komisji Europejskiej oraz wzmocnienia siły blokującej parlamentów narodowych – nie są postulatami, które pomagałyby rozwiązać aktualne problemy UE. Mogą one zaś kierować debatę w Unii na manowce. Na poziomie przekazu politycznego Polska powinna wspierać pogląd, że o ile „więcej Europy” nie jest lekarstwem na wszystko, o tyle w wielu dziedzinach nie da się stawić czoła problemom UE, jeśli będzie się jedynie utrzymywać status quo lub zdecyduje się wręcz na krok wstecz. Być może w niektórych obszarach Unia Europejska potrzebuje więcej współpracy na zasadzie międzyrządowej (a nie wspólnotowej) – ale takie stanowisko Polski będzie wiarygodne tylko wtedy, kiedy optując za tym, gotowa będzie także w pełni i aktywnie uczestniczyć w takich formach kooperacji (np. w wymiarze ochrony granic zewnętrznych UE).

Po trzecie, Polska powinna, przede wszystkim w imię swoich interesów bezpieczeństwa, działać na rzecz tego, by zarysowujący się kryzys w relacjach transatlantyckich nie doprowadził do głębokiego i trwałego rozbratu między Unią Europejską a Stanami Zjednoczonymi. Polska (podobnie jak inne kraje UE) nie ma żadnego wpływu na to, jak będą układać się relacje między Waszyngtonem a Moskwą. W ramach Unii jej głos może mieć jednak pewne znaczenie. Ale to, na ile Polska będzie współkształtować politykę europejską w obliczu paradygmatu postatlantyckiego w zgodzie ze swoimi interesami, zależy w dużym stopniu od jej relacji z kluczowymi partnerami w Unii Europejskiej. Analogia do relacji Unia–Rosja nasuwa się sama (także dlatego, że dla unijnych elit politycznych Trump staje się nie mniejszym, a nawet większym problemem niż Putin): w obu przypadkach efektywność polskiej dyplomacji będzie w dużej mierze funkcją pozycji Polski w UE. Dlatego priorytetem Polski powinno być wzmacnianie więzów łączących ją z Unią, a nie ich osłabianie, jak również powstrzymywanie się od kroków, które mogłyby naruszać jedność Europy. Działania na rzecz utrzymania bliskości (UE i samej Polski) z USA nie mogą przekroczyć czerwonej linii, jaką jest nadrzędny interes w postaci spójności Unii. Pokusy bilateralnego lub regionalnego układania się z USA (niezależnie od iluzorycznych szans powodzenia takich prób) należy odrzucić również dlatego, że oparta na podejściu transakcyjnym i w istocie nieprzewidywalna polityka administracji Trumpa nie może być postrzegana jako gwarancja bezpieczeństwa Polski w oderwaniu od Sojuszu Atlantyckiego. Realny i wymierny charakter powiązań Polski w Europie, zwłaszcza z Niemcami, przesądza o ich priorytetowej wadze.

Po czwarte, w nowej rzeczywistości UE Polskę czeka wiele trudnych decyzji odległych od modelu win- -win, który w przeszłości kształtował wyobraźnię o integracji europejskiej jako procesie, na którym korzystają wszyscy. Ta prawda pozostaje w mocy, ale w wymiarze strategicznych posunięć nadchodzące miesiące i lata wymagać będą od Polski konieczności zawierania trudnych kompromisów i podejmowania kroków, które mogą iść pod prąd opinii większości Polaków. Ten społeczny wymiar polityki europejskiej jest bardzo ważny. Jak pokazaliśmy w niedawnej, opublikowanej przez Fundację im. Stefana Batorego analizie Polacy wobec UE: koniec konsensusu (autorzy: Adam Balcer, Piotr Buras, Grzegorz Gromadzki, Eugeniusz Smolar), przekonanie o szerokim poparciu polskiego społeczeństwa dla Unii Europejskiej jest oparte na dużym uproszczeniu. Owszem, ponad 80 proc. obywateli popiera członkostwo Polski w UE, ale gotowość do głębszej integracji i ponoszenia większej odpowiedzialności za Europę jest ograniczona. Co więcej, polskie społeczeństwo (a przynajmniej spora jego część) z uwagi na doświadczenia historyczne i system wartości jest podatne na argumentację nacjonalistyczną oraz izolacjonistyczną, niechętną obcym i Europie Zachodniej. Głębsze zakotwiczenie Polski w Europie (nie tylko utrzymanie status quo), które wydaje się najlepszą strategią na czas „nowych paradygmatów”, wymagać będzie także przekonania dużej części społeczeństwa do tego celu. „Proeuropejskość” Polaków należy zdefiniować i zakorzenić w społeczeństwie na nowo. To zadanie dla tej części sceny politycznej i elit, które utożsamiają się z wnioskami płynącymi z tej analizy. Zadanie bez wątpienia niezwykle trudne, gdyż idące wbrew dominującemu dzisiaj trendowi.

Tekst powstał w ramach programu Otwarta Europa Fundacji im. Stefana Batorego.

1Za uwagi do tekstu serdecznie dziękuję Olafowi Osicy, Katarzynie Pełczyńskiej-Nałęcz i Aleksandrowi Smolarowi.

25+od podwykonawcy do kreatora, czyli jak zapewnić Polsce kolejne 25 lat sukcesu :)

WSTĘP

Przez ostatnie 25 lat Polsce udało się przestawić gospodarkę na tory rynkowe i zmniejszyć dystans dzielący nas od zamożnych krajów Europy. Głębokie i dość konsekwentnie realizowane reformy gospodarcze w minionym ćwierćwieczu nadały Polsce pęd, który teraz jednak wygasa. Kończą się proste rezerwy wzrostu, choć jest ich więcej niż w innych krajach naszego regionu. Dlatego też przyszłe tempo rozwoju w obecnych warunkach instytucjonalnych będzie znacznie wolniejsze niż w minionym ćwierćwieczu.

Doświadczenia krajów, w których tempo wzrostu nie zwolniło, pokazują, że kluczem do sukcesu jest odpowiedzialna polityka makroekonomiczna i dokonane we właściwym czasie zmiany instytucjonalne przestawiające gospodarkę na nowe tory wzrostu produktywności. Tylko takie podejście pozwoli na pełne wykorzystanie potencjału tkwiącego w polskich firmach i w Polakach. Ale niewłaściwa czy krótkowzroczna polityka makroekonomiczna może zniweczyć najlepsze zmiany instytucjonalne, co boleśnie pokazał ostatni kryzys finansowo-fiskalny. Dlatego niezbędne reformy strukturalne, kładące podwaliny pod nasz przyszły rozwój, muszą znaleźć oparcie w odpowiedzialnej policy mix, czyli polityce gwarantującej niski dług publiczny, zbilansowany strukturalnie budżet i przewidywalną niską inflację, wspierającej akumulację krajowych oszczędności dla finansowania niezbędnych inwestycji rozwojowych. Tylko na takim solidnym fundamencie można budować reformy strukturalne.Celem kolejnych 25 lat jest osiągniecie poziomu dochodów na głowę mieszkańca (według parytetu siły nabywczej) porównywalnego do średniej w krajach Europy Północnej[1]. I jest to realne. Aby tak się stało musimy rozwijać się o 2–2,5 punktu procentowego szybciej od tych krajów. Na to nie wystarczy inercyjny wzrost na bazie przemian z lat 90.

Wyzwania, które stoją przed nami w perspektywie najbliższych 25 lat, nie odbiegają zasadniczo od tych, z którymi mierzy się świat rozwinięty. Jest więc o tyle łatwiej, iż przyszłe reformy nie muszą być aż tak radykalne, jak te sprzed 25 lat. Ale jest o tyle trudniej, że muszą one być bardziej precyzyjne i finezyjne w konstrukcji. Trudniej też o polityczną wolę ich przeprowadzenia, gdyż inercyjny wzrost w tempie 2–3 proc. PKB dla wielu polityków stał się atrakcyjną alternatywą, nawet jeśli nie spełnia szerszych aspiracji społeczeństwa. Przy takim inercyjnym wzroście nie będzie możliwe obniżenie stopy bezrobocia do poziomu zbliżonego do niemieckiego, czyli do 5 proc. Na szczęście większość Polaków akceptuje podstawowe zasady wolnego rynku, co jest silną bazą do tego, aby proces transformacji i zmian kontynuować.

Syntetyczne spojrzenie na minione ćwierć wieku pokazuje, że efektem wprowadzonych zmian w systemie gospodarczym był olbrzymi skok w dochodach ludności, szczególnie wyraźnie widoczny w porównaniu ze średnią dla krajów UE15[2]. O ile na początku lat 90., po spadku PKB związanym z szokiem transformacji, dochód w przeliczeniu na jednego mieszkańca stanowił niewiele ponad 30 proc. poziomu w UE15, to w 2012 r. relacja ta wyniosła 61 proc.[3]. Nasz sukces był zbliżony do tego osiągniętego przez inne kraje Europy Środkowo-Wschodniej (rys. 1).

Tak duży skok cywilizacyjny był możliwy m.in. dzięki uwalniającej energię prywatną wolnej konkurencji, szybkiej imitacji i absorpcji doświadczeń zagranicznych oraz budowie nowego ładu instytucjonalno-prawnego inspirowanego perspektywą członkostwa w Unii Europejskiej. W ciągu ćwierćwiecza polskiej wolności udało się zasadniczo przeobrazić nieefektywną gospodarkę centralnie planowaną w zintegrowaną z Zachodem, konkurencyjną gospodarkę rynkową. Zmieniły się zasadniczo struktura i wolumen produkcji oraz handlu zagranicznego, a polska gospodarka jest dziś silnie wbudowana w europejskie sieci kooperacji. W eksporcie nie dominują już surowce i towary niskoprzetworzone. Ich miejsce zajęła produkcja średnio zaawansowana technologicznie o wyraźnie większej wartości dodanej. Reformy gospodarcze lat 90. i późniejsza integracja z Unią Europejską wywołały zmiany nie tylko w kierunku i strukturze naszej oferty handlowej. Zmieniły też standardy biznesowe i sposób myślenia polskich przedsiębiorców, menedżerów i pracowników. Pierwsze polskie firmy – choć skala tego zjawiska nie jest jeszcze bardzo duża – stają się liderami swoich branż na europejską, a w niektórych wypadkach nawet na globalną skalę.

Ważnym elementem zmian systemowych było usamorządowienie. Gminy i województwa samorządowe okazały się dobrym i efektywnym gospodarzem, coraz lepiej zarządzającym powierzonym im majątkiem. W ostatniej dekadzie sprawnie koordynowały liczne, nierzadko bardzo złożone inwestycje infrastrukturalne, których skala po roku 2006 istotnie wzrosła dzięki znaczącemu współfinansowaniu ze strony środków unijnych.

Tyle historii. Docenienie dokonań ostatniego dwudziestopięciolecia nie oznacza, że dziś możemy spocząć na laurach. Dynamicznie zmienia się otoczenie wokół nas. Postęp technologiczny przyśpiesza. Głębokie zmiany strukturalne w krajach południa Europy mogą oznaczać skokową poprawę ich konkurencyjności i większą rywalizację o produktywne inwestycje w obrębie Unii Europejskiej. Szczególnie jeśli towarzyszyć im będą dobrze zaprojektowane instytucjonalne przekształcenia strefy euro. Równolegle następują zmiany o charakterze geopolitycznym, pociągające za sobą niebagatelne skutki gospodarcze dla naszego kraju. Przede wszystkim nastąpiło przesunięcie globalnego centrum wzrostu do szybko rozwijającej się Azji. Między innymi z tego powodu od roku 1990 ceny surowców i paliw na rynkach światowych uległy potrojeniu, a globalny rynek energii doświadcza prawdopodobnie najszybszych przeobrażeń od kryzysów naftowych połowy lat 70. Dodatkowym wyzwaniem dla naszej konkurencyjności będzie kształtowana obecnie umowa o wolnym handlu między Unią Europejską a Stanami Zjednoczonymi. Integracja z bardzo innowacyjną, a jednocześnie opierającą się na dużych zasobach energetycznych i surowcowych gospodarką amerykańską jest dziś dla Europy nie tylko niewątpliwą ekonomiczną szansą, lecz także poważnym wyzwaniem strukturalnym. W nadchodzącym ćwierćwieczu Polskę czeka więc konfrontacja z dużo bardziej wymagającym i konkurencyjnym otoczeniem zewnętrznym, niż to, które towarzyszyło transformacji lat 1989–2013. Kluczowa w tej sytuacji jest budowa gospodarki stabilnej i silnej, a więc przede wszystkim produktywnej i innowacyjnej oraz zdolnej do szybkiej adaptacji. Bez tego nie będzie możliwe realizowanie celów społecznych takich jak poprawa dobrobytu ludności, podniesienie jakości usług publicznych czy też stworzenie nowoczesnej i zdolnej do skutecznej obrony naszego terytorium armii.

Sprostanie temu wyzwaniu nie będzie możliwe bez spełnienia czterech warunków.

Pierwszy to zbilansowana strukturalnie gospodarka, która wspiera wzrost oszczędności i nie naraża obywateli na ryzyko gwałtownej destabilizacji makroekonomicznej.

Drugi to takie kształtowanie mechanizmów rynkowych i rozwiązań instytucjonalnych, aby ułatwiały one przedsiębiorcom szybkie zmiany i dostosowanie do zmieniających się warunków.

Trzeci to przełamanie blokad uniemożliwiających naszej gospodarce osiągnięcie poziomu zaawansowania technologicznego i organizacyjnego charakterystycznego dla państw Europy Północnej czy Stanów Zjednoczonych. A więc odejście od modelu podwykonawcy do modelu kreatora i wykonawcy nowoczesnych wyrobów i usług.

Czwarty to lepsze niż dotychczas wykorzystanie rezerwuaru siły roboczej, widocznego w nadmiernym zatrudnieniu na terenach wiejskich oraz mającego odbicie w niskiej aktywności zawodowej Polaków.

Brakuje takiej strategii. Obecnie pod względem struktury gospodarczej, ładu instytucjonalnego i jakości regulacji Polska przypomina takie kraje jak Hiszpania czy Grecja. Ich dynamika rozwoju zwolniła, na długo zanim osiągnęły one poziom dobrobytu charakterystyczny dla Skandynawii czy Ameryki Północnej. Jeśli nie chcemy podzielić tego losu, potrzebne są nam spójne i całościowe reformy drugiej generacji. Historia gospodarcza[4] dobitnie pokazuje, że wraz z rozwojem gospodarki musi ewoluować otaczający ją system instytucjonalno-prawny. Przy braku postępu procesy doganiania zostaną zatrzymane. Innymi słowy rozwiązania, które zapewniały Polsce sukces w warunkach transformacji, nie są już wystarczające dla kraju o średnim poziomie zamożności i ukształtowanej gospodarce rynkowej.

W strategii na następne 25 lat nie można dokonywać wybiórczych zmian. Potrzeba całościowego podejścia, gdyż poszczególne elementy systemu gospodarczego wzajemnie się uzupełniają. Konieczność zmian nie może być traktowana w żadnym wypadku jako zachęta do interwencjonizmu – chodzi o poprawę jakości systemu gospodarczego poprzez zmianę roli państwa z biurokratyczno-administracyjnej do strategicznej. Celem powinno być tworzenie regulacji, dzięki którym skutecznie będzie działał wolny rynek, stworzenie systemu bodźców zachęcających gospodarstwa domowe do produktywnych wyborów w obszarze pracy, oszczędzania i edukacji, zbudowanie otoczenia instytucjonalnego wzmacniającego proefektywnościowe procesy w przedsiębiorstwach.

Niezbędnym elementem zmian jest też szybka poprawa świadomości ekonomicznej obywateli. Impulsem zmian zapoczątkowanych 25 lat temu były wolność i przedsiębiorczość, których wcześniejszy, nakazowo-rozdzielczy system starał się nie dopuszczać. Dziś niezbędna jest edukacja ekonomiczna od najmłodszych lat, kształtująca określone postawy zarówno przyszłych przedsiębiorców, jak i ich pracowników. Pierwsi z nich muszą sobie zdawać sprawę, że bez wydajnych, dobrze opłacanych pracowników i menedżerów ich firmy nie będą się rozwijać, tak aby móc konkurować na rynku krajowym i międzynarodowym. Drudzy natomiast muszą być świadomi tego, że wzrost ich wynagrodzenia (komfortu i poziomu życia) zależy od ich produktywności i zaangażowania – od sukcesu firmy, w której pracują, a nie od decyzji na szczeblu rządowym. Zmiana takiej postawy to z jednej strony podstawowa wiedza ekonomiczna, która powinna być przekazywana już od szkoły podstawowej na równi z innymi przedmiotami takimi jak matematyka, historia czy geografia. Z drugiej strony to promowanie i pokazywanie, że wydajność i produktywność we wszelkim działaniu jest opłacalna i doceniana. Tu dużą rolę powinny odegrać media i organizacje pozarządowe pokazujące przykłady takich postaw zarówno w grupie przedsiębiorców (co się częściowo dzieje), jak i ich pracowników.

STRESZCZENIE

Nadrzędnym celem strategii 25+ jest osiągnięcie dochodów na mieszkańca na poziomie zbliżonym do poziomu dochodów w krajach Europy Północnej. Wymaga to rozwoju w tempie o 2–2,5 punktu procentowego wyższym niż w tych krajach. Musi ono następować równocześnie z likwidacją barier ograniczających możliwość korzystania z wytwarzanego bogactwa przez wszystkich obywateli. Osiągnięcie tego stanu możliwe jest poprzez realizację celów szczegółowych na poziomie makro- i mikroekonomicznym.

Cele szczegółowe o znaczeniu makroekonomicznym niezbędne w realizacji celu nadrzędnego to trwałe podniesienie konkurencyjności polskich firm oraz podniesienie produktywności polskich pracowników. Ich realizacja odbywać się będzie poprzez przesuwanie produkcji w kierunku wytwarzania zaawansowanych dóbr i usług, koncentrowanie działalności w najbardziej wydajnych podmiotach oraz upowszechnienie wdrażania postępu technologicznego w przedsiębiorstwach.

Na poziomie mikroekonomicznym podniesienie produktywności firm wymaga zmian otoczenia regulacyjno-prawnego. Muszą zostać zlikwidowane regulacje ograniczające konkurencję. Konieczne są: wzmocnienie ochrony firm przed nieuczciwą konkurencją, poprawa jakości działania sądów gospodarczych, zmniejszenie liczby obowiązków administracyjnych, zlikwidowanie podziałów na rynku pracy poprzez reformę prawa pracy. Zmianie musi ulec także otoczenie instytucjonalne firm tworzone przez sektor publiczny, którego rola musi ewoluować od stricte biurokratycznej, do wspierania kreatywności przedsiębiorstw i obywateli oraz działania na korzyść ogółu społeczeństwa. Realizacja strategii 25+ musi odbywać się w warunkach społecznego dialogu i szerokiej współpracy różnych środowisk, przyczyniając się do budowy kapitału społecznego.

Dalsza część raportu składa się z sześciu sekcji. W pierwszej z nich opisane zostały czynniki wpływające na międzynarodową konkurencyjność gospodarek. W rozdziale tym zwracamy szczególną uwagę na zdolność do przesuwania zasobów z obszarów specjalizacji o niskiej produktywności w kierunku wytwarzania na większą skalę dóbr i usług bardziej zaawansowanych. To właśnie naszym zdaniem jest głównym wyzwaniem Polski na następne lata.

W kolejnej sekcji opisane są czynniki determinujące produktywność na poziomie makro. W ramach diagnozy zwracamy uwagę na fakt, iż w Polsce dominują sektory pracochłonne o niskim poziomie wydajności, co wiąże się również z nieefektywnym wykorzystaniem zasobów pracy. Kolejny rozdział opisuje pożądane w tym zakresie kierunki zmian, które sprzyjać będą wzrostowi udziału konkurencyjnego sektora wytwórczego. Nie proponujemy działań interwencjonistycznych, lecz podażowe, czyli takie jak deregulacja, wsparcie dla migracji ze wsi do miast czy też zaprzestanie wspierania branż przestarzałych, pracochłonnych.

Kolejne dwie sekcje poświęcone są kwestiom mikroekonomicznym. W diagnozie zwracamy uwagę na to, że polski przemysł koncentruje swą działalność na tych elementach globalnego łańcucha tworzenia wartości, na które przypada relatywnie niska wartość dodana. W ramach rekomendacji proponujemy zniesienie barier regulacyjnych ograniczających konkurencję, poprawę otoczenia administracyjno-prawnego (w tym działalności sądów), stabilność orzecznictwa podatkowego oraz większy nacisk na współpracę nauki z biznesem.

Przedostatnia część poświęcona jest zmianom w sektorze publicznym, które naszym zdaniem są warunkiem wstępnym dla wszelkich innych istotnych przemian w naszym kraju.

Ostatnią część raportu stanowi podsumowanie. Wskazujemy w nim, że Polska potrzebuje impulsu inicjującego nową falę modernizacji. Aby realizacja takiego planu się powiodła, proponujemy skupienie działań na następujących pięciu obszarach: (I) prowadzeniu odpowiedzialnej polityki makroekonomicznej, sprzyjającej wzrostowi oszczędności krajowych i zabezpieczającej gospodarkę przed narastaniem nierównowag; (II) realizacji szerokiej agendy deregulacyjnej; (III) wspieraniu procesu rozbudowy w gospodarce kompetencji związanych z innowacyjnością; (IV) uwolnieniu ogromnego potencjału zasobów pracy, zwłaszcza siły roboczej zaangażowanej dziś w rolnictwie; (V) realizacji głębokich zmian instytucjonalnych, w szczególności zmian w funkcjonowaniu sektora publicznego.

Raport ten nie obejmuje wszystkich obszarów gospodarki. Nie zajmujemy się więc szczegółowo tak ważnymi dziedzinami, jak ochrona zdrowia, edukacja czy system emerytalny. Skupiamy się wyłącznie na warunkach niezbędnych do zwiększania wydajności ogółem. Oczywiście zmiany proefektywnościowe w nieobjętych analizą obszarach celowi temu również by sprzyjały. Niemniej klucz do zrozumienia najważniejszych dla polski wyzwań dotyczy szeroko rozumianego otoczenia regulacyjno-instytucjonalnego. I na nim się w niniejszym raporcie koncentrujemy.

DLACZEGO PRODUKTYWNOŚĆ I MIĘDZYNARODOWA KONKURENCYJNOŚĆ SĄ KLUCZOWE

Aby osiągnąć poziom gospodarek Europy Północnej, polska polityka powinna skoncentrować się na budowie produktywnej gospodarki opartej na innowacjach i konkurencji rynkowej.

Najważniejszym wyzwaniem na kolejne dekady jest odpowiedź na pytanie, jak w sposób trwały i skuteczny podnieść konkurencyjność polskich firm i produktywność polskich pracowników. Istnieje ścisłe powiązanie pomiędzy międzynarodową konkurencyjnością działających w danym kraju przedsiębiorstw a produktywnością pracy i wzrostem gospodarczym (rys. 2). Międzynarodowa konkurencyjność podmiotów z danego kraju określa skalę jego nadwyżki ekonomicznej, czyli zysków firm i wynagrodzeń, jakie mogą otrzymać pracownicy w zamian za swoją pracę. Im nadwyżka ekonomiczna jest większa, tym wyższa jest skłonność i zdolność gospodarki do inwestowania, czyli akumulowania kapitału fizycznego (budynki, maszyny, środki transportu itd.), ludzkiego (wiedza) i kreatywnego (nowe idee). Dzięki temu następuje poprawa efektywności wykorzystania czynników produkcji (kapitału, pracy, technologii), czemu zazwyczaj towarzyszy zmiana struktury branżowej gospodarki. Procesy te sprzyjają poprawie międzynarodowej konkurencyjności firm krajowych, czyli ich zdolności do rywalizacji z przedsiębiorstwami zagranicznymi na rynku globalnym. Jeśli proces ten przebiega w sposób efektywny, to gospodarka nieustannie ewoluuje w kierunku dóbr i usług o wyższym poziomie zaawansowania. Dzięki temu właściciele kapitału zyskują wysoki zwrot z inwestycji, pracownicy doświadczają trwałego wzrostu płac, a realizacja zadań publicznych może opierać się na solidnej bazie podatkowej, umożliwiającej efektywne realizowanie funkcji państwa. Problem pojawia się wtedy, gdy otoczenie instytucjonalno-prawne zaburza funkcjonowanie tego procesu, skłaniając poszczególne podmioty gospodarujące i obywateli do zachowań bardziej kontr- niż pro-produktywnych. Kraj taki zatrzymuje się w rozwoju, nigdy nie osiągając poziomu dobrobytu porównywalnego ze światową czołówką gospodarczą.

Czynniki, które decydują o dynamice procesu modernizacji gospodarki, mogą występować na poziomie kraju, sektora/branży oraz poszczególnych firm. Na poziomie krajowym kluczowa jest zdolność do przesuwania zasobów z obszarów specjalizacji o niskiej produktywności w kierunku wytwarzania na większą skalę dóbr i usług bardziej zaawansowanych, takich, do których produkcji potrzeba relatywnie mniej pracy, a więcej kapitału i wiedzy. Oznacza to umiejętność przyciągania i rozwijania wysoce produktywnych rodzajów działalności, a więc zdolność do tworzenia nowych idei i wczesnego zajmowania nisz rynkowych.

Jeśli chodzi o branże, na poziom produktywności w dużej mierze wpływa zdolność do koncentrowania działalności w najbardziej wydajnych firmach. Są to firmy, które najlepiej wykorzystują ograniczone zasoby kapitału, pracy, energii i materiałów. Oznacza to także efektywny proces zastępowania upadających, mało wydajnych przedsiębiorstw nowymi, bardziej produktywnymi. Mechanizm ten sprowadza się do obecności zarówno tzw. ducha przedsiębiorczości, jak i mechanizmów chroniących i wzmacniających konkurencję rynkową, sprzyjających powstawaniu nowych przedsiębiorstw i szybkiemu wzrostowi najbardziej efektywnych z nich.

Z kolei na poziomie firm potencjał do nieustannego podnoszenia produktywności wiąże się głównie z postępem technologicznym. Może on przybrać formę absorpcji istniejących lub rozwoju własnych technologii produkcji. Innymi ważnymi elementami wpływającymi na postęp są zmiany organizacyjne w postaci wdrażania bardziej efektywnych metod organizacji pracy, kontroli jakości, zarządzania marką itp. Proces ten jest nierozłącznie związany z inwestycjami w kapitał rzeczowy i ludzki, a także gotowością przedsiębiorstw do podejmowania ryzyka i ponoszenia nakładów na badania i rozwój.

Niewielka jest liczba przykładów państw peryferyjnych, które zdołały utrzymać na tyle szybki wzrost gospodarczy, by dołączyć do światowego centrum. Za to liczne jest grono tych, którzy w tym procesie się zatrzymali. Wniosek z tego jest taki, że proces podnoszenia produktywności może na różnych etapach napotkać na bariery, których pokonanie blokowane jest przez procesy polityczne w danym kraju. Nieadekwatna identyfikacja lub błędne zaadresowanie wyzwań rozwojowych na dziesięciolecia spowolniły wzrost zamożności w takich państwach jak Grecja, Hiszpania czy Argentyna. Z kolei peryferyjne jeszcze w połowie XIX w. gospodarki Niemiec, Szwecji czy Austrii zdołały na przestrzeni następnych kilkudziesięciu lat dołączyć do światowej czołówki technologicznej. W XX w. ich śladem podążyły m.in. Japonia, Finlandia czy Korea Południowa. Wnioski dla nas są oczywiste.

PRODUKTYWNOŚĆ NA POZIOMIE MAKRO – DIAGNOZA OBECNEGO STANU I JEGO PRZYCZYNY

Budowa gospodarki konkurencyjnej instytucjonalnie, stabilnej makroekonomicznie i tworzącej warunki dla rozwoju innowacyjnych przedsiębiorstw jest warunkiem sine qua non dobrobytu społecznego. Produktywność, choć nie jest ostatecznym celem społecznym, jest jednak kluczowa, bowiem bez niej nie da się osiągnąć wysokiego standardu
i jakości życia.

Potwierdza to porównanie Polski do UE15 w ostatnich 25 latach. Pokazuje ono jednoznacznie, że nadrabianie dużej części dystansu cywilizacyjnego dzielącego nasz kraj od Zachodu było w znacznej mierze wynikiem wzrostu produktywności. Początkowa luka była jednak tak duża, że wydajność pracy w naszym kraju wciąż jest znacznie niższa od najzamożniejszych krajów Europy – Szwecji, Niemiec czy Holandii. Nominalna wartość dóbr wytwarzanych przez przeciętnego polskiego pracownika jest dziś około czterokrotnie mniejsza niż w Niemczech. Jeśli uwzględnimy różnice w parytecie siły nabywczej obniżające nominalny poziom produktywności w polskich usługach, różnica ta spadnie do około 50 proc. Ponad dwukrotnie niższa produktywność pracy w Polsce w porównaniu z zachodnim sąsiadem oznacza, że przeciętny polski pracownik nie tylko wytwarza dobra o niższej wartości, lecz także produkuje ich mniej i, mimo że z reguły pracuje znacznie więcej. Czyli w godzinę pracy wytwarza połowę tego, co jego niemiecki odpowiednik.

Ten stan rzeczy wiązać należy z relatywnie dużym znaczeniem w naszej gospodarce sektorów pracochłonnych o niskim poziomie wydajności. Są to przede wszystkim takie sektory jak rolnictwo (4 proc. PKB w porównaniu z mniej więcej 1 proc. w Niemczech), budownictwo (7 proc. PKB przy 5 proc. w Niemczech) oraz nisko i średnio przetworzona produkcja przemysłowa (ok. 12 proc. PKB wobec 9 proc. w Niemczech). Z kolei w Polsce rola branż bardzo wydajnych jest niska. Dla przykładu udział przemysłów średnich i wysokich technologii w Polsce wynosi 6 proc. PKB na tle 13 proc. w Niemczech, a usługi informatyczne i finansowe stanowią 9 proc. PKB w Polsce wobec blisko 11 proc. w Niemczech. Negatywnie na poziom produktywności pracy w Polsce wpływa także unikalny na skalę europejską wysoki udział handlu detalicznego i hurtowego w wartości dodanej – 18 proc. PKB w Polsce wobec 9 proc. w Niemczech. Można powiedzieć, że w Polsce dominują dziś sektory zorientowane na rynek wewnętrzny (handel, rolnictwo, górnictwo, energetyka, usługi publiczne, usługi finansowe, przemysł spożywczy itp.) oraz sektory nastawione na eksport podzespołów lub wyrobów finalnych o relatywnie niskiej wartości dodanej. Boom centrów usług wspólnych, pracujących na rzecz podmiotów zagranicznych, oraz silny rozwój przemysłu drzewnego, spożywczego, branży AGD to tylko wybrane przejawy przewagi sektorów pracochłonnych nad branżami nasyconymi kapitałem i wiedzą w polskiej gospodarce.

Niską wydajność polskich pracowników na tle innych państw Europy wzmacnia nieefektywne wykorzystanie zasobów pracy. Kontrproduktywna struktura zatrudnienia jest szczególnie widoczna w rolnictwie, które angażując ponad 12 proc. pracujących, wytwarza zaledwie 3 proc. polskiego PKB. Te same wielkości w Niemczech wynoszą odpowiednio mniej więcej 2 proc. i 1 proc. Z drugiej strony zatrudnienie w najbardziej produktywnych branżach usługowych (obsługa nieruchomości i firm, komunikacja i IT oraz finanse i bankowość) jest w naszym kraju relatywnie niskie i wynosi 5,5 proc., podczas gdy w Niemczech 7 proc. Efekt ten wzmacniany jest przez państwo preferujące wysokie zatrudnienie kosztem niższych płac (i jakości) w usługach publicznych takich jak ochrona zdrowia, nauka, edukacja czy administracja.

Konsekwencją luki w produktywności pracy jest adekwatnie niższy poziom wynagrodzeń w sektorze produkcyjnym i usługowym. Stawka godzinowa uzyskiwana przez polskich pracowników jest dziś około czterokrotnie niższa – a po uwzględnieniu parytetu siły nabywczej dwukrotnie niższa – niż w Europie Zachodniej. Można powiedzieć, że Polska znajduje się w nieatrakcyjnej z punktu widzenia społecznego równowadze niskiego zaawansowania technologicznego i niskich płac. Jeśli bowiem produktywność sektora przetwórczego jest niska, to i niski musi być poziom oferowanych przez niego płac. A to z kolei wpływa na ogólny poziom wynagrodzeń w gospodarce, bowiem usługi i sektor publiczny konfrontują się z barierą popytową, wyznaczoną przez dochody pracowników przemysłu. Konkurencja kosztowa sektora przemysłowego jest następstwem niedostatecznej podaży kapitału krajowego oraz deficytu know-how w firmach małych i średniej wielkości. Wobec braku możliwości konkurowania marką i pozycją rynkową muszą one sprzedawać swoją produkcję po niskich cenach, skupiając się na wyrobach mało zaawansowanych technologicznie i pracochłonnych. Najczęściej na tych, których wytwarzanie stało się nieopłacalne w zaawansowanych technologicznie i organizacyjnie gospodarkach rozwiniętych. W przyszłości również u nas część produkcji stanie się nieopłacalna.

Czynnikiem sprzyjającym rozbudowie pracochłonnych typów produkcji w Polsce jest nadwyżka relatywnie dobrze wykształconej i jednocześnie taniej siły roboczej. Brak odpowiedzi na wyż demograficzny w postaci reform w poprzedniej dekadzie, zamiast go wykorzystać, doprowadził do jego eksportu – emigracji. Szczególnym problemem polityki tego okresu była niezbalansowana polityka fiskalna utrzymująca deficyt sektora finansów publicznych na średnim poziomie wynoszącym mniej więcej 4,5 proc. PKB i rosnący dług publiczny. Ograniczyło to znacząco poziom krajowych oszczędności, a tym samym zmniejszyło potencjał inwestycyjny polskiej gospodarki i jej możliwości kreacji produktywnego zatrudnienia. Relatywnie wysoki koszt finansowania projektów inwestycyjnych sektora prywatnego sprawia, że niezmiennie inwestuje on w Polsce mniej od innych krajów naszego regionu, co zmniejsza liczbę tworzonych miejsc pracy i tempo nadganiania zaległości rozwojowych przez naszą gospodarkę[5].

Taka sytuacja rodzi na poziomie makroekonomicznym wiele niekorzystnych sprzężeń zwrotnych. Udział osób w wieku produkcyjnym na krajowym rynku pracy pozostaje niski. Eksportowane są relatywnie małowartościowe wyroby, a importowane drogie surowce i dobra zaawansowane technicznie. Permanentna nierównowaga między oszczędnościami a inwestycjami uzależnia nasz rozwój od napływu kapitału zagranicznego jako źródła finansowania inwestycji. Równocześnie baza podatkowa jest ograniczona przez niedostatek kapitału oraz politykę podatkową i strategię regulacyjną preferującą niektóre rodzaje działalności o niskiej produktywności (rolnictwo, górnictwo). Przy hojnym systemie zabezpieczenia społecznego potęguje to strukturalne niezbilansowanie polskich finansów publicznych, tj. znaczącą różnicę między ustawowymi zobowiązaniami państwa a zbieranymi przez nie podatkami.

W okresie transformacji opisany model gospodarczy wystarczał do tego, by Polska zmniejszała dystans rozwojowy do Zachodu, bowiem potencjał wzrostu tkwiący w eliminacji absurdów gospodarki niedoboru był bardzo duży. Dziś jednak, kiedy proste rezerwy efektywności w przedsiębiorstwach zostały już wykorzystane, jego możliwości się wyczerpują.

Po pierwsze, konkurowanie niskimi kosztami pracy w pozyskiwaniu inwestycji stoi w coraz większej sprzeczności z oczekiwaniami obywateli co do poziomu ich życia, dobrobytu, jakości zatrudnienia i usług publicznych. Społeczny nacisk na wzrost poziomu płac ogranicza się jednak, jak dotąd, do propozycji rozwiązań służących podziałowi istniejącej nadwyżki ekonomicznej, takich jak płaca minimalna, rola zbiorowych układów pracy czy związków zawodowych. Opinii publicznej umyka natomiast to, że warunkiem sine qua non wzrostu płac nie jest podział obecnej – małej – nadwyżki ekonomicznej, lecz podniesienie wydolności polskiego systemu gospodarczego i produktywności polskich przedsiębiorstw.

Po drugie, pomimo wysokiej konkurencyjności kosztowej (niższe koszty pracy wśród krajów UE są jedynie w Bułgarii, Rumunii, na Łotwie i Litwie) nasza gospodarka nie jest w stanie zapewnić zatrudnienia dla ponad 4 mln osób. Na liczbę tę składają się bezrobotni, emigranci zarobkowi oraz bierni zawodowo. Polskie firmy tworzą więc zbyt mało miejsc pracy w porównaniu z potrzebami, płacąc jednocześnie zbyt mało, by zachęcić osoby bierne do wejścia na rynek pracy. Wąskim gardłem jest zbyt niska stopa inwestycji, deficyt know-how oraz system bodźców podatkowych i regulacyjnych zniechęcający przedsiębiorców prywatnych do aktywności w sektorach kapitałochłonnych o dużym nasyceniu zaawansowanymi technologiami.

Po trzecie, silna obecność (a w niektórych branżach dominacja) zagranicznego kapitału[6], dla którego podstawową motywacją do inwestowania w naszym kraju są niskie koszty pracy, czyni naszą gospodarkę wrażliwą na zmiany jego sentymentu. Nie można wykluczyć, że w przypadku gdy utracimy istniejące dziś przewagi kosztowe, całe obszary działalności mogą zostać relokowane do krajów rozwijających się w podobny sposób, jak stało się to w innych krajach znajdujących się na obrzeżach centrum i peryferii.

Po czwarte, relatywna słabość, skala i sposób finansowania polskiego sektora nauki, w połączeniu z niskimi wydatkami na badania i rozwój „flagowych” polskich przedsiębiorstw z branż energetycznej, chemicznej, wydobywczej czy maszynowej, ograniczają możliwości wzrostu całej gospodarki. Obraz ten pogarsza fakt, że ułomne rozwiązania instytucjonalne zniechęcają przedsiębiorców do podejmowania ryzyka innowacji. Polska traci więc większość korzyści związanych z procesem rozwoju technologicznego. Korzyści te, czyli płace osób zaangażowanych w proces tworzenia, prawa własnościowe, licencje, dochody z obsługi posprzedażowej, przypadają twórcom technologii, właścicielom marek[7], a nie wykonawcom produkcji per se. Dzieje się tak nawet wtedy, gdy ci drudzy włączeni są w międzynarodowe sieci kooperacyjne koncernów globalnych, występując w roli ich podwykonawców pracujących na podstawie dostarczonych im rozwiązań technologicznych i organizacyjnych. Nie chodzi bynajmniej o to, by przestać korzystać z zagranicznych rozwiązań i nie wchodzić w globalne sieci kooperacyjne. Kluczowe jest natomiast, aby przepływ następował w obie strony – by importowi jednych technologii towarzyszył eksport innych, know-how pracowników firm międzynarodowych przepływał do przedsiębiorstw krajowych i vice versa, i aby średniej wielkości polskie firmy nauczyły się budować własną markę i rozpoznawalność międzynarodową.

Pomimo tak licznych słabości obecnego modelu gospodarczego można odnieść wrażenie, że polska polityka gospodarcza go wzmacnia i konserwuje. Zwraca na to uwagę chociażby OECD[8]. Znaczna część dozwolonej pomocy publicznej w ostatnich latach trafiała do rolnictwa, spowalniając proces odchodzenia od jego archaicznej i silnie nieefektywnej struktury. Było to widoczne m.in. w spadku dynamiki likwidacji gospodarstw o niskich bądź bardzo niskich areałach oraz we wsparciu zatrudnienia w sektorze poprzez subsydiowanie miejsc pracy. Równocześnie relatywnie niewiele środków przeznacza się na wsparcie innowacji i zmian organizacyjnych w przetwórstwie przemysłowym. Niska innowacyjność polskiej gospodarki widoczna jest m.in. w rankingu „Innovation Union Scoreboard” opracowywanym dla wszystkich państw UE. Nasz kraj niezmiennie zajmuje tam jedno z ostatnich miejsc, co jest bezpośrednim następstwem z jednej strony niedofinansowania, a z drugiej strony archaicznej struktury i instytucjonalnej słabości polskiej nauki. Słabość szkolnictwa utrudnia przedsiębiorcom rozwinięcie własnej innowacyjności. Słaba finansowo i ułomna organizacyjnie polska nauka nie tworzy bowiem – w odróżnieniu od nauki amerykańskiej, niemieckiej czy brytyjskiej – niezbędnego rezerwuaru kadr i idei dla przemysłu. Bez jej wzmocnienia wewnętrznego oraz sprzężenia z gospodarką nie powstanie w Polsce innowacyjna, kreatywna i przedsiębiorcza gospodarka na miarę np. Izraela, Singapuru, Korei Południowej czy Finlandii. A więc państw, które skutecznie wykorzystują innowacyjność, by wyrwać się ze swojej peryferyjności.

Niewłaściwy rozkład priorytetów jest także widoczny w polityce wsparcia nowych inwestycji – pomoc zależy od liczby tworzonych miejsc pracy, a nie od produktywności przedsięwzięcia. W efekcie firmom opłaca się kształtowanie procesów produkcyjnych, tak aby były one praco-, a nie kapitało- i wiedzochłonne. To samo można powiedzieć zarówno o praktyce zamówień publicznych – sektora samorządowego (transport i infrastruktura transportowa, systemy informatyczne itp.), jak i szczebla centralnego (ICT, technologie wojskowe etc.). W żaden sposób, wbrew praktyce m.in. USA, Francji, Niemiec czy Chin, nie wpisuje się ona w formułę polityki przemysłowej premiującej np. w przemyśle maszynowym wysokiej jakości rozwiązania technologiczne wypracowane w kraju. Postępując w ten sposób, polskie państwo, nie będąc tego do końca świadomym, utrudnia rodzimym producentom budowę własnej marki i zdobycie referencji niezbędnych do konkurowania na rynku globalnym.

Podsumowując: efektem naszej polityki gospodarczej nie jest produkcja dużej liczby wysoko przetworzonych i nasyconych wiedzą dóbr przemysłowych, ale zatrudnienie możliwie dużej liczby nisko opłacanych pracowników (nierzadko poniżej ich kompetencji). Ten stan rzeczy zderza się z oczekiwaniami społecznymi, w tym zwłaszcza z oczekiwaniami coraz lepiej wykształconej młodzieży, która – nie mogąc znaleźć satysfakcjonujących ich warunków pracy i płacy – masowo wyjeżdża za granicę.

Wzrost produktywności w kolejnych latach będzie wymagał nie tylko realokacji zasobów z mniej wydajnych sektorów – takich jak rolnictwo – do branż o wyższym poziomie produktywności, takich jak przemysł przetwórczy czy usługi dla biznesu. Potrzeba będzie przede wszystkim dynamicznego wzrostu wydajności w poszczególnych branżach, a więc w konsekwencji zmian technologicznych i organizacyjnych na poziomie poszczególnych firm i ich konglomeratów. W tym kontekście warto zauważyć, że w większości sektorów średnioroczne tempo zmian produktywności w ostatnich latach było umiarkowane (od -2 do +3 proc.). Wyjątek stanowiły górnictwo (gdzie odnotowano silne spadki) i przetwórstwo przemysłowe, które jako jedyne systematycznie odnotowuje silne wzrosty produktywności. Motorem wzrostu były zwłaszcza branże o wysokim nominalnym poziomie produktywności[9], które na większą skalę pojawiły się w naszym kraju relatywnie niedawno. Fakt ten dobitnie potwierdza znaczenie procesu rozwijania nowych, nietradycyjnych obszarów działalności dla wzrostu produktywności w gospodarce. Warto również zwrócić uwagę, że w przypadku większości branż przetwórstwa przemysłowego następował równoczesny wzrost produktywności i zaangażowania pracy. Oznacza to, że produktywność i miejsca pracy w przemyśle nie muszą być wobec siebie substytucyjne, czyli że można mieć i jedno, i drugie.

PRODUKTYWNOŚĆ NA POZIOMIE MAKRO – POŻĄDANE KIERUNKI ZMIAN

Polityka państwa powinna stwarzać warunki dla wzrostu udziału w gospodarce sektora przetwórczego. Przez zwrot „stwarzanie warunków” nie należy rozumieć interwencjonizmu, ale raczej tworzenie bodźców, szczególnie w najbardziej efektywnych gałęziach gospodarki. Trzeba przy tym odejść od wspierania tradycyjnej specjalizacji przemysłowej w sektorach o niskim i średnim stopniu technicznego zaawansowania. Chodzi o to, aby nie zniechęcać inwestycji przemysłowych i usługowych o dużym poziomie produktywności lub znacznym potencjale wzrostu. Takie protechnologiczne nastawienie gospodarki sprzyjać powinno powstawaniu nowych miejsc pracy w dużych i średnich ośrodkach miejskich i wokół nich, nie tylko w samym przemyśle, lecz także w usługach.

W tym kontekście niezbędnym jest ograniczenie pośredniego i bezpośredniego wsparcia firm państwowych w sektorach tradycyjnych (górnictwo, energetyka itp.) z wyjątkiem polityki rekultywacji terenów postindustrialnych. W chwili obecnej polska polityka energetyczna wydaje się nadmiernie koncentrować na konserwowaniu istniejącego status quo, w tym zwłaszcza na ochronie krajowej branży górniczej przed koniecznością restrukturyzacji. Nie służy natomiast, w odróżnieniu od m.in. polityki energetycznej Niemiec, wsparciu dla krajowych innowacji. Implikowane przez priorytety europejskiej polityki klimatycznej przekształcenia w sektorze energetycznym nie są więc w Polsce – w przeciwieństwie do Europy Zachodniej – pretekstem do wsparcia dla dostawców nowoczesnych technologii. Wręcz przeciwnie, polskie państwo koncentruje się na ochronie węgla jako podstawowego nośnika energii pierwotnej, mimo że dostarczycielami technologii produkcji energii w energetyce zawodowej są głównie firmy zagraniczne. Priorytetem w tym względzie powinno być przesunięcie akcentów w polskiej polityce energetycznej w kierunku włączenia jej w szerszą politykę gospodarczą równoważącą interesy różnych branż gospodarki (np. energetyki, przemysłu wydobywczego, elektroniki, usług IT), a nie koncentrującą się na ochronie status quo ante tylko jednej z nich.

Sektorem wymagającym zasadniczej rewizji dotychczasowego modelu prowadzenia polityki sektorowej jest sektor rolny. Polityka gospodarcza państwa powinna w jego wypadku sprzyjać procesowi scalania gospodarstw i wspierać tworzenie grup producenckich. W tym kontekście niezbędna jest weryfikacja warunków wsparcia ze środków unijnych[10], tak aby możliwa stała się redukcja nawisu zatrudnienia w rolnictwie i jego przeniesienia z rolnictwa do przemysłu i usług. Barierą zmniejszenia pracochłonności rolnictwa jest przede wszystkim obecny system podatkowy i ubezpieczeniowy faworyzujący działalność rolną. Jego rewizja i włączenie rolników do reguł obowiązujących w systemie powszechnym powinno stać się priorytetem polskiej polityki zabezpieczenia społecznego i polityki fiskalnej. Nowa fala migracji ze wsi do miast sprzyjać będzie rozwojowi nowoczesnego przemysłu i usług, o ile znajdzie wsparcie w postaci minimalizowania/likwidacji barier ją utrudniających, w tym zwłaszcza w obszarze infrastruktury komunikacyjnej i mieszkaniowej. Na poziomie mikro czynnikiem dodatkowo utrudniającym ten proces są wysokie bariery wejścia na rynek pracy w miastach, w tym m.in. koszty wynajmu mieszkań. Mogłyby być one z powodzeniem budowane przez sektor prywatny, wymaga to jednak mniejszej ochrony lokatorów, gdyż obecny jej poziom zniechęca do inwestycji w tym segmencie rynku.

Wzrost produktywności w kolejnych latach będzie wymagał realokacji zasobów z mniej wydajnych sektorów, takich jak rolnictwo, do branż o wyższym poziomie produktywności – takich jak przemysł przetwórczy czy usługi dla biznesu. Równie ważny będzie jednak dynamiczny wzrost wydajności w poszczególnych branżach oraz tworzenie warunków do rozwoju nowych, wysoce produktywnych działalności przemysłowych w Polsce.

Dlatego w ramach polityki gospodarczej wśród konkretnych działań dla zapewnienia rozwoju przemysłu niezbędne będzie przełamanie tzw. bariery informacyjnej i tzw. bariery koordynacji[11]. Brak w danym kraju odpowiedniej skali przemysłu o wysokiej wartości dodanej zniechęca nowo wchodzących do inwestycji, trudno bowiem ocenić, czy takie działanie jest opłacalne. Równocześnie inwestycje w nowych obszarach wymagają z reguły sieci kooperantów, specyficznej infrastruktury, odpowiednich zasobów pracy. Problem z nimi często polega na tym, że tych zasobów nie ma, ponieważ do tej pory nie było finalnego odbiorcy. Z tych też względów w procesie nasycania gospodarki nowymi rodzajami działalności niezbędne jest tworzenie warunków dla pionierskich inwestycji w nowych obszarach. Te pionierskie inwestycje niosą ze sobą olbrzymie korzyści społeczne, dlatego też system wspierania inwestycji powinien koncentrować się właśnie na nich.

Przyciąganie nowych rodzajów działalności przemysłowej możliwe jest na dwa sposoby. Pierwszy to identyfikacja przez instytucje sektora publicznego sektorów, które mają szansę na rozwój w Polsce i wsparcie procesu ich „zaszczepiania”. Drugą możliwość stanowi natomiast system szerokiego wsparcia procesu „eksperymentowania”, bez określonych z góry preferencji, z nowymi rodzajami działalności o wysokiej wartości dodanej[12]. Ta pierwsza droga, pomimo jej atrakcyjności, niesie ze sobą liczne zagrożenia. Przede wszystkim dlatego, że brak jest dobrych metod określania „właściwych” sektorów. Doświadczenia historyczne pokazały, że polityka taka może być bardzo kosztowna, a sektor publiczny ma znacznie bardziej ułomne narzędzia niż sektor prywatny w takiej właśnie identyfikacji. Wskazywanie potencjalnych „wygranych” rodzi przy tym szerokie pole do nadużyć. Dlatego też lepsze wydaje się to drugie podejście, polegające de facto na wspieraniu konkurencyjności i kreatywności. W ramach tego drugiego rozwiązania można wyróżnić dwa modele: niemiecki i amerykański. Model niemiecki opiera się na szerokim froncie innowacji we wszystkich sektorach, tworząc dodatkowe synergie i międzygałęziowe powiązania. Natomiast model amerykański zakłada, że branże tradycyjne w sposób naturalny „wypadają” z rynku. Optymalne byłoby połączenie obu tych rozwiązań.

W segmencie usług prostych z kolei kluczowa będzie kontynuacja procesu deregulacji poszczególnych zawodów oraz ograniczenie obecności państwa i pomocy publicznej. Dzięki temu będzie możliwa poprawa relatywnej atrakcyjności działalności przetwórczej wobec prostej działalności usługowej[13], a także spadek kosztów wytwarzania w przetwórstwie[14]. Finalnym efektem takiego procesu będzie wzrost zaawansowania przetwórstwa oraz sektora usług.

PRODUKTYWNOŚĆ NA POZIOMIE MIKRO – DIAGNOZA OBECNEJ SYTUACJI

Dzisiejszy stan sektora przedsiębiorstw w Polsce jest odbiciem procesów, jakie kształtowały je na przestrzeni ostatniego ćwierćwiecza – w czasie transformacji w latach 1989–2003 oraz w okresie członkostwa w Unii Europejskiej w latach 2004–2014. Doszło wtedy do znaczącego przeobrażenia nieefektywnych przedsiębiorstw państwowych. Dokonane zostało ono zarówno poprzez redukcję skali ich działalności, upadłość i restrukturyzację, jak i poprzez prywatyzację, której dominujący ton nadawał – wobec deficytu oszczędności krajowych – kapitał zagraniczny. To w dużej mierze za pośrednictwem inwestorów zagranicznych upowszechniała się w Polsce nowa kultura organizacyjna, którą ogólnie można nazwać wytwarzaniem w klasie światowej, a którą dziś stopniowo przejmują wchodzące w kooperację z koncernami globalnymi oraz konfrontujące się z nimi w konkurencji rynkowej firmy polskie. Procesowi przekształceń państwowych przedsiębiorstw towarzyszył spontaniczny proces powstawania wielu nowych firm. U źródeł tego procesu leżała przedsiębiorczość i pomysłowość Polaków.

Dziś podstawowe wyzwania obecnych w Polsce firm przemysłowych związane są z koncentracją swojej działalności na tych elementach globalnego łańcucha tworzenia wartości, na które przypada relatywnie niska wartość dodana. Innym istotnym problemem sektora przedsiębiorstw jest swoisty dualizm – silne zróżnicowanie pod względem produktywności i efektywności w segmencie małych i średnich firm.

Badania prowadzone dla krajów Unii Europejskiej[15] pokazują, iż rośnie zaangażowanie działających w Polsce podmiotów w globalnych łańcuchach tworzenia wartości. Równocześnie jednak obecność ta koncentruje się na „środkowych” ogniwach, obejmujących faktyczny proces wytwarzania – nierzadko jedynie montowania – wyrobów lub półproduktów. Tymczasem dziś za najbardziej wartościowe ogniwa, którym z reguły towarzyszy także najwyższy poziom produktywności i płac, uznaje się te, które znajdują się na początku lub na końcu łańcucha. Na te pierwsze składa się znacząca wartość dodana związana z fazami koncepcyjnymi i badawczymi. Na te drugie zaś np. usługi około- i posprzedażowe. W tej sytuacji sam fakt zwiększania stopnia udziału lokalnych firm w ramach globalnych łańcuchów tworzenia wartości nie zapewnia postępu cywilizacyjnego. Tym bardziej że zajmowane przez działające w Polsce firmy środkowe ogniwa łańcucha podlegają w największym stopniu procesowi arbitrażu pracy – tzn. w globalnej gospodarce są przenoszone tam, gdzie w danym momencie koszty pracy są relatywnie najniższe. Może się więc okazać, że przy zmianie relacji kosztowych produkcja wykonywana dziś przez polskie firmy zostanie z czasem przeniesiona gdzie indziej.

W odniesieniu do sektora małych i średnich przedsiębiorstw kluczowym wyzwaniem jest ich podział na dwa światy. Z jednej strony wiele firm to dziś nowoczesne, dobrze zarządzane i dobrze prosperujące przedsięwzięcia. Z drugiej strony zaś badania pokazują[16], że około 50 proc. małych i średnich firm działających w Polsce to firmy uznawane za zagrożone lub stojące na rozdrożu. W tym drugim segmencie typowa firma to firma rodzinna, która wyrosła na boomie lat 90. Wciąż zapewnia swym właścicielom (pierwsze lub drugie pokolenie) środki na godne życie. Rzadko korzysta z zewnętrznego zarządu i koncentruje swoją działalność na rynku lokalnym. W mniej korzystnym w ostatnich latach otoczeniu makroekonomicznym skala jej działalności pozostała w zasadzie niezmieniona. Firmy te charakteryzuje dość prosty, a nierzadko już dziś przestarzały park maszynowy, w rezultacie w swych sektorach lokują się one w ogonie produktywności. Większość procesów w tych firmach oparta jest na taniej pracy, co właścicielom firm stwarza swego rodzaju poczucie komfortu i bezpieczeństwa (gdy spada liczba zamówień, koszty ogranicza się poprzez redukcję zatrudnienia). Taki model funkcjonowania związany jest ze swego rodzaju obawą przed dokonaniem „skoku”, który wymagałby znaczących inwestycji oraz rodził wyzwania związane z koniecznością poszukiwania nowych rynków zbytu.

Za takim myśleniem idzie brak zasobów dedykowanych innowacyjności. Firmy te charakteryzuje również niska skłonność do otwarcia na współpracę z zagranicą i na współpracę w ogóle. Ten dualizm w sektorze małych i średnich firm powoduje, że na tle europejskich przedsiębiorstw w Polsce odsetek firm korzystających z nowoczesnych, proefektywnościowych rozwiązań pozostaje stosunkowo niski (rys. 4).

Dla wzrostu produktywności na poziomie mikro potrzebne jest wyraźne przyśpieszenie transferu zasobów z mało efektywnych firm do liderów lub też do innych, bardziej nowoczesnych rodzajów działalności. Tymczasem procesowi temu nie sprzyjają obowiązujące w Polsce rozwiązania w zakresie regulacji rynków i produktów. W wielu sektorach rynki są nadmiernie uregulowane (rys. 5), a Polskę na tle innych krajów UE i OECD charakteryzuje nadmierna obecność państwa w gospodarce. Zaburza to konkurencję i presję proefektywnościową.

Na produktywność całego sektora firm negatywny wpływ mają również nadmierna biurokracja oraz brak stabilnych warunków działalności gospodarczej, szczególnie w zakresie kwestii podatkowych. Taka sytuacja powoduje konieczność angażowania znacznych (w relacji do wielkości firm) zasobów w działania nieprzekładające się na rezultaty biznesowe oraz znacząco utrudnia podejmowanie decyzji inwestycyjnych.

PRODUKTYWNOŚĆ NA POZIOMIE MIKRO – POŻĄDANE KIERUNKI ZMIAN I NIEZBĘDNE DZIAŁANIA

Zmiany mające na celu wzrost produktywności na poziomie mikro muszą odnosić się do kluczowych barier blokujących rozwój efektywnych form gospodarowania w naszym kraju. Po pierwsze – do wspomnianych już wcześniej niewłaściwych rozwiązań regulacyjnych, zwłaszcza tych, które ograniczają konkurencję. Po drugie – do problemu braku należytej ochrony firm przed nieuczciwą konkurencją, którego podstawą są nieefektywne mechanizmy identyfikacji i eliminowania z rynku firm łamiących prawo. Brak jest też należytej ochrony przed zawłaszczeniem korzyści z działalności gospodarczej, co związane jest z niską jakością działalności sądów gospodarczych. Potrzeba także wypracowania nowych rozwiązań dostosowanych do realiów rynku pracy określających zasady relacji pomiędzy pracodawcami i pracownikami. Te dzisiejsze prowadzą do podziału rynku pracy na dwie skrajne formy zatrudnienia: etat (często zbyt ryzykowny dla pracodawcy) i praca na podstawie umowy cywilnoprawnej – w wielu wypadkach niezapewniająca nawet namiastki stabilności zatrudnionemu, a tym samym niemotywująca go do większego zaangażowania[17].

Powyższe czynniki zniechęcają przedsiębiorców do adaptowania najnowszych technologii i inwestowania w innowacyjność. Prowadzą zwłaszcza do wolniejszego wdrażania tzw. technologii ogólnego zastosowania (np. technologie informacyjno-komunikacyjne), których znaczenie dla podniesienia produktywności pracy jest dziś szczególnie wysokie. Równocześnie spowalniają one proces realokacji zasobów od firm mniej efektywnych do tych bardziej efektywnych. To właśnie wysoka dynamika firm (ich powstawanie, upadanie, łączenie się) jest w wielu branżach wehikułem implementacji innowacyjnych rozwiązań. Odnosi się to w szczególności do tych branż, gdzie implementacja innowacji wymaga znacznych zmian w organizacji produkcji i w zakresie wymagań kompetencyjnych.

W kontekście rozwiązań proefektywnościowych istotną kwestią są także powiązania międzysektorowe – brak presji konkurencyjnej w jednym sektorze może prowadzić do niekorzystnych efektów w innych sektorach. Głównym kanałem oddziaływania są w tym wypadku nadmierne koszty wyrobów/usług pośrednich. Należy jednak pamiętać również o negatywnym oddziaływaniu niskiej elastyczności dostawców oraz jakości dostaw i usług.

Oprócz opisanych powyżej zewnętrznych uwarunkowań kluczowa dla procesu nieustannej modernizacji firm jest wewnętrzna zdolność absorpcji nowych technologii i nowych praktyk organizacyjnych. Ta z kolei jest pochodną jakości kapitału ludzkiego w firmach. Stąd też polityka państwa powinna wspierać proces nieustannej modernizacji tego kapitału i jego dostosowanie do potrzeb rynku. W szczególności rozwijanie lokalnej bazy innowacji, postępu technologicznego nie będzie możliwe bez wysokiej jakości systemu szkolnictwa (w tym zawodowego) i uczelni wyższych. W wypadku uczelni kluczowe jest zwiększenie skali finansowania publicznego przy dalszej reformie zasad finansowania nauki, tak aby tworzyć bodźce do podnoszenia jakości badań naukowych, szerszego kształcenia doktorantów i większej współpracy oraz działania na rzecz biznesu.

Konkretne działania w celu wspierania wzrostu produktywności na poziomie firm powinny obejmować przede wszystkim przegląd prawa pod kątem jego wpływu na poziom konkurencji oraz szybkie wdrożenie niezbędnych zmian. W tym zakresie pomocne będą wnioski płynące z opracowań OECD i Banku Światowego. Niezbędne są również stabilizacja prawa podatkowego, ograniczenie dowolności orzeczeń aparatu skarbowego, wprowadzenie wiążących interpretacji podatkowych oraz koncentracja działalności aparatu skarbowego na podmiotach łamiących prawo.

Dla wzmocnienia ochrony przed nieuczciwymi praktykami konieczne jest doinwestowanie sądów gospodarczych o największym obciążeniu, ale przede wszystkim uruchomienie mechanizmów wprowadzających bodźce efektywnościowe oraz programów edukacji finansowej i ekonomicznej sędziów orzekających w sprawach gospodarczych.

Niezbędna jest także radykalna zmiana sposobu funkcjonowania sektora publicznego poprzez eliminację obecności państwa tam, gdzie nie jest ono konieczne (w tym ograniczenia obowiązków informacyjnych) oraz wdrożenia rozwiązań usprawniających relacje pomiędzy sektorem publicznym a firmami i obywatelami (e-government).

Mając na uwadze to, że wartość dodana tworzona jest w znacznej mierze w krajach eksportujących kapitał, koncentrujących badawczo-rozwojowe i strategiczne działy koncernów globalnych, wzmocnienie firm krajowych i wsparcie procesu ich internacjonalizacji powinno leżeć w żywotnym interesie państwa polskiego. Na szczególne wsparcie zasługuje zwłaszcza promocja działalności innowacyjnej przedsiębiorstw realizowana zarówno w formie wsparcia bezpośredniego – w postaci m.in. środków dostępnych w ramach polityki spójności UE – jak i pośredniego, w formie ulgi na innowacje, umożliwiającej przedsiębiorcom efektywne zmniejszenie swoich obciążeń podatkowych, o ile zaoszczędzone środki przeznaczą na badania i rozwój.

W zakresie produktywności na poziomie mikro nie wszystko jednak da się osiągnąć przez właściwą politykę gospodarczą. W tym obszarze wiele bowiem zależy od postaw samych przedsiębiorców. Z tych względów potrzeba budowania wśród właścicieli firm świadomości, że dotychczasowa formuła funkcjonowania w przypadku wielu rynków się wyczerpuje. Wynika to z faktu, że model konkurencji kosztowo-cenowej osiąga w polskich warunkach swoje granice. Stoi on coraz bardziej w konflikcie z dążeniem do zwiększenia dochodów społeczeństwa. Co więcej dziś, w porównaniu z sytuacją przed globalnym kryzysem, tempo wzrostu krajowego popytu – a tym samym wzrostu gospodarczego – jest znacznie silniej uzależnione od zdrowego wzrostu płac[18]. Budowanie wspomnianej wyżej świadomości to główne zadanie dla organizacji zrzeszających pracodawców, liderów opinii itp.

Właściciele najmniej produktywnych firm muszą albo zdecydować się na dokonanie wspomnianego wcześniej „skoku”, albo rozważyć sprzedaż swojego biznesu i zainwestowanie kapitału w nową, perspektywiczną działalność. Korzyści w takiej sytuacji odniesie zarówno sprzedający, jak i kupujący. Ten drugi będzie miał szansę na uzyskanie efektów skali i poprawę efektywności. Procesy przekształceń i konsolidacji powinny jednak dotyczyć nie tylko przedsiębiorstw słabszych, lecz także tych mocnych – tylko w ten sposób możliwe będzie zbudowanie form zdolnych do skutecznego konkurowania w skali globalnej. Procesy te przebiegałyby sprawniej, gdyby rozbudowana była infrastruktura instytucjonalna wspierająca sukcesję, przekazywanie firm, poszukiwanie dla nich nowych właścicieli itp.

Potrzebna jest też większa współpraca firm, nawet tych, które na co dzień z sobą konkurują. Dotyczy to obszarów takich jak na przykład inwestycje w budowanie za granicą wizerunku wysokiej jakości polskich wyrobów (np. wspólny branding uniwersalną marką określonej kategorii wyrobów wytwarzanych w naszym kraju) czy też podejmowanie wspólnych wysiłków w celu eliminowania z rynku firm nieuczciwych.

W kontekście pozycji polskich firm w ramach globalnych łańcuchów tworzenia wartości niezbędna jest jej ewolucja w kierunku pozycji gwarantujących większy udział w generowanej wartości. Może ona przybierać różne formy. Jedną z nich jest przejmowanie zagranicznych firm (np. dzisiejszych odbiorców) i uzyskiwanie w ten sposób bezpośredniego dostępu do klientów, a nierzadko także innego rodzaju aktywów, takich jak marki czy patenty. Możliwe jest także budowanie i/lub rozbudowywanie wewnętrznych kompetencji w zakresie kreowania innowacji, (zespoły zajmujące się działalnością badawczo-rozwojową), a tym samym tworzenie wartości na etapie koncepcyjnym i badawczym. Inną opcją jest zmiana profilu działalności i zajęcie w ramach tej nowej działalności bardziej atrakcyjnych ogniw łańcucha tworzenia wartości.

ZMIANY INSTYTUCJONALNE

Oddzielną kwestię stanowi sposób przeprowadzenia zmian. Dziś wola bardziej znaczących reform wydaje się mocno ograniczona. Jednym z powodów takiej sytuacji jest fakt, że wiele z koniecznych w Polsce zmian odnosi się do funkcjonowania sektora publicznego. Tymczasem zmiany w jego obrębie – przekształcające sposób jego funkcjonowania – oznaczają naruszenie istniejącego status quo, a więc także pozycji istniejących grup interesów i sieci powiązań. Nic więc dziwnego, że szereg inicjatyw zmierzających do rewizji zastanego stanu rzeczy jest torpedowanych – w sposób mniej lub bardziej jawny w parlamencie lub wręcz na etapie przygotowawczym w obrębie administracji centralnej.

Innym problemem są kompetencje sektora publicznego. Dobitnym dowodem deficytu w tym zakresie jest chociażby jakość stanowionego w Polsce prawa. Badania przeprowadzone przez Instytut Badań nad Demokracją i Przedsiębiorstwem Prywatnym wskazują na niską ocenę aktów prawnych istotnych dla prowadzenia działalności gospodarczej. Jedną z przyczyn tego stanu jest, w ocenie autorów, wadliwy proces legislacyjny, skutkujący koniecznością częstego poprawiania błędów prawnych (inflacja prawa).

Dlatego też wyzwań związanych z konkurencyjnością gospodarki nie da się rozwiązać w obecnym otoczeniu instytucjonalno-regulacyjnym. Nowy kształt instytucjonalny powinien zostać wypracowany w procesie dialogu pomiędzy rządem, pracodawcami, pracownikami, nauką i instytucjami pozarządowymi. Ten nowy konsensus musi mieć również szerokie wsparcie polityczne. Polska potrzebuje porozumienia w rodzaju „okrągłego stołu”, którego ustalenia powinny obejmować: nowy kształt instytucji centralnych, nowe rozwiązania na poziomie samorządów oraz wypracowanie najlepszych rozwiązań instytucjonalnych w zakresie większego zaangażowania sektora prywatnego w przekształcenia i realizację zadań sektora publicznego.

W wypadku instytucji centralnych istotą reform powinna być zmiana obecności państwa w gospodarce z biurokratycznej na strategiczną, a także wyraźne rozdzielenie – na poziomie konkurencyjnym i organizacyjno-operacyjnym – funkcji długofalowych od bieżących działań. Równolegle należy usprawnić obsługę firm i obywateli w duchu New Public Management, by w możliwe wielu instytucjach publicznych doprowadzić do podniesienia jakości świadczonych usług publicznych dzięki wprowadzeniu racjonalności charakterystycznej dla sektora prywatnego.

Niezwykle istotne jest, aby podejmowaniu jakichkolwiek decyzji przez sektor publiczny towarzyszyło zrozumienie całego łańcucha ich konsekwencji dla gospodarki i społeczeństwa. W tej sytuacji jednym z największych wyzwań jest takie zaprojektowanie, a następnie wdrożenie wewnętrznych procesów w sektorze publicznym, by kreował on najbardziej optymalne rozwiązania: innowacyjne, długoterminowe, uwzględniające szerokie spektrum opinii oraz wiążące się z możliwie najniższymi kosztami dostosowania dla firm i obywateli.

Stworzenie nowoczesnego i efektywnego aparatu administracyjnego wymaga bodźców sprawiających, że punktem odniesienia dla wszelkich jego działań będzie dobro obywateli (a nie biurokracji). Konieczne jest skorzystanie z wartości wypracowanych przez kulturę „korporacyjną”: uczciwości, bezstronności, transparentności
i odpowiedzialności, zachęcających do kreatywności i innowacyjności, a także rozwiązań takich jak: właściwe zaprojektowanie struktur, efektywne zarządzanie i umiejętność pozyskiwania pracowników zdolnych realizować wizję nowoczesnej administracji oraz stworzenie systemu kreowania i wyłaniania liderów. W ramach nowoczesnego państwa niezbędne są systemy motywowania i zarządzania wydajnością – zapewniające, że ustalane priorytety znajdą przełożenie na codzienne działania oraz systemy identyfikacji i upowszechniania najlepszych wzorców i praktyk działania różnych szczebli administracji.

Wsparciem dla tego procesu powinno być wzmocnienie procesu transparentności działań publicznych, osiągnięte poprzez znaczące rozszerzenie dostępu obywateli, instytucji naukowych i organizacji społecznych do danych gromadzonych przez administrację i inne instytucje publiczne. Polska administracja, w odróżnieniu od najbardziej efektywnych biurokracji, takich jak szwedzka czy brytyjska, w znikomym stopniu wykorzystuje dziś szansę, jaką niesie otwarcie danych publicznych dla wszystkich zainteresowanych stron (open data), by te mogły wykorzystać je z korzyścią dla gospodarki i dobra publicznego. W tym kontekście rewizji wymaga zarówno ustawa o ochronie danych osobowych, jak i rola Generalnego Inspektora Ochrony Danych Osobowych w polskim systemie prawnym. Podniesienie standardów dostępu do danych zarówno w Głównym Urzędzie Statystycznym, jak i w poszczególnych ministerstwach, urzędach centralnych i samorządach sprzyjać będzie wzmocnieniu obywatelskiej kontroli nad działaniami publicznymi, podnosząc ich jakość i zgodność z interesem ogólnospołecznym.

Zwiększenie udziału sektora prywatnego w rozwiązywaniu problemów odnoszących się do sektora publicznego może pomóc w pokonaniu bariery braku woli i zdolności przeprowadzenia rzeczywistych zmian w tym sektorze. Rozwiązania zmierzające do większego zaangażowania sektora prywatnego w sprawy publiczne powinny m.in. obejmować:

  • zaangażowanie sektora prywatnego w fazy koncepcyjne i realizacyjne strategicznych projektów typu e-government,
  • zwiększenie skali obsługi instytucji rządowych przez sektor prywatny, np. poprzez wydzielenie centrum usług wspólnych świadczących na rzecz całej administracji usługi w zakresie finansowo-księgowym, HR, itp.; powinno się również dokonać oceny możliwości oddania części usług publicznych (np. w ochronie zdrowia) w outsourcing sektorowi prywatnemu,
  • wypracowanie instytucjonalnych form wymiany informacji pomiędzy administracją publiczną i sektorem firm w celu lepszego ukierunkowania strategicznych działań rządu,
  • zmianę świadomości – poprzez odpowiedni system bodźców – u pracowników administracji, modyfikację ich postawy z „władczej” na „usługowej” na rzecz firm i obywateli.

Równolegle niezbędne jest zdefiniowanie (a następnie promowanie wśród firm) kanonu podejmowanych na poziomie przedsiębiorstw działań sprzyjających osiąganiu szerokich celów społeczno-gospodarczych. Działania te powinny odnosić się do tak istotnych kwestii, jak: wsparcie polityki prorodzinnej, wsparcie polityki flexicurity, wsparcie procesów współpracy/zrzeszania się czy wreszcie internacjonalizacji firm. W procesach tych istotną, jeśli nie kluczową, rolę powinny odgrywać instytucje zrzeszające pracowników i pracodawców. Nowy okrągły stół powinien stać się przyczynkiem do szerszego dialogu i współpracy różnego rodzaju środowisk, do budowania tak bardzo potrzebnego w Polsce kapitału społecznego.

PODSUMOWANIE I WNIOSKI

Polska potrzebuje impulsu inicjującego nową falę modernizacji. Istotą przeprowadzanych zmian musi być ograniczenie obecnej – administracyjno-biurokratycznej – formy obecności i roli państwa w gospodarce i zmniejszenie tym samym ciężarów nakładanych na sektor prywatny. Przy czym wzrosnąć powinna rola strategiczna państwa, szczególnie w zakresie tworzenia warunków dla budowy podstaw nowoczesnej gospodarki. Impuls ten powinien zainicjować nową falę przemian i uruchomić samonapędzający się mechanizm przekształceń strukturalnych.

Aby w kolejnych 25 latach osiągnąć poziom dochodów krajów Europy Północnej, niezbędne jest z jednej strony większe wykorzystanie dostępnych w Polsce zasobów pracy, z drugiej strony zaś zwiększanie produktywności. Dlatego konieczne jest skupienie się na następujących pięciu obszarach:

Po pierwsze – i przede wszystkim – na prowadzeniu odpowiedzialnej polityki makroekonomicznej sprzyjającej wzrostowi oszczędności krajowych. Dlatego tak ważne jest utrzymywanie zrównoważonego cyklicznie budżetu, utrzymanie niskiej relacji długu do PKB i unikanie nierównowag na poziomie makro i mikro. W tym zakresie niezbędna jest ścisła koordynacja polityki fiskalnej, pieniężnej i nadzorczej.

Po drugie – realizacja szerokiej agendy deregulacyjnej. Podstawowym warunkiem jest tu stworzenie lepszych warunków dla przedsiębiorczości. Docelowo więcej musi być rynku i konkurencji na poziomie poszczególnych mikrorynków, a stabilne i przejrzyste regulacje powinny kształtować relacje rynkowe w obszarach, gdzie rynek zawodzi. Niezbędne jest więc:

  1. odbiurokratyzowanie gospodarki,
  2. wzmocnienie ochrony efektów działalności gospodarczej przed nieuczciwym zawłaszczaniem (system sądownictwa),
  3. wspieranie konkurencji: dalsza prywatyzacja i demonopolizacja.

Po trzecie, wspieranie procesu rozbudowy w gospodarce kompetencji związanych z innowacyjnością. Oznacza to z jednej strony stworzenie warunków do produktywnego działania polskiej nauce, a z drugiej strony stymulowanie postępu technologicznego w firmach i wspieranie współpracy nauki z biznesem. Szczególnie ważne jest kreowanie bodźców, by zaistniały u nas nowe, dotychczas nieobecne rodzaje zaawansowanej działalności przetwórczej.

Po czwarte, ogromny potencjał leży w lepszym wykorzystaniu zasobów pracy, zwłaszcza niewykorzystanej siły roboczej zaangażowanej w produkcję rolną. Naszym wielkim wyzwaniem cywilizacyjnym jest zachęcenie młodych ludzi mieszkających na wsi do porzucenia obszaru niskiej wydajności i biedy na rzecz tej części gospodarki, która da im szanse na rozwój i godne życie. Ze względu na trendy demograficzne Polska musi też przygotować i już realizować przemyślaną politykę migracyjną. Do roku 2040 będzie nam potrzeba około 3 mln pracowników. Te dwa strumienie podaży pracy w sposób zasadniczy mogą zmienić perspektywy naszego kraju.

Po piąte, głębokich zmian instytucjonalnych wymaga sektor publiczny. Bez poprawy jakości jego pracy i ograniczenia niekorzystnego oddziaływania nieefektywnej sfery publicznej na sektor prywatny tempo zmian będzie hamowane. Efektywniejsza alokacja zasobów w gospodarce pozostanie bowiem ograniczana, a zmiany w sferze instytucjonalnej będą nieadekwatne do stojących przed nami wyzwań rozwojowych. Patrząc z tej perspektywy, zmiany te są warunkiem wstępnym efektywnego przeprowadzenia pozostałych reform.

Celem tak rozumianej agendy modernizacyjnej winno być przesunięcie polskiej gospodarki na globalnej drabinie produktywności. Dopiero wtedy zdrowa, bo wynikająca ze wzrostu całkowitej produktywności, presja na płace wymusi większe inwestycje kapitałowe w mechanizację procesów. Rosnąca siła nabywcza pracowników branż eksportowych i przemysłu przełoży się na stopniowy wzrost płac w usługach skierowanych na lokalny rynek. Z kolei wyższe płace zwiększą atrakcyjność pracy wobec bierności zawodowej. To natomiast spowoduje wzrost atrakcyjności polskiego rynku pracy wobec zagranicy, co powinno zachęcić do powrotu wielu wykształconych osób z emigracji, a także pozytywnie wpłynąć na dzietność.

Te proponowane podażowe zmiany znajdą po stronie popytu odzwierciedlenie w tak potrzebnym naszej gospodarce wzroście inwestycji sektora przedsiębiorstw. To z kolei stosunkowo szybko przełoży się na wzrost eksportu i prywatnej konsumpcji, tworząc tym samym samonapędzający się mechanizm (rys. 6). W dzisiejszych czasach, gdy globalizacja i integracja gospodarcza powodują, że obywatele i biznes są dużo bardziej mobilni niż kiedyś, znaczenie konkurencyjności poszczególnych systemów gospodarczych wrasta. Tym samym ani przedsiębiorcy, ani pracownicy nie są „skazani” na to, by funkcjonować w określonym miejscu. Jeśli więc jakość systemu gospodarczego lub tempo jego poprawy nie są zadowalające – przenoszą się w inne miejsce. Taki scenariusz już się w Polsce realizuje. Jeśli w ciągu najbliższych kilku lat nie stworzymy wysoce produktywnej gospodarki, to rosnące obciążenia podatkowe z powodu pogarszającej się demografii zwiększą ryzyko kolejnych fal emigracji nie tylko ludzi, lecz także firm. Prowadzić to będzie do destruktywnej spirali – kurcząca się baza podatkowa wymusi zwiększenie obciążeń podatkowych i regulacyjnych, szczególnie jeśli system instytucjonalny nie będzie w stanie elastycznie dostosować wydatków. A to dodatkowo zwiększy skłonność do emigracji. Taki czarny scenariusz nie musi się jednak spełnić, trzeba mu skutecznie i aktywnie przeciwdziałać.


[1] To umowne określenie obejmuje kraje Unii Europejskiej o najbardziej zaawansowanym i sprawnym modelu gospodarczym (Niemcy, Austria, kraje Beneluksu oraz kraje skandynawskie).

[3] Dane z uwzględnieniem parytetu siły nabywczej.

[4] Obszerną analizę procesów rozwojowych zawiera m.in. D. Acemoglu, J. Robinson, Why Nations Fail: The Origins of Power, Prosperity, and Poverty.

[5] Jak podaje raport „Niski poziom inwestycji przedsiębiorstw wyzwaniem dla polskiej gospodarki” Biura Analiz Makroekonomicznych Banku Pekao SA, w ostatniej dekadzie wydatki inwestycyjne polskich firm stanowiły średnio 10 proc. PKB wobec 16 proc. w pozostałych krajach członkowskich UE z naszego regionu.

[6] Według danych GUS („Rocznik Przemysłu 2013”) inwestorzy zagraniczny kontrolują ok. 50 proc. kapitału firm przetwórstwa przemysłowego. W skrajnych przypadkach (produkcja pojazdów samochodowych, produkcja komputerów, wyrobów elektronicznych i optycznych oraz produkcja wyrobów tytoniowych) udział ten wynosi ponad 80 proc.

[7] Komisja Europejska (”Innovation Union Report”) zwraca uwagę na bardzo wysoki udział Polski w wydatkach na badania i rozwój płatności z tytułu honorariów oraz opłat licencyjnych na rzecz zagranicy, przy równoczesnych, niemalże zerowych dochodach z tego tytułu.

[8] „OECD Economic Survey: Poland 2014”

[9] Dane Eurostatu wskazują, że w latach 2004–2012 najwyższe wzrosty produktywności (wartość dodana liczona w cenach stałych w przeliczeniu na godzinę pracy) odnotowano w produkcji komputerów, urządzeń elektronicznych i optycznych (ponad 24 proc. rocznie), produkcji urządzeń elektrycznych (ponad 16 proc.) oraz pozostałego sprzętu transportowego (ponad 13 proc.).

[10] Chodzi m.in. o zasady dostępu do środków z Programu Rozwoju Obszarów Wiejskich, a w szczególności wykluczenie z możliwości wsparcia większych gospodarstw.

[11] Na istotną rolę tego typu barier w procesach rozwojowych zwraca m.in. uwagę D. Rodrik („Jedna ekonomia, wiele recept – globalizacja, instytucje i wzrost gospodarczy”).

[12] W tym wariancie sektory zidentyfikowane w ramach projektów Foresight czy Krajowa Inteligentna Specjalizacja mogą być wykorzystywane przez sektor prywatny jako swego rodzaju wskazówka. Znalezienie się na ich liście nie powinny jednak stanowić podstawy dla polityki wsparcia..

[13] Analizy OECD (OECD Economic Survey: Poland 2014) wskazują na niską rentowność działalności przemysłowej na tle wielu obszarów usługowych. Powoduje to przekierowywanie zasobów do sektora usług.

[14] W efekcie wzrostu popularności outsourcingu usługi stanowią coraz większą część „wsadu” do działalności przemysłowej.

[15] Zob. Competing in global value chains – EU industrial structure report 2013 oraz Global value chains: Poland.

[16] Zob.: Mikro-, małe i średnie przedsiębiorstwa – mocne i słabe strony, szanse i zagrożenia rozwojowe, Lewiatan, 2011; Rzemieślnicy i biznesmeni. Właściciele małych i średnich przedsiębiorstw prywatnych – materiały z konferencji „Polscy przedsiębiorcy wobec nowych wyzwań” (2014).

[17] Sytuacja taka rodzi także negatywne skutki społeczne np. w postaci niskiej skłonności do posiadania dzieci.

[18] Przed kryzysem prywatną konsumpcję wspierały malejąca stopa oszczędności (sprawiająca, że wydatki gospodarstw rosły szybciej niż dochody) oraz rosnąca penetracja kredytów konsumpcyjnych. Dziś przy stopie oszczędności na poziomie 0-5% dalszy jej spadek jest w zasadzie niemożliwy, a penetracja kredytów konsumpcyjnych (w relacji do dochodów) jest na poziomie średniej unijnej.

Czytać Poppera czy „Harry’ego Pottera”? – rozmowa z prof. Adamem Chmielewskim :)

Wydaje się, że koncepcje Poppera uległy dezaktualizacji. Wiele jego idei tak głęboko jednak weszło w krwioobieg dyskursu naukowego i politycznego, że nawet nie uświadamiamy sobie ich nowatorstwa ani tego, kto jest ich autorem. Skoro więc nadal zdarza nam się myśleć i mówić Popperem, może warto wrócić do jego lektury.

Jedną z książek, o których w ostatnim czasie szeroko się dyskutuje, jest „Capital in the Twenty-First Century” Thomasa Piketty’ego. To przełomowa lektura?

Myślę, że pozycja ta może zmienić sposób postrzegania optymalnej struktury społecznej przez polityków, w których rękach leży odpowiedzialność za przyszłość wielu krajów. Z pewnością też ma szansę przyczynić się do głębszego zrozumienia powagi problemów generowanych przez nierówności ekonomiczne.

Czy jednak politycy będą chcieli posłuchać Piketty’ego? Wydaje się, że większy wpływ na ich decyzje mają spin doctorzy.

Już wcześniej Thomas Piketty wraz z Emmanuelem Saezem pokazali, w jaki sposób można pozyskać ogromne środki na likwidację obszarów nędzy, a tym samym na realizację celów sformułowanych przez Jeffreya Sachsa w jego „Millennium Development Goals”. Obecnie jednak Piketty zrobił coś bez precedensu. Zebrał wiarygodne historyczne dane na temat nierówności ekonomicznych oraz ich skutków dla kształtującej się struktury społecznej. Myślę, że z tej analizy płyną lekcje, których nie będzie można zlekceważyć. Społeczeństwa o większym poziomie równości społecznej rozwijają się stabilniej, społeczeństwa radykalnie nierówne są zaś narażone na wiele zaburzeń i kryzysów. Nawet jeśli praca Piketty’ego nie przyniesie zmian bezpośrednich i natychmiastowych, w dalszej perspektywie jego ustalenia będą miały wpływ na dyskurs publiczny, na zmianę kategorii, za których pomocą ludzie myślą.

Jak do problemu istnienia nierówności społecznych odniósłby się Popper? Czy nie uważał on, że – ze względu na naturę społeczeństwa otwartego – nierówności muszą istnieć i nie warto z nimi walczyć?

Wydawać by się mogło, że jego intelektualna bliskość z przedstawicielem konserwatywnej opcji w filozofii społecznej i ekonomii, tj. Friedrichem Augustem von Hayekiem, a w późnej fazie twórczości z Helmutem Kohlem i niemiecką chadecją, wskazywałaby na to, że rzeczywiście był on skłonny zaakceptować nieuchronność nierówności. Należy jednak pamiętać o młodzieńczych związkach Poppera z ideą socjalizmu, która pozostała mu bliska także później. Wydaje się zatem, że byłby on raczej skłonny zaakceptować nieuchronność zróżnicowania aniżeli nierówności. Kiedy rozmawiałem z nim po raz ostatni, na krótko przed śmiercią, wówczas – nie całkiem przeze mnie sprowokowany – zaczął przekonywać mnie, że wbrew panującemu powszechnie przekonaniu nie jest tak, jakoby pełne zatrudnienie było rzeczą niemożliwą do osiągnięcia. To oczywiście zaskakujące. Wskazuje bowiem, że Popper w 1994 r., u początku tryumfalnego marszu neoliberalizmu, dopuszczał konstruktywistyczną, Keynesowską politykę władz państwowych ingerujących w sferę ekonomii, aby zapewnić ludziom pracę, a tym samym środki do życia. Jest to podejście zupełnie inne od neoliberalizmu Miltona Friedmana czy też neoliberalizmu, który znamy z rodzimej debaty publicznej. Myślę, że egalitaryzm Poppera, który bardzo silnie dawał o sobie znać w jego polemice z Platonem zamieszczonej w „Społeczeństwie otwartym…” pod koniec życia przybrał tę właśnie szczególną postać.

Jednak wydaje się, że próba zlikwidowania nierówności ma charakter utopijny, a przez to walka z nimi może wykraczać poza aprobowane przez Poppera metody inżynierii społecznej.

Pamiętajmy, że Popper odróżnia cząstkową inżynierię społeczną od holistycznej, i choć tę drugą nazywa utopijną, to pierwszą uważa za całkowicie możliwą, dopuszczalną i potrzebną. Sądzę, że pod tym względem Popper ma rację i cząstkowa inżynieria społeczna pozostaje nie tylko nieuchronną, lecz także konieczną opcją w rozwiązywaniu rozmaitych problemów społecznych, również problemu nierówności.

Zajmuję się tym głębiej z racji zainteresowania sprawami miejskimi i uważam, że miasta stanowią znakomity przykład praktycznego działania inżynierii społecznej. Nie holistycznej, ale właśnie cząstkowej, która pozostaje nieusuwalnym elementem kształtowania polityki każdego miasta. Oczywiście, miasta, kształtując swoją politykę, popełniają błędy, jednak dzięki temu, że mogą uczyć się na tego rodzaju potknięciach, nie są to porażki fatalne.

Warto pamiętać, że to właśnie miasta – w których od roku 2007 mieszka ponad połowa ludności – staną się miejscem, gdzie nierówności będą się koncentrowały w coraz większym stopniu. Miasta będą więc musiały rozwiązać owe problemy, stając się zarazem miejscem codziennego stosowania cząstkowej inżynierii społecznej. Trudno powiedzieć, z jakim skutkiem. Pod tym względem jestem realistycznym pesymistą.

Dlaczego realistycznym pesymistą?

Między innymi od Poppera nauczyłem się, że chociaż nie wszyscy możemy zarządzać sprawami publicznymi, to wszyscy mamy prawo, a właściwie obowiązek angażować się w życie publiczne i wyrażać swoje zdanie. Tymczasem mamy obecnie do czynienia z nasilającą się społeczną pasywnością, biernością i zobojętnieniem. Ludzie uważają, że rządy ekspertów rozwiążą za nas wszystkie problemy. Nie czują potrzeby, by samemu interesować się otoczeniem i podejmować próby, by na nie wpływać. Stąd właśnie mój pesymizm.

W czerwcu bieżącego roku minęła 25. rocznica pierwszych częściowo wolnych wyborów. Zastanawia mnie, czy Popper uznałby model polskich przemian za zgodny ze swoją wizją transformacji do społeczeństwa otwartego?

Nie było chyba bardziej znaczącego myśliciela dla polskiej opozycji niż Popper. Jego „Społeczeństwo otwarte i jego wrogowie” oraz „Nędza historycyzmu” ukształtowały myślenie znacznej części polskiej opozycji demokratycznej w stopniu większym niż inni współcześni liberałowie. Wychowałem się w czasach, gdy nazwisko Poppera było powszechnie znane; znali go studenci, znali czytelnicy gazet. Do tej znajomości sam się przyczyniłem.

Jednakże pewien incydent uświadomił mi, że po transformacji z roku 1989 nastąpiła głęboka zmiana nie tylko w rozumieniu roli Poppera dla polskich przemian demokratycznych, lecz także w rozumieniu nowej rzeczywistości oraz osobistych celów jednostek składających się na polskie społeczeństwo. Oto bowiem, przekonany o powszechnej znajomość nazwiska i dzieła Poppera wśród moich studentów, poprosiłem ich, aby w poszukiwaniu inspiracji dla swoich esejów zaliczeniowych przeczytali pewien rozdział „z Poppera”. Po wykładzie podeszła do mnie jedna ze studentek i zapytała, czy mówiłem poważnie. Pytam, o co chodzi. „No, o to – odpowiedziała – że rekomendował nam pan czytanie Pottera. Harry’ego Pottera?”. To był dla mnie znak, że w polskiej świadomości społecznej nastąpiła istotna zmiana: otwartość społeczeństwa zaczęła być traktowana jako oczywistość. Pojawiły się również tendencje do jego ponownego zamykania.

Kiedy to było?

Mniej więcej piętnaście lat temu. Można powiedzieć, że myśl Poppera wykonała swoje zadanie w społeczeństwie polskim i jako już niepotrzebna została zapomniana. Od tego czasu odgrywa w przeważającej mierze rolę historyczną.

Skąd zatem – przy tak dużym znaczeniu Poppera – ostatnie głosy krytyczne padające z ust polskich liberałów, między innymi profesora Marcina Króla, który potępił rolę, jaką neoliberalizm odegrał we wprowadzaniu zmian?

Nie należy zapominać, że zarówno popperowska kategoria społeczeństwa otwartego, jak i jego krytyka historycyzmu, argumenty skierowane przeciw Heglowi, Marksowi i innym historycystom były formułowane z punktu widzenia liberalizmu „zimnowojennego”. Niektórzy wręcz oskarżali Poppera, że publikując „Społeczeństwo otwarte…” zainicjował zimną wojnę na płaszczyźnie ideologicznej. Według niektórych, wskutek owej „zimnowojennej” retoryki, koncepcje Poppera uległy dezaktualizacji. Jest to w znacznej mierze prawda, ponieważ w ogniu ówczesnej walki potrzebne były inne narzędzia – także teoretyczne – niż obecnie. Przykładowo: zarówno w teorii Poppera, jak i u bardziej wyrafinowanego oraz socjaldemokratycznego Rawlsa brakuje kategorii wspólnoty. Tę zaproponowali dopiero komunitarianie w reakcji na uproszczony indywidualizm ówczesnego liberalizmu. Uważam jednak, że nadal z lektury Poppera możemy się sporo nauczyć. Wiele jego idei tak głęboko weszło w krwioobieg dyskursu naukowego i politycznego, że nawet nie uświadamiamy sobie ani ich nowatorstwa, ani tego, że ich autorem był Popper.

Powrócę jednak do pytania o to, jak Popper oceniłbym naszą transformację. Sądzę, że podobnie jak większość krytyków i publicystów wydałby jej ocenę pozytywną pod względem politycznym – ponieważ ona rzeczywiście dała nam to, co najważniejsze dla demokracji, wolność słowa i wolność stowarzyszania się. Myślę jednak, że byłby krytyczny w stosunku do nierówności ekonomicznych, które pojawiły się wskutek transformacji i pozostają większe niż chociażby w Niemczech, do których Popper miał ogromną sympatię. Egalitaryzm, który mocno daje o sobie znać w „Społeczeństwie otwartym…” nie jest ograniczony do wąsko rozumianej sfery politycznej, przełożył się bowiem także na jego myślenie o sprawach ekonomicznych.

Poruszył pan kwestię rządów ekspertów. Wydaje się, że w Polsce idea ta cieszy się niesłabnącą popularnością – najpierw rząd Belki, teraz niedoszły rząd Glińskiego. Do tego dochodzi „polityka ciepłej wody w kranie” Tuska. Czy Popper poparłby tego rodzaju rządy, jako system, w którym władza trafia w ręce „zawodowych” inżynierów społecznych?

Idea rządów ekspertów to próba depolityzacji polityki przez odwołanie się do kategorii eksperta jako osoby mającej obiektywną wiedzę o materii społecznej i ekonomicznej. Ma umożliwić ucieczkę od antagonizmów i politycznego „zideologizowania” rzeczywistości. Do pewnego stopnia rozumiem, o co w niej chodzi: mianowicie o możliwość podejmowania ugruntowanych i uzasadnionych decyzji społecznych i ekonomicznych w oderwaniu od codziennych targów i zatargów partyjnych, które są w stanie sparaliżować każdy rozumny proces. Obserwując życie partyjne w Polsce, nabieram przekonania, że przez ostatnie 25 lat polska polityka jest niczym innym jak tylko zorganizowanym i systemowym marnotrawieniem naszego czasu politycznego. Polska polityka jest może nie tyle brudna i skorumpowana, ile po prostu głupia. To właśnie odstrasza od polityki i buduje poparcie dla idei „rządu ekspertów”.

W świetle powyższego do pewnego stopnia sam byłbym zwolennikiem tzw. rządów ekspertów, mających możliwość nieskrępowanego działania w realizacji postawionych przed nimi celów. Podobnie uważa Jerzy Hausner, który narzeka, że w Polsce nie ma ośrodka myśli strategicznej, którego rekomendacje i wskazania byłyby ponadto respektowane przez polityków. Jednakże na głębszym poziomie rządy ekspertów są same w sobie na wskroś ideologiczne i politycznie niebezpieczne.

Po pierwsze, nie ma działania w sferze społecznej, które nie kierowałoby się jakąś ideą; każda idea natomiast ma swoją ideę przeciwstawną, co naturalnie prowadzi do sporów ideologicznych. Po drugie, nie ma działania w sferze społecznej, które nie powodowałoby konsekwencji politycznych. Po trzecie, ufność w czyjąkolwiek obiektywną i niepodważalną wiedzę stoi w głębokiej sprzeczności z popperowską ideą samozwrotności rozumienia społeczeństwa oraz działań społecznych opartych na tej wiedzy. A zatem nic takiego jak ostateczna prawda o społeczeństwie nie istnieje. Po czwarte, ufność w rzekomą wiedzę ekspertów czy fachowców często oznacza rezygnację z udziału w kształtowaniu celów i sposobów działania społecznego przez jednostki, które takiej wiedzy sami sobie nie przypisują. To prosta droga do autorytaryzmu, tj. do zamknięcia społeczeństwa. Z czymś takim mamy obecnie do czynienia. Nadal wierzę, że jedynym lekarstwem na deficyty demokracji jest większa dawka demokracji, choć być może to wiara coraz bardziej utopijna.

Wydaje się, że drogą do budowania postaw obywatelskich jest odpowiednio zaplanowany proces edukacji. Czy mógłby pan przypomnieć, jak według Poppera powinna wyglądać rola edukacji?

Myślę, że poglądy Poppera na kwestie wychowania i edukacji świetnie ilustruje jego własna metoda nauczania. On był bardzo twórczym nauczycielem. Od ucznia Poppera, Johna Watkinsa, usłyszałem anegdotę o sposobie prowadzenia zajęć przez jednego z bardzo szanowanych profesorów London School of Economics. Profesor ów przed wykładem wyciągał z brustaszy malutką karteczkę, zerkał na nią, wkładał z powrotem i zaczynał mówić. Watkins opowiadał, że pewnego dnia rzeczonemu profesorowi pomyliły się karteczki i zaczął prezentować wykład, który z pewnością nie należał do tego przedmiotu. Po pewnym czasie zrozumiał, że popełnił błąd, sięgnął drugi raz do tej kieszonki, wyciągnął inną karteczkę i rozpoczął wykład od nowa, tym razem ów właściwy.

U Poppera takie rzeczy się nie zdarzały. Przychodził na wykład, formułował jego temat, a następnie wykonywał pracę myślenia na głos. W jego umyśle odbywał się podczas wykładu proces twórczy, dzielił się tym procesem ze studentami, w ten sposób zaś studenci sami byli uczestnikami autentycznego procesu myślenia. Kto dał się w ten proces wciągnąć, współmyślał razem z nim i nie był zaledwie pasywnym odbiorcą treści przygotowanych wcześniej przez wykładowcę.

W Polsce mamy bardzo dobre szkoły, moim zdaniem nasi nauczyciele są bohaterami w swojej pracy, o czym świadczą sukcesy międzynarodowe ich uczniów. Jednak obecny program nie pozwala na krytyczne myślenie, na prowokowanie uczniów do krytycznego myślenia, zadawania pytań. Jest to bowiem trudniejsze, wymaga mniejszych grup uczniowskich, a na to wszystko wciąż nie ma odpowiedniej ilości pieniędzy. Przekłada się to na późniejsze problemy z innowacyjnością. Jej brak jest problemem cywilizacyjnym, przed którym stoi Polska.

A co z rolą państwa w procesie nauczania? Czy nie powinna być ona mniejsza? Niektórzy obawiają się, że obecnie rząd może mieć – między innymi za sprawą jednego wspólnego i darmowego podręcznika – zbyt duży wpływ na umysły młodych ludzi.

Nie przesadzałbym z taką obawą. Myślę, że motywacja do tego, by stworzyć jeden podręcznik, miała charakter egalitarny – by zmniejszyć koszty ponoszone przez rodziców. Mieliśmy kiedyś jeden elementarz Falskiego i to wcale nie oznacza, że wszyscy wówczas nauczani wyszliśmy kompletnie indoktrynowani, choć podręcznik ten nie był pozbawiony wad.

Oczywiście Popper byłby prawdopodobnie przeciwnikiem jednego podręcznika, ale z drugiej strony nie był przeciwnikiem aktywnego zaangażowania państwa w proces edukacji czy zapewniania przez nie prawa do edukacji dla wszystkich. W wypadku otwartego rynku szkolnego nie udało się, mimo działania zespołu ministerialnych recenzentów, uniknąć ideologizacji treści w podręcznikach. Dodatkowo dochodzi tu także do takich patologii jak przekupywanie nauczycieli przez wydawców.

Radykalną odpowiedzią na rzekome zagrożenie ideologizacji procesu nauczania są metody alternatywne wobec państwowego systemu, na przykład nauczanie w domu, które w Polsce – za Stanami Zjednoczonymi – staje się coraz modniejsze. Zwolennikami takiej formy nauczania są przede wszystkim osoby należące do zrzeszeń religijnych. Ja również czasami z niepokojem zastanawiam się, czego moje dziecko będzie uczone w szkole. Kiedy jednak pytam siebie, czy jestem w stanie edukować swoje dziecko lepiej, niż czyni to publiczna szkoła, odpowiedź pozostaje negatywna. Uważam, że trzeba zaufać specjalistom i nie będę się wahał przed posłaniem dziecka do szkoły publicznej.

Popperowi wydawało się, że „zabił” historycyzm, w którym widział głównego wroga demokracji i społeczeństwa otwartego…

Rzeczywiście, Popper sądził, że za sprawą argumentów przedstawionych w „Nędzy historycyzmu” ta doktryna już się nie podniesie. Przypomnijmy, że sformułowany przez niego argument antyhistorycystyczny opiera się na założeniu, że skoro nie możemy przewidzieć kierunku rozwoju naszej wiedzy – tego, co zostanie odkryte jutro, pojutrze, czy w dalszej przyszłości – to nie możemy przewidzieć również samej przyszłości. Konsekwencje odkryć naukowych dla przebiegu historii, rozwoju cywilizacji są zatem nieprzewidywalne. To inna postać argumentu o samozwrotności wiedzy o rzeczywistości i samej rzeczywistości.

Moim zdaniem Popper był pod tym względem zbyt radykalny i optymistyczny. Wielu krytyków, również tych, którzy z sympatią odnosili się do popperowskiej argumentacji, uważa, że jakkolwiek historią nie rządzą żelazne prawa podobne do prawidłowości władających światem przyrodniczym, to mimo wszystko można mówić o pewnych trendach czy tendencjach historycznych, które pozwalają domyślać się wizji przyszłości. Popper uważał, że każde rozumowanie oparte na argumencie indukcjonistycznym jest niedopuszczalne. Kiedy więc wsiada pan do samolotu i liczy na bezpieczny start i bezpieczne lądowanie, ponieważ pański samolot wykonał już w przeszłości tysiące bezpiecznych startów i lądowań, to według Poppera popełnia pan poważny. Indukcja zawodzi, tym samym katastrofa może się przydarzyć bez względu na dotychczasowe sprawne funkcjonowanie maszyny.

Krytycy zwracają jednak uwagę, że filozofia Poppera także częściowo oparta jest – jak w wypadku procedury koroboracji – na ukrytym argumencie indukcjonistycznym.

Uważam, że Popper był zbyt radykalnym antyindukcjonistą, a zarazem nie potrafił przyznać, że jego idea potwierdzania – koroboracji – ma w istocie charakter indukcjonistyczny. Oczywiście, przewidywanie przyszłości w sprawach społecznych czy politycznych jest wyjątkowo trudne. Z całą pewnością jednak istnieją, jak wspomniałem, pewne trendy – choć nie prawa – które można zaobserwować i przewidywać ich ogólne skutki. Te trendy mogą zanikać, przeobrażać się w inne, ale badając je, możemy stawiać pewne ogólnikowe prognozy na temat kierunku rozwoju cywilizacji. Wydaje mi się, że Popper w swoim tępieniu historycyzmu był zbyt ideologiczny. Jego poglądy należałoby więc nieco zrewidować.

Przyjrzyjmy się dwóm szczególnym teoriom historycystycznym: „końcowi historii” i „starciu cywilizacji”. Czy one również stanowią zagrożenie dla społeczeństwa otwartego, skoro odwołują się do idei demokracji?

Jedna i druga jest obdarzona tą cechą, którą Popper krytykował w myśleniu historycystycznym – przekonaniem o nieuchronności tego, co się zdarzy, albo tego, co się już zdarzyło. U Francisa Fukuyamy mamy przekonanie, że zwycięstwo liberalnej demokracji było czymś nieuchronnym. Że ludzkość – po tysiącach lat błądzenia, uwikłania w zbrodnicze ideologie – nagle przyszła do rozumu i odkryła, że liberalna demokracja budowana na wzór dyskusji naukowej jest ostateczną i jedynie słuszną odpowiedzią na wszelkie polityczne problemy i pytania.

To zwalnia z jakiejkolwiek odpowiedzialności pojedynczego człowieka…

Tak. To samo dotyczy idei „starcia cywilizacji”, o której nie mam dobrego zdania. Samuel Huntington, nie całkiem mimowolnie stał się ideologiem przyszłej wojny w Iraku. Wiemy teraz, że ta ideologia i ta wojna skończyła się fatalnie: okazuje się obecnie, że ogromna ofiara ludzkiego życia, zniszczeń materialnych i kosztów ekonomicznych poszła na marne. Konserwatywny neoliberalizm, który w swoim zadufaniu rozpoczął wojnę na Bliskim Wschodzie, poniósł totalną klęskę. To paradoks, ale ów liberalny konserwatyzm posługiwał się, wbrew klasykom konserwatyzmu i liberalizmu, nie tyle cząstkową, ile holistyczną inżynierię społeczną. Najlepiej wyraża to idea „budowania narodu” (nation-building), czego zwolennikami byli ówcześni konserwatyści, w tym Fukuyama. To jest z pewnością sprzeczne z ideami Poppera, który przeciwstawiał się totalitaryzmom opartym na założeniu, że aby uzyskać społeczną szczęśliwość, najpierw należy „oczyścić” zepsute podłoże. Wojna w Iraku zadłużyła Stany Zjednoczone tak bardzo, że zaciągnięte długi będą spłacane przez trzy kolejne pokolenia. Kilka lat później ugrupowanie ISIS zawładnęło jedną trzecią Iraku. Można powiedzieć, że to totalna klęska. Ameryka ponownie wysyła tam wojska.

Huntington później wydał również „Who We Are?”, książkę, którą można uznać za próbę wzbudzenia ideologicznej wojny domowej w samych Stanach Zjednoczonych. Chodziło mianowicie o to, że w USA jest tak dużo napływowej ludności hiszpańskojęzycznej, że język hiszpański stanie się niebawem językiem używanym przez większą część obywateli Stanów Zjednoczonych niż język angielski. Oczywiście, oprócz tego chodziło też o argument ekonomiczny: chicanos zabierają Amerykanom pracę. Z książki tej płyną implikacje, jakoby tradycyjnie zbudowana tożsamość narodowa Amerykanów domagała się skłonienia w stronę bardziej radykalnej polityki antyimigracyjnej. Wskutek tego była przedmiotem bardzo krytycznej reakcji w USA.

Myślę, że głoszenie nieuchronności wojny, jak sugeruje Huntington w „Zderzeniu cywilizacji…”, rzeczywiście może do niej doprowadzić. Wierzę w interwencyjną, sprawczą siłę filozofii; przykład ów pokazuje, że tego rodzaju interwencja nie zawsze musi być pozytywna: filozofowie też są omylni – to kolejna popperowska lekcja. Myślenie ekskluzywistyczne, jakie zademonstrował Huntington, jest zagrożeniem dla społeczeństwa otwartego, które musi być przychylne dla inności i zróżnicowania. Wzywanie do zamykania się na „Obcych” jest przejawem nietolerancji i jedynie pomnaża konflikty, które w przeciwnym razie byłyby do uniknięcia. Zarazem jest fałszywym rozwiązaniem prawdziwych problemów, które tkwią w strukturze społecznej.

A jak wygląda kondycja współczesnego marksizmu, głównego – zdaniem Poppera –wroga społeczeństwa otwartego?

W Polsce kondycja współczesnego marksizmu jest fatalna. Myśl lewicowa, która inspiruje się Marksem, została niemal całkowicie rozbita. Jednakże w innych krajach wygląda to zupełnie inaczej. Marksizm stał się źródłem inspiracji dla zaskakująco rozmaitych nurtów, jak chociażby komunitarian i ulubionego przeze mnie Alasdaira MacIntyre’a, tomisty, człowieka Kościoła, katolika, który bardzo mocno inspiruje się marksizmem i wcale tego mnie ukrywa. Marksizm działa także bardzo silnie na gruncie chrześcijańskiej teologii wyzwolenia. Funkcjonuje też w strukturach uczelni takiej jak Oksford. Myśl Marksa krytycznie kontynuują Terry Eagleton czy Perry Anderson.

Jest to oczywiście inny marksizm, niż ten, który znamy z Polski – zideologizowany, zdogmatyzowany i niezdolny do samorozwoju. Marksa nie można traktować jak bożka, ale nie można też upatrywać w nim wcielenia wszelkiego zła. Jego nacisk na egalitaryzm, krytyka pewnych tendencji kapitalizmu czy nierówności jest wciąż wartościowa i inspirująca. Jeśli pozwolimy mu mówić do nas jako jednemu spośród wielu myślicieli, to możemy się od niego wiele nauczyć.

Jednak Popper zdawał sobie sprawę, że społeczeństwo otwarte może być również zagrożeniem dla siebie samego.

Oczywiście. To dobry moment, by nawiązać do znanego eseju Kołakowskiego „Samozatrucie otwartego społeczeństwa”, w którym wskazał on na niebezpieczeństwa wynikające z otwarcia społeczeństwa na zjawiska, które mu mogą zagrażać. Jeśli społeczeństwo jest zbyt otwarte, wówczas samo z siebie może wyhodować siły, które doprowadzą do jego zamknięcia. Sam Popper analizuje te zagrożenia; pisze mianowicie m.in. o paradoksie demokracji i paradoksie tolerancji. Paradoks demokracji polega na tym, że większość w demokratyczny sposób może wybrać na władcę tyrana, który zniesie demokrację. Zgodnie z paradoksem tolerancji nieograniczone przyzwolenie może doprowadzić do zniesienia tolerancji.

Przy okazji wspomnę, że esej Kołakowskiego posłużył jako wprowadzenie do „Społeczeństwa otwartego…” w jego polskim, podziemnym wydaniu. Odbyło się to bez zgody Poppera i sprawiło, że Popper mocno obraził się na Kołakowskiego. Do końca życia utrzymywał, że Kołakowski go nie zrozumiał.

Popper wspomina również o zagrożeniach płynących ze strony „społeczeństwa abstrakcyjnego”.

Wizja społeczeństwa abstrakcyjnego, jaką Popper snuje pod koniec „Społeczeństwa otwartego…” pozostaje bardzo ciekawa i aktualna. Od pewnego czasu mieszkam w miejscu, które sprawia, że żyję trochę tak, jak pisał Popper: zjeżdżam bezpośrednio windą do garażu, zamykam się w samochodzie, ze światem zewnętrznym komunikuję się za pomocą telefonu i poczty elektronicznej. Postęp technologiczny sprawia, że teraz znacznie łatwiej niż wcześniej możemy się oderwać – abstrahować – od tych aspektów obecności innych ludzi, które nas niekiedy odpychają, zwłaszcza w przepełnionym tramwaju, pociągu czy autobusie. Innymi słowy, w 1945 r. Popper przeczuwał, że w społeczeństwie demokratycznym może dojść do takiego zubożenia relacji międzyludzkich, że będzie ono zasługiwało na miano jedynie abstrakcyjnego.

Wydaje się, że problem ten obecnie jeszcze bardziej się nasila.

Tak, także dzięki najnowszym urządzeniom technologii komunikacyjnych. Powstały one po to, aby ułatwiać nam komunikację z innymi, ale okazuje się, że wiodą do zjawiska wręcz odwrotnego. Mamy bowiem do czynienia ze zjawiskiem interpasywności – sama świadomość, że możemy się skontaktować z innymi za pomocą poczty elektronicznej, Facebooka czy innych narzędzi, sprawia, że przestajemy się z nimi komunikować. Maszyna robi to za nas albo robimy to sami z bardzo niewielkim zaangażowaniem, np. za pomocą kliknięcia „Lubię to!”.

To, co nazywamy mediami społecznościowymi, pozwala nam w istocie demonstrować swoją obecność innym ludziom za pomocą minimalnego wysiłku, za pomocą jednego kliknięcia. Facebook jest właściwie tablicą służącą publikacji oświadczeń, które „znajomi” mogą zobaczyć i skomentować, czego zazwyczaj nie czynią, albowiem są zajęci pisaniem własnych oświadczeń. W ten sposób Facebook i podobne media stają się w istocie mediami antyspołecznymi, ponieważ bycie w relacji z innymi wymaga zazwyczaj większego wysiłku niż przesuwanie palcem po ekranie tabletu. Te media, które izolują nas od bliskości z innymi, redukują do minimum możliwość prawdziwej dyskusji i dialogu, którym zawdzięczamy nasze człowieczeństwo i w których uczestnictwo jest warunkiem jego zachowania.

Czy te zmiany będą miały wpływ na demokrację?

Uczestnictwo w autentycznym dialogu jest też warunkiem autentycznej demokracji. Jego brak jest więc poważnym zagrożeniem. Najbardziej radykalny ideał demokracji sformułował szkocki myśliciel Adam Ferguson. Pisał o demokracji antagonistycznej, która czasem wymaga poświęcenia, nieraz nawet poświęcenia życia, zaangażowania w spór, demonstrację, walkę. Nie był z pewnością takim radykałem jak jakobini, ale był przekonany, że właśnie w tych kłótniach, sporach, burdach, zamieszkach czy w rewolucjach przejawia się autentyczna władza ludu.

Jednak wzrost dobrobytu w ciągu ostatnich 25 lat, chociaż mocno nierówny, doprowadził do tego, że zamknęliśmy się – jak powiedziałby Hegel – w prywatnych duchowych klatkach naszego ogrodu zoologicznego. Każdy z nas siedzi we własnej klatce i pogrąża się w swej prywatności. Minione ćwierćwiecze to proces prywatyzowania społeczeństwa. Zajęci konsumpcją tego, co oferują nam rynek i media masowe, na co stać nas dzięki naszemu zatrudnieniu, chowamy się w prywatności własnego życia, lekceważąc sprawy publiczne. W mniejszym stopniu dotyczy to młodych ludzi, którzy cierpią dzisiaj na poważne problemy wynikające z braku perspektyw życiowych i są całkowicie zabłąkani, ponieważ nikt nie jest w stanie zaoferować im sensownej odpowiedzi na ich fundamentalne i egzystencjalne pytania.

Pewnym przykładem takiego zaangażowania były protesty przeciwko ACTA.

Niech pan zauważy, że w wypadku ACTA władze publiczne chciały przepuścić atak na to, co dla młodych jest szczególnie ważne – darmowy dostęp do muzyki i innych dóbr kultury. Bunt był w tym wypadku oczywiście zrozumiały, ale dotyczył pewnej specyficznej wolności – wolności do zawłaszczania czegoś, co zostało wytworzone przez innych ludzi. Mimo to powszechność protestu przeciwko ACTA wskazuje, że potencjał do buntu istnieje.

Podobna sytuacja zaistniałaby, gdyby ludziom zabrano telewizję: wyszliby na ulice, domagając się jej przywrócenia, by móc z powrotem wrócić do domów i zasiąść przez telewizorami. To świadczy o potędze mediów elektronicznych. Zwłaszcza telewizja znakomicie służy do zarządzania społeczeństwem, budowania jego potrzeb konsumpcyjnych, kształtowania jego sposobów myślenia i tak dalej. A więc mimo że potencjał do buntu tkwi w ludziach, przejawia się on zazwyczaj jedynie w sytuacji zagrożenia status quo, do którego przywykli i który daje im komfort. Potencjał buntu nakierowanego na realizację nowych, alternatywnych wizji życia społecznego niemal nie istnieje.

Popper zaczyna swój szkic idei historycystycznej od krytyki filozofii Heraklita – filozofa, który głosił, że „wszystko płynie”. Dzisiaj – jak diagnozuje Zygmunt Bauman – znów żyjemy w płynnej rzeczywistości. Czy wobec tego należy się spodziewać nasilenia tendencji antydemokratycznych?

Zestawia pan w tym pytaniu dwie, można powiedzieć, nieprawdopodobne postaci, które łączy z sobą coś ważkiego – kategoria płynności. Z jednej strony Heraklit, stojący u początków europejskiej historii intelektualnej, z drugiej strony Zygmunt Bauman, stojący u kresu epoki nowoczesnej, zwiastujący epokę postnowoczesną.

Waga idei Heraklita jest ogromna. Sofiści z klasycznego okresu ateńskiego nie zbudowali własnej ontologii, ponieważ uznali za trafną ideologię Heraklita wraz z jej kategorią płynności. Przyjąwszy ontologię heraklitejską, zajęli się sprawami społecznymi i stali się nauczycielami greckiej demokracji. Ich intelektualna reakcja na nieuchronność praw natury ma w sobie coś z późniejszego ducha protestantyzmu, który w reakcji na wszechmoc bożą nie pogrążył się w kwietyzmie, lecz przyjął aktywistyczną postawę wobec świata. Uznawszy przekonanie Heraklita o nieuchronności praw natury, sofiści nie uznali zarazem, że w świecie społecznym niczego nie da się zmienić. Można powiedzieć, że byli prekursorami cząstkowej inżynierii społecznej. Nie zaakceptowali również Heraklitejskiego antydemokratyzmu. W swoim radykalnym racjonalizmie Heraklit był bowiem przekonany, że większość ludzi jest pozbawiona rozumu, że swoje decyzje podejmują pod wpływem chwilowych upodobań i zwodniczych zmysłów. Dla niego lud to tłum, plebs, ochlos. Sofistów ożywiało przekonanie, które określam mianem egalitaryzmu epistemologicznego.

Później idee Heraklita zyskały potężnego zwolennika w osobie Hegla. Jednak idea płynności jest również wpisana w popperowskie rozumienie nauki, co uwydatnił Joseph Agassi w jego niepublikowanym doktoracie „Science in Flux” oraz John Watkins w „Science and Scepticism”. W wypadku Baumana zaś „płynna rzeczywistość” z całą pewnością uświadamia nam, że to, co uznawaliśmy za trwały grunt, usuwa nam się spod nóg i zmienia. Coraz bardziej we własnym życiu odczuwamy, jak dużo wysiłku nieustannie trzeba wkładać, by pozostać na fali i nie utonąć w morzu przemian. W niektórych przypadkach niechęć do przemian rodzi bunt i pragnienie ucieczki. Popper trafnie opisuje tę reakcję psychologiczną, wskazując na pragnienie „zatrzymania zmiany” (arresting the change). Pragnienie zatrzymania zmiany społecznej przybiera też postać antydemokratycznych czy autorytarnych tendencji wśród osób, które nie radzą sobie z zaakceptowaniem przemian, które nie potrafią się wśród nich odnaleźć. Szukają jakiejś trwałej bazy czy niszy, gdzie mogliby przetrwać niewystawieni na konsekwencje owych przemian. Fundamentalizm religijny czy nacjonalistyczny to nic innego jak tylko próba znalezienia lub odzyskania punktu oparcia, który daje niepodważalną pewność.

Czy zatem rola fundamentalizmów będzie w świecie „płynnej rzeczywistości” wzrastać?

Tendencje antydemokratyczne to dialektyczny produkt płynności, jaka nas ogarnia. Popper ma pod tym względem rację. Jednakże sądzę, że jak Marks sformułował krytykę kapitalizmu, lecz nie sformułował propozycji alternatywnego społeczeństwa socjalistycznego, owego raju, który miałby na nas czekać, tak Popper sformułował dobrą krytykę historycyzmu, lecz nie sformułował odpowiedzi na szereg pytań odnośnie do konsekwencji, które nastąpią, gdy społeczeństwo zamknięte otworzymy.

W jednym z esejów opublikowanym w „The New York Times” Vaclav Havel wskazywał na wiarę opozycjonistów, którzy sądzili, że kiedy przyjdzie upragniona wolność, to ludzie po prostu staną się dobrzy. Okazało się jednak, że zerwanie krępujących kajdan doprowadziło do ujawnienia wszelkiego możliwego występku, który tkwi w człowieku. Obalony reżim wykorzystywał te występki dla swojego funkcjonowania, zarazem je represjonując. Kiedy okowy tego reżimu znikły, to wszystko zło wyszło na jaw w nieskrępowany sposób. Ujawniły się ksenofobie, zawiść i wrogość. Publicznie i bezwstydnie zdemaskowały się te paskudne gęby, które tkwiły w nas samych.

Havel uważał, że zmiana na lepsze będzie wymagała kilku pokoleń edukacji. Czy miał rację? W jego odpowiedzi tkwi przekonanie, że społeczeństwo ma jakąś naturalną tendencję do stabilizowania się i doskonalenia, że społeczeństwa mają w sobie busolę, która wskazuje im kierunek rozwoju. Bauman uważa raczej, że społeczeństwo będzie nieustannie płynne, będzie nieustannie podlegało transformacji nieukierunkowanej na żaden określony cel. W reakcji na te przemiany będą się nieuchronnie ujawniały coraz to nowe, nieprzewidywalne problemy, a tym samym będziemy musieli podejmować się ich rozwiązywania, nie mając pewności co do skuteczności dotychczasowych metod. Czy uda nam się nadążyć za niespodziankami, jakie ujawnią owe dynamiczne przemiany? Pod tym względem jestem bardzo umiarkowanym optymistą.

Czy demokracja i społeczeństwo otwarte przegrają? Na Zachodzie obserwujemy coraz większą fascynację chińskim autorytaryzmem.

Z całą pewnością kapitalizm państwowy, jaki oferują Chiny czy Korea Południowa, może się wydawać atrakcyjną opcją. Nie tylko dla polityków, lecz także dla społeczeństwa. Kapitalizm pozwala nam budować coraz większy dobrobyt. W zamian za bardziej komfortowe życie oddajemy się we władzę systemu, nad którym nie mamy kontroli. Aby przetrwać, nie musimy się angażować w walkę polityczną czy w debatę polityczną, jakiej wymaga od nas idea społeczeństwa otwartego.

Na Zachodzie za fundamentalną uznajemy ideę praw człowieka. Jednak, po pierwsze, nie jest to kategoria niekontrowersyjna; pierwsi krytycy uznawali wszak kategorię praw człowieka za absurd na szczudłach. Po drugie, kategoria praw człowieka zaczęła niedawno służyć światu zachodniemu za narzędzie uzasadniania interwencji wojennych w różnych regionach, co nie przysparza jej zwolenników poza zachodnim kręgiem kulturowym i podważa deklarowaną uniwersalność tej idei. Po trzecie, obecnie, wraz ze zmianami społecznymi, coraz łatwiej zgadzamy się na ich nieprzestrzeganie przez rządy i rezygnujemy z walki o własne prawa.

To zatem kolejny powód do pesymistycznych konkluzji. Tym bardziej że idea społeczeństwa otwartego, jaką formułował Popper w połowie minionego stulecia, dotyczyła społeczeństwa o zupełnie innym kształcie. Zwiększyła się liczba ludności, społeczeństwa stały się bardziej masowe. Nasila się tendencja do odchodzenia od demokracji opartej na modelu partycypacji, tym samym mamy obecnie do czynienia z umacnianiem się modelu zarządzania społeczeństwem, który przypomina zarządzanie tłumem: crowd management. Można więc powiedzieć, że dzisiaj idea społeczeństwa otwartego jest w odwrocie.

Rozmawiał: Tomasz Chabinka

Artykuł ukazał się w XIX numerze kwartalnika Liberté!

Atlas wzruszył ramionami. Czym kusi Ayn Rand :)

Zgodnie z przeprowadzonym w 1991 r. badaniem zleconym przez amerykańską Bibliotekę Kongresu najpopularniejszą książką w Stanach Zjednoczonych, nie wliczając Biblii, był „Atlas zbuntowany” („Atlas Shrugged”) pisarki i publicystki libertariańskiej Ayn Rand. Ta rozmiarami przypominająca encyklopedię książka najwidoczniej przypadła do gustu Amerykanom, choć jednocześnie wzbudziła mnóstwo kontrowersji w środowiskach nieutożsamiających się z przekonaniami i swoistą filozofią promowanymi przez Rand. Zarzucano jej zarówno faszyzm, jak i nazizm, oskarżano o rekomendowanie dyskryminacji i elitaryzmu, określano mianem nietzscheanistki odbudowującej radykalnie nihilistyczną antropologię oraz obrończyni patologicznych zachowań chciwych przedsiębiorców. Czym jednak „Atlas zbuntowany” zasłużył sobie na tak wielkie zainteresowanie? Jak to się stało, że ta tysiącstustronicowa książka nieprzerwanie zyskuje nowych wielbicieli?

Jak powstał „Atlas…”?

Nie da się mówić o „Atlasie zbuntowanym” bez przypomnienia, że książka ta jest niewątpliwie opus magnum Ayn Rand. Sformułowanie takie bynajmniej nie zostało ukute przez intelektualistów czy też literaturoznawców, lecz użyła go kiedyś sama autorka. Zadeklarowała mianowicie, że w „Atlasie…” zawarła wszystko, co chciała przekazać czytelnikom za pośrednictwem literatury powieściowej. Tym samym należy widzieć w „Atlasie zbuntowanym” zarazem ostatnią książkę Rand, której szukać będziemy w księgarniach czy bibliotekach pod hasłem „beletrystyka”. I rzeczywiście, od razu po opublikowaniu „Atlasa zbuntowanego” w 1957 r. książka stała się żywym tematem debaty publicznej w Stanach Zjednoczonych, wzbudziła powszechne zainteresowanie społeczeństwa amerykańskiego i to nie wyłącznie tzw. intelektualistów. Na to zainteresowanie wpływ miały również reakcje środowisk politycznych, zarówno prawicowych, jak i lewicowych. „Atlas zbuntowany” doczekał się ekranizacji (z reguły, niestety, nieudanych), a jego fragmenty pojawiały się na deskach teatrów całego świata. Pamiętać trzeba ponadto, że Rand bynajmniej nie była w życiu publicznym powojennych Stanów Zjednoczonych postacią nieznaną i to niewyłącznie za przyczyną swej ostatniej powieści. W sposób szczególny dała się poznać po publikacji jej wcześniejszej powieści zatytułowanej „Źródło” („The Fountainhead”), która ukazała się w 1943 r., a swojej ekranizacji z Garym Cooperem doczekała się już w roku 1949. W Polsce ukazały się także trzy tomy esejów Rand: „Powrót człowieka pierwotnego: rewolucja antyprzemysłowa” („Return of the Primitive”), „Cnota egoizmu: nowa koncepcja egoizmu” („The Virtue of Selfishness: A New Concept of Egoism”) i „Kapitalizm: nieznany ideał” („Capitalism: The Unknown Ideal”) oraz opowiadanie „Hymn” („Anthem”).

Na ostateczny kształt „Atlasa zbuntowanego” wpływ miały – jak zresztą w wypadku wielu innych pisarzy – bezpośrednie życiowe doświadczenia Ayn Rand, zarówno te amerykańskie, jak i – a może w szczególności – te, których nabyła w swojej pierwszej ojczyźnie, a mianowicie w tworzącym się Związku Radzieckim. Wszak Alissa Zinowiewna Rosenbaum, znana właśnie w swoim amerykańskim „wcieleniu” jako Ayn Rand, pochodziła z Sankt Petersburga (w czasach sowieckich Piotrogrodu). Ta urodzona jako córka rosyjskiego Żyda kilkunastoletnia dziewczyna na własne oczy obserwowała niezwykle dynamiczną rzeczywistość po rewolucji październikowej i systematyczne przekształcanie imperium carów w państwo komunistyczne i totalitarne. Niewątpliwie doświadczenia towarzyszące procesowi kolektywizacji i nacjonalizacji, w którego efekcie jej ojcu odebrano aptekę stanowiącą główne źródło utrzymania rodziny, odegrały ogromną rolę w jej późniejszej konstrukcji psychicznej, a także koncepcjach, które znajdziemy w jej pismach z okresu po II wojnie światowej. Wyjazd w roku 1926 do Stanów Zjednoczonych – oficjalnie krótka wizyta u rodziny – stał się dla tej młodej i wykształconej dziewczyny (absolwentki historii, filozofii i scenopisarstwa) przepustką do lepszego świata, w szczególności zaś przepustką do świata wolności. Wyjazd do Stanów Zjednoczonych był więc również nadzieją.

„Atlas zbuntowany” jest więc swoistą ilustracją dla wszystkich tych, którzy widzieli tworzenie się Związku Radzieckiego bądź przyglądali się przekształceniom gospodarczym, społecznym, kulturowym i moralnym dokonującym się w Rosji, a po II wojnie światowej także w krajach Europy Środkowej i Wschodniej. Tłem sytuacyjnym „Atlasa zbuntowanego” jest proces przekształcania się gospodarki amerykańskiej, która – na skutek szeregu regulacji i narastającego poziomu interwencjonizmu państwowego – systematycznie zmierza ku modelowi gospodarki nakazowo-
-rozdzielczej. Książkę Rand można więc umieścić w ramach formuły określanej jako political fiction. Ameryka zaprezentowana w „Atlasie…” to świat regulacji i wzrostu znaczenie władzy państwowej, to świat ciągłego ograniczania wolności gospodarczych, to wreszcie świat, z którego jeden po drugim znikają ludzie, którzy dotychczas kapitalistyczną gospodarkę tworzyli, czyli najwybitniejsi przedsiębiorcy. Rand przenosi swoje doświadczenia z rosyjskiej i radzieckiej młodości na grunt amerykański, jakby chciała powiedzieć, że Ameryka nie uzyskała nigdy immunitetu na wolność od centralizmu i interwencjonizmu państwowego, które są zagrożeniami mogącymi pogrzebać również amerykański kapitalizm, a także tak przecież dotychczas cenioną i wychwalaną amerykańską wolność. Paradoksalnie więc to właśnie Rand – pochodząca z sowieckiej Rosji Żydówka – przywdziewa szaty czołowego obrońcy kapitalizmu i idei american dream.

Nie dziwi więc, że sama Rand uznawała „Atlasa zbuntowanego” za swoje opus magnum. Książka ta była niewątpliwie jej testamentem politycznym i etycznym. Sformułowane w niej koncepcje stanowią podłoże dla systemu określonego później przez nią jako obiektywizm oraz etyki absolutnej, którą tak bardzo promowała do końca swojego życia. Tym samym Rand uczyniła siebie prorokiem kapitalizmu, który obawia się trendów kolektywistycznych i interwencjonistycznych oraz przestrzega społeczeństwo przed ich zgubnym wpływem na gospodarkę i amerykański system polityczny. Pamiętajmy, że przecież Rand żyła w Stanach Zjednoczonych w okresie wprowadzania w życie ustaw związanych z Nowym Ładem prezydenta Franklina Delano Roosevelta, który był dla niej ucieleśnieniem komunizmu. Podobne zjawiska obserwowała w pierwszych latach po przejęciu władzy przez bolszewików – nie powinny dziwić rodzące się strach i obawy, kiedy coraz częściej dostrzegała analogię między jednym i drugim. Co gorsza, okazało się, że po odbiciu się gospodarki amerykańskiej w okresie powojennym władze państwowe bynajmniej nie wycofały się z Rooseveltowskich przekształceń, jak to początkowo planowano, czym – jak dowodziła – jednoznacznie usankcjonowano „usocjalistycznienie” amerykańskiej gospodarki. Nie może być więc zaskoczeniem fakt, że w pierwszym rzędzie popierających Rand i propagujących jej ostatnią powieść znaleźli się przedsiębiorcy, kapitaliści i liberałowie ekonomiczni.

Kim jest Atlas?

Przedsiębiorcy, kapitaliści, liberałowie ekonomiczni, a także wszelkiej maści twórcy idei i specjaliści wykonujący wszelkie możliwe zawody – każdy z nich jest tytułowym Atlasem, który niczym antyczny heros dźwiga na swych barkach świat, podtrzymuje nieboskłon. Rand w każdym z tych ludzi widzi twórcę świata – bez którego rozwój i postęp nie byłyby możliwe, a idea dobrobytu pozostałaby zwykłą mrzonką. Popularność „Atlasa zbuntowanego” wynika z przekonania, jakie Rand umacnia w każdym Amerykaninie, który uczciwie i rzetelnie pracuje, wykonuje swoje obowiązki, przyczyniając się tym samym do wzrostu gospodarczego: jest to przekonanie, że właśnie dzięki takim ludziom Ameryka istnieje i stała się światową potęgą. Przekonywała, że „człowiek tworzący – w jakiejkolwiek dziedzinie racjonalnych przedsięwzięć – idee, człowiek odkrywający nową wiedzę, jest dobroczyńcą całej ludzkości”. Rand swoją książką wpisuje się w głęboko zakorzenioną w amerykańskiej świadomości mitologię wolności i przedsiębiorczości, wedle której każdy jest kowalem własnego losu i dopóki państwo oraz jego instytucje pozostawią go w spokoju, dopóty on będzie rozwijał swoje siły twórcze, uruchamiając tym samym mechanizmy postępu. Książka Rand pokazuje moment, kiedy ów mit upada, a upadek ów jest efektem niszczenia go przez elity polityczne i tych, którzy dążą do uzyskiwania dóbr, lecz nie zamierzają wkładać w ten proces żadnego wysiłku.

Przekonanie, że każdy z nas jest takim Atlasem, na którego barkach spoczywa teraźniejszość i przyszłość świata, także dziś działa na czytającego i dlatego właśnie „Atlas zbuntowany” jest książką, do której współcześnie sięgają nie tylko młodzi Amerykanie, lecz także coraz częściej również Europejczycy. Indywidualizm propagowany przez Rand ma być próbą restauracji indywidualistycznych prądów, które zrodziły się w europejskiej myśli politycznej XVIII i XIX w. – w tym sensie należy uznać ją za reaktywatorkę wartości liberalizmu klasycznego. Jednostka, szczególnie zaś jednostka wybitna, jest głównym bohaterem jej pisarstwa. Jak wskazuje w jednym ze swoich esejów, „każdy nowator to z definicji człowiek, który rzuca wyzwanie ustalonym zasadom wykonywania zawodu. Przyznać zawodowy monopol jakiejkolwiek grupie to poświęcić ludzkie zdolności i zatrzymać wszelki postęp”. W „Źródle” takim nowatorem i bohaterem jest Howard Roark – utalentowany architekt, który nie chce się podporządkować środowiskowemu mainstreamowi, przez co zostaje wyrzucony ze studiów, traci zlecenia, a środowisko zawodowe uznaje go za „oderwanego od rzeczywistości szaleńca”. „Atlas zbuntowany” prezentuje nam całą paletę pozytywnych bohaterów – nowych herosów. Pierwszym z nich jest John Galt, tajemnicza postać, która organizuje powszechny strajk przemysłowców i namawia ich do porzucenia patologicznego środowiska przekształcanej na wzór sowiecki gospodarki amerykańskiej. Dagny Taggart to współwłaścicielka ogólnokrajowej korporacji komunikacyjnej zajmującej się transportem szynowym. Hank Rearden buduje swój sukces nie tylko na żmudnej pracy, lecz także na wynalezionym przez siebie metalu o niewyobrażalnych właściwościach, który ma się stać odpowiedzią na zapotrzebowanie przemysłu ciężkiego. I wreszcie Francisco d’Anconia, który na początku jawi się nam jako bohater negatywny, niekoniecznie jednak takim bohaterem jest… Tutaj nie zamierzam zdradzać szczegółów, ufając, że niektórzy z czytelników zechcą sięgnąć do lektury.

Choć pozytywni bohaterowie Rand to głównie przemysłowcy, przedsiębiorcy, ludzie sukcesu, świetnie wykształceni i niezwykle pracowici, to jednak w toku lektury przekonujemy się, że każdy człowiek, uczciwie i rzetelnie wykonujący swoją pracę, który oczekuje za nią sprawiedliwego wynagrodzenia, może być takim Galtem, Reardenem, d’Anconią czy Taggart. Rand przekonuje bowiem każdego z nas, że „praca jest procesem realizacji swoich wartości, a utrata ambicji ich realizacji oznacza utratę woli życia”. Okazuje się więc, że każdy z nas jest potencjalnym Atlasem! Czyż to nie jest optymistyczne i pozytywne przesłanie?! Protestancki etos pracy – choć Rand oczywiście ani nie odwołuje się do Maxa Webera, ani tym bardziej wprost do etyki protestanckiej – dominuje w jej powieści, a przecież trudno nie zgodzić się z tezą, że był to czynnik odgrywający kluczową rolę w kształtowaniu się nowożytnego kapitalizmu w XIX w. Opierająca się na tym etosie antropologia nie przyjmuje bynajmniej założenia o bezrefleksyjnym optymizmie antropologicznym, chociaż wydaje się, że można mówić o sporej wierze Rand w nieograniczony niemalże potencjał jednostkowy i niezmierzone zdolności człowieka do tworzenia, projektowania i przekształcania świata. Człowiek u Rand staje się bogiem na ziemi, którego umysł i zdolności twórcze mogą być ograniczone jedynie przez obiektywne prawa natury. Taki silny i racjonalny człowiek musi budzić respekt!

Atlas jednak – jak się okazuje – nie będzie w stanie utrzymać globu na swoich barkach, jeśli instytucje oraz nieuczciwi ludzie ograniczać będą jego możliwości działania. Dlatego właśnie Atlas Rand wzrusza ramionami (to shrug) – jest to gest niejakiej obojętności, niewiedzy oraz pogardy. Obojętności, bowiem każdy z Atlasów jest w stanie sam zatroszczyć się o swój byt i zarobić na swoje życie, na żadnym z nich nie spoczywa obowiązek troski o dobro innych ludzi – jeśli więc ci, którzy nie znajdują w sobie motywacji do uczciwej pracy, będą musieli wyginąć, to Atlas nie ma powodu, aby faktem tym być zmartwiony. Jest to także gest niewiedzy, albowiem ludzie pracujący i ludzie wybitni nie widzą innego sposobu na rozwój i postęp jak właśnie praca – nie wiedzą, jakim sposobem skłonić i namówić tych, którzy nie chcą „wziąć się do roboty”, do tego, aby do tej roboty wreszcie się zabrali, a jednocześnie zdają sobie sprawę, że człowieka nie wolno do niczego zmuszać. Jest to wreszcie gest pogardy, gdyż w człowieczeństwo – ich zdaniem – musi być wpisana aktywność, twórczość i działanie; ci zaś, którzy tego nie dostrzegają i wybierają życie pasywne, gnuśne i bezczynne, przekreślają de facto człowieczeństwo w sobie i nie zasługują na szacunek. Wątek ten – jak nietrudno się domyślić – wzbudził najwięcej kontrowersji i ukształtował na pewno najzagorzalszych wrogów i krytyków Rand, która nawet nie próbowała nikogo wyprowadzić z błędu i niezwykle często używała tak niepoprawnych politycznie określeń jak chociażby: „nieroby”, „pasożyty”, „przetwarzacze”, „lenie”, „złodzieje”, „bandyci”, „krwiopijcy” itp.

atlas-zbuntowany-o4776

Dlaczego Atlas się buntuje?

Rand wzywa więc Atlasa do buntu! Namawia go, aby wziął udział w strajku przeciwko nieproduktywnej większości społeczeństwa. Dlatego w pierwszej wersji rękopisu książka miała być zatytułowana: „Strajk”. Fabuła „Atlasa zbuntowanego” zorganizowana została wokół przygotowywanego przez Johna Galta strajku przedsiębiorców: poszczególni właściciele najlepiej prosperujących w Stanach Zjednoczonych firm i korporacji systematycznie znikają, zaś w końcówce książki Galt oficjalnie informuje, że ich celem jest przyśpieszenie upadku świata, aby móc na jego gruzach zbudować uczciwie kapitalistyczne społeczeństwo. W „Atlasie…” czytamy, że „kiedy państwo grabieżców upadnie, pozbawione swoich najlepszych niewolników, pogrążając się w bezradnym chaosie, jak rządzone przez mistyków kraje Wschodu, i rozpadnie się na głodujące gangi rabusiów, walczące ze sobą o łupy – kiedy orędownicy moralności poświęcenia zginą razem ze swoim docelowym ideałem – nastanie dzień naszego powrotu”. Strajk, który normalnie jest narzędziem protestu pracowników przeciwko właścicielowi zakładu, w tym miejscu staje się mechanizmem walki wybitnych twórców i przedsiębiorców przeciwko opresyjnemu państwu. Taka idea przysparza Rand zwolenników wśród kręgów dalekich od statolatrii i etatyzmu, wśród zwolenników państwa minimalnego bądź wręcz minarchistów i anarchokapitalistów (choć Rand sama anarchokapitalistką nie jest). Rozrastające się państwo demokratyczne – ze swoją machiną biurokratyczną, korupcjogenną i skłonną do nieprzejrzystości – budzi nieufność szerokich grup społecznych, Rand zaś okazała się jedynie tą, która rozpoczęła otwarcie i w sposób bezkompromisowy werbalizować ich interesy, przekonania i promować postawy sprzeciwu.

Idea strajku i sposób jej wcielenia w życie w „Atlasie zbuntowanym” niosą jednocześnie niezadowolonym wiarę w możliwość radykalnego przebudowania świata, a dokładnie taką radykalną przebudowę proponuje Rand. Radykalizm projektu z „Atlasa zbuntowanego” intryguje w szczególności ludzi młodych, dla których jedynie przemiany o charakterze rewolucyjnym i zdecydowanym wydają się właściwe. Nie zapominajmy jednak, że po II wojnie światowej także tysiące doświadczonych przemysłowców, którzy funkcjonowali w realiach przedrooseveltowskich, domagały się przywrócenia pełnej swobody gospodarczej, likwidacji nadmiernego wpływu państwa na gospodarkę i subwencjonowania niektórych sektorów życia społecznego i gospodarczego. Na takich między innymi nastrojach budował przecież swój sukces 30 lat później Ronald Reagan, w którego dyskursie politycznym kapitalizm i idee wolnego rynku uzyskały niezwykle ważną pozycję. Rand stała się więc symbolem ostrej krytyki ówczesnej formy relacji między państwem a gospodarką, którą określała mianem gospodarki mieszanej. Zdawała sobie sprawę, że choć może Stany Zjednoczone nie znajdują się tak daleko od wolnego rynku, jak europejskie welfare state, to jednak również mieszczą się w ramach tejże kategorii. Dodawała zawsze, że tak jak nie można być trochę w ciąży, tak też nie można mieć częściowo wolnego rynku: albo więc jesteśmy kapitalistami, albo socjalistami – nie ma kompromisu między oboma opcjami. Jakkolwiek więc można by oprotestowywać taką czarno-białą wizję relacji między państwem a gospodarką, to jednak stanowi ona niewątpliwe jedną z koncepcji kluczowych dla sukcesu Rand.

Autorka „Atlasa zbuntowanego” traktuje kapitalizm jako uniwersalny system, w którym każdy człowiek jest traktowany sprawiedliwie, czyli za wykonaną pracę oraz wyprodukowane dobra otrzymuje dosłownie tyle, ile mu się należy. W tym miejscu, oczywiście, dostrzec można próbę odbudowania przez Rand wartości klasycznych, jak chociażby w antyczny sposób rozumianej idei sprawiedliwości. Atlas – jej zdaniem – musi się zbuntować, albowiem współczesne gospodarki i społeczeństwa bynajmniej na sprawiedliwości się nie opierają. Bliskie relacje między państwem a gospodarką prowadzą do nieuczciwości i korupcji, państwowe subsydia promują współpracujących z władzą producentów i wybranych jedynie według politycznego klucza przedsiębiorców, a także te sektory gospodarki, które w normalnych warunkach musiałyby przestać istnieć bądź doprowadziłyby do samorestrukturyzacji. Sprzeciw Atlasa jest więc również sprzeciwem wobec niesprawiedliwie zorganizowanego państwa, które nie dość, że ograniczyło w sposób znaczny swobodę gospodarczą, to doprowadziło do katastrofalnej ingerencji w prywatne życie obywateli poprzez przerost norm prawnych, wdawania się w światopogląd i przekonania obywateli, dostrzegalne chociażby w organizowaniu państwowej edukacji. Rand wskazuje, że przecież „jedyna władza, jaką posiada każdy rząd, to władza nad przestępcami. Kiedy zatem nie ma ich wielu, trzeba ich stworzyć. Obwołuje się przestępstwami tyle rzeczy, że przestrzeganie prawa staje się niemożliwe”. Państwo zostało tutaj potraktowane jako struktura żądna władzy, Hobbesowski lewiatan, który swoimi mackami ogarnąć pragnie wszelkie sfery życia. Nadmiar prawnych regulacji sprawia, że każdy człowiek potencjalnie staje się przestępcą, a to przecież nad przestępcami właśnie władza państwowa miała w założeniu „roztoczyć szczególną opiekę”.

Bohaterowie pozytywni Rand buntują się również przeciwko nowym wersjom kolektywizmów, które rosną w siłę we współczesnym świecie, a także przeciwko temu, co nazywa ona moralnością altruistyczną. Kolektywizm to każdy przejaw myślenia o człowieku i społeczeństwie, w którym przyjmuje się, że nadrzędna jest grupa społeczna, wspólnota czy też społeczeństwo. W takiej wizji człowiek – jednostka, indywiduum – jest jedynie wykonawcą woli kolektywu, a jego interes powinien zostać podporządkowany interesowi tegoż kolektywu. Jest to – jak mówi Rand – filozofia radykalnie antyhumanitarna i antyludzka, gdyż człowiekowi ujmuje się jego wartości, a zamiast celu staje się on jedynie środkiem. Kolektywizmy wszelkiej maści współegzystują z etyką altruistyczną, czyli przekonaniem, że człowiek powinien w taki sposób formułować swoje życiowe cele i definiować działania, aby w centrum jego zainteresowania stało dobro innych ludzi i to jemu zawsze podporządkowywać swoją życiową aktywność. We wstępie do „Źródła” pisze Rand, że „wszystkie warianty współczesnego kolektywizmu (komunizm, faszyzm, nazizm itp.) zachowują przecież w całości religijną etykę altruizmu, zastępując jedynie Boga społeczeństwem jako beneficjentem ludzkiego poświęcenia”. Nie tylko socjalizm czy komunizm są przez Rand wskazywane jako przykłady myśli kolektywistyczno-altruistycznej, także większość religii – w szczególności zaś chrześcijaństwo – ma promować postawy tego typu. „Atlas zbuntowany” jest więc zapisem buntu indywidualistów wobec kolektywistyczno-altruistycznego mainstreamu, który systematycznie prowadzi do dewaluacji człowieka i jego jednostkowego życia. Rand widzi w tych nurtach myślenia o człowieku pierwszy krok do takiego przekształcenia społeczeństwa, aby jednostki w nim żyjące przestały być autonomicznymi podmiotami, wyjątkowymi i specyficznymi, a wówczas tylko krok dzielić nas będzie od sytuacji, kiedy to ludzie zamiast imion nosić będą numery, jak to zresztą pokazała Rand w swoim opowiadaniu pt. „Hymn”.

Czy wpuścić Atlasa do domu?

Rand przestrzega więc przed współczesnymi hipostazami Rosji sowieckiej, broni etosu pracowitości i wysiłku, a także staje w opozycji wobec tendencji do rozrastania się struktur państwowych i ograniczania wolności gospodarczej. Czy jednak „Atlas zbuntowany” ze swoim przesłaniem zasługuje na to, aby zrobić dla niego miejsce na półce współczesnego Europejczyka (czy też może powinniśmy powiedzieć szerzej: współczesnego człowieka)? Zdaję sobie sprawę, że wielu współczesnych intelektualistów – także polskich – widzi w Rand faszystkę i nihilistkę, niesympatyczną i wulgarną doktrynerkę (niesympatyczna i dość apodyktyczna rzeczywiście była). Ba! Jeden ze znajomych profesorów powiedział mi kiedyś, że zajmowanie się w jakikolwiek sposób tą panią czy też choćby czytanie jej grafomańskich wybryków nie różni się wiele od uprawiania kurewstwa. Cóż, skłonność do przesady jest niewątpliwie znamieniem nie tylko języka Rand. Świadom jednak potencjalnego zagrożenia kurewstwem muszę stwierdzić otwarcie i bez bicia, że na swojej półce mam nie tylko „Atlasa zbuntowanego”, ale także „Źródło”, „Powrót człowieka pierwotnego”, „Cnotę egoizmu” oraz kilka innych zbiorów esejów Rand, nieprzetłumaczonych jeszcze na język polski. Powiem więcej, na tej samej półce, dosłownie obok, miejsce swoje znalazło – ku niezadowoleniu Rand – kilka tomów autorstwa Berlina, Rawlsa i Sandela. Myślę więc, że warto wpuścić do domu „Atlasa zbuntowanego” i że warto zastanowić się nad ideami, które znalazły swoje miejsce w tej tysiącstustronicowej lekturze.

Przede wszystkim czytanie „Atlasa zbuntowanego” w warunkach pokryzysowych, kiedy to w sposób zasadniczy – zarówno przez dominującą część ekonomistów, jak i politologów oraz polityków – zakwestionowany został kapitalistyczno-liberalny porządek gospodarczy, pozwala na przyjęcie nieco odmiennej perspektywy oraz rozważenie odpowiedzi, jaką w tych warunkach zaproponowałaby Rand. Ona powiedziałaby bowiem, że to nie nadmiar kapitalizmu doprowadził do kryzysu finansowego i gospodarczego, ale właśnie jego niedobór. Kryzys – według niej – stanowi nieuchronną odpowiedź na nieprzystawalność realiów wolnorynkowych do planistyczno-interwencjonistycznych, co też skutkować musi ciągłymi „wyłomami” w tzw. gospodarce mieszanej. Rand zdaje sobie sprawę, że jej refleksja dotycząca kapitalizmu stanowi wyłącznie rozważanie natury teoretycznej, albowiem jak dotychczas nie udało się w żadnym państwie zbudować gospodarki radykalnie kapitalistycznej. Wskazuje jednak, że XIX-wieczny kapitalizm amerykański na pewno w największym stopniu taki typ idealny kapitalizmu przypominał. Lektura „Atlasa zbuntowanego” pozwala na otwarcie się na wyjaśnienia proponowane współcześnie nie tylko przez Rand, lecz także przez wąskie aktualnie środowiska libertariańskie. Może będzie to sposób na przełamanie antykapitalistyczno-interwencjonistycznego mainstreamu, który wciąż przekonuje nas, że takim mainstreamem nie jest, zupełnie jak gdyby Roosevelt, Keynes czy Rawls narodzili się wczoraj, a ich pomysły nie doprowadziły do przeobrażenia systemów gospodarczych państw współczesnego świata.

Książka Rand skłania nas po raz kolejny do zastanowienia się nie tylko nad miejscem państwa w kwestiach gospodarczych, lecz także nad jego rolą w sprawach społecznych. Niekoniecznie trzeba w sposób ślepy i bezrefleksyjny przyjmować perspektywę indywidualistyczną czy wręcz atomistyczną, jaką w „Atlasie zbuntowanym” prezentuje nam Rand. Trzeba jednak dostrzec narastającą omnipotencję państwa w kwestiach, w których niekoniecznie państwo i jego instytucje okazują się najskuteczniejszym graczem, a zagrożenia, jakie niesie przyszłość, doprowadzić mogą do krachu w tychże sferach. Mam tutaj na myśli systemy emerytalne oraz system ochrony zdrowia, ale również edukację, naukę i rozwój technologiczny. I znowu nie chodzi o to, aby otwierać nowy spór między zwolennikami „upaństwowienia” a propagatorami „prywatyzowania”, może jednak warto by czasami przemyśleć argumentację, która pojawia się na drugim biegunie, zaś w sposób bardziej krytyczny podejść do własnej argumentacji? Rand staje na straży autonomii jednostki i jej prawa do decydowania o sobie w całej rozciągłości. Pojawia się więc pytanie: jaką wolnością dysponuje współczesny człowiek w sprawach związanych z systemem emerytalnym, ochroną zdrowia czy edukacją? Czy nie jest tak, że paleta możliwości w ostatnich dekadach (i mam na myśli tzw. świat zachodni, a nie – z oczywistych względów – Polskę) radykalnie się ograniczyła?

„Atlas zbuntowany” pozwala także na zrewidowanie utartych przekonań dotyczących nie wyłącznie indywidualizmu, ale również tego, co Rand określa mianem egoizmu. Wielu – dostrzegłszy słowo „egoizm” w tytule eseju czy książki Rand – od razu przyjmuje postawę krytyki i decyduje się na odrzucenie tej koncepcji. Oczywiście, większość kieruje się potocznym i zdroworozsądkowym rozumieniem egoizmu, nie przyjmując do wiadomości, że sama Rand mówi wprost o „nowej koncepcji egoizmu” – z tego zaś wynika, że proponuje odmienne od zdroworozsądkowego rozumienie tego pojęcia. Zainteresowanie powinien budzić fakt, że egoizm określa ona mianem cnoty, nie zaś wady czy przywary. Ufam, że lektura „Atlasa zbuntowanego” pozwoliłaby wyjść poza szereg skojarzeń nasuwających się wraz z pojawieniem się samego nazwiska Rand. Ze smutkiem domyślam się, że tak jak większość krytyków Marksa w życiu nie przeczytała nic, co ten kiedykolwiek napisał, a już tym bardziej nie zajrzała do „Kapitału” (niestety jednak podobnie jest z większością współczesnych pseudomarksistów), tak też większość krytyków Rand ograniczyła się do lektury zdawkowej notatki w Wikipedii oraz tego, co mówili o niej jej inni krytycy. Zachęcam więc, aby wpuścić do domu Atlasa (bo przecież każdy z nas ma się nim stać!) i aby znaleźć dla niego miejsce na półce.

Tekst pochodzi z XVII numeru „Liberte!”.

Nowe technologie a zmiana społeczna. Czy i jak nowe technologie wpływają na społeczeństwo, kulturę i gospodarkę :)

Jest piękne wiosenne popołudnie, w małym parku w sercu Londynu widzimy dziesiątki ludzi siedzących na trawie; niektórzy jedzą, śpią, inni rozmawiają, śmieją się lub ziewają. Zauważamy naszego bohatera, nieznanego bliżej mężczyznę z brodą, który podchodzi do grupy dziewczyn i zagaduje jedną z nich: „Czy mogę zostać twoim przyjacielem?”.

Podobna sytuacja ma miejsce chwilę później, gdy ten sam nieznajomy, nazwijmy go George, podchodzi do młodego studenta w okularach: „Czy mogę być Twoim przyjacielem? Jeśli to Ci może pomóc w decyzji, pokażę Ci moje zdjęcia”. W tym momencie nasz bohater wyciąga wielki album z fotografiami i zaczyna pokazywać zdjęcia coraz bardziej zdziwionemu studentowi: „O, w tym klubie poznałem świetną dziewczynę, gadaliśmy do rana, o, a tutaj ja z moją babcią, babcia ma 93 lata, ale świetnie się trzyma!”. Kilka minut później widzimy George’a przyglądającego się niebieskiej witrynie sklepowej: „Czy mogę napisać coś na Twojej ścianie?” – nasz bohater pyta lekko zaskoczoną właścicielkę: „Jasne, że nie” – obrusza się starsza pani. „Szkoda, robię to na wszystkich ścianach”.

Wyraźnie rozczarowany George wraca do parku. Po drodze przykleja karteczki z napisem „Lubię to” na różne napotkane rzeczy i zjawiska, które… lubi. „Lajkuje” więc rower przypięty do słupa, torebkę mijanej dziewczyny i usiłuje przypiąć karteczkę całującej się parze. Normalka. Przecież każdy „lajkuje” to, co lubi. Znów w parku: „Zaczepiam Cię!” – George próbuje jednak zwrócić uwagę pierwszej dziewczyny. Podobnie próbuje zaczepić znanego już nam studenta: „Ty też mnie możesz zaczepić!” – niestrudzony George nie traci nadziei. Za to grzeczny do tej pory student przymierza się do rękoczynów.

***

Oto, co robimy w sieci. Opisana powyżej scenka jest fragmentem filmu nagranego niedawno w centrum Londynu, filmu, który próbuje pokazać, jak bardzo zachowania, które wydają się najbardziej normalne w świecie online, zwłaszcza na Facebooku i Twitterze, byłyby zupełnie dziwaczne w świecie offline. Filmik kończy się sytuacją, w której nasz bohater pyta przechodniów ulicznych, czy posiadają konto na Twitterze i jeśli uzyskuje odpowiedź twierdzącą, deklaruje, że będzie ich śledził. Łatwo domyślić się, co będzie dalej. Ku przerażeniu kilku zaczepionych przechodniów George rzeczywiście spełnia swoją obietnicę.

Świat wirtualny naturalnie nie jest lustrzanym odbiciem świata realnego. Co takiego się dzieje, że nasze zachowania w świecie wirtualnym są zupełnie odmienne od zachowań w świecie realnym? Jak to możliwe, że w Internecie łatwo nam rozmawiać z obcymi, dzielić się intymnymi szczegółami z naszego życia i asertywnie wyrażać nasze poglądy na ścianach w sprawach, w których w życiu realnym często milczelibyśmy lub nie mielibyśmy śmiałości, odwagi lub czasu zabrać głosu? Co takiego się dzieje, że w sieci łatwiej i szybciej ludzie grupują się wokół konkretnych zadań, spraw i łatwiej zabierają do działania? Wreszcie, jak to możliwe, że te światy, w których zachowujemy się inaczej, jednak przenikają się nawzajem i mają na siebie wpływ? Czy wszystko to można tłumaczyć magicznym słowem „technologia”?

Clay Shirky, w swojej książce „Here Comes Everybody…”, próbując zrozumieć fenomen zmiany społecznej wywołanej nowymi technologiami, sugeruje, że „rewolucja nie zdarza się, kiedy społeczeństwo przyjmuje nową technologię, rewolucja dzieje się, kiedy ludzie przyjmują nowe zachowania”. W jaki sposób w takim razie technologia inspiruje nowe zachowania? Na czym polega ów związek między technologią i ludzkim działaniem? Co Internet i nowe technologie zmieniają w naszej rzeczywistości, a czego nie? I co z tego wynika dla świata, społeczeństwa, kultury i wiedzy oraz gospodarki?

„Śmiesznie proste organizowanie się grup” bez potrzeby zarządzania nimi, czyli jak Internet zmienia życie społeczne

Człowiek jako istota społeczna od zawsze potrzebuje bliskości innych ludzi – wymiany myśli, wsparcia, bycia razem po to, żeby tworzyć, przeżywać i żyć. To nie nowe technologie sprawiają, że chcemy się komunikować, dzielić i być razem. One jednak sprawiają, że na niespotykaną dotąd skalę jesteśmy w stanie rozwijać, budować i koordynować nasze umiejętności społeczne.

Clay Shirky zwraca uwagę na to, jak nowoczesne technologie pomagają w budowie nowych społeczności i grup oraz w przekształcaniu aktywności społecznych. Po pierwsze, dostarczają ludziom bardzo łatwych narzędzi służących powstawaniu owych grup społecznych: od forów internetowych, poprzez blogi, maile, strony internetowe, grupy nacisku, do platform wspólnego działania. To wszystko miejsca, w których ludzie w bajecznie łatwy sposób mogą gromadzić się wokół spraw, jakie ich interesują, lub które zaczynają ich interesować, bo interesują innych. W Internecie, pisze Shirky, „nasz talent do działania grupowego spotyka nowe narzędzia”. Ludzie po raz pierwszy dysponują czymś, co jest w stanie zaspokoić ich społeczne umiejętności.

Po drugie, Internet i aplikacje internetowe zmieniają fundamentalnie sposób zarządzania i organizowania się grup. W świecie wirtualnym mamy do czynienia z zupełnie innym sposobem społecznej organizacji, która jest dużo mniej hierarchiczna, a dużo bardziej otwarta i demokratyczna. Działania w sieci nie są koordynowane przez żadne formalne instytucje lub struktury nadzoru i dzięki temu bardziej motywują ludzi do spontanicznego działania. Ta technologia w bardzo prosty i przejrzysty sposób nie tyle zarządza, ile koordynuje i organizuje działania w świecie w taki sposób, że nie jest potrzebny menadżerski nadzór na kształt takiego, jaki istnieje w firmach czy innych formalnych organizacjach.

Jednym z przykładów jest portal zdjęciowy Flickr i sposób, w jaki dookoła Flickra powstają grupy ludzi zainteresowanych podobnymi tematami. Użytkownicy umieszczają w serwisie swoje zdjęcia w sposób spontaniczny i chaotyczny. Nie muszą zapisywać się do żadnej struktury ani grupy. Jedna z możliwości, którą mają, to otagowanie swoich zdjęć. Wobec tego miliony otagowanych zdjęć tworzą pewne kategorie – zdjęć z Paryża, śmiesznych historii z życia rodzinnego lub, co ważniejsze, ważnych wydarzeń, w których uczestniczyli użytkownicy, zanim na miejscu pojawili się fotoreporterzy – tak jak było w przypadku wydarzeń na placu Tahrir w Egipcie czy zdjęć raportujących brutalne działania reżimu syryjskiego. Technologia tworzy platformę służącą do łatwego organizowania się i nawigacji w chaotycznej przestrzeni.

Podobnie rzecz się ma z Wikipedią – encyklopedią, która powstaje wspólnym wysiłkiem tych użytkowników, którym chce się pisać teksty, edytować je lub dodawać bibliografie. Zasadą Wikipedii jest to, że hasło może tworzyć lub edytować każdy z nas, bez konieczności dysponowania wiedzą ekspercką. Rzecz jasna, oznacza to, że w Wikipedii pojawiają się błędy lub nawet całe mnóstwo błędów. Ale to też oznacza, że błędy mogą być szybko poprawione i wyedytowane. Hasła w Wikipedii nie są gotowym produktem, są ciągle poprawiane, aktualizowane.

Podobnie jak w przypadku Flickra, Wikipedia udostępnia platformę, ramy działania dla użytkowników, którzy tworzą zawartość. Ponieważ każdy z milionów użytkowników może wprowadzić dowolne hasło bez żadnej wiedzy bazowej, zawsze znajdzie się ktoś, kto przedstawi strukturę pantofelka lub zechce napisać o podstawach alfabetu arabskiego. A jeśli popełni błędy, to ktoś inny, zafascynowany tematem, je wypatrzy i poprawi.

Shirky twierdzi: „Nowe technologie tworzą więc narzędzia, platformy, które mobilizują i organizują zbiorowe działanie, pozwalając być zarówno odbiorcą tego działania, spośród milionów użytkowników Wikipedii tyko nieliczni tworzą, ale też mniej lub bardziej aktywnym twórcą”. Fakt, że każdy robi tylko to, co chce i ile chce, jest podstawą zbiorowego działania w sieci. Twórcy Wikipedii bardzo wcześnie zrozumieli, że ich rolą jest koordynowanie zbiorowego wysiłku, a nie kontrolowanie czy zarządzanie nim. Nowe technologie, bez potrzeby narzucania kontroli, hierarchicznej struktury czy sztywnych wymogów wobec swoich uczestników, potrafią w doskonały sposób organizować i koordynować wysiłki i działania, które z pozoru wydają się chaotyczne.

W sieci każdy może być twórcą, ale co zrobić z natłokiem „śmieciomacji”?

Jeszcze nie tak dawno definicje dziennikarstwa zakładały, że „profesjonalny dziennikarz” to taki, którego teksty są publikowane. Już samo wydrukowanie tekstu sugerowało, że przeszedł on całkiem skomplikowaną drogę selekcji, edycji, a wreszcie sam proces wydania. Ponadto z racji tego, że publikowanie ze swojej natury jest drogie, bycie dziennikarzem oznaczało przynależność do pewnej wąskiej elity, która ma prawo „informowania” innych o jakichś wydarzeniach. Dostęp do wiedzy, wydawać by się mogło, był w rękach tych nielicznych, którzy wspaniałomyślnie dzielili się nią w procesie publikacji. Te wszystkie definicje uległy radykalnej dezaktualizacji wraz z rozwojem Internetu, który otworzył rynek zarówno dziennikarski, jak i wydawniczy. Dziś każdy może publikować w sieci i również każdy może być wirtualnym dziennikarzem.

Granice między dziennikarstwem a wydawaniem zostały zupełnie zamazane. Każdy z nas, kto tylko ma dostęp do komputera i Internetu, może się stać jednoosobowym domem wydawniczym. To też oznacza, że dzielenie się wiedzą ma charakter dużo mniej hierarchiczny, a dużo bardziej spontaniczny, oddolny i nieustrukturyzowany. Każdy może założyć bloga czy tweetować, o dowolnej porze dnia przedstawiać na swojej stronie internetowej swój punkt widzenia. Skoro publikowanie jest tak bajecznie proste, decyzja o „wypuszczeniu” materiału w świat nie jest szczególnie wiekopomna (Shirky). Te wszystkie zmiany mają kilka poważnych konsekwencji dla naszego życia codziennego.

Po pierwsze, autorytet tradycyjnych mediów w kwestii generowania tego, co jest, a co nie jest „newsem”, radykalnie spada. Podobnie rzecz się ma z profesjonalnymi dziennikarzami, którzy nierzadko ustępują wiedzą i błyskotliwością blogerom, podczas gdy ci ostatni często potrafią być ekspertami w danym temacie i mają wyrobione punkty widzenia.

Po drugie, swobodna, niczym nieskrępowana możliwość publikacji daje szansę wypowiedzi tym, którzy nie są w stanie dotrzeć do oficjalnych mediów. Wobec tego nowe technologie, obalając strukturalne utrudnienia w publikowaniu, demokratyzują dostęp do „publicznej mównicy”. Stanowią one nieustanny Hyde Park wolnych wypowiedzi, gdzie każdy, w teorii, może wykreować i wypromować swój punkt widzenia i siebie jako komentatora w danej dziedzinie.

Nowe technologie stwarzają ciągłe możliwości „nadawania”, tworząc platformy, w jakich treści poważne przenikają się z błahymi, a publiczne z prywatnymi. „News” to już nie tylko istotne wydarzenie na skalę krajową czy międzynarodową, które jest warte publikacji. „News” to również cały ciąg aktualizacji na Facebooku, niestrudzenie informujących nas o tym, że Igor jest na lotnisku, Ala pocałowała nowego chłopaka, a Lucy ma straszną ochotę na frytki. W konsekwencji więc, po trzecie, tam, gdzie każdy może opublikować wszystko, pojawia się bardzo dużo „twórczości”, która jest zła, banalna lub po prostu przeznaczona tylko dla wąskiej grupy przyjaciół. Powstaje więc konieczność ciągłego filtrowania „śmieciomacji” na rzecz treści z punktu widzenia danego użytkownika wartościowych. To z kolei wymaga uwagi i czasu oraz w znakomity sposób odwraca naszą uwagę od treści, które są istotne i pożyteczne.

Niedawno wydana książka Nicholasa Carra „The Shallows: what the Internet is doing to our brains”, podejmuje problem trywializacji życia intelektualnego poprzez zarówno blogi, tweety oraz filmiki na YouTubie. Posiłkując się najnowszymi wynikami badań Carr opisuje, w jaki sposób Internet radykalnie obniża naszą zdolność do koncentracji. Ciągłe trwanie w stanie wielozadaniowości sprawia, że jesteśmy mniej produktywni. Czytanie online ma inny charakter niż czytanie offline. Czytając na ekranie, jesteśmy mniej uważni, raczej skanujemy tekst, niż próbujemy go zrozumieć. Carr uważa, że nowoczesna technologia nagradza właśnie pobieżne, szybkie skakanie pomiędzy wieloma treściami, a nie głębszą refleksję i analizę. Internet bardzo lubi nasze rozkojarzenie. Carr pokazuje również, w jaki sposób taki tryb działania zmienia nasz mózg, rozwijając umiejętności selekcji i filtrowania, ale zmniejszając zdolności koncentracji i rzeczywistego zrozumienia.

Personalizacja i „my daily me

W związku z tym, że główna część naszej energii w Internecie jest podporządkowana filtrowaniu informacji lub raczej selekcji informacji, które w jakimś stopniu są dla nas pożyteczne i interesujące, technologia daje nam rozbudowane możliwości „personalizacji” informacji. Oznacza to, że w sieci możemy napotykać tylko takie treści, które chcemy i które nam odpowiadają.

Profesor Cass Sunstein w swojej książce „Republic.com” przedstawia koncepcję „my daily me”, która prezentuje wizję idealnego spersonalizowania całości zawartości medialnej, z jaką się spotykamy. Sunstein wskazuje, jak każdy użytkownik w bardzo prosty sposób może „wyselekcjonować” to, co czyta, co ogląda, czego słucha i typ ludzi oraz komentarze, z jakimi się spotyka w sieci. Mało tego, nowoczesne technologie sieciowe, znając jego „profil”, będą mu podsuwać tylko takie książki, filmy czy wydarzenia, które pasują do jego zainteresowań i poglądów. Dla przykładu Amazon, nawet po kilku zakupach, zawsze pokazuje książki, które mogą się nam podobać. Nawet przestrzeń reklamowa oferowana choćby przez Google jest coraz bardziej zindywidualizowana i dostosowana do profilu użytkownika.

Sunstein obawia się, że proces personalizacji może prowadzić do coraz większej alienacji i fragmentaryzacji i może być sprzeczny z tym, czym Internet miał być. Zamiast rzeczywistym oknem na świat, miejscem spotykania się wielu punktów widzenia, wiedzy pochodzącej z wielu źródeł, może się stać miejscem, gdzie każdy spotyka się tylko z własną grupą i tylko z ludźmi, którzy myślą podobnie.

W posłowiu do swojej książki Sunstein pisze, że „demokracja potrzebuje jednocześnie dużej liczby różnych doświadczeń i nieprzewidywalnych spotkań z niewybranymi tematami i ideami”. Tylko doświadczenie różnicy i różnorodności prowadzi do jej akceptacji, ale też do wytwarzania nowych idei. Autor również dostrzega fakt, że – jak na razie – dla większości ludzi Internet pozostaje podróżą w nieznane, szansą doświadczenia odległych miejsc, różnych idei i punktów widzenia, nawet jeśli, jak dowodzą najnowsze badania Pew Institute, media społeczne służą nam przede wszystkim do porozumiewania się w swoich własnych grupach i z najbliższymi przyjaciółmi.

Twitter, Google, Facebook i Nagroda Nobla? Czy nowe technologie i Internet pomagają zmieniać świat na lepsze?

Tymczasem media społecznościowe, w opinii wielu ekspertów, przedefiniowały i „wymyśliły na nowo” społeczną aktywność i zaangażowanie w sprawy publiczne. Wraz z powstaniem serwisów społecznościowych – takich jak Facebook i Twitter – tradycyjna relacja między władzą polityczną a społeczeństwem zostaje zachwiana na korzyść tego ostatniego.

Wspomniane serwisy dają tym pozbawionym władzy możliwości, o których pisałam powyżej – łatwego i skutecznego organizowania się na masową skalę i platformę do wyrażania swoich poglądów oraz bycia skuteczną grupą nacisku, która nie tylko przekracza tradycyjne granice państw narodowych, ale też omija sformalizowane instytucje. Wiosną 2009 r. w Mołdawii ponad 10 tys. ludzi wyszło na ulicę protestować przeciwko komunistycznemu rządowi. Te działania szybko zostały nazwane „Twitterową Rewolucją”, mimo pewnych wątpliwości związanych z realnym wpływem sieci w społeczeństwie, którego większość nie ma dostępu do dobrodziejstw Internetu.

Media społecznościowe odegrały wielką rolę w nagłośnieniu późniejszych o kilka miesięcy demonstracji w Iranie. Mark Pfiefe, były doradca ds. bezpieczeństwa narodowego Stanów Zjednoczonych, domagał się wówczas przyznania Twitterowi nominacji do Pokojowej Nagrody Nobla, pisząc: „Bez Twittera ludzie w Iranie nie poczuliby się tak upodmiotowieni i pewni siebie, żeby wyjść na ulice i upomnieć się o wolność i demokrację”.

Wreszcie wydarzenia w Afryce Północnej i na Bliskim Wschodzie pokazują, w jaki sposób Internet i media społecznościowe potrafią pomóc w organizowaniu się, motywowaniu i przekazywaniu informacji o wydarzeniach. Nawet jeśli słowa o rewolucji zainspirowanej przez Facebooka czy Twittera w kontekście wydarzeń w Tunezji, Egipcie czy Syrii są znów przesadzone ze względu na skalę rzeczywistych protestów i realnego zagrożenia, to rola i wpływ tych narzędzi na przebieg politycznych wydarzeń jest dostrzegalna również przez sceptyków. „Dzięki Facebookowi zrozumieliśmy, że nie jesteśmy sami, że mamy za sobą nie tyle jakieś rządy czy armię, ile ludzi z całego świata, którzy patrzą na ręce Mubarakowi”, mówił jeden z uczestników wydarzeń na placu Tahrir w Egipcie. Kiedy egipskie siły rządowe odcięły Internet w trakcie trwania rewolucji, serwis Google udostępnił specjalny numer telefonu, dzięki któremu świadkowie wydarzeń w Egipcie mogli je relacjonować w ich kraju.

W każdym z tych przypadków rola Twittera czy Facebooka, Flickra lub Google’a polegała nie tylko na informowaniu opinii publicznej – wewnętrznej czy zewnętrznej – o tym, co się dzieje w kraju, w sytuacji, gdy wszystkie tradycyjne media były zdominowane przez siły rządowe. Wspomniane portale służyły także organizowaniu się i wzajemnemu motywowaniu. Media społecznościowe odegrały również kluczową rolę w pokonywaniu bariery strachu, w dawaniu poczucia wsparcia, ale również w poszukiwaniu zaginionych bliskich.

Ta funkcja okazała się szczególnie przydatna w dramatycznych wydarzeniach w Japonii w marcu 2011 r., gdzie media społecznościowe szybko przejęły funkcję zarówno agregacji informacji o zaginionych, jak i zbiorowej platformy „podtrzymywania na duchu”. Podczas pierwszych dni po przewrocie w Tunezji i zamieszkach w Egipcie na pierwszych stronach papierowych wydań „New York Timesa” czy „Guardiana” pojawiały się komentarze miejscowych blogerów, którzy byli w stanie opowiedzieć, co się dzieje w Kairze czy Aleksandrii. Podobnie działo się w przypadku relacji z wydarzeń w Syrii czy Jemenie. Ci, którzy do tej pory byli „publicznością”, do której trafiały przekazy dziennikarskie, sami stali się „nadawcami”, „mediami”.

Malcolm Gladwell, w opublikowanym w październiku 2010 r. na łamach „New Yorkera” artykule „Small change. Why the revolution will not be tweeted”, przestrzegał przed zbytnim optymizmem co do roli mediów społecznościowych w istotnym działaniu na rzecz zmiany społecznej.

Gladwell twierdzi, że społeczny udział w świecie wirtualnym ma zupełnie inny charakter i wymaga znacznie mniejszego zaangażowania od swoich „aktywistów”, a przez to tylko w ograniczonym stopniu może działać na rzecz prawdziwej zmiany społecznej. Na przykładzie analizy studenckich protestów z lat 60. czy ruchów przeciwko zniesieniu segregacji rasowej w USA pokazuje, że sukces akcji społecznych z lat przedinternetowych bazował na bliskich relacjach uczestników między sobą i silnym zaangażowaniu w daną sprawę oraz na gotowości poniesienia ryzyka. Jeśli twój przyjaciel działał w opozycji, był to bardzo ważny powód, żeby się do niej przyłączyć, pokonać swój własny strach i zaangażować się w struktury. Jak wiemy z wcześniejszej analizy, sukces wielu serwisów i aplikacji internetowych polega dokładnie na czymś odwrotnym, na braku struktury i regulacji.

Aktywność w serwisach społecznościowych opiera się na bardzo luźnych związkach i zarządzaniu grupami luźno powiązanych lub wcale nieznających się osób – na czymś, co – jak pokazywałam wyżej – w życiu realnym byłoby postrzegane jako „dziwaczne”. Coś, co wielu uznaje za podstawową zaletę, Gladwell uznaje za główną słabość. Skoro relacje w sieci oparte są na luźnych związkach, internauty nie zmobilizuje to do jakiegokolwiek społecznego aktywizmu powiązanego z prawdziwym ryzykiem.

Tymczasem prawdziwa zmiana społeczna, według Gladwella, wymaga czasem właśnie ryzyka i poświęcenia. W tym sensie media społecznościowe być może zwiększają skalę zaangażowania, ale jednocześnie znacząco obniżają wymagania wobec aktywizmu społecznego. „Serwisy społecznościowe są szczególnie efektywne w zwiększaniu partycypacji społecznej poprzez zmniejszanie poziomu motywacji potrzebnej do zaangażowania” – pisze wspomniany autor na łamach „New Yorkera”.

Gladwell konkluduje stwierdzeniem, że media i serwisy społecznościowe istotnie angażują w większym stopniu społeczny aktywizm, ale nie do wielkiej zmiany, lecz raczej w kwestiach niewymagających dużego ryzyka i dużego stopnia zaangażowania. Media społecznościowe według niego nie inspirują rewolucji społecznej, tylko pomagają w zwykłych codziennych sprawach: zbiórce krwi dla przyjaciela lub pomocy w odnalezieniu zgubionego telefonu. Raczej podpisaniu apelu o uwolnienie więźnia niż realną jego obroną.

Internet a ekonomia. W stronę nowego modelu gospodarczego opartego na kolaboracji i dzieleniu się.

Opublikowany w maju 2011 r. raport „Shareable Magazine” i instytutu Latitude Research zatytułowany „The New Sharing Economy” pokazuje, że dzielenie się w świecie online zachęca ludzi do dzielenia się zasobami także w świecie offline. Na podstawie rosnącej liczby przykładów twórcy badania udowadniają, że ludzie, którzy dzielą się zasobami w sieci, uczą się ufać sobie nawzajem również poza nią.

Aż 78 proc. badanych przyznało, iż doświadczenia dzielenia się online sprawiło, że są bardziej skłonni do dzielenia się prawdziwymi rzeczami w realnym życiu. Oprócz dzielenia się choćby środkami transportu coraz więcej osób (62 proc.) było zainteresowanych dzieleniem się również miejscami na wakacje, przestrzenią służącą do przechowywania produktów czy pracą, i to nawet z zupełnie obcymi osobami. Badanie przeprowadzone na grupie ponad 500 użytkowników Internetu pokazuje, że ludzie dzielą się nie tylko w tym celu, żeby zaoszczędzić pieniądze, lecz coraz częściej po to, żeby „uczynić świat miejscem lepszym do życia”.

Przytoczone badanie zainspirowane było tym, co udowodnił nasz George, że ludzie chętniej dzielą się swoim życiem i swoimi spostrzeżeniami w sieci niż w świecie realnym. Jednocześnie kryzys ekonomiczny sprawia, że pewne zjawiska i praktyki poczynione w sieci mają ważny wpływ na naszą zbiorową rzeczywistość i to, jak świat online zmienia nasze życie w świecie off-line. Autorzy publikacji takich jak „What’s mine is yours. The Rise of Collaborative Consumption” czy „The Mesh” twierdzą, że to zjawisko jest częścią fundamentalnej zmiany społecznej, która stopniowo prowadzi do przemiany modelu z gospodarki opartej na posiadaniu na gospodarkę opartą na dzieleniu. W takiej gospodarce ludzie nie czują konieczności posiadania, mogą wypożyczyć samochód od święta lub pójść na ważne spotkanie z markową torebką w ręku, mimo że nie wydali na nią wcześniej kilu tysięcy euro.

Kolaboracyjne współtworzenie, innowacja Internetu i „niebezpieczne bezpieczeństwo” w sieci

Krótka historia Internetu (a szczególności Web 2.0) pokazuje, że od początku swojego istnienia stanowił on parasol dla innowacyjności, kreatywności i budowy wartości ekonomicznej przekraczającej tradycje kapitalistycznego myślenia. Jak pisze Jonathan Zittrain w swojej książce o przyszłości Internetu „The Future of the Internet”, jego rozwój, bazując na „generatywnych rozwiązaniach”, czyli takich, które pozwalają budować na wynalazkach innych, zapełnił istotną lukę, jaka powstaje, kiedy innowacja leży wyłącznie w rękach sił rynkowych nastawionych na tworzenie profitu.

W systemie opartym na „generatywnym modelu” aktywności podejmowane przez amatorów tworzą rezultaty, które nie powstałyby w modelu zarządzanym wyłącznie przez firmy. Ludzie w sieci mogą pracować samodzielnie lub w grupach. Kombinacja Internetu i komputerów osobistych sprawia, że kolaboracje w sieci są szczególnie efektywne i skuteczne. Dla przykładu projekty typu open source mogą być zbyt skomplikowane dla jednego programisty, ale dostępny jest software, który ułatwia kolaborację. Dostępne CVS (concurrent version systems) pozwalają na to, aby wielu ludzi pracowało nad tym samym projektem w tym samym czasie. Poszczególne wersje są zapisywane, więc zawsze łatwo wrócić do poprzednich. Dzięki temu osoby o zupełnie różnych talentach mogą w szybki i łatwy sposób się nawzajem uzupełniać. Najbardziej chyba znaną egzemplifikacją kolaboracyjnego projektu jest wspomniana wcześniej Wikipedia, którą  każdy może edytować w dowolny sposób w każdej chwili.

Innymi przykładami prostego software pisanego przez amatorów są blogi, które pozwoliły użytkownikom – dziennikarzom amatorom i pisarzom – tworzyć chronologiczny zapis swojej pracy, a następnie dawać do niej dostęp milionom użytkowników, również tym, którzy nie znają tytułu bloga, ale potrafią go wyszukać poprzez zamieszczoną w sieci treść. Istotne wydaje się to, na co zwraca uwagę również Zittrain, że „generatywne technologie” nie muszą w oczywisty sposób produkować „postępu”, jeśli mierzylibyśmy go rozwojem społecznego dobrobytu. Raczej podsycają one zmianę. Ten system pracy przyczynia się do rozwoju wariacji, ulepszeń i kolejnych wersji oraz eksperymentów, które w teorii poprawiają wersję pierwotną lub prowadzą do jej ewolucji, ale mogą też mieć niekorzystne konsekwencje, ponieważ wprowadza się ciągle nowy porządek.

W praktyce skutki generatywnego modelu sieci mogą prowadzić zarówno do konfliktu między tymi, którzy byli pierwsi, a ich następcami, jak również między kontrolą a anarchią. Paradoks generatywności, według Zittraina polega zatem na tym, że jej założona otwartość może skończyć się w różny sposób. Twierdzi on, że Internet oparty na intencjach otwartości, kolaboracji i współtworzenia treści doprowadzi nie tylko do nieprzewidywalnych, lecz także niekorzystnych rezultatów, czyli takich, które będą prowadziły do tworzenia systemów zamkniętych i niedających możliwości dalszego rozwoju technologii.

Zaskakującym dla niektórych przykładem negatywnych aspektów tego rozwoju są aplikacje na telefony komórkowe, bardzo często w postaci zamkniętych, gotowych i skończonych produktów. Pojawiają się więc pytanie i dylemat, czy możliwa jest regulacja technologii sieciowych i Internetu w sposób zapobiegający destrukcji i redukcji, a jednocześnie nieograniczający twórczej, oddolnej i niczym nieskrępowanej kreatywności i innowacyjności.

Przyszłość Internetu: w jaki sposób zachować ducha kolaboracji i samoregulacji?

Rozważając problem regulacji sieci Jonathan Zittrain opisuje holenderskie miasteczko Drahten, które podjęło niecodzienny eksperyment w zakresie zarządzania komunikacją miejską, zdejmując niemal wszystkie znaki uliczne, znaki drogowe, parkometry czy oznaczenia miejsca do parkowania. Drahten jest jednym z kilku miast w eksperymencie europejskim, które testuje strategię „niebezpiecznego bezpieczeństwa”. Jedyną zasadą, jaką pozostawiono, jest ruch prawostronny.

Rezultat był zaskakujący dla wszystkich. Eksperyment wykazał radykalną poprawę zachowania bezpieczeństwa na drogach. W rzeczywistości bez znaków drogowych i regulacji kierowcy są niejako siłą rzeczy zmuszani do bardziej uważnej jazdy oraz zwracania dużo większej uwagi zarówno na siebie, jak i na innych uczestników ruchu drogowego.

Dalej okazuje się, że przepisy i zasady sprawiają, że ludzie tracą swoją podstawową umiejętność – umiejętność bycia odpowiedzialnymi członkami wspólnoty. W końcu zaobserwowano, że im więcej przepisów, tym ludzkie poczucie odpowiedzialności spada, a pojawia się chęć do postępowania wbrew danej regulacji.

We współczesnej cyberprzestrzeni brak regulacji (albo egzekucji) prowadzi do ustalania oddolnych zasad sieciowej etykiety. Myśląc nad projektami regulacji sieciowych, Zittrain namawia do tworzenia takich narzędzi technologicznych, które inspirowałyby ludzi do samoregulacji i autokontroli w sieci.

Dowodem na możliwość budowy takiego systemu jest wspomniana wcześniej Wikipedia. Podstawa jej działania jest podobna do opisanego eksperymentu z ruchem drogowym. Zakładamy, że choć być może nie każdy użytkownik okaże się ekspertem, a część edytujących prawdopodobnie będzie specjalnie wprowadzać błędy, wśród ogółu użytkowników przeważą ludzie odpowiedzialni i chętni do konstruktywnego działania. Każdy może napisać lub edytować daną stronę czy wpis w taki sposób, w jaki potrafi. Ponieważ software Wikipedii zapisuje wszystkie poszczególne wersje, każdy może wrócić do poprzedniej, w dowolnym momencie. Dodatkowo wpisy mają strony dyskusyjne, gdzie wszyscy uczestnicy, nawet ci o najbardziej odmiennych zdaniach, mają szansę we włas
nym gronie wypracować kompromis. Jeśli zatem ktoś chce wprowadzić swoje kontrowersyjne zmiany bez uprzedzenia lub zgody innych na forum, musi liczyć się z tym, że zaproponowane przez niego zmiany zostaną szybko odwrócone.

Z czasem Wikipedia wytworzyła też oddolne zasady etykiety. Jedną z nich jest na przykład umowa, że nikt nie pisze tekstów o sobie ani o swoich najbliższych. Co jednak z politykami lub firmami, które – co zrozumiałe – chcą, aby o nich pisano w jak najlepszym świetle? Rzecz jasna, jak pisze Zittrain, Wikipedia stara się bronić przed sieciowym wandalizmem, blokując na przykład strony szczególnie narażone na akty agresji. Do takich zablokowanych stron mają dostęp jedynie administratorzy, wybierani spośród edytorów, którzy w powstanie danego tekstu wnieśli najwięcej (jeśli oczywiście zaaplikuje się o status takiego wikipedycznego biurokraty). Przy wszystkich pojawiających się problemach Wikipedia stworzyła więc system sieciowej samokontroli, który ma cechy „niebezpiecznego bezpieczeństwa”, porządku sieciowego bez ostro i sztywno wyznaczonych odgórnych przepisów.

Podsumowując, Zittrain twierdzi, że podstawowym czynnikiem, od którego zależeć będzie to, czy Internet przetrwa w obecnej formie, stanie się kolektywna suma działań wszystkich użytkowników, którzy albo mogą doprowadzić do jego zniszczenia, albo działać na rzecz tego, by był on nadal platformą oddolnej innowacji. Państwa, organizacje międzynarodowe i zainteresowani stakeholderzy także mogą odegrać pewną rolę, a mianowicie podtrzymywać warunki sprzyjające otwartemu i kolaboratywnemu rozwojowi Internetu oraz interweniować, kiedy dobra wola użytkowników nie jest w stanie rozwiązać konfliktu.

Jednak to właśnie dobra wola dzielenia się i porozumiewania będzie według Zittraina podstawą rozwoju sieci. Aby ją podtrzymać, użytkownicy muszą uważać Internet za coś, do czego sami przynależą i z czym się mogą utożsamiać.

Przeczytaj również: Zmień reguły, L. Jażdżewski

Foto: http://www.flickr.com/photos/fenng/4247211150/sizes/m/

Bibliografia:

Botsnam R., Rogers R., What’s Mine is Yours. The Rise of Collaborative Consumption, Harper Collins 2009.
Castells M., Communications Power,OxfordUniversityPress 2009.
Gladwell M., Small change. Why the revolution will not be tweeted,  „New York Times” 4.10. 2010.
Lehrer M., Our Cluttered Minds, „The New York Times”, 6.10.2010.
Living and Leaning with New Media. Building the Field of Digital Media and Learning, MacArthur Foundation Report, November 2008.
The new Sharing Economy, „Shareable Magazine” and Latitude Research study, 5.10.2010.
Jenkins H., The Convergence Culture,New YorkUniversityPress 2006.
Morozow E., Loosing our minds to the web, [w:] Prospect, Issue 172, 22.06.2001.
Sharr N., The Shallows, Norton & Company.
Shirky C., Here comes everybody, Penguin Books 2008.
Sunstein C., Republic.com,PrincetonUniversityPress 2002.
Zittrain J., The Future of the Internet, Penguin Books 2008.

Kontrolowana dekompozycja strefy euro aby uratować Unię Europejską i jednolity rynek :)

Główne tezy

 

  1. Unia Europejska i jednolity rynek stanowią wielkie osiągniecia. Ich utrzymanie ma kluczowe znaczenie dla przyszłej pomyślności poszczególnych państw europejskich, a w tym Polski i innych krajów Europy Środkowo-Wschodniej.
  2. Wprowadzenie euro okazało się posunięciem chybionym, które zamiast scementować Unię Europejską może doprowadzić do poważnych konfliktów i zagrozić współpracy europejskiej. Głównym problemem związanym ze wspólną walutą jest to, że państwa członkowskie pozbawione zostały możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia instrumentem dostosowawczym, jakim jest możliwość zmiany kursu walutowego.
  3. W przypadku utraty międzynarodowej konkurencyjności lub nagłej utraty zaufania rynku, osłabienie waluty (połączone z odpowiednią polityką fiskalną i monetarną) jest instrumentem skutecznie przywracającym konkurencyjność gospodarki i równowagę w obrotach międzynarodowych, pozwalającym na szybkie wejście na ścieżkę wzrostu gospodarczego.
  4. Próby usunięcia poważnej luki w konkurencyjności kraju, bez zmiany kursu walutowego, poprzez restrykcje fiskalne lub zacieśnienie monetarne, powodują duże koszty w postaci spadku realnego PKB i wzrostu bezrobocia, a w warunkach systemu demokratycznego kończą się bardzo często niepowodzeniem.
  5. Usiłowania poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego przez transfery fiskalne są bardzo kosztowne i mało skuteczne. Pokazują to doświadczenia Włoch i Niemiec, które przez wiele lat wydawały olbrzymie środki na „podciąganie” niekonkurencyjnych regionów, nie osiągając zadawalających rezultatów.
  6. Europa jest złożona z państw narodowych, które stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Pozostawanie w strefie euro skazać może państwa, które utraciły konkurencyjność, na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji. Może to doprowadzić do zachwiania spójności społecznej i politycznej w poszczególnych państwach członkowskich, zagrażając porządkowi demokratycznemu.
  7. Uporczywa obrona euro w przekonaniu, że „upadek Euro oznacza początek końca Unii Europejskiej i jednolitego rynku” może przynieść efekty odwrotne od zamierzonych. Grozi długotrwałą recesją i wysokim bezrobociem w krajach usiłujących poprzez zacieśnienie fiskalne dokonać „wewnętrznej dewaluacji”. Doprowadzić to może do załamania politycznego i niekontrolowanego rozpadu strefy euro, o nieobliczalnych konsekwencjach politycznych i gospodarczych dla całej Europy.
  8. Aby uprzedzić niekontrolowany rozpad, trzeba przeprowadzić kontrolowaną dekompozycję strefy euro, tworząc nowy europejski ład monetarny oparty o waluty narodowe lub waluty homogenicznych gospodarczo bloków krajów.
  9. Podział strefy euro poprzez wychodzenie z niej krajów mniej konkurencyjnych groziłby wybuchem paniki i załamaniem systemu bankowego w tych krajach. Dlatego właściwa jest kolejność odwrotna tzn. demontaż strefy euro poprzez stopniowe wychodzenie krajów lub grup krajów najbardziej konkurencyjnych.
  10. Kontrolowana dekompozycja strefy euro będzie możliwa, jeśli tylko europejskie elity i opinia publiczna oswoją się z myślą, że Unia Europejska i jednolity rynek mogą funkcjonować bez euro i zostaną uzgodnione zasady nowego ładu walutowego w Europie. Do tego czasu powinny być prowadzone działania zapobiegające niekontrolowanemu rozwojowi wydarzeń.


http://www.flickr.com/photos/patries71/293270513/sizes/m/in/photostream/
by patries71

Wprowadzenie

 

W pierwszej połowie XX wieku Europa była wylęgarnią konfliktów, które doprowadziły do wybuchu dwóch straszliwych wojen światowych. W drugiej połowie XX wieku, dzięki realizacji idei integracji europejskiej, powstała Unia Europejska i jednolity rynek. Instytucje te są wielkim sukcesem politycznym i gospodarczym. Po rozpadzie bloku sowieckiego, aspiracje poszczególnych państw do członkostwa w Unii Europejskiej i ułatwiony dostęp do wspólnego rynku europejskiego należały do kluczowych czynników, które przyczyniły się do powodzenia politycznej i gospodarczej transformacji byłych krajów socjalistycznych. Dzisiaj, od utrzymania Unii Europejskiej i jednolitego rynku zależy przyszła pomyślność gospodarcza poszczególnych państw europejskich, a w tym i Polski.

Wprowadzenie wspólnej waluty europejskiej na przełomie XX i XXI wieku było kolejnym etapem integracji, z którym wiązano wielkie nadzieje. Jednakże po blisko dekadzie sukcesów strefa euro znalazła się na rozdrożu. Obecny kryzys mobilizuje znaczną część polityków i opinii publicznej do postulowania zdecydowanej obrony euro w przekonaniu, że niepowodzenie projektu wspólnej waluty byłoby początkiem rozkładu Unii Europejskiej i jednolitego rynku europejskiego. Rozumiemy ten pogląd i podzielamy część przesłanek, którymi kierują się jego zwolennicy. Obawiamy się jednak, że utrzymywanie wspólnej waluty przyniesiecie efekty całkowicie odmienne od oczekiwań. Zamiast umocnić i scementować Unię Europejską, może doprowadzić do bardzo poważnych konfliktów i spowodować dezintegrację UE i rozpad jednolitego rynku. Fundamentalnym problemem związanym ze wspólną walutą w Europie jest pozbawienie państw członkowskich możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia w sytuacji kryzysowej instrumentem dostosowawczym, jakim jest możliwość korekty kursu walutowego. Wprowadzenie euro okazało się wbrew intencjom krokiem sprzecznym z dotychczasową filozofią integracji europejskiej polegającą na respektowaniu potrzeb wszystkich członków i przyjmowaniu rozwiązań, które nikomu nie zagrażają. Pozostawanie w strefie euro skazać może państwa członkowskie, które z jakiś powodów utraciły lub w przyszłości utracą konkurencyjność, na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości zmiany tej sytuacji. Może to doprowadzić do zachwiania spójności społecznej i politycznej w poszczególnych państwach członkowskich, do rozwoju tendencji populistycznych zagrażających porządkowi demokratycznemu i pokojowej współpracy w Europie. Sytuacja może wymknąć się spod kontroli i spowodować chaotyczny rozpad strefy euro, co zagrozić może przyszłości UE i jednolitego rynku.

Aby powrócić do źródeł idei integracji europejskie i uniknąć niekontrolowanego rozpadu wspólnej waluty, należy przeprowadzić kontrolowaną dekompozycję strefy euro, tworząc przy tym nowy europejski ład monetarny oparty o waluty narodowe lub waluty homogenicznych grup krajów, zachowując instytucje Unii Europejskiej i jednolity rynek europejski.

Nasz tekst składa się z dziesięciu rozdziałów. W rozdziale I wskazujemy, że istotą problemów zagrożonych gospodarek strefy euro jest utrata konkurencyjności, której przyczyny są zresztą w poszczególnych krajach odmienne.

W rozdziale II omawiamy dwa dostępne mechanizmy krótkookresowej poprawy konkurencyjności kraju: osłabienie waluty (poprzez decyzję o dewaluacji lub samoczynną deprecjację) oraz deflację (nazywaną obecnie często „wewnętrzną dewaluacją”). Osłabienie waluty jest doraźnie instrumentem bardzo skutecznym, choć aby trwale poprawić konkurencyjność gospodarki, musi być wsparte odpowiednią polityką fiskalną i monetarną. Natomiast polityka deflacyjna jest ze swojej natury instrumentem znacznie mniej skutecznym i powodującym bez porównania większe koszty w postaci spadku PKB i wzrostu bezrobocia, co sprawia, że jest to polityka trudna do utrzymania w realiach państw demokratycznych.

W rozdziale III omawiamy wybrane doświadczenia historyczne sprzed zapoczątkowanego w 2008 roku światowego kryzysu finansowego, związane ze stosowaniem deflacji oraz funkcjonowaniem mechanizmu osłabienia waluty. Przytaczamy wyjaśnienie, dlaczego deflacja była skutecznym mechanizmem dostosowawczym w okresie przed Pierwszą Wojną Światową, a przestała nim być w okresie międzywojennym. Omawiamy pouczający przykład spektakularnego niepowodzenia polityki deflacyjnej, jakim była uporczywa obrona wymienialności funta szterlinga po zawyżonym kursie w Wielkiej Brytanii w drugiej połowie lat 1920-tych. Przypominamy, że dewaluacja była jednym z najistotniejszych posunięć w ciągu pierwszych miesięcy prezydentury Franklina Delano Roosevelta w USA w 1933 roku. Przedstawiamy kontrowersje dotyczące polityki dewaluacji stosowanej przez wiele krajów w latach 1930-tych i wyjaśniamy, że nie podważa to tezy o skuteczności dewaluacji. Przytaczamy przykłady z lat 1990-tych, z kryzysu azjatyckiego i kryzysu rosyjskiego, wskazujące, że programy dostosowawcze zawierające dewaluację mogą być bardzo skuteczne w szybkim przywracaniu konkurencyjności gospodarki i równowagi na rachunku obrotów bieżących, umożliwiając wyprowadzenie gospodarki z głębokiego kryzysu i szybkie wejście na ścieżkę wzrostu. Omawiamy pouczający przypadek Argentyny z przełomu XX i XXI wieku ilustrujący trzy istotne obserwacje. Po pierwsze, kraj, który znajduje się w dobrej sytuacji makroekonomicznej i stworzył solidne wydawałoby się ramy instytucjonalne, może, z nieprzewidywanych wcześniej powodów, popaść w problemy z związane z utratą konkurencyjności. Po drugie, w warunkach sztywnego kursu walutowego, usiłowanie przywrócenia konkurencyjności poprzez politykę deflacyjną może doprowadzić do poważnych niepokojów społecznych. Po trzecie, osłabienie waluty jest bardzo silnym instrumentem dostosowawczym, może pozwolić na szybkie wyjście z chaosu politycznego i gospodarczego i wejście na ścieżkę wzrostu gospodarczego. Zwracamy uwagę, że nie jest to instrument cudowny, który może samodzielnie i bezboleśnie rozwiązać wszelkie problemy. Jego nadużywanie jest szkodliwe, lecz w sytuacji kryzysowej szybka odbudowa konkurencyjności bez osłabienia waluty jest przedsięwzięciem niezwykle trudnym lub wręcz niemożliwym.

W rozdziale IV zastanawiamy się, czy pogłębiona unia fiskalna mogłaby dostarczyć alternatywnych wobec osłabienia waluty lub deflacji instrumentów do poprawy konkurencyjności zagrożonych krajów. W tym celu na przykładzie Południa Włoch i Niemiec Wschodnich omawiamy próby poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego przez politykę pomocy strukturalnej i transfery budżetowe. Uzasadniamy pogląd, że są to działania tak mało skuteczne i tak kosztowne, że nie można liczyć na to, by stały się istotnym instrumentem poprawy konkurencyjności niekonkurencyjnych gospodarek w ramach strefy euro.

W rozdziale V omawiamy doświadczenia, na które często powołują się ekonomiści uważający, że polityka tzw. „wewnętrznej dewaluacji”, czyli deflacji, realizowana za pomocą redukcji wydatków budżetowych, może być dziś skuteczną terapią dla zagrożonych gospodarek strefy euro. Omawiamy doświadczenie Łotwy, pokazując, że trudno je uznać za argument do rekomendowania metody „wewnętrznej dewaluacji”. Porównujemy doświadczenie Łotwy i Islandii, pokazując, że dzięki dewaluacji waluty w Islandii, koszty dostosowania w celu wyprowadzenia kraju z głębokiego kryzysu były znacznie mniejsze niż na Łotwie. Przytaczamy analizę przypadków udanych ekspansywnych dostosowań fiskalnych tzn. sytuacji, w których zacieśnienie fiskalne od razu stało się impulsem do przyspieszenia wzrostu gospodarczego. Okazuje się, że w przypadkach tych zacieśnieniu fiskalnemu towarzyszyło duże osłabienie krajowej waluty lub zasadnicza obniżka stóp procentowych i spadek inflacji. Na ekspansywne efekty zacieśnienia fiskalnego trudno więc liczyć w krajach wewnątrz strefy euro, gdy osłabienie waluty krajowej jest niemożliwe, a inflacja i stopy procentowe już są bardzo niskie.

W rozdziale VI podsumowujemy wnioski wynikające z rozdziałów I-V dla możliwości pomyślnego funkcjonowania jednej waluty w Europie. Zwracamy uwagę, że Europa fundamentalnie różni się od USA, gdyż jest złożona z narodów mówiących różnymi językami, odwołujących się do własnych tradycji i zorganizowanych w ramach państw narodowych. Państwa narodowe stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Nic nie wskazuje na to, by sytuacja ta miała się zasadniczo zmienić w ciągu najbliższego stulecia. Unia Europejska i jej instytucje są tworami służebnymi, które państwa członkowskie stworzyły, aby poprawić swoje bezpieczeństwo i pomyślność gospodarczą. Sukces integracji oparty był na filozofii respektowania potrzeb wszystkich członków, przyjmowaniu rozwiązań, które są korzystne dla wszystkich i nikomu nie zagrażają. Wprowadzenie wspólnej waluty paradoksalnie podważa dotychczasową filozofię integracji. Państwo należące do strefy euro, które z jakichś powodów utraci konkurencyjność lub będzie zmuszone w krótkim czasie zamknąć deficyt na rachunku obrotów bieżących, może zostać w praktyce skazane na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji. Naszym zdaniem problemy te mają zupełnie inny wymiar, gdy dotyczą zacofanych regionów w poszczególnych państwach, a inny –znacznie poważniejszy – gdy dotyczą całego państwa. Zwracamy uwagę, że Europa, w której społeczności narodowe zostaną pozbawione możliwości poprawy swojego bytu i jedyną alternatywą pozostanie dla nich migracja, zostanie narażona na groźne konflikty.

W rozdziale VII omawiamy opcję kontrolowanej dekompozycji strefy euro. Ponieważ wychodzenie ze strefy euro krajów zagrożonych groziłoby tam wybuchem paniki i załamaniem systemu bankowego, proponujemy kolejność odwrotną tzn. rozmontowanie strefy euro poprzez stopniowe wychodzenie krajów lub grup krajów najbardziej konkurencyjnych.

W rozdziale VIII zastanawiamy się nad tym, jaki mechanizm koordynacji walutowej można wprowadzić w Europie w przypadku dekompozycji strefy euro. Pokazujemy, że istnieją akceptowalne alternatywy dla systemu jednej waluty, które, choć nie są doskonałe, umożliwiają pomyślny rozwój gospodarki, a także rozwój pokojowej współpracy europejskiej. Zwracamy uwagę, że próby wprowadzenia i utrzymania za wszelka cenę rozwiązania mającego raz na zawsze uwolnić Europę od niedoskonałych systemów koordynacji walutowej mogą prowadzić do katastrofy ekonomicznej i politycznej. Do katastrofy takiej przyczynił się system waluty opartej na parytecie złota w okresie międzywojennym, a obecnie jest bardzo prawdopodobne, że katastrofę taką może spowodować uporczywa obrona systemu jednej waluty w Europie.

W rozdziale IX rozważamy argumenty i ostrzeżenia przed dekompozycją strefy euro. Odnosimy się do opinii sugerujących, że rozwiązanie strefy euro: doprowadzi do ekonomicznej katastrofy w Europie, spowoduje gwałtowną aprecjację waluty niemieckiej i wywoła recesję w Niemczech, osłabi pozycję Europy wobec światowych potęg gospodarczych USA, Chin i Indii. Nie lekceważymy tych argumentów, lecz zwracamy uwagę, że opierają się one na bardzo wątpliwych założeniach. Po pierwsze, na założeniu, że Europa z jedną walutą jest w stanie przezwyciężyć obecny kryzys i w przyszłości pomyślnie się rozwijać. Po drugie, na założeniu, że demontaż strefy euro musi spowodować rozpad jednolitego rynku i dezintegrację UE. Jest oczywiste, że przy tych założeniach rozwiązanie strefy euro byłoby szkodliwe dla wszystkich i nie miałoby ekonomicznego sensu. Jednakże, założenia te są nieuprawnione, co staramy się uzasadnić w naszym tekście. Po pierwsze, uporczywa obrona wspólnej waluty narażać będzie Europę na olbrzymie problemy i konflikty, będzie hamować jej wzrost gospodarczy i osłabiać pozycję międzynarodową, a może zakończyć się niekontrolowanym rozpadem strefy euro, o nieobliczalnych konsekwencjach. Po drugie, w proponowanym przez nas wariancie dekompozycja strefy euro odbędzie się w sposób uzgodniony i kontrolowany, tak aby zachować UE i jednolity rynek europejski, a jednocześnie możliwe będzie stworzenie mechanizmu koordynacji walutowej, który ograniczy skalę aprecjacji nowej waluty Niemiec w okresie przejściowym.

W rozdziale X omawiamy najbardziej prawdopodobne warianty wydarzeń w przypadku kontynuacji uporczywej obrony euro i kontynuacji polityki deflacji zwanej „wewnętrzną dewaluacją”. Omawiamy podstawowe scenariusze: 1) scenariusz trwalej zapaści politycznej i społecznej niekonkurencyjnych państw oraz 2) scenariusz nieskoordynowanego rozpadu strefy euro. Odnotowujemy także mniej prawdopodobny, lecz niewykluczony wariant przezwyciężenia obecnego kryzysu strefy euro, co może nastąpić w wyniku kombinacji pozytywnych czynników takich jak: silne ożywienie w gospodarce światowej, istotne osłabienie euro i wypracowanie przez strefę euro jako całość wysokiej nadwyżki handlowej lub wystąpienie znacznie lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”. Jeśli strefa euro przezwycięży obecny kryzys, to w przyszłości poważne problemy z konkurencyjnością mogą pojawić się ponownie w różnych krajach. Los kraju, który z jakiś przyczyn utraci konkurencyjność będzie w ramach strefy euro zawsze nie do pozazdroszczenia.

W „Zakończeniu” uzasadniamy pogląd, że nawet w wariancie przezwyciężenia obecnego kryzysu, w dającej się przewidzieć przyszłości trudno liczyć na istotne rozszerzenie strefy euro. Utrzymywanie strefy euro skazywać będzie EU na podział na trzy grupy krajów tworzące swoistą „Europę trzech prędkości”.

Dziękujemy osobom, które pomogły w przygotowaniu niniejszego tekstu. Krzysztof Błędowski, Marcin Gozdek, Kamil Kamiński i Agata Miśkowiec dostarczyli nam niektóre dane i analizy. Wszystkim im, a także Wojciechowi Arkuszewskiemu, Sergiuszowi Kowalskiemu i Adamowi Parfiniewiczowi jesteśmy wdzięczni za możliwość dyskusji, uwagi i komentarze, które w niektórych przypadkach były dalekie od zbieżności z poglądami prezentowanymi w tekście.

Tekst wyraża wyłącznie osobiste poglądy autorów.

I.      Utrata konkurencyjności istotą problemu zagrożonych gospodarek strefy euro

W roku 2010 Grecja, Portugalia, Włochy, Hiszpania i Irlandia napotkały na poważne problemy ze sprzedażą swoich obligacji. Oprocentowanie, jakiego żądali inwestorzy, drastycznie wzrosło. Od tego czasu państwa strefy euro i Europejski Bank Centralny podejmują rozmaite działania dla złagodzenia i rozwiązania problemów zagrożonych gospodarek. Początkowo liderzy polityczni i gospodarczy Unii Europejskiej stali na stanowisku, że mamy do czynienia tylko z czasowym zachwianiem płynności finansowej i zagrożone kraje po przeprowadzeniu odpowiednich reform poradzą sobie ze spłatą długu. Obecnie co najmniej w przypadku Grecji oficjalne stanowisko UE przyznaje, że problem dotyczy wypłacalności, czyli zdolności kraju do spłacenia swojego długu, i zaakceptowano, że konieczna jest redukcja zadłużenia. Obawy o wypłacalność dotyczą także innych zagrożonych krajów.

Istotą problemów zagrożonych krajów strefy euro (oprócz Irlandii) jest utrata międzynarodowej konkurencyjności. Zjawisko polega najogólniej mówiąc na tym, że płace w gospodarce stają się zbyt wysokie w stosunku do produktywności w sektorze wytwarzającym dobra podlegające wymianie międzynarodowej. W efekcie, wytwarzane w kraju produkty zaczynają być wypierane z rynku krajowego i rynków zagranicznych przez produkty wytwarzane w innych krajach. Spada produkcja i zatrudnienie w sektorze produkującym dobra podlegające wymianie międzynarodowej. Dopóki spadek ten jest równoważony przez wzrost zatrudnienia i PKB w sektorach wytwarzających dobra niepodlegające wymianie międzynarodowej, w szczególności w budownictwie i w usługach, pogorszenie konkurencyjności nie musi powodować spadku zatrudnienia i spadku PKB w całej gospodarce, lecz objawia się w pogorszeniu bilansu handlowego i salda na rachunku obrotów bieżących. Ujemne saldo bilansu handlowego i deficyt na rachunku obrotów bieżących mogą nie stwarzać problemu, dopóki nie pojawią się kłopoty z ich finasowaniem.

W latach 1999-2011 jednostkowy koszt pracy (wartość wynagrodzeń na jednostkę wytwarzanego produktu) w Grecji, Włoszech, Hiszpanii, Portugalii i Francji zwiększył się w relacji do jednostkowego kosztu pracy w Niemczech o 19-26%. Pogorszenie konkurencyjności wymienionych krajów wobec Niemiec znalazło swoje odbicie w pogorszeniu sald bilansu handlowego i rachunku obrotów bieżących. W roku 2010 wymienione kraje miały deficyty obrotów bieżących wysokości od 2 do 10 proc PKB i miały łącznie deficyt handlowy wysokości 167 mld euro, podczas gdy Niemcy uzyskały nadwyżkę handlową w wysokości 154 mld euro, osiągając nadwyżkę rachunku obrotów bieżących w wysokości blisko 6% PKB.

Trzeba zaznaczyć, że przyczyny utraty konkurencyjności w poszczególnych krajach były inne. W Grecji, Portugalii i Włoszech przyczynił się do tego deficyt budżetowy i duży dług publiczny. Natomiast w Hiszpanii, która – do chwili wybuchu światowego kryzysu finansowego – pod względem przestrzegania kryteriów Maastricht dotyczących deficytu i długu publicznego zachowywała się lepiej niż Niemcy, przyczyną utraty konkurencyjności była olbrzymia ekspansja zadłużenia prywatnego napędzająca boom budowlany i wzrost płac.

Obecnie rynki finansowe nie chcą już dobrowolnie finansować deficytu obrotów bieżących Grecji, Portugalii, Włoch i Hiszpanii. Aby poprawić swoje bilanse handlowe i zlikwidować deficyty na rachunku obrotów bieżących, kraje te powinny prawdopodobnie obniżyć płace o 20-30%. W przypadku kraju posiadającego własną walutę, poprawa konkurencyjności tego rzędu mogłaby się dokonać w krótkim czasie w wyniku osłabienia krajowej waluty, nie powodując szkody w skali działalności gospodarczej i poziomie zatrudnienia. Przykładem takiego dostosowania może być Polska, która jest członkiem UE, lecz nie należy do strefy euro. W okresie kulminacji światowego kryzysu finansowego między jesienią 2008 a wiosną 2009 polski złoty osłabił się o około 30%. Dzięki temu w roku 2009 saldo polskiego handlu zagranicznego poprawiło się o 3% PKB, co było prawdopodobnie najistotniejszym czynnikiem, dzięki któremu w roku 2009 Polska, jako jedyny kraj w UE, cieszyła się wzrostem gospodarczym, podczas gdy gospodarki wszystkich pozostałych krajów UE skurczyły się.

Zagrożone kraje znajdujące się w strefie euro nie mogą jednak poprawić swojej konkurencyjności poprzez dostosowanie kursu walutowego, gdyż nie mają własnej waluty. W związku z tym, zgodnie z zaleceniami Komisji Europejskiej, Europejskiego Banku Centralnego i Międzynarodowego Funduszu Walutowego, starają się poprawić konkurencyjność poprzez zacieśnienie fiskalne (tj. obniżenie wydatków budżetowych i podniesienie podatków) mające powodować nominalny spadek płac, świadczeń i cen. Politykę taką określa się obecnie terminem „wewnętrzna dewaluacja”, choć mamy do czynienia po prostu z polityka deflacyjną realizowaną narzędziami fiskalnymi.

 

II.   Osłabienie waluty i deflacja – dwie alternatywne metody krótkookresowego przywracania konkurencyjności gospodarki

 

Istnieją dwie metody krótkookresowej poprawy konkurencyjności: osłabienie waluty krajowej lub deflacja, czyli obniżenie krajowych cen i płac. Osłabienie waluty może mieć formę dewaluacji, w przypadku, gdy kurs waluty jest określany przez władze monetarne, lub samoczynnej deprecjacji, gdy kurs walutowy jest określany przez rynek. Deflacja może nastąpić natomiast jako efekt silnego ograniczenia popytu przez zacieśnienie fiskalne lub restrykcyjną politykę monetarną. Efektem zarówno osłabienia waluty, jak i deflacji jest obniżenie wartości płac i innych dochodów krajowych wyrażonych w walutach partnerów handlowych, co przyczynia się do poprawy bilansu handlowego.

Istotną różnicą miedzy omawianymi metodami jest to, że osłabienie waluty powoduje automatyczne obniżenie płac wyrażonych w walutach zagranicznych i poprawę konkurencyjności, co staje się impulsem do wzrostu produkcji krajowej, natomiast deflacja jest zjawiskiem znacznie bardziej rozłożonym w czasie. Polityka deflacyjna musi najpierw poprzez spadek popytu spowodować spadek produkcji i w konsekwencji zatrudnienia, po to by rosnące bezrobocie mogło skłonić pracowników w sektorze prywatnym do akceptowania obniżek płac. Deflacja wymaga podjęcia tysięcy decyzji przez podmioty gospodarcze i zmiany tysięcy umów. Decyzje o obniżkach cen podejmowane są dopiero wtedy, gdy poszczególni przedsiębiorcy napotykają barierę popytu w postaci spadku sprzedaży. Pracownicy zaczynają akceptować obniżki płac wtedy, gdy wyraźnie rośnie bezrobocie. Spadek wartości cen i płac w przeliczeniu na waluty zagraniczne w procesie deflacji nigdy nie jest więc automatyczny i powszechny, tak jak to jest w przypadku zmiany kursu walutowego. Ponadto spadek ten w wyniku deflacji następuje zacznie wolniej niż może to nastąpić w przypadku osłabienia waluty, gdzie dostosowanie płac w całej gospodarce może nastąpić z dnia na dzień.

W przypadku gdy gospodarka generuje wysoki deficyt na rachunku obrotów bieżących i ustaną źródła jego finasowania, a nie następuje szybka poprawa konkurencyjności, niezbędna redukcja deficytu dokonuje się poprzez spadek zatrudniania i produkcji. Stąd mniejsza i wolniej postępująca poprawa konkurencyjności poprzez deflację sprawia, że w przypadku konieczności ograniczenia deficytu handlowego, dostosowanie takie poprzez politykę deflacyjną musi się odbyć kosztem głębszego spadku zatrudniania i realnego PKB niż gdyby odbywało to się poprzez osłabienie waluty.

Osłabienie waluty jest więc ze swojej natury bardziej skutecznym i bez porównania mniej kosztownym społecznie i ekonomicznie instrumentem krótkookresowej poprawy konkurencyjności niż deflacja. Należy jednak podkreślić, że poprawa konkurencyjności w wyniku zmiany kursu walutowego nie musi być trwała. Tylko przy odpowiednio restrykcyjnej polityce fiskalnej i monetarnej, osłabienie waluty może trwale poprawić konkurencyjność gospodarki i wprowadzić ją na ścieżkę wzrostu. Jeżeli braknie takiego wsparcia, to osłabienie waluty prowadzi do wzrostu cen i płac, a szybko uzyskana poprawa konkurencyjności jest zjadana przez inflację.

III.            Wybrane doświadczenia historyczne dotyczące polityki deflacyjnej i dewaluacji

 

W systemie waluty opartej o złoto[1]/, który wykształcił się w drugiej połowie XIX wieku i funkcjonował do wybuchu I Wojny Światowej w 1914 r., polityka deflacyjna była podstawowym instrumentem przywracania konkurencyjności gospodarki i równowagi w obrotach międzynarodowych. Deficyt handlowy kraju, jeśli nie był finansowany napływem kapitału z zagranicy, powodował odpływ złota z rezerw banku emisyjnego realizującego swoje zobowiązanie do wymiany waluty na złoto. W takim przypadku bank emisyjny, aby zapobiec zagrożeniu dla swojej zdolności do wymiany waluty na złoto, podnosił stopę dyskontową zmniejszając podaż kredytu w gospodarce i powodując presję na obniżkę cen. Deflacja obniżała popyt na towary importowane, poprawiała konkurencyjność gospodarki i bilans handlowy. Karl Polanyi[2]/, a za nim Barry Eichengreen poświęcili wiele uwagi wyjaśnieniu, dlaczego deflacja była skutecznym mechanizmem dostosowawczym w okresie przed I Wojna Światową, a przestała nim w okresie międzywojennym. Zdaniem Eichengreena przed I Wojną Światową polityka banków centralnych podporządkowana była jednemu celowi, jakim było utrzymanie rezerw złota na poziomie gwarantującym wymienialność waluty na złoto według stałego parytetu. Gdy było to potrzebne dla tego celu, bank centralny nie wahał się przed prowadzeniem polityki deflacyjnej i żadne inne względy nie były przy tym poważnie brane pod uwagę. Prowadzenie nieskrępowanej polityki deflacyjnej ułatwiał fakt, że nie było wówczas żadnej uznanej teorii wyjaśniającej wpływ polityki banku centralnego na gospodarkę i poziom bezrobocia[3]/. Bezrobocie zresztą jako zdefiniowana kategoria ekonomiczna i społeczna pojawiło się w dyskusjach dopiero na przełomie XIX i XX wieku[4]/. Nie było wówczas powszechnych praw wyborczych, w większości krajów prawo głosu było ograniczone do ludzi posiadających majątek. Bezrobotni pozbawieni pracy w wyniku polityki banku centralnego nie byli świadomi tego związku, a ponadto mieli niewielkie możliwości przedstawienia swoich interesów w ówczesnym systemie politycznym[5]/. Związki zawodowe i regulacje pracownicze były w powijakach, dzięki temu płace były stosunkowo elastyczne i stąd polityka deflacyjna mogła być skuteczna w ich obniżaniu[6]/. Z tego punktu widzenia sytuacja w okresie międzywojennym była już istotnie różna. Wszystkie warstwy społeczne uzyskały prawo wyborcze, wzrosła siła związków zawodowych, bezrobocie stało się istotną kategorią ekonomiczną i problemem politycznym, i zaczęto łączyć je z polityką banku centralnego. Działania związków zawodowych i regulacje prawa pracy zmniejszyły swobodę obniżania płac. Wobec usztywnienia płac, dla osiągniecia danego efektu w zakresie obniżki popytu w gospodarce potrzebny był większy wzrost bezrobocia niż w przypadku elastycznych płac. Coraz powszechniejsza była świadomość konfliktu między celem utrzymania równowagi zewnętrznej, a utrzymaniem dobrej koniunktury w kraju.

Spektakularną ilustracją tych różnic oraz niepowodzeń deflacji w okresie międzywojennym jest nieudana obrona przewartościowanego parytetu wymiany funta szterlinga w Wielkiej Brytanii w latach 1925-1931. W 1925 Wielka Brytania przywróciła zawieszoną po wybuchu I Wojny Światowej wymienialność funta na złoto. Przywrócono przedwojenny parytet funta do złota, choć ówczesne ceny w Wielkiej Brytanii nie odpowiadały przedwojennym. Przeciwko przywróceniu parytetu wymiany oponował John Maynard Keynes – wówczas jeden z ekspertów konsultowanych przez kanclerza skarbu Winstona Churchilla. W pamflecie „The Economic Consequences of Mr. Churchill” (skutki gospodarcze działań pana Churchilla) Keynes oceniał, że przywrócenie przedwojennego parytetu oznacza przewartościowanie funta o 10-15%, co obniży konkurencyjność brytyjskiego eksportu i spowoduje wzrost bezrobocia[7]/. Według późniejszych ocen faktyczne przewartościowanie było nieco mniejsze, w granicach 5-10%[8]/. Decyzja o przywróceniu przedwojennego przewartościowanego parytetu jest powszechnie uważana za podstawową przyczynę wolnego wzrostu gospodarki i wysokiego bezrobocia w Wielkiej Brytanii w drugiej dekadzie lat 1920-tych[9]/. W tym czasie Francja, która przywróciła wymienialność w roku 1924 wg nowego niedowartościowanego parytetu miała znacznie wyższy wzrost gospodarczy i niższe bezrobocie[10]/. Przez sześć lat gospodarka i społeczeństwo brytyjskie ponosili olbrzymie koszty broniąc przewartościowanej waluty. Aby chronić bilans handlowy i ograniczać wypływ złota z kraju, Bank Anglii musiał ograniczać podaż kredytu, a rząd wprowadzać kolejne restrykcje fiskalne. Polityka deflacyjna dławiła gospodarkę, lecz problemu przewartościowanej waluty brytyjskiej nie udało się rozwiązać. Ostatecznie w roku 1931, wobec utrzymującego się 20 procentowego bezrobocia, Wielka Brytania odeszła od systemu waluty złotej i pozwoliła na dewaluację funta o około 30 proc. Przyniosło to pewną ulgę gospodarce brytyjskiej w warunkach głębokiego kryzysu gospodarki światowej.

Naszym zdaniem to doświadczenie brytyjskie sprzed 80 lat powinno dawać do myślenia współczesnym liderom europejskim. Po pierwsze, przykład ten demonstruje duże koszty ekonomiczne i społeczne oraz niewielką skuteczność polityki deflacyjnej jako instrumentu przywracania konkurencyjności przy usztywnionym kursie walutowym. Wówczas, prowadzona przez 6 lat polityka deflacyjna nie potrafiła sobie poradzić z poziomem cen zawyżonym o 5-10% i nie doprowadziła do przywrócenia konkurencyjności kraju. Czy można spodziewać się, że dziś za pomocą tej polityki uda się przywrócić konkurencyjność gospodarek, w których poziom płac jest zawyżony o 20-30%? Po drugie, przykład ten ilustruje, jak olbrzymie koszty ekonomiczne, społeczne i polityczne mogą być spowodowane ograniczeniami w myśleniu, jakie narzucili sobie liderzy gospodarczy i polityczni. Wówczas przyjmowano, że system waluty opartej o złoto jest jedynym systemem gwarantującym zdrowy pieniądz, a utrzymanie przedwojennego parytetu funta do złota jest niezbędne dla zachowania wiarygodności brytyjskiego systemu monetarnego. Wysocy przedstawiciele brytyjskiego Ministerstwa Skarbu do ostatniej chwili reagowali z oburzeniem na sugestie, że Wielka Brytania mogłaby odejść od ówczesnego parytetu wymieniany funta na złoto[11]/. Gubernator Banku Anglii Montagu Norman wiosną 1931 roku zabiegał w przygniecionych Wielkim Kryzysem Stanach Zjednoczonych o pożyczkę, która mogłaby przedłużyć utrzymywanie wymienialności funta według tradycyjnego parytetu. Gdy to się nie udało, żalił się, że „Stany Zjednoczone są ślepe nie podejmując kroków dla uratowania świata i systemu waluty opartej o złoto”[12]/. Utożsamianie losów świata z ówczesnym systemem walutowym było błędne, gdyż jak wiemy system waluty opartej o złoto się załamał, a świat mimo wszystko przetrwał. Natomiast uporczywe trwanie w systemie waluty opartej o złoto było kluczowym czynnikiem, który przyczynił się do pogłębienia i międzynarodowego rozprzestrzenienia Wielkiego Kryzysu, który prawie doprowadził do upadku demokratycznego kapitalizmu na świecie[13]/. To doświadczenie sprzed 80 lat powinno dawać do myślenia współczesnym liderom europejskim, którzy powtarzają, że utożsamiają przyszłość Unii Europejskiej i wspólnego rynku z projektem euro.

Warto przypomnieć, że jednym z najistotniejszych posunięć w czasie pierwszego roku rządów Franklina Delano Roosevelta w 1933 roku, obok uporządkowania i rozpoczęcia odbudowy systemu bankowego, było zawieszenie wymienialności dolara na złoto i dewaluacja dolara o 40%.

Odejście Wielkiej Brytanii, a następnie USA od systemu waluty opartej o złoto rozpoczęło kilkuletni okres, w którym poszczególne kraje wykorzystywały dewaluację jako instrument poprawy konkurencyjności. Polityka ta była przedmiotem wielu kontrowersji, bowiem dewaluacja poprawiała konkurencyjność danego kraju kosztem jego partnerów handlowych, zmuszając ich często również do dewaluacji. Zdaniem Eichengreena nie może to jednak zaciemniać faktu, że dewaluacje lat 1930-tych były skuteczne i stanowiły część rozwiązania problemu Wielkiego Kryzysu, a nie były jego źródłem[14]/.

Niezwykle pouczające jest doświadczenie Argentyny, która w 1991 wprowadziła system tzw. izby walutowej (currency board) związując ustawowo i bezterminowo kurs swojej waluty peso z dolarem USA. Przez pierwsze kilka lat przynosiło to znakomite rezultaty w postaci obniżenia inflacji i wzrostu gospodarczego. Wydawało się, że wreszcie po latach borykania się z problemami niestabilnej polityki makroekonomicznej i wysokiej inflacji, Argentyna znalazła rozwiązanie, które zagwarantuje jej utrzymanie zdrowych i sprzyjających rozwojowi ram makroekonomicznych. Pod koniec dekady lat 1990-tych, w wyniku połączenia czynników wewnętrznych i zewnętrznych, pojawiły się poważne problemy z konkurencyjnością powodujące recesję i narastanie długu publicznego. Początkowo nie dopuszczano możliwości odejścia od systemu izby walutowej. Aby uporać się z problemem niekonkurencyjności gospodarki i wysokiego zadłużenia, stosowano politykę deflacyjną opartą o restrykcje fiskalne. Nie przynosiło to poprawy sytuacji. Po trzech latach recesji, w końcu roku 2001 krwawe rozruchy zmusiły prezydenta i rząd do dymisji. Argentyna ogłosiła niewypłacalność i porzuciła system izby walutowej. Peso straciło ponad 70% swojej wartości. W gospodarce i w systemie bankowym wystąpiły bardzo poważne perturbacje, lecz już po kilku miesiącach gospodarka zaczęła rosnąć i zamknęła się luka w bilansie handlowym. W ciągu następnych 6 lat gospodarka rosła w tempie 7-9% rocznie. Doświadczenie Argentyny może być ilustracją dla trzech prawd, które powinniśmy mieć na uwadze. Po pierwsze, kraj, który znajduje się w dobrej sytuacji makroekonomicznej i stworzył solidne wydawałoby się ramy instytucjonalne, może z nieprzewidywanych wcześniej powodów popaść w problemy z konkurencyjnością. Po drugie, w warunkach sztywnego kursu walutowego, przywracanie konkurencyjności poprzez politykę deflacyjną jest mało skuteczne i może doprowadzić do groźnych niepokojów społecznych. Po trzecie, dewaluacja jest bardzo silnym instrumentem dostosowawczym i nawet przeprowadzona w warunkach załamania politycznego i gospodarczego może pozwolić na szybkie wejście na ścieżkę wzrostu gospodarczego.

Skuteczność instrumentu, jakim jest dewaluacja, potwierdzają doświadczenia krajów azjatyckich: Korei Południowej, Tajlandii i Indonezji po kryzysie 1997 roku, a także Rosji po kryzysie 1998 roku. We wszystkich tych przypadkach dochodziło do głębokiej dewaluacji w sytuacji poważnego załamania gospodarki i kryzysu bankowego. Wobec załamania banków i bankructw przedsiębiorstw wydawało się, że gospodarki przez długi czas nie będą w stanie wydostać się z tarapatów. Tymczasem, po dewaluacji gospodarki bardzo szybko wkraczały na ścieżkę wzrostu.

Dewaluacja nie jest jednak rozwiązaniem doskonałym i z jej stosowaniem związane są istotne problemy. Źródłem części problemów jest właśnie fakt, że dewaluacja jest niezwykle skutecznym i mało kosztownym społecznie i politycznie instrumentem krótkookresowej poprawy konkurencyjności, a jednocześnie nie dotyka bezpośrednio fizycznych procesów wytwarzania produktów i usług, które decydują o konkurencyjności w długim okresie. Dostępność dewaluacji stwarza często politykom pokusę unikania trudniejszych społecznie i politycznie reform niezbędnych dla podnoszenia konkurencyjności gospodarki oraz tolerowania rozluźnienia fiskalnego, w przekonaniu, że ewentualne problemy z konkurencyjnością zawsze zostaną rozwiązane przez osłabienie waluty. Jest wiele przykładów krajów, w szczególności Ameryki Południowej i Południowej Europy, które w drugiej połowie XX wieku przez lata posługiwały się dewaluacją dla nadganiania konkurencyjności systematycznie traconej w wyniku inflacji.

Dodatkowym problemem jest fakt, że dewaluacja jest instrumentem nieobojętnym dla sąsiadów. Dewaluacja poprawia konkurencyjność danego kraju kosztem jego partnerów handlowych, zmuszając ich często również do dewaluacji. Konkurowanie krajów między sobą poprzez dewaluowanie waluty wprowadza zamieszanie i zakłócenia, nie przynosząc żadnych trwałych korzyści.

Osłabienie waluty nie jest rozwiązaniem cudownym, które może zastąpić zdrową politykę makroekonomiczną. Jest instrumentem, który aby nie zaszkodzić zdrowiu gospodarki kraju i jej sąsiadów nie powinien być nadużywany. Są jednak awaryjne sytuacje, w których wyjście gospodarki na prostą jest bez dewaluacji bardzo trudne i może okazać się niemożliwe. Nie przypadkowo wszystkie udane programy dostosowawcze w Ameryce Łacińskiej zawierały głęboką początkową dewaluację, która obniżała jednostkowy koszt pracy[15]/.

W awaryjnych przypadkach, gdy nastąpi strukturalne osłabienie konkurencyjności, osłabienie waluty połączone z odpowiednią polityką fiskalną i monetarną leży w interesie danego kraju i jego partnerów. Znacznie lepiej, jeśli kraj poprawi swoja konkurencyjność, co umożliwi mu wzrost gospodarczy, wzrost handlu i obsługiwanie zadłużenia, niż gdyby miał na trwałe pogrążyć się w stagnacji i być tylko obiektem pomocy ze strony wspólnoty międzynarodowej.

IV.             Czy unia fiskalna stanowić może lekarstwo na problem niekonkurencyjności niektórych krajów strefy euro?

Wielu obserwatorów uważa, że zasadniczym błędem przy wprowadzaniu euro było stworzenie unii monetarnej bez unii fiskalnej. Postuluje się więc często naprawienie tej wady poprzez powołanie na szczeblu UE/strefy euro organów uprawnionych do nakładania podatków i emisji długu na oraz stworzenie skuteczniejszych narzędzi wymuszających dyscyplinę fiskalną na poziomie państw członkowskich. Zwolennicy tego podejścia wydają się oczekiwać, że utworzenie unii fiskalnej usunie najpoważniejsze problemy w funkcjonowaniu strefy euro.

Wątpliwości wobec tego poglądu zwykle koncentrują na tym, czy jest politycznie realne stworzenie w ramach UE unii fiskalnej w pełnym tego słowa znaczeniu. Zwraca się uwagę, że budżet UE stanowi obecnie zaledwie 1% PKB Unii, podczas, gdy przed wybuchem światowego kryzysu finansowego budżet federalny USA stanowił blisko 20%. PKB, a budżety centralne poszczególnych krajów UE stanowiły od 14. do 43 % ich PKB.

Abstrahując od realności stworzenia unii fiskalnej, warto postawić pytania:

1)      Czy utworzenie w UE realnej unii fiskalnej zapobiegnie powstawaniu w przyszłości problemów z konkurencyjnością poszczególnych krajów UE?

2)      Czy unia fiskalna dostarczy instrumentów do radzenia sobie z takimi problemami?

Uważamy, że odpowiedź na oba pytania jest negatywna.

Ad 1) Unia fiskalna być może zmniejszy ryzyko nieodpowiedzialnej polityki budżetowej, lecz nie zapobiegnie powstawaniu problemów z konkurencyjnością wywołanych innymi przyczynami. Dalsze problemy z konkurencyjnością wynikające m.in. z nadmiernej ekspansji kredytu sektora prywatnego, napływu kapitału zagranicznego (w tym transferów unijnych) finansującego inwestycje w sektorach nie-eksportowych, szybszej poprawy konkurencyjności partnerów handlowych, zmian technologicznych lub demograficznych, bez wątpienia pojawiać się będą w przyszłości w niektórych krajach.

Ad 2) Nieuzasadnione jest oczekiwanie, że większe środki z budżetu centralnego EU (lub strefy euro) mogłyby umożliwić rozwiązanie problemu obniżonej konkurencyjności niektórych krajów. O wątpliwej skuteczności polityk strukturalnych i fiskalnej mających prowadzić do poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego świadczą przykłady Wschodnich Niemiec i Południowych Włoch.

Przeliczenie, w momencie zjednoczenia Niemiec w 1990 roku, płac w Niemczech Wschodnich z marki wschodniej na markę zachodnią według parytetu 1:1 spowodowało, że większość wschodnioniemieckiej gospodarki stała się niekonkurencyjna względem Zachodu. Od chwili zjednoczenia, Niemcy Wschodnie są beneficjentem transferów fiskalnych, które do roku 2009 wyniosły około 2000 mld euro[16]/. Kwota ta odpowiada ok 80% PKB Niemiec i około 700% PKB Niemiec Wschodnich z roku 2010. Roczne transfery wynosiły średnio ponad 4% PKB Niemiec i ponad 25% PKB Niemiec Wschodnich[17]/. Efekt doganiania wystąpił w pierwszej połowie lat 1990-tych. Później proces się prawie zatrzymał. Udział Niemiec Wschodnich w PKB Niemiec od 1996 roku utrzymuje się na stałym poziomie, natomiast dochód na głowę w Niemczech Wschodnich rośnie w wyniku zmniejszania się liczby ludności wschodnich landów, która w relacji do zachodnich landów zmniejszyła się z 27% na początku transformacji do 21% w roku 2007. Młodzi i wykształceni ludzie emigrują z Niemiec Wschodnich ze względu na bezrobocie – od kilkunastu lat dwukrotnie wyższe niż na Zachodzie – i brak perspektyw[18]/.

Południowe Włochy od kilkudziesięciu lat są obiektem polityki strukturalnej mającej zmniejszyć lukę konkurencyjności w stosunku do północy kraju.  Obecnie transfery z tego tytułu wynoszą 4% PKB Włoch, co stanowi 16% PKB Włoch Południowych[19]/. Pewne zmniejszenie luki rozwojowej nastąpiło w latach 1960-tych. Później jednak nie było trwałego postępu w konwergencji i od 40 lat PKB na jednego mieszkańca oscyluje w granicach 55-65% poziomu na Północy[20]/. Południe osiąga tylko 46% poziomu Północy pod względem PKB wytwarzanego w sektorze prywatnym na jednego mieszkańca oraz zaledwie 18% pod względem wartości eksportu (bez produktów paliwowych) na jednego mieszkańca. Stopa bezrobocia na Południu jest dwukrotnie wyższa niż na Północy[21]/.

Te dwa przykłady pokazują niską skuteczność krajowych programów „podciągania” niekonkurencyjnych regionów, mimo nakładów nieproporcjonalnie większych niż to, co można sobie wyobrazić w ramach europejskiej unii fiskalnej. Trudno bowiem zakładać, żeby niekonkurencyjne kraje strefy euro mogły liczyć na stałe wieloletnie dotacje rzędu 25% PKB rocznie, jak w we Wschodnich Niemczech, czy 16% PKB rocznie jak w Południowych Włoszech.


V.    Czy doświadczenie Łotwy oraz przypadki ekspansywnych dostosowań fiskalnych dają podstawy do nadziei na skuteczność polityki „wewnętrznej dewaluacji”?

Ekonomiści uważający, że polityka „wewnętrznej dewaluacji” realizowana za pomocą redukcji wydatków budżetowych może być dziś skutecznym rozwiązaniem dla zagrożonych gospodarek strefy euro, powołują się często na doświadczenia Łotwy, a także na przypadki krajów, w których zdecydowana redukcja deficytu budżetowego stała się impulsem do przyspieszenia wzrostu gospodarczego, czyli innymi słowy pojawiły się ekspansywne skutki zacieśnienia fiskalnego.

Łotwa, kraj liczący 2,3 miliona mieszkańców, nie należy do strefy euro, lecz od wielu lat ma swoją walutę sztywno powiązaną z euro. Przez kilka lat przed wybuchem światowego kryzysu finansowego Łotwa cieszyła się bardzo wysokim tempem wzrostu gospodarczego, którego motorem był boom kredytowy, zasilany pożyczkami, jakie łotewskie banki otrzymywały od swoich matek ze Skandynawii[22]/. W wyniku wzrostu płac przekraczającego znacznie tempo wzrostu wydajności pracy w sektorach wytwarzających dobra podlegające wymianie międzynarodowej, następowała szybka erozja konkurencyjności. Deficyt na rachunku bieżącym osiągnął w 2007 roku monstrualny poziom 22% PKB. W 2008 roku, wraz z wybuchem światowego kryzysu finansowego, zakończył się dopływ zagranicznych pożyczek i załamał się rynek nieruchomości. Łotwa zmuszona została do szybkiej poprawy konkurencyjności i zamknięcia deficytu na rachunku obrotów bieżących. Rząd zdecydował się na utrzymanie istniejącego kursu walutowego i wdrożył program „wewnętrznej dewaluacji”. W latach 2009-2010 Łotwa dokonała głębokich cięć wydatków budżetowych, a także zwiększyła niektóre dochody. Łącznie dostosowania fiskalne wyniosły 15% PKB. W latach 2008-2010 PKB obniżyło się łącznie o 21%, lecz w roku 2011 gospodarka weszła już na ścieżkę wzrostu. Mimo realizacji tak trudnego programu gospodarczego premier Valdis Dabrovskis odniósł sukces w wyborach parlamentarnych w październiku 2010 roku i utrzymał się na stanowisku także po kolejnych – przedterminowych – wyborach we wrześniu 2011 roku, w których największą liczbę głosów otrzymała opozycyjna partia reprezentująca mniejszość rosyjską. Przypadek Łotwy wskazywany jest jako przykład, że wewnętrzna dewaluacja może być skutecznym instrumentem przywracania konkurencyjności i rząd posługujący się takim instrumentem nie musi wcale stracić poparcia wyborców.

Przypadek Łotwy warto jednak zestawić z przypadkiem Islandii. Przed rokiem 2008 w Islandii – kraju liczącym zaledwie 320 tysięcy mieszkańców – podobnie jak na Łotwie miał miejsce szybki wzrost bilansów banków finansowany napływem zagranicznego kapitału pożyczkowego i ekspansja sektora budowlanego. Deficyt rachunku obrotów bieżących w obu krajach osiągał przed kryzysem zbliżony poziom ponad 20% PKB. Z chwilą wybuchu światowego kryzysu finansowego oba kraje straciły źródła dopływu kapitału finansującego ich wzrost, przeżyły głębokie załamanie sektora nieruchomości budowlanych i szok w sektorze finansowym – którego skala w Islandii była znacznie większa niż na Łotwie. Oba kraje dokonały głębokich dostosowań fiskalnych, a także uzyskały wsparcie od Unii Europejskiej i Międzynarodowego Funduszu Walutowego. Oba kraje po załamaniu w latach 2008-2010, w roku 2011 odnotowały wzrost PKB.

Koszty dostosowania w Islandii były jednak znacznie mniejsze niż na Łotwie. Spadek PKB w latach 2008-2010 był o połowę mniejszy niż na Łowie. Spadek zatrudnienia w Islandii wyniósł tylko 5% wobec 17% na Łotwie. Wyjaśnieniem znacznie mniejszych ekonomicznych i społecznych kosztów dostosowania w Islandii może być fakt, że nastąpiła tam dewaluacja waluty krajowej poprawiająca konkurencyjność gospodarki. Islandia miała płynny kurs walutowy i nominalna wartość jej waluty obniżyła się w roku 2008 o około 50%. Dalszemu spadkowi zapobiegło m.in. wprowadzenie ograniczeń wymiany walut. Część poprawy konkurencyjności została zniwelowana przez wywołaną dewaluacją inflację, lecz mimo to pod koniec 2011 roku islandzka waluta była realnie o ponad 30% słabsza niż w przed wybuchem kryzysu[23]/. W efekcie, płace w gospodarce w przeliczeniu na waluty zagraniczne stały się niższe, co poprawiło konkurencyjność islandzkich produktów. Tymczasem na Łotwie, choć rząd dokonał głębokiej redukcji płac w sektorze publicznym, które w roku 2010 były o około 20% niższe niż w roku 2008, to płace w przemyśle obniżyły się zaledwie o 2%[24]/. W świetle tych danych, Łotwa stanowi laboratoryjny przykład nieskuteczności „wewnętrznej dewaluacji” jako metody poprawy konkurencyjności gospodarki. Dostosowanie rachunku obrotów bieżących na Łotwie dokonało się bowiem nie poprzez poprawę konkurencyjności, lecz poprzez głęboki spadek zatrudnienia i spadek PKB.

Analiza przypadków ekspansywnych skutków zacienienia fiskalnego tzn. sytuacji, w których ograniczenia fiskalne nie hamują wzrostu, lecz powodują jego przyspieszenie, wskazuje, że nadzieje na pojawienie się takiego zjawiska w zagrożonych gospodarkach strefy euro nie mają realnych podstaw[25]/. Ekspansywne skutki zacieśnienia fiskalnego pojawiają się bowiem wtedy, gdy hamującemu popyt zacieśnieniu fiskalnemu towarzyszą inne dostatecznie silne stymulujące wzrost czynniki, takie jak osłabienie waluty lub spadek inflacji i stóp procentowych. Znaczne osłabienie waluty poprawiające konkurencyjność i powodujące wzrost eksportu było czynnikiem stymulującym ekspansję gospodarki w przypadku  zacieśnienia fiskalnego w  Irlandii w latach 1987-89, Finlandii w latach 1992‐98 i Szwecji w latach 1993‐98. Przy czym w Irlandii osłabienie waluty bezpośrednio poprzedziło okres zacieśnienia fiskalnego, a  w Finlandii i Szwecji następowało w jego trakcie. Z kolei w przypadku Danii (w latach 1983-1986), czynnikiem stymulującym wzrost gospodarki był towarzyszący zacieśnieniu fiskalnemu spadek inflacji (z bardzo wysokich poziomów) i obniżenia stóp procentowych (również z bardzo wysokich poziomów). Na wystąpienie tych czynników wzrostu w przypadku zagrożonych krajów strefy euro trudno obecnie liczyć, w sytuacji gdy kraje te nie mają własnej waluty, a także nie ma możliwości bardzo znaczącego spadku inflacji i stóp procentowych (gdyż inflacja jest obecnie na umiarkowanym poziomie, a stopy procentowe są bardzo niskie).

VI.             Europa, USA, państwa narodowe i zacofane regiony, a obszar jednej waluty

W poprzednich rozdziałach uzasadnialiśmy pogląd, że możliwość dostosowania kursu walutowego jest bardzo skutecznym i trudnym do zastąpienia instrumentem umożliwiającym odzyskanie utraconej konkurencyjności. Natomiast region lub kraj znajdujący się wewnątrz większego obszaru walutowego, który utraci konkurencyjność nie mając możliwości dewaluacji waluty, może być skazany na długotrwałą niemożność poprawy swojej sytuacji. W niniejszym rozdziale zastanawiamy się, jakie z tych konstatacji wynikają wnioski dotyczące możliwości funkcjonowania jednej waluty w Europie.

Zwolennicy jednego obszaru walutowego w Europie powołują się często na przykład Stanów Zjednoczonych. USA mają podobnego rzędu co Europa terytorium, liczbę ludności i poziom rozwoju gospodarczego. Tym niemniej jedna waluta funkcjonuje w USA bez zakłóceń. Dlatego zgodnie z tym poglądem, wspólna waluta może również doskonale funkcjonować w Europie, pod warunkiem zwiększenia zakresu integracji fiskalnej i zniesienia utrudnień w przepływie siły roboczej i kapitału. Naszym zdaniem, jednym z istotnych czynników umożliwiających funkcjonowanie jednej waluty w USA jest to, że obszar walutowy pokrywa się w znacznej mierze z obszarem państwowości amerykańskiej, która stanowi podstawowe źródło tożsamości i identyfikacji obywateli. Warto pamiętać, że istotnym etapem budowy tej wspólnej tożsamości i przemiany dobrowolnej unii suwerennych stanów w jednolite państwo była wyniszczająca Wojna Secesyjna 1861-1865. Dziś do cementowania amerykańskiej identyfikacji przyczynia się jeden oficjalny język, wspólna tradycja i powszechne uznanie legitymacji władz federalnych. Wspólny język ułatwia także mobilność zawodową. Problem niekonkurencyjności wielu regionów jest w znacznym stopniu łagodzony przez przemieszczanie się mieszkańców pomiędzy regionami i stanami. Procesy te nie zagrażają spójności narodu amerykańskiego, lecz nawet ją umacniają.

W przeciwieństwie do USA, Europa jest złożona z państw grupujących narody używające różnych języków i scementowane przez odrębne tradycje historyczne i kulturowe. Państwa narodowe stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Nie jest to sytuacja przejściowa. Socjolog Edmund Wnuk-Lipiński pisze:

  • „… państwa narodowe, tworzące Unię Europejską, nie tracą swej tożsamości i nic nie wskazuje na to, by miały ją stracić w przyszłości na rzecz jakiejś nowej tożsamości europejskiej”.[26]/
  • „Przede wszystkim mało realistyczne jest założenie, iż wiek XXI będzie wolny od poważniejszych konfliktów ekonomicznych i konfliktów zbrojnych przekraczających lokalną skalę. Każdy poważniejszy kryzys ekonomiczny raczej wzmacnia państwo narodowe niż je osłabia.”[27]/
  • „Państwo narodowe jest i najprawdopodobniej pozostanie kluczowym aktorem globalnej areny politycznej, a zarazem w coraz większym stopniu ujawniać się będzie jego rola jako mediatora między siłami społecznymi i ekonomicznymi działającymi w skali globalnej a podobnymi silami operującymi w skali lokalnej.”[28]/

Naszym zdaniem, problemy z konkurencyjnością mają zupełnie inny wymiar, gdy dotyczą zacofanych regionów w poszczególnych państwach, a inny – znacznie poważniejszy – gdy dotyczą całego państwa. W wielu krajach występują regiony, które przez długi okres są ekonomicznie niekonkurencyjne. Podawaliśmy wyżej przykłady Wschodnich Niemiec i Południowych Włoch. W Polsce przykładem niekonkurencyjnego regionu jest Województwo Warmińsko-Mazurskie, gdzie stopa bezrobocia jest najwyższa w kraju i przekracza obecnie 21%. Młodzi ludzie z Mazur myślący o karierze zawodowej wyjeżdżają do Warszawy lub Gdańska, jednocześnie na Mazurach kupują ziemię i budują sobie domy wakacyjne przedstawiciele klasy średniej z innych części Polski. Według wieloletnich prognoz region ten będzie się wyludniał w stosunku do pozostałych części kraju. Nikt nie proponuje jednak, aby dla poprawy konkurencyjności regionu ustanowić tam osobną strefę walutową. Wyjazd ludzi z Warmii i Mazur do innych części kraju i osiedlanie się tam przybyszów z innych części Polski nie zagraża bytowi wspólnoty, z którą ludzie identyfikują się najbardziej. Nie grozi dezintegracją państwa.

Czy zakładamy, że w ten sam sposób miałyby zostać rozwiązane lub złagodzone problemy niekonkurencyjności Grecji, Hiszpanii czy całych Włoch? Czy przyjmujemy, że rozwiązaniem problemu niekonkurencyjności Grecji będzie wyjazd Greków do pracy w Niemczech i krajach Europy Północnej, natomiast w Grecji kupią sobie działki i zbudują domy wakacyjne zamożni Niemcy, Holendrzy i Skandynawowie? Jest to mało realne z przyczyn ekonomicznych i świadomościowych. Wyjazd dużej liczby osób w wieku produkcyjnym z Grecji i pozostawienie tam dużej liczby bezrobotnych i emerytów pogłębiał będzie deficyt systemu ubezpieczeń społecznych. Tak, jak Niemcy godzą się na duże transfery wspierające system ubezpieczeń społecznych we wschodnich landach, a w Polsce nikt nie przejmuje się skalą dotacji z innych województw do systemu ubezpieczeń społecznych w Województwie Warmińsko-Mazurskim, tak trudno oczekiwać, że kraje Europy będą skłonne trwale finansować deficyt systemu ubezpieczeń społecznych jakiegoś kraju europejskiego. Jak pisze Mirosław Czech: „Po greckiej lekcji wiemy, że niemiecki podatnik nie pozwoli wziąć na swój garnuszek polskich (greckich, hiszpańskich czy bułgarskich) emerytów”[29]/.

Brak perspektyw dotyczący całego państwa i skazanie społeczności narodowej na perspektywę wymuszonego rozpłynięcia się w Europie może doprowadzić do znacznie większych napięć, szczególnie gdy dotyczyć będzie krajów tak dużych jak Hiszpania lub Włochy. A sytuacja taka dotyczyć może także innych krajów, które będą w strefie euro i w przyszłości z nieprzewidywanych dzisiaj przyczyn popadną w kłopoty z konkurencyjnością.

Warto pamiętać, że Unia Europejska jest efektem procesu integracji, który miał być w założeniu antidotum na narodowe konflikty, które doprowadziły do dwóch straszliwych wojen światowych. Unia Europejska i jej instytucje zostały powołane przez państwa członkowskie, po to, by służyć poprawie ich bytu i bezpieczeństwa. Dotychczasowa integracja oparta była na filozofii respektowania potrzeb wszystkich członków, przyjmowaniu rozwiązań, które nikomu nie zagrażając są korzystne dla wszystkich. Dzięki respektowaniu tej filozofii możliwy był dotychczasowy sukces Unii Europejskiej i wspólnego rynku.

Wprowadzenie wspólnej waluty paradoksalnie zagraża dotychczasowej filozofii integracji europejskiej. Państwa członkowskie pozbawione zostały możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia w sytuacjach awaryjnych instrumentem dostosowawczym, jakim jest możliwość zmiany kursu walutowego. Jednocześnie nie ma żadnego instrumentu, który mógłby ten brak skutecznie zastąpić. W efekcie, państwo członkowskie, które z jakichś powodów utraci konkurencyjność lub będzie zmuszone w krótkim czasie zlikwidować deficyt na rachunku obrotów bieżących, może zostać w praktyce skazane na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji.

Niektórzy obserwatorzy sądzą, że przyspieszy to proces tworzenia kosmopolitycznej społeczności europejskiej i upadek nacjonalistycznych zmór. Sadzimy, że może być odwrotnie. Obecny brak konfliktów między największymi narodami Unii Europejskiej nie wynika z faktu, że tożsamość i identyfikacja narodowa zanikła, lecz z faktu, że stworzono ramy współpracy europejskiej, które poszczególne państwa członkowskie uznały za korzystne. W przypadku, gdy w jakiejś społeczności narodowej rozpowszechni się przekonanie, że przyjęte w ramach UE/strefy euro rozwiązania skazują dane państwo na degradację ekonomiczną i społeczną, a zarazem przynoszą korzyści innym, zmory populistyczne i nacjonalistyczne odezwać się mogą z zaskakującą siłą. Warto pamiętać, ze stagnacja gospodarcza, wysokie bezrobocie, brak perspektyw oraz poczucie niesprawiedliwości i dyskryminacji w traktowaniu własnego kraju przez rządzące potęgi były w przeszłości pożywką dla rozwoju ruchów radykalnych, które podważyły porządek demokratyczny i pokój w Europie.

Ponieważ dostosowanie kursu walutowego jest skutecznym i trudnym do zastąpienia instrumentem dostosowawczym poprawiającym w sytuacji awaryjnej konkurencyjność ekonomiczną danego obszaru walutowego, racjonalne jest, by możliwość posługiwania się tym instrumentem była ulokowana na poziomie wspólnoty, z którą obywatele najsilniej się identyfikują i której gotowi są powierzyć najwięcej odpowiedzialności za ich zbiorowy los. W przypadku Unii Europejskiej tym optymalnym poziomem jest państwo członkowskie. W sytuacji utraty konkurencyjności, brak możliwości zapobiegnięcia degradacji ekonomicznej i społecznej poprzez dostosowanie kursu walutowego może w poszczególnych państwach członkowskich doprowadzić do zachwiania spójności społecznej i politycznej, rozwoju populizmu i radykalnego nacjonalizmu zagrażających porządkowi demokratycznemu i pokojowej współpracy międzynarodowej. Dlatego pozbawianie państw członkowskich własnej waluty może, wbrew intencjom, zamiast przyczynić się do dalszej integracji Europy, zagrozić przyszłości UE.

VII.          Jak można rozwiązać strefę euro?

Wielu obserwatorów zgadza się, że utworzenie strefy euro mogło być błędem, lecz uważa, że od decyzji tej nie ma odwrotu.

Rozwiązanie unii walutowej w warunkach stabilności i zbliżonej pozycji konkurencyjnej poszczególnych krajów nie jest zabiegiem ryzykownym. Przykładem może być rozwiązanie unii monetarnej między Czechami i Słowacją w 1993 roku i wprowadzenie nowych walut korony czeskiej i korony słowackiej w miejsce dotychczasowej korony czechosłowackiej. Odbyło się to bez szczególnych perturbacji.

Sytuacja wygląda inaczej w sytuacji, gdy pozycje konkurencyjne poszczególnych krajów są bardzo różne. Kraj, który już znajduje się w strefie euro, a ma problemy z konkurencyjnością gospodarki, nie może samodzielnie w sposób bezpieczny rozstać się z euro, gdyż grozi to paniką bankową. W przypadku zapowiedzi wyjścia ze strefy euro mieszkańcy rzuciliby się do banków, aby wyjąć swoje pieniądze, co doprowadziłoby do upadku systemu bankowego. Próba zapobieżenia temu przez czasowe zamknięcie banków czy ograniczenia wypłat depozytów byłaby bardzo trudna i obarczona olbrzymim ryzykiem. Trzeba w szczególności wziąć pod uwagę fakt, że operacja przygotowania i wprowadzenie nowej waluty musi zająć sporo czasu, a jej przygotowanie w tajemnicy w kraju demokratycznym nie wydaje się możliwe, a z kolei trudno jest zamrozić depozyty na kilka tygodni czy miesięcy. Zamrożenie depozytów z perspektywą utraty ich wartości w wyniku dewaluacji waluty stwarza również duże ryzyko zaburzeń społecznych[30]/.

 

Tego typu perturbacje nie grożą w przypadku, gdyby strefę euro opuścił kraj mający silną pozycję konkurencyjną, taki jak Niemcy. Posiadacze depozytów w bankach niemieckich nie obawialiby się bowiem zamiany euro na markę niemiecką, gdyż oczekiwaliby raczej, że po wprowadzeniu nowej waluty marka się umocni. Dlatego można w sposób kontrolowany doprowadzić do dekompozycji strefy euro poprzez stopniowe i uzgodnione wychodzenie ze strefy euro krajów najbardziej konkurencyjnych. Euro, przez pewien czas, pozostać może wspólną walutą w krajach obecnie najmniej konkurencyjnych[31]/.

VIII.      Mechanizm walutowy po dekompozycji strefy euro

Wraz z dekompozycją strefy euro konieczne będzie stworzenie nowego mechanizmu koordynacji walutowej w Europie.

Jako naturalny kandydat na nowy mechanizm kursowy jawi się nieortodoksyjny mechanizm kursu płynnego połączony z polityką celu inflacyjnego i wsparty koordynacją polityki fiskalnej i monetarnej w ramach Unii Europejskiej.

Postrzeganie kursu płynnego w literaturze przechodziło rozmaite fazy. W literaturze międzywojennej, głównie na podstawie doświadczeń francuskich z lat 1920-tych, kurs płynny postrzegany był jako immanentnie niestabilny i intensyfikujący wyjściowe nierównowagi w bilansie płatniczym. Późniejsze badania tych samych doświadczeń Francji doprowadziły część ekonomistów, w tym Miltona Friedmana, do rewizji tej krytyki i wniosku, że wysoka zmienność kursu waluty w tym systemie odzwierciedlała ówczesną niestabilność i nieprzewidywalność polityk fiskalnej i monetarnej[32]/. Zgodnie z tym poglądem, nie ma podstaw, by wątpić, że jeśli polityka fiskalna i monetarna są rozsądne i spójne, to system kursu walutowego może funkcjonować w sposób zadawalający.

W ramach systemu Bretton-Woods funkcjonującego w świecie zachodnim od zakończenia II Wojny Światowej do początku lat 1970-tych przyjęto zasadę, że kursy walutowe są sztywne, lecz mogą podlegać korekcie w przypadku, gdy uzasadniają to fundamentalne nierównowagi w obrotach handlowych. Wraz z postępującą liberalizacją przepływów kapitałowych utrzymywanie kursów sztywnych stawało się coraz trudniejsze, a mechanizm korygowania relacji kursowych nie funkcjonował należycie, gdyż decyzje o takich korektach były bardzo często wstrzymywane. Odejście od systemu Bretton-Woods rozpoczęło okres, w którym poszczególne kraje dokonywały prób z rozmaitymi wariantami systemów walutowych. Usiłowania powrotu do systemu podlegających korekcie sztywnych kursów walutowych kończyły się kilkakrotnie niepowodzeniem. Coraz więcej krajów wprowadzało kurs płynny starając się jednocześnie w rozmaity sposób ograniczyć naturalne słabości tego systemu, poprzez odejście od ortodoksyjnej koncepcji kursu płynnego i dopuszczenie rozmaitych form interwencji walutowej (systemy kursu płynnego, w których bank centralny dopuszcza możliwość interwencji walutowej, określamy mianem „nieortodoksyjnego” kursu płynnego).

Istotnym krokiem „w oswojeniu” kursu płynnego było powstanie koncepcji polityki bezpośredniego celu inflacyjnego, w której bank centralny publicznie ogłasza projektowany cel w zakresie poziomu inflacji i przyjmuje za priorytet osiągniecie tego celu poprzez odpowiednie kształtowanie stóp procentowych, a także stosowanie innych instrumentów polityki pieniężnej. Koncepcja ta zastosowana po raz pierwszy w Nowej Zelandii w latach 1980-tych, szybko zdobyła popularność wśród banków centralnych krajów rozwiniętych gospodarczo. Wprowadzenie celu inflacyjnego łagodzi istotną niedogodność towarzyszącą wcześniej systemowi kursu płynnego, jaką był brak punktu odniesienia dla kształtowania oczekiwań podmiotów gospodarczych. Określanie celu inflacyjnego daje taki punkt odniesienia, bez konieczności podporządkowania polityki monetarnej obronie określonego poziomu kursu walutowego[33]/. Barry Eichengreen kończy swoją monografię o międzynarodowym systemie walutowym stwierdzeniem, że choć płynny kurs walutowy nie jest najlepszym ze światów, to jest to chociaż rozwiązanie dostępne i możliwe do stosowania[34]/.

System nieortodoksyjnego kursu płynnego w poszczególnych krajach może być uzupełniony o koordynację polityki makroekonomicznej w UE, a w szczególności koordynację polityki fiskalnej (określanie limitów dla salda budżetu sektora finansów publicznych) oraz koordynację celów inflacyjnych, a także instrumentów stosowanych przez banki centralne dla realizacji celów inflacyjnych. W takich ramach kurs płynny służyłby bieżącemu korygowaniu nierównowag w bilansie płatniczym, koordynacja polityki fiskalnej i celu inflacyjnego w ramach UE ograniczałaby wahania kursu wynikające z nieprzewidywalności i niespójności polityki makroekonomicznej, a jednocześnie ograniczona byłaby możliwość prowadzenia, pod ochroną kursu płynnego, nadmiernie ekspansywnej polityki fiskalnej lub monetarnej.

Mechanizm kursu płynnego jako podstawowy mechanizm dostosowań kursowych w Europie nie wykluczałby możliwości prowadzenia przez niektóre kraje polityki związania swoich walut z walutą silnego partnera. Przykładem takich rozwiązań jest sztywne powiązanie z marką niemiecką m.in. szylinga austriackiego i guldena holenderskiego przed wprowadzeniem euro, a także obecne sztywne powiazanie kursu korony duńskiej z kursem euro. Tego typu rozwiązanie daje możliwość w sytuacji awaryjnej szybkiego „odwiązania” waluty od waluty partnera i uwolnienie kursu lub dokonanie jednorazowej korekty. Oczywiście, po to, by takie „odwiązanie” waluty było w praktyce możliwe bez dramatycznych perturbacji gospodarczych, konieczne są rozwiązania systemowe przeciwdziałające powszechnemu denominowaniu kontraktów w walucie zagranicznego partnera.

Drugim dopuszczalnym mechanizmem kursowym po rozpadzie strefy euro mógłby być mechanizm wzorowany na Europejskim Systemie Monetarnym (ESM) z 1979 roku. W systemie tym możliwe byłoby wygaszanie zmienności kursu waluty, ustalenie przedziałów wahań, czy tez obrona wyznaczonego poziomu kursu (a raczej zapobieżenie dalszej deprecjacji słabej waluty) poprzez zobligowanie państw z silną walutą do udzielania nieograniczonego wsparcia w postaci interwencji na rynku walutowym (a nawet do transferu rezerw walutowych, czego nie udało się dokonać w oryginalnym ESM). W systemie takim ciągle możliwa byłaby, tak zresztą, jak we wspomnianym ESM, zmiana wyznaczonych przedziałów zmienności kursów, jeśli zaistniałyby okoliczności (nierównowagi bilansów płatniczych, wzrost inflacji) uniemożliwiające obronę ustalonych poziomów. Możliwa byłaby również renegocjacja ustalonych centralnie kursów walut[35]/. Mechanizm taki, ze względu na możliwość systematycznej zmiany kursów centralnych, wolny byłby od wad rozwiązań sugerujących jednorazową rewizję kursów parytetowych w ramach istniejącej strefy euro[36]/.

Historia poszukiwania metod koordynacji walutowej się nie skończyła i będą prawdopodobnie powstawały nowe podejścia pozwalające lepiej „oswoić” płynny kurs walutowy z celami stabilizacji makroekonomicznej oraz koordynacji międzynarodowej, bądź też rozwiązania zwiększające efektywność funkcjonowania systemu przedziałów walutowych.

Nasze uwagi w niniejszym rozdziale służą przede wszystkim temu, by uzasadnić pogląd, że istnieją alternatywy dla systemu jednej waluty w Europie. Nie są one doskonałe, lecz naszym zdaniem są znacznie bezpieczniejsze dla pomyślności gospodarczej, społecznej i cywilizacyjnej Europy, niż rozwiązania, które wydają się proste i idealne, takie jak system oparty o parytet złota lub system jednej waluty europejskiej. Warto przypomnieć, że pomyślny rozwój gospodarki, a także rozwój pokojowej współpracy europejskiej, może się odbywać w ramach systemu walutowego, który nie jest perfekcyjny, a takim był system z Bretton Woods w latach 1945-1970. Natomiast próby wprowadzenia doskonałego systemu walutowego grożą katastrofą społeczną i ekonomiczną. Do katastrofy takiej przyczynił się system waluty opartej na parytecie złota w okresie międzywojennym, a obecnie jest bardzo prawdopodobne, że katastrofę taką może spowodować uporczywa obrona sytemu jednej waluty w Europie.

IX.             Ostrzeżenia i argumenty przeciwko dekompozycji strefy euro

W tym rozdziale odnosimy się do popularnych argumentów i ostrzeżeń przed dekompozycją strefy euro.

Argument ekonomicznej katastrofy

Według niektórych opinii rozwiązanie strefy euro musi doprowadzić do ekonomicznej katastrofy. Ekonomiści szwajcarskiego banku UBS szacują, że dla zagrożonej gospodarki (z grupy PIIGS[37]) wystąpienie ze strefy euro spowoduje w pierwszym roku straty odpowiadające 40-50% PKB, a w przypadku gospodarki silnej, takiej jak Niemcy, wyjście ze strefy euro oznaczać będzie straty wysokości 20-25% PKB[38]/. Wnioski ekonomistów UBS są efektem przyjętych założeń, że wyjście kraju ze strefy euro spowoduje rozpad jednolitego rynku (lub odcięcie wychodzącego kraju od tego rynku), wprowadzenie barier celnych i dramatyczne załamanie handlu. Wnioski będą zupełnie inne, jeśli przyjmiemy, że następuje uporządkowane rozwiązanie strefy euro i jednolity rynek zostaje utrzymany. Ponadto, ekonomiści UBS nie porównują kosztów wyjścia ze strefy euro z kosztami, jakie będzie trzeba ponieść w przypadku pozostawania w strefie euro. Na przykład w swoim rachunku kosztów wyjścia Niemiec ze strefy Euro uwzględniają koszty 50-procentowej redukcji długu Grecji, Portugalii i Irlandii, tak jakby koszty takie występowały tylko w wariancie wyjścia Niemiec ze strefy Euro. Tymczasem, jeżeli strefa euro zostanie utrzymana, to koszty niewypłacalności krajów PIIGS (na razie Grecji) tez trzeba będzie ponosić, a naszym zdaniem będą one znacznie większe niż mogą być w wariancie kontrolowanego wyjścia Niemiec ze strefy Euro.

Ekonomiści UBS ponadto przyjmują, że jest możliwe przezwyciężenie kryzysu strefy euro, a obrona jednolitej waluty nie zagraża przyszłości UE i jednolitego rynku.

Nie odmawiamy nikomu prawa przyjmowania powyżej przedstawionych założeń i przekonania, że rozwiązanie strefy byłoby katastrofą. Za nieporozumienie uważamy jednak powoływanie się na szacunki ekonomistów UBS jako obiektywne uzasadnienie dla tezy o szkodliwości rozwiązania strefy euro. Teza o szkodliwości rozwiązania strefy euro wynika już wprost z samych przyjmowanych założeń, niezależnie od tego, czy szacunki liczbowe są wiarygodne. Jest oczywiste, że przy założeniach, jakie przyjmują ekonomiści UBS, rozwiązanie strefy euro byłoby szkodliwe dla wszystkich i nie miałoby sensu.

Naszym zdaniem, prawdopodobieństwo skutecznego rozwiązania obecnego kryzysu bez przebudowy strefy euro jest mało prawdopodobne ze względu na brak dostępności skutecznych instrumentów, o czym pisaliśmy wyżej. Uważamy ponadto, że nawet w przypadku zrealizowania się bardzo optymistycznego scenariusza utrzymania strefy euro dzisiaj, będzie ona podatna na kolejne kosztowne perturbacje w przyszłości, ponieważ Europa nie jest optymalnym obszarem walutowym. Unia Europejska i jednolity rynek mogą funkcjonować bez jednej waluty i funkcjonowały tak z powodzeniem przed wprowadzeniem euro. Proponujemy, aby dekompozycję strefy euro przeprowadzić w sposób uzgodniony i kontrolowany, tak aby zachować UE i jednolity rynek europejski, a jednocześnie wprowadzić mechanizm koordynacji walutowej, który umożliwi ograniczenie skali aprecjacji nowej waluty Niemiec w okresie przejściowym. Dekompozycja strefy euro, przy utrzymaniu UE i jednolitego rynku, może relatywnie poprawić sytuację krajów PIIGS, co umożliwi im wzrost gospodarczy. Taki sposób rozwiązania problemów krajów PIIGS przyniesie korzyści dla wszystkich krajów strefy euro w porównaniu do wariantu niebezpiecznej kontynuacji polityki „wewnętrznej dewaluacji”.

Niebezpieczeństwo aprecjacji nowej waluty niemieckiej i recesji w Niemczech

 

Jak dotąd, przedsiębiorstwa niemieckie są głównym beneficjentem wprowadzenia euro. W okresie od wprowadzenia euro do wybuchu światowego kryzysu finansowego niemiecka nadwyżka handlowa wzrosła z 65 mld euro stanowiących 3,2 % PKB w roku 1999 do 198 mld euro tj. 8,1% PKB w roku 2007. W tym czasie bilans handlowy całej strefy euro nie uległ większym zmianom i pozostał zrównoważony. Ten olbrzymi wzrost niemieckiej nadwyżki handlowej o kwotę 133 mld euro między rokiem 1999 a 2007 był efektem wzrostu nadwyżki w handlu wewnątrz strefy euro. Wzrostowi nadwyżki handlowej Niemiec, a także Holandii i Austrii (łącznie o 166 mld euro), towarzyszyło w latach 1999-2007 pogorszenie bilansu handlowego Hiszpanii, Francji, Grecji, Włoch, Belgii i Portugalii łącznie o 178 mld euro.

Sytuacja, w której Niemcy osiągają wysoką nadwyżkę handlową, a kraje mniej konkurencyjne generują duży deficyt handlowy i pogrążają się w zapaści ekonomicznej, jest na dłuższą metę nie do utrzymania, chyba, że Niemcy będą bezpośrednio lub pośrednio finansowały te deficyty. Jeżeli przywództwo Niemiec doprowadzi do zamierzonego wprowadzenia zdrowych zasad makroekonomicznych w strefie euro, to efektem tego będzie również zmniejszenie deficytów handlowych mniej konkurencyjnych krajów, co z kolei oznaczać będzie zmniejszenie nadwyżki Niemiec, chyba, że w tym czasie wzrośnie istotnie nadwyżka handlowa całej strefy euro. Możliwe są różne scenariusze wydarzeń, lecz naszym zdaniem najbardziej prawdopodobne jest, że utrzymywanie strefy euro i kontynuacja polityki deflacyjnej powodować będzie jednoczesne hamowanie wzrostu i obniżanie niemieckiej nadwyżki handlowej, a w przypadku chaotycznego rozpadu strefy euro, zrównoważenie obrotów nastąpi najprawdopodobniej w sytuacji głębokiego załamania gospodarczego, które dotknie całą Europę, w tym Niemcy. Uwzględniając te ryzyka, z punktu widzenia Niemiec racjonalna jest kontrolowana dekompozycja strefy euro i przejście do mechanizmu walutowego, który wszystkim krajom UE stworzy szanse wzrostu gospodarczego i nie będzie generował zagrożeń dla trwałości UE i jednolitego rynku. Przyspieszenie wzrostu niekonkurencyjnych krajów strefy euro i związane z tym zwiększenie wolumenu handlu międzynarodowego, stwarza szanse na zrównoważenie wewnątrzeuropejskich obrotów w warunkach wzrostu gospodarczego w Europie i w Niemczech, nawet jeśli towarzyszyć temu będzie umocnienie nowej niemieckiej waluty. W przypadku wychodzenia Niemiec ze strefy euro celowe będą uzgodnienia między bankami centralnymi w celu zapobieżenia nadmiernej aprecjacji nowej waluty Niemiec w okresie przejściowym.

Obawa przed osłabieniem pozycji Europy wobec USA, Chin i Indii

Argumentem, który przemawia do wielu obserwatorów, jest to, że rezygnacja ze wspólnej waluty osłabi pozycję UE wobec potęg gospodarczych USA, Chin i Indii. Euro jest dziś jedną z najważniejszych walut świata, natomiast waluta żadnego z poszczególnych krajów Europy nie będzie miała podobnego statusu. Cytowani ekonomiści UBS stwierdzają, że po rozpadzie strefy euro poszczególne kraje europejskie, nawet te największe, będą ledwie słyszalne na arenie międzynarodowej[39]/.

Pogląd, że rezygnacja ze wspólnej waluty obniży pozycję Europy, jest słuszny pod warunkiem, że wspólna waluta nie osłabia Europy. Jeżeli jednak istnienie wspólnej waluty hamuje rozwój gospodarczy i grozi konfliktami zagrażającymi istnieniu Unii Europejskiej, jednolitego rynku i pokojowej współpracy w Europie, to z pewnością nie będzie czynnikiem umacniającym międzynarodową pozycję Europy, lecz wręcz przeciwnie, będzie tę pozycję osłabiać. Unia Europejska z wieloma walutami narodowymi, lecz dobrze funkcjonującym jednolitym rynkiem oraz zasadami współpracy stwarzającymi wszystkim państwom członkowskim dobre perspektywy rozwoju, będzie miała silniejszą pozycję międzynarodową niż UE z jednolitą walutą, lecz sparaliżowana przez stagnację gospodarczą, problemy i konflikty wewnętrzne, i poszukująca pomocy zewnętrznej nie tylko w USA, lecz również w Chinach, a w przyszłości pewnie i w Indiach.

X.    Co może się zdarzyć w przypadku kontynuacji uporczywej obrony euro

W tym rozdziale omawiamy najbardziej prawdopodobne warianty wydarzeń w przypadku kontynuacji uporczywej obrony euro i kontynuacji polityki „wewnętrznej dewaluacji”/deflacji: 1) scenariusz trwalej zapaści politycznej i społecznej niekonkurencyjnych państw oraz 2) scenariusz nieskoordynowanego rozpadu strefy euro. Odnotowujemy także mniej prawdopodobny, lecz niewykluczony scenariusz optymistyczny, w którym kryzys strefy euro zostanie rozwiązany w wyniku wystąpienia wewnętrznych lub zewnętrznych czynników łagodzących: 1) Złagodzenie i rozwiązanie kryzysu strefy euro w wyniku zewnętrznych impulsów wzrostu wskutek ożywienia w gospodarce światowej 2) Złagodzenie i rozwiązanie kryzysu strefy euro w wyniku istotnego osłabienia euro i wypracowania przez strefę euro jako całość wysokiej nadwyżki handlowej 3) Złagodzenie i rozwiązanie kryzysu w skutek znacznie lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”.

Długotrwała zapaść gospodarcza i społeczna zagrożonych państw strefy euro

Kontynuacja polityki „wewnętrznej dewaluacji” będzie powodować zapaść gospodarczą w zagrożonych krajach strefy euro.

Stanisław Gomułka ocenia, że zacieśnienie fiskalne stosowane w Grecji, będące jednocześnie warunkiem uzyskania zewnętrznej pomocy, spowoduje prawdopodobnie spadek PKB o około 20% i utrzymywanie stopy bezrobocia na poziomie 20-25% przez kilka lat[40]/.

Martin Feldstein, były szef doradców ekonomicznych Prezydenta Reagana, uważa, że usiłowanie ograniczenia deficytu na rachunku obrotów bieżących we Włoszech, Hiszpanii i Francji poprzez politykę „wewnętrznej dewaluacji” spowodowałoby dekadę wysokiego bezrobocia i spadającego PKB, co byłoby strategią politycznie niebezpieczną i oznaczającą ekonomiczne marnotrawstwo[41]/.

Recesja w zagrożonych gospodarkach pogarszać będzie perspektywy spłaty ich zadłużenia. Powodowało to będzie konieczność kontynuacji programów bezpośredniego wsparcia finansowego lub wsparcia pośredniego przez Europejski Bank Centralny w odniesieniu do Grecji, Portugalii, Hiszpanii i Włoch. Rosnąć będą napięcia polityczne w zagrożonych krajach, a także napięcia między krajami i wzajemne negatywne sentymenty między narodami. Społeczeństwa krajów mających nadwyżkę na rachunku obrotów bieżących (przede wszystkim Niemcy) odczuwać będą i coraz głośniej wyrażać rosnące zdegustowanie niezdolnością krajów deficytowych (Grecja, Portugalia, Hiszpania i Włochy) do uporządkowania swoich gospodarek i będą coraz głośniej wyrażały niechęć do udzielania im wsparcia finansowego. Z kolei kraje deficytowe będą coraz częściej oskarżały kraje nadwyżkowe o to, że są beneficjentami i częściowo sprawcami ich kłopotów. Kolejnymi etapami zaostrzenia kryzysu może być wyraźne rozszerzenie grupy zagrożonych krajów o Belgię i Francję.

 

Ryzyko kryzysów politycznych i niekontrolowanego opuszczania strefy euro

 

Dynamika polityczna kryzysu wymknąć się może spod kontroli na poziomie poszczególnych krajów i na poziomie strefy euro i Unii Europejskiej. Poszczególne zagrożone kraje mogą stracić zdolność do kontynuacji polityki „wewnętrznej dewaluacji” w wyniku wyborów lub upadku rządu pod wpływem demonstracji i rozruchów ulicznych, tak jak to się stało w Argentynie w 2001 roku. Pozostałe kraje będą musiały zgodzić się na rozluźnienie wymagań i kontynuację wsparcia lub zaakceptować niewypłacalność kolejnych zagrożonych krajów. Niewypłacalność kolejnych krajów powodować będzie straty w bilansach banków i konieczność udzielania im wsparcia publicznego, co pogarszać będzie sytuację fiskalną kolejnych krajów. Jednocześnie straty banków i ich problemy kapitałowe powodować będą dalsze zacieśnienie polityki kredytowej, przyczyniając się do hamowania gospodarki i rozszerzania się recesji. Rosnąć będzie nacisk na zwiększanie zakresu zaangażowania Europejskiego Banku Centralnego, a jednocześnie opór niemieckiej opinii publicznej przed ”psuciem” euro i coraz dalszym odchodzeniem ECB od dobrych wzorów Bundesbanku. W tej sytuacji może dojść do niekontrolowanego opuszczania strefy euro w wyniku jednostronnych decyzji poszczególnych krajów.

Kraj, który w wyniku straty zdolności do kontynuacji polityki „wewnętrznej dewaluacji” utraci wsparcie pozostałych krajów strefy euro, ogłosi częściową niewypłacalność i nie będzie w stanie pozyskać środków na sfinansowanie niezbędnych wydatków, może zostać zmuszony do rozpoczęcia emisji własnej waluty, co może być poprzedzone emisją różnych form quasi pieniądza do regulowania zobowiązań wewnętrznych i wypłacania wynagrodzeń w sektorze publicznym.

 

Na emisję własnej waluty zdecydować się może również kraj z grupy gospodarek nadwyżkowych, który utraci zdolność do tolerowania psucia euro i rosnących kosztów fiskalnych wspierania zagrożonych gospodarek strefy euro.

W przypadku opuszczania strefy euro w wyniku jednostronnych decyzji poszczególnych krajów nasilać się będą wzajemne oskarżenia i negatywne sentymenty. Prawdopodobne będą retorsje w postaci barier dla handlu niszczących jednolity rynek. W takim przypadku prawdopodobne jest pogłębienie załamania gospodarki i nasilenie konfliktów wewnątrzkrajowych i międzypaństwowych w Europie.

Możliwość przezwyciężenia kryzysu i przetrwania strefy euro

Pomimo, iż proponowane dotychczas metody rozwiązania kryzysu zadłużeniowego i reanimacji strefy euro mają bardzo ograniczoną szansę doprowadzić do poprawy konkurencyjności zagrożonych krajów i naprawy ich bilansów płatniczych na tyle szybkiej, by uniknąć zaostrzania recesji i dalszej eskalacji kryzysu zadłużeniowego, to istnieje szansa przetrwania strefy euro w obecnej formie. Może to być efektem wystąpienia rozmaitych sprzyjających czynników.

Kryzys strefy euro może zostać powstrzymany w wyniku wystąpienia wewnętrznych lub zewnętrznych czynników łagodzących, takich jak: zewnętrzne impulsy wzrostu wskutek silniejszego niż się obecnie oczekuje ożywienia w gospodarce światowej, istotnego osłabienia euro i wypracowania przez strefę euro jako całość nadwyżki handlowej lub lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”.

Silne ożywienie w gospodarce światowej umożliwiłoby, przy utrzymaniu wewnętrznej nierównowagi w strefie euro, osiągnięcie na tyle wysokiego wzrostu, by zneutralizować negatywne krótkookresowe skutki polityki „wewnętrznej dewaluacji” w słabszych krajach. Ułatwiłoby to zagrożonym krajom wyjście z pętli deflacyjnej i pętli zadłużenia, zwiększając szansę na przetrwanie strefy euro. Pojawienie się silnego i nie epizodycznego zewnętrznego impulsu wzrostowego nie jest dzisiaj generalnie scenariuszem bardzo prawdopodobnym wobec wciąż niezakończonego procesu ograniczania nadmiernego zadłużenia gospodarki prywatnej w USA oraz ryzyka silniejszego hamowania jednego z silników globalnego wzrostu, czyli gospodarki chińskiej.

Podobny jak globalne ożywienie skutek dla strefy euro przyniosłoby istotne i względnie trwałe osłabienie europejskiej waluty[42]/. W sytuacji istotnej deprecjacji euro i wygenerowania dużej nadwyżki handlowej przez strefę euro jako całości, mniej konkurencyjne kraje strefy mogły mieć nadwyżki obrotów handlu zagranicznego mimo utrzymywania się deficytów w ich obrotach w ramach strefy euro. Nie bez znaczenia jest przy tym stosunkowo wysoki udział wymiany handlowej z państwami spoza strefy euro w przypadku krajów peryferii, co zwiększać będzie pozytywne skutki osłabienia euro dla ich bilansu handlowego. Szansę na istotną deprecjację euro dotychczas zmniejszały z jednej strony polityka słabego dolara prowadzona przez amerykański bank centralny, z drugiej strony zaś powszechne ściąganie kapitału z pozaeuropejskich banków zależnych przez europejskie grupy bankowe, co  – podobnie jak w przypadku Japonii po wydarzeniach w Fukushimie – prowadziło do paradoksalnego umocnienia waluty obszaru przechodzącego kryzys.

Rozwiązanie kryzysu strefy euro byłoby oczywiście znacznie bardziej prawdopodobne, gdyby polityka „wewnętrznej dewaluacji” przyniosła lepsze niż oczekujemy efekty w zakresie przywracania konkurencyjności. Nie można wykluczyć takiego przebiegu wydarzeń, choć naszym zdaniem przedstawione w poprzednich rozdziałach przykłady nie dają podstaw do takich nadziei.

Reasumując, nie można wykluczyć, że kombinacja wymienionych wyżej czynników lub któryś z tych czynników samodzielnie umożliwi przezwyciężenie obecnego kryzysu i strefa euro przetrwa. Fakt, że strefa euro przetrwa obecny kryzys nie musi jednak oznaczać, że będzie to kryzys ostatni. W przyszłości poważne problemy z konkurencyjnością mogą pojawić się w różnych krajach. Los kraju, który z jakiś przyczyn utraci konkurencyjność, będzie w ramach strefy euro zawsze nie do pozazdroszczenia.

Zakończenie

Unia Europejska i jednolity rynek europejski to wielkie osiągniecia, których warto i trzeba bronić. Wprowadzenie euro, mimo najlepszych intencji, okazało się natomiast błędem, z którego należy się wycofać. Istnienie jednolitej waluty jest trudne do pogodzenia z dotychczasową filozofią integracji europejskiej, której celem było tworzenie wszystkim państwom członkowskim warunków dla pomyślnego rozwoju. Tymczasem przynależność do strefy euro pozbawia państwo członkowskie możliwości wykorzystania w sytuacji kryzysowej najskuteczniejszego instrumentu dostosowawczego, jakim jest korekta kursu walutowego. Kraj członkowski strefy euro, który z jakichś powodów utraci konkurencyjność, znajduje się w pułapce. Wyjście takiego kraju ze strefy euro grozi paniką bankową, zaś pozostawanie w strefie euro skazać może na długotrwałą recesję. Świadomość ryzyka wpadnięcia w taką pułapkę zmniejsza szanse na dalsze rozszerzanie strefy euro, nawet w optymistycznym wariancie opanowania obecnego kryzysu. Póki istnieje strefa euro, będziemy mieli w UE do czynienia z podziałem na trzy grupy krajów: kraje strefy euro mające zadawalającą konkurencyjność, zagrożone kraje strefy euro zmagające się z recesją oraz kraje znajdujące się poza strefą euro i niespieszące się do tego, by do niej wstąpić. Będzie to swoista „Europa trzech prędkości”. Kontrolowana dekompozycja strefy euro uwolni z pułapki tych, którzy w nią wpadli, zapobiegnie nieobliczalnym konsekwencjom niekontrolowanego rozpadu strefy euro, umożliwi zachowanie UE i jednolitego rynku i pozwoli UE skoncentrować wysiłki na nowych wyzwaniach. Takim projektem dającym nowy impuls rozwojowy może być utworzenie wspólnego obszaru celnego z USA[43]/.

Operacja kontrolowanej dekompozycji strefy euro może nastąpić tak szybko, jak tylko europejskie elity i opinia publiczna oswoją się z myślą, że euro i Unia Europejska to nie to samo i że Unia Europejska i jednolity rynek bez euro mogą istnieć i stanowić wielką wartość dla państw i narodów europejskich oraz uzgodnione zostaną zasady nowego ładu walutowego w Europie. Do tego czasu powinny być prowadzone działania zapobiegające niekontrolowanemu rozwojowi wydarzeń.


Autorzy

Stefan Kawalec

Ekonomista, absolwent wydziału matematyki Uniwersytetu Warszawskiego. Prezes zarządu firmy doradczej Capital Strategy Sp. z o.o., członek rad nadzorczych spółek Kredyt Bank S.A. i Lubelski Węgiel „Bogdanka” S.A., były wiceminister finansów.

Ernest Pytlarczyk

Doktor nauk ekonomicznych, Główny Ekonomista BRE Banku S.A., kieruje zespołem wielokrotnie nagradzanym za najlepsze prognozy makroekonomiczne gospodarki polskiej. W przeszłości pracował jako analityk rynków finansowych w Instytucie Cykli Koniunkturalnych na Uniwersytecie w Hamburgu, w banku centralnym Niemiec we Frankfurcie i w Banku Handlowym w Warszawie.


[1]/ System, w którym bank emisyjny gwarantował wymianę emitowanej waluty na złoto według stałego parytetu.

[2]/ Karl Polanyi, „The Great Transformation”, Reinhert, New York 1944.

[3]/ Barry Eichengreen, „Globalizing Capital. A History of the International Monetary System”, Princeton University Press 2008, str. 29-31 i 230.

[4]/ Barry Eichengreen, „Golden Fetters. The Gold Standard and the Great Depression 1919-1939”,  Oxford University Press 1995, str. 6.

[5] / B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. , str. 30.

[6] / B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, Op. cit. str. 230.

[7]/ John Maynard Keynes, „The Economic Consequences of Mr. Churchill” 1925, w: John Maynard Keynes, „Essays in Persuasion”, Macmillan and Co, London 1933, s. 244-270.

[8]/ B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. str. 57.

[9]/ B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. str. 57

[10]/ Liaquat Ahamed, „Lords of Finance. The Bankers Who Broke the World”, The Penguin Press, New York 2009.str. 376.

[11]/ L. Ahamed, op. cit.,  str. 429-430.

[12]/ L. Ahamed, op. cit.. str. 383.

[13]/ Por. B. Eichengreen , „Golden Fetters. The Gold Standard and the Great Depression 1919-1939”, op. cit.

[14]/  B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit., str. 87.

[15]/ Por. Mario Blejer and Guillermo Ortiz, “Latin lessons”, The Economist, 18.02.2012.

[16]/  http://pl.wikipedia.org/wiki/Zjednoczenie_Niemiec

[17]/ Heinz Jansen, „Transfers to Germany’s eastern Länder: a necessary price for convergence or a permanent drag?”, ECFIN Country Focus (Economic analysis from the European Commission’s Directorate-General for Economic and Financial Affairs), Volume 1, Issue 16, 8.10.2004. W poszczególnych latach w okresie 1991-2002 roczne transfery netto stanowiły między 4,6% a 7,7% PKB Niemiec i miedzy 26% a 45% PKB Niemiec Wschodnich.

[18]/ Por. Helmut Seitz, “The economic and fiscal consequences of German Unification”, Technical University Dresden, Germany, Faculty of Business and Economics, Institute for Applied Public Finances and Fiscal Policy. Presentation at the conference on German Unification University of Haifa, January 21st. – 22nd, 2009.

[19]/ Daniele Franco, „L’economia del Mezzogiorno” w: „Il Mezzogiorno e la politica economica dell’Italia”, Seminari e convegni, Banca d’Italia, lipiec 2010, nr 4, str. 5.

[20]/ Por. Gianfranco Viesti et al., “Convergence among Italian Regions, 1861-2011”, Quaderni di Storia Economica, Banca d’Italia, październik 2011, nr 21, str. 67.

[21]/ Por. D. Franco, op. cit., str. 3.

[22]/ Catriona Purfield and Christoph Rosenberg, “Adjustment under a Currency Peg: Estonia, Latvia and Lithuania during the Global Financial Crisis 2008–09”, IMF Working Paper WP/10/213, International Monetary Fund, Washington, September 2010.

[23]/ Por. Zsolt Darvas, „A Tale of Three Countries: Recovery after Banking Crises”, Corvinus University of Budapest, Department of Mathematical Economics and Economic Analysis, Working Paper 2011/6, 20 December 2011.

[24]/ Z. Darvas, op. cit..

[25]/ Por. Roberto Perotti, “The ‘Austerity Myth’: Gain Without Pain?”, NBER Working Paper 17571, National Bureau of Economic Research, Cambridge, Massachusetts, November 2011.

[26]/ Edmund Wnuk-Lipiński, „Świat międzyepoki. Globalizacja, demokracja, państwo narodowe”, Wydawnictwo ZNAK, Instytut Studiów Politycznych PAN, Krąków 2004. Str. 167.

[27]/ E. Wnuk-Lipiński, op. cit. Str. 164.

[28]/ E. Wnuk-Lipiński, op. cit. str. 180.

[29]/ Por. Mirosław Czech, „Ja nacjonalista”, Gazeta Wyborcza, 5-6 listopada 2011. Tytuł tekstu publicysty „Gazety Wyborczej” i byłego działacza Unii Demokratycznej i Unii Wolności jest formą prowokacji. Czech pisze w tym samym tekście: „Jak byłem demokratycznym liberałem (z tęskniącym spojrzeniem ku społecznej gospodarce rynkowej), tak pozostałem. Nacjonalistą jestem z europejska. Nie uważam by nadchodził  kres państwa narodowego i w Europie zapanowała kosmopolityczna wspólnota jako podstawa rozwoju demokracji. Więź narodowa i państwowa oparta na tożsamości obywateli oraz wieloetnicznym i wieloreligijnym dziedzictwie nie zaniknie. Będzie osnową integrującej się Europy.”

[30]/ W Argentynie w 2001 roku zamrożenie depozytów bankowych sprowokowało rozruchów, które doprowadziły do ustąpienia prezydenta i rządu oraz ogłoszenia niewypłacalności kraju.

[31]/ Rozwiązanie tego typu proponuje niemiecki historyk Hans-Joachim Voth. W wywiadzie dla „Spiegla”, w odpowiedzi na pytanie jak będzie wyglądała Europa za pięć lat, Voth mówi: „Mogę wyobrazić sobie świat z okrojoną strefą euro, do której należą Francja, Włochy, kraje śródziemnomorskie, i może też Belgia. Poza tym będzie stara strefa marki niemieckiej, do której należeć będą Niemcy, Austria, Holandia, może też Dania, i być może Finlandia, które nie będą miały problemu z utrzymaniem podobnej polityki pieniężnej jak Niemcy. Podobne warunki mieliśmy w czasach Europejskiego Mechanizmu Kursów Walutowych ERM. To było optymalne rozwiązanie, tylko potem porzuciliśmy je na rzecz euro.” Por. „Europa to więcej niż euro”,  31.08.2011 – http://waluty.onet.pl/europa-to-wiecej-niz-euro,18893,4835536,1,prasa-detal

[32] Por. B. Eichengreen (2008)  „Globalizing Capital. A History of the International Monetary System”. Op. cit. s. 49-55.

[33]/ B. Eichengreen (2008)  „Globalizing Capital, A History of the International Monetary System”. Op. cit. s. 186.

[34]/ B. Eichengreen (2008)  „Globalizing Capital, A History of the International Monetary System”. Op. cit. s. 232.

[35]/ W pierwszych latach istnienia ESM centralnie ustalone poziomy kursów były modyfikowane średnio co osiem miesięcy.

[36]/ Propozycję takiego rozwiązania problemów strefy euro przedstawił Krzysztof  Rybiński: http://www.rybinski.eu/?p=2999&lang=all. Jednorazowa zmiana kursów parytetowych wewnątrz strefy euro nie wyklucza jednak ponownego, wraz z upływem czasu, narastania nierównowagi w bilansach płatniczych.

[37]/ Skrót złożony z pierwszych liter angielskich nazw następujących krajów: Portugalia, Włochy, Irlandia, Grecja i Hiszpania.

[38]/ Stephane Deo, Paul Donovan, and Larry Hatheway, “Euro break-up – the consequences”, UBS Global Economic Research, London,  6.09.2011.

[39]/  S. Deo, P. Donovan, and L. Hatheway, “Euro break-up  –  the consequences”, op. cit.

[40]/ Stanislaw Gomulka, “Perspectives for the Euroland, Short Term and Long Term”, Polish Quarterly of International Affairs, no 2/2012. March 2012. Forthcoming. Gomułka uważa, że takie kosztowne społecznie dostosowanie będzie miało również pozytywne skutki: przywrócenie konkurencyjności w wyniku obniżenia kosztów płac, poprawę salda handlu zagranicznego, a także utrwalenie w pamięci (instill in te memory) dla społeczeństwa i elit politycznych konieczności dbania o stabilność finansową.

[41]/  Martin Feldstein, “Weaker euro will help solve Europe deficit woes”, Financial Times, 19.12.2011. Por. http://blogs.ft.com/the-a-list/2011/12/19/a-weak-euro-is-the-way-forward/#ixzz1h6vdpDrY

[42]/ Deprecjację euro jako receptę na uratowanie strefy euro przywołał Martin Feldstein. Por. M.Fedstein, “Weaker euro will help solve Europe deficit woes”, op. cit.

[43]/ Postulat utworzenia do roku 2025 wolnego obszaru celnego obejmującego Unię Europejską i USA sformułowany został w raporcie: „The Case for Renewing Transatlantic Capitalism”, Edited by Paweł Świeboda and Bruce Stokes, Warsaw, March 2012, Report by a High Level Group convened by demosEUROPA – Centre for European Strategy (Warsaw), the German Marshall Fund of the United States (Washington DC), Notre Europe (Paris), Stiftung Wissenschaft und Politik (Berlin) and European Policy Centre (Brussels).

III generacja praw człowieka :)

Prawa człowieka to specjalny rodzaj praw. Zastanawiając się nad ich istotą, nie sposób nie odnieść się do ich źródła. Jest nim godność człowieka, która podkreśla ich prawno-naturalny charakter, przynależna każdej jednostce ludzkiej, niezależnie od woli jakiegokolwiek podmiotu państwowego lub ponadpaństwowego, ponieważ wyklucza to ich natura.

Prawa człowieka znalazły swój zapis w dokumentach dwóch wielkich rewolucji osiemnastego wieku – francuskiej i amerykańskiej. Współcześnie ich problematyka ujęta jest w wielu paktach i konwencjach o charakterze międzynarodowym oraz konstytucjach państw świata. Warto zauważyć, że dopiero w latach siedemdziesiątych dwudziestego wieku tematyka praw człowieka została niejako wydobyta z prawa narodów. Francuski prawnik Karel Vasak przedstawił koncepcję wyodrębnienia praw człowieka z szerzej rozumianej płaszczyzny prawno-międzynarodowej. Zaproponował również podział praw człowieka na trzy generacje, co związane było z naturą samych praw.

Prawa I generacji, najbardziej „klasyczne” z praw przysługujących jednostce ludzkiej, których źródeł możemy szukać w pracach wybitnych myślicieli już z okresu siedemnastego wieku, a przede wszystkim Oświecenia (wspomnieć należy tu choćby Johna Locke’a, Thomasa Hobbesa, Monteskiusza czy Immanuela Kanta), to fundamentalne prawa wynikające z wspomnianej wcześniej godności człowieka, niezależne od prawodawstwa organizmów państwowych. Wystarczy w tym miejscu wymienić prawo do życia, do wolności osobistej, wolności od tortur, czy wolności sumienia, by nie mieć wątpliwości co do ich charakteru.

Prawa II generacji to prawa ekonomiczne, socjalne i kulturalne, które zapewniają jednostce rozwój fizyczny, duchowy oraz bezpieczeństwo socjalne. To prawa takie jak prawo do pracy, do wynagrodzenia, do ochrony zdrowia, czy wreszcie prawo do edukacji. Największą wątpliwość prawników międzynarodowych, ale także filozofów, etyków, czy polityków budzą jednak prawa człowieka III generacji, którym będzie poświęcony ten tekst.

Prawa III generacji – ogólna charakterystyka

W przeciwieństwie do praw I i II generacji, praw indywidualnych, przyrodzonych i niezbywalnych, prawa III generacji to prawa kolektywne, przynależne narodom, grupom społecznym, wymagające do swojej realizacji współdziałania państw. Wyrażają one szczytne idee: ogólnoludzką solidarność i braterstwo. Wyrażają cele, do których powinna dążyć ludzkość, w obliczu współczesnych problemów świata. Aktualnie do praw III generacji zali-cza się przede wszystkim: prawo do pokoju, prawo narodów do samostanowienia, prawo do czystego środowiska naturalnego, prawo do wspólnego dziedzictwa ludzkości, prawo do komunikowania się, prawo do rozwoju.

Sceptycy wyszczególniania praw III generacji podnoszą, że prawa te znajdują się ciągle w sferze deklaracji, gdyż brakuje mechanizmów ich skutecznej egzekucji. Jednostka nie ma szans nakłonienia państwa na zmianę odgórnie przyjętej polityki, zarówno zagranicznej, jak i tej wewnętrznej – krajowej. Tradycyjnie w języku prawniczym mówi się, że są to prawa pozytywne, które wymagają podjęcia aktywnych działań przez ich adresatów, żeby nie pozostały tylko martwą literą. Stanowi to samo w sobie istotne ich ograniczenie. Wystarczy wspomnieć, że od czasu największej zbiorowej traumy w dziejach ludzkości, tj. II wojny światowej, nie było na ziemi ani jednego dnia pokoju. Mając to na uwadze, niezwykle trudno wyobrazić sobie współpracę państw świata, a przede wszystkim głównych aktorów sceny międzynarodowej, w urzeczywistnianiu idei wyrażonych w konwencjach, jak choćby w Powszechnej Deklaracji Praw Człowieka oraz wielu późniejszych aktach.

Krytycy praw III generacji wskazują ponadto, że w państwach, których władze popularyzują prawa kolektywne, dochodzi do częstych naruszeń praw indywidualnych. Dotyczy to przede wszystkim państw totalitarnych czy autorytarnych. Co jednak warto podkreślić – z pewnością III generacja praw stanowi kierunek rozwoju ludzkości, a organizacje międzynarodowe mają jednak pewien wpływ na działania rządów państw członkowskich, przede wszystkim poprzez stosowanie nacisków politycznych, jak i sankcji, w szczególności ekonomicznych, w dobie globalizacji istotnie dotkliwych dla rozwoju państw. Pomimo szeregu wątpliwości dotyczących III generacji warto pochylić się nad niektórymi z jej praw.

Prawo do pokoju

Prawo to, znajduje odbicie w artykule pierwszym Karty Narodów Zjednoczonych w postaci idei utrzymania międzynarodowego pokoju i bezpieczeństwa, rozwoju przyjacielskich stosunków między narodami, opartych na równouprawnieniu oraz samostanowieniu narodów, a także działaniu na rzecz międzynarodowej współpracy w rozwiązywaniu międzynarodowych problemów ekonomicznych, społecznych, kulturalnych i humanitarnych.

Pokój stanowi niejako bazę, istotny warunek wstępny dla realizacji i poszanowania praw i wolności człowieka w ogólności. Wojny, konflikty zbrojne powodują, że prawa człowieka znajdują się w niebezpieczeństwie, nierzadko są brutalnie naruszane. Komitet Praw Człowieka we wszystkich przejawach swojej aktywności żywo podkreśla konieczność współdziałania wszystkich państw w celu przeciwstawieniu się sytuacjom, które zagrażają ogólnoludzkiemu pokojowi. Warto przytoczyć tu choćby to spostrzeżenie Komitetu: „(…) wojna oraz inne akty masowej przemocy są plagą ludzkości oraz zabierają każdego roku tysiące niewinnych ludzkich istnień. (.) Każdy wysiłek, który podejmują członkowie ONZ w celu odwrócenia nie-bezpieczeństwa wojny, szczególnie nuklearnej zagłady(.), powinien zagwarantować prawo do życia”.

Jest to piękna, acz wciąż nieprzestrzegana i nierealizowana deklaracja. Kiedy zadamy sobie pytanie, czy w historii ludzkości kiedykolwiek panował pokój, musi paść odpowiedź przecząca. Od kiedy ludzie zaczęli gromadzić się wokół jednego ośrodka władzy, najpierw plemiennej, potem państwowej, zawsze istniał konflikt z najbliższym sąsiadem o terytorium czy strefy wpływów, który to rozwiązywany był przede wszystkim zbrojnie. Tak naprawdę dopiero w dziewiętnastym wieku możemy zaobserwować pojawienie się umów międzynarodowych między państwami, regulujących inne kwestie niż zbrojne (wcześniej traktaty pokojowe czy akty podporządkowania się jednego państwa drugiemu) – jako przykład może służyć Akt Końcowy Kongresu Wiedeńskiego z 1815 roku, dotyczący wolnej żeglugi na rzekach śródlądowych.

Pomimo zmiany charakteru relacji między państwami, postęp technologiczny, możliwość dogodniejszego dostępu do strategicznych surowców naturalnych, czy rozwój przemysłu zbrojnego tak naprawdę tylko nasiliły eskalację przemocy i zintensyfikowały wojnę. Nie bez powodu istnieje powszechne przekonanie, że wojna francusko-pruska (1870-1871), zakończona ogłoszeniem powstania Cesarstwa Niemiec w Sali Lustrzanej w Wersalu, była w swej istocie ostatnią „rycerską” wojną, tj. toczoną według starych żołnierskich reguł prowadzenia potyczek, bez mundurów maskujących itp.

Prawo do pokoju napotyka na swej drodze istotne ograniczenia polityczne, a także ekonomiczne, gdyż państwu pewne działania muszą się po prostu opłacać. Obecny wspólny front walki z terroryzmem jest tak naprawdę fikcją. Dowodzą tego choćby, daleko nie szukając, relacje na linii Indie – Pakistan po ostatnich zamachach w Bombaju w listopadzie zeszłe-go roku. Pozorna współpraca na płaszczyźnie wykrycia sprawców tragedii, po bardziej stanowczych żądaniach rządu w Delhi dotyczących wydania osób podejrzanych o dokonanie zamachów, skutkuje groźbami Islamabadu przemieszczenia wojsk z granicy afgańsko-pakistańskiej nad granicę z Indiami, co – oprócz rzucania kłód pod nogi organizacjom międzynarodowym w opanowaniu i tak niezwykle trudnej sytuacji w Afganistanie – grozi przejściem do bardziej intensywnej formy sporu o Kaszmir.

>Należy przy tym pamiętać, że niektóre konflikty zbrojne są podyktowane walką, paradoksalnie, o ochronę praw człowieka, podczas których, co normalne, też są gwałcone normy pokojowej egzystencji. Przede wszystkim wiele walk narodowowyzwoleńczych jest prowadzona na rzecz ochrony praw człowieka. Podkreśla to preambuła Powszechnej Deklaracji Praw Człowieka: „Zważywszy, że istotne jest, aby prawa człowieka były chronione przez przepisy prawa, tak aby człowiek nie musiał – doprowadzony do ostateczności – uciekać się do buntu przeciw tyranii i uciskowi”. Zgromadzenie Ogólne NZ po raz pierwszy prawo do pokoju proklamowało w 1978 roku, stwierdzając, że wojna napastnicza jest zbrodnią przeciw pokojowi i jako taka, zakazana przez prawo międzynarodowe.

Prawo narodów do samostanowienia

Prawo to w swej charakterystyce wyróżnia dwa aspekty – wewnętrzny i zewnętrzny. O ile aspekt wewnętrzny, odnoszący się do ochrony praw mniejszości w danym państwie, jest powszechnie akceptowany, to aspekt zewnętrzny – prawo do secesji, stworzenia własnego państwa, napotyka wiele żywych reakcji (sprzeciwów) państw, oczywiście podyktowanych geopolityką.

Zgromadzenie Ogólne NZ w rezolucji 421.V, przyjętej 2 grudnia 1950 roku, prawo ludów i narodów do samostanowienia określiło jako „fundamentalne prawo człowieka”. Idea ta swój wyraz uzyskała w 1960 roku, w deklaracji przyznającej niepodległość państwom kolonialnym. Należy zauważyć, że wciąż istnieje dość silne stanowisko głoszące, że prawo to zostało przeznaczone tylko dla narodów kolonialnych i wraz z przyznaniem im niepodległości – wyczerpało się. Na obecnej mapie politycznej świata tak naprawdę nie ma już żadnej próżni, dlatego prawo narodów do samostanowienia zderza się z uznaną zasadą prawa międzynarodowego – integralności terytorialnej kraju – nienaruszalności granic.

Pytanie, czy te dwie konstrukcje prawne mogą istnieć obok siebie i na ile jedna ogranicza drugą – wydaje się, że również pozostaje bez odpowiedzi. Przypadek proklamacji niepodległości przez Kosowo w lutym 2008 roku oraz fakt uznania tego nowo powstającego państwa przez znaczną część państw świata, zdecydowanie zorientowanych proamerykańsko, lub antyrosyjsko do-wodzi, iż o faktycznym przyznaniu przez społeczność międzynarodową prawa danemu narodowi do samostanowienia przesądza koniunkturalizm polityczny, a nie faktyczne spełnienie przesłanek do możliwości stworzenia nowego państwa. Tradycyjnie wymienia się tu – ludność, terytorium, sprawowanie efektywnej władzy oraz zdolność nawiązywania relacji dyplomatycznych z innymi narodami (państwami). Niepodległość Kosowa stała w sprzeczności z postanowieniami znanej rezolucji Rady Bezpieczeństwa z czerwca 1999 roku, podkreślającymi zobowiązanie państw do poszanowania integralności terytorialnej Serbii i nienaruszalności jej granic.

Rezolucja ta ponadto ustanawiała zarząd (administrowanie) Kosowa przez NZ. Nie można powiedzieć, że Kosowarzy zdołali wykształcić w przeciągu tych niespełna dziesięciu lat trwałe struktury, mogące w sposób efektywny sprawować władzę nad swoim terytorium i ludnością. Można z tych rozważań wysnuć następujący wniosek: przesłanka sprawowania efektywnej władzy nie została spełniona, zatem prawo Kosowarów do samostanowienia w aspekcie zewnętrznym nie jest możliwe do realizacji, a uznanie Kosowa przede wszystkim przez Stany Zjednoczone stanowiło w szczególności okazanie Rosji faktu kurczenia się jej strefy wpływów. Pomimo mojej całej sympatii dla Kosowarów i pochylenia się nad tragedią czystek etnicznych, które ich dotknęły z rąk Serbów, nie wydaje mi się, aby niezwykle biedne państwo, zarządzane przez struktury mafijne, mogło faktycznie egzystować na mapie politycznej Europy, nie będąc tylko i wyłącznie studnią bez dna dla środków finansowych wpompowywanych przez Narody Zjednoczone. W całej tej sytuacji zdumiewa jednak najbardziej jawna hipokryzja Rosji, która mimo, że Kosowa nie uznała (ze względu na swój jeszcze historyczny związek z Serbią, a przede wszystkim dla ochrony własnych interesów jakim jest utrzymanie Czeczenii we własnych granicach) teraz powołuje się na jego przypadek w obliczu konfliktu z Gruzją o Osetię, chcąc, rzecz jasna w dalszej perspektywie – o ewentualnej secesji Osetii (i Abchazji) przyłączyć te terytoria do Federacji Rosyjskiej.

Podsumowując, prawo narodów do samostanowienia z pewnością w największym stopniu doznaje ograniczenia przez bieżące interesy polityczne państw. Czy dziwi zatem milczenie świata w sprawie Tybetu, Czeczenii, czy innych tego typu obszarów?

Prawo do czystego środowiska naturalnego

Problematyka środowiska naturalnego została po raz pierwszy poruszona podczas pierwszej światowej konferencji temu poświęconej w Sztokholmie w 1972 roku. Deklaracja przyjęta w czasie tego szczytu wyróżniła dwa aspekty środowiska człowieka – środowisko naturalne i środowisko stworzone przez człowieka. Człowiek ma prawo do życia w takim środowisku, które zapewniałoby możliwość godnej egzystencji i zgodnie z Deklaracją z 1972 roku – do życia w dobrobycie. Oprócz uprawnień, na ludzkość nałożono również zobowiązanie do ochrony środowiska na rzecz przyszłych pokoleń. Jednak myliłby się ten, kto widząc te jakże uniwersalne wartości, twierdziłby o pełnym porozumieniu państw co do kwestii czystości środowiska naturalnego.

W przeciwieństwie do dwóch wcześniej wymienionych przeze mnie praw III generacji – prawa do pokoju oraz prawa do samostanowienia, które doznają ograniczeń przede wszystkim politycznych – prawo do czystego środowiska naturalnego ograniczane jest poważnie przez interesy ekonomiczne państw. Jaskrawym przykładem tego stanu rzeczy jest Protokół z Kioto z 1997 roku. Był on wynikiem porozumienia zakładającego redukcję emisji gazów cieplarnianych do atmosfery przez kraje uprzemysłowione. Stany Zjednoczone odmówiły ratyfikacji tego traktatu, osłabiając tym samym poważnie jego znaczenie.

USA nie chce brać na siebie zobowiązań, podkreślając, że Protokół z Kioto nie obliguje takich potęg gospodarczych jak Chiny czy Indie. Indie stoją na stanowisku, że nie poświęcą rozwoju gospodarczego dla redukcji emisji gazów cieplarnianych, w szczególności dwutlenku węgla do atmosfery. W przypadku innych państw silnie uprzemysłowionych, jak Rosja (która nota bene podpisała Protokół) redukcja gazów faktycznie nastąpiła, jednak miała ona przede wszystkim przyczyny ekonomiczne – silną recesję gospodarczą. Podobną sytuację mogliśmy zaobserwować w Polsce, kiedy na początku lat dziewięćdziesiątych istotnie zwiększyła się czystość środowiska naturalnego. Wymienić tu można poprawienie się jakości wód śródlądowych – miało to jednak związek z upadkiem w okresie transformacji gospodarczej wielu przedsiębiorstw państwowych, a nie wdrożeniem poważnych mechanizmów skutecznej ochrony środowiska naturalnego.

Pomimo tych, z całą pewnością negatywnych zjawisk, możemy mówić jednak o pewnym postępie w realizacji zasady solidaryzmu, odnoszącej się do środowiska naturalnego. Fakt, że w 2005 roku Protokół z Kioto wszedł w życie (czyli został ratyfikowany przez pięćdziesiąt pięć krajów – których łączna emisja dwutlenku węgla jest równa co najmniej pięćdziesięciu pięciu procentom emisji globalnej z roku 1990) oraz trwająca w trakcie pisania tego tekstu (grudzień 2008) konferencja ONZ w Poznaniu, potwierdzają powolne zacieśnianie współpracy na płaszczyźnie międzynarodowej w celu ochrony środowiska. Są to niezbędne kroki na drodze do bardziej efektywnej współpracy międzynarodowej. Wszak, jak powiedział Yvo de Boer, sekretarz wykonawczy ramowej konwencji NZ w sprawach zmiany klimatu, „zmiany klimatyczne będą miały ekonomiczne skutki porównywalne do obu wojen światowych, razem wziętych”. Jest to wyraźny sygnał dla co bardziej „opornych” państw. Czy zostanie w ogóle dostrzeżony?

Słowo końcowe

Prawa człowieka III generacji, jako prawa solidarnościowe, wymagają ponadpaństwowej, a nawet więcej – ponadkulturowej – zgody dla ich urzeczywistnienia. Są wyrazem międzycywilizacyjnego dyskursu dotyczącego ochrony praw człowieka. W moim przekonaniu, wykształcenie się praw III generacji było logiczną konsekwencją rozwoju cywilizacyjnego, próbą zmierzenia się z problemami trapiącymi współczesnego człowieka. Niezamykanie się w kręgu własnego „ja” może przybliżyć nas do realizacji zasady solidarności, którą można postrzegać w kategoriach normy prawnej, chroniącej dobro wspólne nie inaczej, jak poprzez poszanowanie praw i wolności oraz, nie zapominajmy, społeczne obowiązki człowieka, a co za tym idzie, państwa jako konkretyzacji umowy społecznej zawieranej między ludźmi.

Oczywiście, prawa III generacji pozostają wciąż raczej w sferze deklaracji, szczytnych haseł, co spowodowane jest niemożliwością skutecznej ich egzekucji. Nie zostały jeszcze wykształcone efektywne środki ochrony praw III generacji. Być może nie jest to w ogóle możliwe , biorąc pod uwagę zarówno historyczne, jak i współczesne relacje między narodami. Dostrzegając jednak wszystkie te trudności, wydaje się, że kierunek wyznaczony poprzez owe idee solidarnościowe jest słuszny i próby ich urealnienia, choć bardzo powolne, już się rozpoczęły.

Przeczytaj również:
Geneza praw człowieka, czyli dlaczego warto sięgać do źródeł, T. Lachowski
Zasada subsydiarności i decentralizacji a prawa człowieka i obywatela, Tomasz Pado
Trybunał Konstytucyjny i rozwój podstawowych praw człowieka i obywatela w postkomunistycznej Polsce z niemieckiej perspektywy, Julia Hesse

Foto: Flickr, United States Mission Geneva (CC BY-ND 2.0)

Ważne: nasze strony wykorzystują pliki cookies. Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników. mogą też stosować je współpracujący z nami reklamodawcy, firmy badawcze oraz dostawcy aplikacji multimedialnych. W programie służącym do obsługi internetu można zmienić ustawienia dotyczące cookies. Korzystanie z naszych serwisów internetowych bez zmiany ustawień dotyczących cookies oznacza, że będą one zapisane w pamięci urządzenia.

Akceptuję