Czy mamy Krajową Politykę Miejską? :)

Najpiękniejsze miasta, najpiękniejsze wsie;

Zbudujemy Polskę piękną jak we śnie

W porównaniu do założeń do dokumentu, które mieliśmy okazję czytać jakiś czas temu, pełna wersja Krajowej Polityki Miejskiej wypada nieco lepiej. Tekst jest wart dyskutowania. By mógł on jednak stać się nośnym dokumentem polityki rządowej, nadal wymaga pracy: w obecnej postaci jest zbyt obszerny i zawiły.

Krakow foto Rafal Nowak 0048 601408155 raffoto@wp.plStruktura i język

Internet jest pełen wzorców zatytułowanych „How to Write Policy Paper”. Dokument wytworzony w MIR od nich odbiega. Największa słabość to zawiłość struktury, co utrudnia mu spełnienie roli przewodnika dla samodzielnych podmiotów.

Zapis polityki to dokument odwołujący się do wyborów w sferze wartości i celów w danej dziedzinie, proponujący praktyczne zasady działania oraz instrumenty warunkujące ich wykonalność. Polityka musi być zrozumiała, tak by umożliwiała samodzielne, zgodne z proponowanymi zasadami działanie. Musi też dowieść zaangażowania liderów (kierowników) i tym samym motywować adresatów, do których jest kierowana. Sytuacja w wielu dziedzinach (np. gospodarowanie przestrzenią) wymaga rewolucji. A ta zaczyna się od mocnych stwierdzeń, wiarygodnej wizji oraz zaproponowania stanowczych i szybkich kroków. Projekt polityki miejskiej nie posiada tych cech.

Strukturalną i kompozycyjną chwiejność pokazuje już spis treści. Nie oddaje konstrukcji całości. Po uzupełnieniu o podtytuły i nagłówki, pełny konspekt 140-stronicowego tekstu liczy ponad 4 strony znormalizowanego maszynopisu. Niektóre nagłówki reprezentują 4-8-linijkowe akapity, inne odpowiadają kilkustronicowym rozdziałom. Zastanawia też kolejność części.

We wstępie znajdujemy „podstawy” będące w istocie założeniami, w których bez istotnej potrzeby zapewnia się o respektowaniu obowiązującego ustroju i identyfikuje warunki dla integracji oraz koordynacji proponowanych działań oraz „zapowiada” rozmaite rzeczy, już wpisane w istniejące programy.

W pierwszej kolejności w tekście pojawiają się „Wątki tematyczne” (pkt. 2.4) będące sposobem grupowania działań. Po nich następuje diagnoza, z której owe działania powinny wynikać. Natomiast zasady prowadzenia polityki (pkt. 3), które powinny wypływać z przyjętych kierunków (celów), proponowanych działań i uwarunkowań, są w tekście umieszczone przed tymi celami. Obawiam się, że nie jest to skutek chaotycznego składania fragmentów, tylko efekt nieco doktrynerskiego podejścia towarzyszącego tworzeniu dokumentu.

Jakby nie dość było „redundantnych” zapętleń, na końcu znajdujemy konstrukcyjną negację sensu istnienia całego wątku. Na następnej stronie dostajemy schemat łączący „wszystko ze wszystkim” w stopniu uniemożliwiającym traktowanie tekstu jako zapisu polityki, celowej i selektywnej przecież. Polityka powinna być wyborem kierunku i wskazaniem priorytetowych wartości. Wybierając jedne, zdejmuje się z listy pozostałe. W tym dokumencie nie widać takiego myślenia. Występuje raczej nieselektywne kopiowanie już zapisanych projektów. Niewielki ma sens tworzenie dokumentu, który przepisuje inne. Grozi to inflacją idei.

Mnóstwo jest też nieprecyzyjnych sformułowań imitujących język specjalistyczny, np. „Zintegrowane podejście terytorialne oznacza realizowanie przedsięwzięć w sposób skoordynowany, komplementarny i prowadzący do synergii”. Wreszcie tworzy się zdania należące do rodzaju metajęzyka zarządzania nie-miejską rzeczywistością.

Niejasne adresowanie

W bezpośrednim związku z rolą KPM pozostaje wskazanie jej adresatów. Są nimi instytucje rządowe, jednostki samorządu terytorialnego, mieszkańcy miast i organizacje ich zrzeszające, podmioty należące do sfery biznesu, nauki, pozarządowej oraz korporacje pozarządowe i podmioty reprezentujące obszary funkcjonalne miast (związki, stowarzyszenia itp.). Tymczasem tak szerokie adresowanie polityki państwa („do kogo się tylko da”) nie ma większego sensu. Miesza się w ten sposób wykonawców, beneficjentów i okazjonalnych towarzyszy podróży. O rytualnym charakterze tej listy świadczy wymienienie obywateli jako mieszkańców i organizacje ich zrzeszające.

Wątpliwości budzą także odwołania do „ram”, jakie mają stanowić inne dokumenty europejskie. Moim zdaniem są blankietowe. Wymienianie jednym tchem dokumentów różniących się ideowo, adresowo oraz pod względem rangi i skuteczności raczej tworzy zasłonę dymną, niż cokolwiek wyjaśnia. Traktat Lizboński, Karta Lipska, polityka spójności, strategia Europa 2020, KSRR i Koncepcja Przestrzennego Zagospodarowania Kraju zebrane w jeden feretron przypominają obowiązkowe dopisywanie odwołań do VIII Plenum PZPR. Nie dopatrzyłem się w tym rzetelnej analizy czy odkrywczej syntezy. Niektóre dokumenty, jak Kartę Lipską z 2007 roku, należy wręcz zaliczyć do archeologicznych pozostałości po nieskutecznych porywach.

W wielu miejscach dokumentu zaproponowano znane i bezbarwnie sformułowane kierunki działań. Zalecono, aby komunikacja była dwukierunkowa i że należy dobierać właściwe jej kanały i sposoby. Tu także przywołano mało znane szerszemu ogółowi władz lokalnych detale „Strategii Sprawne Państwo 2020”, pisząc o „zarządzaniu responsywnym”, które (z jakiegoś powodu) ma uwzględniać zasadę pomocniczości, a także inne tajemniczo brzmiące odesłanie do wielkiego projektu „Ministerstwo uczące się” czy „Urbact-u”. Z całym szacunkiem, ale chciałbym wiedzieć, czego się z nich dla polityki miejskiej nauczyliśmy. Proponuję zaniechać powoływania wszelkich możliwych dokumentów państwowych i europejskich w użytkowym opisie polityki.

Diagnoza

Zgodnie z deklaracją zawartą w tekście KPM, podstawą jej stworzenia są ekspertyzy – wymieniona z nazwy ekspertyza OECD i szereg źródeł luźno wspomnianych lub fragmentarycznie cytowanych w dokumencie, a wreszcie oceny autorów piszących poszczególne rozdziały. Trudno oprzeć się wrażeniu, że sięgnięcie do źródeł jest niepełne, raczej wybiórcze. Pominięto szereg znanych ekspertyz i wypowiedzi na temat sytuacji polskich miast. Ponadto nie wykorzystano obszernej literatury światowej i polskiej publicystyki omawiających wyzwania miejskiej „ponowoczesności”.

Zarówno w diagnozie, jak i w opisie wyzwań KPM identyfikuje wiele problemów na drodze ku dobremu funkcjonowaniu miast. Jednakże tekst jest dosyć bezbarwny, podczas kiedy powinien brzmieć jak surma bojowa, a szeregu spraw w ogóle nie dostrzeżono. Warto więc zwrócić uwagę, że żyjemy w epoce gwałtownego wzrostu urbanizacji i narastającego kryzysu paradygmatu miejskości. Od dawna nie obserwowaliśmy takiego nasilenia naukowej i społecznej dyskusji o mieście oraz osłabienia typowo miejskich profesji (architekt, urbanista).

Według niektórych mamy wręcz do czynienia z miejską rewolucją, ruchami miejskimi, walką o prawo do miasta, nowe zdefiniowanie przestrzeni publicznej i prawa do niej. Ożywiła się sztuka w przestrzeni publicznej i starania o prawo do wolności działania w przestrzeni. Nie tylko ze strony ruchów miejskich, ale i od urbanistów słyszymy o złych skutkach niezrównoważonej koncepcji prawa własności i powiązanego z nim prawa do zabudowy. Trwają próby zredefiniowania kanonu ulicy. Nastąpił rozpad dawnej koncepcji lokalności w mieście, na co brakuje prób odpowiedzi w bieżących działaniach rządu i samorządów.

Miasta zmagają się z kryzysem (społecznej) polityki mieszkaniowej; wiele myli troskę o budownictwo komunalne z odpowiedzialnością za zaspokojenie potrzeb mieszkaniowych wszystkich mieszkańców. Obserwujemy wręcz kryzys koncepcji zadania publicznego i zakresu odpowiedzialności miasta wobec ludzi. Przy jakości nie wspominamy zresztą o zróżnicowaniach społecznych i przestrzennych, o rozpiętości między dzielnicami biedy i bogactwa.

Wśród trudnych do opanowania skutków globalizacji trzeba widzieć nie tylko „urban sprawl”. Nie mamy pomysłu na rolę i czynniki przetrwania małych miast, nie umiemy zaproponować formuły dzielenia się korzyściami rozwoju pomiędzy wielkimi i małymi ośrodkami (wzmianka na str. 96 dokumentu w kontekście ZIT). Nie dostrzeżono problemów migracji międzynarodowych, ani znacznych zróżnicowań społeczno-statusowych w miastach.

Problemem powiązanym z polityką miejską jest sytuacja samorządu terytorialnego. Jedno z największych osiągnięć, chluba polskiej transformacji, zaczyna poważnie niedomagać. Składa się na to trudna sytuacja finansowa, ale przede wszystkim narzucone przez zacieśniające się regulacje prawne ograniczenia swobody dysponowania środkami, a także bariery w samodzielności organizatorskiej samorządów. Obserwujemy swoisty stan zablokowania korzyści reformy samorządowej, wynikający ze sposobu funkcjonowania (modelu) administracji publicznej. W efekcie można już pytać, czy między aktorami i interesariuszami sfery samorządowej istnieje powszechnie podzielana wizja samorządu terytorialnego.

Ostatecznie, wyzwaniem dla polityki miejskiej nie są więc poszczególne kwestie, tylko wypracowanie koncepcji miasta nowej ery.

Wizja miasta

Zamieszczona na str. 14 wizja miasta poraża nieporadnością (już nie wiem, języka czy koncepcji); CELE (str. 16) sformułowane są językiem ogólnej polityki europejskiej, nawet nie państwowej: miasto konkurencyjne, silne, spójne, zwarte, zrównoważone, sprawne. Czytanie rozwinięcia tych celów nie ma sensu. Znamy to już na pamięć z innych tekstów.

Wybrane wątki tematyczne

Przestrzeń

Punkt 5.1. Problematyka kształtowania przestrzeni także nakazuje zadanie kilku pytań. Czy ma sens opracowywanie polityki miejskiej w układzie branżowym? Kształtowanie przestrzeni jest efektem procesów gospodarczych, społecznych i technicznych. Zgadzam się z zawartymi na str. 25 elementami diagnozy, choć przypomina ona dyskusję nad tekturową makietą, a nie nad miastami: np. problematyka społeczna nie może ograniczać się do dostępności usług dla osób o obniżonej sprawności. Albo dlaczego boimy się powielania błędów miast zachodnioeuropejskich, skoro jesteśmy w czołówce wytwórców chaosu urbanistycznego? Mam też wątpliwości, czy można bezkrytycznie patrzeć na „linię orzeczniczą”.

Dobrze, że podkreślono odrębne problemy śródmieść i życia lokalnego w mieście, choć i tu nie ustrzeżono się wzmiankowania, zamiast dobrej diagnozy.

Transport

Czy da się z tekstu KPM wyczytać jej przesłanie w sprawie transportu? Zapewnianie, że ma być efektywny i zrównoważony; transport zbiorowy, ograniczony transport indywidualny i powiązania z innymi ośrodkami to ogólne hasła. Nie wyjaśniają one, co stanie się z samochodami prywatnymi, jak rozwiąże się problemy parkowania. Wreszcie – kto za zapłaci za ulgi, parkingi, itp. Wspólnym doświadczeniem jest brak powszechnie znanego i przestrzeganego kodeksu ustalającego, w jaki sposób zrównoważymy prawa różnych użytkowników dróg i ulic. Nie próbuję tu kwestionować potrzeby zmiany paradygmatu. Oczekuję jednak, że KPM wyłoży ten paradygmat w sposób kompletny i zrozumiały oraz określi podział odpowiedzialności.

Rewitalizacja

Także i tu nie ustrzeżono się powtórzenia gdzie indziej poczynionych ustaleń, nie dodając niczego nowego. Dziś, po niepowodzeniach pierwszych programów rewitalizacyjnych, mamy za sobą próby poprawy sytuacji poprzez programy „rewitalizacji społecznej”. Widać wyraźnie, że krótkotrwałe zasilenia finansowe i segmentowe wsparcia nie są w stanie sprostać wyzwaniu. Skuteczne rewitalizacje muszą trwać dziesiątki lat, powinny podejmować szerokie spektrum problemów ‘nie zawsze będących zadaniem publicznym’ i mają jednostkowy, unikalny charakter. Z wyzwaniami tymi nie radzą sobie ani władze miast za granicą, ani zarządcy funduszy europejskich. Składają się na to dosyć głębokie przyczyny strukturalne. Nie zgadzam się z poglądem wielu lobbystów, wyrażonym także w projekcie KPM, że problemy wielodyscyplinarności, koordynacji i współpracy rozwiązuje się przy pomocy ustaw. Jeżeli nie jesteśmy w stanie zaproponować nic więcej ponad powtarzanie, że potrzebne są „przedsięwzięcia całościowe (integrujące interwencję)” lub że rewitalizacja „powinna mieć charakter złożony i interdyscyplinarny”, to lepiej będzie nie pisać nic i poczekać, aż zapowiedziane tu instrumenty i Programy Narodowe będą dostępne.

Partycypacja

Projekt trafnie identyfikuje elementy diagnozy uspołecznienia polskiego życia publicznego. Na pewno należą do nich bierność, brak zaufania do rządzących, minimalizm procedur konsultacyjnych i partycypacyjnych. Gorzej, że nie zidentyfikowano napięć bardziej charakterystycznych dla miast i obecnej chwili. Większym problemem niż zaufanie do władz jest wzajemność – że inni zachowają się w sposób przewidywany przez wspólne normy, zechcą współpracować bez pancerza paragrafów i bez komorników.

Napięcia między władzami a mieszkańcami spowodowały pojawienie się nowych potrzeb i sposobów ich werbalizacji. Na pewno nie wszyscy są zwolennikami Davida Harvey’a, ale prawo do miasta, wolność dla inicjatyw, rozpatrywanie pozornie technicznego zarządzania przestrzenią miejską, systemami infrastruktury, zagospodarowywaniem ulicy i podwórka, stały się sprawą pojmowaną w kategoriach sprawiedliwości społecznej i modelu życia. Od dawna nie chodzi tylko o partycypację czy konsultowanie. „Miastowi” chcą wolności i współrządzenia. Z tego punktu widzenia niewątpliwe osiągnięcia, jakimi są techniki debatowania, budżety partycypacyjne czy ustawa wymagająca uchwały o możliwości podejmowania inicjatyw, to mniej niż minimum.

Samorząd

Wyzwaniem polityki miejskiej powinno być upełnomocnienie (empowerment) samorządu mieszkańców, rad czy wspólnot jako samodzielnych gestorów i ich współpraca z autokratycznymi służbami miejskimi. Długofalowo powinno być nim także podjęcie przez samorząd terytorialny – a więc władze publiczne – wyzwania, jakim jest wywieranie wpływu na działania sektorów niepublicznych: np. kościołów, inwestorów. Poważna ilość mieszkańców i użytkowników miast przegrywa walkę w obronie swoich praw i potrzeb. Z tego punktu widzenia bardzo słusznie podniesiono w dokumencie braki edukacji obywatelskiej. Jednakże upowszechnianie partycypacji to nie wszystko. Od dawna wiadomo, że trzeba uczyć umiejętności organizowania się, wykorzystywania własnych praw. Można nauczać kodeksów miejskiego życia (zakładając, że ktoś je sformułuje). Władze miast powinny wykorzystywać edukację do wyrazistej ekspresji swoich programów i swojej wizji interesu publicznego.

Rażąco ogólne są wskazania dotyczące finansowania rozwoju. Jak na potrzeby tworzenia silnych podstaw finansowych funkcjonowania miast, zbyt mało mówimy o słabych stronach systemu finansowego samorządów, bodaj wcale o polskim budżecie, a zbyt często o protezach w rodzaju funduszy europejskich czy norweskich. Można zaakceptować tego typu skrzywienie w tekście doraźnego poradnika; takie są dostępne obecnie źródła finansowania (poza budżetem państwa). Natomiast w dokumencie polityki sięgającej poza obecnie otwierany okres finansowania i przy świadomości, że następne będą wyglądały zupełnie inaczej, trzeba to uznać za słabość dokumentu.

Informacje (str. 124) o dostępnych funduszach nie powinny być utożsamiane z wyborem kierunków polityki. Polityka nie może ograniczać się do wykorzystywania dostępnych funduszy. Powinna identyfikować wyzwania i proponować nowe instrumenty. Mam wrażenie, że ten warunek, jako jedna z niewielu, spełnia propozycja wykorzystania PPP w rewitalizacji.

Wśród uwarunkowań należy dostrzec główny problem: niską jakość zarządzania publicznego i przeregulowanie administracji publicznej, w tym samorządowej. Bardzo ważna jest wspomniana w KPM współpraca między jednostkami i różnymi poziomami władz publicznych (w celu wspólnej realizacji zadań, rozwoju infrastruktury; str. 121-123). Jednakże ograniczenie się do stwierdzeń: (str. 123): „Konieczne będzie wypracowanie mechanizmów finansowych zachęcających jednostki samorządu terytorialnego w miejskich obszarach funkcjonalnych do współpracy w zakresie wspólnego optymalnego świadczenia usług publicznych” nie wykorzystuje nawet istniejących możliwości i projektów ustaw. Propozycja zmiany przepisów dotyczących współpracy została już (częściowo) zrealizowana w projekcie ustawy o zmianie ustawy o samorządzie gminnym. Także propozycje modyfikacji PIT i CIT (str. 124) zostały sprecyzowane przez Forum Od-nowa.

Wątek przedsiębiorczości

Wiele polskich miast wykazuje zastanawiającą nieporadność, jeżeli nie brak zainteresowania, działaniami na rzecz rozwoju drobnej przedsiębiorczości. Brakuje promocji, programów rozwoju usług dla przedsiębiorstw, płaszczyzn współpracy, wsparcia przez kierowanie zamówień do lokalnych rynków (w granicach prawa). Wiele miast nie panuje nad własnymi Urzędami Pracy – stanowią one przyczółki Ministerstwa Pracy i Polityki Społecznej. W tym kontekście odwoływanie się do programów europejskich czy „rozważanie zmiany przepisów regulujących funkcjonowanie rynku pracy” budzi niepokój. Co to za polityka, która dopiero „rozważa”? Z jednej strony, „porządek służbowy” przeważa tu nad myśleniem o samorządzie jako wspólnocie obywateli i podmiotów lokalnych, ale z drugiej to kwestia uwarunkowań systemowych.

KPM zapowiada dokonanie analizy obowiązujących przepisów i podjęcie działań w kierunku stopniowego integrowania lokalnych dokumentów sektorowych, których sporządzanie jest obowiązkiem gmin. Ale problem jest znany i rozpoznany przez MIR oraz jego poprzedników od co najmniej 10 lat. W dokumencie polityki należałoby raczej zamieścić informacje o sposobach i terminach rozwiązania problemu, a nie zapowiadać niekończące się analizy.

Sposób realizacji (instrumenty?)

Zaproponowane kierunki działań budzą nieufność. Po pierwsze, są to pobożne życzenia. Był bałagan, niech stanie się porządek. Odpowiedni ministrowie, którzy dotąd nie radzili sobie z problemem, niech sobie poradzą. Minister właściwy ds. budownictwa, planowania i zagospodarowania przestrzennego, powinien przedstawić propozycje ukrócenia niekontrolowanej urbanizacji. Skąd wiara, że tym razem gminy posłuchają zaklęć i zaczną planować? Jak i dlaczego mają one wziąć „za twarz” obywateli-wyborców i panów inwestorów, którym się ten chaos opłaca? Nie widzę żadnych argumentów na rzecz tezy, że zaproponowanymi środkami da się to osiągnąć. Wreszcie, kto i jak poprawi jakość kadr, dorównującą innym zawodom zaufania publicznego?

Poprzez wskazanie na dyscyplinę i hierarchiczność dokumentów planistycznych, MIR wraca do koncepcji jednolitej władzy państwowej podporządkowania planów. Cały dokument zawiera wątki tematyczne i obszary rozwiązań, które prowadzą nas niebezpiecznie blisko zarządzania nakazowego z jego tradycyjnie niską skutecznością. A równocześnie nie operacjonalizuje swoich propozycji, bo nie wskazuje, jak osiągać to, co dotychczas było niewykonalne.

Nierozwiązany pozostaje problem finansowania inwestycji. Ciekawe, co dotychczas nie pozwalało miastom poszukiwać i znajdować takie „mechanizmy” oraz jakimi sposobami chcemy ten stan rzeczy zmienić. Wymienione informacje o funduszach europejskich czy ZIT-ach są znane od dawna i nie zostały wypracowane przez „politykę miejską”. Informacja o szczególnym wsparciu dla ośrodków regionalnych i subregionalnych jest na tyle ogólna, że nie stanowi żadnej wskazówki.

Rażącym skrótem myślowym jest pomysł stosowania kryteriów oceny uciążliwości dla miasta w mechanizmach zamówień publicznych. Autorzy powinni zdawać sobie sprawę z toczącej się dyskusji nad funkcjonowaniem systemu zamówień i nie składać oderwanych od całości dyskusji propozycji cząstkowych. Szczególnie, że cała debata dotyczy w istocie polityk samorządowych.

Jednym z brzmiących nowo instrumentów maja być centra wiedzy. Pojęcie to robi ostatnio karierę. Centra wiedzy tworzą wszyscy i na każdym poziomie. Równolegle istnieją różnego typu platformy. Warto zdobyć się na szersze omówienie roli tych instrumentów w KPM. Odnosi się wrażenie, że nawet tam, gdzie istnieją one realnie i dobrze działają, rzadka jest współpraca partnerska z podmiotami spoza kręgu administracji. Ulotka MIR o platformie PPP głosiła: „są to wyłącznie podmioty publiczne”. Dlaczego?

Cenne jest zwrócenie uwagi na potrzebę systemowych rozwiązań umożliwiających realizowanie inwestycji pod lub nad powierzchnią gruntów czy nieruchomości będących w użytkowaniu wieczystym, niemniej to dopiero zamiar, a nie instrument polityki. Tak samo niesprecyzowany, z nieznanym prawdopodobieństwem spełnienia, jest postulat rozszerzenia formuły konkursów.

System wdrażania KPM

Rozdział 6 nie wnosi nic, poza informacją o powołaniu Zespołu Konsultacyjnego do spraw Polityki Miejskiej i Reformy Systemu Planowania Przestrzennego. Na dodatek następuje po nim rozdział 7 zapowiadający ogólne zamiary poprawy w dziedzinie gromadzenia danych oraz utworzenie systemu monitorowania polityki miejskiej. Propozycje benchmarknigu nie zostały opatrzone żadnymi wskazaniami, które pozwoliłyby zrozumieć, czego dokładnie ma on dotyczyć i zarazem rozwiałyby różne wątpliwości metodologiczne dotyczące porównywania różnych, słabo zestawialnych terytoriów. Zgłoszone w dokumencie wykorzystanie znanego już Lokalnego Wskaźnika Rozwoju Społecznego jest także rodzajem benchmarkingu. Zważywszy, że monitorowanie może być realizowane dla różnych celów i na wiele różnych sposobów oraz że nie ma w Polsce ustalonej tradycji monitorowania i efektywnego wykorzystywania wyników monitoringu, trudno, by ta ogólna zapowiedź wzbudziła zaufanie co do realności pomysłu i komukolwiek się przydała.

Autorem całego tekstu jest dr Krzysztof Herbst. Fragment tego artykulu, ktory powstal na zamowienie redakcji Magazynu Miasta w związku z 7 numerem stworzonym na zlecenie Ministerstwa Infrastruktury i Rozwoju oraz poświęconym Krajowej Polityce Miejskiej, ukaże się w sierpniu. www.publica.pl/magazynmiasta

Diagnoza z raportu „Samorząd 3.0” :)

Konferencja Samorząd 3.0Samorząd terytorialny to jedna z najbardziej udanych konstrukcji polskiej transformacji. Oparta na trafnej diagnozie sytuacji i analizie europejskich rozwiązań formuła samorządu terytorialnego, przede wszystkim gminnego, wyzwoliła impuls modernizacyjny i rozwojowy o wielkiej sile. Po 20 latach jego funkcjonowania widać jednak granice. Zaczęła się pora otwartej debaty o kondycji wspólnot, z której wyłania się teza o całościowym kryzysie konstrukcji. Dostrzegamy potrzebę kontynuacji tej dyskusji. Należy wręcz mówić o konieczności generalnej naprawy systemu samorządów. Jednym z najważniejszych czynników destrukcji samodzielnej władzy terytorialnej, oprócz ograniczeń finansowych hamujących lokalną samodzielność, stanowią apetyty regulacyjne centrum.

Wprowadzenie samorządu terytorialnego w Polsce było długo przygotowywaną i starannie opracowaną reformą. Dalekosiężność jej skutków jest porównywalna z pakietem prof. L. Balcerowicza. Problem w tym, że wiele wówczas przyjętych i racjonalnych rozwiązań przestało przystawać do dzisiejszej rzeczywistości.

Zwycięstwo „Solidarności” w warunkach stanu wojennego stało się przesłanką tezy o potencjale społeczeństwa obywatelskiego. Oczywiste było uznanie mieszkańców danego terytorium za suwerena zdolnego do definiowania potrzeb, określania celów i kontroli nad administracją oraz służbami komunalnymi. Zdolnego także do zarządzania dochodami, gospodarowania pieniędzmi i innymi składnikami mienia. Powstała więc konstrukcja z silną radą wyłaniającą zarząd menadżerski, z możliwością jego odwołania w dowolnym momencie. Późniejsze korekty zmieniły sytuację – wprowadzenie wyborów bezpośrednich wójta (burmistrza, prezydenta miasta) osłabiło rolę rady.

W wyborach lokalnych dopuszczono silną rolę krajowych partii politycznych. Oczekiwano, że będą one inspiratorem programów i kierunków działania. Tymczasem widać zupełny brak ich uczestnictwa w budowaniu projektów dla władz lokalnych. Zamiast tego powstały skłócone środowiska, w których udział może być narzędziem do karier na wyższych szczeblach aparatu politycznego. W rezultacie, w ogromnej liczbie przypadków społeczności terytorialne nie mogą wyłonić rady zdolnej do wypełniania zakładanych funkcji.

System samorządowy nie znajduje też oparcia w skutecznych, odnoszących się do lokalnej rzeczywistości programach edukacji obywatelskiej. Nie istnieje oferta (ani obowiązek) kształcenia radnych i dostarczenia specjalistycznej wiedzy członkom poszczególnych komisji. Tymczasem np. w USA działają stanowe kursy dla polityków lokalnych, na których otrzymują solidne przygotowanie do rządzenia. Nawet przy uwzględnieniu korekt proponowanych przez prezydencki projekt ustawy samorządowej, zakładający ułatwienie obywatelom współdecydowania, stworzono niewystarczającą przestrzeń dla samoorganizacji społecznej i przeradzania się najbardziej udanych inicjatyw w trwałe projekty. Uderza fasadowość konstrukcji samorządu mieszkańców. W efekcie nie istnieje płaszczyzna działania społeczeństwa obywatelskiego (organizacji pozarządowych nie można wprost z nim utożsamiać), ani mechanizm identyfikowania czy wyłaniania liderów społeczności.

W każdym modelu samorządu jedną z najważniejszych kwestii powinna być odpowiedź na pytanie, co jest czynnikiem rozwoju danego terytorium. Jest to zarazem pytanie o podstawy zaspokojenia potrzeb mieszkańców, szanse realizacji ich celów osobistych, atrakcyjność miejsca, w którym żyją itp. Tymczasem relacje samorządów ze światem gospodarki są wątłe, sztampowe i nacechowane niechęcią (choć, oczywiście, zdarzają się też zbyt silne i nieliczące się z głosem mieszkańców, np. w kwestiach zagospodarowania przestrzeni). Wielu radnych powie wprost, że troszczą się o biednych mieszkańców, nie o bogaty biznes. Władze samorządowe walczą o udział w podatkach i dotacje, zamiast potencjał gospodarczy. Strategie rozwoju przedsiębiorczości rażą schematyzmem i kopiowaniem odgórnych zaleceń (czy właściwie kryteriów dostępu do finansowania publicznego). Panuje fascynacja wielkimi, zagranicznymi inwestorami, a nie ma cierpliwości dla lokalnych małych przedsiębiorstw. Do świadomości społecznej nie przebija się fakt, że biznes to nie tylko bezpośrednie zatrudnienie czy podatki, ale generalna aktywność obywateli i rozwój terenu.

Radykalnie zmieniają się także funkcje JST. To już nie tylko samorząd od wodociągów i kanalizacji, lokalnych dróg czy utrzymania czystości. Wspólnoty stały się podstawowym usługodawcą państwa opiekuńczego (lub w tym kierunku zmierzającego). Powierzono im złożone i kosztowne zadania: edukację dzieci i młodzieży, opiekę nad osobami starszymi, wypłatę zasiłków oraz politykę rynku pracy. W dodatku pogarszają się okoliczności zewnętrzne funkcjonowania wspólnot: Polskę dotyka kryzys demograficzny i nieunikniony proces szybkiego starzenia się społeczeństwa. W prognozie Eurostat, przytaczanej przez Zakład Ubezpieczeń Społecznych (ZUS), w 2030 r. będzie nas o milion mniej niż obecnie. Nawet uwzględniając podwyższenie wieku emerytalnego, w 2020 r. na 1000 osób w wieku produkcyjnym przypadnie 380 w wieku poprodukcyjnym, podczas gdy w 2013 r. – 295 osób. Stoimy wobec konieczności budowy dużo wyższej efektywności wydawania pieniędzy publicznych, a nie podnoszenia podatków.

Samorząd ukształtowany w latach 90. XX wieku nie dysponuje odpowiednimi instrumentami, by radzić sobie z coraz poważniejszymi wyzwaniami cywilizacyjnymi.

Po pierwsze: samorząd jest niesamodzielny. Zaopatrzono go wprawdzie w udziały w podatkach, ale ma mało własnych źródeł dochodów. Jest zobligowany do prowadzenia polityki edukacyjnej, ale ręce wiąże mu Karta Nauczyciela. Centrum realnie nie interesuje się efektem realizacji usług o standardzie ogólnopaństwowym, ale równocześnie, np. w edukacji, sferze socjalnej i polityce rynku pracy, drobiazgowo reguluje każdy aspekt działalności JST. Stąd szkodliwa inflacja prawa. Taka decentralizacja obraca się przeciwko samym wspólnotom, dla których zostały powołane i efektowi realizowanych zadań publicznych. Samorząd działa więc w sytuacji systemowego paradoksu. W ostatecznym rozrachunku przegranymi będą też uprzywilejowane grupy interesu, broniące niedobrego status quo. Rola samorządu jako samodzielnego gospodarza jest faktycznie ograniczona przez szczegółowe prawo i segmentowe finansowanie oparte na odmiennych dla każdej branży regulacjach. Umacnia to charakterystyczne dla tradycyjnej administracji struktury sektorowych silosów, nie współpracujących, tylko konkurujących ze sobą. Powraca zmora z czasów komunizmu: podwójne podporządkowanie. Resortowe prawo i finansowanie jest silniejsze od lokalnej perspektywy. Reformie samorządowej nie udało się zmniejszyć tej dominacji.

Szczególnym obciążeniem dla działania w interesie lokalnym są regulacje i praktyka dotycząca koncepcji zadania publicznego oraz zamówień publicznych. Pomijają takie wartości, jak terytorialność i wspólnota lokalna. Podczas, gdy można dostrzec pewną (choć nadmiernie ortodoksyjną) racjonalność stojącą za systemem zamówień publicznych, praktycznie realizowana koncepcja zadania publicznego jako działania określonego wyłącznie przez przepisy likwiduje samodzielność władzy terytorialnej i odbiera szansę na integrację, synergię i spójność polityki lokalnej.

Sytuacji nie poprawia niedostatek całościowej wiedzy o koncepcji samorządu terytorialnego, leżącej u podstaw szczegółowych konstrukcji prawnych. Stąd biorą się nagminne przypadki wątpliwej interpretacji przepisów przez samorządowych prawników i księgowych, a także bezrefleksyjnie legalistyczne podejście do prawa przy kontrolach czy rozstrzygnięciach sądowych.

Po drugie: samorząd jest nieelastyczny. Jego własne instytucje w większości są odzwierciedleniem regulacji pochodzących z poszczególnych resortów, choć formalnie działają w strukturach wspólnot (szkoły i przedszkola – wpływ Ministerstwa Edukacji Narodowej, ośrodki pomocy społecznej oraz urzędy pracy – wpływ Ministerstwa Pracy i Polityki Społecznej). Stanowią więc emanacje interesów dużych grup branżowych w sektorze publicznym, zarówno na poziomie centralnym, jak i lokalnym. Każda ze wspólnot posiada bardzo ograniczone prawo do podejmowania elementarnych decyzji ze sfery zarządzania: władze lokalne nie mają swobody w ustalaniu, kiedy i co centralizować lub decentralizować w ramach swoich struktur. Jak również, co wykonywać we własnym zakresie, a co przy udziale podmiotów zewnętrznych.

Po trzecie: samorząd jest mało transparentny.Jak pokazuje sondaż Centrum Badania Opinii Społecznej, tylko jedna piąta Polaków jest przekonana, że ma wpływ na sprawy kraju, podczas gdy prawie 80% uważa, że nie ma żadnej możliwości decydowania o nich. Pozytywny jest jednak fakt, że wrażenie obywatelskiego sprawstwa jest wyższe na poziomie lokalnym niż w przypadku działań o zasięgu krajowym na poziomie centralnym. Poczucie wpływu na sprawy swojego miasta lub gminy deklaruje ponad dwie piąte badanych (42%). Oznacza to, że prawie połowa mieszkańców gmin mogłaby się zaangażować w działania na rzecz własnej wspólnoty. Budowa aktywnej społeczności lokalnej wydaje się być łatwiejszym zadaniem niż tworzenie społeczeństwa obywatelskiego w skali kraju.

Niską aktywność mieszkańców tłumaczy się zwyczajowo w Polsce komunistyczną przeszłością i związaną z nią „tradycją” niskiego poziomu zaufania społecznego. Ale panujący chaos informacyjny, zarówno odnośnie stanu samorządu, jak i odbywających się z jego udziałem procesów, dodatkowo zniechęca mieszkańców do zaangażowania. Przykładem mogą być chociażby kwestie wpływu na realizację kluczowych inwestycji lokalnych. Nie znając planu działań organów samorządu, np. listy potencjalnie rozważanych inwestycji, trudno oddziaływać na ich wybór. Nie można oczekiwać, że mieszkańcy wykażą się aktywną postawą i będą takie decyzje antycypować. Członkowie wspólnoty nie mają też żadnych gwarancji, że ich opinia zostanie wzięta pod uwagę. Choć trzeba pamiętać, że nie o wszystkich sprawach powinni decydować bezpośrednio i zastępować organy przedstawicielskie samorządu. Ze współdecydowaniem wiąże się problem skuteczności, a także reprezentatywności, co sprawia, że nie zastąpi ono dobrego rządzenia (ang. good governance) opartego na wiarygodnej informacji.

Transparentność można podzielić na dwa główne rodzaje. Pierwszy odnosi się do zasobów oraz powiązań pomiędzy instytucjami samorządu i quasi samorządowymi, tudzież zależnymi od organów samorządu. Drugi to transparentność procesowa, czyli jasność co do tego, jakie decyzje będą podejmowane i jak wygląda proces decyzyjny, w tym: jaką rolę mogą w nim odegrać mieszkańcy. W obu rodzajach transparentności jej poziom w samorządach nie jest zadowalający. Istotne informacje na temat ich stanu posiadania są niejawne lub trudno dostępne. Mieszkańcy nie mają dostępu do sprawozdań instytucji zależnych od samorządu, ani informacji o osobach pracujących na ważniejszych stanowiskach.

Członkowie wspólnot nie wiedzą m.in., jaki jest budżet lokalnej szkoły publicznej, jakimi środkami dysponowała wcześniej, ilu ma uczniów, a także kto startował w konkursie na jej dyrektora. Nie ma żadnej możliwości oceny czy wpływu na funkcjonowanie takich instytucji, opłacanych przecież – przynajmniej w części – z podatków mieszkańców. Stopień jawności informacji zależy jedynie od dobrej woli władz JST, czyli w skali całego kraju mogą zaistnieć duże różnice. Brak jednolitych standardów co do zakresu i formy ujawnianych informacji o stanie majątku samorządów uniemożliwia także dokonywanie porównań w skali kraju, choć ogólne wymogi co do udostępniania informacji publicznej zostały zawarte w ustawie o dostępie do informacji publicznej. Wprawdzie samorządy sporządzają bilanse skonsolidowane, ale w skali całego państwa nie są one ujawnione dla zainteresowanych w jednym miejscu.

Po czwarte: samorząd jest mało odpowiedzialny. Ale nie z własnej winy, tylko w wyniku błędnego założenia: system pokłada nadmierną wiarę w formalny nadzór państwa, zamiast w mechanizmy kontroli społecznej. Mieszkańcy, owszem, biorą udział w wyborach, ale jak mogą podejmować racjonalne decyzje i realnie oceniać swoich samorządowców, jeśli nie mają zestandaryzowanych, powszechnie dostępnych, aktualnych oraz możliwie dokładnych informacji o funkcjonowaniu własnej wspólnoty lokalnej? Zyskujące na popularności referenda lokalne stanowią częściej przejaw niezadowolenia społeczności lokalnych. Są głosowaniem „przeciw” komuś lub czemuś, a nie „za” konkretną propozycją czy rozwiązaniem, tak jak jest to w rozwiniętych demokracjach.

Rozwiązania finansowe utwierdzają obywateli w przekonaniu, że pieniądze na usługi publiczne biorą się znikąd albo że usługa nic nie kosztuje. Najprostszym przykładem jest płacony na rzecz gminy podatek od nieruchomości, wynoszący zazwyczaj kilkadziesiąt złotych rocznie od mieszkania. Obywatel może mieć wrażenie, że na tym kończy się jego rola jako płacącego na wspólnotę. Nie widzi, że wielokrotnie większe kwoty przekazywane są samorządom od władz centralnych i pochodzą z jego podatków, innych niż podatek od nieruchomości. Winne temu są źle ukształtowane mechanizmy, które przyczyniają się do niezrozumienia przez obywateli zasad funkcjonowania samorządu i utrwalają postawę roszczeniową.

Po piąte: samorząd jest nieefektywny. Cechuje go organizacyjne skomplikowanie i rozbudowanie. Ma trzy szczeble zarządzania (gminny, powiatowy i wojewódzki), które dublują swe zadania i często nie można wskazać ostatecznie odpowiedzialnego za daną sferę publiczną. Utrzymywanie tylu poziomów generuje też duże koszty administracyjne, wynikające m.in. z nadmiernej liczby podmiotów. Właścicieli zadań należy skoordynować. Wspólnoty muszą obecnie finansować struktury oparte na 59 tys. autonomicznych jednostek budżetowych i zakładów budżetowych. Dostają od państwa środki na realizację zadań, ale bez bodźców do gospodarności, oszczędności i racjonalizowania działań.

Według raportu IBM Center for the Business of Government, zmiany w sektorze publicznym w ostatnich czasach kształtuje sześć głównych trendów: presja na wydajność i jej mierzenie, zarządzanie ryzykiem, innowacyjność, budowa misji, efektywność oraz przywództwo.Jak można ocenić realizację tych trendów w polskich samorządach? Zmuszone do działania w niestabilnym środowisku politycznym, finansowym, instytucjonalnym i prawnym, są skłonne do doraźności. Ograniczona samodzielność nie premiuje myślenia strategicznego i powoduje, że wykonawca szczegółowych dyrektyw nie odczuwa potrzeby budowania kompetencji w dziedzinie zarządzania. Administracje wspólnot nie mają faktycznej motywacji, aby przyswajać i używać wiedzy o mierzeniu efektywności czy określać misje i strategie wykraczające poza kopiowanie schematów z różnych programów grantowych. O słabości sfery zarządczej mogą świadczyć niepowodzenia we wprowadzaniu budżetowania zadaniowego: nie funkcjonuje określanie celów i działań oraz opisywanie ich parametrami pozwalającymi mierzyć efektywność realizacji. Na przeszkodzie stoją nie tylko problemy „warsztatowe”. Powiązanie nakładów z ich efektami jest praktycznie niemożliwe wtedy, gdy gospodarkę kadrami prowadzi się przez wydzielone biuro i nie ma możliwości delegowania pracownika do wykonania zadania w innej komórce. Centralna dyspozycja uniemożliwia przypisanie do zadania wielu kosztów: pracy etatowej, lokalu, transportu, a często także komunikacji publicznej.

W sytuacji, kiedy w Europie od lat 70. XX wieku toczą się dyskusje nad doktryną i metodami funkcjonowania administracji, opisana powyżej sytuacja powoduje, że nieskuteczne – bo sztuczne – okazują się próby promowania nowych algorytmów działania w Polsce. Nasze administracje samorządowe tkwią w formule określanej jako biurokracja weberowska, podejmując niekonsekwentne próby wdrażania zasad Nowego Zarządzania Publicznego (ang. New Public Management). Tymczasem powstał już cały szereg nowych koncepcji administracji jako lidera, partnera, wsłuchanego w potrzeby i otwartego na inicjatywy.

Przy niedostatku kapitału społecznego oraz edukacji obywatelskiej sumą słabości systemowych jest permanentny, narastający konflikt w relacjach władz centralnych, samorządu i mieszkańców. Wspólnoty lokalne zostały potraktowane jako milczący wykonawca zrzucanych na nie coraz większej ilości zadań, więc zaczynają wykształcać postawę roszczeniową. Samorządowcy coraz częściej zastępują dialog i próbę budowania rozwiązań systemowych postulatem „dajcie nam więcej pieniędzy”. Rządowi zaś brakuje mechanizmów oddziaływania na politykę samorządu poprzez kształtowanie zachęt – wpływ sprowadza się do odgórnych dyrektyw danego resortu. Problemem jest brak uwzględnienia kwestii solidarności międzygeneracyjnej w zadłużaniu się samorządów, jak również nieadekwatny do zadań podział terytorialny. Niektóre z powyższych bolączek rozstrzygane są doraźnie, inne uznawane za niemożliwe do zmiany, jeszcze inne odsuwane w czasie albo bagatelizowane. W efekcie stanowiska coraz bardziej oddalają się od siebie: państwo traktuje samorząd jako „ciało obce”, mieszkańcy widzą w nim kolejny przejaw złego funkcjonowania aparatu władzy en masse, a sam samorząd pełni tu jedynie funkcję przedmiotu, o który toczy się spór.

Celem raportu „Samorząd 3.0” nie jest opowiadanie się po czyjejkolwiek stronie. Uważamy, że miejsce konfliktu powinna zająć synergia i wspólne tworzenie państwa w sposób jak najbardziej satysfakcjonujący wszystkie podmioty. Dlatego w miejsce wszechobecnego narzekania i krytyki proponujemy konstruktywne rozwiązania, oparte o zarys modelu („jak mogłoby być”).

Raport „Samorząd 3.0” think tanku Forum Od-nowa został przedstawiony 20 listopada na konferencji „Samorząd 3.0” w Krajowej Szkole Administracji Publicznej. Jej patronem medialnym było Liberte!, Serwis Samorządowy PAP i TVP Info.

Dlaczego mieszkania są takie drogie? :)

Dlaczego mieszkania są takie drogie?

Jednym z największych błędów jest sądzenie programów politycznych i rządowych na podstawie ich zamiarów, a nie rezultatów.
— Milton Friedman

Wprowadzenie

Rząd Najjaśniejszej Rzeczpospolitej postanowił ulżyć młodym ludziom zadłużającym się na połowę zawodowego życia, aby kupić mieszkanie. W tym celu powoła do życia od 2014 r. nową instytucję biurokratyczną, a wraz z nią dosypie kolejne grudki do rosnącej góry legislacji. Doprawdy, intencje godne najwyższej pochwały. Któż nie chciałby poprzeć tak szczytnych celów jak rodzina na swoim czy mieszkanie dla młodych?

Jednak pozostawmy na boku te szczytne intencje i pochylmy się nad ekonomicznymi konsekwencjami tego typu rządowych programów i regulacji rynku mieszkaniowego w Polsce. Często bowiem jest tak, że „dobrymi chęciami (władzy) piekło jest wybrukowane”. I ten przypadek, jak spróbuję udowodnić, nie jest odmienny. Uprzedzając zarzuty „intencjonalistów”, jakoby mój tekst był wymierzony przeciwko pomocy potrzebującym czy też jest zwykłym lobbowaniem w interesie deweloperów, od razu zaznaczę, że nie tylko nie pracuję w branży deweloperskiej i nie mam z nią żadnych powiązań, ale co więcej – sam jestem młodym człowiekiem, który przygotowuje się do założenia sobie kredytowej pętli na szyję na najbliższe 30 lat. Spróbuję zatem wykazać, że obecne rozwiązania prawne służą istniejącym deweloperom kosztem konsumentów i potencjalnej konkurencji, która chciałaby wejść na rynek. Programy rządowe są w znacznej mierze redystrybucją od biednych do bogatych. A całość tego systemu przede wszystkim służy samej władzy i urzędnikom, których zatrudnia do realizacji programów i wcielania w życie regulacji.

Reżimowa niepewność

Przypuszczalnie najbardziej odstraszającym czynnikiem w inwestowaniu w nieruchomości jest ryzyko polityczne. Nawet jeśli inwestycje w nieruchomości są opłacalne, to inwestorów może zniechęcać (a w konsekwencji zachęcać do inwestowania w alternatywne aktywa) ryzyko polityczno-biurokratyczne oraz ryzyko wynikające z niestabilności gospodarki. Takie działania władz, jak cofnięcie pozwolenia na budowę, zniechęcają potencjalnych inwestorów nieruchomości, ale i podnoszą koszt przyszłych inwestycji, gdyż takie ewentualności muszą być szacowane w kosztorysach. (Z kolei tym, jak manipulacje podażą kredytu wpływają niekorzystnie na stabilność gospodarki, zajmuje się austriacka szkoła ekonomii co najmniej od stu lat, więc tylko przypomnę, że to władza monetarna jest głównym winowajcą braku stabilności). Inwestycja w nieruchomości zwraca się dopiero po kilku latach, więc marża musi obejmować ten czas i związane z nim ryzyko. Sami deweloperzy przyznają, że ich marże mogłyby być niższe, gdyby tego typu inwestycje nie były obarczone tak dużym ryzykiem jak obecnie. Rezultat jest taki, że istnieje mniejsza podaż mieszkań: konsumenci tracą, bo mniejsza ilość mieszkań to wyższa cena, a istniejący deweloperzy zyskują, gdyż nie wchodzi na rynek potencjalna konkurencja.

Bariery wejścia

Ryzyko to nie jedyna bariera wejścia na rynek nieruchomości, która osłabia konkurencję. Jest oczywiście cała gama „naturalnych” barier: trzeba zdobyć umiejętności, know-how, zatrudnić kompetentnych pracowników, dotrzeć z konkurencyjną ofertą do klienta itd. Jednak przede wszystkim, aby zostać deweloperem trzeba posiadać odpowiednie uprawnienia. Koszt ich uzyskania jest główną „nienaturalną” przeszkodą ograniczającą konkurencję. Koszt prowadzenia działalności gospodarczej w Polsce jest także barierą wejścia, a ten — jak wiemy z badań łatwości prowadzenia biznesu Banku Światowego — do najniższych nie należy (mimo nieznacznej poprawy w tym roku).

W czasie prosperity często słyszy się, że za wysokie ceny mieszkań jest odpowiedzialna chciwość deweloperów. Jednak w czasie kryzysu ogrom kosztu budowy jest widoczny lepiej. Popyt na mieszkania spada, w wyniku czego ceny mieszkań spadają, a wraz z nimi widać spadek opłacalności nowych inwestycji. Koszta są zbyt wysokie w stosunku do cen rynkowych. Dlatego też deweloperzy nie mają ekonomicznego bodźca do produkcji (motywu zysku). Rezygnują z inwestycji — przez co mieszań jest mniej, a więc stają jeszcze mniej dostępne.

Analiza kosztów

Analizę kosztu należałoby zacząć od faktu, że mieszkania są objęte 20-procentową stawką VAT. Pierwszym krokiem jaki mógłby zrobić rząd, aby zmniejszyć ceny mieszkań jest likwidacja bądź zmniejszenie tego podatku (naturalnie po ówczesnym zredukowaniu adekwatnych wydatków). Do 2013 r. materiały budowlane można było odpisać od podatku, niestety aby łatać dziurę budżetową rząd postanowił zlikwidować tę ulgę. Fakt ten również wpłynie znacząco na ceny mieszkań.

Znaczną część kosztu budowy stanowi zatrudnienie pracowników i kupno materiałów. Za drożyznę tych „czynników produkcji” również w znacznej mierze odpowiedzialny jest rząd. Wykwalifikowanych pracowników jest coraz mniej, bo państwowy system edukacji kształci młodzież na humanistów. W efekcie humanistów jest za dużo, więc są bezrobotni, a inżynierów i pracowników budowlanych jest za mało, przez co „robocizna” jest droga. Dodatkowo praca robotników jest opodatkowana podatkiem dochodowym i składkami, co jeszcze zwiększa koszt zatrudnienia. Na domiar złego inżynierowie budownictwa i architekci są zawodami koncesjonowanymi przez rząd, co jeszcze bardziej ogranicza podaż wykwalifikowanej kadry na rynku (choć Ministerstwo Sprawiedliwości zaprojektowało ustawę mającą na celu deregulację tych zawodów).

Zasoby są ograniczone, materiały budowlane także — podnosząc koszt budowy mieszkań dodatkowymi regulacjami (np. ochrona lokatorów), które nie występują w innych gałęziach przemysłu budowlanego, przekierowuje się te zasoby na inne inwestycje: galerie, aquaparki, fontanny itd. Mniej zasobów zostaje na budowę mieszkań. Dodatkowo strumień pieniędzy unijnych zasilających kasę samorządów, które wydają pieniądze na tego typu obiekty, również podnosi popyt na materiały budowlane – w wyniku czego te stają się droższe. Mniej zasobów zostaje na budowę mieszkań, a więc wyższe są ich ceny. Nieuchronne prawo niezamierzonych konsekwencji.

Plany zagospodarowania przestrzennego i inne regulacje

Badania ekonomistów dowodzą, że największa odpowiedzialność za wysoki koszt mieszkań i ich najmu wynika z regulacji. Potwierdzają to także doświadczenia deweloperów: – jak pisze Marek Wielgo, ekspert Gazety Wyborczej ds. rynku nieruchomości:

Prawdziwą zmorą jest biurokracja wynikająca głównie z braku planów zagospodarowania przestrzennego. Według Polskiego Związku Firm Deweloperskich koszty pośrednie, które wynikają z długiego czasu przygotowania inwestycji, mogą podwyższyć koszt budowy metra kwadratowego mieszkania. Jeśli zwłoka wynosi rok — nawet o 5 proc., co np. w Warszawie może oznaczać blisko 400 zł na metr.

Problem braku planów zagospodarowania przestrzennego sprowadza się do największego absurdu biurokratycznego w prawie budowlanym, a mianowicie: pozwolenia na budowę i dokumentów powiązanych. Jest to problem na tyle odczuwalny przez przeciętnego obywatela, że parlamentarzyści od długiego czasu zapowiadają zajęcie się tą sprawą. Pozwolenie na budowę jest jednym ze wskaźników rankingu „Doing Business” Banku Światowego – biorąc pod uwagę tylko ten wskaźnik Polska zajęła „zaszczytne” 161 miejsce w 2013 r.

Cześć regulacji podnosi koszt wybudowaniu domu, ponieważ nakłada na dewelopera wymagania dotyczące ochrona środowiska i jakości mieszkań. Odbija się to niestety na najbiedniejszych, ponieważ potencjalne tańsze mieszkania niespełniające takich wymagań po prostu nie powstaną.

Ograniczenia dotyczące zagospodarowania gruntów jest kolejnym problemem. Część działek, zanim będzie można legalnie na nich postawić dom, trzeba „odrolnić”, co znów podnosi ceny gruntów budowlanych — ceny domów zatem rosną.

Ustawa deweloperska

Sejm RP dnia 16 kwietnia 2011 r. uchwalił ustawę o ochronie praw nabywcy lokalu mieszkalnego lub domu jednorodzinnego (potocznie nazywaną ustawą deweloperską). Jej efekty wchodzą w życie od początku tego roku, a wraz z nimi jej nieuchronne skutki ekonomiczne. Nowa ustawa wprowadza nowe regulacje i nakłada nowe obowiązki na deweloperów. Deweloper musi pokryć koszta prowadzenia specjalnych rachunków bankowych, przygotowania i dystrybucji prospektów informacyjnych oraz koszta notarialne. Koszta te, rzecz jasna, odbiją się na cenach mieszkań. Dodatkowym problemem jest to, że dostęp do tych rachunków jest ograniczony i kosztowny. Duże firmy deweloperskie mogą negocjować warunki usług bankowych. Mechanizm ten wyprze małe firmy z rynku deweloperskiego. Ograniczona konkurencja zwiększy marże deweloperów i obniży motywację deweloperów do poprawiania jakości swoich produktów. Jest to więc dość specyficzna forma ochrony lokatorów.

Jednak zdecydowanie największym zaskoczeniem jest fakt, że w odpowiedzi na te wysokie koszta budownictwa spowodowane przez regulacje rządowe, rząd zdecydował się na subsydiowanie kredytobiorców, a wraz z nim na kolejne regulacje i kolejne niekończące się pasmo niezamierzonych porażek takich programów. Potwierdza to tylko tezę Ludwiga von Misesa, że „Wszelkie odmiany ingerencji (rządowej) w zjawiska rynkowe nie tylko nie pozwalają osiągnąć zamierzonego przez ich autorów celu, ale na dodatek powodują, że zaistniała sytuacja nawet z ich punktu widzenia jest mniej pożądana, niż poprzednia, którą zamierzali zmienić”.[1]

Rodzina na swoim

Pierwszym takim programem rządowym była „Rodzina na swoim” wprowadzona na mocy ustawy z 8 września 2006 r. o finansowym wspieraniu rodzin w nabywaniu własnego mieszkania. Negatywne skutki tego programu na rynek mieszkaniowy były powszechnie omawiane w prasie głównego nurtu. Ale przypomnijmy najważniejsze skutki.

Subsydiowanie kredytobiorców sprawia, że popyt na mieszkania rośnie, a przy ograniczonej podaży oznacza to, że ceny mieszkań także muszą rosnąć — w wyniku czego paradoksalnie mieszkania stają się mniej dostępne (przynajmniej dla tych, którzy objęci programem nie byli). Ale to nie wszystko. Subsydiowanie kredytu przyczynia się do powstawania baniek spekulacyjnych na rynku mieszkań (taki scenariusz zrealizował się w ostatnich latach m.in. w Hiszpanii). Subsydiowanie kredytu także podnosi cenę samego kredytu (gdy więcej osób stać na kredyt, a jego „ilość” jest stała to nieuchronnie musi wzrosnąć jego cena) — na czym zyskują przede wszystkim banki.

Wygaszenie dopłat po jakimś czasie może być zagrożeniem dla wypłacalności preferowanych kredytobiorców. Dodatkowo inwestorzy zaczęli nowe projekty z myślą o przyszłych klientach korzystających z programu — wygaszenie programu może spowodować brak zbytu na budowane mieszkania. Oczywiście mieszkania wybudowane „pod program”, które się teraz nie sprzedadzą, zostały wybudowane kosztem mieszkań, na które mógłby być realny popyt. Prawdopodobne jest, że część mieszkań będzie stała pusta, bo deweloperzy nie znajdą na nie żadnych nabywców (malinvestments).

Wymagania narzucone kredytobiorcom niejednokrotnie prowadziły do nadużyć. Narzucone warunki prowadziły czasami do kuriozalnych sytuacji, kiedy po to, aby skorzystać z ulgi, ludzie zawierali fikcyjne małżeństwa lub rozwodzili się. Znane są także przypadki, gdy deweloperzy omijali wymagania programu, aby zakwalifikować swoją ofertę. Być może za „przekręty” deweloperów będą musieli odpowiedzieć także sami beneficjenci programu. Jedno jest pewne – koszta kontroli programów i egzekucji związanych z nimi praw spadną na podatników.

Mieszkanie dla młodych

Mieszkanie dla młodych” — bo tak będzie się nazywał nowy program rządowy będący kontynuacją „Rodziny na swoim” — nie tylko powtarza wszystkie błędy swojego poprzednika, ale nawet je pogłębia. „Rodzina na swoim” przynajmniej dotowała głównie rynek wtórny (tańsze mieszkania — mniej zamożni nabywcy), nowy program rządowy będzie dotował nabywców nowych mieszkań (droższe mieszkania — zamożniejsi nabywcy). Poza młodymi i względnie zamożnymi ludźmi, oczywistym wygranym w tym programie będą deweloperzy, którzy zyskają kosztem sprzedawców mieszkań na rynku wtórnym. Zyskają na programie również zleceniobiorcy deweloperów, ale ich zysk będzie w istocie stratą firm wyspecjalizowanych w drobnych remontach i pracach instalacyjnych. Przegranymi są wszyscy inni, którzy na ten program łożą (w tym ludzie znacznie ubożsi od beneficjentów tych programów). Co ciekawe, społeczeństwo zdaje sobie sprawę z faktu, że sytuacja ta nie jest uczciwa.

Oczywiście nie jesteśmy w stanie przewidzieć wszystkich skutków programu, który dopiero wejdzie w życie, ale możemy pochylić się nad przewidywanymi przez rząd konsekwencjami tego programu. Jak ocenia dokument rządowy:

Zdolność kredytowa osoby z dzieckiem poprawi się o 15 proc. Dodatkowe wsparcie otrzymają osoby lub małżeństwa, które w ciągu 5 lat od dnia nabycia mieszkania finansowanego w ramach ustawy urodzą lub przysposobią dziecko, będące trzecim lub kolejnym dzieckiem w rodzinie. W ich przypadku ostateczna miesięczna rata spłaty kredytu obniży się o 20 proc. w stosunku do kredytu nieobjętego finansowym wsparciem.

To bardzo istotny impuls ekonomiczny dla młodych polskich rodzin, żeby chciały mieć dzieci” — ogłasza minister transportu Sławomir Nowak. I w tych słowach prawdopodobnie czai się rzeczywisty, aczkolwiek utajony, cel programu. Choć rozsądek podpowiada, że znacznie łatwiej byłoby młodym parom mieć dzieci, gdyby rząd nie ingerował w rynek mieszkań.

Jak w przypadku „Rodziny na swoim”, tak i w nowy program podniesie ceny kredytu, co zauważa sam rząd, ale nie mówi tego wprost:

 (…) instytucje kredytujące będą obciążone dodatkowymi obowiązkami administracyjnymi wynikającymi z konieczności dokonywania pewnych czynności związanych z funkcjonowaniem programu (weryfikacja wnioskodawców, przekazywanie dokumentów do Banku Gospodarstwa Krajowego, stworzenie lub dostosowanie systemów raportowania o wynikach programu). Jednocześnie zaproponowane rozwiązania zwiększą liczbę potencjalnych kredytobiorców, którzy dotychczas nie dysponowali odpowiednią zdolnością kredytową.

Dodatkowe koszta zostaną w jakieś części przerzucone na kredytobiorców, a wzrost popytu spowoduje wzrost cen.

Ponadto na programie rzecz jasna zyska biurokracja:

 Koszty dodatkowych czynności wykonywanych przez BGK, w tym również ewentualne koszty zatrudnienia dodatkowych osób do obsługi programu, będą finansowane z Funduszu Dopłat.

Jakie będą konsekwencje ekonomiczne programu? Według rządu, rzecz jasna, będą one „same pozytywne”:

Ustawa będzie pozytywnie wpływać na podmioty inwestujące na rynku mieszkaniowym (głównie deweloperzy i spółdzielnie mieszkaniowe). Przyrost liczby potencjalnych klientów może się przerodzić w zwiększenie liczby nabywanych mieszkań na rynku pierwotnym, co jednocześnie może się okazać impulsem propodażowym. Należy przy tym podkreślić, że ze względu na określone w ustawie sposoby ograniczania cen mieszkań [podkreślenie moje] nabywanych w celu uzyskania finansowego wsparcia, planowane zwiększenie popytu nie powinno przełożyć się na wzrost cen rynkowych. Możliwa jest nawet sytuacja spadku cen rynkowych, ze względu na dostosowanie przez inwestorów oferowanej podaży do narzuconych ustawowo ograniczeń cenowych.

Surrealizm ekonomiczny głoszony w tym paragrafie zdaje się negować minister w kancelarii premiera Adam Jasser (sekretarz i członek Rady Gospodarczej), który otwarcie mówi, że rząd zdecydował się kontynuować subsydia pomimo wzrostu cen przez nie powodowanych:

Mieliśmy dylemat: czy państwowe dopłaty pomogą młodym, czy zaszkodzą, bo przez nie ceny mieszkań wzrosną. Zdecydowaliśmy, że warto kontynuować interwencję po „Rodzinie na swoim”, by pomóc tym, których na zakup mieszkania nie stać.

Kontrole cenowe

Ale nawet gdyby udało się rządowi tymi magicznymi „określonymi w ustawie sposobami ograniczania cen mieszkań” doprowadzić do swojego zamiaru, to efekt byłby jeszcze gorszy niż w przypadku wzrostu cen. Negatywne skutki kontroli cen w ekonomii znane są od niepamiętnych czasów. Można o nich przeczytać w każdym podręczniku ekonomii.

Kontrola cen ogranicza podaż nowych mieszkań i właściwie sprawia, że są one mniej dostępne. Kontrola cen działa w istocie jak podatek od sprzedaży, ponieważ deweloperzy sprzedają część swoich mieszkań z mniejszym zyskiem niż na wolnym rynku.

Aby zachować normalne marże zysku, deweloperzy przerzucają ten „podatek” na swoich klientów.

Elastyczność popytu i podaży określa dokładnie, jak obciążenie wpłynie na ceny, ale wynikiem jest niemal na pewno wyższa cena mieszkań. Dodatkowo kontrola cen prowadzi do zmniejszenia ilości nowych przedsięwzięć. Mniejsza opłacalność inwestycji oznacza słabszy motyw zysku — w rezultacie inwestorzy skłaniają się ku alternatywom. W rezultacie mamy zaostrzenie niedoborów i ograniczoną mobilność, które nie są najlepszymi sposobami, żeby pomóc potrzebującym.

Kontrola cen w tym wypadku przyjmie postać zakazu odsprzedaży (do 3 lat)– skutkiem będzie zablokowanie aprecjacji kapitałowej mieszkania, co prowadzi do przedłużenia okresu, w którym rodzina zamieszkuje dane mieszkanie, niż w przypadku gdyby nie było takiego ograniczenia. Rezultat jest taki, że istnieje mniejsza ilość mieszkań na rynku, a to nie służy tym, którzy chcieliby kupić mieszkanie — oczywiście najgorsze skutki odczują nabywcy marginalni.

Wreszcie kontrola cen skutkuje stworzeniem struktury bodźców skłaniającej obywateli do omijania prawa, ponieważ czyni nielegalną okazję dobrego zarobku. Pomijając aspekt demoralizujący takiego bodźca, to należy uwzględnić fakt, że rząd zwyczajnie musi poświęcić wiele zasobów, aby sprawniej nadzorować ograniczenia.

Programy subsydiów rządowych w istocie są w znacznej mierze redystrybucją od biednych do bogatych. Pomijając fakt, że najbardziej zyskują na nim deweloperzy, to nawet ci młodzi ludzie, którzy skorzystali z takiego programu, też nie są najuboższą częścią społeczeństwa. Rzesze ludzie ubogich, którzy nie mają wystarczających środków i wystarczającej zdolności kredytowej, czy z innych powodów są wykluczeni z udziału w programie, muszą dopłacać do kredytu na mieszkanie ludzi znacznie zamożniejszych od siebie.

Filtracja

Więc może zasadnym byłoby opodatkowanie drogich mieszkań po to, by wspierać tanie? Takiemu rozwiązaniu pewnie bliżej byłoby do zasady „sprawiedliwości społecznej” niż obecnemu, ale ono także nie byłoby wolne od negatywnych skutków ubocznych. Choć większość ludzi nie jest tego świadoma, to budowanie luksusowych apartamentów także wpływa korzystnie na rodziny niezamożne. Dzieję się tak, ponieważ przyszły mieszkaniec takiego apartamentu zazwyczaj zwalnia swoje stare, zwykle tańsze mieszkanie — to mieszkanie z kolei wykupuje od niego biedniejsza rodzina, zwalniając swoje poprzednie, jeszcze tańsze mieszkanie itd. Ten łańcuch „przeprowadzek” ekonomiści nazywają „filtracją” (ang. filtering), ponieważ każdy nowy luksusowy dom „filtruje w dół” istniejące mieszkania do uboższych warstw społeczeństwa. Dlatego uwalnianie rynku mieszkań dowolnego typu powoduje zwiększenie ilość dostępnych mieszkań dla osób niezamożnych. Jeśli nowa budowa jest wstrzymywana lub spowalniana, ten proces jest tłumiony. Bez nowych domów, ludzie o wysokich zarobkach składają oferty na istniejące domy, zwiększając popyt na nie, a więc zwiększając ich cenę. Najpewniejszym sposobem poprawy dostępności mieszkań to po prostu zlikwidowanie przepisów ograniczających powstawanie nowych, dowolnych mieszkań.

Państwowe budownictwo?

Więc skoro dopłacanie do mieszkań przynosi tyle szkód, to może lepiej, żeby rząd sam je budował i nimi zarządzał? To też jest szczytny cel, który niesie za sobą cały szereg negatywnych konsekwencji. Budownictwo rządowe jest pozbawione motywu zysku, a co gorsza, ponieważ nikt nie jest właścicielem takich mieszkań, nikomu nie zależy na jego długoterminowej pielęgnacji. Mieszkania publiczne często tworzą efekt getta, gdzie rodziny najsłabiej uposażone skumulowane w jednym miejscu tworzą obszar biedy i przestępczości. Wiele badań dowodzi, że tego typu programy rządowe są skrajnie nieefektywne.

Doskonale to zagadnienie opisał już w 1884 r. Herbert Spencer w swoim słynnym dziele „Jednostka wobec Państwa”:

Urzędy municypalne, czyniąc się budowniczymi domów, zniżają nieuchronnie wartość domów odmiennie budowanych i powstrzymują budowę innych. Każdy przepis odnoszący się do sposobu budowania i rozkładu mieszkań zmniejsza korzyści budowniczego i przymusza go do użycia swego kapitału tam, gdzie zyski nie są w ten sposób zmniejszane. Podobnie właściciel widząc już, że małe domy nakładają nań więcej pracy i wiele strat mu przyczyniają, a nadto podlegają uprzykrzonemu nadzorowi i wtrącaniem się administracyjnym, i z kosztów stąd wynikających wnosząc, że własność jego z dniem każdym zdaje się lokacją mniej korzystną, zmuszonym jest do jej sprzedaży. (…) Jakiż będzie niechybny tego wynik? Oto ponieważ budowanie domów, a zwłaszcza małych, napotykać będzie coraz większe trudności, przeto władza miejscowa będzie jeszcze więcej naciskaną o zaradzenie brakowi.[2]

Sprawiedliwość społeczna?

Wątpliwe jest też uzasadnienie tej redystrybucji na gruncie tzw. „sprawiedliwości społecznej”. Ubodzy z całego kraju, płacąc podatki, dopłacają do kredytów na mieszkania względnie zamożnych ludzi. Opis standardu przykładowego osiedla mieszkań zbudowanych zgodnie z wymaganiami programu wygląda tak:

 Do dyspozycji nowych mieszkańców osiedla będzie istniejąca już infrastruktura, m.in. boiska, place zabaw, sala fitness, świetlice, kameralne patia, liczne dziedzińce, a także centralny plac otoczony pergolą. Teren całego osiedla jest ogrodzony i strzeżony, a wejścia i wjazdy całodobowo kontrolowane. Mieszkańcy przez domofony mogą łączyć się z portiernią i ochroną, a także z panelami wejściowymi — na osiedle i swoją klatkę schodową. Monitoring jest połączony z odbiornikami telewizyjnymi, w których można oglądać obraz np. z placu zabaw.

Zdaje się, że to nawet według kryteriów socjaldemokratycznych nie jest fair, gdy ktoś, kto zarabia minimum krajowe, jest zmuszony dopłacać do luksusów ludzi, którzy są od niego znacznie zamożniejsi. Trzeba przyznać, że nawet John Rawls nie uznałby takiego mechanizmu jako spełniającego założenia kryterium „sprawiedliwości społecznej”, nie wspominając już nawet o klasycznych kryteriach sprawiedliwości, której z zasady nie da się pogodzić z mechanizmem redystrybucji.

Teoria wyboru publicznego

Zastanawiające jest, jak to możliwe, że względnie zamożna młodzież, która jest mniejszością w Polsce jest subsydiowana przez względnie ubogą większość? Odpowiedź na tą rozterkę daję nam teoria wyboru publicznego, która dowodzi, że w demokracji parlamentarnej nie wola większości ma rozstrzygające znaczenie, ale zmobilizowane grupy interesu, które stanowią istotną część elektoratu rządzących. Innymi słowy: politycy tymi programami kupują sobie przychylność potencjalnych wyborców w nadchodzących wyborach.

Czynniki rynkowe

Zatem czy za ciągły wzrost kosztu mieszkań odpowiedzialny jest tylko i wyłącznie rząd? Nie, nie tylko. Istnieją co najmniej jeszcze dwa inne czynniki, które wpływają na koszt nieruchomości — są to koszta gruntu oraz preferencje konsumentów.

Ziemia to dobro rzadkie, którego już raczej nie przybędzie. To, co błędnie przewidział Thomas Malthus odnośnie do żywności, ma prawdopodobnie dobre zastosowanie wobec ziemi. Żywności jest coraz więcej, dzięki naszej rosnącej produktywności. Niestety w tym przypadku ten mechanizm nie zadziała — wzrost produktywności nie zwiększy liczby gruntów, chyba, że doczekamy się osiedlenia na oceanach (seasteding) lub kolonizacji Marsa. Co nie oznacza, że uwolnienie rynku gruntowego nie poprawiłoby efektywności alokacji gruntów — mniejsze marnotrawstwo spowodowałoby wzrost liczby mieszkań.

Drugim czynnikiem są wymagania konsumentów. Mieszkania są obecnie znacznie wyższej jakości, więc więcej kosztują. Standard przeciętnego nowego mieszkania w ostatnich kilkunastu latach znacznie się poprawił. W ślad za znacznym wzrostem jakości musiał iść znaczny wzrost cen (choć w wartościach nominalnych wcale tak być nie musi). Jeżeli popyt na lepsze mieszkania jest większy to cena niestety musi rosnąć adekwatnie.

Konkluzja

Rządowe regulacje i kontrola są głównymi przyczynami drożyny i niedoborów. Przejście z rządowego centralnego planowania na rozproszone planowanie prywatne przyniesie pozytywne skutki — zarówno dla najemców, jak i kupców mieszkań wszystkich warstw dochodowych społeczeństwa, a najbardziej przysłuży się najbiedniejszym konsumentom. Każde podniesienie kosztu budowy mieszkania uderza bowiem przede wszystkim w najuboższych nabywców. Osoby, które nie przekonała moja analiza dotycząca skutków rządowych interwencji, niech przynajmniej wezmą sobie do serca otwierającą sentencję Miltona Friedmana: pamiętajmy o konsekwencjach.

[1] Ludwig von Mises, „Ludzkie działanie”, wyd. Instytut Misesa

[2] Herbert Spencer, „Jednostka wobec Państwa”, wyd. Hachette Polska, str. 56

Kontrolowana dekompozycja strefy euro aby uratować Unię Europejską i jednolity rynek :)

Główne tezy

 

  1. Unia Europejska i jednolity rynek stanowią wielkie osiągniecia. Ich utrzymanie ma kluczowe znaczenie dla przyszłej pomyślności poszczególnych państw europejskich, a w tym Polski i innych krajów Europy Środkowo-Wschodniej.
  2. Wprowadzenie euro okazało się posunięciem chybionym, które zamiast scementować Unię Europejską może doprowadzić do poważnych konfliktów i zagrozić współpracy europejskiej. Głównym problemem związanym ze wspólną walutą jest to, że państwa członkowskie pozbawione zostały możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia instrumentem dostosowawczym, jakim jest możliwość zmiany kursu walutowego.
  3. W przypadku utraty międzynarodowej konkurencyjności lub nagłej utraty zaufania rynku, osłabienie waluty (połączone z odpowiednią polityką fiskalną i monetarną) jest instrumentem skutecznie przywracającym konkurencyjność gospodarki i równowagę w obrotach międzynarodowych, pozwalającym na szybkie wejście na ścieżkę wzrostu gospodarczego.
  4. Próby usunięcia poważnej luki w konkurencyjności kraju, bez zmiany kursu walutowego, poprzez restrykcje fiskalne lub zacieśnienie monetarne, powodują duże koszty w postaci spadku realnego PKB i wzrostu bezrobocia, a w warunkach systemu demokratycznego kończą się bardzo często niepowodzeniem.
  5. Usiłowania poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego przez transfery fiskalne są bardzo kosztowne i mało skuteczne. Pokazują to doświadczenia Włoch i Niemiec, które przez wiele lat wydawały olbrzymie środki na „podciąganie” niekonkurencyjnych regionów, nie osiągając zadawalających rezultatów.
  6. Europa jest złożona z państw narodowych, które stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Pozostawanie w strefie euro skazać może państwa, które utraciły konkurencyjność, na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji. Może to doprowadzić do zachwiania spójności społecznej i politycznej w poszczególnych państwach członkowskich, zagrażając porządkowi demokratycznemu.
  7. Uporczywa obrona euro w przekonaniu, że „upadek Euro oznacza początek końca Unii Europejskiej i jednolitego rynku” może przynieść efekty odwrotne od zamierzonych. Grozi długotrwałą recesją i wysokim bezrobociem w krajach usiłujących poprzez zacieśnienie fiskalne dokonać „wewnętrznej dewaluacji”. Doprowadzić to może do załamania politycznego i niekontrolowanego rozpadu strefy euro, o nieobliczalnych konsekwencjach politycznych i gospodarczych dla całej Europy.
  8. Aby uprzedzić niekontrolowany rozpad, trzeba przeprowadzić kontrolowaną dekompozycję strefy euro, tworząc nowy europejski ład monetarny oparty o waluty narodowe lub waluty homogenicznych gospodarczo bloków krajów.
  9. Podział strefy euro poprzez wychodzenie z niej krajów mniej konkurencyjnych groziłby wybuchem paniki i załamaniem systemu bankowego w tych krajach. Dlatego właściwa jest kolejność odwrotna tzn. demontaż strefy euro poprzez stopniowe wychodzenie krajów lub grup krajów najbardziej konkurencyjnych.
  10. Kontrolowana dekompozycja strefy euro będzie możliwa, jeśli tylko europejskie elity i opinia publiczna oswoją się z myślą, że Unia Europejska i jednolity rynek mogą funkcjonować bez euro i zostaną uzgodnione zasady nowego ładu walutowego w Europie. Do tego czasu powinny być prowadzone działania zapobiegające niekontrolowanemu rozwojowi wydarzeń.


http://www.flickr.com/photos/patries71/293270513/sizes/m/in/photostream/
by patries71

Wprowadzenie

 

W pierwszej połowie XX wieku Europa była wylęgarnią konfliktów, które doprowadziły do wybuchu dwóch straszliwych wojen światowych. W drugiej połowie XX wieku, dzięki realizacji idei integracji europejskiej, powstała Unia Europejska i jednolity rynek. Instytucje te są wielkim sukcesem politycznym i gospodarczym. Po rozpadzie bloku sowieckiego, aspiracje poszczególnych państw do członkostwa w Unii Europejskiej i ułatwiony dostęp do wspólnego rynku europejskiego należały do kluczowych czynników, które przyczyniły się do powodzenia politycznej i gospodarczej transformacji byłych krajów socjalistycznych. Dzisiaj, od utrzymania Unii Europejskiej i jednolitego rynku zależy przyszła pomyślność gospodarcza poszczególnych państw europejskich, a w tym i Polski.

Wprowadzenie wspólnej waluty europejskiej na przełomie XX i XXI wieku było kolejnym etapem integracji, z którym wiązano wielkie nadzieje. Jednakże po blisko dekadzie sukcesów strefa euro znalazła się na rozdrożu. Obecny kryzys mobilizuje znaczną część polityków i opinii publicznej do postulowania zdecydowanej obrony euro w przekonaniu, że niepowodzenie projektu wspólnej waluty byłoby początkiem rozkładu Unii Europejskiej i jednolitego rynku europejskiego. Rozumiemy ten pogląd i podzielamy część przesłanek, którymi kierują się jego zwolennicy. Obawiamy się jednak, że utrzymywanie wspólnej waluty przyniesiecie efekty całkowicie odmienne od oczekiwań. Zamiast umocnić i scementować Unię Europejską, może doprowadzić do bardzo poważnych konfliktów i spowodować dezintegrację UE i rozpad jednolitego rynku. Fundamentalnym problemem związanym ze wspólną walutą w Europie jest pozbawienie państw członkowskich możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia w sytuacji kryzysowej instrumentem dostosowawczym, jakim jest możliwość korekty kursu walutowego. Wprowadzenie euro okazało się wbrew intencjom krokiem sprzecznym z dotychczasową filozofią integracji europejskiej polegającą na respektowaniu potrzeb wszystkich członków i przyjmowaniu rozwiązań, które nikomu nie zagrażają. Pozostawanie w strefie euro skazać może państwa członkowskie, które z jakiś powodów utraciły lub w przyszłości utracą konkurencyjność, na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości zmiany tej sytuacji. Może to doprowadzić do zachwiania spójności społecznej i politycznej w poszczególnych państwach członkowskich, do rozwoju tendencji populistycznych zagrażających porządkowi demokratycznemu i pokojowej współpracy w Europie. Sytuacja może wymknąć się spod kontroli i spowodować chaotyczny rozpad strefy euro, co zagrozić może przyszłości UE i jednolitego rynku.

Aby powrócić do źródeł idei integracji europejskie i uniknąć niekontrolowanego rozpadu wspólnej waluty, należy przeprowadzić kontrolowaną dekompozycję strefy euro, tworząc przy tym nowy europejski ład monetarny oparty o waluty narodowe lub waluty homogenicznych grup krajów, zachowując instytucje Unii Europejskiej i jednolity rynek europejski.

Nasz tekst składa się z dziesięciu rozdziałów. W rozdziale I wskazujemy, że istotą problemów zagrożonych gospodarek strefy euro jest utrata konkurencyjności, której przyczyny są zresztą w poszczególnych krajach odmienne.

W rozdziale II omawiamy dwa dostępne mechanizmy krótkookresowej poprawy konkurencyjności kraju: osłabienie waluty (poprzez decyzję o dewaluacji lub samoczynną deprecjację) oraz deflację (nazywaną obecnie często „wewnętrzną dewaluacją”). Osłabienie waluty jest doraźnie instrumentem bardzo skutecznym, choć aby trwale poprawić konkurencyjność gospodarki, musi być wsparte odpowiednią polityką fiskalną i monetarną. Natomiast polityka deflacyjna jest ze swojej natury instrumentem znacznie mniej skutecznym i powodującym bez porównania większe koszty w postaci spadku PKB i wzrostu bezrobocia, co sprawia, że jest to polityka trudna do utrzymania w realiach państw demokratycznych.

W rozdziale III omawiamy wybrane doświadczenia historyczne sprzed zapoczątkowanego w 2008 roku światowego kryzysu finansowego, związane ze stosowaniem deflacji oraz funkcjonowaniem mechanizmu osłabienia waluty. Przytaczamy wyjaśnienie, dlaczego deflacja była skutecznym mechanizmem dostosowawczym w okresie przed Pierwszą Wojną Światową, a przestała nim być w okresie międzywojennym. Omawiamy pouczający przykład spektakularnego niepowodzenia polityki deflacyjnej, jakim była uporczywa obrona wymienialności funta szterlinga po zawyżonym kursie w Wielkiej Brytanii w drugiej połowie lat 1920-tych. Przypominamy, że dewaluacja była jednym z najistotniejszych posunięć w ciągu pierwszych miesięcy prezydentury Franklina Delano Roosevelta w USA w 1933 roku. Przedstawiamy kontrowersje dotyczące polityki dewaluacji stosowanej przez wiele krajów w latach 1930-tych i wyjaśniamy, że nie podważa to tezy o skuteczności dewaluacji. Przytaczamy przykłady z lat 1990-tych, z kryzysu azjatyckiego i kryzysu rosyjskiego, wskazujące, że programy dostosowawcze zawierające dewaluację mogą być bardzo skuteczne w szybkim przywracaniu konkurencyjności gospodarki i równowagi na rachunku obrotów bieżących, umożliwiając wyprowadzenie gospodarki z głębokiego kryzysu i szybkie wejście na ścieżkę wzrostu. Omawiamy pouczający przypadek Argentyny z przełomu XX i XXI wieku ilustrujący trzy istotne obserwacje. Po pierwsze, kraj, który znajduje się w dobrej sytuacji makroekonomicznej i stworzył solidne wydawałoby się ramy instytucjonalne, może, z nieprzewidywanych wcześniej powodów, popaść w problemy z związane z utratą konkurencyjności. Po drugie, w warunkach sztywnego kursu walutowego, usiłowanie przywrócenia konkurencyjności poprzez politykę deflacyjną może doprowadzić do poważnych niepokojów społecznych. Po trzecie, osłabienie waluty jest bardzo silnym instrumentem dostosowawczym, może pozwolić na szybkie wyjście z chaosu politycznego i gospodarczego i wejście na ścieżkę wzrostu gospodarczego. Zwracamy uwagę, że nie jest to instrument cudowny, który może samodzielnie i bezboleśnie rozwiązać wszelkie problemy. Jego nadużywanie jest szkodliwe, lecz w sytuacji kryzysowej szybka odbudowa konkurencyjności bez osłabienia waluty jest przedsięwzięciem niezwykle trudnym lub wręcz niemożliwym.

W rozdziale IV zastanawiamy się, czy pogłębiona unia fiskalna mogłaby dostarczyć alternatywnych wobec osłabienia waluty lub deflacji instrumentów do poprawy konkurencyjności zagrożonych krajów. W tym celu na przykładzie Południa Włoch i Niemiec Wschodnich omawiamy próby poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego przez politykę pomocy strukturalnej i transfery budżetowe. Uzasadniamy pogląd, że są to działania tak mało skuteczne i tak kosztowne, że nie można liczyć na to, by stały się istotnym instrumentem poprawy konkurencyjności niekonkurencyjnych gospodarek w ramach strefy euro.

W rozdziale V omawiamy doświadczenia, na które często powołują się ekonomiści uważający, że polityka tzw. „wewnętrznej dewaluacji”, czyli deflacji, realizowana za pomocą redukcji wydatków budżetowych, może być dziś skuteczną terapią dla zagrożonych gospodarek strefy euro. Omawiamy doświadczenie Łotwy, pokazując, że trudno je uznać za argument do rekomendowania metody „wewnętrznej dewaluacji”. Porównujemy doświadczenie Łotwy i Islandii, pokazując, że dzięki dewaluacji waluty w Islandii, koszty dostosowania w celu wyprowadzenia kraju z głębokiego kryzysu były znacznie mniejsze niż na Łotwie. Przytaczamy analizę przypadków udanych ekspansywnych dostosowań fiskalnych tzn. sytuacji, w których zacieśnienie fiskalne od razu stało się impulsem do przyspieszenia wzrostu gospodarczego. Okazuje się, że w przypadkach tych zacieśnieniu fiskalnemu towarzyszyło duże osłabienie krajowej waluty lub zasadnicza obniżka stóp procentowych i spadek inflacji. Na ekspansywne efekty zacieśnienia fiskalnego trudno więc liczyć w krajach wewnątrz strefy euro, gdy osłabienie waluty krajowej jest niemożliwe, a inflacja i stopy procentowe już są bardzo niskie.

W rozdziale VI podsumowujemy wnioski wynikające z rozdziałów I-V dla możliwości pomyślnego funkcjonowania jednej waluty w Europie. Zwracamy uwagę, że Europa fundamentalnie różni się od USA, gdyż jest złożona z narodów mówiących różnymi językami, odwołujących się do własnych tradycji i zorganizowanych w ramach państw narodowych. Państwa narodowe stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Nic nie wskazuje na to, by sytuacja ta miała się zasadniczo zmienić w ciągu najbliższego stulecia. Unia Europejska i jej instytucje są tworami służebnymi, które państwa członkowskie stworzyły, aby poprawić swoje bezpieczeństwo i pomyślność gospodarczą. Sukces integracji oparty był na filozofii respektowania potrzeb wszystkich członków, przyjmowaniu rozwiązań, które są korzystne dla wszystkich i nikomu nie zagrażają. Wprowadzenie wspólnej waluty paradoksalnie podważa dotychczasową filozofię integracji. Państwo należące do strefy euro, które z jakichś powodów utraci konkurencyjność lub będzie zmuszone w krótkim czasie zamknąć deficyt na rachunku obrotów bieżących, może zostać w praktyce skazane na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji. Naszym zdaniem problemy te mają zupełnie inny wymiar, gdy dotyczą zacofanych regionów w poszczególnych państwach, a inny –znacznie poważniejszy – gdy dotyczą całego państwa. Zwracamy uwagę, że Europa, w której społeczności narodowe zostaną pozbawione możliwości poprawy swojego bytu i jedyną alternatywą pozostanie dla nich migracja, zostanie narażona na groźne konflikty.

W rozdziale VII omawiamy opcję kontrolowanej dekompozycji strefy euro. Ponieważ wychodzenie ze strefy euro krajów zagrożonych groziłoby tam wybuchem paniki i załamaniem systemu bankowego, proponujemy kolejność odwrotną tzn. rozmontowanie strefy euro poprzez stopniowe wychodzenie krajów lub grup krajów najbardziej konkurencyjnych.

W rozdziale VIII zastanawiamy się nad tym, jaki mechanizm koordynacji walutowej można wprowadzić w Europie w przypadku dekompozycji strefy euro. Pokazujemy, że istnieją akceptowalne alternatywy dla systemu jednej waluty, które, choć nie są doskonałe, umożliwiają pomyślny rozwój gospodarki, a także rozwój pokojowej współpracy europejskiej. Zwracamy uwagę, że próby wprowadzenia i utrzymania za wszelka cenę rozwiązania mającego raz na zawsze uwolnić Europę od niedoskonałych systemów koordynacji walutowej mogą prowadzić do katastrofy ekonomicznej i politycznej. Do katastrofy takiej przyczynił się system waluty opartej na parytecie złota w okresie międzywojennym, a obecnie jest bardzo prawdopodobne, że katastrofę taką może spowodować uporczywa obrona systemu jednej waluty w Europie.

W rozdziale IX rozważamy argumenty i ostrzeżenia przed dekompozycją strefy euro. Odnosimy się do opinii sugerujących, że rozwiązanie strefy euro: doprowadzi do ekonomicznej katastrofy w Europie, spowoduje gwałtowną aprecjację waluty niemieckiej i wywoła recesję w Niemczech, osłabi pozycję Europy wobec światowych potęg gospodarczych USA, Chin i Indii. Nie lekceważymy tych argumentów, lecz zwracamy uwagę, że opierają się one na bardzo wątpliwych założeniach. Po pierwsze, na założeniu, że Europa z jedną walutą jest w stanie przezwyciężyć obecny kryzys i w przyszłości pomyślnie się rozwijać. Po drugie, na założeniu, że demontaż strefy euro musi spowodować rozpad jednolitego rynku i dezintegrację UE. Jest oczywiste, że przy tych założeniach rozwiązanie strefy euro byłoby szkodliwe dla wszystkich i nie miałoby ekonomicznego sensu. Jednakże, założenia te są nieuprawnione, co staramy się uzasadnić w naszym tekście. Po pierwsze, uporczywa obrona wspólnej waluty narażać będzie Europę na olbrzymie problemy i konflikty, będzie hamować jej wzrost gospodarczy i osłabiać pozycję międzynarodową, a może zakończyć się niekontrolowanym rozpadem strefy euro, o nieobliczalnych konsekwencjach. Po drugie, w proponowanym przez nas wariancie dekompozycja strefy euro odbędzie się w sposób uzgodniony i kontrolowany, tak aby zachować UE i jednolity rynek europejski, a jednocześnie możliwe będzie stworzenie mechanizmu koordynacji walutowej, który ograniczy skalę aprecjacji nowej waluty Niemiec w okresie przejściowym.

W rozdziale X omawiamy najbardziej prawdopodobne warianty wydarzeń w przypadku kontynuacji uporczywej obrony euro i kontynuacji polityki deflacji zwanej „wewnętrzną dewaluacją”. Omawiamy podstawowe scenariusze: 1) scenariusz trwalej zapaści politycznej i społecznej niekonkurencyjnych państw oraz 2) scenariusz nieskoordynowanego rozpadu strefy euro. Odnotowujemy także mniej prawdopodobny, lecz niewykluczony wariant przezwyciężenia obecnego kryzysu strefy euro, co może nastąpić w wyniku kombinacji pozytywnych czynników takich jak: silne ożywienie w gospodarce światowej, istotne osłabienie euro i wypracowanie przez strefę euro jako całość wysokiej nadwyżki handlowej lub wystąpienie znacznie lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”. Jeśli strefa euro przezwycięży obecny kryzys, to w przyszłości poważne problemy z konkurencyjnością mogą pojawić się ponownie w różnych krajach. Los kraju, który z jakiś przyczyn utraci konkurencyjność będzie w ramach strefy euro zawsze nie do pozazdroszczenia.

W „Zakończeniu” uzasadniamy pogląd, że nawet w wariancie przezwyciężenia obecnego kryzysu, w dającej się przewidzieć przyszłości trudno liczyć na istotne rozszerzenie strefy euro. Utrzymywanie strefy euro skazywać będzie EU na podział na trzy grupy krajów tworzące swoistą „Europę trzech prędkości”.

Dziękujemy osobom, które pomogły w przygotowaniu niniejszego tekstu. Krzysztof Błędowski, Marcin Gozdek, Kamil Kamiński i Agata Miśkowiec dostarczyli nam niektóre dane i analizy. Wszystkim im, a także Wojciechowi Arkuszewskiemu, Sergiuszowi Kowalskiemu i Adamowi Parfiniewiczowi jesteśmy wdzięczni za możliwość dyskusji, uwagi i komentarze, które w niektórych przypadkach były dalekie od zbieżności z poglądami prezentowanymi w tekście.

Tekst wyraża wyłącznie osobiste poglądy autorów.

I.      Utrata konkurencyjności istotą problemu zagrożonych gospodarek strefy euro

W roku 2010 Grecja, Portugalia, Włochy, Hiszpania i Irlandia napotkały na poważne problemy ze sprzedażą swoich obligacji. Oprocentowanie, jakiego żądali inwestorzy, drastycznie wzrosło. Od tego czasu państwa strefy euro i Europejski Bank Centralny podejmują rozmaite działania dla złagodzenia i rozwiązania problemów zagrożonych gospodarek. Początkowo liderzy polityczni i gospodarczy Unii Europejskiej stali na stanowisku, że mamy do czynienia tylko z czasowym zachwianiem płynności finansowej i zagrożone kraje po przeprowadzeniu odpowiednich reform poradzą sobie ze spłatą długu. Obecnie co najmniej w przypadku Grecji oficjalne stanowisko UE przyznaje, że problem dotyczy wypłacalności, czyli zdolności kraju do spłacenia swojego długu, i zaakceptowano, że konieczna jest redukcja zadłużenia. Obawy o wypłacalność dotyczą także innych zagrożonych krajów.

Istotą problemów zagrożonych krajów strefy euro (oprócz Irlandii) jest utrata międzynarodowej konkurencyjności. Zjawisko polega najogólniej mówiąc na tym, że płace w gospodarce stają się zbyt wysokie w stosunku do produktywności w sektorze wytwarzającym dobra podlegające wymianie międzynarodowej. W efekcie, wytwarzane w kraju produkty zaczynają być wypierane z rynku krajowego i rynków zagranicznych przez produkty wytwarzane w innych krajach. Spada produkcja i zatrudnienie w sektorze produkującym dobra podlegające wymianie międzynarodowej. Dopóki spadek ten jest równoważony przez wzrost zatrudnienia i PKB w sektorach wytwarzających dobra niepodlegające wymianie międzynarodowej, w szczególności w budownictwie i w usługach, pogorszenie konkurencyjności nie musi powodować spadku zatrudnienia i spadku PKB w całej gospodarce, lecz objawia się w pogorszeniu bilansu handlowego i salda na rachunku obrotów bieżących. Ujemne saldo bilansu handlowego i deficyt na rachunku obrotów bieżących mogą nie stwarzać problemu, dopóki nie pojawią się kłopoty z ich finasowaniem.

W latach 1999-2011 jednostkowy koszt pracy (wartość wynagrodzeń na jednostkę wytwarzanego produktu) w Grecji, Włoszech, Hiszpanii, Portugalii i Francji zwiększył się w relacji do jednostkowego kosztu pracy w Niemczech o 19-26%. Pogorszenie konkurencyjności wymienionych krajów wobec Niemiec znalazło swoje odbicie w pogorszeniu sald bilansu handlowego i rachunku obrotów bieżących. W roku 2010 wymienione kraje miały deficyty obrotów bieżących wysokości od 2 do 10 proc PKB i miały łącznie deficyt handlowy wysokości 167 mld euro, podczas gdy Niemcy uzyskały nadwyżkę handlową w wysokości 154 mld euro, osiągając nadwyżkę rachunku obrotów bieżących w wysokości blisko 6% PKB.

Trzeba zaznaczyć, że przyczyny utraty konkurencyjności w poszczególnych krajach były inne. W Grecji, Portugalii i Włoszech przyczynił się do tego deficyt budżetowy i duży dług publiczny. Natomiast w Hiszpanii, która – do chwili wybuchu światowego kryzysu finansowego – pod względem przestrzegania kryteriów Maastricht dotyczących deficytu i długu publicznego zachowywała się lepiej niż Niemcy, przyczyną utraty konkurencyjności była olbrzymia ekspansja zadłużenia prywatnego napędzająca boom budowlany i wzrost płac.

Obecnie rynki finansowe nie chcą już dobrowolnie finansować deficytu obrotów bieżących Grecji, Portugalii, Włoch i Hiszpanii. Aby poprawić swoje bilanse handlowe i zlikwidować deficyty na rachunku obrotów bieżących, kraje te powinny prawdopodobnie obniżyć płace o 20-30%. W przypadku kraju posiadającego własną walutę, poprawa konkurencyjności tego rzędu mogłaby się dokonać w krótkim czasie w wyniku osłabienia krajowej waluty, nie powodując szkody w skali działalności gospodarczej i poziomie zatrudnienia. Przykładem takiego dostosowania może być Polska, która jest członkiem UE, lecz nie należy do strefy euro. W okresie kulminacji światowego kryzysu finansowego między jesienią 2008 a wiosną 2009 polski złoty osłabił się o około 30%. Dzięki temu w roku 2009 saldo polskiego handlu zagranicznego poprawiło się o 3% PKB, co było prawdopodobnie najistotniejszym czynnikiem, dzięki któremu w roku 2009 Polska, jako jedyny kraj w UE, cieszyła się wzrostem gospodarczym, podczas gdy gospodarki wszystkich pozostałych krajów UE skurczyły się.

Zagrożone kraje znajdujące się w strefie euro nie mogą jednak poprawić swojej konkurencyjności poprzez dostosowanie kursu walutowego, gdyż nie mają własnej waluty. W związku z tym, zgodnie z zaleceniami Komisji Europejskiej, Europejskiego Banku Centralnego i Międzynarodowego Funduszu Walutowego, starają się poprawić konkurencyjność poprzez zacieśnienie fiskalne (tj. obniżenie wydatków budżetowych i podniesienie podatków) mające powodować nominalny spadek płac, świadczeń i cen. Politykę taką określa się obecnie terminem „wewnętrzna dewaluacja”, choć mamy do czynienia po prostu z polityka deflacyjną realizowaną narzędziami fiskalnymi.

 

II.   Osłabienie waluty i deflacja – dwie alternatywne metody krótkookresowego przywracania konkurencyjności gospodarki

 

Istnieją dwie metody krótkookresowej poprawy konkurencyjności: osłabienie waluty krajowej lub deflacja, czyli obniżenie krajowych cen i płac. Osłabienie waluty może mieć formę dewaluacji, w przypadku, gdy kurs waluty jest określany przez władze monetarne, lub samoczynnej deprecjacji, gdy kurs walutowy jest określany przez rynek. Deflacja może nastąpić natomiast jako efekt silnego ograniczenia popytu przez zacieśnienie fiskalne lub restrykcyjną politykę monetarną. Efektem zarówno osłabienia waluty, jak i deflacji jest obniżenie wartości płac i innych dochodów krajowych wyrażonych w walutach partnerów handlowych, co przyczynia się do poprawy bilansu handlowego.

Istotną różnicą miedzy omawianymi metodami jest to, że osłabienie waluty powoduje automatyczne obniżenie płac wyrażonych w walutach zagranicznych i poprawę konkurencyjności, co staje się impulsem do wzrostu produkcji krajowej, natomiast deflacja jest zjawiskiem znacznie bardziej rozłożonym w czasie. Polityka deflacyjna musi najpierw poprzez spadek popytu spowodować spadek produkcji i w konsekwencji zatrudnienia, po to by rosnące bezrobocie mogło skłonić pracowników w sektorze prywatnym do akceptowania obniżek płac. Deflacja wymaga podjęcia tysięcy decyzji przez podmioty gospodarcze i zmiany tysięcy umów. Decyzje o obniżkach cen podejmowane są dopiero wtedy, gdy poszczególni przedsiębiorcy napotykają barierę popytu w postaci spadku sprzedaży. Pracownicy zaczynają akceptować obniżki płac wtedy, gdy wyraźnie rośnie bezrobocie. Spadek wartości cen i płac w przeliczeniu na waluty zagraniczne w procesie deflacji nigdy nie jest więc automatyczny i powszechny, tak jak to jest w przypadku zmiany kursu walutowego. Ponadto spadek ten w wyniku deflacji następuje zacznie wolniej niż może to nastąpić w przypadku osłabienia waluty, gdzie dostosowanie płac w całej gospodarce może nastąpić z dnia na dzień.

W przypadku gdy gospodarka generuje wysoki deficyt na rachunku obrotów bieżących i ustaną źródła jego finasowania, a nie następuje szybka poprawa konkurencyjności, niezbędna redukcja deficytu dokonuje się poprzez spadek zatrudniania i produkcji. Stąd mniejsza i wolniej postępująca poprawa konkurencyjności poprzez deflację sprawia, że w przypadku konieczności ograniczenia deficytu handlowego, dostosowanie takie poprzez politykę deflacyjną musi się odbyć kosztem głębszego spadku zatrudniania i realnego PKB niż gdyby odbywało to się poprzez osłabienie waluty.

Osłabienie waluty jest więc ze swojej natury bardziej skutecznym i bez porównania mniej kosztownym społecznie i ekonomicznie instrumentem krótkookresowej poprawy konkurencyjności niż deflacja. Należy jednak podkreślić, że poprawa konkurencyjności w wyniku zmiany kursu walutowego nie musi być trwała. Tylko przy odpowiednio restrykcyjnej polityce fiskalnej i monetarnej, osłabienie waluty może trwale poprawić konkurencyjność gospodarki i wprowadzić ją na ścieżkę wzrostu. Jeżeli braknie takiego wsparcia, to osłabienie waluty prowadzi do wzrostu cen i płac, a szybko uzyskana poprawa konkurencyjności jest zjadana przez inflację.

III.            Wybrane doświadczenia historyczne dotyczące polityki deflacyjnej i dewaluacji

 

W systemie waluty opartej o złoto[1]/, który wykształcił się w drugiej połowie XIX wieku i funkcjonował do wybuchu I Wojny Światowej w 1914 r., polityka deflacyjna była podstawowym instrumentem przywracania konkurencyjności gospodarki i równowagi w obrotach międzynarodowych. Deficyt handlowy kraju, jeśli nie był finansowany napływem kapitału z zagranicy, powodował odpływ złota z rezerw banku emisyjnego realizującego swoje zobowiązanie do wymiany waluty na złoto. W takim przypadku bank emisyjny, aby zapobiec zagrożeniu dla swojej zdolności do wymiany waluty na złoto, podnosił stopę dyskontową zmniejszając podaż kredytu w gospodarce i powodując presję na obniżkę cen. Deflacja obniżała popyt na towary importowane, poprawiała konkurencyjność gospodarki i bilans handlowy. Karl Polanyi[2]/, a za nim Barry Eichengreen poświęcili wiele uwagi wyjaśnieniu, dlaczego deflacja była skutecznym mechanizmem dostosowawczym w okresie przed I Wojna Światową, a przestała nim w okresie międzywojennym. Zdaniem Eichengreena przed I Wojną Światową polityka banków centralnych podporządkowana była jednemu celowi, jakim było utrzymanie rezerw złota na poziomie gwarantującym wymienialność waluty na złoto według stałego parytetu. Gdy było to potrzebne dla tego celu, bank centralny nie wahał się przed prowadzeniem polityki deflacyjnej i żadne inne względy nie były przy tym poważnie brane pod uwagę. Prowadzenie nieskrępowanej polityki deflacyjnej ułatwiał fakt, że nie było wówczas żadnej uznanej teorii wyjaśniającej wpływ polityki banku centralnego na gospodarkę i poziom bezrobocia[3]/. Bezrobocie zresztą jako zdefiniowana kategoria ekonomiczna i społeczna pojawiło się w dyskusjach dopiero na przełomie XIX i XX wieku[4]/. Nie było wówczas powszechnych praw wyborczych, w większości krajów prawo głosu było ograniczone do ludzi posiadających majątek. Bezrobotni pozbawieni pracy w wyniku polityki banku centralnego nie byli świadomi tego związku, a ponadto mieli niewielkie możliwości przedstawienia swoich interesów w ówczesnym systemie politycznym[5]/. Związki zawodowe i regulacje pracownicze były w powijakach, dzięki temu płace były stosunkowo elastyczne i stąd polityka deflacyjna mogła być skuteczna w ich obniżaniu[6]/. Z tego punktu widzenia sytuacja w okresie międzywojennym była już istotnie różna. Wszystkie warstwy społeczne uzyskały prawo wyborcze, wzrosła siła związków zawodowych, bezrobocie stało się istotną kategorią ekonomiczną i problemem politycznym, i zaczęto łączyć je z polityką banku centralnego. Działania związków zawodowych i regulacje prawa pracy zmniejszyły swobodę obniżania płac. Wobec usztywnienia płac, dla osiągniecia danego efektu w zakresie obniżki popytu w gospodarce potrzebny był większy wzrost bezrobocia niż w przypadku elastycznych płac. Coraz powszechniejsza była świadomość konfliktu między celem utrzymania równowagi zewnętrznej, a utrzymaniem dobrej koniunktury w kraju.

Spektakularną ilustracją tych różnic oraz niepowodzeń deflacji w okresie międzywojennym jest nieudana obrona przewartościowanego parytetu wymiany funta szterlinga w Wielkiej Brytanii w latach 1925-1931. W 1925 Wielka Brytania przywróciła zawieszoną po wybuchu I Wojny Światowej wymienialność funta na złoto. Przywrócono przedwojenny parytet funta do złota, choć ówczesne ceny w Wielkiej Brytanii nie odpowiadały przedwojennym. Przeciwko przywróceniu parytetu wymiany oponował John Maynard Keynes – wówczas jeden z ekspertów konsultowanych przez kanclerza skarbu Winstona Churchilla. W pamflecie „The Economic Consequences of Mr. Churchill” (skutki gospodarcze działań pana Churchilla) Keynes oceniał, że przywrócenie przedwojennego parytetu oznacza przewartościowanie funta o 10-15%, co obniży konkurencyjność brytyjskiego eksportu i spowoduje wzrost bezrobocia[7]/. Według późniejszych ocen faktyczne przewartościowanie było nieco mniejsze, w granicach 5-10%[8]/. Decyzja o przywróceniu przedwojennego przewartościowanego parytetu jest powszechnie uważana za podstawową przyczynę wolnego wzrostu gospodarki i wysokiego bezrobocia w Wielkiej Brytanii w drugiej dekadzie lat 1920-tych[9]/. W tym czasie Francja, która przywróciła wymienialność w roku 1924 wg nowego niedowartościowanego parytetu miała znacznie wyższy wzrost gospodarczy i niższe bezrobocie[10]/. Przez sześć lat gospodarka i społeczeństwo brytyjskie ponosili olbrzymie koszty broniąc przewartościowanej waluty. Aby chronić bilans handlowy i ograniczać wypływ złota z kraju, Bank Anglii musiał ograniczać podaż kredytu, a rząd wprowadzać kolejne restrykcje fiskalne. Polityka deflacyjna dławiła gospodarkę, lecz problemu przewartościowanej waluty brytyjskiej nie udało się rozwiązać. Ostatecznie w roku 1931, wobec utrzymującego się 20 procentowego bezrobocia, Wielka Brytania odeszła od systemu waluty złotej i pozwoliła na dewaluację funta o około 30 proc. Przyniosło to pewną ulgę gospodarce brytyjskiej w warunkach głębokiego kryzysu gospodarki światowej.

Naszym zdaniem to doświadczenie brytyjskie sprzed 80 lat powinno dawać do myślenia współczesnym liderom europejskim. Po pierwsze, przykład ten demonstruje duże koszty ekonomiczne i społeczne oraz niewielką skuteczność polityki deflacyjnej jako instrumentu przywracania konkurencyjności przy usztywnionym kursie walutowym. Wówczas, prowadzona przez 6 lat polityka deflacyjna nie potrafiła sobie poradzić z poziomem cen zawyżonym o 5-10% i nie doprowadziła do przywrócenia konkurencyjności kraju. Czy można spodziewać się, że dziś za pomocą tej polityki uda się przywrócić konkurencyjność gospodarek, w których poziom płac jest zawyżony o 20-30%? Po drugie, przykład ten ilustruje, jak olbrzymie koszty ekonomiczne, społeczne i polityczne mogą być spowodowane ograniczeniami w myśleniu, jakie narzucili sobie liderzy gospodarczy i polityczni. Wówczas przyjmowano, że system waluty opartej o złoto jest jedynym systemem gwarantującym zdrowy pieniądz, a utrzymanie przedwojennego parytetu funta do złota jest niezbędne dla zachowania wiarygodności brytyjskiego systemu monetarnego. Wysocy przedstawiciele brytyjskiego Ministerstwa Skarbu do ostatniej chwili reagowali z oburzeniem na sugestie, że Wielka Brytania mogłaby odejść od ówczesnego parytetu wymieniany funta na złoto[11]/. Gubernator Banku Anglii Montagu Norman wiosną 1931 roku zabiegał w przygniecionych Wielkim Kryzysem Stanach Zjednoczonych o pożyczkę, która mogłaby przedłużyć utrzymywanie wymienialności funta według tradycyjnego parytetu. Gdy to się nie udało, żalił się, że „Stany Zjednoczone są ślepe nie podejmując kroków dla uratowania świata i systemu waluty opartej o złoto”[12]/. Utożsamianie losów świata z ówczesnym systemem walutowym było błędne, gdyż jak wiemy system waluty opartej o złoto się załamał, a świat mimo wszystko przetrwał. Natomiast uporczywe trwanie w systemie waluty opartej o złoto było kluczowym czynnikiem, który przyczynił się do pogłębienia i międzynarodowego rozprzestrzenienia Wielkiego Kryzysu, który prawie doprowadził do upadku demokratycznego kapitalizmu na świecie[13]/. To doświadczenie sprzed 80 lat powinno dawać do myślenia współczesnym liderom europejskim, którzy powtarzają, że utożsamiają przyszłość Unii Europejskiej i wspólnego rynku z projektem euro.

Warto przypomnieć, że jednym z najistotniejszych posunięć w czasie pierwszego roku rządów Franklina Delano Roosevelta w 1933 roku, obok uporządkowania i rozpoczęcia odbudowy systemu bankowego, było zawieszenie wymienialności dolara na złoto i dewaluacja dolara o 40%.

Odejście Wielkiej Brytanii, a następnie USA od systemu waluty opartej o złoto rozpoczęło kilkuletni okres, w którym poszczególne kraje wykorzystywały dewaluację jako instrument poprawy konkurencyjności. Polityka ta była przedmiotem wielu kontrowersji, bowiem dewaluacja poprawiała konkurencyjność danego kraju kosztem jego partnerów handlowych, zmuszając ich często również do dewaluacji. Zdaniem Eichengreena nie może to jednak zaciemniać faktu, że dewaluacje lat 1930-tych były skuteczne i stanowiły część rozwiązania problemu Wielkiego Kryzysu, a nie były jego źródłem[14]/.

Niezwykle pouczające jest doświadczenie Argentyny, która w 1991 wprowadziła system tzw. izby walutowej (currency board) związując ustawowo i bezterminowo kurs swojej waluty peso z dolarem USA. Przez pierwsze kilka lat przynosiło to znakomite rezultaty w postaci obniżenia inflacji i wzrostu gospodarczego. Wydawało się, że wreszcie po latach borykania się z problemami niestabilnej polityki makroekonomicznej i wysokiej inflacji, Argentyna znalazła rozwiązanie, które zagwarantuje jej utrzymanie zdrowych i sprzyjających rozwojowi ram makroekonomicznych. Pod koniec dekady lat 1990-tych, w wyniku połączenia czynników wewnętrznych i zewnętrznych, pojawiły się poważne problemy z konkurencyjnością powodujące recesję i narastanie długu publicznego. Początkowo nie dopuszczano możliwości odejścia od systemu izby walutowej. Aby uporać się z problemem niekonkurencyjności gospodarki i wysokiego zadłużenia, stosowano politykę deflacyjną opartą o restrykcje fiskalne. Nie przynosiło to poprawy sytuacji. Po trzech latach recesji, w końcu roku 2001 krwawe rozruchy zmusiły prezydenta i rząd do dymisji. Argentyna ogłosiła niewypłacalność i porzuciła system izby walutowej. Peso straciło ponad 70% swojej wartości. W gospodarce i w systemie bankowym wystąpiły bardzo poważne perturbacje, lecz już po kilku miesiącach gospodarka zaczęła rosnąć i zamknęła się luka w bilansie handlowym. W ciągu następnych 6 lat gospodarka rosła w tempie 7-9% rocznie. Doświadczenie Argentyny może być ilustracją dla trzech prawd, które powinniśmy mieć na uwadze. Po pierwsze, kraj, który znajduje się w dobrej sytuacji makroekonomicznej i stworzył solidne wydawałoby się ramy instytucjonalne, może z nieprzewidywanych wcześniej powodów popaść w problemy z konkurencyjnością. Po drugie, w warunkach sztywnego kursu walutowego, przywracanie konkurencyjności poprzez politykę deflacyjną jest mało skuteczne i może doprowadzić do groźnych niepokojów społecznych. Po trzecie, dewaluacja jest bardzo silnym instrumentem dostosowawczym i nawet przeprowadzona w warunkach załamania politycznego i gospodarczego może pozwolić na szybkie wejście na ścieżkę wzrostu gospodarczego.

Skuteczność instrumentu, jakim jest dewaluacja, potwierdzają doświadczenia krajów azjatyckich: Korei Południowej, Tajlandii i Indonezji po kryzysie 1997 roku, a także Rosji po kryzysie 1998 roku. We wszystkich tych przypadkach dochodziło do głębokiej dewaluacji w sytuacji poważnego załamania gospodarki i kryzysu bankowego. Wobec załamania banków i bankructw przedsiębiorstw wydawało się, że gospodarki przez długi czas nie będą w stanie wydostać się z tarapatów. Tymczasem, po dewaluacji gospodarki bardzo szybko wkraczały na ścieżkę wzrostu.

Dewaluacja nie jest jednak rozwiązaniem doskonałym i z jej stosowaniem związane są istotne problemy. Źródłem części problemów jest właśnie fakt, że dewaluacja jest niezwykle skutecznym i mało kosztownym społecznie i politycznie instrumentem krótkookresowej poprawy konkurencyjności, a jednocześnie nie dotyka bezpośrednio fizycznych procesów wytwarzania produktów i usług, które decydują o konkurencyjności w długim okresie. Dostępność dewaluacji stwarza często politykom pokusę unikania trudniejszych społecznie i politycznie reform niezbędnych dla podnoszenia konkurencyjności gospodarki oraz tolerowania rozluźnienia fiskalnego, w przekonaniu, że ewentualne problemy z konkurencyjnością zawsze zostaną rozwiązane przez osłabienie waluty. Jest wiele przykładów krajów, w szczególności Ameryki Południowej i Południowej Europy, które w drugiej połowie XX wieku przez lata posługiwały się dewaluacją dla nadganiania konkurencyjności systematycznie traconej w wyniku inflacji.

Dodatkowym problemem jest fakt, że dewaluacja jest instrumentem nieobojętnym dla sąsiadów. Dewaluacja poprawia konkurencyjność danego kraju kosztem jego partnerów handlowych, zmuszając ich często również do dewaluacji. Konkurowanie krajów między sobą poprzez dewaluowanie waluty wprowadza zamieszanie i zakłócenia, nie przynosząc żadnych trwałych korzyści.

Osłabienie waluty nie jest rozwiązaniem cudownym, które może zastąpić zdrową politykę makroekonomiczną. Jest instrumentem, który aby nie zaszkodzić zdrowiu gospodarki kraju i jej sąsiadów nie powinien być nadużywany. Są jednak awaryjne sytuacje, w których wyjście gospodarki na prostą jest bez dewaluacji bardzo trudne i może okazać się niemożliwe. Nie przypadkowo wszystkie udane programy dostosowawcze w Ameryce Łacińskiej zawierały głęboką początkową dewaluację, która obniżała jednostkowy koszt pracy[15]/.

W awaryjnych przypadkach, gdy nastąpi strukturalne osłabienie konkurencyjności, osłabienie waluty połączone z odpowiednią polityką fiskalną i monetarną leży w interesie danego kraju i jego partnerów. Znacznie lepiej, jeśli kraj poprawi swoja konkurencyjność, co umożliwi mu wzrost gospodarczy, wzrost handlu i obsługiwanie zadłużenia, niż gdyby miał na trwałe pogrążyć się w stagnacji i być tylko obiektem pomocy ze strony wspólnoty międzynarodowej.

IV.             Czy unia fiskalna stanowić może lekarstwo na problem niekonkurencyjności niektórych krajów strefy euro?

Wielu obserwatorów uważa, że zasadniczym błędem przy wprowadzaniu euro było stworzenie unii monetarnej bez unii fiskalnej. Postuluje się więc często naprawienie tej wady poprzez powołanie na szczeblu UE/strefy euro organów uprawnionych do nakładania podatków i emisji długu na oraz stworzenie skuteczniejszych narzędzi wymuszających dyscyplinę fiskalną na poziomie państw członkowskich. Zwolennicy tego podejścia wydają się oczekiwać, że utworzenie unii fiskalnej usunie najpoważniejsze problemy w funkcjonowaniu strefy euro.

Wątpliwości wobec tego poglądu zwykle koncentrują na tym, czy jest politycznie realne stworzenie w ramach UE unii fiskalnej w pełnym tego słowa znaczeniu. Zwraca się uwagę, że budżet UE stanowi obecnie zaledwie 1% PKB Unii, podczas, gdy przed wybuchem światowego kryzysu finansowego budżet federalny USA stanowił blisko 20%. PKB, a budżety centralne poszczególnych krajów UE stanowiły od 14. do 43 % ich PKB.

Abstrahując od realności stworzenia unii fiskalnej, warto postawić pytania:

1)      Czy utworzenie w UE realnej unii fiskalnej zapobiegnie powstawaniu w przyszłości problemów z konkurencyjnością poszczególnych krajów UE?

2)      Czy unia fiskalna dostarczy instrumentów do radzenia sobie z takimi problemami?

Uważamy, że odpowiedź na oba pytania jest negatywna.

Ad 1) Unia fiskalna być może zmniejszy ryzyko nieodpowiedzialnej polityki budżetowej, lecz nie zapobiegnie powstawaniu problemów z konkurencyjnością wywołanych innymi przyczynami. Dalsze problemy z konkurencyjnością wynikające m.in. z nadmiernej ekspansji kredytu sektora prywatnego, napływu kapitału zagranicznego (w tym transferów unijnych) finansującego inwestycje w sektorach nie-eksportowych, szybszej poprawy konkurencyjności partnerów handlowych, zmian technologicznych lub demograficznych, bez wątpienia pojawiać się będą w przyszłości w niektórych krajach.

Ad 2) Nieuzasadnione jest oczekiwanie, że większe środki z budżetu centralnego EU (lub strefy euro) mogłyby umożliwić rozwiązanie problemu obniżonej konkurencyjności niektórych krajów. O wątpliwej skuteczności polityk strukturalnych i fiskalnej mających prowadzić do poprawy konkurencyjności zacofanych regionów w ramach jednego obszaru walutowego świadczą przykłady Wschodnich Niemiec i Południowych Włoch.

Przeliczenie, w momencie zjednoczenia Niemiec w 1990 roku, płac w Niemczech Wschodnich z marki wschodniej na markę zachodnią według parytetu 1:1 spowodowało, że większość wschodnioniemieckiej gospodarki stała się niekonkurencyjna względem Zachodu. Od chwili zjednoczenia, Niemcy Wschodnie są beneficjentem transferów fiskalnych, które do roku 2009 wyniosły około 2000 mld euro[16]/. Kwota ta odpowiada ok 80% PKB Niemiec i około 700% PKB Niemiec Wschodnich z roku 2010. Roczne transfery wynosiły średnio ponad 4% PKB Niemiec i ponad 25% PKB Niemiec Wschodnich[17]/. Efekt doganiania wystąpił w pierwszej połowie lat 1990-tych. Później proces się prawie zatrzymał. Udział Niemiec Wschodnich w PKB Niemiec od 1996 roku utrzymuje się na stałym poziomie, natomiast dochód na głowę w Niemczech Wschodnich rośnie w wyniku zmniejszania się liczby ludności wschodnich landów, która w relacji do zachodnich landów zmniejszyła się z 27% na początku transformacji do 21% w roku 2007. Młodzi i wykształceni ludzie emigrują z Niemiec Wschodnich ze względu na bezrobocie – od kilkunastu lat dwukrotnie wyższe niż na Zachodzie – i brak perspektyw[18]/.

Południowe Włochy od kilkudziesięciu lat są obiektem polityki strukturalnej mającej zmniejszyć lukę konkurencyjności w stosunku do północy kraju.  Obecnie transfery z tego tytułu wynoszą 4% PKB Włoch, co stanowi 16% PKB Włoch Południowych[19]/. Pewne zmniejszenie luki rozwojowej nastąpiło w latach 1960-tych. Później jednak nie było trwałego postępu w konwergencji i od 40 lat PKB na jednego mieszkańca oscyluje w granicach 55-65% poziomu na Północy[20]/. Południe osiąga tylko 46% poziomu Północy pod względem PKB wytwarzanego w sektorze prywatnym na jednego mieszkańca oraz zaledwie 18% pod względem wartości eksportu (bez produktów paliwowych) na jednego mieszkańca. Stopa bezrobocia na Południu jest dwukrotnie wyższa niż na Północy[21]/.

Te dwa przykłady pokazują niską skuteczność krajowych programów „podciągania” niekonkurencyjnych regionów, mimo nakładów nieproporcjonalnie większych niż to, co można sobie wyobrazić w ramach europejskiej unii fiskalnej. Trudno bowiem zakładać, żeby niekonkurencyjne kraje strefy euro mogły liczyć na stałe wieloletnie dotacje rzędu 25% PKB rocznie, jak w we Wschodnich Niemczech, czy 16% PKB rocznie jak w Południowych Włoszech.


V.    Czy doświadczenie Łotwy oraz przypadki ekspansywnych dostosowań fiskalnych dają podstawy do nadziei na skuteczność polityki „wewnętrznej dewaluacji”?

Ekonomiści uważający, że polityka „wewnętrznej dewaluacji” realizowana za pomocą redukcji wydatków budżetowych może być dziś skutecznym rozwiązaniem dla zagrożonych gospodarek strefy euro, powołują się często na doświadczenia Łotwy, a także na przypadki krajów, w których zdecydowana redukcja deficytu budżetowego stała się impulsem do przyspieszenia wzrostu gospodarczego, czyli innymi słowy pojawiły się ekspansywne skutki zacieśnienia fiskalnego.

Łotwa, kraj liczący 2,3 miliona mieszkańców, nie należy do strefy euro, lecz od wielu lat ma swoją walutę sztywno powiązaną z euro. Przez kilka lat przed wybuchem światowego kryzysu finansowego Łotwa cieszyła się bardzo wysokim tempem wzrostu gospodarczego, którego motorem był boom kredytowy, zasilany pożyczkami, jakie łotewskie banki otrzymywały od swoich matek ze Skandynawii[22]/. W wyniku wzrostu płac przekraczającego znacznie tempo wzrostu wydajności pracy w sektorach wytwarzających dobra podlegające wymianie międzynarodowej, następowała szybka erozja konkurencyjności. Deficyt na rachunku bieżącym osiągnął w 2007 roku monstrualny poziom 22% PKB. W 2008 roku, wraz z wybuchem światowego kryzysu finansowego, zakończył się dopływ zagranicznych pożyczek i załamał się rynek nieruchomości. Łotwa zmuszona została do szybkiej poprawy konkurencyjności i zamknięcia deficytu na rachunku obrotów bieżących. Rząd zdecydował się na utrzymanie istniejącego kursu walutowego i wdrożył program „wewnętrznej dewaluacji”. W latach 2009-2010 Łotwa dokonała głębokich cięć wydatków budżetowych, a także zwiększyła niektóre dochody. Łącznie dostosowania fiskalne wyniosły 15% PKB. W latach 2008-2010 PKB obniżyło się łącznie o 21%, lecz w roku 2011 gospodarka weszła już na ścieżkę wzrostu. Mimo realizacji tak trudnego programu gospodarczego premier Valdis Dabrovskis odniósł sukces w wyborach parlamentarnych w październiku 2010 roku i utrzymał się na stanowisku także po kolejnych – przedterminowych – wyborach we wrześniu 2011 roku, w których największą liczbę głosów otrzymała opozycyjna partia reprezentująca mniejszość rosyjską. Przypadek Łotwy wskazywany jest jako przykład, że wewnętrzna dewaluacja może być skutecznym instrumentem przywracania konkurencyjności i rząd posługujący się takim instrumentem nie musi wcale stracić poparcia wyborców.

Przypadek Łotwy warto jednak zestawić z przypadkiem Islandii. Przed rokiem 2008 w Islandii – kraju liczącym zaledwie 320 tysięcy mieszkańców – podobnie jak na Łotwie miał miejsce szybki wzrost bilansów banków finansowany napływem zagranicznego kapitału pożyczkowego i ekspansja sektora budowlanego. Deficyt rachunku obrotów bieżących w obu krajach osiągał przed kryzysem zbliżony poziom ponad 20% PKB. Z chwilą wybuchu światowego kryzysu finansowego oba kraje straciły źródła dopływu kapitału finansującego ich wzrost, przeżyły głębokie załamanie sektora nieruchomości budowlanych i szok w sektorze finansowym – którego skala w Islandii była znacznie większa niż na Łotwie. Oba kraje dokonały głębokich dostosowań fiskalnych, a także uzyskały wsparcie od Unii Europejskiej i Międzynarodowego Funduszu Walutowego. Oba kraje po załamaniu w latach 2008-2010, w roku 2011 odnotowały wzrost PKB.

Koszty dostosowania w Islandii były jednak znacznie mniejsze niż na Łotwie. Spadek PKB w latach 2008-2010 był o połowę mniejszy niż na Łowie. Spadek zatrudnienia w Islandii wyniósł tylko 5% wobec 17% na Łotwie. Wyjaśnieniem znacznie mniejszych ekonomicznych i społecznych kosztów dostosowania w Islandii może być fakt, że nastąpiła tam dewaluacja waluty krajowej poprawiająca konkurencyjność gospodarki. Islandia miała płynny kurs walutowy i nominalna wartość jej waluty obniżyła się w roku 2008 o około 50%. Dalszemu spadkowi zapobiegło m.in. wprowadzenie ograniczeń wymiany walut. Część poprawy konkurencyjności została zniwelowana przez wywołaną dewaluacją inflację, lecz mimo to pod koniec 2011 roku islandzka waluta była realnie o ponad 30% słabsza niż w przed wybuchem kryzysu[23]/. W efekcie, płace w gospodarce w przeliczeniu na waluty zagraniczne stały się niższe, co poprawiło konkurencyjność islandzkich produktów. Tymczasem na Łotwie, choć rząd dokonał głębokiej redukcji płac w sektorze publicznym, które w roku 2010 były o około 20% niższe niż w roku 2008, to płace w przemyśle obniżyły się zaledwie o 2%[24]/. W świetle tych danych, Łotwa stanowi laboratoryjny przykład nieskuteczności „wewnętrznej dewaluacji” jako metody poprawy konkurencyjności gospodarki. Dostosowanie rachunku obrotów bieżących na Łotwie dokonało się bowiem nie poprzez poprawę konkurencyjności, lecz poprzez głęboki spadek zatrudnienia i spadek PKB.

Analiza przypadków ekspansywnych skutków zacienienia fiskalnego tzn. sytuacji, w których ograniczenia fiskalne nie hamują wzrostu, lecz powodują jego przyspieszenie, wskazuje, że nadzieje na pojawienie się takiego zjawiska w zagrożonych gospodarkach strefy euro nie mają realnych podstaw[25]/. Ekspansywne skutki zacieśnienia fiskalnego pojawiają się bowiem wtedy, gdy hamującemu popyt zacieśnieniu fiskalnemu towarzyszą inne dostatecznie silne stymulujące wzrost czynniki, takie jak osłabienie waluty lub spadek inflacji i stóp procentowych. Znaczne osłabienie waluty poprawiające konkurencyjność i powodujące wzrost eksportu było czynnikiem stymulującym ekspansję gospodarki w przypadku  zacieśnienia fiskalnego w  Irlandii w latach 1987-89, Finlandii w latach 1992‐98 i Szwecji w latach 1993‐98. Przy czym w Irlandii osłabienie waluty bezpośrednio poprzedziło okres zacieśnienia fiskalnego, a  w Finlandii i Szwecji następowało w jego trakcie. Z kolei w przypadku Danii (w latach 1983-1986), czynnikiem stymulującym wzrost gospodarki był towarzyszący zacieśnieniu fiskalnemu spadek inflacji (z bardzo wysokich poziomów) i obniżenia stóp procentowych (również z bardzo wysokich poziomów). Na wystąpienie tych czynników wzrostu w przypadku zagrożonych krajów strefy euro trudno obecnie liczyć, w sytuacji gdy kraje te nie mają własnej waluty, a także nie ma możliwości bardzo znaczącego spadku inflacji i stóp procentowych (gdyż inflacja jest obecnie na umiarkowanym poziomie, a stopy procentowe są bardzo niskie).

VI.             Europa, USA, państwa narodowe i zacofane regiony, a obszar jednej waluty

W poprzednich rozdziałach uzasadnialiśmy pogląd, że możliwość dostosowania kursu walutowego jest bardzo skutecznym i trudnym do zastąpienia instrumentem umożliwiającym odzyskanie utraconej konkurencyjności. Natomiast region lub kraj znajdujący się wewnątrz większego obszaru walutowego, który utraci konkurencyjność nie mając możliwości dewaluacji waluty, może być skazany na długotrwałą niemożność poprawy swojej sytuacji. W niniejszym rozdziale zastanawiamy się, jakie z tych konstatacji wynikają wnioski dotyczące możliwości funkcjonowania jednej waluty w Europie.

Zwolennicy jednego obszaru walutowego w Europie powołują się często na przykład Stanów Zjednoczonych. USA mają podobnego rzędu co Europa terytorium, liczbę ludności i poziom rozwoju gospodarczego. Tym niemniej jedna waluta funkcjonuje w USA bez zakłóceń. Dlatego zgodnie z tym poglądem, wspólna waluta może również doskonale funkcjonować w Europie, pod warunkiem zwiększenia zakresu integracji fiskalnej i zniesienia utrudnień w przepływie siły roboczej i kapitału. Naszym zdaniem, jednym z istotnych czynników umożliwiających funkcjonowanie jednej waluty w USA jest to, że obszar walutowy pokrywa się w znacznej mierze z obszarem państwowości amerykańskiej, która stanowi podstawowe źródło tożsamości i identyfikacji obywateli. Warto pamiętać, że istotnym etapem budowy tej wspólnej tożsamości i przemiany dobrowolnej unii suwerennych stanów w jednolite państwo była wyniszczająca Wojna Secesyjna 1861-1865. Dziś do cementowania amerykańskiej identyfikacji przyczynia się jeden oficjalny język, wspólna tradycja i powszechne uznanie legitymacji władz federalnych. Wspólny język ułatwia także mobilność zawodową. Problem niekonkurencyjności wielu regionów jest w znacznym stopniu łagodzony przez przemieszczanie się mieszkańców pomiędzy regionami i stanami. Procesy te nie zagrażają spójności narodu amerykańskiego, lecz nawet ją umacniają.

W przeciwieństwie do USA, Europa jest złożona z państw grupujących narody używające różnych języków i scementowane przez odrębne tradycje historyczne i kulturowe. Państwa narodowe stanowią główne ośrodki identyfikacji i tożsamości obywateli, a także źródła legitymizacji organów władzy. Nie jest to sytuacja przejściowa. Socjolog Edmund Wnuk-Lipiński pisze:

  • „… państwa narodowe, tworzące Unię Europejską, nie tracą swej tożsamości i nic nie wskazuje na to, by miały ją stracić w przyszłości na rzecz jakiejś nowej tożsamości europejskiej”.[26]/
  • „Przede wszystkim mało realistyczne jest założenie, iż wiek XXI będzie wolny od poważniejszych konfliktów ekonomicznych i konfliktów zbrojnych przekraczających lokalną skalę. Każdy poważniejszy kryzys ekonomiczny raczej wzmacnia państwo narodowe niż je osłabia.”[27]/
  • „Państwo narodowe jest i najprawdopodobniej pozostanie kluczowym aktorem globalnej areny politycznej, a zarazem w coraz większym stopniu ujawniać się będzie jego rola jako mediatora między siłami społecznymi i ekonomicznymi działającymi w skali globalnej a podobnymi silami operującymi w skali lokalnej.”[28]/

Naszym zdaniem, problemy z konkurencyjnością mają zupełnie inny wymiar, gdy dotyczą zacofanych regionów w poszczególnych państwach, a inny – znacznie poważniejszy – gdy dotyczą całego państwa. W wielu krajach występują regiony, które przez długi okres są ekonomicznie niekonkurencyjne. Podawaliśmy wyżej przykłady Wschodnich Niemiec i Południowych Włoch. W Polsce przykładem niekonkurencyjnego regionu jest Województwo Warmińsko-Mazurskie, gdzie stopa bezrobocia jest najwyższa w kraju i przekracza obecnie 21%. Młodzi ludzie z Mazur myślący o karierze zawodowej wyjeżdżają do Warszawy lub Gdańska, jednocześnie na Mazurach kupują ziemię i budują sobie domy wakacyjne przedstawiciele klasy średniej z innych części Polski. Według wieloletnich prognoz region ten będzie się wyludniał w stosunku do pozostałych części kraju. Nikt nie proponuje jednak, aby dla poprawy konkurencyjności regionu ustanowić tam osobną strefę walutową. Wyjazd ludzi z Warmii i Mazur do innych części kraju i osiedlanie się tam przybyszów z innych części Polski nie zagraża bytowi wspólnoty, z którą ludzie identyfikują się najbardziej. Nie grozi dezintegracją państwa.

Czy zakładamy, że w ten sam sposób miałyby zostać rozwiązane lub złagodzone problemy niekonkurencyjności Grecji, Hiszpanii czy całych Włoch? Czy przyjmujemy, że rozwiązaniem problemu niekonkurencyjności Grecji będzie wyjazd Greków do pracy w Niemczech i krajach Europy Północnej, natomiast w Grecji kupią sobie działki i zbudują domy wakacyjne zamożni Niemcy, Holendrzy i Skandynawowie? Jest to mało realne z przyczyn ekonomicznych i świadomościowych. Wyjazd dużej liczby osób w wieku produkcyjnym z Grecji i pozostawienie tam dużej liczby bezrobotnych i emerytów pogłębiał będzie deficyt systemu ubezpieczeń społecznych. Tak, jak Niemcy godzą się na duże transfery wspierające system ubezpieczeń społecznych we wschodnich landach, a w Polsce nikt nie przejmuje się skalą dotacji z innych województw do systemu ubezpieczeń społecznych w Województwie Warmińsko-Mazurskim, tak trudno oczekiwać, że kraje Europy będą skłonne trwale finansować deficyt systemu ubezpieczeń społecznych jakiegoś kraju europejskiego. Jak pisze Mirosław Czech: „Po greckiej lekcji wiemy, że niemiecki podatnik nie pozwoli wziąć na swój garnuszek polskich (greckich, hiszpańskich czy bułgarskich) emerytów”[29]/.

Brak perspektyw dotyczący całego państwa i skazanie społeczności narodowej na perspektywę wymuszonego rozpłynięcia się w Europie może doprowadzić do znacznie większych napięć, szczególnie gdy dotyczyć będzie krajów tak dużych jak Hiszpania lub Włochy. A sytuacja taka dotyczyć może także innych krajów, które będą w strefie euro i w przyszłości z nieprzewidywanych dzisiaj przyczyn popadną w kłopoty z konkurencyjnością.

Warto pamiętać, że Unia Europejska jest efektem procesu integracji, który miał być w założeniu antidotum na narodowe konflikty, które doprowadziły do dwóch straszliwych wojen światowych. Unia Europejska i jej instytucje zostały powołane przez państwa członkowskie, po to, by służyć poprawie ich bytu i bezpieczeństwa. Dotychczasowa integracja oparta była na filozofii respektowania potrzeb wszystkich członków, przyjmowaniu rozwiązań, które nikomu nie zagrażając są korzystne dla wszystkich. Dzięki respektowaniu tej filozofii możliwy był dotychczasowy sukces Unii Europejskiej i wspólnego rynku.

Wprowadzenie wspólnej waluty paradoksalnie zagraża dotychczasowej filozofii integracji europejskiej. Państwa członkowskie pozbawione zostały możliwości posługiwania się bardzo skutecznym i trudnym do zastąpienia w sytuacjach awaryjnych instrumentem dostosowawczym, jakim jest możliwość zmiany kursu walutowego. Jednocześnie nie ma żadnego instrumentu, który mógłby ten brak skutecznie zastąpić. W efekcie, państwo członkowskie, które z jakichś powodów utraci konkurencyjność lub będzie zmuszone w krótkim czasie zlikwidować deficyt na rachunku obrotów bieżących, może zostać w praktyce skazane na degradację gospodarczą, społeczną i cywilizacyjną, bez możliwości poprawy tej sytuacji.

Niektórzy obserwatorzy sądzą, że przyspieszy to proces tworzenia kosmopolitycznej społeczności europejskiej i upadek nacjonalistycznych zmór. Sadzimy, że może być odwrotnie. Obecny brak konfliktów między największymi narodami Unii Europejskiej nie wynika z faktu, że tożsamość i identyfikacja narodowa zanikła, lecz z faktu, że stworzono ramy współpracy europejskiej, które poszczególne państwa członkowskie uznały za korzystne. W przypadku, gdy w jakiejś społeczności narodowej rozpowszechni się przekonanie, że przyjęte w ramach UE/strefy euro rozwiązania skazują dane państwo na degradację ekonomiczną i społeczną, a zarazem przynoszą korzyści innym, zmory populistyczne i nacjonalistyczne odezwać się mogą z zaskakującą siłą. Warto pamiętać, ze stagnacja gospodarcza, wysokie bezrobocie, brak perspektyw oraz poczucie niesprawiedliwości i dyskryminacji w traktowaniu własnego kraju przez rządzące potęgi były w przeszłości pożywką dla rozwoju ruchów radykalnych, które podważyły porządek demokratyczny i pokój w Europie.

Ponieważ dostosowanie kursu walutowego jest skutecznym i trudnym do zastąpienia instrumentem dostosowawczym poprawiającym w sytuacji awaryjnej konkurencyjność ekonomiczną danego obszaru walutowego, racjonalne jest, by możliwość posługiwania się tym instrumentem była ulokowana na poziomie wspólnoty, z którą obywatele najsilniej się identyfikują i której gotowi są powierzyć najwięcej odpowiedzialności za ich zbiorowy los. W przypadku Unii Europejskiej tym optymalnym poziomem jest państwo członkowskie. W sytuacji utraty konkurencyjności, brak możliwości zapobiegnięcia degradacji ekonomicznej i społecznej poprzez dostosowanie kursu walutowego może w poszczególnych państwach członkowskich doprowadzić do zachwiania spójności społecznej i politycznej, rozwoju populizmu i radykalnego nacjonalizmu zagrażających porządkowi demokratycznemu i pokojowej współpracy międzynarodowej. Dlatego pozbawianie państw członkowskich własnej waluty może, wbrew intencjom, zamiast przyczynić się do dalszej integracji Europy, zagrozić przyszłości UE.

VII.          Jak można rozwiązać strefę euro?

Wielu obserwatorów zgadza się, że utworzenie strefy euro mogło być błędem, lecz uważa, że od decyzji tej nie ma odwrotu.

Rozwiązanie unii walutowej w warunkach stabilności i zbliżonej pozycji konkurencyjnej poszczególnych krajów nie jest zabiegiem ryzykownym. Przykładem może być rozwiązanie unii monetarnej między Czechami i Słowacją w 1993 roku i wprowadzenie nowych walut korony czeskiej i korony słowackiej w miejsce dotychczasowej korony czechosłowackiej. Odbyło się to bez szczególnych perturbacji.

Sytuacja wygląda inaczej w sytuacji, gdy pozycje konkurencyjne poszczególnych krajów są bardzo różne. Kraj, który już znajduje się w strefie euro, a ma problemy z konkurencyjnością gospodarki, nie może samodzielnie w sposób bezpieczny rozstać się z euro, gdyż grozi to paniką bankową. W przypadku zapowiedzi wyjścia ze strefy euro mieszkańcy rzuciliby się do banków, aby wyjąć swoje pieniądze, co doprowadziłoby do upadku systemu bankowego. Próba zapobieżenia temu przez czasowe zamknięcie banków czy ograniczenia wypłat depozytów byłaby bardzo trudna i obarczona olbrzymim ryzykiem. Trzeba w szczególności wziąć pod uwagę fakt, że operacja przygotowania i wprowadzenie nowej waluty musi zająć sporo czasu, a jej przygotowanie w tajemnicy w kraju demokratycznym nie wydaje się możliwe, a z kolei trudno jest zamrozić depozyty na kilka tygodni czy miesięcy. Zamrożenie depozytów z perspektywą utraty ich wartości w wyniku dewaluacji waluty stwarza również duże ryzyko zaburzeń społecznych[30]/.

 

Tego typu perturbacje nie grożą w przypadku, gdyby strefę euro opuścił kraj mający silną pozycję konkurencyjną, taki jak Niemcy. Posiadacze depozytów w bankach niemieckich nie obawialiby się bowiem zamiany euro na markę niemiecką, gdyż oczekiwaliby raczej, że po wprowadzeniu nowej waluty marka się umocni. Dlatego można w sposób kontrolowany doprowadzić do dekompozycji strefy euro poprzez stopniowe i uzgodnione wychodzenie ze strefy euro krajów najbardziej konkurencyjnych. Euro, przez pewien czas, pozostać może wspólną walutą w krajach obecnie najmniej konkurencyjnych[31]/.

VIII.      Mechanizm walutowy po dekompozycji strefy euro

Wraz z dekompozycją strefy euro konieczne będzie stworzenie nowego mechanizmu koordynacji walutowej w Europie.

Jako naturalny kandydat na nowy mechanizm kursowy jawi się nieortodoksyjny mechanizm kursu płynnego połączony z polityką celu inflacyjnego i wsparty koordynacją polityki fiskalnej i monetarnej w ramach Unii Europejskiej.

Postrzeganie kursu płynnego w literaturze przechodziło rozmaite fazy. W literaturze międzywojennej, głównie na podstawie doświadczeń francuskich z lat 1920-tych, kurs płynny postrzegany był jako immanentnie niestabilny i intensyfikujący wyjściowe nierównowagi w bilansie płatniczym. Późniejsze badania tych samych doświadczeń Francji doprowadziły część ekonomistów, w tym Miltona Friedmana, do rewizji tej krytyki i wniosku, że wysoka zmienność kursu waluty w tym systemie odzwierciedlała ówczesną niestabilność i nieprzewidywalność polityk fiskalnej i monetarnej[32]/. Zgodnie z tym poglądem, nie ma podstaw, by wątpić, że jeśli polityka fiskalna i monetarna są rozsądne i spójne, to system kursu walutowego może funkcjonować w sposób zadawalający.

W ramach systemu Bretton-Woods funkcjonującego w świecie zachodnim od zakończenia II Wojny Światowej do początku lat 1970-tych przyjęto zasadę, że kursy walutowe są sztywne, lecz mogą podlegać korekcie w przypadku, gdy uzasadniają to fundamentalne nierównowagi w obrotach handlowych. Wraz z postępującą liberalizacją przepływów kapitałowych utrzymywanie kursów sztywnych stawało się coraz trudniejsze, a mechanizm korygowania relacji kursowych nie funkcjonował należycie, gdyż decyzje o takich korektach były bardzo często wstrzymywane. Odejście od systemu Bretton-Woods rozpoczęło okres, w którym poszczególne kraje dokonywały prób z rozmaitymi wariantami systemów walutowych. Usiłowania powrotu do systemu podlegających korekcie sztywnych kursów walutowych kończyły się kilkakrotnie niepowodzeniem. Coraz więcej krajów wprowadzało kurs płynny starając się jednocześnie w rozmaity sposób ograniczyć naturalne słabości tego systemu, poprzez odejście od ortodoksyjnej koncepcji kursu płynnego i dopuszczenie rozmaitych form interwencji walutowej (systemy kursu płynnego, w których bank centralny dopuszcza możliwość interwencji walutowej, określamy mianem „nieortodoksyjnego” kursu płynnego).

Istotnym krokiem „w oswojeniu” kursu płynnego było powstanie koncepcji polityki bezpośredniego celu inflacyjnego, w której bank centralny publicznie ogłasza projektowany cel w zakresie poziomu inflacji i przyjmuje za priorytet osiągniecie tego celu poprzez odpowiednie kształtowanie stóp procentowych, a także stosowanie innych instrumentów polityki pieniężnej. Koncepcja ta zastosowana po raz pierwszy w Nowej Zelandii w latach 1980-tych, szybko zdobyła popularność wśród banków centralnych krajów rozwiniętych gospodarczo. Wprowadzenie celu inflacyjnego łagodzi istotną niedogodność towarzyszącą wcześniej systemowi kursu płynnego, jaką był brak punktu odniesienia dla kształtowania oczekiwań podmiotów gospodarczych. Określanie celu inflacyjnego daje taki punkt odniesienia, bez konieczności podporządkowania polityki monetarnej obronie określonego poziomu kursu walutowego[33]/. Barry Eichengreen kończy swoją monografię o międzynarodowym systemie walutowym stwierdzeniem, że choć płynny kurs walutowy nie jest najlepszym ze światów, to jest to chociaż rozwiązanie dostępne i możliwe do stosowania[34]/.

System nieortodoksyjnego kursu płynnego w poszczególnych krajach może być uzupełniony o koordynację polityki makroekonomicznej w UE, a w szczególności koordynację polityki fiskalnej (określanie limitów dla salda budżetu sektora finansów publicznych) oraz koordynację celów inflacyjnych, a także instrumentów stosowanych przez banki centralne dla realizacji celów inflacyjnych. W takich ramach kurs płynny służyłby bieżącemu korygowaniu nierównowag w bilansie płatniczym, koordynacja polityki fiskalnej i celu inflacyjnego w ramach UE ograniczałaby wahania kursu wynikające z nieprzewidywalności i niespójności polityki makroekonomicznej, a jednocześnie ograniczona byłaby możliwość prowadzenia, pod ochroną kursu płynnego, nadmiernie ekspansywnej polityki fiskalnej lub monetarnej.

Mechanizm kursu płynnego jako podstawowy mechanizm dostosowań kursowych w Europie nie wykluczałby możliwości prowadzenia przez niektóre kraje polityki związania swoich walut z walutą silnego partnera. Przykładem takich rozwiązań jest sztywne powiązanie z marką niemiecką m.in. szylinga austriackiego i guldena holenderskiego przed wprowadzeniem euro, a także obecne sztywne powiazanie kursu korony duńskiej z kursem euro. Tego typu rozwiązanie daje możliwość w sytuacji awaryjnej szybkiego „odwiązania” waluty od waluty partnera i uwolnienie kursu lub dokonanie jednorazowej korekty. Oczywiście, po to, by takie „odwiązanie” waluty było w praktyce możliwe bez dramatycznych perturbacji gospodarczych, konieczne są rozwiązania systemowe przeciwdziałające powszechnemu denominowaniu kontraktów w walucie zagranicznego partnera.

Drugim dopuszczalnym mechanizmem kursowym po rozpadzie strefy euro mógłby być mechanizm wzorowany na Europejskim Systemie Monetarnym (ESM) z 1979 roku. W systemie tym możliwe byłoby wygaszanie zmienności kursu waluty, ustalenie przedziałów wahań, czy tez obrona wyznaczonego poziomu kursu (a raczej zapobieżenie dalszej deprecjacji słabej waluty) poprzez zobligowanie państw z silną walutą do udzielania nieograniczonego wsparcia w postaci interwencji na rynku walutowym (a nawet do transferu rezerw walutowych, czego nie udało się dokonać w oryginalnym ESM). W systemie takim ciągle możliwa byłaby, tak zresztą, jak we wspomnianym ESM, zmiana wyznaczonych przedziałów zmienności kursów, jeśli zaistniałyby okoliczności (nierównowagi bilansów płatniczych, wzrost inflacji) uniemożliwiające obronę ustalonych poziomów. Możliwa byłaby również renegocjacja ustalonych centralnie kursów walut[35]/. Mechanizm taki, ze względu na możliwość systematycznej zmiany kursów centralnych, wolny byłby od wad rozwiązań sugerujących jednorazową rewizję kursów parytetowych w ramach istniejącej strefy euro[36]/.

Historia poszukiwania metod koordynacji walutowej się nie skończyła i będą prawdopodobnie powstawały nowe podejścia pozwalające lepiej „oswoić” płynny kurs walutowy z celami stabilizacji makroekonomicznej oraz koordynacji międzynarodowej, bądź też rozwiązania zwiększające efektywność funkcjonowania systemu przedziałów walutowych.

Nasze uwagi w niniejszym rozdziale służą przede wszystkim temu, by uzasadnić pogląd, że istnieją alternatywy dla systemu jednej waluty w Europie. Nie są one doskonałe, lecz naszym zdaniem są znacznie bezpieczniejsze dla pomyślności gospodarczej, społecznej i cywilizacyjnej Europy, niż rozwiązania, które wydają się proste i idealne, takie jak system oparty o parytet złota lub system jednej waluty europejskiej. Warto przypomnieć, że pomyślny rozwój gospodarki, a także rozwój pokojowej współpracy europejskiej, może się odbywać w ramach systemu walutowego, który nie jest perfekcyjny, a takim był system z Bretton Woods w latach 1945-1970. Natomiast próby wprowadzenia doskonałego systemu walutowego grożą katastrofą społeczną i ekonomiczną. Do katastrofy takiej przyczynił się system waluty opartej na parytecie złota w okresie międzywojennym, a obecnie jest bardzo prawdopodobne, że katastrofę taką może spowodować uporczywa obrona sytemu jednej waluty w Europie.

IX.             Ostrzeżenia i argumenty przeciwko dekompozycji strefy euro

W tym rozdziale odnosimy się do popularnych argumentów i ostrzeżeń przed dekompozycją strefy euro.

Argument ekonomicznej katastrofy

Według niektórych opinii rozwiązanie strefy euro musi doprowadzić do ekonomicznej katastrofy. Ekonomiści szwajcarskiego banku UBS szacują, że dla zagrożonej gospodarki (z grupy PIIGS[37]) wystąpienie ze strefy euro spowoduje w pierwszym roku straty odpowiadające 40-50% PKB, a w przypadku gospodarki silnej, takiej jak Niemcy, wyjście ze strefy euro oznaczać będzie straty wysokości 20-25% PKB[38]/. Wnioski ekonomistów UBS są efektem przyjętych założeń, że wyjście kraju ze strefy euro spowoduje rozpad jednolitego rynku (lub odcięcie wychodzącego kraju od tego rynku), wprowadzenie barier celnych i dramatyczne załamanie handlu. Wnioski będą zupełnie inne, jeśli przyjmiemy, że następuje uporządkowane rozwiązanie strefy euro i jednolity rynek zostaje utrzymany. Ponadto, ekonomiści UBS nie porównują kosztów wyjścia ze strefy euro z kosztami, jakie będzie trzeba ponieść w przypadku pozostawania w strefie euro. Na przykład w swoim rachunku kosztów wyjścia Niemiec ze strefy Euro uwzględniają koszty 50-procentowej redukcji długu Grecji, Portugalii i Irlandii, tak jakby koszty takie występowały tylko w wariancie wyjścia Niemiec ze strefy Euro. Tymczasem, jeżeli strefa euro zostanie utrzymana, to koszty niewypłacalności krajów PIIGS (na razie Grecji) tez trzeba będzie ponosić, a naszym zdaniem będą one znacznie większe niż mogą być w wariancie kontrolowanego wyjścia Niemiec ze strefy Euro.

Ekonomiści UBS ponadto przyjmują, że jest możliwe przezwyciężenie kryzysu strefy euro, a obrona jednolitej waluty nie zagraża przyszłości UE i jednolitego rynku.

Nie odmawiamy nikomu prawa przyjmowania powyżej przedstawionych założeń i przekonania, że rozwiązanie strefy byłoby katastrofą. Za nieporozumienie uważamy jednak powoływanie się na szacunki ekonomistów UBS jako obiektywne uzasadnienie dla tezy o szkodliwości rozwiązania strefy euro. Teza o szkodliwości rozwiązania strefy euro wynika już wprost z samych przyjmowanych założeń, niezależnie od tego, czy szacunki liczbowe są wiarygodne. Jest oczywiste, że przy założeniach, jakie przyjmują ekonomiści UBS, rozwiązanie strefy euro byłoby szkodliwe dla wszystkich i nie miałoby sensu.

Naszym zdaniem, prawdopodobieństwo skutecznego rozwiązania obecnego kryzysu bez przebudowy strefy euro jest mało prawdopodobne ze względu na brak dostępności skutecznych instrumentów, o czym pisaliśmy wyżej. Uważamy ponadto, że nawet w przypadku zrealizowania się bardzo optymistycznego scenariusza utrzymania strefy euro dzisiaj, będzie ona podatna na kolejne kosztowne perturbacje w przyszłości, ponieważ Europa nie jest optymalnym obszarem walutowym. Unia Europejska i jednolity rynek mogą funkcjonować bez jednej waluty i funkcjonowały tak z powodzeniem przed wprowadzeniem euro. Proponujemy, aby dekompozycję strefy euro przeprowadzić w sposób uzgodniony i kontrolowany, tak aby zachować UE i jednolity rynek europejski, a jednocześnie wprowadzić mechanizm koordynacji walutowej, który umożliwi ograniczenie skali aprecjacji nowej waluty Niemiec w okresie przejściowym. Dekompozycja strefy euro, przy utrzymaniu UE i jednolitego rynku, może relatywnie poprawić sytuację krajów PIIGS, co umożliwi im wzrost gospodarczy. Taki sposób rozwiązania problemów krajów PIIGS przyniesie korzyści dla wszystkich krajów strefy euro w porównaniu do wariantu niebezpiecznej kontynuacji polityki „wewnętrznej dewaluacji”.

Niebezpieczeństwo aprecjacji nowej waluty niemieckiej i recesji w Niemczech

 

Jak dotąd, przedsiębiorstwa niemieckie są głównym beneficjentem wprowadzenia euro. W okresie od wprowadzenia euro do wybuchu światowego kryzysu finansowego niemiecka nadwyżka handlowa wzrosła z 65 mld euro stanowiących 3,2 % PKB w roku 1999 do 198 mld euro tj. 8,1% PKB w roku 2007. W tym czasie bilans handlowy całej strefy euro nie uległ większym zmianom i pozostał zrównoważony. Ten olbrzymi wzrost niemieckiej nadwyżki handlowej o kwotę 133 mld euro między rokiem 1999 a 2007 był efektem wzrostu nadwyżki w handlu wewnątrz strefy euro. Wzrostowi nadwyżki handlowej Niemiec, a także Holandii i Austrii (łącznie o 166 mld euro), towarzyszyło w latach 1999-2007 pogorszenie bilansu handlowego Hiszpanii, Francji, Grecji, Włoch, Belgii i Portugalii łącznie o 178 mld euro.

Sytuacja, w której Niemcy osiągają wysoką nadwyżkę handlową, a kraje mniej konkurencyjne generują duży deficyt handlowy i pogrążają się w zapaści ekonomicznej, jest na dłuższą metę nie do utrzymania, chyba, że Niemcy będą bezpośrednio lub pośrednio finansowały te deficyty. Jeżeli przywództwo Niemiec doprowadzi do zamierzonego wprowadzenia zdrowych zasad makroekonomicznych w strefie euro, to efektem tego będzie również zmniejszenie deficytów handlowych mniej konkurencyjnych krajów, co z kolei oznaczać będzie zmniejszenie nadwyżki Niemiec, chyba, że w tym czasie wzrośnie istotnie nadwyżka handlowa całej strefy euro. Możliwe są różne scenariusze wydarzeń, lecz naszym zdaniem najbardziej prawdopodobne jest, że utrzymywanie strefy euro i kontynuacja polityki deflacyjnej powodować będzie jednoczesne hamowanie wzrostu i obniżanie niemieckiej nadwyżki handlowej, a w przypadku chaotycznego rozpadu strefy euro, zrównoważenie obrotów nastąpi najprawdopodobniej w sytuacji głębokiego załamania gospodarczego, które dotknie całą Europę, w tym Niemcy. Uwzględniając te ryzyka, z punktu widzenia Niemiec racjonalna jest kontrolowana dekompozycja strefy euro i przejście do mechanizmu walutowego, który wszystkim krajom UE stworzy szanse wzrostu gospodarczego i nie będzie generował zagrożeń dla trwałości UE i jednolitego rynku. Przyspieszenie wzrostu niekonkurencyjnych krajów strefy euro i związane z tym zwiększenie wolumenu handlu międzynarodowego, stwarza szanse na zrównoważenie wewnątrzeuropejskich obrotów w warunkach wzrostu gospodarczego w Europie i w Niemczech, nawet jeśli towarzyszyć temu będzie umocnienie nowej niemieckiej waluty. W przypadku wychodzenia Niemiec ze strefy euro celowe będą uzgodnienia między bankami centralnymi w celu zapobieżenia nadmiernej aprecjacji nowej waluty Niemiec w okresie przejściowym.

Obawa przed osłabieniem pozycji Europy wobec USA, Chin i Indii

Argumentem, który przemawia do wielu obserwatorów, jest to, że rezygnacja ze wspólnej waluty osłabi pozycję UE wobec potęg gospodarczych USA, Chin i Indii. Euro jest dziś jedną z najważniejszych walut świata, natomiast waluta żadnego z poszczególnych krajów Europy nie będzie miała podobnego statusu. Cytowani ekonomiści UBS stwierdzają, że po rozpadzie strefy euro poszczególne kraje europejskie, nawet te największe, będą ledwie słyszalne na arenie międzynarodowej[39]/.

Pogląd, że rezygnacja ze wspólnej waluty obniży pozycję Europy, jest słuszny pod warunkiem, że wspólna waluta nie osłabia Europy. Jeżeli jednak istnienie wspólnej waluty hamuje rozwój gospodarczy i grozi konfliktami zagrażającymi istnieniu Unii Europejskiej, jednolitego rynku i pokojowej współpracy w Europie, to z pewnością nie będzie czynnikiem umacniającym międzynarodową pozycję Europy, lecz wręcz przeciwnie, będzie tę pozycję osłabiać. Unia Europejska z wieloma walutami narodowymi, lecz dobrze funkcjonującym jednolitym rynkiem oraz zasadami współpracy stwarzającymi wszystkim państwom członkowskim dobre perspektywy rozwoju, będzie miała silniejszą pozycję międzynarodową niż UE z jednolitą walutą, lecz sparaliżowana przez stagnację gospodarczą, problemy i konflikty wewnętrzne, i poszukująca pomocy zewnętrznej nie tylko w USA, lecz również w Chinach, a w przyszłości pewnie i w Indiach.

X.    Co może się zdarzyć w przypadku kontynuacji uporczywej obrony euro

W tym rozdziale omawiamy najbardziej prawdopodobne warianty wydarzeń w przypadku kontynuacji uporczywej obrony euro i kontynuacji polityki „wewnętrznej dewaluacji”/deflacji: 1) scenariusz trwalej zapaści politycznej i społecznej niekonkurencyjnych państw oraz 2) scenariusz nieskoordynowanego rozpadu strefy euro. Odnotowujemy także mniej prawdopodobny, lecz niewykluczony scenariusz optymistyczny, w którym kryzys strefy euro zostanie rozwiązany w wyniku wystąpienia wewnętrznych lub zewnętrznych czynników łagodzących: 1) Złagodzenie i rozwiązanie kryzysu strefy euro w wyniku zewnętrznych impulsów wzrostu wskutek ożywienia w gospodarce światowej 2) Złagodzenie i rozwiązanie kryzysu strefy euro w wyniku istotnego osłabienia euro i wypracowania przez strefę euro jako całość wysokiej nadwyżki handlowej 3) Złagodzenie i rozwiązanie kryzysu w skutek znacznie lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”.

Długotrwała zapaść gospodarcza i społeczna zagrożonych państw strefy euro

Kontynuacja polityki „wewnętrznej dewaluacji” będzie powodować zapaść gospodarczą w zagrożonych krajach strefy euro.

Stanisław Gomułka ocenia, że zacieśnienie fiskalne stosowane w Grecji, będące jednocześnie warunkiem uzyskania zewnętrznej pomocy, spowoduje prawdopodobnie spadek PKB o około 20% i utrzymywanie stopy bezrobocia na poziomie 20-25% przez kilka lat[40]/.

Martin Feldstein, były szef doradców ekonomicznych Prezydenta Reagana, uważa, że usiłowanie ograniczenia deficytu na rachunku obrotów bieżących we Włoszech, Hiszpanii i Francji poprzez politykę „wewnętrznej dewaluacji” spowodowałoby dekadę wysokiego bezrobocia i spadającego PKB, co byłoby strategią politycznie niebezpieczną i oznaczającą ekonomiczne marnotrawstwo[41]/.

Recesja w zagrożonych gospodarkach pogarszać będzie perspektywy spłaty ich zadłużenia. Powodowało to będzie konieczność kontynuacji programów bezpośredniego wsparcia finansowego lub wsparcia pośredniego przez Europejski Bank Centralny w odniesieniu do Grecji, Portugalii, Hiszpanii i Włoch. Rosnąć będą napięcia polityczne w zagrożonych krajach, a także napięcia między krajami i wzajemne negatywne sentymenty między narodami. Społeczeństwa krajów mających nadwyżkę na rachunku obrotów bieżących (przede wszystkim Niemcy) odczuwać będą i coraz głośniej wyrażać rosnące zdegustowanie niezdolnością krajów deficytowych (Grecja, Portugalia, Hiszpania i Włochy) do uporządkowania swoich gospodarek i będą coraz głośniej wyrażały niechęć do udzielania im wsparcia finansowego. Z kolei kraje deficytowe będą coraz częściej oskarżały kraje nadwyżkowe o to, że są beneficjentami i częściowo sprawcami ich kłopotów. Kolejnymi etapami zaostrzenia kryzysu może być wyraźne rozszerzenie grupy zagrożonych krajów o Belgię i Francję.

 

Ryzyko kryzysów politycznych i niekontrolowanego opuszczania strefy euro

 

Dynamika polityczna kryzysu wymknąć się może spod kontroli na poziomie poszczególnych krajów i na poziomie strefy euro i Unii Europejskiej. Poszczególne zagrożone kraje mogą stracić zdolność do kontynuacji polityki „wewnętrznej dewaluacji” w wyniku wyborów lub upadku rządu pod wpływem demonstracji i rozruchów ulicznych, tak jak to się stało w Argentynie w 2001 roku. Pozostałe kraje będą musiały zgodzić się na rozluźnienie wymagań i kontynuację wsparcia lub zaakceptować niewypłacalność kolejnych zagrożonych krajów. Niewypłacalność kolejnych krajów powodować będzie straty w bilansach banków i konieczność udzielania im wsparcia publicznego, co pogarszać będzie sytuację fiskalną kolejnych krajów. Jednocześnie straty banków i ich problemy kapitałowe powodować będą dalsze zacieśnienie polityki kredytowej, przyczyniając się do hamowania gospodarki i rozszerzania się recesji. Rosnąć będzie nacisk na zwiększanie zakresu zaangażowania Europejskiego Banku Centralnego, a jednocześnie opór niemieckiej opinii publicznej przed ”psuciem” euro i coraz dalszym odchodzeniem ECB od dobrych wzorów Bundesbanku. W tej sytuacji może dojść do niekontrolowanego opuszczania strefy euro w wyniku jednostronnych decyzji poszczególnych krajów.

Kraj, który w wyniku straty zdolności do kontynuacji polityki „wewnętrznej dewaluacji” utraci wsparcie pozostałych krajów strefy euro, ogłosi częściową niewypłacalność i nie będzie w stanie pozyskać środków na sfinansowanie niezbędnych wydatków, może zostać zmuszony do rozpoczęcia emisji własnej waluty, co może być poprzedzone emisją różnych form quasi pieniądza do regulowania zobowiązań wewnętrznych i wypłacania wynagrodzeń w sektorze publicznym.

 

Na emisję własnej waluty zdecydować się może również kraj z grupy gospodarek nadwyżkowych, który utraci zdolność do tolerowania psucia euro i rosnących kosztów fiskalnych wspierania zagrożonych gospodarek strefy euro.

W przypadku opuszczania strefy euro w wyniku jednostronnych decyzji poszczególnych krajów nasilać się będą wzajemne oskarżenia i negatywne sentymenty. Prawdopodobne będą retorsje w postaci barier dla handlu niszczących jednolity rynek. W takim przypadku prawdopodobne jest pogłębienie załamania gospodarki i nasilenie konfliktów wewnątrzkrajowych i międzypaństwowych w Europie.

Możliwość przezwyciężenia kryzysu i przetrwania strefy euro

Pomimo, iż proponowane dotychczas metody rozwiązania kryzysu zadłużeniowego i reanimacji strefy euro mają bardzo ograniczoną szansę doprowadzić do poprawy konkurencyjności zagrożonych krajów i naprawy ich bilansów płatniczych na tyle szybkiej, by uniknąć zaostrzania recesji i dalszej eskalacji kryzysu zadłużeniowego, to istnieje szansa przetrwania strefy euro w obecnej formie. Może to być efektem wystąpienia rozmaitych sprzyjających czynników.

Kryzys strefy euro może zostać powstrzymany w wyniku wystąpienia wewnętrznych lub zewnętrznych czynników łagodzących, takich jak: zewnętrzne impulsy wzrostu wskutek silniejszego niż się obecnie oczekuje ożywienia w gospodarce światowej, istotnego osłabienia euro i wypracowania przez strefę euro jako całość nadwyżki handlowej lub lepszych niż oczekujemy efektów przywracania konkurencyjności zagrożonych gospodarek poprzez politykę „wewnętrznej dewaluacji”.

Silne ożywienie w gospodarce światowej umożliwiłoby, przy utrzymaniu wewnętrznej nierównowagi w strefie euro, osiągnięcie na tyle wysokiego wzrostu, by zneutralizować negatywne krótkookresowe skutki polityki „wewnętrznej dewaluacji” w słabszych krajach. Ułatwiłoby to zagrożonym krajom wyjście z pętli deflacyjnej i pętli zadłużenia, zwiększając szansę na przetrwanie strefy euro. Pojawienie się silnego i nie epizodycznego zewnętrznego impulsu wzrostowego nie jest dzisiaj generalnie scenariuszem bardzo prawdopodobnym wobec wciąż niezakończonego procesu ograniczania nadmiernego zadłużenia gospodarki prywatnej w USA oraz ryzyka silniejszego hamowania jednego z silników globalnego wzrostu, czyli gospodarki chińskiej.

Podobny jak globalne ożywienie skutek dla strefy euro przyniosłoby istotne i względnie trwałe osłabienie europejskiej waluty[42]/. W sytuacji istotnej deprecjacji euro i wygenerowania dużej nadwyżki handlowej przez strefę euro jako całości, mniej konkurencyjne kraje strefy mogły mieć nadwyżki obrotów handlu zagranicznego mimo utrzymywania się deficytów w ich obrotach w ramach strefy euro. Nie bez znaczenia jest przy tym stosunkowo wysoki udział wymiany handlowej z państwami spoza strefy euro w przypadku krajów peryferii, co zwiększać będzie pozytywne skutki osłabienia euro dla ich bilansu handlowego. Szansę na istotną deprecjację euro dotychczas zmniejszały z jednej strony polityka słabego dolara prowadzona przez amerykański bank centralny, z drugiej strony zaś powszechne ściąganie kapitału z pozaeuropejskich banków zależnych przez europejskie grupy bankowe, co  – podobnie jak w przypadku Japonii po wydarzeniach w Fukushimie – prowadziło do paradoksalnego umocnienia waluty obszaru przechodzącego kryzys.

Rozwiązanie kryzysu strefy euro byłoby oczywiście znacznie bardziej prawdopodobne, gdyby polityka „wewnętrznej dewaluacji” przyniosła lepsze niż oczekujemy efekty w zakresie przywracania konkurencyjności. Nie można wykluczyć takiego przebiegu wydarzeń, choć naszym zdaniem przedstawione w poprzednich rozdziałach przykłady nie dają podstaw do takich nadziei.

Reasumując, nie można wykluczyć, że kombinacja wymienionych wyżej czynników lub któryś z tych czynników samodzielnie umożliwi przezwyciężenie obecnego kryzysu i strefa euro przetrwa. Fakt, że strefa euro przetrwa obecny kryzys nie musi jednak oznaczać, że będzie to kryzys ostatni. W przyszłości poważne problemy z konkurencyjnością mogą pojawić się w różnych krajach. Los kraju, który z jakiś przyczyn utraci konkurencyjność, będzie w ramach strefy euro zawsze nie do pozazdroszczenia.

Zakończenie

Unia Europejska i jednolity rynek europejski to wielkie osiągniecia, których warto i trzeba bronić. Wprowadzenie euro, mimo najlepszych intencji, okazało się natomiast błędem, z którego należy się wycofać. Istnienie jednolitej waluty jest trudne do pogodzenia z dotychczasową filozofią integracji europejskiej, której celem było tworzenie wszystkim państwom członkowskim warunków dla pomyślnego rozwoju. Tymczasem przynależność do strefy euro pozbawia państwo członkowskie możliwości wykorzystania w sytuacji kryzysowej najskuteczniejszego instrumentu dostosowawczego, jakim jest korekta kursu walutowego. Kraj członkowski strefy euro, który z jakichś powodów utraci konkurencyjność, znajduje się w pułapce. Wyjście takiego kraju ze strefy euro grozi paniką bankową, zaś pozostawanie w strefie euro skazać może na długotrwałą recesję. Świadomość ryzyka wpadnięcia w taką pułapkę zmniejsza szanse na dalsze rozszerzanie strefy euro, nawet w optymistycznym wariancie opanowania obecnego kryzysu. Póki istnieje strefa euro, będziemy mieli w UE do czynienia z podziałem na trzy grupy krajów: kraje strefy euro mające zadawalającą konkurencyjność, zagrożone kraje strefy euro zmagające się z recesją oraz kraje znajdujące się poza strefą euro i niespieszące się do tego, by do niej wstąpić. Będzie to swoista „Europa trzech prędkości”. Kontrolowana dekompozycja strefy euro uwolni z pułapki tych, którzy w nią wpadli, zapobiegnie nieobliczalnym konsekwencjom niekontrolowanego rozpadu strefy euro, umożliwi zachowanie UE i jednolitego rynku i pozwoli UE skoncentrować wysiłki na nowych wyzwaniach. Takim projektem dającym nowy impuls rozwojowy może być utworzenie wspólnego obszaru celnego z USA[43]/.

Operacja kontrolowanej dekompozycji strefy euro może nastąpić tak szybko, jak tylko europejskie elity i opinia publiczna oswoją się z myślą, że euro i Unia Europejska to nie to samo i że Unia Europejska i jednolity rynek bez euro mogą istnieć i stanowić wielką wartość dla państw i narodów europejskich oraz uzgodnione zostaną zasady nowego ładu walutowego w Europie. Do tego czasu powinny być prowadzone działania zapobiegające niekontrolowanemu rozwojowi wydarzeń.


Autorzy

Stefan Kawalec

Ekonomista, absolwent wydziału matematyki Uniwersytetu Warszawskiego. Prezes zarządu firmy doradczej Capital Strategy Sp. z o.o., członek rad nadzorczych spółek Kredyt Bank S.A. i Lubelski Węgiel „Bogdanka” S.A., były wiceminister finansów.

Ernest Pytlarczyk

Doktor nauk ekonomicznych, Główny Ekonomista BRE Banku S.A., kieruje zespołem wielokrotnie nagradzanym za najlepsze prognozy makroekonomiczne gospodarki polskiej. W przeszłości pracował jako analityk rynków finansowych w Instytucie Cykli Koniunkturalnych na Uniwersytecie w Hamburgu, w banku centralnym Niemiec we Frankfurcie i w Banku Handlowym w Warszawie.


[1]/ System, w którym bank emisyjny gwarantował wymianę emitowanej waluty na złoto według stałego parytetu.

[2]/ Karl Polanyi, „The Great Transformation”, Reinhert, New York 1944.

[3]/ Barry Eichengreen, „Globalizing Capital. A History of the International Monetary System”, Princeton University Press 2008, str. 29-31 i 230.

[4]/ Barry Eichengreen, „Golden Fetters. The Gold Standard and the Great Depression 1919-1939”,  Oxford University Press 1995, str. 6.

[5] / B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. , str. 30.

[6] / B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, Op. cit. str. 230.

[7]/ John Maynard Keynes, „The Economic Consequences of Mr. Churchill” 1925, w: John Maynard Keynes, „Essays in Persuasion”, Macmillan and Co, London 1933, s. 244-270.

[8]/ B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. str. 57.

[9]/ B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit. str. 57

[10]/ Liaquat Ahamed, „Lords of Finance. The Bankers Who Broke the World”, The Penguin Press, New York 2009.str. 376.

[11]/ L. Ahamed, op. cit.,  str. 429-430.

[12]/ L. Ahamed, op. cit.. str. 383.

[13]/ Por. B. Eichengreen , „Golden Fetters. The Gold Standard and the Great Depression 1919-1939”, op. cit.

[14]/  B. Eichengreen, „Globalizing Capital. A History of the International Monetary System”, op. cit., str. 87.

[15]/ Por. Mario Blejer and Guillermo Ortiz, “Latin lessons”, The Economist, 18.02.2012.

[16]/  http://pl.wikipedia.org/wiki/Zjednoczenie_Niemiec

[17]/ Heinz Jansen, „Transfers to Germany’s eastern Länder: a necessary price for convergence or a permanent drag?”, ECFIN Country Focus (Economic analysis from the European Commission’s Directorate-General for Economic and Financial Affairs), Volume 1, Issue 16, 8.10.2004. W poszczególnych latach w okresie 1991-2002 roczne transfery netto stanowiły między 4,6% a 7,7% PKB Niemiec i miedzy 26% a 45% PKB Niemiec Wschodnich.

[18]/ Por. Helmut Seitz, “The economic and fiscal consequences of German Unification”, Technical University Dresden, Germany, Faculty of Business and Economics, Institute for Applied Public Finances and Fiscal Policy. Presentation at the conference on German Unification University of Haifa, January 21st. – 22nd, 2009.

[19]/ Daniele Franco, „L’economia del Mezzogiorno” w: „Il Mezzogiorno e la politica economica dell’Italia”, Seminari e convegni, Banca d’Italia, lipiec 2010, nr 4, str. 5.

[20]/ Por. Gianfranco Viesti et al., “Convergence among Italian Regions, 1861-2011”, Quaderni di Storia Economica, Banca d’Italia, październik 2011, nr 21, str. 67.

[21]/ Por. D. Franco, op. cit., str. 3.

[22]/ Catriona Purfield and Christoph Rosenberg, “Adjustment under a Currency Peg: Estonia, Latvia and Lithuania during the Global Financial Crisis 2008–09”, IMF Working Paper WP/10/213, International Monetary Fund, Washington, September 2010.

[23]/ Por. Zsolt Darvas, „A Tale of Three Countries: Recovery after Banking Crises”, Corvinus University of Budapest, Department of Mathematical Economics and Economic Analysis, Working Paper 2011/6, 20 December 2011.

[24]/ Z. Darvas, op. cit..

[25]/ Por. Roberto Perotti, “The ‘Austerity Myth’: Gain Without Pain?”, NBER Working Paper 17571, National Bureau of Economic Research, Cambridge, Massachusetts, November 2011.

[26]/ Edmund Wnuk-Lipiński, „Świat międzyepoki. Globalizacja, demokracja, państwo narodowe”, Wydawnictwo ZNAK, Instytut Studiów Politycznych PAN, Krąków 2004. Str. 167.

[27]/ E. Wnuk-Lipiński, op. cit. Str. 164.

[28]/ E. Wnuk-Lipiński, op. cit. str. 180.

[29]/ Por. Mirosław Czech, „Ja nacjonalista”, Gazeta Wyborcza, 5-6 listopada 2011. Tytuł tekstu publicysty „Gazety Wyborczej” i byłego działacza Unii Demokratycznej i Unii Wolności jest formą prowokacji. Czech pisze w tym samym tekście: „Jak byłem demokratycznym liberałem (z tęskniącym spojrzeniem ku społecznej gospodarce rynkowej), tak pozostałem. Nacjonalistą jestem z europejska. Nie uważam by nadchodził  kres państwa narodowego i w Europie zapanowała kosmopolityczna wspólnota jako podstawa rozwoju demokracji. Więź narodowa i państwowa oparta na tożsamości obywateli oraz wieloetnicznym i wieloreligijnym dziedzictwie nie zaniknie. Będzie osnową integrującej się Europy.”

[30]/ W Argentynie w 2001 roku zamrożenie depozytów bankowych sprowokowało rozruchów, które doprowadziły do ustąpienia prezydenta i rządu oraz ogłoszenia niewypłacalności kraju.

[31]/ Rozwiązanie tego typu proponuje niemiecki historyk Hans-Joachim Voth. W wywiadzie dla „Spiegla”, w odpowiedzi na pytanie jak będzie wyglądała Europa za pięć lat, Voth mówi: „Mogę wyobrazić sobie świat z okrojoną strefą euro, do której należą Francja, Włochy, kraje śródziemnomorskie, i może też Belgia. Poza tym będzie stara strefa marki niemieckiej, do której należeć będą Niemcy, Austria, Holandia, może też Dania, i być może Finlandia, które nie będą miały problemu z utrzymaniem podobnej polityki pieniężnej jak Niemcy. Podobne warunki mieliśmy w czasach Europejskiego Mechanizmu Kursów Walutowych ERM. To było optymalne rozwiązanie, tylko potem porzuciliśmy je na rzecz euro.” Por. „Europa to więcej niż euro”,  31.08.2011 – http://waluty.onet.pl/europa-to-wiecej-niz-euro,18893,4835536,1,prasa-detal

[32] Por. B. Eichengreen (2008)  „Globalizing Capital. A History of the International Monetary System”. Op. cit. s. 49-55.

[33]/ B. Eichengreen (2008)  „Globalizing Capital, A History of the International Monetary System”. Op. cit. s. 186.

[34]/ B. Eichengreen (2008)  „Globalizing Capital, A History of the International Monetary System”. Op. cit. s. 232.

[35]/ W pierwszych latach istnienia ESM centralnie ustalone poziomy kursów były modyfikowane średnio co osiem miesięcy.

[36]/ Propozycję takiego rozwiązania problemów strefy euro przedstawił Krzysztof  Rybiński: http://www.rybinski.eu/?p=2999&lang=all. Jednorazowa zmiana kursów parytetowych wewnątrz strefy euro nie wyklucza jednak ponownego, wraz z upływem czasu, narastania nierównowagi w bilansach płatniczych.

[37]/ Skrót złożony z pierwszych liter angielskich nazw następujących krajów: Portugalia, Włochy, Irlandia, Grecja i Hiszpania.

[38]/ Stephane Deo, Paul Donovan, and Larry Hatheway, “Euro break-up – the consequences”, UBS Global Economic Research, London,  6.09.2011.

[39]/  S. Deo, P. Donovan, and L. Hatheway, “Euro break-up  –  the consequences”, op. cit.

[40]/ Stanislaw Gomulka, “Perspectives for the Euroland, Short Term and Long Term”, Polish Quarterly of International Affairs, no 2/2012. March 2012. Forthcoming. Gomułka uważa, że takie kosztowne społecznie dostosowanie będzie miało również pozytywne skutki: przywrócenie konkurencyjności w wyniku obniżenia kosztów płac, poprawę salda handlu zagranicznego, a także utrwalenie w pamięci (instill in te memory) dla społeczeństwa i elit politycznych konieczności dbania o stabilność finansową.

[41]/  Martin Feldstein, “Weaker euro will help solve Europe deficit woes”, Financial Times, 19.12.2011. Por. http://blogs.ft.com/the-a-list/2011/12/19/a-weak-euro-is-the-way-forward/#ixzz1h6vdpDrY

[42]/ Deprecjację euro jako receptę na uratowanie strefy euro przywołał Martin Feldstein. Por. M.Fedstein, “Weaker euro will help solve Europe deficit woes”, op. cit.

[43]/ Postulat utworzenia do roku 2025 wolnego obszaru celnego obejmującego Unię Europejską i USA sformułowany został w raporcie: „The Case for Renewing Transatlantic Capitalism”, Edited by Paweł Świeboda and Bruce Stokes, Warsaw, March 2012, Report by a High Level Group convened by demosEUROPA – Centre for European Strategy (Warsaw), the German Marshall Fund of the United States (Washington DC), Notre Europe (Paris), Stiftung Wissenschaft und Politik (Berlin) and European Policy Centre (Brussels).

O moralnych i praktycznych aspektach nierówności :)

Działające w zgodzie z zasadami liberalizmu państwo powinno pomagać przede wszystkim tym ludziom, których upośledzenie nie wynikło z ich własnej winy, a ograniczać jedynie te przewagi, na które uprzywilejowane jednostki same nie zapracowały.

Od czasu, gdy religijna teoria, że dobry Bóg celowo i roztropnie dał jednym ludziom siłę i bogactwa, a drugich uczynił słabymi biedakami, by tym pierwszym służyli, przestała być brana poważnie, spór o nierówności społeczne przebiega mniej więcej następująco:

– To oburzające i niesprawiedliwe – mówi lewica – że nieliczni zgromadzili bogactwa, które dla mas są nieosiągalne. Wszyscy ludzie są równi i powinni żyć w mniej więcej takich samych warunkach.

– Owszem, wszyscy ludzie są równi – przyznaje prawica – mają więc równe możliwości, by się dorobić. Większość jest jednak leniwa lub nieudolna. Tym lepiej więc dla ogółu, że są tacy, którym się chce i którzy potrafią. Niesprawiedliwością byłoby odbierać im bogactwo, na które ciężko zapracowali.

– Oni wcale na swoje bogactwo nie zapracowali – słychać z lewej strony. – To rezultat wyzysku, któremu poddali słabszych, zwykła kradzież. Zresztą, większość bogaczy odziedziczyła swoje fortuny.

– Gdyby przekazanie majątku następnemu pokoleniu było niemożliwe, ludzie utraciliby motywację do pracy – słyszymy. – To prawda, że potomkowie milionerów mają w życiu lepiej niż dzieci żebraków, ale to część sprawiedliwej nagrody, na którą ci wcześniejsze pokolenia milionerów zapracowały. Zresztą, dziś najważniejsza jest edukacja, a ponieważ każdy się uczy od zera, to wszyscy mają równe szanse.

– Sprawiedliwa nagroda, dobre sobie! Nie trzeba długo szukać, by dostrzec skąd mili dziadziusiowie dzisiejszych bogaczy wzięli kasę. Arystokraci terroryzowali chłopów, mieszczanie obłowili się na handlu niewolnikami, przemysłowcy spaśli brzuchy każąc pracować sześcioletnim sierotom po czternaście godzin na dobę! Własność to kradzież! I nie wciskajcie nam kitu z edukacją: byle dureń z tak zwanego „dobrego domu” jest w stanie skończyć studia i „zarządzać” innymi żyjąc z ich pracy. Cały system jest stworzony by utrwalać nierówności. To trzeba zmienić!

– Spokojnie, spokojnie. To prawda, że z dzisiejszej perspektywy niektóre ze sposobów zdobywania bogactwa były oburzające, ale próby natychmiastowej niwelacji nierówności prowadziły do jeszcze większych tragedii. Zresztą, spójrzcie rzeczywiście daleko w przeszłość – zgadzamy się przecież, że wszyscy ludzie są równi, nie wierzymy w hierarchię bytów. Był więc moment, w którym wszyscy zaczynali od zera. W długiej perspektywie konkurencja była wolna i uczciwa.

Ostatni prawicowy argument jest tyle naciągany (kompetentni historycy z lubością używają powiedzenia „to było tak dawno temu, że nie jest prawdą”), co skuteczny. Lewicowa teza o wyrafinowanym i utrwalającym się systemie wyzysku zdominowała co prawda uniwersytety, ale jej polityczne przełożenie pozostaje jednak mizerne. Jeśli lewicy zdarzy się rządzić, to zamiast obalać system bardzo ostrożnie go reformuje, często w sposób nie budzący żadnych zastrzeżeń konserwatystów. Liberałowie, którym blisko jest do lewicy w kwestiach obyczajowych i wspólnie z nią kontestują nacjonalistyczne nurty myśli prawicowej, w sporze o źródła i moralny wymiar nierówności społecznych stoją, przynajmniej w Europie, po prawej stronie. W Polsce przychodzi im to tym łatwiej, że moment, w którym wszyscy zaczynali od zera leży akurat we wcale nieodległej przeszłości.

II wojna światowa i pierwsze lata po niej skutecznie spłaszczyły polską strukturę społeczną. Posiadacze największych kapitałów uciekli już latem 1939 roku. Właściciele majątków ziemskich potracili je na rzecz kołchoźników, Niemców lub – parę lat później, drogą radykalnej reformy rolnej – polskich chłopów. Klasa średnia, w zależności od przynależności etnicznej, skończyła w komorach gazowych lub w masowych grobach Katynia i Palmir oraz łagrach Workuty. Ci, którym wojnę udało się przeżyć, zbiednieli w jej czasie tak bardzo, że o ich uprzywilejowanej pozycji nie mogło być mowy. Zainstalowany przez Sowietów rząd uczynił zresztą wszystko, by przedwojenne hierarchie się nie odrodziły: przemysł został znacjonalizowany lub „uspołeczniony”, warszawscy kamienicznicy wywłaszczeni, możliwości prowadzenia własnej choćby jednoosobowej firmy drastycznie ograniczone. Skuteczność ułatwień w podejmowaniu studiów, jakie nowy ustrój dał chłopskim i robotniczym dzieciom pozostaje przedmiotem polemik, ale znaczący wzrost mobilności społecznej w latach 40. i 50. był faktem.

Nowy porządek nie tylko zmniejszył różnice majątkowe, lecz także utrzymywał je pod kontrolą. Przywileje ludzi władzy – bulwersujące ogół w dobie PRL, a dziś przypominane przez krytyków transformacji ustrojowej, która ponoć nie wyeliminowała ich konsekwencji – czyniły życie prominentów bardziej komfortowym, ale żadną miarą nie zapewniały im statusu porównywalnego z tym, jaki jest udziałem elit w kapitalizmie. Wspomnienia ludzi rządzących Polską w latach 80. dobrze to pokazują. Sąsiedzi ostatniego komunistycznego premiera Mieczysława Rakowskiego, tak jak i on członkowie komunistycznej nomenklatury, lokowali swoje oszczędności kupując dwie lodówki, które przez dłuższy czas stały nierozpakowane w ich mieszkaniu. Stanisław Ciosek – jeden z najbliższych współpracowników generała Jaruzelskiego – musiał pisać specjalne podanie, by móc kupić wannę. Biorąc nawet pod uwagę czarnorynkowe ceny sprzętu AGD i wyposażenia łazienek w ostatniej dekadzie PRL, nie są to przywileje gigantyczne. Również „Pokoleniu 1984” – młodym, nieźle wykształconym i pragmatycznym działaczom, którzy tak jak Aleksander Kwaśniewski w okolicach tego właśnie roku zaczynali robić kariery w partyjno-państwowym aparacie – system nie był w stanie zaoferować zbyt wiele. Jako nieliczni mieli możliwość porównania standardów życia w Polsce i na Zachodzie i porównanie to wypadało na niekorzyść Polski, nawet z ich uprzywilejowanej perspektywy. Żyli co prawda o wiele lepiej od przeciętnych obywateli, ale ich francuscy lub zachodnioniemieccy rówieśnicy należący choćby do niższej klasy średniej już nie mieli im czego zazdrościć. Ta prosta obserwacja niewątpliwie przyczyniła się do rychłego upadku systemu.

Zróżnicowanie majątkowe polskiego społeczeństwa jest więc świeżej daty. 65 lat temu wszyscy byli, w przybliżeniu, jednakowo biedni, jakieś 25 lat temu (pierwsze poważne prywatne przedsiębiorstwa – tak zwane „firmy polonijne” – zaczęły powstawać już za rządów Jaruzelskiego i Messnera) niektórzy zaczęli się bogacić. Sposób, w jaki dochodzili do wielkich pieniędzy rzadko był w pełni moralny, ale to samo można powiedzieć o powstawaniu wielkich amerykańskich, brytyjskich czy belgijskich fortun. Otwarcie sieci kantorów nazajutrz po liberalizacji przepisów walutowych było spektakularnym przykładem wykorzystania insider knowledge, ale nie był to przecież pierwszy taki przypadek w dziejach ludzkości. Zresztą, na marginesie: to, co z perspektywy kilkunastu lat stało się głównym zarzutem wobec architektów przemian ustrojowych – przyzwolenie na „konwersję kapitału politycznego na ekonomiczny” – jeszcze w okresie stanu wojennego wielu ludziom opozycji wydawało się szczytem marzeń. Taka właśnie była przecież wymowa słynnej propozycji Mirosława Dzielskiego, który namawiał Partię do za
chowania władzy przy rezygnacji z centralnego planowania i marksistowskiej ideologii.

Znaczenie faktu, że dzisiejsza stratyfikacja polskiego społeczeństwa jest produktem ostatnich paru dekad, a nie stuleci, jest często niedoceniane. Tymczasem konsekwencje widoczne są na każdym kroku: w codziennych interakcjach, w sposobach spędzania wolnego czasu, w strukturze sektora pozarządowego, w potocznej wizji dobrego społeczeństwa. Najwdzięczniejszym tematem analiz i żartów są oczywiście osobliwości kulturowe, ale problem nie sprowadza się do nadużywania formy „Tobie” czy utożsamiania tradycyjnej kuchni polskiej z typowym dla całej środkowej Europy chłopskim jadłem (i to w sytuacji kiedy większość narodu poczuwa się ponoć do szlacheckiego pochodzenia). Świeżość polskich podziałów majątkowych powinna być dobrą wiadomością dla ambitnych jednostek pnących się w hierarchii – napotkają mniej barier wzniesionych przez dotychczasowych członków elit, którzy robiąc własne kariery nie mieli czasu stworzyć ekskluzywnych kodów kulturowych i rzeczywiście zamkniętych instytucji. Drugą stroną tego samego medalu jest jednak brak „starych pieniędzy”, które w krajach, gdzie kapitalizm rozwijał się przez wieki, stanowią ważne źródło finansowania kultury, edukacji i organizacji pozarządowych. Szczupłość prywatnego mecenatu prowadzi do monopolu publicznego – polskiego i unijnego – finansowania we wszystkich tych dziedzinach, co ani budżetowi, ani żadnej z nich dobrze nie służy.

„Stare pieniądze” nie muszą zresztą być duże, by wywierać dobroczynny wpływ. Wystarczy, by pozwalały na życie bez zaciągania pożyczek – ludzie nimi nie obciążeni z mniejszym prawdopodobieństwem wpędzą gospodarkę w spiralę kryzysu gdy powinie im się noga i stracą pracę, a z drugiej strony są bardziej skłonni podejmować ryzyko, co zwiększa jej elastyczność i innowacyjność. Łatwość kupna mieszkania – często podnoszona jako argument za wyższością obecnego ustroju nad poprzednim, w którym na własny kąt czekało się latami – może okazać się przekleństwem, bo oznacza konieczność zaciągnięcia wieloletniego kredytu. Ryzyko jakie się z tym wiąże, widzieliśmy w ostatnich latach w USA i w Irlandii, a ciągle możliwe spowolnienie gospodarcze, połączone z utrzymywaniem się wysokiego kursu franka szwajcarskiego może sprawić, że doświadczymy go na własnej skórze.

Podobieństwo do Ameryki widać nie tylko na przykładzie rynku nieruchomości. Sposób, w jaki większość polskich „liderów opinii” myśli o różnicach społecznych, przywołuje na myśl amerykańskie mity powszechnej równości i self-made mana: każdy jest kowalem swojego losu, a ludzie ubodzy lub zmarginalizowani po prostu nie wykorzystali swojej szansy. Jest to oczywiście wielkie uproszczenie, ale trudno mu się dziwić w sytuacji gdy wielu polskich polityków osobiście doświadczyło społeczno-finansowego awansu. Leszek Miller i Donald Tusk pochodzą z rodzin skromnych nawet na peerelowskie warunki, Kazimierz Marcinkiewicz socjalistyczną siermiężność – z meblościanką, kompotem w tanim dzbanku i własnoręcznym sprzątaniem mieszkania – demonstrował przed telewizyjnymi kamerami jeszcze wtedy gdy był premierem, a Janusz Palikot swoją fortunę zbudował od zera w ciągu mniej niż dwudziestu lat. Na tym tle Jarosław Kaczyński, wychowany w żoliborskiej willi, jest osobą o uprzywilejowanym pochodzeniu – co może oznaczać zarówno aroganckie oderwanie od problemów „zwykłego człowieka”, jak i empatyczne pochylenie się nad tymi, dla których los okazał się mniej łaskawy. Socjalistyczne annały pełne są przecież różnych „czerwonych hrabiów”…

***

To, że jedni są bogaci, a inni biedni, jest najczęściej komentowanym, lecz bynajmniej nie jedynym aspektem społecznych nierówności. Jak zauważył w latach 60. ubiegłego wieku Ralf Dahrendorf, sowieckie i izraelskie (kibuce!) eksperymenty ze zniesieniem własności prywatnej pokazały tylko, że trwająca od czasów Rousseau koncentracja uwagi na akumulacji majątku jako głównym przejawie i powodzie braku równości była nietrafiona. Angielscy socjaliści odwiedzający Moskwę we wczesnych latach 30. ze zgrozą odkrywali, że dawna feudalno-kapitalistyczna stratyfikacja została zastąpiona nową i to bynajmniej nie mniej silną. Stało się to, pamiętajmy, na długo przed tym, jak rewolucyjny leninizm przemienił się w breżniewowską kleptokrację: nie wystrzelani jeszcze przez Stalina ideowi komuniści szczerze gardzili prywatną własnością, a i tak nie byli równi ani między sobą, ani wobec ludu, w imieniu którego rzekomo rządzili.

Genetycznie zdeterminowana nierówność jednostek ludzkich prowadzi do powstawania społecznych hierarchii zawsze i wszędzie, choć różne są mechanizmy prowadzące do tej stratyfikacji i nią rządzące. Z własnego doświadczenia szkolnego pamiętamy, że z kim innym chcieliśmy siedzieć w ławce podczas lekcji matematyki, a kto inny był wybierany w pierwszej kolejności do składu drużyny piłki nożnej, przy czym hierarchia piłkarzy różniła się od hierarchii koszykarzy. Dahrendorf przytacza szereg podobnych przykładów. Wszystkie mają przekonać nas do Kantowskiego – sformułowanego w otwartej polemice wobec Rousseau – stwierdzenia, że nierówność jest przyczyną dużej części zła, lecz także wszystkiego, co dobre.

I rzeczywiście, ambicje ustanowienia doskonałej społecznej równości – materialnej, lecz także wszelkiej innej – wypada w ślad za Dahrendorfem uznać za igranie z totalitaryzmem. Skoro hierarchie i stratyfikacja pojawiają się spontanicznie we wszystkich społecznościach ludzkich, skuteczne zapobieganie ich powstawaniu wymagałoby ciągłej i bezwzględnej akcji ze strony państwa, która sama w sobie wymuszałaby podział na co najmniej dwie grupy – tych, którzy równości pilnują i tych, którzy są pilnowani. Żaden z realnie istniejących reżimów totalitarnych nie posunął się zresztą tak daleko: ograniczały się one do promowania nowej hierarchii zgodnej z ideologicznymi wyobrażeniami, na których zostały zbudowane. Już samo to było wystarczająco upiorne, by zniechęcić kolejne pokolenia do jakichkolwiek projektów poprawiania ludzkiej natury metodami politycznymi. Utopijna równość byłaby, przekonuje Dahrendorf, jeszcze gorsza, bo oznaczałaby wszechogarniającą nudę.

***

Czy oznacza to, że liberałowie nad istnieniem nierówności powinni przejść do porządku dziennego lub, więcej nawet – promować je ze względów moralnych, estetycznych (skoro równość oznacza zubażającą nudę, to nierówność dostarczy nam inspiracji) lub ekonomicznych (nierówność oznacza konkurencję, a ta zwiększa ogólną efektywność)? Oczywiście nie. Praktyczny powód jest taki, że powyżej pewnego poziomu nierówność nie wzbogaca ani w sensie estetycznym i moralnym, ani dosłownym. Konkurencja zanika nie tylko wtedy, gdy wszyscy producenci z lenistwa oferują dokładnie to samo, lecz także – przede wszystkim – wtedy, gdy jeden monopolizuje rynek wypierając pozostałych. To właśnie monopol jest skrajnym przykładem nierówności. Powstaje przy tym często samoistnie i kontrolowany może być jedynie przez zdecydowaną polityczną akcję ogółu obywateli. To dlatego nieporozumieniem jest utożsamianie liberalizmu z programem małego, taniego, ograniczonego i słabego państwa. Istnieją sytuacje, kiedy liberalne wartości mogą być realizowane tylko przez państwo silne i dysponujące odpowiednimi środkami.

Wartości – najważniejszą z nich jest poszanowanie jednos
tkowych praw do realizacji własnej wolności – na liberalną postawę wobec nierówności mają także wpływ bezpośredni. Charakter tego wpływu jest dość paradoksalny, bo ograniczeniem wolności jest zarówno sama sytuacja nierówności, jak i działania państwa, które mają jej zapobiec. Pierwsza krępuje tych, którzy mają mało pieniędzy, talentów czy wiedzy, druga tych, którzy którejkolwiek (lub wszystkich) z tych rzeczy mają dużo. Pomocy w rozwiązaniu wynikającego z powyższej sprzeczności dylematu szukać można w innym liberalnym imperatywie, według którego każdy powinien ponosić zarówno pozytywne jak i negatywne konsekwencje własnych – a nie cudzych – działań. W oparciu o to kryterium można stwierdzić, że działające w zgodzie z zasadami liberalizmu państwo powinno pomagać przede wszystkim tym ludziom, których upośledzenie nie wynikło z ich własnej winy, a ograniczać jedynie te przewagi, na które uprzywilejowane jednostki same nie zapracowały. Miło jest zauważyć, że przynajmniej na poziomie deklaracji zachodnie demokracje zmierzają właśnie w tym kierunku: zmniejszenie niezasłużonych nierówności jest celem zarówno powszechnej i wyrównującej szanse słabszych uczniów edukacji, jak i zwalczania nepotyzmu.

Czy porządny system państwowej edukacji i regulacje mające zapewnić merytoryczność procesu rekrutacji na wszystkie stanowiska opłacane z publicznych pieniędzy to wszystko, co państwo powinno robić w sprawie nierówności? Odpowiedzi na to pytanie nie da się udzielić w oparciu o samą teorię liberalizmu, bo nie zawiera ona jasnej definicji winy i zasługi. Obie kategorie są wysoce kontekstualne: po wyrównującym walcu wojny i PRL można było określić je, jak widzieliśmy, z dużym rozmachem. Przez 45 lat oficjalna propaganda dowartościowywała lud pracujący, w niektórych branżach zapewniając mu standard życia wyższy niż ten, na jaki mogli liczyć inteligenci. Drzwi uczelni były przy tym szeroko otwarte, przynajmniej dla chłopskich i robotniczych dzieci. Wybór między pracą robotnika w zakładach zbrojeniowych a karierą akademicką był w tych warunkach jak najbardziej realny i jak najmniej oczywisty. Określenia „zasługa” i „wina” nie są może w odniesieniu do niego szczególnie trafne, ale teza o tym, że zróżnicowanie społeczeństwa jakie dokonało się w Polsce po transformacji było zasłużone, daje się obronić.

Co zmieniło się w ciągu ostatnich 22 lat? Zarówno dane statystyczne jak i codzienna obserwacja pokazują, że szczęśliwe i nietrafione wybory z epoki realnego socjalizmu przełożyły się na znaczące materialne nierówności. W przypadku dzisiejszych czterdziestopięciolatków można to uznać za rzecz moralną i sprawiedliwą, jednak trudniej to samo powiedzieć o osobach młodszych, chociażby o ich dzieciach, które wchodzą już w dorosłe życie. Dochód rodziców – i mowa tu o porządnej pensji klasy średniej, a nie o fortunach zarabianych przez najbogatszych – ma w Polsce bezpośrednie przełożenie na jakość uzyskanego wykształcenia, a to z kolei przekłada się na pierwszą i wszystkie następne prace. Tę zależność można by uznać za usprawiedliwioną, a przynajmniej społecznie użyteczną – zapewnienie dobrej przyszłości dzieciom daje przecież silną motywację do wysiłku – gdyby nie to, że prowadzi ona do sytuacji, w której najlepsze wykształcenie niekoniecznie wiąże się z największym talentem. Talenty pracują w konsekwencji poniżej swojego potencjału, a najbardziej odpowiedzialne zajęcia wykonywane są przez osoby niekoniecznie najbardziej odpowiednie.

Jak widać, istnienie skutecznych mechanizmów mobilności społecznej ma kluczowe znaczenie nie tylko dla stabilności systemu, lecz także dla jego efektywności. W doskonałej, modelowej wersji powinny one działać podobnie jak piłkarska liga: 10 procent najbardziej kompetentnych członków klasy średniej wchodzi do klasy wyższej, 20 procent najzdolniejszych przedstawicieli klasy niższej staje się klasą średnią. Dzięki rozwojowi gospodarczemu cena tych awansów jest umiarkowana: deklasacji ulega, powiedzmy, tylko po 5 procent obydwu klas. Utrzymywanie drożności obydwu kanałów – zarówno w górę, jak i w dół – powinno być głównym celem liberalnej polityki społecznej. Do jej narzędzi, oprócz wspomnianej już edukacji i zwalczania nepotyzmu, w polskich warunkach należałoby włączyć także odbudowę publicznego transportu: fizyczna i społeczna mobilność pozostają ze sobą nie tylko w lingwistycznym związku. Do dobrej szkoły i do dobrej pracy trzeba mieć jak dojechać.

Idzie nowe? :)

Polska scena polityczna wciąż jest rozdzierana podziałami z 2005 roku, rywalizacją PiS i PO, która uosobiona była przez osobistą rywalizację Donalda Tuska z braćmi Kaczyńskimi – Lechem w 2005 i Jarosławem w 2007 roku. Decyzja Tuska o pozostaniu na stanowisku Prezesa Rady Ministrów depersonalizuje ten spór, choć nie przekreśla jego istoty. Czy jest możliwe przełamanie zoligarchizowanej i skostniałej sceny politycznej? Byłoby, przy zaistnieniu czterech mało prawdopodobnych do spełnienia jednocześnie warunków: podziałów w jednej lub obu największych partiach, reformie ustawy o finansowaniu partii politycznych, znalezieniu formuły dla funkcjonowania w mediach czy to niewielkich ugrupowań zasiadających w sejmie, czy to opozycji pozaparlamentarnej oraz ujawnienia się w nich przywódców politycznych z prawdziwego zdarzenia, którzy porwą Polaków nowym językiem.

Nowe rozdanie

Premier zdjął „ciśnienie” z wyborów prezydenckich, tracących znacząco rangę jako starcia przywódców obozów, które dzielą między siebie niemal całość sceny politycznej – kiedyś Wałęsy z Kwaśniewskim, potem Tuska z Kaczyńskim. Przewodniczący PO, pamiętając o „szorstkiej przyjaźni” Leszka Millera i Aleksandra Kwaśniewskiego ocenił, że na dłuższą metę nie udałoby mu się być „nadpremierem” z „Dużego Pałacu”. Uznał, że jego partia może więcej zyskać zjednoczona z nim jako liderem w wyborach do parlamentu, niż podzielona z nim jako prezydentem. Losy partii pozbawionej przywództwa w roku kampanii wyborczej byłyby trudne – z perspektywą nieuchronnej walki o władzę zakończonej nawet rozłamami, o ile sondaże byłyby nieprzychylne lub doszłoby do ostrej frakcyjnej „wycinki” z partyjnych gremiów i list wyborczych.

Tusk zrezygnował z ubiegania się o prezydenturę, ponieważ uznał perspektywę wygranej Lecha Kaczyńskiego za mniej prawdopodobną niż spójność swojego politycznego zaplecza w przypadku gdyby sam wygrał wybory. Premier liczy, że znów, jak w 2007 roku, PO wygra jako „anty-PiS”, że nieważne, kogo wystawi w kampanii, bo elektorat negatywny Kaczyńskiego sprawia, że przegrywa on w drugiej turze nawet ze Szmajdzińskim. Swoją decyzją bez wątpienia wzmocnił prezydenta, dając mu cień szansy na zwycięstwo, szansy, której by nie miał, gdyby Tusk startował.

Prezydent od pewnego czasu przyjął taktykę ograniczonej aktywności, która przyniosła mu nieznaczną poprawę sondaży, co skomentował złośliwie „The Economist” pisząc, że „popularność polskiego prezydenta rośnie, kiedy nie występuje on publicznie”. Kaczyński zmarnował szanse na to, żeby zaprezentować się jako ponadpartyjny autorytet. Jego ostatnie próby pozyskania sobie sympatii są spóźnione i nieautentyczne. Pochodną bardzo partyjnej prezydentury Lecha Kaczyńskiego, właściwie utożsamienia go z PiS i specjalnej więzi łączącej go z bratem bliźniakiem jest dzielenie się przez braci sukcesami i porażkami. Jarosław nie ukrywał, że w 2005 roku liczył bardziej na prezydenturę Lecha niż na wygraną partii. Bardzo prawdopodobna klęska urzędującego prezydenta będzie także jego osobistą klęską.

Krucha stabilizacja

W PiS na wzór Kościoła katolickiego istnieje doktryna o nieomylności Jarosława Kaczyńskiego. Co zrobić jednak w sytuacji, kiedy dla każdego staje się oczywiste, że „ukochany przywódca” idzie na dno, ciągnąc za sobą całą formację? Gdzie kończy się wiara, a zaczyna zimna kalkulacja? Biorąc również pod uwagę, że PiS nie ma co liczyć na dobre wyniki w wyborach samorządowych, będzie to trzecia z kolei porażka przy jednoczesnym braku jakichkolwiek widoków na odzyskanie władzy w najbliższej przyszłości. PiS, nawet zdobywając 30% mandatów, nie posiada zdolności koalicyjnej, co skazuje go na wieczną opozycyjność.

Cierpliwość działaczy, wciąż pamiętających dobrze smak politycznych „fruktów” – rad, agencji i innych ciepłych posadek, które im odebrano zaledwie po dwóch latach, ma swoje granice. Dla przeciętnego działacza PiS Lech Kaczyński jest równie odległy co królowa angielska. „Swój” prezydent to kwestia ważna, ale symboliczna. Dla niego liczą się rozgrywki na szczeblu samorządowym, a tu, o ile Platforma będzie miała wynik choćby w dolnych granicach dzisiejszych sondaży, czeka go prawdziwy zimny prysznic, utrata obecnego stanu posiadania i zejście do głębokiej opozycji – może z wyjątkiem bastionów partii w południowo-wschodniej Polsce. PiS nie ma większych szans na wygraną w którymś z dużych miast, a kartę w wyborach samorządowych będzie mu trudniej odwrócić niż w wyborach prezydenckich, w których zawsze można zagrać inną wersją „dziadka w Wehrmachcie”.

Na niekorzyść PiS przemawia także fakt, że w 2010 roku w porównaniu z 2005 głosować będzie aż 5 roczników, ponad 2,5 miliona nowych wyborców, urodzonych w latach 1987-1992, wśród których partia i jej kandydat, mówiąc delikatnie, nie cieszą się poparciem. PiS już nie wyjdzie z narożnika, w którym dziś się znajduje, gdyż polska polityka będzie ewoluowała od konserwatyzmu w stronę tolerancji pojmowanej na sposób europejski. Młodzi ludzie opowiedzą się za wartościami liberalnymi w sensie społecznym – prawami gejów, świeckim państwem. Skończy się w Polsce zaglądanie pod kołdrę.

Dla partii tak scentralizowanej jak PiS najgroźniejsze będą tendencje odśrodkowe, jakie nieuchronnie muszą się pojawić w sytuacji, w której ponosić będzie porażkę za porażką, ponieważ w istniejącej strukturze nie istnieje żaden sposób odreagowania tych klęsk, wymiany przywództwa, zmiany linii etc. Hasła o „medialnym froncie” i spisku niechętnych Polsce sił mogą kolejny raz nie zadziałać, tym bardziej że absurdalność taka teza, w przypadku kiedy kontroluje się telewizję publiczną i posiada wpływy w licznych mediach drukowanych, jest intelektualnie nie do obrony.

Z wysokiego konia łatwo spaść

Logika politycznego sporu w Polsce to symbioza PO i PiS. Platforma jest jak silniejszy bokser na ringu w ustawionej walce – musi wygrać, ale bić tak, żeby przeciwnika przedwcześnie nie dobić, jednocześnie moment dekoncentracji może oznaczać nieoczekiwany nokaut. Upadek czy też znaczące osłabienie PiS dla Platformy wcale nie musi być korzystne, na jego miejsce bowiem może pojawić się jakiś nowy, groźny (bo wybieralny) przeciwnik. Dlatego PO zależy na tym, żeby cała walka w wyborach prezydenckich rozegrała się między Kaczyńskim a kandydatem Platformy. Najgorszym scenariuszem dla tej partii byłoby spotkanie w drugiej turze czy to z Olechowskim, czy zwłaszcza z Cimoszewiczem.

Ktokolwiek zostanie wytypowany przez PO do startowania w wyborach prezydenckich, zawsze będzie „tym drugim”, ale jednocześnie konkurencją dla dotychczasowego niekwestionowanego lidera, co może pociągać za sobą dysonans w przywództwie PO. Siłą rzeczy kandydat ten będzie musiał również apelować do szerszego elektoratu, czasem kontestując politykę prowadzoną przez rząd. Dopóki będzie to reżyserowane, dopóty te podziały będą tylko pozorne. Jednak polityka bazuje w dużym stopniu na emocjach, ma swoją dynamikę i sytuacja nie wiadomo kiedy może się wymknąć spod kontroli.

W ostatniej kampanii wyborczej – do Parlamentu Europejskiego – żeby potwierdzić swoją supremację, PO poświęciła do końca resztki ideowej identyfikacji, czego symbolem była obecność na listach z jednej strony Danuty Hübner, z drugiej Mariana Krzaklewskiego. PO poszła do wyborów jako „partia wszystkich Polaków”, na którą głosowanie jest niemal patriotycznym obowiązkiem. „Im więcej będziemy mieli głosów w PE, tym więcej ugramy dla Polski” – w tym duchu agitowali liderzy PO, nie udając nawet, że mają jakiś inny cel w tej kampanii niż po prostu osiągnięcie dobrego wyniku. W połączeniu z eksploatowanym propagandowo wyborem Jerzego Buzka na przewodniczącego Parlamentu Europejskiego odniosła ona skutek.

Pojawia się pytanie, czy to zasługa siły PO i Tuska czy raczej słabości konkurencji? Wydaje się, że raczej to drugie, bo sondażowy spadek poparcia dla premiera i rządu w żaden sposób nie przeniósł się na wzrost notowań czy to PiS, czy to SLD. Właśnie kryzys i spadek notowań aktualnej władzy przy równoczesnej stagnacji poparcia dla parlamentarnej opozycji są szansą, jaką chcą wykorzystać nowe inicjatywy polityczne, z których każda, choć nie w identycznym stopniu, będzie chciała pasożytować głównie na obejmującej coraz większą część sceny politycznej PO.

Platforma objęła ogromny obszar elektoratu, ale nie trzyma go mocno. Im mniej wyrazista się staje, po to, żeby nie zniechęcać nowych segmentów wyborców, tym łatwiej można ją „ciąć po skrzydłach”, wyrazistym stanowiskiem odbierać jej część elektoratu i zmuszać do samookreślenia, co dla partii walczącej o 50% poparcia może okazać się niezwykle groźne. Przedsmakiem tego, co czeka PO jest choćby kontrowersyjna sprawa in vitro, w której partia od miesięcy gra na czas, nie chcąc doprowadzić do sytuacji, w której znalazł się PiS z Markiem Jurkiem i jego non possumus w sprawie całkowitego zakazu aborcji.

PO przestała być partią teflonową. Od odwołania Ćwiąkalskiego i kontrowersji wokół Andrzeja Czumy aż do afery hazardowej i awantur w powołanej do jej wyjaśnienia komisji śledczej w mediach pojawiają się negatywne materiały o Misiaku, stoczniowym inwestorze z Kataru, Mirze i Zbychu. PO nie ma przy tym żadnego całościowego projektu, takiego jak IV RP PiS, którego realizacja mogłaby „przykrywać” niedociągnięcia w innych sferach rządzenia. Platforma jest reaktywna, umiejętnie wymyka się z defensywy – ale koszt osobowy i wizerunkowy jest wysoki. Radzi sobie z braku umiejętnie definiującego rzeczywistość przeciwnika, narzucającego pole gry – ale już tak jednoznacznie nie panuje nad polską polityką w sferze symbolicznej.

Ten trzeci

Początkowo największym beneficjentem „nowego rozdania” był Andrzej Olechowski, który nawet liczył na poparcie PO w wyborach, choć jego wolta od mocnej krytyki do umizgów wobec tej partii nie wyglądała wiarygodnie. Cimoszewicz nie zmienił zdania, jednak już inaczej wypowiada się o nadchodzących wyborach, skrytykował konserwatywne poglądy Komorowskiego i Sikorskiego, ubolewając przy tym, że nie ma w Polsce szans na szeroką koalicję centrolewicową a la Partia Demokratyczna w USA. Olechowski, choć zgarnia sporą część elektoratu PO, może stać się ofiarą spolaryzowanej kampanii, w której zostanie zmarginalizowany, nie potrafi też zmobilizować elektoratu lewicowego. Kampanie wyborcze to także ogromne przedsięwzięcia finansowe i logistyczne, dlatego póki co nic nie wskazuje na to, żeby ktokolwiek spoza PO i PiS był w stanie na poważnie się w nią włączyć, o ile SLD, SD i pozostała centrolewicowa drobnica nie zdecydują się w ostatniej chwili wspólnie wystawić Cimoszewicza, ale na to się nie zanosi.

Mimo to dużo mówi się o trzecim kandydacie w wyborach prezydenckich, „czarnym koniu”, który przełamie dominację kandydatów dwóch największych partii. Czy może to wskazywać na to, że po wycofaniu się pewniaka Donalda Tuska pojawia się miejsce na nową inicjatywę polityczną zbudowaną na kampanii prezydenckiej? Moją diagnozę można zawrzeć w jednym zdaniu: przestrzeni do działalności politycznej poza układem 2P (PiS i PO) będzie coraz więcej, jednak żadna z działających obecnie inicjatyw politycznych (Polska Plus, SD, Marek Jurek, Porozumienie dla Przyszłości itp.) trwale jej nie zagospodaruje. Zmiany pojawią się wraz z erozją jednej lub obu dużych partii.

Istotnych przyczyn jest kilka. Przede wszystkim dyskurs medialny, choć słowo dyskurs wydaje się tu na wyrost, obraca się w kręgu międzypartyjnych przepychanek wśród największych graczy, nawet opozycja parlamentarna ma problemy z zaistnieniem, a co dopiero całkowici outsiderzy.

Po drugie, kwestia finansów. Nie można lekceważyć faktu, że PO będzie miała w momencie startu kampanii kilkadziesiąt milionów złotych na koncie, prawdopodobnie więcej niż jest w stanie zgodnie z prawem wydać. Nieznaczne ograniczenie do końca kadencji dotacji z budżetu dla partii zmniejsza, choć nieznacznie, wagę tego czynnika. Żadna nowa inicjatywa polityczna z wyjątkiem SD – zakładając, że ta sprzeda swoje nieruchomości – nie ma choćby porównywalnych zasobów.

Po trzecie, żadna siła uważająca się za alternatywę dla 2P nie przedstawia nowej wizji, choćby nawet tak odstręczającej jak teoria spiskowa Rywinlandu i IV RP Kaczyńskich. Walka polityczna toczy się wciąż na „czerwonym oceanie”, nie widać nikogo, kto potrafiłby zgodnie ze słynną książką Strategia Błękitnego Oceanu wypłynąć na „nowe, spokojne wody, pozostawiając za sobą mętne wody oceanu czerwonego, zabarwionego krwią walczących konkurentów-rekinów”. Najlepszym przykładem jest nijaki program wsparty przez równie nijaki komitet wyborczy najpopularniejszego z „niezależnych” Andrzeja Olechowskiego.

Co najistotniejsze, nie ma również kandydata, osobowości, która podbiłaby serca ludzi nowym językiem i która symbolizowałaby oczekiwaną zmianę. W osobach liderów obu największych partii zawierają się one same. Programy nie mają dziś znaczenia w polityce. Wielostronicowe szczegółowe opisy tego, co się wykona w danej dziedzinie nie interesują ani mediów, ani wyborców. Liczy się budzenie natychmiastowych skojarzeń za pośrednictwem osobowości przywódców. W mediach XXI wieku nie ma czasu na wielogodzinne pogadanki przy kominku. Wybór polityczny dokonuje się w sferze symbolicznej, w sposób bardzo spersonalizowany. Obama był zmianą, którą obiecywał. Podobnie jest w Polsce – mówimy PO, myślimy Tusk, mówimy PiS, myślimy Kaczyński. Tożsamość polityczna budowana jest w dużym stopniu na identyfikacji nie tyle z samym przekazem, ale z tym, kto go prezentuje. Słabość pozostałych partii wynika z tego, że żadna z nich takiego lidera nie posiada, nie widać też nikogo takiego na horyzoncie.

Dziś brak jest też „momentu rewolucyjnego”, pewnej dynamiki społecznej jaka wytworzyła się choćby przy okazji afery Rywina. Scenę polityczną najmocniej dzieli dziś stosunek do PiS, tak jak kiedyś dominującym czynnikiem był stosunek do komunizmu i Kościoła. Kiedy ten czynnik straci na znaczeniu jest szansa, że istotniejsze staną się podziały światopoglądowe, tym bardziej że w społeczeństwie widać rosnącą irytację zupełnie jałowym sporem politycznym.

Wybory prezydenckie mogłyby zarysować będący dotychczas monolitem system partyjny, ale z braku odpowiednich kandydatów szanse na nowe inicjatywy polityczne pojawią się nie prędzej niż w wyborach do parlamentu albo dopiero przy „następnym obrocie kołem”, czyli przy następnej „wielkiej kumulacji” – wyborów prezydenckich i parlamentarnych za pięć lat. Klucz do sezamu polityki przez duże „P” przypadnie w nich temu, kto będzie umiał odwołać się do nowych symboli i wartości, a przynajmniej retoryki, a przy tym będzie ich wiarygodnym posłańcem. I wykaże się refleksem, w porę wyczuwając zbliżający się „wiatr zmian”.

Ważne: nasze strony wykorzystują pliki cookies. Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników. mogą też stosować je współpracujący z nami reklamodawcy, firmy badawcze oraz dostawcy aplikacji multimedialnych. W programie służącym do obsługi internetu można zmienić ustawienia dotyczące cookies. Korzystanie z naszych serwisów internetowych bez zmiany ustawień dotyczących cookies oznacza, że będą one zapisane w pamięci urządzenia.

Akceptuję