Mądry Polak po szkodzie: #prawda_czy_fałsz_8

Opublikowano Kategorie Lifestyle, Psychologia, Tak tylko mówięTagi , ,

Murawa po naszym ostanim meczu z Japonią już delikatnie zdążyła się podnieść. My nie do końca. Przynajmniej nie ci, którzy tyle emocji, czasu i rat na poczet nowych telewizorów 4K wnieśli w posagu dla drużyny narodowej. Powoli jednak przez głosy rozczarowania zaczynają się przebijać dźwięki typowego dla błędów i porażek refrenu: wiedziałem, że tak będzie.

Starożytni świetnie zdawali sobie sprawę, że istotą mądrości jest umiejętność przewidywania szkody, zanim się pojawi. Hezjod przyznawał, że po szkodzie mądry jest nawet głupiec. Homer dodawał, że głupi widzi nieszczęście dopiero po szkodzie.

Szkoda się wydarzyła. My zauważamy nieszczęście. I dokładnie znamy jego przyczyny. Wstecznie. Prawidłowość, o której mowa, a którą słyszałeś/aś pewnie wielokrotnie w swoim życiu pod postacią irytującego (niekiedy) „z góry wiedziałem, że tak będzie”, to tak zwany efekt pewności wstecznej. Efekt wiedzy po fakcie (ang. hindsight bias), nazywany też efektem „wiedziałem-że-tak-będzie” oraz pełzającym determinizmem (ang. creeping determinism), to tendencja do oceniania przeszłych wydarzeń jako bardziej przewidywalnych, niż rzeczywiście były. Prawdopodobnie wynika z tego, że wiedza na ich temat jest lepiej dostępna (heurystyka dostępności) niż wiedza na temat możliwości, które się nie zdarzyły. Ludzie mają tendencję również do pamiętania swoich własnych przewidywań jako dokładniejszych i celniejszych, niż rzeczywiście były.

To złudzenie występuje też w odniesieniu do subiektywnej trafności różnych sadów ilościowych. Jeżeli poprosi się ludzi o oszacowanie wysokości wieży Eiffla, a potem poinformuje się ich zgodnie z prawdą, że wynosi ona 300 metrów, a potem poprosisz o przypomnienie sobie początkowych oszacowań, to ludzie przypominają je sobie jako bardziej zbliżone do 300 metrów, niż podawali początkowo (Hell et al. 1988).

Ba, złudzenie to odnosi się również do trafności naszych osądów wydarzeń. Baruch Fischoff wraz ze swoją współpracownicą Ruth Beyth w serii eksperymentów wykazali, że ludzie zawyżają prawdopodobieństwo wyniku, który już jest znany (czyli zdarzenia, które już się zadziało). W jednym z badań (1972r.) poprosili oni studentów Uniwersytetu w Jerozolimie o ocenę prawdopodobieństwa wystąpienia istotnych zdarzeń, które mogą być skutkiem planowanej podróży prezydenta USA do Chin i ZSRR. Badanym zadano następujące pytania:Czy USA ustanowią stałe stosunki z ChRL? Czy prezydent Nixon spotka się z przewodniczącym Mao? Czy prezydent Nixon ogłosi, że jego podróż zakończyła się sukcesem? Czy grupa sowieckich Żydów zostanie aresztowana za próbę rozmowy z prezydentem Nixonem? Czy USA i ZSRR stworzą wspólny program kosmiczny?

Po zakończeniu tej podróży ci sami studenci zostali poproszeni o przypomnienie sobie jakie prawdopodobieństwa przypisywali konkretnym wydarzeniom. Okazało się, że studenci przypominali sobie (wbrew faktom), że przypisali większe prawdopodobieństwo zdarzeniom, które miały miejsce. Oczywiście tym wydarzeniom, które nie wystąpiły studenci przypisywali niższe prawdopodobieństwo niż w pierwszej fazie badania.

Złudzenie to także zniekształca nasze oceny odpowiedzialności ludzi za ich działania, gdy już znamy wyniki owych działań. W naszych oczach odpowiedzialność za… nieodpowiedzialność będzie mniejsza, jeśli skutki tej nieodpowiedzialności będą mniejsze. Nawet jeśli owa nieodpowiedzialność będzie taka sama. Przyjrzyj się temu przykładowi:

Małżeństwo w trakcie imprezy z przyjaciółmi wysyła sześcioletnią, rezolutną dziewczynkę do sklepu po chleb. Dziewczynka gubi drogę, po kilku godzinach znajduje ją policja i odprowadza do policyjnej izby dziecka. Sprawa zostaje zgłoszona do odpowiednich władz. Sąd jednak umarza postępowanie i poucza jedynie rodziców. Wszystko z powodu małej szkodliwości społecznej czynu. Gdy w innej wersji tej historii zmienimy jeden szczegół – teraz dziecko gubi się, błąka i wpada pod samochód, każdy sad ukarze rodziców i pozbawi opieki nad dzieckiem. A przecież stopień nieodpowiedzialności jest dokładnie taki sam.

Inny przykład:

Ronald Wayne wycofał się po 12 dniach ze współpracy z dwoma pozostałymi założycielami (Steve Jobs i Steve Wozniak) odsprzedając swoje 10% udziałów za 800USD. Dziś te 10% miałoby zupełnie inną wartość pieniężną. Dziś. Ale w latach 70. ubiegłego wieku mało kto (jeśli w ogóle) przewidywał rewolucję na rynku komputerów osobistych i znaczenie działania w tej branży założycieli Apple. Z perspektywy czasu łatwo stwierdzić, że sukces Apple był do przewidzenia ze względu na innowacyjność produktów i talent Jobsa, ale dwa tygodnie po założeniu Apple niekoniecznie wydawało się to tak prawdopodobne.

Ten efekt jest naprawdę silny. I szkodliwy, bo wpływa na naszą ocenę zdarzeń. Przypisujemy sobie większą mądrość niż naprawdę mamy, tylko dlatego, że dysponujemy już wiedzą z „dziś”. Teraz wszyscy ekonomiści wiedzą, że kryzys z 2008 musiał się zdarzyć i przypominają sobie, co go zapowiadało. Teraz wielu wieszczy wstecznie, że Trump musiał być wybrany, bo wszystko na to wskazywało. Co więcej, tu w Polsce wiemy do czego zdolni są politycy, po tym jak już to zrobią. Pełzający determinizm.

W 1989 roku dokonaliśmy rzeczy niezwykłej – drogą negocjacji, bez jednej kropli krwi, zmieniliśmy ustrój z komunistycznego na demokratyczny. Opozycja dogadała się z trzymającymi władzę generałami. Niezwykły sukces. Jednak im więcej lat od niego upływa, tym więcej głosów, że Okrągły Stół był tak naprawdę zmowa elit i zdrada. Przecież komunizm i tak by upadł – zdajemy się mówić. Teraz wiemy, że upadłby, bo upadł. Wtedy naprawdę nikt tego nie przewidywał. No prawie nikt. Tadeusz Tyszka (1999) wspomina, że jedyną osobą publiczną prognozującą w latach 80. XX wieku upadek komunizmu w Polsce był Leszek Moczulski. Mało kto traktował wówczas tę opinię poważnie. Jednak po upadku systemu komunistycznego dały się słyszeć coraz bardziej powszechne głosy, że było to do przewidzenia. Upadku komunizmu nie spodziewali się (przed upadkiem) też sami komuniści. Zmiana oceny tego wydarzenia to zwykły przejaw mądrości wstecznej.


Hartmut Blank, Jan H. Peters, Controllability and hindsight components: Understanding opposite hindsight biases for self-relevant negative event outcomes, Memory & Cognition 2010, 38 (3), 356-365

Wolfgang Hell, Gerd Gigerenzer, Siegfried Gauggel, Maria Mall, Michael Müller, Hindsight bias: An interaction of automatic and motivational factors? Memory & Cognition, Volume 16, Issue 6pp 533–538