Psychologia

Tak ci się tylko wydaje

Nasze mózgi nie wyewoluowały w celu poznawania świata możliwie najdokładniej i odkrywania obiektywnych prawd dotyczących głębokiej rzeczywistości. Ewoluowały tak, by osiągnąć optymalny stosunek poniesionych nakładów na ich wykształcenie do korzyści, jakie przynoszą. Nasz mózg ma zadanie umożliwić nam orientowanie się w otoczeniu w stopniu wystarczającym, by doczekać wieku rozrodczego (w tym czasie unikać drapieżników i zapewniać sobie pokarm) i skutecznie począć potomstwo, które warto byłoby jeszcze przez jakiś czas odchować.

Niewiarygodne rzeczy, których dokonujemy przy jego pomocy, rozwój nauki i techniki, osiąganie zdolności pojmowania naszego umysłu, odnajdywanie się w całkowicie obcych mu rzeczywistościach – wszystko to jest niczym podkręcanie procesora bez zapewniania mu dodatkowego chłodzenia – próbujemy wycisnąć z tego organu więcej, niż było dla niego przewidziane.

Dlatego w wielkich miastach cierpimy czasem jak zwierzęta w zoo, dlatego złudzenie anonimowości w internecie pozbawia nas zahamowań, z tego powodu przemysł kosmetyczny wpędza nas w kompleksy. Wychowaliśmy się w mniejszych grupach i w innym krajobrazie, jesteśmy przyzwyczajeni do większej ilości informacji (w tym niewerbalnej) w procesie komunikacji i nigdy nie widzieliśmy dookoła siebie taki wielkiej liczby tak atrakcyjnych ludzi (niejednokrotnie zaistniałych tylko dzięki programom graficznym). Różne nasze skłonności sprawiają także, że chętnie ulegamy autorytetom , co z kolei miewa katastrofalne skutki.

Aspekt pracy naszego mózgu, o którym chciałbym dzisiaj opowiedzieć, ma bezpośrednie przełożenie na to, jakim widzimy świat, w którym żyjemy. To, czy postrzegamy go jako miejsce wrogie i niebezpieczne czy też nie, a także jak oceniamy szanse wystąpienia rzeczy, które mogą się nam przydarzyć. Mózg pracuje w określony sposób, porusza się pewnymi mniej lub bardziej utartymi drogami – stosuje heurystyki poznawcze – drogi na skróty, którymi podąża nasze wnioskowanie, dzięki czemu myślimy szybko i na ogół skutecznie – czasami, zwłaszcza wobec nowych sytuacji, wiedzie go to na manowce. Warto bowiem wiedzieć, że m.in. na takich myślowych drogach na skróty opierają się także liczne techniki wywierania wpływu na ludzi.

* * *

Błędy poznawcze to właściwe nam nieracjonalne sposoby postrzegania rzeczywistości. Najważniejszym z nich jest przeświadczenie, że to, co spostrzegamy jest niezaprzeczalnie prawdziwe – jak w: wiem co widziałem!. Owo poczucie, iż jest się wolnym od błędów poznawczych nazywamy błędem plamki ślepej.

Zasada podczepienia (bandwagon effect). Jeśli nie wiesz co myśleć, zobacz, co myślą inni. Nazywana także owczym pędem czy mentalnością stada – czujemy się dobrze, kiedy wybór podzielają inni członkowie społeczności, zwłaszcza, kiedy zależy nam na ich akceptacji. Im więcej osób dokonało danego wyboru, tym większe prawdopodobieństwo, iż kolejna jednostka postąpi tak samo. Jest przyczyną wybierania złych polityków (głosujemy na partie, na które głosują inni), szałów zakupowych na dane produkty, pewnie nie bez znaczenia jest też w wypadku mód i trendów. Częściowo odpowiada także za tzw. efekt sieciowy, który z kolei odpowiada za sukces ekonomiczny Microsoftu

Zaniedbywanie miarodajności (base rate fallacy). Im więcej wiemy, tym niekiedy większe prawdopodobieństwo błędu. Duża ilość szczegółowych informacji powoduje, iż mamy tendencję do przypisywania im większej wagi, niż na to zasługują a informacjom, istotnym, wagi mniejszej. Wiemy, iż pośród homoseksualnej części populacji jest znacznie większy odsetek nosicieli wirusa HIV, niż wynikałoby to z ich udziału w populacji. Wyobraź sobie, iż masz ocenić prawdopodobieństwo, iż dowolnie wylosowany z populacji zarażonych człowiek jest homoseksualistą. Jeśli wydaje Ci się, że jest większe niż prawdopodobieństwo, że będzie heteroseksualistą, masz piękny przykład błędu. Populacja składa się w ogromnej większości z heteroseksualistów, co oznacza, że zarażonych i tak będzie wśród nich więcej.

Błąd plamki ślepej (blind-spot bias). „Może inni się mylą, ja – nigdy.” Z reguły nie doceniamy stopnia w jakim sami ulegamy błędom poznawczym – kiedy oceniamy prawdopodobieństwo ich wystąpienia, stosujemy bowiem introspekcję – sami zaglądamy w głąb siebie i nie znajdujemy niczego, co mogłoby wskazywać na popełnienie przez nas błędu. Sęk w tym, że gdyby ślady takich błędów byłyby dla nas w prosty sposób dostępne, prawdopodobnie nie byłyby one tak rozpowszechnione. Typowy przykład ograniczeń mózgu poznającego samego siebie.

Efekt wspierania decyzji (choice-supportive bias). „Z perspektywy czasu, postąpiłem słusznie.” To bardzo możliwe, choć warto zauważyć, iż z pewnych względów nie mamy możliwości oceny skutków ewentualnego wyboru opcji alternatywnej – w rezultacie mamy tendencję do wyższego wartościowania tych decyzji, które podjęliśmy. W badaniach zaobserwowano, iż po fakcie mamy większą skłonność do przypisywania pozytywnych cech do tych możliwości, które wybraliśmy (i negatywnych do tych, które nie wybraliśmy), choć mogły nie mieć z nimi nic wspólnego.

Efekt potwierdzania (confirmation bias). Wszystko wskazuje na to, że mam rację [jeśli odpowiednio poszukasz]. Mamy tendencję do selekcji informacji pod kątem tych, które potwierdzają nasze wcześniejsze założenia a także takiego jej poszukiwania, którego wyniki mogą potwierdzić to,  w co wierzymy. Badani przez P. C. Wasona zostali poproszeni o odnalezienie reguły – metodą weryfikacji własnych hipotez – według której wyświetlane są trójelementowe sekwencje liczb (reguła brzmiała: każda kolejna cyfra jest większa od poprzedniej). Tworzyli karkołomne hipotezy i, co najważniejsze, stosowali weryfikację w taki sposób, żeby raczej potwierdzała ich pomysły niż im przeczyła, utwierdzając się tym samym w błędnych przekonaniach. Odpowiada za wiarę w przesądy (zapamiętujemy te sytuacje, kiedy szczęśliwa bielizna przyniosła nam szczęście a nie zauważamy lub nie zapamiętujemy tych, gdy tak nie było), moc modlitwy, pseudonaukę i pseudomedycynę – w rezultacie dowody anegdotyczne okazują się być doskonałymi kontrargumentami dla wyników badań naukowych. Naukowcy także nie są od nich wolni – wyniki badań przeczące naszej hipotezie muszą być co najwyżej błędami eksperymentu.

Efekt zaprzeczania (disconfirmation bias). Analogiczna sytuacja – jeśli fakty przeczą mojej opinii, tym gorzej dla faktów.  Badanym zwolennikom i przeciwnikom kary śmierci zaprezentowano rzekome badania nad tą karą. Wyżej oceniane były badania zgodne z wyznawanym przez badanego poglądem, wskazywano wiele argumentów przeciwko badaniom o wynikach przeciwnych. Rzecz w tym, że prezentowane badania różniły się tylko wnioskami.

Złudzenie Ebbinghausa. Grafika w domenie publicznej, autor: Fibonacci

Efekt kontrastu (contrast effect). Wszystko zależy od kontekstu. Najprościej ilustruje to klasyczne złudzenie wzrokowe Ebbinghausa. Choć wszyscy wiemy na czym polega, nadal ulegamy złudzeniu, iż prawa kropka w środku jest większa od lewej (to chyba doskonale symptomatyczne dla innych błędów poznawczych) Dotyczy nie tylko okręgów ale i większości dziedzin życia: oceny wystąpień, wypracowań, sprzedawanych produktów, a także np. oceny atrakcyjności potencjalnych partnerów – badania pokazują, iż na łowy matrymonialne warto niekiedy zabrać ze sobą podobnego do nas, lecz nieco mniej atrakcyjnego, towarzysza tej samej płci.

Skrzywienie zawodowe (fr. déformation professionnelle). Utrata szerszej perspektywy. Przykład: nie ma normalnych, są tylko jeszcze nie przebadani, lub, jak określił to A. Maslow – gdy jedynym narzędziem jakie posiadasz jest młotek, wszystko wygląda jak gwóźdź. Kiedy już poznaliśmy jakiś temat dobrze, nieświadomie uznajemy, iż jest on niezmiernie istotny i nasza wiedza ma zastosowanie uniwersalne. Dotyczy w szczególności studentów pierwszych lat.

Efekt posiadania (endowment effect). Jak w: „Moje auto nie jest tyle warte?! Przecież tyle dla mnie znaczy!”. Mamy tendencję do przeceniania wartości przedmiotów, które posiadamy, mimo, iż w innej sytuacji sami nie ocenilibyśmy ich tak wysoko. W badaniach próbujemy drożej sprzedać przedmioty, które chwilę wcześniej otrzymaliśmy na własność. Przypuszczalnie nie bez przyczyny jest nasze utożsamianie tego, co posiadamy, z nami samymi. Ekonomiści kwestionują jednak rzeczywiste istnienie efektu.

Efekt skupienia i zakotwiczanie się (focusing effect, anchoring). Złej baletnicy i drzazga w oku… Mamy tendencję do skupiania się na szczegółach i trudności z wyjściem poza to „zakotwiczenie”. Wynika to prawdopodobnie z tzw. heurystyki zakotwiczania – propozycje odpowiedzi podawane przez zgadującą grupę będą na ogół koncentrowały się wokół pierwszych rozsądnie brzmiących wartości. Działa to także na skalę indywidualną i wobec kompletnie niezwiązanych ze sobą wartości liczbowych – badani poproszeni o podanie numerów swoich ubezpieczeń zdrowotnych decydowali się na składanie znacznie wyższych ofert w ustawionej licytacji. Efekt skupienia oznacza przywiązywanie dużej wagi do czynników, które tak naprawdę nie mają znaczenia – wszyscy wiemy, że ludzie żyjący w tropikach są szczęśliwsi, gdyż mają ładną pogodę. Zapominamy jednak o wielu niedogodnościach ich życia – chorobach tropikalnych, niebezpiecznych gatunkach zwierząt, niestabilnej sytuacji politycznej, trudnej sytuacji ekonomicznej…).

Efekt ram (framing effect). Odbiór informacji zależy od sposobu i kontekstu jej zaprezentowania (patrz ilustracja niniejszego tekstu).
Złudzenie kontroli (ilusion of control). Złudzenie poczucia sprawowania kontroli lub wywierania wpływu na wynik wydarzeń, na które wpływu nie mamy. Badanych poproszono o próbę pokierowania wciskaniem klawiszy powodujących rozświetlenie się lampek oznaczonych jako „Score” (punkty) i „No Score” (bez punktów), tak, aby mieć kontrolę nad ta, którą lampkę zapalają. W jednym wypadku, klawiszom rzeczywiście przypisane było pewne stałe prawdopodobieństwo aktywowania danej lampki, w drugim, nie istniało żadne połączenie. Badanym powiedziano, że może okazać się, iż nie mają możliwości kontroli. Okazało się, że deklarowany przez badanego poziom wywierania wpływu nie był związany z tym, jaki wpływ badany rzeczywiście miał. Podobny efekt obserwuje się w kasynach, gdzie na ogół rzucamy kostką mocniej wtedy, gdy zależy nam na wyższym wyniku a słabiej w wypadku przeciwnym. Ponieważ nasz mózg  przywykł do znajdywania zależności przyczynowo-skutkowych w otaczającym nas świecie (to adaptacyjne, warto wiedzieć dlaczego spotyka nas to, co nas spotyka), mamy tendencję do wynajdywania połączeń. Mechanizm prawdopodobnie nie bez znaczenia przy powstawaniu przesądów – zaobserwowano, iż gołębie rejestrują czynności, które wykonywały w czasie podawania im pokarmu (losowo) i próbują je powtarzać.

Iluzja wstrząsu (impact bias). Dobra (i zła) wiadomość – mamy tendencję do przeceniania wpływu, jaki dane zdarzenie wywrze na nasz stan psychiczny – z reguły dochodzimy do siebie po wstrząsach szybciej, niż nam się wydaje, że będziemy. Nie doceniamy naszego „psychicznego układu immunologicznego”. Niestety dotyczy to także powrotów na ziemię po radosnych wydarzeniach.

Efekt niepotrzebnych informacji (information bias). Lepiej wiedzieć więcej, niż mniej. Tak nam się przynajmniej wydaje – i na ogół tak jest – jesteśmy stworzeniami bezprecedensowo ciekawymi świata (lub przynajmniej nasze możliwości sprawiają, że skuteczniej się w tym realizujemy?), przypuszczalnie ma to związek z naszą neotenicznością. Nasze organizmy wzrastają nieproporcjonalnie długo i jednocześnie (choć dzieje się to relatywnie bardzo późno) uprzednio osiągamy dojrzałość seksualną, dzięki czemu długo zachowujemy cechy młodzieńcze. Niemniej jednak, kiedy możemy wiedzieć więcej, próbujemy dowiedzieć się więcej, choć informacje te są obiektywnie niepotrzebne i jedynie zakłócają osąd.

Eskalacja zaangażowania (escalation of commitment). Kiedy coś robić, to do końca; jeśli wlazłeś między wrony, musisz krakać tak, jak one; kiedy powiedziało się A, trzeba powiedzieć B… Konsekwencja uważana jest za cnotę i lubimy myśleć o sobie, jako o osobach konsekwentnych. M.in. dlatego mamy tendencję do uzasadniania i kontynuowania naszych działań nawet wtedy, gdy są one w oczywisty sposób błędne. Obawiamy się także utraty tego, co już zainwestowaliśmy i, nie bacząc na to, że stracimy jeszcze więcej, konsekwentnie powtarzamy wybór. Prostym przykładem jest myślenie typu: „czekałem tak długo, poczekam jeszcze trochę – inaczej czekałbym na marne”. Mechanizm widoczny w wielu licytacjach, w eksperymentach badani ostatecznie licytują jednego dolara za kilka dolarów. Może odpowiadać za podtrzymywane zaangażowanie USA w konflikty zbrojne, jak w wypadku Wietnamu i Iraku. Uwaga na regułę zaangażowania, jedną z najskuteczniejszych technik manipulacji.

Iluzja sprawiedliwego świata (just-world illusion). Każdy ma to, na co zasłużył lub też „jej wina, bo wyzywająco się ubierała”. Milcząco zakładamy, że świat jest sprawiedliwy i przyczyn nieszczęść, które dotykają innych ludzi (a które obiektywnie nie są ich winą) upatrujemy w nich samych. Dzięki temu, świat pozostaje bezpiecznym miejscem i możemy wierzyć, że jeśli sami się o to nie postaramy, nie spotka nas nic złego. Niektórzy badani obserwujący przebieg rzekomego eksperymentu pamięciowego w którym kobieta zostaje rażona prądem oceniają, iż widocznie sobie na to zasłużyła słabymi wynikami a ją samą jako mniej atrakcyjną. W innych badaniach, badanym przedstawiono dwie niemal identyczne historie pewnej kobiety, różniące się jedynie zakończeniem – w jednej wersji mężczyzna oświadcza się jej, w drugiej ją gwałci. W obu wypadkach, w ocenie badanych, uczynki kobiety w oczywisty sposób doprowadziły do takiego a nie innego zakończenia. Złudzenie być może leżące u podłoża pojęć karmy i zła powracającego do nadawcy.

Efekt ekspozycji, efekt częstej ekspozycji (mere-exposure effect). „Ja lubię tę piosenki, które już słyszałem.”. Pozytywniej oceniamy rzeczy (nawet takie, które nie przedstawiają dla nas żadnego znaczenia – w oryginalnych badaniach R. Zajonca – chińskie ideogramy) które widzieliśmy częściej, także wtedy, kiedy nie wiemy, że je widzieliśmy (bodźce prezentowane podprogowo). Okazuje się, że w podobny sposób działa także w drugą stronę – jeśli czegoś nie lubimy na początku, w miarę ekspozycji, nasza antypatia będzie wzrastać. Wiedzą o tym reklamodawcy, działa także w relacjach międzyludzkich.

Przewaga doznań negatywnych (negativity bias). „Zawsze widzisz tylko te ciemne strony.” Większą wagę przywiązujemy i więcej uwagi poświęcamy wydarzeniom i doświadczeniom negatywnym, na przykład w programach informacyjnych. Otrzymawszy o nieznajomej osobie dwie informacje – pozytywną i negatywną, oceniamy ją raczej negatywnie (choć + i – mogłyby się wyzerować).  W nowych sytuacjach zauważamy raczej zagrożenia i to, co mogłoby pójść nie tak, niż szanse i pozytywy. Można przypuszczać, iż ma to znaczenie adaptacyjne – unikanie zagrożeń jest dość istotnym czynnikiem decydującym o przetrwaniu osobnika.

Efekt niecodzienności (nazwa autorska, ang. normalcy bias). W głowie mi się to nie mieści, lub też : „U nas takie rzeczy się nie dzieją”. Skoro coś nas do tej pory nie spotkało, oznacza, że nie spotka nas nigdy. Obserwują się wyraźną tendencję do niedoceniania prawdopodobieństwa wydarzeń, które jeszcze nas nie spotkały. W dodatku, każde niejasności i niepewności w ewentualnych ostrzeżeniach interpretujemy w sposób optymistyczny. Możliwe, że w sytuacjach klęsk żywiołowych skłania wielu ludzi do pozostania w domach pomimo wyraźnych poleceń ewakuacji.

Efekt wyniku (outcome bias). Po owocach ich poznacie. Ludzie przejawiają tendencję do nieracjonalnej oceny podjętych decyzji, kiedy znane są ich rezultaty. W oczywisty sposób oceniamy ją uwzględniając to, co wiemy post factum a czego podejmujący decyzje w oczywisty sposób nie mógł wiedzieć. Badani oceniają tę samą decyzję chirurga jako słuszną lub nie, w zależności od tego, czy pacjent przeżył – w obu wypadkach informuje się ich o takim samym prawdopodobieństwie powodzenia.

Racjonalizacja zakupu (post-purchase rationalisation). Oczywiście, że potrzebuję kolejnej pary butów, tamte 14 par ma już ponad rok! Racjonalizacja zakupów jaka jest, każdy widzi. Prawdopodobnie ma związek z efektem zaangażowania, wynika z konieczności zachowania dobrego samopoczucia i mniemania o sobie w wypadku wątpliwości odnośnie podjętej decyzji. Alternatywą jest zły nastrój, którego nikt nie lubi.

Efekt pseudopewności (pseudocertanity effect). Mamy tendencję do unikania ryzyka, gdy przewidywany rezultat jest pozytywny a dążenia do niego, gdy negatywny, wszystko zależy od sformułowania problemu. Badanym przedstawiono sytuację epidemii w której zagrożone jest życie 600 osób. Zaproponowano dwie metody leczenia – wiadomym jest, iż pierwsza na pewno uratuje 200 z nich, druga zaś ma 33,(3)% szans na ocalenie wszystkich chorych i 66(,6)% na nieuratowanie nikogo. 72% badanych wybiera opcję pierwszą. W drugim scenariuszu epidemicznym,  pierwsza metoda daje pewność śmierci 400 osób z 600 a druga 33,(3)% ocalenia wszystkich i 66,(6)% śmierci wszystkich. Tym razem, 78% badanych wybiera opcję drugą, choć obie oznaczają dokładnie to samo, choć przedstawione innymi słowami.

Reaktancja (reactance). Zakazany owoc smakuje najbardziej. Mamy tendencję do podejmowania prób przywrócenia wolności wyboru którą odczuwamy jako zagrożoną. Dotyczy w szczególności osób młodych, tym silniej im ważniejsza wydaje się zagrożona wolność, skutecznie powoduje nieskuteczność zakazów.

Efekt status quo (status quo bias). Lubimy rzeczy takimi jakimi są. Jeśli nie musimy, na ogół nie podejmujemy próby ich zmiany, ponieważ wymaga to nakładów kosztów i wiąże się z ryzykiem pogorszenia sytuacji. Prawdopodobnie rezultat naszej (stwierdzonej eksperymentalnie) awersji do straty i ryzyka.

Efekt von Restorffa, efekt izolacji („von Restorff effect”). Kolejna oczywista prawda, łatwiej zapamiętujemy rzeczy, które się wyróżniają.

Myślenie życzeniowe (wishful thinking). „Chciejstwo”, „jakoś to będzie”, mieszanie łyżeczką w herbacie, w celu uczynienia jej słodszą. Tendencja do przewidywania i podejmowania decyzji w oparciu o optymistyczne i nierealistyczne scenariusze, powiązane z efektami potwierdzenia i zaprzeczenia. Odpowiada za wiarę przywódców w łagodne zimy.

Oprócz tego istnieje również cała masa pomniejszych i specyficznych błędów Na przykład efekt bilonu (nazwa autorska, denomitation effect), udowodniona naukowo tendencja do wydawania większej ilości pieniędzy, gdy są one w mniejszych nominałach; efekty dotyczące prowadzenia badań naukowych (znacznie prościej jest je spartaczyć, niż przeprowadzić dobrze), efekt zaniedbania (omission bias) – tendencja do surowszej oceny działań o szkodliwych skutkach, niż identyczne w skutkach decyzje o niedziałaniu czy zaniechaniu działania, czy też wreszcie tendencja do przeceniania naszych możliwości przy planowaniu działań. Trudno oprzeć się wrażeniu, że wszystkie one razem sprawiają, że nasze życie staje się barwniejsze, a na pewno wydaje się prostsze i bardziej zrozumiałe.

Więcej informacji:
Artykuł pochodzi z http://zaozi.blogspot.com/
FallacyFiles
Psychology of Intelligence Analysis, ebook opublikowany przez CIA
Print Friendly, PDF & Email

O autorze

Michał Kosakowski

Student psychologii na poznańskim UAM. W psychologii najbardziej interesują go psychologia ewolucyjna i psychologia społeczna. Biega długodystansowo, interesuje się m.in. zielonym surwiwalem i głęboką ekologią. Miłośnik prozy Douglasa Adamsa. Prowadzi własnego - nie tylko psychologicznego - bloga pod adresem zaozi.blogspot.com.