Zwiększająca się ilość informacji w obiegu kreuje problemy związane z selekcją kognitywną, twierdzi prof. Thomas Hill, psycholog z Uniwersytetu w Warwick. Badacz wskazuje na efekt zatoru, który sprawia, że wybierane przez nas informacje opierają się coraz bardziej na strachu, presji ze strony znajomych i globalnym syndromie grupowego myślenia.
Problem z roku na rok staje się coraz poważniejszy z tego powodu, iż to co uznajemy za informację, zmienia się w bardzo dynamicznym tempie. Do tego ewoluują również kanały jej rozpowszechniania, wśród których coraz większą rolę odgrywają media społecznościowe.
Prof. Thomas Hill przyjrzał się tym procesom w badaniu zatytułowanym The Dark Side of Information Proliferation, w którym przeanalizował efekt zatoru, jak też pułapki, czy też błędy wynikające z chodzenia na skróty i przesiewania informacji, które stają się niezwykle powszechne w internetowym oceanie.
W efekcie badacz wyróżnił cztery błędy kognitywne: błąd negatywny, błąd stałego przekonania, błąd społeczny oraz błąd przewidywania informacji.
Pierwszy z nich polega na wysokim uwrażliwieniu na negatywną informację, co związane jest wg niego z naszym ewolucyjnym dziedzictwem, które popycha nas do przedkładania niekorzystnych cech informacji nad cechy korzystne przy ich wyszukiwaniu i podejmowaniu decyzji co do ich znaczenia.
Zasadniczo chodzi o to, że instynktownie i emocjonalnie identifikujemy, a następnie szerzymy informacje ryzykowne (sensacyjne), ale odrzucamy informacje wyważone (miarodajne), co prowadzi wg profesora do „amplifikacji ryzyka społecznego”, czyli do masowej paniki, z jaką regularnie mamy do czynienia w mediach społecznościowych.
Jako przykład badacz podaje szybkie rozpowszechnienie się informacji na temat pierwszego przypadku zakażenia wirusem Ebola w Stanach Zjednoczonych na Twitterze, co doprowadziło do produkcji 6000 postów na minutę, które promowały informacje całkowicie niezgodne z faktami.
Inne zjawiska, które mają tendencję do takiej samej amplifikacji to wg niego: terroryzm, wypadki lotnicze, katastrofy naturalne i klęski nuklearne.
Błąd stałego przekonania jest z kolei powiązany z globalnym syndromem grupowego myślenia. Sprawia on, że aby radzić sobie z informacyjnym natłokiem, ludzie personalizują i faworyzują informacje zgodne z ich własnymi przekonaniami, a unikają tych, które im zaprzeczają. Proces ten jest dodatkowo wzmacniany przez algorytmy wyszukiwania i rekomendacji, sterowane dzisiaj głównie przez sztuczne inteligencje.
Przykładowo, w mediach społecznościowych prowadzi to do szerzenia się tzw. baniek i komór pogłosowych, które znacznie ograniczają ekspozycję użytkowników na różnorodność informacyjną. A ogólnie tworzy to sytuację, w której daną grupę ludzi łączy jednolity punkt widzenia, całkowicie izolujący ją od zewnętrznych wpływów, co prowadzi do polaryzacji wobec grup posiadających odmienny punkt widzenia.
Kolejnym przewinieniem jest błąd społeczny, czyli podążanie za stadem, które wykreowało gotowy punkt widzenia, wpływający przede wszystkim, ale nie tylko, na jednostki, które nie mają żadnego zdania na dany temat. Najniebezpieczniejszą stroną tego efektu jest bezkrytyczne poleganie na opiniach, które są faworyzowane przez znaczną większość użytkowników mediów społecznościowych.
I nawet jeśli w wielu przypadkach może to znacznie ułatwić wyrobienie sobie własnego zdania, bardzo często prowadzi do zadowalania się niewłaściwą lub nieprzemyślaną opinią tylko ze względu na jej popularność, będącą skutkiem masowej imitacji. W tym przypadku jednostki całkowicie wyłączają również krytyczne myślenie, pozbywając się w praktyce indywidualnego sądu.
Ostatni z nich, błąd przewidywania informacji, polega na szukaniu i tworzeniu iluzorycznych wzorów, co prowadzi do tworzenia sieci przypadkowych korelacji i przepowiedni wieńczonych tzw. fałszywymi alarmami, czyli przekonaniem o istnieniu fenomenów, które są tylko i wyłącznie wynikiem fałszywych przesłanek.
Te mogą zaś fukcjonować jako statystyczne alternatywy, prowadzące do tworzenia hipotetycznych scenariuszy i podejmowania coraz ryzykowniejszych decyzji, szczególnie na płaszczyźnie ekonomiczno-finansowej, co jest zagrożeniem dla indywidualnych budżetów, ale także budżetów państw i dużych instytucji.
Dodatkowo, prof. Hill uwrażliwia na psychologiczne implikacje informacyjnego zalewu, który znajduje się w nieustannym procesie ewolucji. W związku z tym, że cały czas rośnie konkurencja na naszą uwagę (funkcjonujemy bowiem obecnie w gospodarce uwagi), informacja która skuteczniej ją eksploatuje zyskuje naturalną przewagę w środowisku mediów społecznościowych, szybciej się propagując i docierając do większej liczby użytkowników.
To również jedna z przyczyn gwałtownej proliferacji fałszywych njusów, których największa przewaga polega właśnie na tym, że nie mają nic wspólnego z faktami, a więc idealnie adaptują się do warunków krajobrazu społecznościowego, w którym uwaga jest rządzona przez cztery powyższe błędy.
Ponadto, ogólna zasada ewolucji informacyjnej mówi, że szybsza generacja informacji przyśpiesza ludzką adaptację. A więc im szybciej ludzie znajdują i udostępniają ryzykowną informację, tym szybciej zaczyna ona odzwierciedlać ich błędy poznawcze. Mamy więc do czynienia z galopującym sprzężeniem zwrotnym.
Dla naszych możliwości przyswajania informacji istnieją dobrze zdefiniowane granice psychologiczne. Na nasze nieszczęście, granice te wymuszają na nas ewolucyjny związek z informacją, który nie ma nic wspólnego z naszym optymalnym dobrem. Ludzie nie wyewulowali w środowisku informacyjnym, z którym mamy dzisiaj do czynienia. A dowody sugerują, że wyrywa się ono spod naszej kontroli – podsumowuje prof. Hill.
Conradino Beb
Źródło: Perspectives on Psychological Science