pl   -   en

Trzy rodzaje uprzedzeń, przez które twój kanał informacyjny jest pełen fałszywych wiadomości, pseudonaukowych teorii oraz innych śmieci

Naukowcy z Uniwersytetu Indiany zauważyli, że „gwałtowna konkurencja o ograniczoną uwagę użytkowników sprawia, iż pewne idee rozprzestrzeniają się po sieci mimo swej słabej jakości. Nawet jeżeli ludzie wolą się dzielić wartościowymi wiadomościami”.



Media społecznościowe są jednym z głównych źródeł wiadomości w Stanach Zjednoczonych i na całym świecie. Użytkownicy są jednak narażeni na treści mijające się z prawdą: teorie spiskowe, wiadomości obfitujące w clickbaity, teksty stronnicze, teorie pseudonaukowe, a nawet sfabrykowane raporty na temat fake newsów.

Nic dziwnego, że w sieci można się natknąć na dezinformację na każdym kroku: spam i oszustwa internetowe opłacają się przestępcom, propaganda rządowa i polityczna przynoszą korzyści zarówno partyjne, jak i finansowe. Dlaczego jednak treści o małej wiarygodności rozprzestrzeniają się tak szybko i tak łatwo? Być może to użytkownicy oraz algorytmy platform mediów społecznościowych są podatni na manipulację.

Nasze badania zidentyfikowały trzy uprzedzenia, w związku z którymi ekosystem mediów społecznościowych jest podatny na zarówno celową, jak i przypadkową dezinformację. Dlatego nasze Obserwatorium ds. Mediów Społecznościowych na Uniwersytecie Indiany przygotowuje narzędzia, które pomagają ludziom radzić sobie z zagrożeniami i chronić się przed negatywnymi wpływami zewnętrznymi.

Uprzedzenia w mózgu

Uprzedzenia poznawcze powstają w czasie przetwarzania przez mózg informacji, które bombardują człowieka każdego dnia. Mózg radzi sobie ze skończoną liczbą informacji, a zbyt wiele bodźców może spowodować przeciążenie. Ma to istotny wpływ na jakość informacji w mediach społecznościowych. Zauważyliśmy, że gwałtowna konkurencja o ograniczoną uwagę użytkowników sprawia, iż pewne idee rozprzestrzeniają się po sieci mimo swej słabej jakości. Nawet jeżeli ludzie wolą się dzielić wartościowymi wiadomościami.

Aby uniknąć przeciążenia, mózg stosuje wiele sztuczek. Są one zazwyczaj skuteczne, ale łatwo mogą się przerodzić w uprzedzenia, gdy zostaną zastosowane w niewłaściwych kontekstach.

Jeden ze skrótów poznawczych pojawia się, gdy dana osoba decyduje, czy podzielić się jakąś wiadomością z mediów społecznościowych. Z reguły zwraca wtedy uwagę na emocjonalne konotacje nagłówka tej wiadomości, mimo że nie jest to dobry wskaźnik jej wiarygodności. O wiele ważniejszą informacją jest to, kto jest autorem tekstu.

Aby zapobiegać tworzeniu się uprzedzeń, a zarazem zwracać większą uwagę na źródło wiadomości przed przekazaniem jej dalej, opracowaliśmy Fakey – mobilną grę opartą na umiejętności czytania i rozumienia newsów (dostępną za darmo w systemach Android i iOS). Fakey udaje typowy kanał wiadomości w mediach społecznościowych, w którym czytelnik znajdzie informacje ze źródeł o dużej i małej wiarygodności. Gracze otrzymują punkty za udostępnianie wiadomości z wiarygodnych źródeł i zgłaszanie podejrzanych treści w celu weryfikacji faktów. W ten sposób uczą się rozpoznawać wiarygodne cechy źródeł, jak np. treści stronnicze i nagłówki wiadomości o dużym ładunku emocjonalnym.

Uprzedzenia w społeczeństwie

Innym źródłem uprzedzeń jest społeczeństwo. Gdy dobieramy sobie przyjaciół wśród rówieśników, uprzedzenia zniekształcają nasz osąd rzeczywistości.

Dzięki naszym badaniom odkryliśmy, że możliwe jest określenie politycznych sympatii użytkownika Twittera poprzez analizę treści stronniczych zamieszczanych przez jego znajomych. Analiza struktur stronniczych sieci komunikacyjnych w ramach portali społecznościowych wykazała, że portale te są szczególnie skuteczne w rozsiewaniu informacji – prawdziwych lub nie – kiedy sieci są ściśle ze sobą powiązane, a zarazem odseparowane od reszty społeczeństwa.

Tendencja użytkowników do bardziej przychylnej oceny sytuacji, jeśli wiadomość o niej pochodzi z ich bliskich kręgów społecznych, tworzy tzw. komory echa, gotowe do manipulacji, świadomej lub nieumyślnej. Pomaga to wyjaśnić, dlaczego tyle rozmów w trybie online zmienia się w konfrontację typu „my kontra oni”.

Aby zbadać, w jaki sposób struktura internetowych sieci społecznościowych sprawia, że użytkownicy są podatni na dezinformację, zbudowaliśmy system Hoaxy. Śledzi on i opisuje rozprzestrzenianie się treści ze źródeł o małej wiarygodności oraz sposób, w jaki treści te rywalizują ze sposobami na sprawdzanie faktów. Nasza analiza danych zebranych przez Hoaxy podczas wyborów prezydenckich w USA w 2016 r. pokazuje, że konta na Twitterze, które rozpowszechniają dezinformację, zostały niemal całkowicie odcięte od poprawek dokonanych przez kontrolerów faktów.

Po dokładnej analizie kont szerzących treści dezinformujące wyróżniliśmy grupę tworzącą rdzeń całego systemu, która retweetuje się wzajemnie, zawierającą również kilka botów. Użytkownicy czytający dezinformujące treści prawie w ogóle nie odwoływali się do organizacji sprawdzających fakty. Wspominali o nich jedynie wtedy, gdy kwestionowały ich prawdomówność lub miały odmienne zdanie na temat zmanipulowanych faktów.

Uprzedzenia w komputerze

Trzecia grupa uprzedzeń pochodzi bezpośrednio z algorytmów używanych do określania treści, które wyświetlają się użytkownikom w internecie. Wykorzystują je zarówno serwisy społecznościowe, jak i wyszukiwarki. To technologie personalizacji, które mają na celu wybranie najbardziej interesujących i odpowiednich treści pod kątem każdego użytkownika. Może to doprowadzić do wzmocnienia poznawczych i społecznych uprzedzeń użytkowników, którzy staną się jeszcze bardziej podatni na manipulację.

Na przykład szczegółowe narzędzia reklamowe wbudowane w wiele platform mediów społecznościowych pozwalają podmiotom dezinformującym wykorzystywać efekt potwierdzenia – tak przygotowują oni komunikat, aby adresaci uwierzyli w niego jeszcze łatwiej.
Co więcej, jeżeli użytkownik często klika linki na Facebooku pochodzące z określonych źródeł wiadomości, FB będzie podsyłał tej osobie jeszcze więcej treści z tych samych witryn. To tzw. efekt bańki filtracyjnej, który może pozbawiać ludzi możliwości spojrzenia na coś z innej, świeżej perspektywy, wzmacniając wspomniany efekt potwierdzenia.

Nasze badania pokazują, że platformy mediów społecznościowych proponują użytkownikom mniej zróżnicowany zestaw źródeł niż witryny niebędące społecznościowymi, takie jak np. Wikipedia. Zjawisko to analizujemy z poziomu platformy, a nie pojedynczego użytkownika, dlatego nazywamy je efektem jednorodności grupy obcej.

Innym ważnym elementem mediów społecznościowych są informacje, które zyskują popularność na platformie zgodnie z tym, co osiąga największą liczbę kliknięć. Nazywamy to uprzedzeniem popularności – odkryliśmy, że algorytm opracowany w celu promowania popularnych treści może negatywnie wpłynąć na ogólną jakość informacji na platformie. Zjawisko to również wpisuje się w istniejące uprzedzenia poznawcze: wzmacnia to, co wydaje się popularne, niezależnie od jakości newsa.

Wszystkie te algorytmiczne uprzedzenia mogą być manipulowane przez boty społecznościowe i programy komputerowe, które wchodzą w interakcje z ludźmi za pośrednictwem kont na platformach mediów społecznościowych. Większość botów społecznościowych, takich jak np. Big Ben na Twitterze, nie jest szkodliwa. Warto jednak uważać: niektóre ukrywają swą prawdziwą naturę i są wykorzystywane do złośliwych celów, np. do zwiększenia dezinformacji lub tworzenia pozornie spontanicznych obywatelskich akcji lub inicjatyw zwanych „astroturfingiem”. Znaleźliśmy dowody na tego rodzaju manipulacje w czasie poprzedzającym wybory w USA w 2010 r.

Aby zbadać te strategie manipulacji, opracowaliśmy narzędzie do wykrywania botów społecznych o nazwie Botometer. Wykorzystuje ono uczenie maszynowe do wykrywania kont botów, sprawdzając tysiące różnych cech kont na Twitterze, takich jak: godziny wysyłania postów, częstotliwość ich wysyłania oraz konta, które obserwują i retweetują. Botometer nie jest doskonały, ale okazało się, że aż 15% kont na Twitterze przypomina boty.

Używając Botometru w połączeniu z Hoaxy, przeanalizowaliśmy rdzeń sieci dezinformacji podczas kampanii prezydenckiej w USA w 2016 r. Znaleźliśmy wiele botów wykorzystujących uprzedzenie poznawcze, efekt potwierdzenia i uprzedzenie popularności u swoich ofiar, jak również algorytmiczne uprzedzenia Twittera.

Te boty są w stanie zbudować bańki filtracyjne wokół podatnych na wpływ użytkowników, karmić ich fałszywymi wiadomościami i dezinformacją. Mogą zwrócić uwagę ludzi, którzy wspierają danego kandydata, podając jego hashtagi, wspominając informacje o nim i retweetując jego wpisy. Następnie boty mogą wzmacniać fałszywe treści, dyskredytując przeciwników poprzez ponowne przesyłanie artykułów ze źródeł o małej wiarygodności, według określonych słów kluczowych. Ta czynność powoduje również, że algorytm wyróżnia fałszywe wiadomości, które są szeroko udostępniane innym użytkownikom.

Zrozumienie złożoności luk w systemie

Chociaż badania nasze i innych naukowców pokazują, w jaki sposób osoby, instytucje, a nawet całe społeczeństwa mogą być manipulowane w mediach społecznościowych, i tak pozostaje wiele pytań, na które trzeba odpowiedzieć. Szczególnie ważne jest odkrycie, w jaki sposób trzy wymienione w tym artykule rodzaje uprzedzeń współdziałają ze sobą, tworząc potencjalnie jeszcze bardziej złożone luki w systemie.
Narzędzia takie jak nasze oferują internautom więcej danych na temat dezinformacji, a co za tym idzie – jakiś stopień ochrony przed wyrządzanymi przez nią szkodami. Rozwiązania prawdopodobnie nie będą opierać się jedynie na technologii, choć będą zawierać pewne aspekty techniczne. Trzeba również wziąć pod uwagę poznawcze i społeczne aspekty tego problemu.

Giovanni Luca Ciampaglia prowadzi badania naukowe w Instytucie Nauki o Sieci na Uniwersytecie Indiany. Filippo Menczer jest profesorem informatyki oraz dyrektorem Centrum Złożonych Sieci i Systemów Badań na Uniwersytecie Indiany.

Wizualizacja u góry pokazuje użytkowników, którzy dzielą się potencjalnymi treściami nieprawdziwymi na Twitterze (na fioletowo) i rzadko kiedy korzystają z wiadomości już zweryfikowanych oraz opcji sprawdzania faktów (na pomarańczowo) – tutaj.

Czytaj również

Zamknij