Nie radzimy sobie z określaniem skali problemu fake news

28 kwietnia 2017

„Coś, czego Facebook nigdy przedtem nie zrobił: zignorowanie sympatii i antypatii swoich użytkowników.” Strasznie mi się spodobał zamieszczony niedawno na portalu BuzzFeed esej pt. „Donald Trump a amerykańskie narodowe załamanie nerwowe: otwieranie telefonu to dziś koszmar”, w którym Katherine Miller pisze: „Jest tyle dysharmonijnego szumu, że samo wyławianie każdego elementu z osobna i śledzenie jego wędrówki przez cykl informacyjny wymaga ogromnego wysiłku. Trudno się w tym wszystkim zorientować”.


Artykuł autorstwa Laury Hazard Owen ukazał się w serwisie NiemanLab, z którym współpracujemy.


Artykuł ten przypomniał mi się, gdy zastanawiałam się, jak opisać miliony drobnych nieustannych ogłoszeń i inicjatyw Facebooka mających na celu śledzenie fałszywych wiadomości: Trudno się w tym wszystkim połapać, pamiętać, które z nich są zupełnie nowe a które jedynie podkreślają te wcześniejsze, czy też rozpoznać, które z nich rzeczywiście wyrażają zmianę wcześniejszego stanowiska firmy.

Farhad Manjoo prześledził niektóre z tych przypadków zmian stanowiska Facebooka w artykule z pierwszej strony najnowszego numeru New York Times, pt. „Czy Facebook jest w stanie naprawić swój najpoważniejszy defekt?”, na potrzeby którego przeprowadził kilka wywiadów z Markiem Zuckerbergiem. W artykule czytamy:

— Jest to ułamek procenta wszystkich postów — twierdzi [Adam Mosseri, wiceprezes ds. Aktualności]. Pytanie, na które firma musi sobie teraz odpowiedzieć, brzmi: czy problem dezinformacji przypomina w ogóle zjawisko »clickbaitów« i czy jego rozwiązania równie ładnie wpiszą się w światopogląd Facebooka? Jeśli chodzi o wiadomości, cały projekt Facebooka opiera się na założeniu, że indywidualne preferencje ludzi są w ostatecznym rozrachunku zbieżne z dobrem publicznym a jeśli nie widać tego od razu, to znaczy, że nie analizujemy danych wystarczająco dogłębnie. Natomiast dekady badań z dziedziny nauk społecznych wskazują, że większość z nas po prostu woli to, co zgadza się z naszym światopoglądem, nawet jeśli nie ma nic wspólnego z prawdą, oraz że podążanie za tymi wszystkimi sygnałami preferencyjnymi prawdopodobnie pogrąży nas w bańkach zamiast z nich wyprowadzić.

W czwartek Facebook wydał białą księgę przedstawiającą w skrócie nowe metody, za pomocą których firma „[rozszerzyła] zakres swojej polityki bezpieczeństwa z tradycyjnych niewłaściwych zachowań, takich jak włamania na konto, złośliwe oprogramowanie, spam i oszustwa finansowe, na subtelniejsze i bardziej podstępne formy nadużyć, w tym próby manipulacji dyskursem obywatelskim i zwodzenia ludzi”. Jedną z kwestii, na których skupia się księga, jest „fałszywe wzmacnianie”.

„Konta fałszywych wzmacniaczy przejawiają się na różne sposoby w zależności od miejsca na świecie i w regionie” — piszą autorzy. Lecz „w dłuższej perspektywie te nieprawdziwe sieci i konta mogą zagłuszyć prawdziwe wiadomości a nawet zniechęcić ludzi do jakiegokolwiek zainteresowania się nimi.” Zjawisko to może obejmować m.in. „zakładanie fałszywych kont, czasami masowo”, „skoordynowane »lajki« lub reakcje” oraz:

Tworzenie Grup lub Stron z konkretnym zamiarem rozpowszechniania sensacyjnych lub mocno tendencyjnych informacji lub nagłówków, często przeinaczając fakty tak, by wpisywały się w narrację.” Strony takie zawierają czasami także treści prawdziwe i niepowiązanie, rzekomo po to, by odwrócić uwagę od ich prawdziwego celu.

To wszystko koordynują prawdziwi ludzie — twierdzi Facebook — nie boty.

Zauważyliśmy, że większość fałszywego wzmacniania w kontekście działań informacyjnych nie jest napędzana przez zautomatyzowane procesy, lecz przez skoordynowane działania ludzi przypisanych do prowadzenia nieprawdziwych kont. Zauważyliśmy wiele działań administratorów fałszywych kont, które mogły przeprowadzić tylko osoby znające języki i posiadające podstawową wiedzę o sytuacji politycznej w krajach docelowych, co wskazuje na wyższy poziom skoordynowania i przezorności. Niektórzy mniej uzdolnieni aktywiści mogą nawet dawać swoim fałszywym wzmacniaczom rady i streszczenia treści, co może powodować wrażenie automatyzacji.

Autorzy twierdzą, że zasięg akcji fałszywego wzmacniania podczas wyborów w USA w 2016 r. był „statystycznie bardzo mały w porównaniu do ogólnego poziomu zaangażowania w kwestie polityczne”. Informują też, że podjęli działania przeciwko ponad 30 tys. fałszywych kont we Francji (więcej o Facebooku i francuskich wyborach można przeczytać pod tym linkiem).

Ludzie byli zaszokowani. „Project Owl”, ogłoszony w tym tygodniu przez Google, ma na celu usunięcie obraźliwych lub fałszywych treści z funkcji Autouzupełniania i Fragmentów z Odpowiedzią. Danny Sullivan z portalu Search Engine Land wyjaśnia:

Problematyczne wyszukiwanie« to termin, którym określam sytuacje, w których Google musi sobie poradzić z konsekwencjami funkcjonowania w świecie »post-prawdyzmu«. Ludzie coraz częściej tworzą treści, które potwierdzają konkretny światopogląd lub opinię niezależnie od stanu faktycznego. Co więcej, ludzie wyszukują plotki, miejskie legendy czy obraźliwe tematy w ilościach wystarczających do tego, by w uwłaczający i potencjalnie niebezpieczny sposób wpłynąć na podpowiedzi wyszukiwania oferowane przez Google… stanowi to dla firmy zupełnie nowy problem jakościowy.

Problematyczne wyszukiwanie stanowi jedynie ułamek całego strumienia wyszukiwania Google, lecz jest źródłem ogromnej liczby skrajnie nieprzychylnych firmie artykułów w mediach.

— Problem wydaje się drobny — powiedział Sullivanowi Pandu Nayak, noszący tytuł Google Fellow (najwyższy tytuł inżynierski w hierarchii firmy). „Ludzie [z Google] byli zszokowani [złą prasą]… był to istotny problem, z którego chyba nie zdawaliśmy sobie wcześniej sprawy.”

Zobacz też obszerny artykuł Sullivana z tego miesiąca: „Dogłębna analiza największego w historii kryzysu jakości wyszukiwania Google” (tymczasem Klint Finley z czasopisma Wired zastanawia się, czy Google aby na pewno powinno w ogóle starać się dostarczać „jedyną słuszną odpowiedź”).

Skoro o „istotności” mowa… sondaż przeprowadzony przez Instytut Polityki Harvard Kennedy School na 2,654 tys. Amerykanów w wieku 18–29 lat wykazał, że statystycznie wierzą oni, iż aż 48,5% wiadomości wyświetlanych w Aktualnościach na ich profilu na Facebooku jest fałszywa:

 

 

Ponadto, „Republikanie uważają, że w ich Aktualnościach jest więcej (56%) »fałszywych wiadomości« w porównaniu z Demokratami (42%) i Niezależnymi (51%)”.

To jakieś szaleństwo. Wracając do artykułu Farhada Manjoo przytoczonego na początku niniejszego posta: Facebook jest zdania, że odsetek fałszywych wiadomości w ich Aktualnościach wynosi „ułamek procenta”. Jeśli jednak wrócimy do eseju Miller z BuzzFeed: „Próba odnalezienia się w tym natłoku – ustalenia prawdy pośród zawiłości protokołów, regulacji, ustawodawstwa, ideologii, anonimowych źródeł, sprzecznych doniesień, zaprzeczeń, publicznych oświadczeń, jego tweetów – przekracza nasze możliwości. Tak nie da się żyć!”.

Nie przegap kolejnych reportaży i analiz.
Zapisz się do newslettera!

czytaj również

Zapisz się
do newslettera!

Reportaże, analizy i podsumowania w Twojej skrzynce.

Stwórzmy nowy model mediów.
Zbieramy fundusze
na dalszą działalność.

Wzmocnij nas