PL | EN

Walka z fałszywymi wiadomościami i złośliwym oprogramowaniem w sieci

Amazon, Facebook, Google, Microsoft i Twitter przyjęły dziewięciopunktowy plan działań ws. walki z brutalnymi i ekstremistycznymi treściami on-line. Przyczynkiem do podjęcia działań były tragiczne wydarzenia w Christchurch w Nowej Zelandii. Atak zamachowca transmitowano na żywo na Facebooku, a materiał filmowy był masowo udostępniany, co wywołało falę krytyki zabezpieczeń stosowanych przez sieci społecznościowe do kontroli treści publikowanych na ich platformach. „W ramach przyjętego planu zostanie zacieśniona współpraca między wielkimi firmami z branży internetowej a rządami państw” – podkreśliła premier Nowej Zelandii Jacinda Ardern.

Facebook zamknął 265 fałszywych kont na platformach społecznościowych, które zostały założone przez izraelską firmę Archimedes Group i zamieszczały w ostatnich latach nieprawdziwe treści dotyczące polityków i kampanii wyborczych w kilku afrykańskich państwach. Natomiast Amnesty International złożyła wniosek w izraelskim sądzie o cofnięcie licencji firmie NSO Group, zajmującej się cyberbezpieczeństwem. Miała ona stworzyć rodzaj złośliwego oprogramowania o nazwie Pegasus, które umożliwiło szpiegowanie połączeń, wiadomości, zdjęć i lokalizacji GPS użytkowników popularnej platformy komunikacyjnej WhatsApp. Ofiary Pegasusa to często dziennikarze, aktywiści i obrońcy praw człowieka, szpiegowani przez nieprzychylne im rządy na całym świecie. Izraelskie Ministerstwo Obrony zignorowało wcześniejsze prośby Amnesty International oraz innych organizacji o cofnięcie licencji firmie.

Podczas wyborów prezydenckich w 2016 r. rosyjscy hakerzy złamali zabezpieczenia systemu i dostali do do danych w rejestrze wyborców. FBI odmawia jednak podania do publicznej wiadomości nazw dwóch hrabstw, w których zabezpieczenia rejestru wyborców zostały złamane. Hakerzy mogli usuwać lub dodawać wyborców oraz anulować karty do głosowania. Natomiast San Francisco, jako pierwsze miasto w USA, zakazało stosowania technologii rozpoznawania twarzy przez policję lub inne agencje rządowe. Decyzja władz miasta motywowana jest troską o marginalizowane grupy społeczne, których dane mogą być niewłaściwie wykorzystywane przez korporacje i służby państwowe. Ponadto systemy rozpoznawania twarzy mają kłopot z identyfikacją płci u osób o ciemniejszym kolorze skóry.

Pozostałe wydania