AI a uprzedzenia, manipulacje i założenia polityczne
Eksperci z m.in. Carnegie Mellon University zapytali modele językowe AI, jakie są ich poglądy np. na feminizm i demokrację, chcieli bowiem zrozumieć leżące u podstaw modeli uprzedzenia i założenia polityczne. Badacze odkryli np., że modele wyszkolone na danych lewicowych były bardziej wrażliwe na mowę nienawiści skierowaną do mniejszości etnicznych, religijnych i seksualnych w USA. Te wyszkolone na danych prawicowych były z kolei bardziej wrażliwe na mowę nienawiści wobec białych chrześcijan. Lewicowe modele językowe były lepsze w identyfikowaniu dezinformacji ze źródeł prawicowych, ale były mniej wrażliwe na dezinformację ze źródeł lewicowych. Prawicowe modele językowe wykazały odwrotne zachowanie.
Zdaniem Odangi Madunga, dziennikarza i analityka danych, w Kenii algorytm Twittera był łatwo manipulowany przez branżę dezinformacji w celu szerzenia propagandy i stłumienia sprzeciwu społeczeństwa. Podobna sytuacja miała miejsce w Nigerii przed wyborami w 2023 r. Algorytm TikToka dostarczał natomiast Kenijczykom przed wyborami w 2022 r. setki nienawistnych i podżegających filmów propagandowych. TikTok i Twitter znalazły się pod lupą w kwestii ich roli we wzmacnianiu przepełnionej nienawiścią reakcji na mniejszości LGBTQ+ w Kenii i Ugandzie. Platformy mediów społecznościowych, w tym także Facebook, przyspieszyły rozprzestrzenianie się propagandy przez mikrotargetowanie i unikanie okien ciszy wyborczej. Najchętniej korzystają z tego rządy autokratyczne, które wykorzystują emocje do polaryzacji społeczeństw.