AI w służbie przestępców
Nowy rodzaj cyberprzestępstwa opiera się na sztucznej inteligencji i technologii imitacji głosu. W marcu 2019 r. hakerzy użyli oprogramowania opartego na AI, aby – korzystając z telefonu – podszyć się pod dyrektora niemieckiej spółki i przekonać jego podwładnego do wykonania transferu dużej sumy pieniędzy. W 2018 r. firma Pindrop, tworząca oprogramowanie zabezpieczające oraz protokoły dla centrów telefonicznych, zgłosiła wzrost oszustw głosowych o 350% w latach 2013–2017, przede wszystkim w kasach pożyczkowych, bankach, domach maklerskich, u ubezpieczycieli i wydawców kart płatniczych. Nowy sposób cyberprzestępstwa może być również wykorzystany do przejęcia wrażliwych danych oraz kontaktowania się z różnymi centrami obsługi klienta pod fałszywą tożsamością.
Generator tekstu zbudowany przez firmę OpenAI został uznany za zbyt niebezpieczny, aby można go było udostępnić większej liczbie odbiorców. Powstała już nowa wersja (GPT-2), która również może służyć do tworzenia fake newsów lub spamu w mediach społecznościowych. GPT-2 został przeszkolony na zbiorze danych obejmującym 8 mln stron internetowych i jest w stanie dostosować się do stylu i treści podanego mu tekstu początkowego. Oprogramowanie jest nadal niedostępne – jego okrojona wersja została udostępniona nielicznym do przeprowadzenia testów.
Nieprawdziwe wiadomości i posty w mediach społecznościowych są tak dużym zagrożeniem dla bezpieczeństwa USA, że Departament Obrony Stanów Zjednoczonych rozpoczyna projekt, mający na celu odparcie „automatycznych i zakrojonych na dużą skalę ataków dezinformacyjnych”. Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (DARPA) potrzebuje oprogramowania, które będzie w stanie wyszukiwać nieprawdziwe informacje ukryte wśród ponad 500 tys. tekstów, zdjęć, filmów i plików audio.