PL | EN

Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji

Europol opublikował raport ostrzegający przed wykorzystywaniem narzędzia ChatGPT oraz innych generatywnych systemów sztucznej inteligencji do oszustw internetowych i innych cyberprzestępstw. Jak dotąd eksperci zidentyfikowali liczne przypadki nielegalnego użycia ChatGPT. Zdaniem Europolu zasady jego moderacji można obejść poprzez tzw. inżynierię podpowiedzi – praktykę polegającą na dostarczaniu danych wejściowych do modelu AI w celu uzyskania określonego wyniku. Szczególnie niebezpieczne mogą być praktyki phishingowe, podszywanie się pod mowę konkretnych osób oraz tworzenie kodu w różnych językach programowania.

Jaką rolę odegra AI w kampaniach dezinformacyjnych i propagandowych? Może ona zmienić środowisko informacyjne do tego stopnia, że ludzie i maszyny nie zdołają odróżnić treści wygenerowanych przez sztuczną inteligencję od tych stworzonych przez człowieka. Programy AI mogą być także wykorzystywane do masowego manipulowania ludźmi za pośrednictwem chatbotów w celu dzielenia się teoriami spiskowymi i propagandą.

Zdaniem ekspertki AI Meredith Broussard rasizm, seksizm i ableizm zakodowane w programach opartych na sztucznej inteligencji nie zostaną wyeliminowane jedynie poprzez zastosowanie lepszych danych. Zmiana musi nastąpić w zachowaniach samego społeczeństwa. Np. algorytmy zatwierdzania kredytów hipotecznych są od 40 do 80% bardziej skłonne do odmowy udzielenia kredytu klientom o innym kolorze skóry niż biały. Zostały one przeszkolone na podstawie danych o udzielaniu kredytów hipotecznych w przeszłości.

Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
AI w leczeniu nowotworów i przewidywaniu zmian klimatu
AI w leczeniu nowotworów i przewidywaniu zmian klimatu
Dzięki współpracy informatyków i onkologów z Institute of Cancer Research (ICR) i Royal Marsden NHS Foundation Trust oraz użyciu sztucznej inteligencji ustalono, że połączone działanie leków ewerolimus i wandetanib jest skuteczne w przypadku występujacego u dzieci rozlanego glejaka pnia mózgu (DIPG). Odkrycie może zapoczątkować nową erę korzystania z AI do opracowania metod leczenia wszystkich rodzajów […]
ChatGPT a zagrożenia dla systemu edukacji i reakcje nauczycieli
ChatGPT a zagrożenia dla systemu edukacji i reakcje nauczycieli
Oparty na sztucznej inteligencji ChatGPT rewolucjonizuje wiele branż, w tym środowisko akademickie. Zadebiutował już w literaturze naukowej – został uznany za autora co najmniej czterech artykułów i próbnych wydruków. Wydawcy z reguły są zgodni: AI nie spełnia kryteriów autora badania, ponieważ nie może brać odpowiedzialności za treść oraz integralność artykułów naukowych. Niektórzy twierdzą jednak, że […]
Zastosowanie AI w edukacji i medycynie
Zastosowanie AI w edukacji i medycynie
Zdaniem ekspertów z m.in. Centre for Cardiovascular Science na Uniwersytecie w Edynburgu sztuczna inteligencja może znacznie poprawić trafność diagnoz zawału serca i zmniejszyć obciążenie na oddziałach ratunkowych. W porównaniu z obecnymi metodami testowania oparty na AI algorytm o nazwie CoDE-ACS potrafi wykluczyć zawał serca u ponad dwukrotnie większej liczby pacjentów z dokładnością 99,6%. Algorytm może […]
AI w prognozowaniu powodzi, kredytach bankowych i konflikcie w Gazie
AI w prognozowaniu powodzi, kredytach bankowych i konflikcie w Gazie
Badania firmy Google wykorzystują AI do precyzyjnego przewidywania powodzi z maksymalnie siedmiodniowym wyprzedzeniem oraz ochrony źródeł utrzymania 460 mln ludzi w ponad 80 państwach. Dotyczy to również regionów, w których występuje niedobór danych, przez co są one podatne na zagrożenia. Dzięki uczeniu maszynowemu można skalować prognozowanie powodzi – do modeli prognostycznych włączono m.in. wydarzenia historyczne, […]
AI: kłamca, mistrz geometrii i wsparcie sędziego
AI: kłamca, mistrz geometrii i wsparcie sędziego
Badacze ze start-upu Anthropic sprawdzili, czy chatboty, takie jak ChatGPT, są w stanie kłamać. Nie dość, że odpowiednio wytrenowane modele mogą się nauczyć oszukiwać człowieka i inne modele sztucznej inteligencji, to jeszcze się okazuje, że tego procesu nie da się odwrócić przy użyciu dostępnych środków bezpieczeństwa dla zaawansowanych systemów AI. Dlatego naukowcy ostrzegają przed „fałszywym […]
Pozostałe wydania