PL | EN

Sztuczna inteligencja a rasizm, bigoteria i szansa na równe traktowanie

Dzięki naukowcom z Narodowego Robotarium, w skład którego wchodzą Heriot-Watt University i Uniwersytet Edynburski, opracowano zaawansowane algorytmy uczenia maszynowego, które znacznie poprawią wykrywanie przemocy w internecie – pomogą np. zwalczyć przemoc na tle płciowym oraz „wprowadzić pozytywne zmiany społeczne i kulturowe”. Zdaniem profesorki Vereny Rieser praca ta pozwoli stworzyć „przestrzeń online bezpieczną niezależnie od płci, rasy czy pochodzenia”.

Microsoft ogłosił, że wstrzyma sprzedaż opartej na AI usługi Face API, która potrafi przewidywać wiek, płeć, a także emocje danej osoby. Gigant technologiczny powołał się na obawy etyczne związane z technologią rozpoznawania twarzy, mogącą narażać ludzi na „stereotypowe myślenie, dyskryminację lub nieuczciwą odmowę świadczenia usług”. Jedynie aplikacja dla osób z wadami wzroku o nazwie „Seeing AI” nadal będzie korzystać z możliwości widzenia maszynowego.

Po przeprowadzeniu badań zatytułowanych „Robots Enact Malignant Stereotypes” specjaliści z Uniwersytetu Johnsa Hopkinsa, Georgia Institute of Technology, Uniwersytetu Waszyngtonu i Monachijskiego Uniwersytetu Technicznego stwierdzili, że analizowane roboty stały się seksistowskimi i rasistowskimi bigotami, ponieważ korzystały z wadliwych modeli sieci neuronowych. „Robot działający z popularnym internetowym systemem sztucznej inteligencji konsekwentnie faworyzował mężczyzn kosztem kobiet, białych kosztem kolorowych i wyciągał pochopne wnioski na temat pracy ludzi po spojrzeniu na ich twarze” – napisali naukowcy.

Pozostałe wydania