PL | EN

ChatGPT a zagrożenia dla systemu edukacji i reakcje nauczycieli

Oparty na sztucznej inteligencji ChatGPT rewolucjonizuje wiele branż, w tym środowisko akademickie. Zadebiutował już w literaturze naukowej – został uznany za autora co najmniej czterech artykułów i próbnych wydruków. Wydawcy z reguły są zgodni: AI nie spełnia kryteriów autora badania, ponieważ nie może brać odpowiedzialności za treść oraz integralność artykułów naukowych. Niektórzy twierdzą jednak, że wkład sztucznej inteligencji w pisanie artykułów można docenić w sekcjach innych niż lista autorów.

Tymczasem uczelnie przerabiają kursy i podejmują działania zapobiegawcze, aby studentom trudniej było korzystać z narzędzi opartych na sztucznej inteligencji. Pracownicy akademiccy wprowadzają zmiany, które obejmują więcej egzaminów ustnych, pracę w grupach i odręczne ocenianie. Uczelnie niechętnie jednak zakazują AI – ich władze wątpią, czy posunięcie to będzie skuteczne. Nie chcą zarazem naruszać wolności akademickiej. Uniwersytet Waszyngtona w St. Louis i Uniwersytet Vermontu opracowują poprawki do własnych zasad uczciwości akademickiej, aby ich definicje plagiatu obejmowały generatywną sztuczną inteligencję.

W szkołach nauczyciele próbują natomiast kontrolować, czy uczniowie używają chatbota do odrabiania lekcji, oraz zakazują korzystania z tego narzędzia na szkolnych urządzeniach i w sieciach wi-fi. Ponadto niektóre firmy, np. Turnitin, już aktywnie pracują nad narzędziami do wykrywania plagiatu ChatGPT, które mogą pomóc nauczycielom wyłapać zadania pisane przez sztuczną inteligencję.

Wersja audio dostępna
dla Patronek i Patronów
Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
Technologia AI w medycynie i przemyśle farmaceutycznym
Technologia AI w medycynie i przemyśle farmaceutycznym
Technologia AI, dzięki której przyspieszono proces przygotowania szczepionek na koronawirusa, ma zmienić działanie przemysłu farmaceutycznego. W branży pandemię COVID-19 opisuje się jako „punkt zwrotny” w powszechnym zastosowaniu sztucznej inteligencji w badaniach nad opracowywaniem nowych leków. Według amerykańskiej firmy badawczej Trinity Life Sciences w 2020 r. ok. 90% dużych firm farmaceutycznych zainicjowało projekty z wykorzystaniem AI. […]
Internet, telefony i AI w szkołach – zalety i zagrożenia
Internet, telefony i AI w szkołach – zalety i zagrożenia
Zgodnie z raportem UNESCO w prawie co czwartym kraju świata obowiązują przepisy oraz zasady zakazujące i ograniczające używania telefonów komórkowych przez uczniów w szkołach. Zdaniem zwolenników zakazów zmniejszają one rozpraszanie się uczniów i znęcanie się nad rówieśnikami. Przeciwnicy twierdzą, że zakazy mogą utrudniać młodym ludziom samodzielną pracę i hamować im rozwój krytycznego myślenia. Np. na […]
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts (MIT). Naukowcy stworzyli „Normana”, aby wytłumaczyć, jak opracowywane są algorytmy, i uświadomić ludziom potencjalne zagrożenia AI. Okazuje się, że dane, na bazie których sztuczna inteligencja uczy się algorytmów, mogą znacząco wpływać na jej zachowanie. Norman otrzymywał tylko krótkie historie opisujące obrazy umierających ludzi, które […]
Praca hybrydowa, postulat podwyżek, rewolucja AI na rynku pracy
Praca hybrydowa, postulat podwyżek, rewolucja AI na rynku pracy
Wg wyników jeszcze niezrecenzowanego eksperymentu w firmie Trip.com zatrudnieni w hybrydowym modelu pracy byli szczęśliwsi i rzadziej odchodzili z firmy niż ci, którzy pracowali tylko w biurze, a ogólna produktywność obu grup była taka sama. Tymczasem seria badań przeprowadzonych np. na pracownikach call centers i specjalistach IT wykazała, że pracownicy w pełni zdalni są zwykle […]
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Europol opublikował raport ostrzegający przed wykorzystywaniem narzędzia ChatGPT oraz innych generatywnych systemów sztucznej inteligencji do oszustw internetowych i innych cyberprzestępstw. Jak dotąd eksperci zidentyfikowali liczne przypadki nielegalnego użycia ChatGPT. Zdaniem Europolu zasady jego moderacji można obejść poprzez tzw. inżynierię podpowiedzi – praktykę polegającą na dostarczaniu danych wejściowych do modelu AI w celu uzyskania określonego wyniku. […]
Pozostałe wydania