PL | EN

ChatGPT a zagrożenia dla systemu edukacji i reakcje nauczycieli

Oparty na sztucznej inteligencji ChatGPT rewolucjonizuje wiele branż, w tym środowisko akademickie. Zadebiutował już w literaturze naukowej – został uznany za autora co najmniej czterech artykułów i próbnych wydruków. Wydawcy z reguły są zgodni: AI nie spełnia kryteriów autora badania, ponieważ nie może brać odpowiedzialności za treść oraz integralność artykułów naukowych. Niektórzy twierdzą jednak, że wkład sztucznej inteligencji w pisanie artykułów można docenić w sekcjach innych niż lista autorów.

Tymczasem uczelnie przerabiają kursy i podejmują działania zapobiegawcze, aby studentom trudniej było korzystać z narzędzi opartych na sztucznej inteligencji. Pracownicy akademiccy wprowadzają zmiany, które obejmują więcej egzaminów ustnych, pracę w grupach i odręczne ocenianie. Uczelnie niechętnie jednak zakazują AI – ich władze wątpią, czy posunięcie to będzie skuteczne. Nie chcą zarazem naruszać wolności akademickiej. Uniwersytet Waszyngtona w St. Louis i Uniwersytet Vermontu opracowują poprawki do własnych zasad uczciwości akademickiej, aby ich definicje plagiatu obejmowały generatywną sztuczną inteligencję.

W szkołach nauczyciele próbują natomiast kontrolować, czy uczniowie używają chatbota do odrabiania lekcji, oraz zakazują korzystania z tego narzędzia na szkolnych urządzeniach i w sieciach wi-fi. Ponadto niektóre firmy, np. Turnitin, już aktywnie pracują nad narzędziami do wykrywania plagiatu ChatGPT, które mogą pomóc nauczycielom wyłapać zadania pisane przez sztuczną inteligencję.

Wersja audio dostępna
dla Patronek i Patronów
Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
Szkoła w dobie AI – zagrożenia i rozwiązania
Szkoła w dobie AI – zagrożenia i rozwiązania
W ramach singapurskiej strategii „Smart Nation” sztuczna inteligencja ma pomagać nauczycielom i doskonalić proces edukacji uczniów, szczególnie tych ze specjalnymi potrzebami. AI zapewni także zautomatyzowane systemy oceniania i uczenia maszynowego, aby każdy uczeń jak najlepiej reagował na materiały i działania prowadzone w klasie. Korea Południowa wdrożyła systemy oparte na AI, by dostosować prace domowe i […]
Praca hybrydowa, postulat podwyżek, rewolucja AI na rynku pracy
Praca hybrydowa, postulat podwyżek, rewolucja AI na rynku pracy
Wg wyników jeszcze niezrecenzowanego eksperymentu w firmie Trip.com zatrudnieni w hybrydowym modelu pracy byli szczęśliwsi i rzadziej odchodzili z firmy niż ci, którzy pracowali tylko w biurze, a ogólna produktywność obu grup była taka sama. Tymczasem seria badań przeprowadzonych np. na pracownikach call centers i specjalistach IT wykazała, że pracownicy w pełni zdalni są zwykle […]
Internet, telefony i AI w szkołach – zalety i zagrożenia
Internet, telefony i AI w szkołach – zalety i zagrożenia
Zgodnie z raportem UNESCO w prawie co czwartym kraju świata obowiązują przepisy oraz zasady zakazujące i ograniczające używania telefonów komórkowych przez uczniów w szkołach. Zdaniem zwolenników zakazów zmniejszają one rozpraszanie się uczniów i znęcanie się nad rówieśnikami. Przeciwnicy twierdzą, że zakazy mogą utrudniać młodym ludziom samodzielną pracę i hamować im rozwój krytycznego myślenia. Np. na […]
Demencja i depresja a sztuczna inteligencja
Demencja i depresja a sztuczna inteligencja
Według naukowców z Uniwersytetu Cambridge sztuczna inteligencja może diagnozować demencję na podstawie zaledwie jednego skanu mózgu i we wczesnej fazie rozwoju choroby. System AI wykorzystuje algorytmy do wykrywania wzorców chorobowych w skanach mózgu i w pierwszym roku badań zostanie przetestowany w środowisku klinicznym na ok. 500 pacjentach w szpitalach w Wielkiej Brytanii. Na Wolnym Uniwersytecie […]
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Niebezpieczeństwa związane ze stosowaniem sztucznej inteligencji
Europol opublikował raport ostrzegający przed wykorzystywaniem narzędzia ChatGPT oraz innych generatywnych systemów sztucznej inteligencji do oszustw internetowych i innych cyberprzestępstw. Jak dotąd eksperci zidentyfikowali liczne przypadki nielegalnego użycia ChatGPT. Zdaniem Europolu zasady jego moderacji można obejść poprzez tzw. inżynierię podpowiedzi – praktykę polegającą na dostarczaniu danych wejściowych do modelu AI w celu uzyskania określonego wyniku. […]
Pozostałe wydania