Studenci w opałach. Wystarczy, że popełnią jeden błąd i już wpadną po uszy

Edukacja Technologie Dołącz do dyskusji
Studenci w opałach. Wystarczy, że popełnią jeden błąd i już wpadną po uszy

W obliczu rosnącej popularności narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT, które umożliwiają szybkie generowanie tekstów na dowolny temat, świat akademicki stanął przed nowym wyzwaniem. Musi weryfikować, czy studenci przypadkiem nie nazbyt śmiało korzystają z dostępnych rozwiązań. Mówiąc prościej: czy praca dyplomowa, którą przedstawiają wykładowcy, nie jest dziełem AI.

Każda jednostka prowadząca studia wyższe (szkoły doktorskie) uzyskała dostęp do bezpłatnego narzędzia w ramach Jednolitego Systemu Antyplagiatowego (JSA), mającego na celu wykrywanie prac napisanych przez AI. To narzędzie, opracowane przez Ośrodek Przetwarzania Informacji (OPI), ma przeciwdziałać wykorzystywaniu generatywnych modeli językowych do tworzenia prac dyplomowych.

Narzędzie nie jest nieomylne, ale nic lepszego nie wymyślono

JSA został rozbudowany o nową funkcją pozwalającą zidentyfikować z pewnym prawdopodobieństwem to, czy tekst został napisany przez człowieka, czy wygenerowany przez maszynę. W tym celu algorytm wyszkolony na zbiorach danych analizuje regularność konstrukcji zdaniowych w tekście.

Eksperci z OPI uważają, że choć system nie jest nieomylny, to jak na razie nic lepszego nie wymyślono. Narzędziem, które byłoby w stanie precyzyjnie ocenić, czy praca została napisana przez bota, czy przez człowieka, nie dysponują nawet twórcy ChatGPTa.

Sztuczna inteligencja w edukacji może mocno zaszkodzić

Wykorzystanie narzędzi sztucznej inteligencji do pisania prac dyplomowych stało się możliwe dzięki postępowi technologicznemu i coraz większej dostępności tych narzędzi.

Zwłaszcza ChatGPT stał się atrakcyjną opcją dla studentów chcących jak najmniejszym wysiłkiem przygotować pracę zaliczeniową. Jednak chcąc za wszelką cenę usprawnić proces, łatwo wpaść w pułapkę. Generatory tekstów co prawda umożliwiają tworzenie teoretycznie spójnych wpisów, lecz lubią przy tym zmyślać – np. mylić daty. Czasami łatwo więc natychmiast wykryć, czy praca przynajmniej na oko spełnia akademickie standardy, czy ewidentnie jest wesołą twórczością chata. Niejednokrotnie oszustwo zostaje jednak ukryte znacznie głębiej i jego wykrycie bez pomocy narzędzi jest o wiele trudniejsze.

Prace dyplomowe mają za zadanie ugruntować wiedzę studenta. I sprawdzić osobę pod kątem jej umiejętności samodzielnego myślenia i analizy faktów. Jeśli student do napisania pracy korzysta z AI, zasadność całego procesu staje pod dużym znakiem zapytania.

AI kontra akademicki honor

Równocześnie z wprowadzaniem narzędzi antyplagiatowych technologia AI nieustannie się rozwija i jest stosowana coraz szerzej. Szybka ewolucja sztucznej inteligencji pokazuje, jak duże wyzwania czekają szkolnictwo wyższe (i nie tylko wyższe). Choć narzędzia takie jak JSA są obecnie najlepszą obroną przed nieuczciwym wykorzystywaniem AI w środowisku akademickim, to konieczne będzie ciągłe dostosowywanie systemów wykrywających i analizujących prace pod kątem ich autentyczności. W świetle tych faktów rozwój technologii AI, choć obiecujący, stawia przed nami kolejne wyzwania etyczno-edukacyjne.