Zdaniem ekspertów studenci używają ChatGPT, ale odgórny zakaz wykorzystywania narzędzi bazujących na AI nie jest i nie będzie skuteczny. Należy zmienić metody weryfikacji wiedzy i umiejętności studentów. Środowisko akademickie nie może udawać, że problem nie istnieje.
Studenci byli jedną z grup, która najszybciej zaczęła używać ChatGPT po jego premierze, już w czasie sesji zimowej odbywającej się w styczniu i lutym 2023 r. – powiedział PAP dziekan Wydziału Technologii Informatycznych Akademii Ekonomiczno-Humanistycznej w Warszawie, ekspert SoDA Krzysztof Rychlicki-Kicior.
Zaznaczył, że jego przydatność była istotna wszędzie tam, gdzie studenci mogli przy opracowywaniu zaliczeń korzystać z komputera – np. podczas pisania esejów, tworzenia prac zaliczeniowych, a nawet projektów informatycznych, mających formę prostych programów komputerowych.
„Ogromny potencjał tego narzędzia można, niestety, odnotować także przy pisaniu prac dyplomowych” – powiedział Rychlicki-Kicior.
Dodał, że wraz z upublicznieniem ChatGPT, pojawiły się narzędzia antyplagiatowe, które miały wykrywać jego użycie. Jednak nowsze wersje programu zmniejszyły szanse wykrywania plagiatów.
„To sprawia, że musimy dokonywać modyfikacji metod weryfikacji wiedzy i umiejętności, z położeniem większego nacisku na zaliczenie indywidualne” – zaznaczył Rychlicki-Kicior.
W celu weryfikacji pracy, wg. Rychlickiego-Kiciora można poprosić studenta o modyfikację przesłanego programu – ale na miejscu, pod okiem wykładowcy. „To jednak wymaga dodatkowego czasu na weryfikację każdej osoby, co siłą rzeczy może generować pewne trudności” – dodał.
Dziekan Wydziału Nauk Społecznych i Humanistycznych Collegium Witelona Uczelnia Państwowa, ekspert SoDA dr inż. Piotr Nadybski zwrócił uwagę, że już w tym momencie można zaobserwować dość wyraźną poprawę jakości pisanych prac zaliczeniowych, które zbiegły się w czasie z udostępnieniem ChatGPT.
„W środowisku akademickim sprawą dość oczywistą było, że potencjalne problemy związane z ChatGPT zmaterializują się bardzo szybko. I rzeczywiście, pierwsze symptomy pojawiły się już w trakcie sesji zimowej roku akademickiego 2022/2023” – powiedział.
Dodał, że można było zaobserwować przypadki dość wyraźnej poprawy jakości pisemnych prac zaliczeniowych, w szczególności na tle wcześniejszego „dorobku” konkretnego studenta.
„Poza oczywistymi sytuacjami, gdzie np. nieopatrznie nie usunięto fragmentów konwersacji z botem, zadawanych pytań itp., jednoznaczne stwierdzenie, że dana tekst, kod źródłowy czy inne opracowanie zostało wygenerowane przez model GPT jest w zasadzie niemożliwe” – powiedział Nadybski.
Zaznaczył, że przy sprawdzaniu prac studentów pozostaje doświadczenie i intuicja wykładowcy, który natychmiast wyczuwa dysonans pomiędzy tym co czyta w danym momencie i tym, co przeczytał w trakcie wielu lat swojej pracy dydaktycznej i naukowej.
Dodał, że jego zdaniem narzędzia do detekcji są niedoskonałe i prawdopodobnie nigdy nie przestaną takie być.
„W przypadku potencjalnego sporu wykładowca – student co do samodzielności przygotowania pracy są w zasadzie bezużyteczne. W przeciwieństwie do klasycznego plagiatu, gdzie narzędzia informatyczne potrafią doskonale wskazać stopień podobieństwa pomiędzy tekstami, tutaj namacalnych, jednoznacznych dowodów nie ma” – powiedział.
Zaznaczył, że rozwiązania polegające na odgórnym zakazie wykorzystywania narzędzi bazujących na AI, nie są i nie będą skuteczne. Tworzenie zakazów bez narzędzi pozwalających je egzekwować prowadzi do powstawania pustych przepisów. „Środowisko akademickie nie może udawać, że problem nie istnieje – musi dostosować się do wymogów rzeczywistości!” – dodał.
„Nawet jeśli student będzie korzystał z pomocy sztucznej inteligencji do generowania fragmentów tekstu, to w takim przypadku sformułowanie hipotez czy wniosków wymaga już zaangażowania intelektualnego studenta – a to jest przecież najważniejszy element kształcenia akademickiego” – podsumował Nadybski.(PAP)
Autorka: Iga Leszczyńska
iga/ mhr/
Redakcja strony