Analiza przeprowadzona przez prof. Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Katowicach wskazuje, że charakterystyczne zwroty generowane przez ChatGPT zaczęły pojawiać się w recenzowanych publikacjach naukowych. Zdaniem badacza może to podważać zaufanie do procesu przygotowywania treści naukowych, ujawniając brak krytycznego podejścia autorów do używania narzędzi AI.
"Nienaturalne" frazy w publikacjach naukowych. Profesor demaskuje autorów
Typowe dla ChatGPT sformułowania, takie jak „Według mojej wiedzy na dzień ostatniej aktualizacji...”, „Jako model językowy AI...” czy „Nie mam dostępu do danych w czasie rzeczywistym...”, zdaniem prof. Strzeleckiego pojawiają się w artykułach, zdradzając, że autorzy bezrefleksyjnie kopiują odpowiedzi wygenerowane przez model AI. Zaskakujące jest to, że takie fragmenty przechodzą niezauważone zarówno przez współautorów, jak i recenzentów oraz redaktorów czasopism naukowych.
Co więcej, w niektórych publikacjach skopiowano również elementy interfejsu ChatuGPT, takie jak przycisk „Regenerate response” – co dowodzi, że autorzy nawet nie przeczytali uważnie wklejonego tekstu przed przesłaniem go do wydawnictwa.
ChatGPT obecny nawet w prestiżowych magazynach
Prof. Strzelecki w swojej analizie zbadał artykuły naukowe dostępne w Google Scholar, wyszukując kilkanaście fraz typowych dla ChatGPT. Wyniki pokazały, że choć przed pojawieniem się tego narzędzia zwroty te występowały sporadycznie, od czasu jego wprowadzenia ich liczba gwałtownie wzrosła.
Szczególnie interesujące jest to, że nawet w bardziej prestiżowych czasopismach naukowych indeksowanych w bazie Scopus udało się zidentyfikować takie przypadki. W sumie prof. Strzelecki znalazł charakterystyczne frazy w 89 artykułach, co sugeruje, że problem nie dotyczy jedynie mniej renomowanych wydawnictw.
ChatGPT – pomocne narzędzie, ale wymaga rozwagi
Zdaniem prof. Strzeleckiego, odpowiedzialność za jakość publikacji naukowej spoczywa na jej autorze, a nie na narzędziu. „ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym” – podkreśla.
Choć ChatGPT może być pomocny, np. przy korekcie językowej czy tłumaczeniach, badacz przypomina, że wyniki generowane przez AI zawsze wymagają krytycznej analizy. Bezmyślne kopiowanie treści z takich narzędzi, jego zdaniem, podważa autorytet nauki i zaufanie do publikacji naukowych.
„Nie wszystko, co brzmi profesjonalnie, jest prawdziwe” – zauważa naukowiec. „Skoro już korzystamy z ChatuGPT, róbmy to odpowiedzialnie, z uwzględnieniem krytycznej oceny treści”.
na zdjęciu: stos dokumentów, zdjęcie ilustracyjne. fot. Kindel Media, Pexels
Red.
Inne tematy w dziale Technologie