Nie tak dawno popełniłem dwie notki o tym, jak ChatGPT i inne modele językowe dokonały brutalnego gwałtu na edukacji. Pisałem o tym, jak akademicy bez mrugnięcia okiem akceptują prace zaliczeniowe generowane przez algorytmy, pozwalając studentom na pełzającą intelektualną śmierć. Ale jak się okazuje, współczesna akademia upadła jeszcze niżej. Bo co może być gorszego od oszustwa na poziomie studenta? Oszustwo na poziomie naukowca. Tak, drodzy Państwo, nie tylko studenci wolą „pisać” swoje prace za pomocą ChatGPT – ich profesorowie robią dokładnie to samo. Ale nie dla ocen. Dla grantów. Dla punktów. Dla tytułów. Dla sztucznie pompowanej kariery.
Jesteśmy świadkami nowej akademickiej patologii: produkcji fałszywej wiedzy na skalę przemysłową. Dzisiaj wystarczy parę kliknięć i voilà – oto „naukowy artykuł”, który nigdzie się nie odnosi do rzeczywistości, ale za to pięknie wypełnia wymagane rubryki w systemach punktacji dorobku naukowego. Nowoczesna nauka w wydaniu GPT? Zero eksperymentów, zero myślenia, za to mnóstwo cyfrowego bełkotu.
Na pierwszy rzut oka może się wydawać, że sztuczna inteligencja powinna pomagać w rozwoju nauki. Nic bardziej mylnego. Zamiast wspomagać badania, AI stało się fabryką pseudonauki, produkującą artykuły, których nikt nigdy nie weryfikował i które nie zawierają żadnej wartości merytorycznej. Dane? Wymyślone. Eksperymenty? Nigdy nieprzeprowadzone. Wnioski? Sklejone z losowych fraz. To trochę jak naukowa wersja homeopatii – brzmi mądrze, ale w środku pustka i nic więcej.
I nie, to nie jest jakiś margines. To mainstream. W 2024 roku znaleziono setki czasopism naukowych, w których większość artykułów została przynajmniej częściowo wygenerowana przez sztuczną inteligencję. Jak to wygląda w praktyce?
Fałszywe eksperymenty – ChatGPT potrafi stworzyć pełne „badania” z wykresami, tabelami i wynikami. Wszystko brzmi bardzo profesjonalnie – dopóki ktoś nie spróbuje tego odtworzyć.
Wymyślone cytowania – nie ma badań? Nie ma problemu! AI sobie je stworzy. Wystarczy zapytać o literaturę na dany temat, a dostaniemy kompletną listę artykułów… których nikt nigdy nie napisał.
Bezmyślne przepisywanie teorii – nauka działa w ten sposób, że nowa teoria powinna być oparta na dowodach. Ale nie dla AI! ChatGPT jest mistrzem w sklejaniu przypadkowych fragmentów badań w coś, co brzmi mądrze, ale nie ma żadnego sensu.
I tak oto mamy dzisiaj doktoraty z rzeczy, które nigdy nie istniały, badania oparte na fikcji i naukowców, którzy chętnie zbierają granty za pracę, którą wykonał za nich bot.
Oczywiście, jeśli ktoś myśli, że dotyczy to tylko jakichś egzotycznych instytucji w Azji czy Afryce, to niech spojrzy na polski krajobraz akademicki. Jesteśmy w tym samym bagnie. W 2024 roku badacze z Uniwersytetu Warszawskiego znaleźli, że 12% prac zgłoszonych do grantów NCN zawierało fragmenty wygenerowane przez AI. I to nie dlatego, że naukowcy używali AI jako narzędzia – nie. Używali jej jako substytutu myślenia.
Nie trzeba się długo zastanawiać, co znaleźli w tych „pracach”:
Błędy laboratoryjne tak absurdalne, że nawet licealista by się zorientował. Hodowanie komórek w 37°C przy jednoczesnym naświetlaniu UV-C? Czy ktoś w ogóle sprawdził, co to oznacza?
Absurdalne teorie, które w normalnym świecie nie miałyby prawa powstać. Marksizm połączony z teorią gier kwantowych? Jak widać, AI potrafi wymyślać głupoty szybciej niż niektórzy profesorowie.
Automatyczne tłumaczenia pseudonauki – jeśli ktoś myślał, że ChatGPT pomoże w dostępie do wiedzy, to nie przewidział, że stanie się również narzędziem do tworzenia bzdur w wielu językach jednocześnie.
Jak zwykle w Polsce – kiedy problem staje się zbyt widoczny, władze akademickie udają, że reagują. Polska Akademia Nauk kazała wszystkim deklarować, czy w pracy używali AI. I co? Nic.
Ale to nic. Politechnika Wrocławska wpadła na pomysł, by analizować styl tekstu i sprawdzać, czy nie jest „za bardzo płaski”. Bo jak wszyscy wiemy, najlepszym sposobem na wykrycie AI jest sprawdzanie, czy tekst nie jest przypadkiem zbyt nudny.
Uniwersytet Jagielloński próbuje czegoś ambitniejszego – rejestrowania badań na blockchainie. Tylko czy naprawdę sądzicie, że ci, którzy oszukują, nagle zaczną dokumentować swoje kłamstwa?
I teraz najlepsze: większość akademików doskonale zdaje sobie sprawę z tego, że AI niszczy wiarygodność badań. W badaniach aż 68% przyznaje, że używa AI, a 92% martwi się o utratę rzetelności nauki. Ale nikt z tym nic nie robi.
To trochę jak sytuacja alkoholika, który wie, że picie go zabija, ale i tak sięga po kolejną butelkę. Tylko że w tym przypadku to nie ich życie wisi na włosku, tylko wiarygodność całej nauki.
Co można z tym zrobić?
Przestać finansować pseudonaukę – akademicy, którzy używają AI do generowania badań, powinni tracić granty. Nie masz dowodów? Nie masz eksperymentu? Nie masz pieniędzy.
Obowiązkowe szkolenia z etyki – skoro współcześni naukowcy nie wiedzą, że oszukiwanie to oszustwo, to może trzeba im to przypomnieć. Ale nie wykładem – egzaminem, który będą musieli zdawać co roku.
Publiczna baza narzędzi AI – albo wprowadzamy regulacje, albo za chwilę nauka przestanie istnieć. Nie można dopuścić do tego, by bzdury generowane przez AI były traktowane na równi z prawdziwymi badaniami.
Bo jeśli nic się nie zmieni, to za kilka lat świat nauki stanie się jednym wielkim TikTokiem – pełnym przypadkowych treści, które są łatwe do strawienia, ale nie mają żadnej wartości. I nikt już nie będzie wiedział, co jest prawdą, a co brednią wyplutą przez algorytm.
Źródła:
1. https://www.salon24.pl/u/jozjasz/1423602,szkoly-pelne-cyfrowych-pasozytow-jak-chatgpt-niszczy-edukacje-juz-od-podstawowki
2. https://www.salon24.pl/u/jozjasz/1422915,uniwersytety-na-sprzedaz-jak-chatgpt-i-lenistwo-wykladowcow-grzebia-akademicka-edukacje
3. https://www.prawo.pl/student/chatgpt-na-uczelniach-wywiad-z-prof-grzegorzem-mazurkiem,520060.html
4. https://ken.pan.pl/images/KomitetEtyki_StanowiskoPseudonauka_Internet_29022020.pdf
5. https://pulsmedycyny.pl/kadry/lekarze/naukowcy-chatgpt-nie-umie-diagnozowac-chorob/
6. https://pie.net.pl/wp-content/uploads/2024/10/AI-na-polskim-rynku-pracy.pdf
7. https://tech.wp.pl/chatgpt-w-prestizowych-pracach-naukowych-niemaly-skandal,7117605000882976a
8. https://www.academia.edu/100970233/ChatGPT_in_scientific_and_academic_research_future_fears_and_reassurances?uc-sb-sw=95317603
9. http://www.heraldinsight.co.kr/news/articleView.html?idxno=2033
10. https://arxiv.org/abs/2407.13105
11. https://tmb.apaopen.org/pub/v5k38sak
12. https://apnews.com/article/artificial-intelligence-chatgpt-fake-case-lawyers-d6ae9fa79d0542db9e1455397aef381c
13. https://www.kozminski.edu.pl/pl/news/akademia-leona-kozminskiego-z-rekomendacjami-dotyczacymi-wykorzystania-chatgpt
14. https://wszystkoconajwazniejsze.pl/pepites/dlaczego-chatgpt-klamie-i-oszukuje/
15. https://tvn24.pl/biznes/tech/chatgpt-w-publikacjach-naukowych-analiza-polskiego-badacza-st8276462
16. https://www.termedia.pl/doi_ft/10.5114/biolsport.2023.125623
17. https://www.embopress.org/doi/10.15252/embr.202357501
18. https://pmc.ncbi.nlm.nih.gov/articles/PMC10339472/
19. https://kompendium.plgrid.pl/technologie/ai/llm/
20. https://swps.pl/oferta/poznan/podyplomowe/prawo-old/llm-unijne-prawo-rynku-finansowego
21. https://forumakademickie.pl/zycie-akademickie/ai-napisze-za-nas-tekst-naukowy/
22. https://www.znak.com.pl/p/ojciec-nieswiety-piotr-szumlewicz-165757
23. https://www.gov.pl/attachment/fe5f5bf7-4ce9-4536-a60f-0ae2fea60363
24. https://aws.edu.pl/nauka/pracownicy-naukowi/
25. https://geekweek.interia.pl/technologia/sztuczna-inteligencja/news-chatgpt-pisze-za-naukowcow-prace-w-recenzowanych-czasopismac,nId,20945335
26. https://www.instagram.com/maja_herman_psychiatrka/reel/DCJiKZXtx-g/
27. https://buzzcenter.pl/czym-sa-ll/
28. https://www.telepolis.pl/wiadomosci/sztuczna-inteligencja-ai-praca-alkohol
29. https://inp.pan.pl/studia-podyplomowe/prawo-konkurencji/
30. https://spubl.pl/pl/blog/chatgpt-for-writing-and-publishing-scientific-articles
31. https://www.emerald.com/insight/content/doi/10.1108/yc-09-2024-2252/full/html
32. https://www.legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/
33. https://theconversation.com/chatgpt-our-study-shows-ai-can-produce-academic-papers-good-enough-for-journals-just-as-some-ban-it-197762
34. https://nursing.dpu.edu.in/blogs/misuse-of-chatgpt-present-generation
35. https://irisvanrooijcogsci.com/2022/12/29/against-automated-plagiarism/
36. https://www.researchgate.net/publication/380019830_Exploring_Academic_Intentions_for_ChatGPT_A_Perspective_from_the_Theory_of_Planned_Behavior
37. https://www.bbc.com/news/world-us-canada-65735769
38. https://www.academia.edu/100444386/ChatGPT_Educational_Artificial_Intelligence
39. https://pmc.ncbi.nlm.nih.gov/articles/PMC10670526/
40. https://pmc.ncbi.nlm.nih.gov/articles/PMC7485667/
41. https://www.tandfonline.com/doi/full/10.1080/10494820.2025.2457351
42. https://www.nature.com/articles/d41586-023-02477-w
Domorosły filozof o dużych aspiracjach starający się ogarnąć świat dawna mądrością.
Nowości od blogera
Inne tematy w dziale Społeczeństwo