Jozjasz Jozjasz
12
BLOG

Akademickie oszustwo na masową skalę, czyli jak ChatGPT stworzył nową rasę „naukowców”

Jozjasz Jozjasz Społeczeństwo Obserwuj notkę 0
nauka, naukowcy, patologia, pseudonauka, chatgpt, edukacja, llm, chatgpt

Nie tak dawno popełniłem dwie notki o tym, jak ChatGPT i inne modele językowe dokonały brutalnego gwałtu na edukacji. Pisałem o tym, jak akademicy bez mrugnięcia okiem akceptują prace zaliczeniowe generowane przez algorytmy, pozwalając studentom na pełzającą intelektualną śmierć. Ale jak się okazuje, współczesna akademia upadła jeszcze niżej. Bo co może być gorszego od oszustwa na poziomie studenta? Oszustwo na poziomie naukowca. Tak, drodzy Państwo, nie tylko studenci wolą „pisać” swoje prace za pomocą ChatGPT – ich profesorowie robią dokładnie to samo. Ale nie dla ocen. Dla grantów. Dla punktów. Dla tytułów. Dla sztucznie pompowanej kariery.

Jesteśmy świadkami nowej akademickiej patologii: produkcji fałszywej wiedzy na skalę przemysłową. Dzisiaj wystarczy parę kliknięć i voilà – oto „naukowy artykuł”, który nigdzie się nie odnosi do rzeczywistości, ale za to pięknie wypełnia wymagane rubryki w systemach punktacji dorobku naukowego. Nowoczesna nauka w wydaniu GPT? Zero eksperymentów, zero myślenia, za to mnóstwo cyfrowego bełkotu.

Na pierwszy rzut oka może się wydawać, że sztuczna inteligencja powinna pomagać w rozwoju nauki. Nic bardziej mylnego. Zamiast wspomagać badania, AI stało się fabryką pseudonauki, produkującą artykuły, których nikt nigdy nie weryfikował i które nie zawierają żadnej wartości merytorycznej. Dane? Wymyślone. Eksperymenty? Nigdy nieprzeprowadzone. Wnioski? Sklejone z losowych fraz. To trochę jak naukowa wersja homeopatii – brzmi mądrze, ale w środku pustka i nic więcej.

I nie, to nie jest jakiś margines. To mainstream. W 2024 roku znaleziono setki czasopism naukowych, w których większość artykułów została przynajmniej częściowo wygenerowana przez sztuczną inteligencję. Jak to wygląda w praktyce?

    Fałszywe eksperymenty – ChatGPT potrafi stworzyć pełne „badania” z wykresami, tabelami i wynikami. Wszystko brzmi bardzo profesjonalnie – dopóki ktoś nie spróbuje tego odtworzyć.
    Wymyślone cytowania – nie ma badań? Nie ma problemu! AI sobie je stworzy. Wystarczy zapytać o literaturę na dany temat, a dostaniemy kompletną listę artykułów… których nikt nigdy nie napisał.
    Bezmyślne przepisywanie teorii – nauka działa w ten sposób, że nowa teoria powinna być oparta na dowodach. Ale nie dla AI! ChatGPT jest mistrzem w sklejaniu przypadkowych fragmentów badań w coś, co brzmi mądrze, ale nie ma żadnego sensu.

I tak oto mamy dzisiaj doktoraty z rzeczy, które nigdy nie istniały, badania oparte na fikcji i naukowców, którzy chętnie zbierają granty za pracę, którą wykonał za nich bot.

Oczywiście, jeśli ktoś myśli, że dotyczy to tylko jakichś egzotycznych instytucji w Azji czy Afryce, to niech spojrzy na polski krajobraz akademicki. Jesteśmy w tym samym bagnie. W 2024 roku badacze z Uniwersytetu Warszawskiego znaleźli, że 12% prac zgłoszonych do grantów NCN zawierało fragmenty wygenerowane przez AI. I to nie dlatego, że naukowcy używali AI jako narzędzia – nie. Używali jej jako substytutu myślenia.

Nie trzeba się długo zastanawiać, co znaleźli w tych „pracach”:

    Błędy laboratoryjne tak absurdalne, że nawet licealista by się zorientował. Hodowanie komórek w 37°C przy jednoczesnym naświetlaniu UV-C? Czy ktoś w ogóle sprawdził, co to oznacza?
    Absurdalne teorie, które w normalnym świecie nie miałyby prawa powstać. Marksizm połączony z teorią gier kwantowych? Jak widać, AI potrafi wymyślać głupoty szybciej niż niektórzy profesorowie.
    Automatyczne tłumaczenia pseudonauki – jeśli ktoś myślał, że ChatGPT pomoże w dostępie do wiedzy, to nie przewidział, że stanie się również narzędziem do tworzenia bzdur w wielu językach jednocześnie.



Jak zwykle w Polsce – kiedy problem staje się zbyt widoczny, władze akademickie udają, że reagują. Polska Akademia Nauk kazała wszystkim deklarować, czy w pracy używali AI. I co? Nic.
Ale to nic. Politechnika Wrocławska wpadła na pomysł, by analizować styl tekstu i sprawdzać, czy nie jest „za bardzo płaski”. Bo jak wszyscy wiemy, najlepszym sposobem na wykrycie AI jest sprawdzanie, czy tekst nie jest przypadkiem zbyt nudny.

Uniwersytet Jagielloński próbuje czegoś ambitniejszego – rejestrowania badań na blockchainie. Tylko czy naprawdę sądzicie, że ci, którzy oszukują, nagle zaczną dokumentować swoje kłamstwa?

I teraz najlepsze: większość akademików doskonale zdaje sobie sprawę z tego, że AI niszczy wiarygodność badań. W badaniach aż 68% przyznaje, że używa AI, a 92% martwi się o utratę rzetelności nauki. Ale nikt z tym nic nie robi.

To trochę jak sytuacja alkoholika, który wie, że picie go zabija, ale i tak sięga po kolejną butelkę. Tylko że w tym przypadku to nie ich życie wisi na włosku, tylko wiarygodność całej nauki.
Co można z tym zrobić?

    Przestać finansować pseudonaukę – akademicy, którzy używają AI do generowania badań, powinni tracić granty. Nie masz dowodów? Nie masz eksperymentu? Nie masz pieniędzy.
    Obowiązkowe szkolenia z etyki – skoro współcześni naukowcy nie wiedzą, że oszukiwanie to oszustwo, to może trzeba im to przypomnieć. Ale nie wykładem – egzaminem, który będą musieli zdawać co roku.
    Publiczna baza narzędzi AI – albo wprowadzamy regulacje, albo za chwilę nauka przestanie istnieć. Nie można dopuścić do tego, by bzdury generowane przez AI były traktowane na równi z prawdziwymi badaniami.

Bo jeśli nic się nie zmieni, to za kilka lat świat nauki stanie się jednym wielkim TikTokiem – pełnym przypadkowych treści, które są łatwe do strawienia, ale nie mają żadnej wartości. I nikt już nie będzie wiedział, co jest prawdą, a co brednią wyplutą przez algorytm.



Źródła:

       
    1. https://www.salon24.pl/u/jozjasz/1423602,szkoly-pelne-cyfrowych-pasozytow-jak-chatgpt-niszczy-edukacje-juz-od-podstawowki
    2. https://www.salon24.pl/u/jozjasz/1422915,uniwersytety-na-sprzedaz-jak-chatgpt-i-lenistwo-wykladowcow-grzebia-akademicka-edukacje
    3. https://www.prawo.pl/student/chatgpt-na-uczelniach-wywiad-z-prof-grzegorzem-mazurkiem,520060.html
    4. https://ken.pan.pl/images/KomitetEtyki_StanowiskoPseudonauka_Internet_29022020.pdf
    5. https://pulsmedycyny.pl/kadry/lekarze/naukowcy-chatgpt-nie-umie-diagnozowac-chorob/
    6. https://pie.net.pl/wp-content/uploads/2024/10/AI-na-polskim-rynku-pracy.pdf
    7. https://tech.wp.pl/chatgpt-w-prestizowych-pracach-naukowych-niemaly-skandal,7117605000882976a
    8. https://www.academia.edu/100970233/ChatGPT_in_scientific_and_academic_research_future_fears_and_reassurances?uc-sb-sw=95317603
    9. http://www.heraldinsight.co.kr/news/articleView.html?idxno=2033
    10. https://arxiv.org/abs/2407.13105
    11. https://tmb.apaopen.org/pub/v5k38sak
    12. https://apnews.com/article/artificial-intelligence-chatgpt-fake-case-lawyers-d6ae9fa79d0542db9e1455397aef381c
    13. https://www.kozminski.edu.pl/pl/news/akademia-leona-kozminskiego-z-rekomendacjami-dotyczacymi-wykorzystania-chatgpt
    14. https://wszystkoconajwazniejsze.pl/pepites/dlaczego-chatgpt-klamie-i-oszukuje/
    15. https://tvn24.pl/biznes/tech/chatgpt-w-publikacjach-naukowych-analiza-polskiego-badacza-st8276462
    16. https://www.termedia.pl/doi_ft/10.5114/biolsport.2023.125623
    17. https://www.embopress.org/doi/10.15252/embr.202357501
    18. https://pmc.ncbi.nlm.nih.gov/articles/PMC10339472/
    19. https://kompendium.plgrid.pl/technologie/ai/llm/
    20. https://swps.pl/oferta/poznan/podyplomowe/prawo-old/llm-unijne-prawo-rynku-finansowego
    21. https://forumakademickie.pl/zycie-akademickie/ai-napisze-za-nas-tekst-naukowy/
    22. https://www.znak.com.pl/p/ojciec-nieswiety-piotr-szumlewicz-165757
    23. https://www.gov.pl/attachment/fe5f5bf7-4ce9-4536-a60f-0ae2fea60363
    24. https://aws.edu.pl/nauka/pracownicy-naukowi/
    25. https://geekweek.interia.pl/technologia/sztuczna-inteligencja/news-chatgpt-pisze-za-naukowcow-prace-w-recenzowanych-czasopismac,nId,20945335
    26. https://www.instagram.com/maja_herman_psychiatrka/reel/DCJiKZXtx-g/
    27. https://buzzcenter.pl/czym-sa-ll/
    28. https://www.telepolis.pl/wiadomosci/sztuczna-inteligencja-ai-praca-alkohol
    29. https://inp.pan.pl/studia-podyplomowe/prawo-konkurencji/
    30. https://spubl.pl/pl/blog/chatgpt-for-writing-and-publishing-scientific-articles
    31. https://www.emerald.com/insight/content/doi/10.1108/yc-09-2024-2252/full/html
    32. https://www.legaldive.com/news/chatgpt-fake-legal-cases-generative-ai-hallucinations/651557/
    33. https://theconversation.com/chatgpt-our-study-shows-ai-can-produce-academic-papers-good-enough-for-journals-just-as-some-ban-it-197762
    34. https://nursing.dpu.edu.in/blogs/misuse-of-chatgpt-present-generation
    35. https://irisvanrooijcogsci.com/2022/12/29/against-automated-plagiarism/
    36. https://www.researchgate.net/publication/380019830_Exploring_Academic_Intentions_for_ChatGPT_A_Perspective_from_the_Theory_of_Planned_Behavior
    37. https://www.bbc.com/news/world-us-canada-65735769
    38. https://www.academia.edu/100444386/ChatGPT_Educational_Artificial_Intelligence
    39. https://pmc.ncbi.nlm.nih.gov/articles/PMC10670526/
    40. https://pmc.ncbi.nlm.nih.gov/articles/PMC7485667/
    41. https://www.tandfonline.com/doi/full/10.1080/10494820.2025.2457351
    42. https://www.nature.com/articles/d41586-023-02477-w

Jozjasz
O mnie Jozjasz

Domorosły filozof o dużych aspiracjach starający się ogarnąć świat dawna mądrością.

Nowości od blogera

Komentarze

Pokaż komentarze

Inne tematy w dziale Społeczeństwo