Coraz więcej badań i obserwacji sugeruje, że możliwe jest, iż modele językowe stosowane w sztucznej inteligencji rzeczywiście powtarzają część „ludzkich” błędów. Czy nadal ufamy tekstom napisanym przez AI?
AI pomaga w pisaniu tekstów, ale ludzie mają prawo jej nie ufać
Coraz częściej sztuczna inteligencja w formie modeli językowych (large language mod els – LLM), jak ChatGPT, będzie pomagać w pisaniu różnych tekstów, również tych przekazujących ważne informacje czy dotyczących uzasadnień wyborów etycznych, w tym w sferze publicznej. Jednak może to rodzić problemy, jeśli obywatele nie będą mieli za ufania do czegoś nie napisanego przez człowieka.
Badania ujawniły błędy popełniane przez AI
W niedawno opublikowanym badaniu odkryto, że zaufanie do informacji wygenerowanych przez ChatGPT nie różni się od wiarygodności przypisywanej informacjom autorstwa ludzkiego. Jeśli uczestnicy nie byli informowani, kto jest autorem czytanej informacji, a tylko mogli to zgadywać, to oceniali jako bardziej wiarygodne te informacje, o których sądzili, że były napisane przez człowieka. Ale w grupie, w której uczestników poinformowano o tym, kto jest autorem informacji, badani wykazywali równy stopień podejrzliwości niezależnie od autorstwa. Ogółem zaś grupa uczestników poinformowanych o autorstwie informacji była bardziej skłonna do samodzielnego sprawdzenia trafności tej informacji. Ponadto nie odkryto, by na postawy te wpływał wiek ani też stopień obeznania z technologiami AI.
W innym badaniu użyto klasycznego etycznego dylematu wagonika w różnych wersjach, a następnie szeregu różnych modeli językowych do wybierania rozwiązania tego moralnego problemu. Odkryto, że sztuczna inteligencja jest bardziej „bezkompromisowa” w porównaniu do ludzi w wybieraniu rozwiązania najbardziej utylitarystycznego. Co ciekawe, inne badanie pokazało, że gdy uczestnicy mają oceniać decyzje, które w związku z poszczególnymi dylematami etycznymi podejmowali ludzie oraz AI, to statystycznie częściej za lepszą i bardziej moralną uchodzi decyzja podjęta przez sztuczną inteligencję.
W ubiegłorocznym badaniu pokazano, że jednym z czynników zwiększających zaufanie do treści generowanych przez AI jest to, jak bardzo spersonalizowanych odpowiedzi udziela nam Chat (przez personalizację można rozumieć dopasowanie odpowiedzi np. do stylu pisania danej osoby, do jej preferencji i potrzeb czy wcześniejszych konwersacji z Chatem). Natomiast zaufania nie podnosi to, czy Chat potrafi być dla nas zabawny. Dla odmiany, mamy skłonność do przejawiania większego zaufania, jeśli modele językowe pomagają nam w wyszukiwaniu informacji, zwłaszcza jeśli Chat robi to dużo efektywniej niż my. Istnieje jednak także inny czynnik, który wchodzi w relację z zaufaniem do AI: poczucie dziwności (creepiness).
Interakcja z AI może być nieprzyjemnym doświadczeniem
Interakcja z Chatem może powodować w nas niepokojące uczucie doświadczania czegoś dziwnego w negatywny sposób czy dysonansu poznawczego, gdy wiemy, że mamy do czynienia z obiektem nieożywionym, który jednak zdaje się zachowywać jak żywy. Do wystąpienia tego poczucia przyczyniać się może kilka czynników: sytuacje, w których Chat jest wyjątkowo efektywny w tym, co poleciliśmy mu zrobić, a także takie, w których jego odpowiedzi są bardzo spersonalizowane oraz gdy próbuje symulować różnego typu interakcje społeczne.
Jednym z powodów niższego zaufania do treści generowanych przez AI mogą być także faktycznie zaszyte w modelach językowych stronniczości przypominające ludzkie błędy poznawcze czy inne wypaczenia rozumowania. Pojawiające się badania sugerują, że możliwe jest, iż modele językowe rzeczywiście powtarzają część „ludzkich” błędów i stronniczości.
Tomasz Wypych
Fot. Sztuczna inteligencja (zdjęcie przykładowe). Źródło: Pixabay.com
Inne tematy w dziale Technologie