AI pomaga w pisaniu tekstów, ale ludzie mają prawo jej nie ufać
Coraz częściej sztuczna inteligencja w formie modeli językowych (large language mod els – LLM), jak ChatGPT, będzie pomagać w pisaniu różnych tekstów, również tych przekazujących ważne informacje czy dotyczących uzasadnień wyborów etycznych, w tym w sferze publicznej. Jednak może to rodzić problemy, jeśli obywatele nie będą mieli za ufania do czegoś nie napisanego przez człowieka.
Badania ujawniły błędy popełniane przez AI
W niedawno opublikowanym badaniu odkryto, że zaufanie do informacji wygenerowanych przez ChatGPT nie różni się od wiarygodności przypisywanej informacjom autorstwa ludzkiego. Jeśli uczestnicy nie byli informowani, kto jest autorem czytanej informacji, a tylko mogli to zgadywać, to oceniali jako bardziej wiarygodne te informacje, o których sądzili, że były napisane przez człowieka. Ale w grupie, w której uczestników poinformowano o tym, kto jest autorem informacji, badani wykazywali równy stopień podejrzliwości niezależnie od autorstwa. Ogółem zaś grupa uczestników poinformowanych o autorstwie informacji była bardziej skłonna do samodzielnego sprawdzenia trafności tej informacji. Ponadto nie odkryto, by na postawy te wpływał wiek ani też stopień obeznania z technologiami AI.
W innym badaniu użyto klasycznego etycznego dylematu wagonika w różnych wersjach, a następnie szeregu różnych modeli językowych do wybierania rozwiązania tego moralnego problemu. Odkryto, że sztuczna inteligencja jest bardziej „bezkompromisowa” w porównaniu do ludzi w wybieraniu rozwiązania najbardziej utylitarystycznego. Co ciekawe, inne badanie pokazało, że gdy uczestnicy mają oceniać decyzje, które w związku z poszczególnymi dylematami etycznymi podejmowali ludzie oraz AI, to statystycznie częściej za lepszą i bardziej moralną uchodzi decyzja podjęta przez sztuczną inteligencję.
Interakcja z AI może być nieprzyjemnym doświadczeniem
Interakcja z Chatem może powodować w nas niepokojące uczucie doświadczania czegoś dziwnego w negatywny sposób czy dysonansu poznawczego, gdy wiemy, że mamy do czynienia z obiektem nieożywionym, który jednak zdaje się zachowywać jak żywy. Do wystąpienia tego poczucia przyczyniać się może kilka czynników: sytuacje, w których Chat jest wyjątkowo efektywny w tym, co poleciliśmy mu zrobić, a także takie, w których jego odpowiedzi są bardzo spersonalizowane oraz gdy próbuje symulować różnego typu interakcje społeczne.
Jednym z powodów niższego zaufania do treści generowanych przez AI mogą być także faktycznie zaszyte w modelach językowych stronniczości przypominające ludzkie błędy poznawcze czy inne wypaczenia rozumowania. Pojawiające się badania sugerują, że możliwe jest, iż modele językowe rzeczywiście powtarzają część „ludzkich” błędów i stronniczości.
Tomasz Wypych
Fot. Sztuczna inteligencja (zdjęcie przykładowe). Źródło: Pixabay.com
Komentarze
Pokaż komentarze (4)