Założenie było takie by sztuczna inteligencja zwalczała dezinformację. Tymczasem okazało się, że sama znacząco zwiększa skalę dezinformacji w internecie.
Dezinformacja jest potężnym i bardzo niebezpiecznym narzędziem. Eksperci stawiają ją na równi z klasyczną bronią, bo może wywołać niewyobrażalne w skutkach szkody. Celowe rozpowszechnianie fałszywych lub wprowadzających w błąd informacji, manipulowanie opinią publiczną, osłabianie zaufania do instytucji, może doprowadzić do zamieszek, krachu na giełdzie, obalenia rządu, a nawet konfliktu zbrojnego. Dezinformacja może przybierać różne formy, takie jak fałszywe wiadomości, teorie spiskowe, przekłamania czy wyolbrzymianie faktów.
Teraz coraz bardziej widać, że wraz z nowymi możliwościami generatywnej sztucznej inteligencji dezinformacja w internecie przybiera coraz większą skalę. Modele AI mogą być wykorzystywane do łatwego tworzenia ogromnej liczby fałszywych artykułów prasowych, postów w mediach społecznościowych, grafik, a także coraz częściej nagrań głosowych i filmów. Już w lutym tego roku Sam Altman, CEO OpenAI, twierdził, że narzędzia AI jego przedsiębiorstwa generują aż 100 mld słów dziennie. Rosnące podobieństwo treści wygenerowanych przez sztuczną inteligencję do ludzkich już sprawia, że coraz trudniej rozpoznać, które treści w internecie są tworzone przez ludzi.
Huragan w USA a generowanie fałszywych informacji
Platformy społecznościowe stały się miejscem rozpowszechniania dezinformacji i oszustw. Co więcej, niektóre z nich, jak X (dawniej Twitter), złagodziły politykę moderacji, przez co jeszcze łatwiej tam o budowanie znacznych zasięgów dla takich treści. Z badania The Institute for Strategic Dialogue wynika, że zaledwie 33 posty zawierające fałszywe informacje dotyczące huraganu Milton, obalone przez amerykańskie rządowe instytucje, uzyskały ponad 160 mln wyświetleń w serwisie X.
W mediach społecznościowych pojawiały się także generowane przy pomocy AI obrazy wskazujące na bezradność służb lub mające na celu polaryzację polityczną, co utrudniało działania służb wobec skutków katastrofy naturalnej. Szefowa amerykańskiej Federalnej Agencji Zarządzania Kryzysowego (FEMA) przyznała, że ilość fałszywych informacji związanych z huraganem Milton jest największą, z jaką miała do czynienia.
Deep fake w trakcie powodzi
Wykorzystanie AI do szerzenia dezinformacji ma również miejsce w Polsce. Podczas gdy zmagano się ze skutkami wrześniowej powodzi, oszuści rozpowszechniali na Facebooku wygenerowane przez AI zdjęcie dziewczynki, która miała zostać rzekomo porwana przez rzekę, a wraz z nim linki phishingowe. Autorzy tego oszustwa zostali zatrzymani przez służby, ale takie incydenty będą coraz powszechniejsze.
Wobec stale rosnącej ilości fałszywych informacji w mediach społecznościowych, zwiększa się potrzeba utworzenia regulacji i ustanowienia organów sprawujących nadzór nad działaniami podejmowanymi w celu minimalizowania skutków publicznej dezinformacji. Z badania YouGov wynika, że 71 proc. dorosłych Brytyjczyków oceniło działania ogółu platform społecznościowych jako niewystarczające w obliczu dezinformacji w czasie zamieszek z sierpnia tego roku. Aby sprostać naporowi fałszywych informacji w internecie, potrzebne są wielotorowe działania.
Należy dążyć do zwiększenia odpowiedzialności platform społecznościowych za rozpowszechnianie fałszywych treści, doprowadzić do skutecznego oznaczania dezinformacji na platformach oraz stworzenia sposobów identyfikacji treści wygenerowanych przez sztuczną inteligencję. Ponadto, konieczne jest wytworzenie społecznych kompetencji cyfrowych, skłaniających użytkowników do ostrożności w dobieraniu źródeł informacji i umożliwiających im skuteczne weryfikowanie treści.
Fot. AI/Wikipedia
Tomasz Wypych
Inne tematy w dziale Technologie