Starsza kobieta przelała pieniądze, bo zobaczyła i usłyszała swojego wnuczka proszącego o pomoc, a wytrawny biznesmen zainwestował krocie po rozmowie z osobistym doradcą finansowym. Tyle tylko, że wnuczka i doradcę finansowego wygenerowała sztuczna inteligencja. Oszuści przekraczają kolejne granice.
Klonowanie głosu i twarzy: Jak sztuczna inteligencja wspiera oszustów?
Oszuści na co dzień wykorzystują już sztuczną inteligencję, by bez zgody znanych osób klonować ich twarz i głos. Ze spreparowanych materiałów tworzą kampanie reklamowe, które kierują użytkowników na profesjonalnie wyglądające strony internetowe, zachęcające do inwestycji poprzez specjalną aplikację lub formularz zwrotny.
- Social media, oferując szerokie możliwości docierania do potencjalnych ofiar, de facto sprzyjają takim działaniom. Dla niedoświadczonego inwestora największym zagrożeniem jest możliwość natrafienia na wysoce zmanipulowane treści, które są trudne do odróżnienia od prawdziwych ofert. A już za rogiem mamy przecież tzw. metodę na wnuczka, w której babcia będzie widziała w komunikatorze faktyczną twarz swojego wnusia, mówiącego jego własnym głosem. Nakładki AR to bowiem szybko rozwijająca się technologia – komentuje prof. dr hab. Dariusz Jemielniak, kierownik Katedry Zarządzania w Społeczeństwie Sieciowym w Akademii Leona Koźmińskiego.
Każda nowa, gwałtownie rozwijająca się innowacja przyciąga przestępców. Podobnie było w przypadku kryptowalut, a wcześniej internetu. Z reguły początkowo wymiar sprawiedliwości i organy ścigania nie nadążają za nimi. Z czasem się to zmienia. Unia Europejska próbuje uregulować obszar AI. Ekspert zaznacza, że problem reklam dotyczy nie tylko Polaków, ale i innych narodowości. Generalnie tendencja jest taka, że im mniej wyedukowane jest społeczeństwo, tym łatwiej jest działać oszustom. A pod względem poziomu edukacji finansowej, Polska od wielu lat jest na jednym z ostatnich miejsc w Europie.
- Pomagaliśmy odzyskać pieniądze osobom, które skorzystały z oferty takiej inwestycji. Przyznawały, że były zaskoczone wysokim poziomem profesjonalizmu oszustów, zarówno w sposobie komunikacji, języka, jak i znajomości mechanizmów finansowych - mówi Aleksander Łapiński ze Stowarzyszenia Ekspertów Bezpieczeństwa Rzeczypospolitej Polskiej.
Oszuści inwestycyjni i AI - jak rozpoznać zagrożenie i uniknąć strat?
Zdaniem znawców tematu, AI ma potencjał, aby pomagać zarówno oszustom, jak i im przeciwdziałać. Aleksander Łapiński zaznacza, że mechanizmy sztucznej inteligencji mogą ułatwić tworzenie bardziej wiarygodnych oszustw inwestycyjnych. Przykładowo przez automatyzację procesu generowania fałszywych reklam, stron internetowych czy wiadomości e-mail, które wyglądają niezwykle przekonująco. Do tego dochodzi tworzenie zaawansowanych deepfake’ów z wizerunkami znanych osób. Ekspert zwraca też uwagę na precyzyjną personalizację ataków. AI może analizować dane osobowe (np. po ich wycieku), aby stworzyć bardziej spersonalizowane kampanie phishingowe. Ponadto sztuczna inteligencja jest w stanie stworzyć chatboty, które będą przekonująco udzielać fałszywych porad inwestycyjnych w czasie rzeczywistym.
– Rozwój narzędzi opartych na AI, które potrafią analizować i wykrywać potencjalne oszustwa, jest kluczowy dla przyszłości bezpieczeństwa inwestycji kryptowalutowych. Ważne jest, aby równolegle rozwijać systemy ochrony i edukacji, które będą nadążać za ewolucją technologii. Niestety, ale media społecznościowe mają zerowy interes w tym, aby takie narzędzia rozwijać. Co więcej, wręcz blokują dostęp do swoich treści osobom ze świata nauki, które mogłyby analizować fenomen i pomagać mu przeciwdziałać – podkreśla prof. dr hab. Dariusz Jemielniak.
Sztuczna inteligencja już teraz jest wykorzystywana w pracy polegającej chociażby na weryfikacji tożsamości. Powstaje wiele programów, które są w stanie ocenić, czy nagranie zostało spreparowane, czy rozmowa odbywa się z prawdziwym człowiekiem. Te rozwiązania mają bardzo wysoką skuteczność, więc na pewno będzie to trend rozwijany.
- Z reguły wymiar sprawiedliwości nie nadąża za danym rynkiem. Popatrzmy przykładowo na śledzenie adresów kryptowalutowych. Czy polska policja ma jakiekolwiek narzędzie pomagające namierzać tzw. brudne kryptowaluty? Nie, choć mogła je mieć. Zamiast tego korzysta z amerykańskich rozwiązań, niespecjalnie dostosowanych do naszych potrzeb. Podobnie będzie z AI – zaznacza prof. Krzysztof Piech z Uczelni Łazarskiego
Technologia w służbie oszustwa - AI i deepfake na celowniku ekspertów"
Liczba tzw. deepfake'ów stale rośnie. Choć początkowo były to dość prymitywne narzędzia, których efekty odbiegały od rzeczywistych nagrań, obecnie stanowią poważne zagrożenie dla bezpieczeństwa osób publicznych, ze względu na rosnącą jakość generowanych materiałów. Coraz doskonalsze modele sprawiają, że odróżnienie prawdy od fałszu staje się naprawdę trudne. Choć widzimy osobę i słyszymy jej głos, to często mamy do czynienia z bezprawnym użyciem wizerunku oraz manipulacją. To oznacza, że dochodzimy do momentu, w którym większość społeczeństwa po obejrzeniu spreparowanego materiału nie jest w stanie rozpoznać, że jest fałszywy.
Oszuści mogą kusić różnymi typami aktywów, bo wykorzystują nie tylko kryptowaluty. dziś mamy problem z tym, jak są traktowane kryptowaluty. Z powodu wielu tego typu oszustw pojawiło się sporo treści sugerujących straty. To sygnalizuje potencjalne zagrożenie, ale jednak nie pojawia się więcej komunikatów edukacyjnych. Wynika to też z tego, że takie treści przysłowiowo się nie klikają - podkreśla Jakub Martenka, ekspert z Ari10.
Fachowcy są zgodni, że skala problemu z oszustwami inwestycyjnymi jest ogromna, bo przestępcy wykorzystują naiwność lub wręcz zaślepienie ofiary, obiecując szybki i łatwy zysk bez ryzyka. Przed decyzją o przesłaniu bądź wydaniu komukolwiek naszych pieniędzy, należy dobrze się zastanowić. Na Facebooku jest grupa, na którą prawie codziennie przychodzą zapytania o sprawdzenie, czy dany podmiot lub projekt jest oszustwem. Niestety, w ponad 90 proc. przypadkach jest już za późno, by pomóc takim osobom. Zgłaszają się z reguły już po przekazaniu oszustom pieniędzy.
Tomasz Wypych
Zdjęcie ilustracyjne, fot. mat. prasowe
Czytaj także:
Inne tematy w dziale Technologie