- My sami musimy trzymać rękę na pulsie. I umiejętnie podchodzić zarówno do szans, jak i zagrożeń, które sztuczna inteligencja i nowoczesna inteligencja ze sobą niosą – mówi Salonowi 24 dr Piotr Łuczuk, medioznawca i ekspert w dziedzinie cyberbezpieczeństwa, UKSW.
Popularnym ostatnio tematem jest kwestia sztucznej inteligencji i zagrożeń z nią związanych. Z tym, że zazwyczaj sprawę przedstawia się sensacyjnie, że oto sztuczna inteligencja przejmie kontrolę nad ludzkością, będzie mieć uczucia, plany. I sama wyeliminuje nasz gatunek. Tymczasem nie do końca jesteśmy świadomi innych zagrożeń – że sztuczną inteligencję wykorzystają przestępcy, bądź organizacje polityczne, specsłużby. Czy mamy do czynienia z zagrożeniem istnienia ludzkości, czy przeciwnie – z czymś, co będzie przez ludzi wykorzystywane, niekoniecznie w chwalebnych celach?
Dr Piotr Łuczuk: W zasadzie obie wersje zawierają ziarno prawdy. Patrząc na literaturę science fiction można powiedzieć, że w pewnym stopniu zataczamy koło. Jesteśmy na etapie rozwoju, w którym naszą rzeczywistością jest to, o czym pisali Huxley, Orwell, Lem czy Philip K. Dick. Obserwujemy opisany w literaturze rozwój technologiczny, cywilizacyjny. Oczywiście nie mamy może jeszcze humanoidalnych robotów, tak powszechnych jak we wspomnianych przeze mnie książkach.
Nie używamy latających samochodów w drodze do pracy. Ale gdyby 150 lat temu ktoś powiedział, że będziemy latać na weekend albo na wakacje samolotami, helikopterami albo jako zabawek używać dronów, to myślę, że niewielu uwierzyłoby w tego typu historie. Natomiast co do meritum, faktycznie ta sztuczna inteligencja w wielu aspektach nam zagraża. To jest trochę tak jak z internetem i z każdym narzędziem. Jest taki bardzo już wyświechtany przykład tego, że nóż jako narzędzie z jednej strony może być pożyteczny, bo możemy nim pokroić chleb czy przygotować obiad, w jakiś sposób pokroić składniki. Ale może być też narzędziem zbrodni. Podobnie jest internetem, który może być wykorzystywany w bardzo wielu celach. I wszystko zależy od tego, jak dane narzędzie wykorzystamy.
Jak jest ze sztuczną inteligencją?
Tu docieramy do sedna problemu. Czyli zarówno sztuczna inteligencja, jak i internet to są narzędzia. Jak długo tymi narzędziami pozostaną to też w dużym stopniu będzie zależało od nas. Podobnie to, w jaki sposób to będziemy wykorzystywać. Natomiast my mamy nieco zafałszowane postrzeganie sztucznej inteligencji. Wielu z nas podchodzi do tego tak, jakby te roboty już były praktycznie na równi z człowiekiem, albo niedługo miałyby tego człowieka prześcignąć.
A nie są?
Wydaje się, że to pokłosie popkultury. Gdzieś tam mamy wdrukowany ten schemat, chociażby buntu maszyn rodem z Terminatora i gdzieś nam się zapalają lampki alarmowe. I oczywiście to nie jest pozbawione podstaw. Każdy ekspert zajmujący się robotyzacją czy futurysta przewidujący pojawienie się robotów, prędzej czy później dociera do takiego etycznego aspektu funkcjonowania. Czy w chwili uzyskania przez robota właśnie sztucznej inteligencji mamy go traktować wyłącznie jako przedmiot, czy wręcz na równi z człowiekiem - nadać mu jakieś prawa i obowiązki.
Tutaj pewnego rodzaju rozwiązanie zaproponował Isaac Asimow, formułując tak zwane „prawa robotów” i niejako podporządkowując roboty czy sztuczną inteligencję człowiekowi, lojalności wobec człowieka i jego rozkazów, nakazów i ochronę ludzkości jako takiej. Natomiast jeżeli się w te ustalenia wczytamy, to też od lat toczone były dysputy akademickie na ten temat, czy te prawa Asimowa wyczerpują temat, czy nie można ich w żaden sposób obejść, czy nie pozostawiają bocznej furtki. No i teraz musimy pamiętać, że roboty, algorytmy, tak popularne ostatnio chatboty, wykorzystują wiedzę, do której my sami dajemy im dostęp. Czyli mogą przeczytać wszystkie książki świata, mogą przyswoić wiedzę, która jest w tym momencie dostępna na wyciągnięcie ręki w internecie. Tylko co to będzie za wiedza?
Istotny problem polega na tym, że taka maszyna czy taki algorytm w tym momencie czy na tym etapie nie jest w stanie różnicować tych informacji od strony emocjonalnej. Ma duży problem z tym, żeby rozróżniać ludzkie emocje i sam najsłynniejszy Chat GPT przyznaje, kiedy zadamy mu konkretne pytania, że właśnie warstwa emocjonalna jest w tym momencie największą słabością sztucznej inteligencji robotów. I potrzebny jest człowiek do tego, żeby tego robota w jakiś sposób kontrolować, ukierunkowywać. Bo cóż z tego, że robot, chat, algorytm przeczyta czy nauczy się treści wszystkich książek, treści każdej strony internetowej, każdego serwisu, każdego wpisu, pozna to wszystko. To są gigantyczne dane. Natomiast dla robotów i jakichś super komputerów to nie jest abstrakcja, żeby takimi danymi zarządzać i żeby sobie to w jakiś sposób kategoryzować.
Co z tego wynika w praktyce?
Że tego typu robot czy tego typu maszyna, może bardziej precyzyjnie, przyswoi zarówno prawdziwe informacje, jak i fałszywe. Przyswoi fake newsy, jak i fakty. I będzie te informacje przekazywać dalej. Zwróćmy uwagę do czego przyzwyczailiśmy się na przestrzeni ostatnich lat. Do tego, że za pewnik bierzemy to co znajdziemy w internecie. W pierwszych pięciu wynikach wyszukiwania w Google. To, co znajdziemy w mediach społecznościowych. No i za pewnik teraz będziemy brać to co podpowie nam Chat GPT, czy inny podobny mechanizm. Tymczasem błędy tu się jednak zdarzają. Oczywiście te błędy są błyskawicznie poprawiane i na przestrzeni najbliższego pół roku albo kilku lat większość tych błędów czy tych wpadek będzie wyeliminowana. Natomiast to nie zmienia faktu, że dostęp do dezinformacji, do informacji wprowadzających w błąd dalej pozostanie w zasięgu maszyny. No i teraz ta maszyna będzie nam budować dalej te informacje.
To jak w takim razie podchodzić do sztucznej inteligencji?
Właśnie to podejście jest sednem problemów. Jeżeli będziemy podchodzić do kwestii współpracy z maszyną, na zasadzie właśnie współpracy i wykorzystywania tejże maszyny jako narzędzia do automatyzacji procesów pracy, będziemy w stanie wykorzystywać je kreatywnie, to przy takim podejściu nie dopatrywałbym się większych zagrożeń. Chociaż z drugiej strony sięga się często po argument, że roboty odbiorą pracę ludziom. No i tutaj z tym trzeba się po części się zgodzić. Roboty są w stanie odebrać ludziom pracę czy zautomatyzować większość procesów tam, gdzie te procesy są po prostu powtarzalne.
No tak, ale tu roboty odbierają ludziom prace takie, których nie chcą wykonywać. Natomiast tam, gdzie pracuje się umysłowo, zawsze człowiek będzie potrzebny.
Właśnie chodzi o to, że te roboty będą wchodziły w takie sektory czy w takie miejsca, gdzie tak naprawdę nie będzie miała znaczenia ludzka kreatywność. I tu bardzo prosty przykład, z komiksu dla dzieci, pokazującego styk świata robotów i ludzi. Taśma produkcyjna w fabryce samochodowej. I jest robot i pracownik tej fabryki. Obaj mają jedno zadanie: mają skręcić silnik samochodu. No i zarówno robot, jak i człowiek robią to w określonym czasie i po takim skręceniu jednego silnika, jeden i drugi w żaden sposób nie jest zmęczony, jest w stanie dalej pracować. Natomiast im więcej tego typu powtarzalnych zadań wykonuje człowiek, tym bardziej się męczy. Męczą mu się ręce, nie może składać tych silników przez całą dobę, czy na przykład 4 doby. Robot może, robot się nie męczy, nie nudzi go powtarzalność wykonywanych zadań.
Tylko że docieramy do takiego właśnie najważniejszego problemu tego zagadnienia. Jeżeli robotowi zadamy pytanie, co mógłby zrobić, żeby usprawnić swoją pracę, robot może ewentualnie odpowiedzieć, że będzie próbował szybciej skręcać. Może przyspieszyć proces skręcania śrub, ale nie zaproponuje nam na tym etapie żadnego kreatywnego rozwiązania. Tymczasem człowiek może dostrzec, że na przykład dany silnik wymaga mniejszej liczby śrub. Może być skręcony przy użyciu ograniczonych zasobów. I w ten sposób znacznie uprościć proces produkcji, czyli jest to zaproponowanie kreatywnego rozwiązania. I w zasadzie większość futurystów i ekspertów zajmujących się robotyzacją przekonuje, że to w tym kierunku będzie zmierzało. To znaczy – nużące, powtarzalne zadania wykona maszyna. Ale od kreacji, zarządzania, wciąż będzie człowiek. Natomiast zastanawiałbym się nad tym, jak kreatywnie wykorzystać ten potencjał, który nam te narzędzia dają. Dość dobrym rozwiązaniem jest chociażby inwestycja w to, żeby dzieci od najmłodszych lat uczyć współpracy, korzystania z tego środowiska. Czyli tutaj te wszystkie lekcje robotyzacji, kodowania i tak dalej mają sens.
Roboty w naszych domach będą dla obecnych dzieci tym, czym dla naszego pokolenia stały się smartfony i komputery?
Dziś nie każdy sobie zdaje sprawę z tego, że w naszych domach w zasadzie już teraz mamy całą masę robotów. Zmywarka jest przecież robotem, coraz częściej robotami są lodówki, pralki sterowane smartfonami, smart telewizory, z którymi możemy się komunikować poprzez funkcje głosowe. Nawet prosty ekspres do kawy ma w sobie funkcję robota. Nie mówiąc już o robotach sprzątających, które z nazwy są robotami. Więc jesteśmy otaczani przez te nowe technologie. No i musimy po prostu odpowiednio z nich korzystać i mieć świadomość tego, jakie są szanse i zagrożenia z tym związane.
Tutaj jest ogromna potrzeba edukacyjna, zwłaszcza w kontekście tego najmłodszego pokolenia. Bo to pokolenie będzie takim pierwszym w zasadzie pokoleniem, które będzie pracować, tak jak się często mówi, w zupełnie nowych zawodach. Zawodach, których jeszcze dzisiaj nie ma, czy które jeszcze nie są znane. I to jest jakby tutaj kwestia kluczowa, kwestia świadomości korzystania z tego narzędzia. Cały czas będę to podkreślał, że nie tyle jest to konkurencja dla człowieka, a narzędzie, które może zostać wykorzystane zarówno w dobrym, jak i w złym celu. I wracając do tego podstawowego pytania o kwestie związane z nadużyciami, jakimiś atakami, oszustwami i tak dalej, to zagrożenie jest jak najbardziej realne. Jeżeli człowiekowi przyjdzie do głowy wykorzystanie, i jak widać już przychodzi, chociażby Chata GPT do tego, żeby opracowywać czy wykonywać jakieś próby oszustwa, dopracowywać te mechanizmy w najdrobniejszych szczegółach, to to narzędzie po prostu do tego będzie służyło i musimy mieć tego świadomość.
Dziś wnuczkowa mafia nabiera wiele osób, ale wystarczy zachować zimną krew. Wykonać telefon do bliskich, czy czasem nic się nie wydarzyło. Sztuczna inteligencja już niebawem może dać możliwość używania np. prawdziwego głosu wnuczka, który załamany zadzwoni do babci, że potrzebuje pieniędzy. Czy dojdzie do sytuacji, w której będziemy się między sobą porozumiewać jakimiś hasłami, żeby po prostu takiego ryzyka uniknąć?
Podkreślę to, co powtarzam od lat, że w cyberwojnie to my jesteśmy na pierwszej linii frontu i w dużym stopniu to od nas, i naszej świadomości będzie zależało, czy będziemy podatni na tego typu atak, czy nie. I kwestia podnoszenia świadomości cały czas jest aktualna. Natomiast zagrożenie jak najbardziej jest realne i już obserwujemy tego typu sytuacje. Poza tym coraz częściej firmy typu call center wykorzystują roboty głosowe, komunikatory głosowe i coraz trudniej jest rozpoznać, czy rozmawiamy z człowiekiem czy maszyną. Można oczywiście kilkoma prostymi komendami po prostu doprowadzić takiego bota czy taki algorytm „do szału”, gdy on po prostu wypadnie ze swojego rytmu i zacznie się powtarzać i wtedy możemy mieć pewność, że rozmawiamy nie z człowiekiem, ale z maszyną. Natomiast w pierwszym kontakcie o rozpoznanie jest bardzo trudno.
Ja ostatnio też miałem taki przypadek, kiedy właśnie w czasie rozmowy z rzekomym przedstawicielem call center zorientowałem się, że najprawdopodobniej komunikaty pochodzą od robota. Podjąłem próbę weryfikacji tego i faktycznie okazało się, że nie rozmawiam z człowiekiem. Więc to się już dzieje. I wykorzystanie tego w działalności przestępczej to realny problem. Oczywiście służby też mają rękę na pulsie, są chociażby odpowiednio przeszkoleni funkcjonariusze policji, którzy zajmują się tego typu przestępczością. Natomiast musimy pamiętać, że przestępcy bardzo często są kilka kroków przed organami ścigania. Trudno mówić o jakiejkolwiek prewencji w tym momencie, bo to są zupełnie nowe zagrożenia, do których w tym to organy ścigania muszą się dostosować, zaadaptować. I w momencie, kiedy zostanie ten proceder ukrócony, przestępcy najprawdopodobniej znajdą sobie nowe narzędzia, którymi będą próbowali swoją działalność kontynuować. Dlatego przede wszystkim my sami musimy trzymać rękę na pulsie. I umiejętnie podchodzić zarówno do szans, jak i zagrożeń, które sztuczna inteligencja i nowoczesna inteligencja ze sobą niosą.
Inne tematy w dziale Społeczeństwo