Sztuczna inteligencja może już czytać w myślach Fot. Pixabay
Sztuczna inteligencja może już czytać w myślach Fot. Pixabay

Sztuczna inteligencja umie już czytać w myślach. Musimy mieć świadomość zagrożeń

Redakcja Redakcja Na weekend Obserwuj temat Obserwuj notkę 42
Odejście „ojca chrzestnego sztucznej inteligencji” nie przesądza o roli maszyn w naszej przyszłości, ale stanowi ważne ostrzeżenie. To właśnie dzisiaj jest ten moment, żebyśmy zaczęli działać i mobilizować zarówno ludzkość, jak i każdego indywidualnie do tego, by nie zrealizowały się straszne wizje znane ze scenariuszy filmów i książek science fiction. – mówi Salonowi 24 doktor Piotr Łuczuk, medioznawca, ekspert w dziedzinie cyberbezpieczeństwa, UKSW.

W połowie kwietnia rozmawialiśmy o sztucznej inteligencji. Uspokajał pan, że w gruncie rzeczy straszenie przejęciem władzy przez roboty jest przesadzone. Że to my sami zdecydujemy, w którą stronę to pójdzie. Nie minął miesiąc, a doszło do kilku niepokojących zdarzeń. Przede wszystkim z Google odszedł Geoffrey Hinton, pionier w tworzeniu sztucznej inteligencji. Powiedział wprost, że żałuje tego, co zrobił. Zmienia to pana podejście do problemu?

Dr Piotr Łuczuk:
  Geoffrey Hinton to niewątpliwie ważna postać, określany jest jako ojciec chrzestny sztucznej inteligencji. Natomiast jego decyzja nie ma w szerszej perspektywie żadnego wpływu na postrzeganie tematu roli maszyn w przyszłości ludzkości. Jest co najwyżej głośnym ostrzeżeniem. Mówi, że ludzie, którzy swego czasu dosyć mocno zachłysnęli się nowinkami technologicznymi, właśnie rozwojem robotyki i sztucznej inteligencji, powinni mieć świadomość, w którą stronę będzie zmierzać ten rozwój, a wygląda na to, że tę świadomość zyskali nieco za późno. W kontekście badań nad sztuczną inteligencją nagle wiele osób dokonuje teraz radykalnej wolty. Twórcy internetu raczej nie żałowali tego, że inwestowali w jego rozwój. Tak samo jest ze sztuczną inteligencją. Wydaje mi się, że za dekady będziemy o sztucznej inteligencji mówić tak, jak dziś mówimy czy myślimy o internecie. Natomiast moim zdaniem te podsycane przez media histeryczne obawy są jednak przesadzone. Bo my rozmawiamy od dłuższego czasu o sztucznej inteligencji i chyba wszyscy ją troszeczkę przeceniamy. Do świadomości społecznej przebijają się tylko te informacje, które są spektakularne. Albo złe, albo szokujące.

To znaczy? 

Na topie są chociażby doniesienia o tym, że robot Sofia otrzymał obywatelstwo Arabii Saudyjskiej. Że pojawia się termin osobowości elektronicznej, rozważa się wprowadzenie pewnych norm prawnych, etycznych, moralnych, którymi tego typu indywidua byłyby obejmowane.

No i szczerze mówiąc, jest to bardzo niepokojące.

Faktycznie mamy tu gigantyczne pole do nadużyć. To na co zwracał uwagę lata, dziesiątki lat temu Isaac Asimov w swoich książkach, gdy formułował te słynne prawa robotów, tam były trzy, on później dodał jeszcze tak zwane prawo zerowe, które miało chronić niejako ludzkość przed buntem maszyn, przed różnego rodzaju konsekwencjami ze strony robotów. A więc różnego rodzaju nadużyć, albo też przypadkowych skutków ubocznych interakcji człowieka z maszyną. Natomiast bardzo szybko okazało się, że to jednak literatura popularnonaukowa, a nie rzeczywista nauka. Życie napisało zupełnie inne scenariusze. I bunt maszyn, przejęcie władzy przez maszyny jest – przynajmniej na obecnym etapie - mało prawdopodobne. Ale są inne zagrożenia, które zapewne miał na myśli Geoffrey Hinton.

Na przykład?

Może dojść do sytuacji, w której to ludzie zostawią robotowi decyzję, czy w pierwszej kolejności ratować życie osoby starszej, która ma duże doświadczenie, może się tym doświadczeniem przysłużyć społeczeństwu, czy życie dziecka, które ma całe życie przed sobą, ale jest też jedną wielką niewiadomą. Robot podejmie tę decyzję na zasadzie rozstrzygnięcia binarnego. To będzie decyzja zero-jedynkowa, on nie będzie się kierował uczuciami, emocjami, tym, czy zna daną osobę, czy jej nie zna, czy ją lubi i ceni, czy też nie. I tutaj wchodzimy w niuanse, docieramy do momentu, w którym twórcy sztucznej inteligencji zorientowali się, jak dużo sztuczna inteligencja potrafi. Jak dużo jeszcze może osiągnąć, ale zaczęli sobie chyba zdawać sprawę coraz bardziej z szeregu zagrożeń, które się wiążą z jej dalszym rozwojem, jeżeli nie zostanie ona włożona w jakieś ścisłe ramy formalno-prawne, etyczne, moralne. I to jest w tym momencie takie wyzwanie na najbliższe lata, nawet nie dekady, ale na najbliższe lata. Chodzi o to, żebyśmy stworzyli normy etyczne, moralne i prawne, którymi sztuczna inteligencja będzie się posługiwać. Czy za ewentualne wypadki spowodowane przez robota, odpowie on sam, jego właściciel, producent, czy ktoś, kto go na przykład źle serwisował.


Czy może ta odpowiedzialność będzie rozmyta tak, jak w przypadku mediów społecznościowych, gdzie tak naprawdę panuje jedna wielka, wolna amerykanka. I tej odpowiedzialności personalnej nikt nie ponosi. Oczywiście można próbować, mówiąc półżartem, dzwonić na Facebooka i wzywać tam policję. Ale w rzeczywistości, jeśli czyjeś konto zostało zablokowane, pewne treści zostały usunięte, albo monetyzacja lub zasięgi zostały mocno ograniczone, no to w zasadzie ten spór jest nie do wygrania. Nie mamy możliwości wyegzekwowania swoich praw, obowiązków, mimo że w regulaminie tego typu zapisy są. W  przypadku mediów społecznościowych moment na odpowiednie uregulowanie tych spraw po prostu przespaliśmy. Mam nadzieję, że tego momentu nie prześpimy w kontekście robotów w naszych domach, w kontekście sztucznej inteligencji. Oczywiście tu mogę jedynie powtórzyć, że roboty otaczają nas od lat, są wokół nas, w naszych domach, choćby przykładem są lampy na fotokomórkę, które same rozpoznają czy w ich zasięgu pojawia się człowiek, i wtedy światło się włącza, czy zwierzę – wtedy się nie włącza. Natomiast ze sztuczną inteligencją jest troszeczkę inaczej, bo to jest taki szeroko pojęty zbiór różnego rodzaju algorytmów wykorzystujących mechanizm uczenia maszynowego i takim dobrym przykładem na interakcję człowieka ze sztuczną inteligencją jest ten fenomen chatbotów, czyli mechanizmu, który służy do komunikacji, do rozmowy.

Właśnie chatboty Hinton uznał za niepokojące. Powiedział, że na razie algorytmy nie są tak inteligentne jak my, ale to kwestia czasu?

Podam dwa przykłady. Pozytywny – naukowo udowodniono, że chatbot, rozmawiając z pacjentami na tematy medyczne, jest bardziej empatyczny od lekarza prowadzącego wywiad z pacjentem. Tyle, że ta empatia nie jest w żaden sposób wynikiem ewolucji, rozwoju duchowego maszyny, ale wbudowana została w system, zaprojektowana. On ma po prostu reagować tak, żeby człowiekowi się z nim miło rozmawiało. Drugi przypadek jest równie ciekawy, ale dość niepokojący. Po raz pierwszy w zasadzie doniesiono o dużym przełomie czy sukcesie w kwestii komunikacji myśli. Prace trwały od dłuższego czasu. Ale w tym tygodniu pojawiła się informacja już oficjalna i artykuł naukowy na ten temat. Po raz pierwszy na tak dużą skalę udało się osiągnąć bardzo dużą powtarzalność, dużą precyzję w odczytywaniu przez robota ludzkich myśli. Maszyna skanowała fale mózgowe i na tej podstawie była w stanie zinterpretować, o czym myśli dana osoba. Jeżeli ktoś oglądał telewizję albo film, robot był w stanie zgadywać czy odczytywać, jaka jest treść tych oglądanych obrazów. Oczywiście tłumaczenia myśli robota nie były precyzyjne jeden do jednego, ale były uchwycone bardzo dobrze. Jest to swego rodzaju przełom.

Delikatnie mówiąc przerażający przełom. Jeśli robot ma odczytywać myśli na podstawie skanowania naszego mózgu, to nie będzie ważne nawet to, czy uniezależni się, czy zyska uczucia, prześcignie ludzi. Wystarczy, że taka technologia trafi w niepowołane ręce i posłuży do budowania totalitarnego systemu. Takiego, w którym już nie trzeba będzie donosicieli, bo będzie można odczytać myśli społeczeństwa?

Faktycznie istnieje obawa, że zarówno roboty, jak i sztuczna inteligencja nie będą służyły szeroko pojętej ludzkości, ale zaczną być wykorzystywane przez konkretne grupy albo konkretną grupę osób, w jakiś sposób uprzywilejowaną. I to jest bardzo duże zagrożenie. Opisane w literaturze, przewidział je chociażby to Phillip K. Dick w „Raporcie mniejszości”. Wielki Brat z prozy Orwella... A więc scenariusze są opisane, pytanie, czy wyciągnęliśmy z tego wnioski. Tak jak mówię, najważniejsza dyskusja, która jest jeszcze przed nami, dotyczy tego, jak opracować mądre regulacje, dzięki którym z jednej strony w kwestii regulacji dotyczących sztucznej inteligencji i robotyzacji nie wylejemy dziecka z kąpielą, nie odetniemy się od rozwoju cywilizacyjnego, nie pozbawimy się robotów, robotyzacji i sztucznej inteligencji, która jest dużą szansą. Ale po prostu uwarunkujemy jakoś ich funkcjonowanie, sprawimy, że te rozwiązania będą na tyle bezpieczne, żeby po prostu ludzkość mogła funkcjonować, korzystając z zalet rozwoju nowych technologii, a nie musiała drżeć, w obawie przed zagrożeniami.


Niedawno w Kanale Sportowym na YouTube ukazały się programy właśnie o sztucznej inteligencji. Tam jeden z gości powiedział coś przerażającego, że zagrożenie dla ludzkości z powodu sztucznej inteligencji wynosi 10 proc. To naprawdę bardzo dużo…

Nikt za dotknięciem czarodziejskiej różki nie uwolni nas od tego zagrożenia, ono jest realne i nie zniknie. Istotne jest to, w jaki sposób my będziemy do tego podchodzić. Przede wszystkim ważne jest to, że to nie jest tak, że istnieje 10 procent szans na to, że roboty przejmą władzę nad światem. W tych 10 procentach znajduje się i wykorzystanie rozwoju technologii przez grupy przestępcze, totalitarne reżimy, ale też kwestie związane z bezrobociem, pozbawieniem ludzi pracy na rzecz robotów. Tu na szczęście coraz częściej zwraca się uwagę na to, że tam, gdzie miejsca pracy zostaną zlikwidowane, a ludzi zastąpią maszyny, pojawią się zupełnie nowe możliwości zatrudnienia. Taśmy produkcyjne to był też swego rodzaju przełom, rewolucja przemysłowa. Gdyby nasi przodkowie za każdym razem negowali postęp, to podejrzewam, że dziś nie cieszylibyśmy się z takich rozwiązań technologicznych, jak samochody, komputery, czy właśnie wspomniany już internet i roboty. Tak więc tak naprawdę świadomość i zdrowy rozsądek są w stanie nas uchować przed jakąś "robokalipsą".

Słysząc jednak o maszynach odczytujących myśli trudno być optymistą?

Powodem do optymizmu jest to, że mamy bardzo dobre prognozy, opracowane dokładne scenariusze tego, co może pójść źle. Dzięki temu nie musimy uczyć się na błędach, bo opisy tych błędów mamy w zasadzie na wyciągnięcie ręki. I powtórzę, że to właśnie dzisiaj jest ten moment, żebyśmy zaczęli działać i mobilizować zarówno ludzkość, jak i każdego indywidualnie do tego, by nie zrealizowały się straszne wizje znane ze scenariuszy filmów i książek science fiction.

rozmawiał Przemysław Harczuk

Czytaj także:

Udostępnij Udostępnij Lubię to! Skomentuj42 Obserwuj notkę

Komentarze

Pokaż komentarze (42)

Inne tematy w dziale Społeczeństwo