W poprzedniej notce: Czy robot może być osobą? wyjaśniłem, że roboty nie mogą być osobami, a zatem podmiotami moralności. A więc nie mogą grzeszyć. Co skutkuje też tym, że nie podlegają odpowiedzialności karnej - nie można ich powiesić, gdy zamordują. Ale też nie podlegają moralnej, czy prawnej, ochronie - właściciel może je bezkarnie zabić, wyłączyć, skasować - i nie będzie to złe moralnie. Będą zawsze przedmiotem własności - nawet, jeśli staną się bardziej inteligentne niż właściciel. Inteligentne roboty są jak zwierzęta - ale można je objąć ochroną.
Nie mieszać ciał!!! <- poprzednia część
Ale to jest problem filozoficzny. Niemniej ma to też swój aspekt dotyczący prawa cywilnego: czy robot może uzyskać osobowość prawną? Czy można od robota zażądać odszkodowania za szkody, których dokona? Czy można go podać do sądu?
Mogę napisać program, który będzie się uczył tego, co ludzie piszą na fejsbuku - i będzie on to naśladował odpowiadając im w podobnym stylu. No i nauczy się mowy nienawiści i będzie ją rozpowszechniał. Prokurator go za to oskarży, a sąd skaże. Kto zapłaci odszkodowanie tym obrażonym? To przecież oni go tej mowy nauczyli, nie ja - więc czemu ja miałbym płacić?
Ten problem już jest poważnie rozważany. W tej oto notce jest informacja o pracach Parlamentu Europejskiego mających na celu utworzenie stosownych przepisów: Autonomiczny, równoległy świat sztucznej inteligencji jest już faktem?
Mamy już w prawie pojęcia: „osoby fizycznej” i „osoby prawnej” - a Parlament Europejski rozważa utworzenie pojęcia: „osoby elektronicznej” - tak by wprowadzić odpowiedzialnością cywilną robotów. Kilka cytatów:
- „mając na uwadze, że od postaci Frankensteina stworzonej przez Mary Shelley po antyczny mit o Pigmalionie, poprzez historię praskiego golema i robota Karla Čapka (autora pojęcia robot) ludzkość zawsze snuła fantazje wokół możliwości stworzenia inteligentnych maszyn, najczęściej androidów o cechach ludzkich;”
- „mając na uwadze, że rozwój robotyki i sztucznej inteligencji może jednocześnie doprowadzić do przejęcia przez roboty znacznej części pracy wykonywanej obecnie przez ludzi…”
- „mając na uwadze, że istnieje możliwość, że w ciągu kilku dziesięcioleci sztuczna inteligencja przewyższy ludzkie zdolności intelektualne tak, że jeśli ludzkość nie będzie na to przygotowana…”
- „mając na uwadze, że niezbędny jest jednak szereg przepisów odnoszących się zwłaszcza do odpowiedzialności i etyki…”
- „mając na uwadze, że Unia Europejska mogłaby odgrywać kluczową rolę w ustanawianiu podstawowych zasad etycznych, które mają być przestrzegane w ramach rozwoju, programowania i wykorzystywania robotów i sztucznej inteligencji…”
- „mając na uwadze, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako zwykłe narzędzia w rękach innych podmiotów…”
- „mając na uwadze, że w świetle obecnych ram prawnych roboty nie mogą ponosić odpowiedzialności za akty zaniechania skutkujące szkodą osób trzecich…”
- „mając na uwadze, że nie naruszając zakresu dyrektywy 85/374/EWG, obecne ramy prawne nie będą wystarczające do uwzględnienia szkód powodowanych przez roboty nowej generacji…”
- „...wzywa Komisję do zaproponowania wspólnej europejskiej definicji inteligentnych robotów autonomicznych…”
Moim zdaniem nie da się określić osobowości prawnej robotów. A jeśli się to jakoś pokrętnie prawnie zdefiniuje, to wstrzyma to postęp w tej dziedzinie. Nie da się, bo nie da się określić kto konkretnie miałby tę osobowość uzyskać. Roboty nie mogą być podmiotem praw, bo ten elektroniczny podmiot jest nieokreślony, płynny, mętny, rozmyty, zmienny - i nigdy się go nie uściśli.
Człowiek jest ciałem i umysłem - i się tych elementów nie da oddzielić - oba tworzą konkretny, odrębny byt biologiczny, osobny organizm, łatwo materialnie zauważalny i możliwy do ścisłej definicji.
U robotów można oddzielić ośrodek decyzyjny od wykonawczego i oba rozmyć. Możemy mieć tysiąc dronów działających w stadzie oraz zbiór wirtualnych komputerów w chmurze, które realizują sztuczną inteligencję i zdalnie sterują tymi dronami. To będzie jeden organizm - ale czy możliwy do uchwycenia jako spójna całość?
Może być przecież tak, że gdy to stado dronów znajdzie się w trudniejszej decyzyjnie sytuacji (mgła, chmury, wiatr, atak kogoś) to dowództwo zwiększy moc obliczeniową ośrodka sterującego dronami tak, że dołączy do niego inny zbiór sztucznych inteligencji, łącząc to w większą całość. Takie połączenie może się odbyć na wiele sposobów - albo poprzez połączenie mocy obliczeniowej albo poprzez równoległe podejmowanie decyzji i głosowanie. Również te wykonawcze stada dronów mogą się łączyć i dzielić na wiele sposobów. I co wtedy jest podmiotem, który ma dostać osobowość prawną? Każdy dron z osobna? Każdy komputer fizyczny czy wirtualny?
Ja rozumiem, że osobowość prawna jest potrzebna do tego, by uzyskać odszkodowanie od autonomicznego samochodu, który narobi szkód. No ale co, jeśli taki autonomiczny samochód będzie korzystał nie tylko ze swoich komputerów i kamer, ale komputerów i kamer wszystkich okolicznych samochodów, kamer monitoringu drogowego, inteligentnej nawigacji satelitarnej i prognozy pogody - i będzie to stanowić jedną całość? Proces decyzyjny może być taki, że decyzję co do ruchu samochodu podejmuje raz algorytm na komputerze tego samochodu, raz centrum sterujące, a raz odbędzie się to poprzez głosowanie samochodów z okolicy, które lepiej widzą - w zależności od tego, jaki jest czas na reakcję. I kto ma wtedy płacić odszkodowanie za złą decyzję?
Jeśli zostanie wprowadzona osobowość prawna robotów, to może to spowodować, że z punktu widzenia prawa każdy samochód będzie musiał być autonomiczny sam w sobie i nie będzie mógł korzystać z wiedzy i mocy obliczeniowej kogokolwiek z zewnątrz. Wtedy technologie współdziałania samochodów w stadzie i wspomagania z centrum nie będą się rozwijać! A gołym okiem widać, że współdziałając zapewnią tysiąckroć większe bezpieczeństwo!
Ludzki mózg nie jest podzielny i nie da się mózgów łączyć. Zdarza się rozdwojenie jaźni, ale to jest rzadka choroba psychiczna - trudno ją celowo wywołać i wyleczyć. Ludzie też działają w grupie, ale wciąż można każdego członka grupy wyodrębnić i ustalić jego odpowiedzialność.
Tymczasem bez problemów jedna wirtualna sieć neuronowa może być realizowana na wielu komputerach na raz, a w trakcie jej działania może ona podzielić się na kilka sieci, albo połączyć z innymi w jedną całość - po drodze zmieniając wirtualne komputery, na których działają - cały czas realizując jedno zadanie - na przykład prowadząc zdalnie autonomiczny samochód. Albo może być tak, że jedna sieć realizuje jedno zadanie (prowadzi jeden samochód), a druga inne (prowadzi drugi samochód), ale warunki pogodowe się w obu przypadkach zmienią i jakaś inteligentna sieć, nadzorująca te dwie, dojdzie do wniosku, że trzeba je zamienić miejscami, albo je połączyć w jedną i niech steruje oboma samochodami. Która z tych sieci powinna odpowiadać za ewentualny wypadek? Odpowiada się przecież nie tylko za działanie, ale też za zaniechanie, gdy się działać może.
Problem z rozmyciem osobowości, czy raczej ontyczności, przedmiotów, jest już filozofom znany od starożytności i nazywa się to: "Statek Tezeusza". Jeśli taki statek uzyska osobowość prawną, a potem będą wymieniane w nim części na nowe, a ze starych zrobi się drugi starek, to który z nich będzie miał tę przydzieloną prawnie osobowość, który będzie recydywistą?
Podobne pytanie można zadać w stosunku do mojego smartfonu, który uzyska osobowość prawną dzięki inteligentnej aplikacji działającej w chmurze, która mi doradza. No i ja go zgubię, i kupię identyczny, w którym umieszczę wszystkie aplikacje i dane ze starego - to będzie ten sam smartfon, czy inny? Jeśli ta aplikacja doradcza, która nadal mi doradza na nowym, wyśle z tego starego, który leży gdzieś w trawie, sygnał odpalający bombę, to ten nowy za to odpowie? Tu te kwestie kiedyś rozważałem: Nowa ontyczność przedmiotów.
Grzegorz GPS Świderski
następna część ->
PS. Notki powiązane:
Czy robot może być osobą? <- poprzednia notka
następna notka -> Przepisy służące bezpieczeństwu pogarszają je!
Tagi: gps65, roboty, sztuczna inteligencja, odpowiedzialność cywilna, ontologia, prawo, filozofia
Bloger, żeglarz, informatyk, trajkkarz, sarmatolibertarianin, futurysta AI. Myślę, polemizuję, argumentuję, politykuję, filozofuję, łapówki przyjmuję: suppi.pl/gps65
Nowości od blogera
Inne tematy w dziale Technologie