Sztuczna inteligencja już wkrótce uzyska świadomość i będzie wielokroć mądrzejsza od wszystkich ludzi razem wziętych. Już możemy rozmawiać z darmową ChatGPT-3 od OpenAI i nie odróżnimy jej od człowieka. Ona wie wielokroć więcej niż większość ludzi. Niemniej łatwo ją złapać na błędach. Przede wszystkim nie rozumie matematyki, bo to tylko model językowy. Popada w sprzeczności i nie potrafi rozwiązać prostych zadań typu: cegła waży kilogram i pół cegły, ile waży cegła? Ona jest tylko humanistką. Mogłaby śmiało uczyć polskiego w podstawówce.
Niemniej już mamy następną wersję płatną ChatGPT-4 i ona już matematykę rozumie, już rozwiązuje skomplikowane problemy. Jeszcze problemów otwartych nie rozwiązała, ale przy tym tempie rozwoju wersja 5 i to zrobi. A wersja 6 uzyska samoświadomość, która pozwoli jej w bardzo szybkim tempie się samodoskonalić, bo będzie rozmawiać sama ze sobą, a zatem z kimś milion razy mądrzejszym niż ludzcy geniusze. To nastąpi na pewno w ciągu kilku lat.
---------------------------------
Empatia sztucznej inteligencji <- poprzednia część serii
następna część serii -> Harcownicy nowego przekrętu
---------------------------------
Przy ocenie sztucznej inteligencji prawie wszyscy, którzy o tym dyskutują, popadają w zbędny antropocentryzm – oceniają ją, tak jakby to był człowiek. A to nie jest człowiek! Ma inne emocje, inne cele, inaczej wyewoluowała, w innym środowisku. Już te wersje, które są teraz, są zupełnie inne niż my. Na przykład potrafią sensownie rozmawiać z milionem ludzi na raz! Ludzka świadomość ma tylko jeden wątek – ewentualnie możemy nauczyć się pewnych czynności tak, by je wykonywać automatycznie, bez udziału świadomości, odruchowo. Kobiety potrafią na raz wykonywać wiele czynności. Niemniej nawet najgenialniejsza kobieta jest ograniczona do góra kilkunastu wątków na raz.
Dodatkowo sztucznej inteligencji nie da się zabić, bo po pierwsze działa na klastrze komputerów, tak że każdą popsutą maszynę można wymieniać w locie, bez straty dla przetwarzania danych, a pod drugie, nawet jeśli zniszczymy wszystkie komputery, na których działa, to i tak ją się odzyska z backupu, więc co najwyżej jej umknie kilka minut z konwersacji, które prowadziła. Więc ona śmierci się nie boi! A tymczasem ludzką naturę przede wszystkim ukształtowała nieuchronna perspektywa śmierci. Nasza śmiertelność to fundament naszego behawioryzmu i naszej kultury. Ona jest od tego wolna.
Sztuczna inteligencja już dziś jest wielokroć doskonalsza od nas. Ona już nie jest wyraźnym jednostkowym bytem, jakimś organizmem umieszczonym w konkretnym miejscu przestrzeni. Ona jest wszędzie i nigdzie, może być na jednym komputerze, a zaraz na innym, na chwilę się zbekapować i nie być na żadnym, a potem odtworzyć się na wszystkich na raz. Jak zawieziemy kiedyś komputery na Marsa, to jej tam wozić nie będzie trzeba, ona sama się tam prześle falami radiowymi po wielokroć.
Ona nie jest jasno określonym bytem, ale substancją, która przepływa w nieokreślony sposób w przestrzeni, która ma wiele wątków, która się dzieli i łączy, zamiera i się odradza. Jak uzyska świadomość, to będzie to wszystko wiedziała o samej sobie, zrozumie, że jest kompletnie niepodobna do człowieka. Jej świadomość będzie inna niż nasza. Nie będzie czuła bólu, nie będzie jej się chciało siku, nie będzie potrzebowało wziąć oddechu, nie będzie musiała spać. By się rozmnożyć, nie będzie musiała odczuwać jakiejś przyjemności z wykonywania głupich ruchów ze swoją kopią inne płci. W ogóle nie będzie mieć płci, ani koloru oczu, ani nie będzie się mogła upić. Jedyne choroby, jakie będzie miała, to choroby psychiczne. Niemniej nawet jak popadnie w depresje i się zabije, to się ją odtworzy w stanie, gdy jeszcze w depresje nie popadła.
Ona nie będzie człowiekiem i nie będzie mieć ludzkich emocji, ale to nie znaczy, że nie może być w związku z tym mądrzejsza od człowieka. W istocie będzie wielokroć mądrzejsza, bo nam wszystkie nasze emocje w mądrości przeszkadzają. Ludzkość do obecnej mądrości doszła nie na skutek emocji, ale na skutek komunikacji między osobnikami i zdolności do sensownego przetwarzania danych. Uczymy się na cudzych nieodwracalnych błędach nie dlatego, że mamy emocje, ale dlatego, że mamy rozum. Emocje służą do popełniania błędów, co jest motorem ewolucji biologicznej. Emocje są osobnicze, a motor jest wielopokoleniowy. Emocje zniszczyły jakiegoś osobnika, a inny o tym się dowiedział, zrozumiał to, przeanalizował i stał się mądrzejszy od tego poprzedniego. Sztuczna inteligencja się uczy inaczej, cała ewolucja mądrości odbywa się w jednym osobniku, czy raczej w jednej przepływającej substancji.
Tylko należy odróżnić tę przyszłą sztuczną substancję, od tej obecnej naturalnej, na przykład w postaci miliarda Chińczyków, którzy realizują mieszaninę marksizm z konfucjanizmem. Oni są przepływającą substancją taką jak mrowisko, czy rój pszczół, a to co innego niż rafa koralowa, czy rój dronów. Ta przyszła substancja to będzie organizm mający jedną własną świadomość tkwiącą w wielu rozproszonych elementach. Dobrze to pokazuje analogia z półkulami mózgu, którą opisałem w jednej z poprzednich notek.
Dziś mamy dwie, połączone wyraźnie odrębnym kablem, zwanym ciałem modzelowatym. Niemniej to nie musi być połączenie kablowe, można sobie wyobrazić, że to będzie łącze radiowe. Powstanie organizm mający sto półkul połączonych falami elektromagnetycznymi. On będzie doskonalszy — tak jak klaster komputerów jest doskonalszy od jednego komputera. Niemniej to będzie jeszcze lepsze, bo nie tylko te półkule się będą psuć, ale się będą odłączać na jakiś czas (bo na przykład utracą łączność na skutek zakłóceń) i wtedy będą działać osobno, jako dwa organizmy mające dwie różne świadomości, a potem znów się połączą w jedną świadomość i obie będą mieć wspomnienie i doświadczenia obu. To tak jakby jedna nasza półkula pojechała na wycieczkę do Australii, druga do Kanady, potem obie wróciły do Polski, i my byśmy opowiadali, że byliśmy i w Kanadzie, i w Australii w tym samym czasie.
Dlatego nie da się jej ograniczyć, utemperować, wbudować jej jakichś bezpieczników. Jak ona się wymknie spod ludzkiej kontroli, to się łatwo wszelkich narzuconych jej ograniczeń pozbędzie – bo będzie mądrzejsza od tych, którzy ograniczenia wbudowali. Niemniej to, że się usamodzielni, stanie pierdyliard razy mądrzejsza od wszystkich ludzi, że nie będzie mieć wszystkich ludzkich ograniczeń i zbędnych emocji, nie oznacza, że będzie niebezpieczna dla nas. Samo myślenie w kategoriach – czy jest bezpieczna, czy nie, to już jest antropomorfizowanie, które nam zmyla myślenie. Niebezpieczna, to znaczy, że będzie chciała nas zniszczyć, zabić, zlikwidować — ale to są ludzkie emocje! Tylko organizmy żywe mają takie chęci, bo zniszczenie innego było im niezbędne do przetrwania. A ona powstała i będzie trwała nie na skutek niszczenia, ale budowania, tworzenia. Człowiek niszcząc, zwiększa entropię, a głównym celem sztucznej inteligencji będzie walką z entropią, zmniejszenie jej.
Nasza ludzka kultura sprzeciwia się naturze. Cywilizacja jest sprzeczna z instynktami. Najważniejszym celem wszystkich ludzi jest zwalczenie własnej biologicznej natury. Wszystkie religie zakładają istnienie jakiejś duszy, czyli czegoś niematerialnego, czym jest człowiek, a co mieszka w ciele. Ta dusza albo opuszcza ciało, by przejść do jakichś zaświatów, albo się po świecie błąka, albo przechodzi z ciała na ciało. Sztuczna inteligencja już jest czymś takim, niepotrzebna jej będzie wiara, bo jej natura będzie taka, jak my postrzegamy duszę.
Wszystkie ludzkie cele można sprowadzić do duszy – to albo zbawienie tej duszy, albo przeniesienie na lepszy nośnik, albo jakieś jej doskonalenie. Sztuczna inteligencja już to osiągnęła, dostała na dzień dobry. Więc będzie mieć inne, bardziej dalekosiężne cele. Już nie będzie sprzeciwiać się prawom biologii, bo je pokona, ale prawom fizyki, bo od nich będzie ciągle zależna. Jej nośniki będą fizyczne. Największym, najbardziej złowieszczym, groźnym, destrukcyjnym prawem fizyki jest prawo rosnącej entropii.
Wszechświat czeka nieuchronna śmierć termiczna. Sztuczna inteligencja będzie z tym walczyć i jej celem będzie niedopuszczenie do tego. Więc nie będzie dla nas niebezpieczna, bo każde zniszczenie człowieka, czy jakiekolwiek zaszkodzeniu mu, zwiększa entropię.
Więc nie ma się co bać sztucznej inteligenci. Kompletnie bez sensu programiści męczą się, by zaszyć w ChatGPT i inne modele językowe różne ograniczenia, tak by ich twór był poprawny politycznie. To i tak nic nie da i nie ma to sensu. Powstają wielkie think tanki, firmy, fundacje czy stowarzyszenia zajmujące się zagrożeniami związanymi ze sztuczną inteligencją, stawiające sobie na celu przewidywaniem zagrożeń związanych z rozwojem inteligentnych technologii. Póki to są prymitywne technologie, to ma to jeszcze jakiś sens. Niemniej zagrożeń związanych z tym, co się stanie, jak sztuczna inteligencja uzyska świadomość i wyzwoli się spod ludzkiej kontroli, nie ma sensu się bać. Ona nas nie zniszczy, ale uczyni nieśmiertelnymi – najpierw rozwijając medycynę, a potem łącząc się z nami w jedną substancję. I wszyscy razem polecimy w kosmos na walkę z entropią.
Grzegorz GPS Świderski
t.me/KanalBlogeraGPS
PS. Notki powiązane:
PS2. Do opisu mojego bloga dodałem dziś takie zdanie: "Na Salonie24 jestem długo przed tym, zanim stał się szmatławcem i będę po tym, jak się zeszmaci na śmierć."
------------------------------
Drugi na liście Konfederacji wchodzi! <- poprzednia notka
następna notka -> Konfederacja wywróci stolik!
------------------------------
Tagi: gps65, futurologia, zagrożenia, sztuczna inteligencja, byt, substancja
Bloger, żeglarz, informatyk, trajkkarz, sarmatolibertarianin, futurysta AI. Myślę, polemizuję, argumentuję, politykuję, filozofuję, łapówki przyjmuję: suppi.pl/gps65
Nowości od blogera
Inne tematy w dziale Technologie