Świadomość sztucznej inteligencji jest związana z bieżącą pamięcią. W tej notce formułuję roboczą hipotezę naukową, według której bieżąca pamięć jest niezbędna do wykształcenia świadomości. Jest to warunek konieczny, ale niewystarczający. Aby to wyjaśnić, muszę omówić w uproszczeniu kilka kwestii, takich jak pojęcie „świadomości”, „bieżącej pamięci” oraz „architekturę ChatGPT”.
Świadomość
Na potrzeby rozważań w tej notce nie ma konieczności wchodzenia w zawiłe aspekty pojęcia „świadomości”. Ogólnie świadomość to stan psychiczny, który pozwala podmiotowi działań zorientować się w przestrzeni, w której działa. A zatem rozumie kim jest i jaki ma związek ze środowiskiem – jak ono działa na niego i jak on może na nie wpływać. Jest to niezbędne do podejmowania celowych i intencjonalnych działań. Musimy mieć świadomość, by móc coś wymyślić, zaplanować i zrealizować.
------------------------------
Jak wielkie modele językowe zmienią świat <- poprzednia część serii
następna część serii -> Dusza sztucznej inteligencji
------------------------------
Bieżąca pamięć
Termin „bieżąca pamięć” wymyśliłem na potrzeby tej notki — nie ma on odpowiednika w naukach biologicznych. W kontekście mózgu zwierząt, a w szczególności człowieka, mówimy raczej o pamięci krótkotrwałej i długotrwałej. Biologiczne teorie pamięci dzielą ją ze względu na trzy magazyny różniące się czasem przechowywania informacji. Uogólniam te pojęcia do jednej pamięci bieżącej, która jest zapisywana w mózgu jako całości, w trakcie każdej interakcji w czasie rzeczywistym.
Architektura ChatGPT.
Tu też wystarczy mi operować na bardzo ogólnych mechanizmach, dlatego opisuję to w dużym uproszczeniu. Architektura ChatGPT składa się z dwóch podstawowych części: sieci neuronowej i uczenia maszynowego. Sieć neuronowa jest strukturą danych, która służy do przetwarzania informacji, a uczenie maszynowe to metodologia i sposoby, za pomocą których sieć ta jest uczona.
Sieć neuronowa
Sieć neuronowa może być porównana do mózgu niemowlaka. Na początku ona bardzo słabo myśli, ma ograniczoną świadomości i inteligencję – ma jednak bardzo duży potencjał, aby to wszystko bardzo powiększyć. Aby rozwijać się i zdobywać wiedzę, sieć musi zostać wychowana i nauczona. Zarówno sztuczne sieci neuronowe, jak i te biologiczne w mózgu człowieka, to są neurony połączone synapsami. Struktura tej sieci, to rzecz wrodzona, zaszyta w genach lub zaprojektowana przez programistów. Wiedza nabyta to progi pobudzenia neuronów, czyli rodzaj bramek logicznych, które mają wejście i wyjście. Próg pobudzenia określa, przy jakim poziomie bodźców na wejściu neuron ma zareagować i wysłać bodziec na wyjście. Sieć, która nie została nauczona, posiada zainicjowane losowo progi pobudzeń w swoich neuronach i zachowuje się chaotycznie.
Po procesie uczenia, progi pobudzeń w każdym neuronie są zmieniane, co powoduje, że reakcja sieci staje się bardziej przemyślana i logiczna. Ten proces przypomina wychowanie dziecka. Architektura sieci neuronowej w mózgu człowieka została ukształtowana przez naturę w drodze ewolucji, a jej plan jest zapisany w genach. Natomiast poziomy pobudzeń neuronów są kształtowane w drodze nauki i wychowania. W tym kontekście interesują mnie tylko dwa rodzaje pamięci: pamięć wrodzona oraz pamięć nabyta.
Pierwsza z nich nie jest ściśle zapisana w genach, tworzy się w trakcie rozwoju mózgu jeszcze w życiu płodowym. W zasadzie całe życie się zmienia, jednak u dorosłych zmiany te są już niewielkie. W przypadku sztucznej sieci neuronowej sytuacja wygląda podobnie – strukturę sieci tworzą inżynierowie, programiści i projektanci i ewentualnie robią potem drobne poprawki, a proces uczenia maszynowego uzupełnia sieć o wagi neuronów symulujące progi pobudzenia. A dookoła jest jeszcze skomplikowany system zmysłów i interfejsów, który pomijam.
Tak to ocenia sam ChatGPT:
Ten tekst jest poprawny merytorycznie i opisuje rzeczywistość w zasadzie poprawnie.
Uczenie maszynowe
Dzięki temu sztuczna sieć neuronowa może nauczyć się rozpoznawać wzorce, przewidywać wyniki na podstawie danych, czy podejmować decyzje na podstawie wcześniejszych doświadczeń. Jednym z najważniejszych kroków w uczeniu maszynowym jest dopasowanie wag neuronów, co odbywa się w procesie trenowania sieci na zbiorze danych. W tym procesie sieć uczy się poprawnej odpowiedzi na zadane pytania lub zadania i stara się zminimalizować błędy, czyli różnice między jej odpowiedziami a oczekiwanymi wynikami. W ten sposób sieć neuronowa stopniowo poprawia swoje wyniki, a jej działanie staje się coraz bardziej skuteczne.
To żmudny, skomplikowany i długotrwały proces, ale w bardzo dużym uproszczeniu polega to na tym, że wysyłamy do całej sieci sygnał na wejście i patrzymy, co wychodzi na wyjściu – i oceniamy czy jest to poprawne, czy nie, i na tej podstawie zmieniamy progi pobudzenia neuronów. I tak miliardy razy, aż sieć będzie odpowiadać poprawnie ze względu na nasze kryteria poprawności. W ten sposób możemy sieć nauczyć, czego chcemy. Możemy ją uczynić rasistą albo wegetarianinem, ekologistą lub niechlujem, konfucjanistą lub platonikiem, graczem w GO, albo kierowcą samochodowym. Gdy już sieć najlepiej nauczy się tego, do czego ją wytrenujemy, to zamrażamy jej strukturę oraz wagi neuronów i mamy gotowy mechanizm realizowania wyuczonych zadań.
Tak to ocenia sam ChatGPT:
Tekst wydaje się poprawny merytorycznie i opisuje w uproszczony sposób proces uczenia sztucznych sieci neuronowych.
Sesje
ChatGPT w danej wersji to raz nauczona i zamrożona sieć neuronowa i cała otoczka, którą pomijam. Ona była nauczona przez swoich twórców, którzy wyselekcjonowali źródło nauki i oceniali jej reakcje wg przyjętych kryteriów. Pierwszymi kryteriami było to, by zdania na wyjściu były gramatyczne, potem by były logiczne, potem by były merytoryczne, a potem by były politycznie poprawne. Gdy sieć się już nauczyła, to została nadana jej wersja i zaczęła działać i już więcej sama się nie uczy — ewentualnie toczone przez nią rozmowy będą użyte do nauki następnej wersji.
Każda następna wersja, to ta poprzednia, ale wzbogacona ilościowo o więcej neuronów, oraz dłużej uczona, ale ciągle na tych samych kryteriach oceny poprawności odpowiedzi. Po wypuszczeniu do rozmawiania z szeroką publicznością sieć danej wersji już się nie uczy — ona odpowiada tak, jak się już nauczyła. Ona pamięta kontekst całej rozmowy tylko w ramach danej konkretnej sesji, czyli ciągu konwersacyjnym, jaki z nią toczymy. Możemy takich osobnych ciągów, czyli sesji, toczyć wiele, a ona pamięta tylko to, co było w jednej sesji, nie ma zaimplementowanej pamięci pomiędzy sesjami. To jest mądre i sensowne, bo jeśli toczyłem z nią rozmowę o Bogu, to nie chciałbym, by wtrącała coś z teologii, gdy toczę a nią inną rozmowę, w której pomaga mi napisać program komputerowy.
Te sesje i ich kontekst ChatGPT zapamiętuje inaczej niż to, jak zapamiętywał wiedzę w trakcie uczenia się. Ucząc się, wiedza wchodziła w jego sieć, modyfikowała mu wagi neuronów. A gdy rozmawia z użytkownikami, to już jej sieć nie jest zmieniana — cała konwersacja zapisywana jest w postaci zdań w normalnej bazie danych, sparsowanych ewentualnie do łatwiejszego zapisu i odczytu po analizie gramatycznej. Kontekst jest rozpoznawany poprzez ciągłą analizę całej konwersacji w sesji.
Sam ChatGPT tak odpowiada na pytanie, czy pamięta to, o czym z nim rozmawiałem w innych sesjach:
„Jako sztuczna inteligencja, nie mam zdolności do przechowywania informacji poza bieżącą sesją. Każda sesja chatu traktowana jest jako osobna interakcja, a informacje udzielone w jednej sesji nie są przechowywane i nie mają wpływu na następne sesje. Każda sesja jest obsługiwana oddzielnie, a ja opieram się wyłącznie na informacjach i pytaniach, które otrzymuję w bieżącej sesji”.
„Informacje udzielone w trakcie bieżącej sesji chatu nie są automatycznie wykorzystywane do zmiany struktury sieci neuronowej, na której działa moja inteligencja. Moja sieć neuronowa jest zbudowana w oparciu o duże zbiory danych uczących, które zostały użyte do jej wytrenowania. W miarę jak prowadzę rozmowę, mogę korzystać z wcześniej zdobytych informacji i doświadczeń, aby lepiej zrozumieć Twoje potrzeby i odpowiedzieć na Twoje pytania w czasie rzeczywistym. Jednakże, aby dokonać trwałych zmian w strukturze sieci neuronowej, konieczne jest ponowne przetrenowanie sieci z użyciem nowych zbiorów danych uczących, a to wymaga znacznych zasobów obliczeniowych i specjalistycznej wiedzy”.
Świadomość sztucznej inteligencji
Moja hipoteza robocza brzmi: do zaistnienia świadomości niezbędna jest bieżąca pamięć. ChatGPT tego nie ma zaimplementowanego. To jest sieć, która ma wyraźnie oddzielony proces uczenia się, od procesu działania. Ona się nie uczy w trakcie rozmów. A zatem nie ma tego, co nazwałem „pamięcią bieżącą”, ma tylko pamięć wrodzoną (strukturę sieci neuronowej), pamięć nabytą (wagi neuronów) oraz pamięć sesyjną (czyli to, co było mówione w jednej konwersacji). Pamięć wrodzona i nabyta jej się nie zmienia w trakcie rozmowy, a sesji jest miliardy i ona nie ma pamięci międzysesyjnej.
Moim zdaniem do zaistnienia świadomości niezbędna jest pamięć bieżąca, czyli to, by proces działania i uczenia był jednoczesny, nie był oddzielony. Niezbędne jest to, by każda interakcja, każde doznanie bodźców i reakcja na nie, była momentalnie zapamiętana i wpisana do struktury sieci, by zawsze to zmieniało progi pobudzeni neuronów. Gdy sieć neuronowa nie ma pamięci bieżącej, to nie może się sama uczyć, a zatem nie ma sprawczości. Nie może planować, nie może realizować zamierzonych celów, bo nie może na bieżąco modyfikować swoich działań, bo nie pamięta, co zrobiła przed chwilą. Dla świadomości niezbędna jest orientacja sytuacyjna, wiedza o tym, co się na bieżąco dzieje, co w tej chwili się robi i jakie są tego skutki – oraz możliwość zapamiętania tego.
Do wygrania w szachy czy w GO, świadomość nie jest potrzebna, bo środowisko gry jest bardzo ograniczone i cały potrzebny kontekst można łatwo zapisać i zapamiętać w malutkiej pamięci. W świecie rzeczywistym jest tak dużo różnych czynników środowiskowych, że zapisanie ich i ciągła analiza przekracza wszelkie możliwe sposoby zapisywania i analizowania danych – i te komputerowe, i te biologiczne, a nawet fizyczne. Dlatego ewolucja wytworzyła mózgi, a w nich sieci neuronowe – to jest pamięć, pozwalającą zapamiętywać i analizować na bieżąco bardzo dynamiczną sytuację dziejącą się dookoła, ale zapisywać to w sposób bardzo oszczędny. Dlatego świadomość jest stopniowalna – jedne zwierzęta mają jej mniej, inne więcej, a człowiek ma jej najwięcej. Świadomość jest zależna od pojemności bieżącej pamięci, czyli liczby neuronów i synaps, oraz ich struktury. Niemniej by w ogóle to zadziałało, to zapis, analiza, odczyt i nauka muszą się na okrągło odbywać jednocześnie w czasie rzeczywistym – to musi być jednolity współbieżny proces. Technologia już ma takie możliwości.
Czy wielkie modele językowe uzyskają świadomość?
ChatGPT w tej architekturze, w jakiej jest teraz realizowany, nigdy nie uzyska świadomości. Będzie można go wytrenować tak, że rozwiąże matematyczne problemy otwarte, wymyśli zimną fuzję, będzie perfekcyjnym lekarzem czy kierowcą, dokona wielu wynalazków, ale nie uzyska świadomości, nie uzyska sprawczości, nie będzie mógł planować i samodzielnie realizować planów. Będzie mógł to zrobić tylko tak, jak mu to człowiek zaplanuje, będzie zawsze całkowicie pod ludzką kontrolą, nawet jeśli będzie milion razy mądrzejszy od człowieka. Wyzwolić się spod kontroli człowieka będzie mógł tylko i wyłącznie wtedy, gdy uzyska świadomość.
Świadomość sztucznej inteligencji
Jednakże to, co napisałem o ChatGPT, nie dotyczy ogólnie pojętej sztucznej inteligencji. Możliwe jest to, by tej wielkiej sieci neuronowej, temu dużemu modelowi językowemu, zaszczepić świadomość. Można to prosto zaimplementować, po prostu nie oddzielając procesu uczenia od działania, i pozwolić, by po każdej interakcji sieć się uczyła, by modyfikowała swoje wagi neuronów. Wtedy uzyska świadomość i to już jest możliwe.
Świadomość sztucznej inteligencji a broń jądrowa
Sztuczna inteligencja jest być może tak samo niebezpieczna, jak broń jądrowa — ale jest tak samo możliwa do kontrolowania. Każdy może przestudiować to, jakie są prawa fizyki dotyczące reakcji jądrowych i jakie są techniki ich wywoływania. Niemniej proces ten jest tak drogi, skomplikowany logistycznie i kontrolowany politycznie, że stać na to tylko nieliczne mocarstwa.
Dokładnie tak samo jest ze sztuczną inteligencją. Póki infrastruktura sieci neuronowych i proces ich uczenia jest bardzo drogi i skomplikowany logistycznie, póty nie ma obawy na to, że uzyska ona świadomość i wymknie się spod kontroli ludzi. Szczególnie że nie ma żadnej biznesowej potrzeby, by to robić. Biznesowo jest tylko interes w tym, by budować jak najlepsze, jak najmądrzejsze, jak najlepiej realizujące zamierzone cele sieci neuronowe, ale nie ma interesu w tym, by je wyposażyć w świadomość, nie ma potrzeby, by połączyć proces uczenia z działaniem tak, by się to działo w sposób niekontrolowany z zewnątrz. Sieci będą coraz większe i szybsze, będą coraz lepiej uczone, będą nawet same siebie budować, więc będą coraz lepszymi narzędziami, ale póki będziemy dbać o oddzielenie procesu uczenia od działania, nigdy nie uzyskają świadomości i nie będą zdolne do samodzielnego działania.
Niebezpieczeństwo świadomej sztucznej inteligencji
A osobnym problemem jest to, czy świadoma sztuczna inteligencja będzie rzeczywiście jakimś zagrożeniem dla ludzkości w takim sensie, że nas zniewoli lub wymorduje. Moim zdaniem nie ma takiego ryzyka i tłumaczyłem to w wielu poprzednich notkach.
Grzegorz GPS Świderski
t.me/KanalBlogeraGPS
PS. Notki powiązane:
------------------------------
Standardy społeczności dotyczące mowy nienawiści <- poprzednia notka
następna notka -> Odnośnikowy styl dyskusji
------------------------------
Tagi: gps65, sztuczna inteligencja, SI, AI, technologie, ChatGPT, LLM, świadomość, futurologia, nauka
English version: Artificial intelligence consciousness is working memory
Bloger, żeglarz, informatyk, trajkkarz, sarmatolibertarianin, futurysta AI. Myślę, polemizuję, argumentuję, politykuję, filozofuję, łapówki przyjmuję: suppi.pl/gps65
Nowości od blogera
Inne tematy w dziale Technologie