Image by Alexandra_Koch
Image by Alexandra_Koch
GPS GPS
811
BLOG

Świa­do­mo­ść sztucz­nej in­te­li­gen­cji to pa­mięć bie­żą­ca

GPS GPS Badania i rozwój Obserwuj temat Obserwuj notkę 9
Świa­do­mo­ść sztucz­nej in­te­li­gen­cji je­st zwią­za­na z bie­żą­cą pa­mię­cią. W tej not­ce for­mu­łu­ję ro­bo­czą hi­po­te­zę na­uko­wą, we­dług któ­rej bie­żą­ca pa­mięć je­st nie­zbęd­na do wy­kształ­ce­nia świa­do­mo­ści. Je­st to wa­ru­nek ko­niecz­ny, ale nie­wy­star­cza­ją­cy. Aby to wy­ja­śnić, mu­szę omó­wić w uprosz­cze­niu kil­ka kwe­stii, ta­ki­ch jak po­ję­cie „świa­do­mo­ści”, „bie­żą­cej pa­mię­ci” oraz „ar­chi­tek­tu­rę Cha­tGPT”.

Świa­do­mo­ść

  Na po­trze­by roz­wa­żań w tej not­ce nie ma ko­niecz­no­ści wcho­dze­nia w za­wi­łe aspek­ty po­ję­cia „świa­do­mo­ści”. Ogól­nie świa­do­mo­ść to stan psy­chicz­ny, któ­ry po­zwa­la pod­mio­to­wi dzia­łań zo­rien­to­wać się w prze­strze­ni, w któ­rej dzia­ła. A za­tem ro­zu­mie kim je­st i ja­ki ma zwią­zek ze śro­do­wi­skiem – jak ono dzia­ła na nie­go i jak on mo­że na nie wpły­wać. Je­st to nie­zbęd­ne do po­dej­mo­wa­nia ce­lo­wy­ch i in­ten­cjo­nal­ny­ch dzia­łań. Mu­si­my mieć świa­do­mo­ść, by móc coś wy­my­ślić, za­pla­no­wać i zre­ali­zo­wać.

------------------------------

Jak wielkie modele językowe zmienią świat <- poprzednia część serii

na­stęp­na część serii -> Dusza sztucznej inteligencji

------------------------------

Bie­żą­ca pa­mięć

  Ter­min „bie­żą­ca pa­mięć” wy­my­śli­łem na potrzeby tej notki — nie ma on od­po­wied­ni­ka w na­uka­ch bio­lo­gicz­ny­ch. W kon­tek­ście mó­zgu zwie­rząt, a w szcze­gól­no­ści czło­wie­ka, mó­wi­my ra­czej o pa­mię­ci krót­ko­trwa­łej i dłu­go­trwa­łej. Bio­lo­gicz­ne teo­rie pa­mię­ci dzie­lą ją ze wzglę­du na trzy ma­ga­zy­ny róż­nią­ce się cza­sem prze­cho­wy­wa­nia in­for­ma­cji. Uogól­niam te po­ję­cia do jed­nej pa­mię­ci bie­żą­cej, któ­ra je­st za­pi­sy­wa­na w mó­zgu jako całości, w trakcie każdej interakcji w cza­sie rze­czy­wi­stym.

Ar­chi­tek­tu­ra Cha­tGPT.

  Tu też wy­star­czy mi ope­ro­wać na bar­dzo ogól­ny­ch me­cha­ni­zma­ch, dla­te­go opi­su­ję to w du­żym uprosz­cze­niu. Ar­chi­tek­tu­ra Cha­tGPT skła­da się z dwó­ch pod­sta­wo­wy­ch czę­ści: sie­ci neu­ro­no­wej i ucze­nia ma­szy­no­we­go. Sieć neu­ro­no­wa je­st struk­tu­rą da­ny­ch, któ­ra słu­ży do prze­twa­rza­nia in­for­ma­cji, a ucze­nie ma­szy­no­we to me­to­do­lo­gia i spo­so­by, za po­mo­cą któ­ry­ch sieć ta je­st uczo­na.

Sieć neu­ro­no­wa

  Sieć neu­ro­no­wa mo­że być po­rów­na­na do mó­zgu nie­mow­la­ka. Na po­cząt­ku ona bar­dzo sła­bo my­śli, ma ogra­ni­czo­ną świa­do­mo­ści i in­te­li­gen­cję – ma jed­nak bar­dzo du­ży po­ten­cjał, aby to wszyst­ko bar­dzo po­więk­szyć. Aby roz­wi­jać się i zdo­by­wać wie­dzę, sieć mu­si zo­stać wy­cho­wa­na i na­uczo­na. Za­rów­no sztucz­ne sie­ci neu­ro­no­we, jak i te bio­lo­gicz­ne w mó­zgu czło­wie­ka, to są neu­ro­ny po­łą­czo­ne sy­nap­sa­mi. Struk­tu­ra tej sie­ci, to rze­cz wro­dzo­na, za­szy­ta w ge­na­ch lub za­pro­jek­to­wa­na przez pro­gra­mi­stów. Wie­dza na­by­ta to pro­gi po­bu­dze­nia neu­ro­nów, czy­li ro­dzaj bra­mek lo­gicz­ny­ch, któ­re ma­ją wej­ście i wyj­ście. Próg po­bu­dze­nia okre­śla, przy ja­kim po­zio­mie bodź­ców na wej­ściu neu­ron ma za­re­ago­wać i wy­słać bo­dziec na wyj­ście. Sieć, któ­ra nie zo­sta­ła na­uczo­na, po­sia­da za­ini­cjo­wa­ne lo­so­wo pro­gi po­bu­dzeń w swo­ich neu­ro­na­ch i za­cho­wu­je się cha­otycz­nie.

  Po pro­ce­sie ucze­nia, pro­gi po­bu­dzeń w każ­dym neu­ro­nie są zmie­nia­ne, co po­wo­du­je, że re­ak­cja sie­ci sta­je się bar­dziej prze­my­śla­na i lo­gicz­na. Ten pro­ces przy­po­mi­na wy­cho­wa­nie dziec­ka. Ar­chi­tek­tu­ra sie­ci neu­ro­no­wej w mó­zgu czło­wie­ka zo­sta­ła ukształ­to­wa­na przez na­tu­rę w dro­dze ewo­lu­cji, a jej plan je­st za­pi­sa­ny w ge­na­ch. Na­to­mia­st po­zio­my po­bu­dzeń neu­ro­nów są kształ­to­wa­ne w dro­dze na­uki i wy­cho­wa­nia. W tym kon­tek­ście in­te­re­su­ją mnie tyl­ko dwa ro­dza­je pa­mię­ci: pa­mięć wro­dzo­na oraz pa­mięć na­by­ta.

  Pierw­sza z ni­ch nie je­st ści­śle za­pi­sa­na w ge­na­ch, two­rzy się w trak­cie roz­wo­ju mó­zgu jesz­cze w ży­ciu pło­do­wym. W za­sa­dzie ca­łe ży­cie się zmie­nia, jed­nak u do­ro­sły­ch zmia­ny te są już nie­wiel­kie. W przy­pad­ku sztucz­nej sie­ci neu­ro­no­wej sy­tu­acja wy­glą­da po­dob­nie – struk­tu­rę sie­ci two­rzą in­ży­nie­ro­wie, pro­gra­mi­ści i pro­jek­tan­ci i ewen­tu­al­nie ro­bią po­tem drob­ne po­praw­ki, a pro­ces ucze­nia ma­szy­no­we­go uzu­peł­nia sieć o wa­gi neu­ro­nów sy­mu­lu­ją­ce pro­gi po­bu­dze­nia. A do­oko­ła je­st jesz­cze skom­pli­ko­wa­ny sys­tem zmy­słów i in­ter­fej­sów, któ­ry po­mi­jam.

  Tak to oce­nia sam ChatGPT:

Ten tek­st je­st po­praw­ny me­ry­to­rycz­nie i opi­su­je rze­czy­wi­sto­ść w za­sa­dzie po­praw­nie.

Ucze­nie ma­szy­no­we

  Dzię­ki te­mu sztucz­na sieć neu­ro­no­wa mo­że na­uczyć się roz­po­zna­wać wzor­ce, prze­wi­dy­wać wy­ni­ki na pod­sta­wie da­ny­ch, czy po­dej­mo­wać de­cy­zje na pod­sta­wie wcze­śniej­szy­ch do­świad­czeń. Jed­nym z naj­waż­niej­szy­ch kro­ków w ucze­niu ma­szy­no­wym je­st do­pa­so­wa­nie wag neu­ro­nów, co od­by­wa się w pro­ce­sie tre­no­wa­nia sie­ci na zbio­rze da­ny­ch. W tym pro­ce­sie sieć uczy się po­praw­nej od­po­wie­dzi na za­da­ne py­ta­nia lub za­da­nia i sta­ra się zmi­ni­ma­li­zo­wać błę­dy, czy­li róż­ni­ce mię­dzy jej od­po­wie­dzia­mi a ocze­ki­wa­ny­mi wy­ni­ka­mi. W ten spo­sób sieć neu­ro­no­wa stop­nio­wo po­pra­wia swo­je wy­ni­ki, a jej dzia­ła­nie sta­je się co­raz bar­dziej sku­tecz­ne.

  To żmud­ny, skom­pli­ko­wa­ny i dłu­go­trwa­ły pro­ces, ale w bar­dzo du­żym uprosz­cze­niu po­le­ga to na tym, że wy­sy­ła­my do ca­łej sie­ci sy­gnał na wej­ście i pa­trzy­my, co wy­cho­dzi na wyj­ściu – i oce­nia­my czy je­st to po­praw­ne, czy nie, i na tej pod­sta­wie zmie­nia­my pro­gi po­bu­dze­nia neu­ro­nów. I tak mi­liar­dy ra­zy, aż sieć bę­dzie od­po­wia­dać po­praw­nie ze wzglę­du na na­sze kry­te­ria po­praw­no­ści. W ten spo­sób mo­że­my sieć na­uczyć, cze­go chce­my. Mo­że­my ją uczy­nić ra­si­stą al­bo we­ge­ta­ria­ni­nem, eko­lo­gi­stą lub nie­chlu­jem, kon­fu­cja­ni­stą lub pla­to­ni­kiem, gra­czem w GO, al­bo kie­row­cą sa­mo­cho­do­wym. Gdy już sieć naj­le­piej na­uczy się te­go, do cze­go ją wy­tre­nu­je­my, to za­mra­ża­my jej struk­tu­rę oraz wa­gi neu­ro­nów i ma­my go­to­wy me­cha­ni­zm re­ali­zo­wa­nia wy­uczo­ny­ch za­dań.

  Tak to oce­nia sam ChatGPT:

Tek­st wy­da­je się po­praw­ny me­ry­to­rycz­nie i opi­su­je w uprosz­czo­ny spo­sób pro­ces ucze­nia sztucz­ny­ch sie­ci neu­ro­no­wy­ch.

Se­sje

  ChatGPT w da­nej wer­sji to raz na­uczo­na i za­mro­żo­na sieć neu­ro­no­wa i cała otoczka, którą pomijam. Ona by­ła na­uczo­na przez swo­ich twór­ców, któ­rzy wy­se­lek­cjo­no­wa­li źró­dło na­uki i oce­nia­li jej re­ak­cje wg przy­ję­ty­ch kry­te­riów. Pierw­szy­mi kry­te­ria­mi by­ło to, by zda­nia na wyj­ściu by­ły gra­ma­tycz­ne, po­tem by by­ły lo­gicz­ne, po­tem by by­ły me­ry­to­rycz­ne, a po­tem by by­ły po­li­tycz­nie po­praw­ne. Gdy sieć się już na­uczy­ła, to zo­sta­ła nada­na jej wer­sja i za­czę­ła dzia­łać i już wię­cej sa­ma się nie uczy — ewentualnie to­czo­ne przez nią roz­mo­wy bę­dą uży­te do na­uki na­stęp­nej wer­sji.

  Każ­da na­stęp­na wer­sja, to ta po­przed­nia, ale wzbo­ga­co­na ilo­ścio­wo o wię­cej neu­ro­nów, oraz dłu­żej uczo­na, ale cią­gle na ty­ch sa­my­ch kry­te­ria­ch oce­ny po­praw­no­ści od­po­wie­dzi. Po wy­pusz­cze­niu do roz­ma­wia­nia z sze­ro­ką pu­blicz­no­ścią sieć da­nej wer­sji już się nie uczy — ona od­po­wia­da tak, jak się już na­uczy­ła. Ona pa­mię­ta kon­tek­st ca­łej roz­mo­wy tyl­ko w ra­ma­ch da­nej kon­kret­nej se­sji, czy­li cią­gu kon­wer­sa­cyj­nym, ja­ki z nią to­czy­my. Mo­że­my ta­ki­ch osob­ny­ch cią­gów, czy­li se­sji, to­czyć wie­le, a ona pa­mię­ta tyl­ko to, co by­ło w jed­nej se­sji, nie ma za­im­ple­men­to­wa­nej pa­mię­ci po­mię­dzy se­sja­mi. To je­st mą­dre i sen­sow­ne, bo je­śli to­czy­łem z nią roz­mo­wę o Bo­gu, to nie chciał­bym, by wtrą­ca­ła coś z teo­lo­gii, gdy to­czę a nią in­ną roz­mo­wę, w któ­rej po­ma­ga mi na­pi­sać pro­gram kom­pu­te­ro­wy.

  Te se­sje i ich kon­tek­st ChatGPT za­pa­mię­tu­je ina­czej niż to, jak za­pa­mię­ty­wał wie­dzę w trak­cie ucze­nia się. Ucząc się, wie­dza wcho­dzi­ła w je­go sieć, mo­dy­fi­ko­wa­ła mu wa­gi neu­ro­nów. A gdy roz­ma­wia z użyt­kow­ni­ka­mi, to już jej sieć nie je­st zmie­nia­na — ca­ła kon­wer­sa­cja za­pi­sy­wa­na je­st w po­sta­ci zdań w nor­mal­nej ba­zie da­ny­ch, sparsowanych ewentualnie do ła­twiej­sze­go za­pi­su i od­czy­tu po ana­li­zie gra­ma­tycz­nej. Kon­tek­st je­st roz­po­zna­wa­ny po­przez cią­głą ana­li­zę ca­łej kon­wer­sa­cji w se­sji.

  Sam ChatGPT tak od­po­wia­da na py­ta­nie, czy pa­mię­ta to, o czym z nim roz­ma­wia­łem w in­ny­ch se­sja­ch:

„Ja­ko sztucz­na in­te­li­gen­cja, nie mam zdol­no­ści do prze­cho­wy­wa­nia in­for­ma­cji po­za bie­żą­cą se­sją. Każ­da se­sja cha­tu trak­to­wa­na je­st ja­ko osob­na in­te­rak­cja, a in­for­ma­cje udzie­lo­ne w jed­nej se­sji nie są prze­cho­wy­wa­ne i nie ma­ją wpły­wu na na­stęp­ne se­sje. Każ­da se­sja je­st ob­słu­gi­wa­na od­dziel­nie, a ja opie­ram się wy­łącz­nie na in­for­ma­cja­ch i py­ta­nia­ch, któ­re otrzy­mu­ję w bie­żą­cej se­sji”.
„In­for­ma­cje udzie­lo­ne w trak­cie bie­żą­cej se­sji cha­tu nie są au­to­ma­tycz­nie wy­ko­rzy­sty­wa­ne do zmia­ny struk­tu­ry sie­ci neu­ro­no­wej, na któ­rej dzia­ła mo­ja in­te­li­gen­cja. Mo­ja sieć neu­ro­no­wa je­st zbu­do­wa­na w opar­ciu o du­że zbio­ry da­ny­ch uczą­cy­ch, któ­re zo­sta­ły uży­te do jej wy­tre­no­wa­nia. W mia­rę jak pro­wa­dzę roz­mo­wę, mo­gę ko­rzy­stać z wcze­śniej zdo­by­ty­ch in­for­ma­cji i do­świad­czeń, aby le­piej zro­zu­mieć Two­je po­trze­by i od­po­wie­dzieć na Two­je py­ta­nia w cza­sie rze­czy­wi­stym. Jed­nak­że, aby do­ko­nać trwa­ły­ch zmian w struk­tu­rze sie­ci neu­ro­no­wej, ko­niecz­ne je­st po­now­ne prze­tre­no­wa­nie sie­ci z uży­ciem no­wy­ch zbio­rów da­ny­ch uczą­cy­ch, a to wy­ma­ga znacz­ny­ch za­so­bów ob­li­cze­nio­wy­ch i spe­cja­li­stycz­nej wie­dzy”.

Świa­do­mo­ść sztucz­nej in­te­li­gen­cji

  Mo­ja hi­po­te­za ro­bo­cza brz­mi: do za­ist­nie­nia świa­do­mo­ści nie­zbęd­na je­st bie­żą­ca pa­mięć. ChatGPT te­go nie ma za­im­ple­men­to­wa­ne­go. To je­st sieć, któ­ra ma wy­raź­nie od­dzie­lo­ny pro­ces ucze­nia się, od pro­ce­su dzia­ła­nia. Ona się nie uczy w trak­cie roz­mów. A za­tem nie ma te­go, co na­zwa­łem „pa­mię­cią bie­żą­cą”, ma tyl­ko pa­mięć wro­dzo­ną (struk­tu­rę sie­ci neu­ro­no­wej), pa­mięć na­by­tą (wa­gi neu­ro­nów) oraz pa­mięć se­syj­ną (czy­li to, co by­ło mó­wio­ne w jed­nej kon­wer­sa­cji). Pa­mięć wro­dzo­na i na­by­ta jej się nie zmie­nia w trak­cie roz­mo­wy, a se­sji je­st mi­liar­dy i ona nie ma pa­mię­ci mię­dzy­se­syj­nej.

  Mo­im zda­niem do za­ist­nie­nia świa­do­mo­ści nie­zbęd­na je­st pa­mięć bie­żą­ca, czy­li to, by pro­ces dzia­ła­nia i ucze­nia był jed­no­cze­sny, nie był od­dzie­lo­ny. Nie­zbęd­ne je­st to, by każ­da in­te­rak­cja, każ­de do­zna­nie bodź­ców i re­ak­cja na nie, by­ła mo­men­tal­nie za­pa­mię­ta­na i wpi­sa­na do struk­tu­ry sie­ci, by za­wsze to zmie­nia­ło pro­gi po­bu­dze­ni neu­ro­nów. Gdy sieć neu­ro­no­wa nie ma pa­mię­ci bie­żą­cej, to nie mo­że się sa­ma uczyć, a za­tem nie ma spraw­czo­ści. Nie mo­że pla­no­wać, nie mo­że re­ali­zo­wać za­mie­rzo­ny­ch ce­lów, bo nie mo­że na bie­żą­co mo­dy­fi­ko­wać swo­ich dzia­łań, bo nie pa­mię­ta, co zro­bi­ła przed chwi­lą. Dla świa­do­mo­ści nie­zbęd­na je­st orien­ta­cja sy­tu­acyj­na, wie­dza o tym, co się na bie­żą­co dzie­je, co w tej chwi­li się ro­bi i ja­kie są te­go skut­ki – oraz moż­li­wo­ść za­pa­mię­ta­nia te­go.

  Do wy­gra­nia w sza­chy czy w GO, świa­do­mo­ść nie je­st po­trzeb­na, bo śro­do­wi­sko gry je­st bar­dzo ogra­ni­czo­ne i ca­ły po­trzeb­ny kon­tek­st moż­na ła­two za­pi­sać i za­pa­mię­tać w ma­lut­kiej pa­mię­ci. W świe­cie rze­czy­wi­stym je­st tak du­żo róż­ny­ch czyn­ni­ków śro­do­wi­sko­wy­ch, że za­pi­sa­nie ich i cią­gła ana­li­za prze­kra­cza wszel­kie moż­li­we spo­so­by za­pi­sy­wa­nia i ana­li­zo­wa­nia da­ny­ch – i te kom­pu­te­ro­we, i te bio­lo­gicz­ne, a na­wet fi­zycz­ne. Dla­te­go ewo­lu­cja wy­two­rzy­ła mó­zgi, a w ni­ch sie­ci neu­ro­no­we – to je­st pa­mięć, po­zwa­la­ją­cą za­pamiętywać i ana­li­zo­wać na bie­żą­co bar­dzo dy­na­micz­ną sy­tu­ację dzie­ją­cą się do­oko­ła, ale za­pi­sy­wać to w spo­sób bar­dzo oszczęd­ny. Dla­te­go świa­do­mo­ść je­st stop­nio­wal­na – jed­ne zwie­rzę­ta ma­ją jej mniej, in­ne wię­cej, a czło­wiek ma jej naj­wię­cej. Świa­do­mo­ść je­st za­leż­na od po­jem­no­ści bie­żą­cej pa­mię­ci, czy­li licz­by neu­ro­nów i sy­naps, oraz ich struktury. Nie­mniej by w ogó­le to za­dzia­ła­ło, to za­pis, ana­li­za, od­czyt i na­uka mu­szą się na okrą­gło od­by­wać jednocześnie w cza­sie rze­czy­wi­stym – to mu­si być jed­no­li­ty współbieżny pro­ces. Tech­no­lo­gia już ma ta­kie moż­li­wo­ści.

Czy wiel­kie mo­de­le ję­zy­ko­we uzy­ska­ją świa­do­mo­ść?

  ChatGPT w tej ar­chi­tek­tu­rze, w ja­kiej je­st te­raz re­ali­zo­wa­ny, ni­gdy nie uzy­ska świa­do­mo­ści. Bę­dzie moż­na go wy­tre­no­wać tak, że roz­wią­że ma­te­ma­tycz­ne pro­ble­my otwar­te, wy­my­śli zim­ną fu­zję, bę­dzie per­fek­cyj­nym le­ka­rzem czy kie­row­cą, do­ko­na wie­lu wy­na­laz­ków, ale nie uzy­ska świa­do­mo­ści, nie uzy­ska spraw­czo­ści, nie bę­dzie mó­gł pla­no­wać i sa­mo­dziel­nie re­ali­zo­wać pla­nów. Bę­dzie mó­gł to zro­bić tyl­ko tak, jak mu to czło­wiek za­pla­nu­je, bę­dzie za­wsze cał­ko­wi­cie pod ludz­ką kon­tro­lą, nawet jeśli bę­dzie mi­lion ra­zy mą­drzej­szy od czło­wie­ka. Wy­zwo­lić się spod kon­tro­li czło­wie­ka bę­dzie mó­gł tyl­ko i wy­łącz­nie wte­dy, gdy uzy­ska świa­do­mo­ść.

Świa­do­mo­ść sztucz­nej in­te­li­gen­cji

  Jed­nak­że to, co na­pi­sa­łem o Chat­GPT, nie do­ty­czy ogól­nie po­ję­tej sztucz­nej in­te­li­gen­cji. Moż­li­we je­st to, by tej wiel­kiej sie­ci neu­ro­no­wej, te­mu du­że­mu mo­de­lo­wi ję­zy­ko­we­mu, za­szcze­pić świa­do­mo­ść. Moż­na to pro­sto za­im­ple­men­to­wać, po pro­stu nie od­dzie­la­jąc pro­ce­su ucze­nia od dzia­ła­nia, i po­zwo­lić, by po każ­dej in­te­rak­cji sieć się uczy­ła, by mo­dy­fi­ko­wa­ła swo­je wa­gi neu­ro­nów. Wte­dy uzy­ska świa­do­mo­ść i to już je­st moż­li­we.

Świa­do­mo­ść sztucz­nej in­te­li­gen­cji a broń ją­dro­wa

  Sztucz­na in­te­li­gen­cja je­st być mo­że tak sa­mo nie­bez­piecz­na, jak broń ją­dro­wa — ale je­st tak sa­mo moż­li­wa do kon­tro­lo­wa­nia. Każ­dy mo­że prze­stu­dio­wać to, ja­kie są pra­wa fi­zy­ki do­ty­czą­ce re­ak­cji ją­dro­wy­ch i ja­kie są tech­ni­ki ich wy­wo­ły­wa­nia. Nie­mniej pro­ces ten je­st tak dro­gi, skom­pli­ko­wa­ny lo­gi­stycz­nie i kon­tro­lo­wa­ny po­li­tycz­nie, że stać na to tyl­ko nie­licz­ne mo­car­stwa.

  Do­kład­nie tak sa­mo je­st ze sztucz­ną in­te­li­gen­cją. Pó­ki in­fra­struk­tu­ra sie­ci neu­ro­no­wy­ch i pro­ces ich ucze­nia je­st bar­dzo dro­gi i skom­pli­ko­wa­ny lo­gi­stycz­nie, pó­ty nie ma oba­wy na to, że uzy­ska ona świa­do­mo­ść i wy­mknie się spod kon­tro­li lu­dzi. Szcze­gól­nie że nie ma żad­nej biz­ne­so­wej po­trze­by, by to ro­bić. Biz­ne­so­wo je­st tyl­ko in­te­res w tym, by bu­do­wać jak naj­lep­sze, jak naj­mą­drzej­sze, jak naj­le­piej re­ali­zu­ją­ce za­mie­rzo­ne ce­le sie­ci neu­ro­no­we, ale nie ma in­te­re­su w tym, by je wy­po­sa­żyć w świa­do­mo­ść, nie ma po­trze­by, by po­łą­czyć pro­ces ucze­nia z dzia­ła­niem tak, by się to dzia­ło w spo­sób nie­kon­tro­lo­wa­ny z zewnątrz. Sie­ci bę­dą co­raz więk­sze i szybsze, bę­dą co­raz le­piej uczo­ne, bę­dą na­wet sa­me sie­bie bu­do­wać, więc bę­dą co­raz lep­szy­mi na­rzę­dzia­mi, ale pó­ki bę­dzie­my dbać o od­dzie­le­nie pro­ce­su ucze­nia od dzia­ła­nia, ni­gdy nie uzy­ska­ją świa­do­mo­ści i nie bę­dą zdol­ne do sa­mo­dziel­ne­go dzia­ła­nia.

Nie­bez­pie­czeń­stwo świa­do­mej sztucznej in­te­li­gen­cji

  A osob­nym pro­ble­mem je­st to, czy świa­do­ma sztucz­na in­te­li­gen­cja bę­dzie rze­czy­wi­ście ja­kimś za­gro­że­niem dla ludz­ko­ści w ta­kim sen­sie, że nas znie­wo­li lub wy­mor­du­je. Mo­im zda­niem nie ma ta­kie­go ry­zy­ka i tłu­ma­czy­łem to w wie­lu po­przed­ni­ch not­ka­ch.

Grzegorz GPS Świderski
t.me/KanalBlogeraGPS

PS. Notki powiązane:

------------------------------

Standardy społeczności dotyczące mowy nienawiści <- poprzednia notka

na­stęp­na not­ka -> Odnośnikowy styl dyskusji

------------------------------

Ta­gi: gps65, sztuczna inteligencja, SI, AI, technologie, ChatGPT, LLM, świadomość, futurologia, nauka

English version: Artificial intelligence consciousness is working memory

Udostępnij Udostępnij Lubię to! Skomentuj9 Obserwuj notkę
GPS
O mnie GPS

Blo­ger, że­gla­rz, informatyk, trajk­ka­rz, sar­ma­to­li­ber­ta­ria­nin, fu­tu­ry­sta AI. My­ślę, po­le­mi­zu­ję, ar­gu­men­tu­ję, po­li­ty­ku­ję, fi­lo­zo­fu­ję, łapówki przyjmuję: suppi.pl/gps65

Nowości od blogera

Komentarze

Pokaż komentarze (9)

Inne tematy w dziale Technologie