Eine Eine
3145
BLOG

CZY INFORMATYKA POŁKNIE FIZYKĘ?

Eine Eine Nauka Obserwuj temat Obserwuj notkę 157

 

 
Fizyka jest nauką fundamentalną opisującą zdarzenia, zjawiska ,procesy oraz obiekty fizyczne w ich wzajemnym oddziaływaniu. Prawa fizyki, modele i teorie dotyczą świata istniejącego poza umysłem człowieka , świata danego w doświadczeniu egzystencjalnym człowieka.
 
Oczywiście, rozumienie powyższego przedstawienia nauki zwanej fizyką może być różne. W tym tekście chcę przedstawić rozumienie oferowane przez teorię informacji.
 
Epoka współczesna eksploduje ilością informacji nadawanej, przetwarzanej, odbieranej i przechowywanej trudnej do zmierzenia , chociaż dysponujemy jednostkami miary .
Nic więc dziwnego, że od zastosowania w badaniach fizycznych urządzeń informatycznych[komputerów], przeszliśmy do fazy, w której kategorie związane z teorią informacji zaczynają królować w fizyce.
 
Na przykład, na 1st International Conference on Frontiers in Computational Physics,16-20 XII 2012 USA, wprawdzie głównym tematem był fizyka Ziemi w aspekcie języka i metod badania charakterystycznych dla informatyki i teorii informacji, ale we wnioskach ogólnych dotyczących metodologii informatyki, pojawiły się poważne głosy o konieczności głębszej przebudowy fizyki w kierunku “fizyki informatycznej”[nazwa prowizoryczna].
 
Informatyka [a także teoria informacji], to imperialna i zaborcza dyscyplina. Chce być alfą i omegą całej nauki , stąd projekt przemiany fizyki w fizykę informatyczną.
Pytanie jest tylko , czy potrafi to zrobić?
 
Fizyka jest nauką fundamentalną o przyrodzie , co znaczy że jej zasady i prawa nie wynikają z zasad i praw jakiejś innej nauki przyrodniczej. Jest raczej odwrotnie.
 
Uczynić z fizyki naukę , która nie bada przyrody ,lecz bada informację o przyrodzie? Czy jest w tym sens? A jakie korzyści epistemologiczne?
 
Kategorialne podstawy informatyki vel teorii informacji są niepewne, płynne i więcej jest pytań, niż odpowiedzi.
 
Czym jest informacja? Jaki jest jej stosunek do "rzeczywistości"?
 
Jeżeli jest stanem lub procesem fizycznym, to co jest tego miarą w sensie fizyki?
 
Jaki jest związek informacji z podstawowymi wielkościami fizyki , takimi jak: energia, masa, entropia, potencjał, pola fizyczne, itd.?
 
Czy zasady i prawa rządzące informacją są bardziej fundamentalne od zasad i praw fizyki?
 
Czy informacja może istnieć bez podłoża substancjalnego?
 
Czy działania przyrody mają zawsze charakter procesów informacyjnych?
 
Czy informacja może znikać w danym układzie bez jakichkolwiek przemian fizycznych? Czy przeciwnie- obowiązuje zasada zachowania informacji?
 
Czy informacja jest ciągła ,czy dyskretna[“kwantowa”]?
 
Jak jest relacja między informacją klasyczną , a kwantową?
 
Pomysł na przemianę fizyki w fizykę informatyczną wziął się chyba stąd ,ż e od początku pojawienia się teorii informacji , jest ona najściślej związana z fizyką.
 
To Claude Shannon już w roku 1948 podał wzór , który łączy informację z prawdopodobieństwem zdarzenia losowego ,a tym samym umożliwia pomiar informacji [1].
H(x)=-\sum_{i=1}^np(i)\log_2 p(i)\,\!
gdzie  p(i) - prawdopodobieństwo zdarzenia i.
Wielkość H w fizyce,  jest entropią układu [ i najczęściej tam oznaczaną przez S ], ale jednocześnie dla C.Shannona jest - miarą informacji. Z wzoru tego wynika, że ilość przekazywanej informacji zależy od tego z jakim prawdopodobieństwem nośnik informacji może znaleźć się w każdym z możliwych stanów .
 
Z drugiej strony , prawdopodobieństwo zdarzeń fizycznych jest fundamentalną kategorią w fizyce statystycznej[np.w mechanice ,termodynamice, fizyce ciała stałego, mechanice kwantowej,itd.] stąd zrozumiały ścisły związek teorii informacji z fizyką.
 
Związek ten jest wielce zbawienny dla teorii informacji , gdyż pozwolił co najmniej rozjaśnić centralny problem teorii informacji streszczający się w pytaniu:
Czym jest informacja?
Rozjaśnić za pomocą fizyki i w jej obrębie.
 
Idąc tropem Shanona,  fizyk, noblista -  Leon Brillouin wykorzystał statystyczną definicję entropii Boltzmanna [2], która wyraża entropię S , podstawową wielkość termodynamiki z prawdopodobieństwem stanu W taką zależnością
 
S = k*ln W
 
Gdzie k- stała Boltzmanna
 
I powiązał informację z entropią ,a dokładnie pisząc z entropią o znaku ujemną nazwaną przez E.Schroedingera “ neg-entropią” i oznaczaną literą N.
 
Brillouin operował  takim szeregiem zależności:
 
Prawdopodobieństwo–> entropia—>negentropia->informacja
 
Entropia dowolny układu fizycznego z biegiem czasu rośnie , a neg-entropia przeciwnie: maleje. Brillouin dowodzi , że to oznacza, iż mniej wiemy o stanie tego układu z upływem czasu. Czyli dla niego:
 
Neg-entropia =  informacja.
 
Zaproponował [ 3,4 ] następujący związek :
 
S(1) = S(0) – I
 
gdzie,  S(o)- entropia początkowego stanu układu
S(1) – entropia stanu końcowego układu, po przyjęciu informacji I [bitów]. Stąd
 
S(1) – S(0) = dS = -I
Lub
 
I = -( dS)  
 i tym samym:
 
Informacja = negentropia
 
W ten sposób informacja stała się mierzalną wielkością fizyczną.
 
Po pracach Brillouin, nastąpiło jeszcze silniejsze uogólnienie pojęcia informacji. Bennet i Landauer [5] formułują zasadę , która brzmi :
 
z każdym wykasowaniem bitu informacji wiąże się zużycie pewnej ilości energii wydzielonej, jako ciepło.
 
Stąd -ich zdaniem -wynika, że :
 
Informacja = energia.
 
Do pewnego czasu, samo funkcjonowanie bramek logicznych w komputerach było nieodwracalne w sensie termodynamicznym ,gdyż potencjalnie użyteczna energia zamieniała się w ciepło.
 
Dzisiaj funkcjonują już bramki logiczne odwracalne [wprawdzie nie powszechnie- ale są] i komputer nie musi rozpraszać energii na operacje obliczeniowe, chociaż problemy technologiczne związane z minimum Landauera nadal są poważne.
 
Jednak korelacja informacji i energii [ poprzez nośnik fizyczny], nie musi oznaczać tożsamości tych fenomenów.
 
Od jakiegoś czasu ,pojawili się informatycy, którzy są skłonni przypisać informacji nawet pewną masę.
 
Znany estoński informatyk i cybernetyk [ zmarł w 2002 roku ], Elmot Liiv , autor oryginalnej pracy [6] dowodził , iż informacja jest materialna, przez co posiada masę, energię i negentropię. Autor ten, teoretycznie wyliczył nawet, jaką masę posiada 1 bit informacji.
1 bit = 10E(-40)kg.
 
Gdyby rzeczywiście przypisać informacji masę, to przekaz informacji między systemami znajdującymi się w dwóch odległych punktach Ziemi [ lub w czasie lotów planetarnych, albo na Księżycu ] powinien być zniekształcony ,albo nawet przy odpowiednio silnym polu grawitacyjnym – utrudniony.
 
Możliwe ,że Liiv miał na myśli masę nośnika informacji, który w świecie makroskopowym zawsze jest materialny.
 
Pewien chemik polski wiązania chemiczne potraktował teorią informacji[7]. A dlaczego mógł to zrobić?
Nie dlatego że atomy przekazują sobie informacje ,tylko dlatego ,że model wiązań chemicznych jest oparty na statystycznej interpretacji funkcji falowej “psi”[ wektora stanu ], a przecież informacja ściśle wiąże się z prawdopodobieństwem stanu układu.
 
Informacja kwantowa podlega innym prawom [8,9], aniżeli informacja klasyczna nie dlatego ,że ma inną naturę ,tylko dlatego że nośnik tej informacji{fizyczne podłoże] ma inną naturę od nośnika klasycznego, np. obowiązują inne statystyki, nie Maxwella-Boltzmanna.
 
Teoria informacji w obrębie fizyki ,zmienia jej język opisu zjawisk i procesów , zmienia postać równań i praw ,ale nie zmienia naszej ontologii rzeczywistości ,którą bada fizyka.
 
Każde prawo fizyki niesie informację dla wykształconego rozumu, stanowi dla niego komunikat o “zewnętrzu” wobec umysłu poznającego. Jednak proces badawczy w fizyce nie może być sprowadzony do badania informacji ,bo to by oznaczało , że badamy – fizykę samą. Fizyka wychodzi od siebie, do przyrody i następnie wraca do siebie- bada uzyskaną informację.
 
Gdyby nie było w przyrodzie świadomości , byłaby informacja? Gdyby nie było odbiorcy komunikatu , byłby komunikat?
 
Literatura
[1] C.Shannon , Mathematical Theory of Communication , Bell System Technical Journal ,1948
[2] F.Reif,Fizyka statystyczna,PWN,Warszawa,1971,str.300-304
[3] L.Brillouin,Nauka a teoria informacji,PWN,Warszawa,1969
[4] L.Brtllouin,Scientific Uncertainty and Information,Academic Press,London,1964
[5] C.H. Bennett, R. Landauer, The fundamental physical limits of computation", Scientific American ,VII,1985, s.38-46
[6] E.Lijv,Infodynamics.Generalized Entropy and Negentropy,Tallinn,1998
[7] R. F. Nalewajski, Podstawy i metody chemii kwantowej. PWN, Warszawa, 2001.
[8]R.Horodecki,Unitary Information Ether und its PossibleAplications,Annalen derPhysik,vo.503,n0.7,1991,
s.479-488
[9] R.S.Ingarden,Quantum Information theory,Rep. Math. Phys. 10, 43-72 (1976).
Eine
O mnie Eine

No modern scientist comes close to Einstein's moral as well as scientific stature (John Horgan)

Nowości od blogera

Komentarze

Pokaż komentarze (157)

Inne tematy w dziale Technologie