Pojęcie „ujemnego prawdopodobieństwa” już kilka razy trafiło na łamy Salonu24, zawsze jako ‘czarny Piotruś’ - rzecz szokująca i powalająca na kolana. Ot, kilka tygodni temu Eine napisał:
„Jednak to prawdopodobieństwo różni się od pojęcia prawdopodobieństwa w statystyce, czyli w matematyce. Podlega swoistej operacji zwanej interferencją amplitud prawdopodobieństwa, w wyniku której ,gdy spotykają się dwie fale “psi” to może wystąpić nie tylko suma amplitud ale także i ich różnica ,a tym samym superpozycja [ nakładanie się] dwóch prawdopodobieństw może dać prawdopodobieństwo o wartości zero, lub nawet – co jest szokujące – prawdopodobieństwo ujemne !”
Zaś dwa lata wcześniej Ark (no bo któż inny):
"Na przeszkodzie staje jednak właśnie interpretatcja probabilistyczna. Co miałoby oznaczać ujemne prawdopodobieństwo? Zabrał się za to nie kto inny niż sam Richard Feynman i napisał parę rzeczy o możliwej interpretacji ujemnego prawdopodobieństwa. Ale dalej nie poszedł. Niewiele w literaturze na ten temat można znaleźć. "
"Może nie wszyscy wiedzą, że Feynman był jednym z nielicznych znanych fizyków, którzy poważnie rozważali w publikacjach naukowych możliwość rozszerzenia pojęcia prawdopodobieństwa tak, by włączyć w to także prawdopodobieństwa ujemne.”
Sam z tego ujemnego prawdopodobieństwa trochę pokpiwałem, trochę krytykowałem, lecz dopiero teraz postanowiłem w końcu zajrzeć do Feynmana [1] by na własne oczy się przekonać, co on tam wyprawia. Czy rzecz prawdziwą, czy też manipulacja, coś jak kot ujemny? 
Zaczyna od analogii z ujemnymi liczbami - iż do ujemnych jabłek można się przyzwyczaić, zaś kto ma co przeciw ujemnym liczbom, ten jest głupek (tłumaczenie moje: "... is considered a backward or ignorant, or to have some kind of mental block", i tak samo jest z ujemnymi prawdopodobieństwami.
Po czym przechodzi do przykładów.
By poprawnie renderować poniższe formuły w LaTeX, potrzebna instalacja TeX the World
Pierwszy przykład - to w istocie wzór na prawdopodobieństwo całkowite
![P_i=\displaystyle \sum_\alpha p_{i\alpha}\cdot P_\alpha [;P_i=\displaystyle \sum_\alpha p_{i\alpha}\cdot P_\alpha;]](http://www.codecogs.com/gif.latex?P_i=\displaystyle \sum_\alpha p_{i\alpha}\cdot P_\alpha)
(prawdopodobieństwo otrzymania wyniku 'i' otrzymuje się sumując prawdopodobieństwa warunkowe piα; (prawdopopodobieństwo wyniku 'i' względem warunku 'α') pomnożone przez prawdopodobieństwa warunków.
Jezeli to wydaje się mętne ( a jest mętne!), to może wikipedia wyjaśni dokładniej (w zasadzie daję linki do angielskiej wikipedii, mimo iż są polskie odpowiedniki; tych na ogół nie polecam, głównie z powodu memłania, a także z powodu ich braku)?
Różnica między klasycznym przedstawieniem wzoru a feynmanowskim leży tylko w dopuszczeniu negatywnych prawdopodobieństw. W istocie, w tych pierwszych rozważaniach, Feynman podaje proste przykłady miar znakowanych. Miara znakowana - powiedzmy zwąca się μ - przyporządkowuje liczby rzeczywiste, niekoniecznie nieujemne, pewnym zbiorom, i żąda tylko warunku addytywności. Gdy zbiory A1, A2, ... są rozłączne, wtedy ma zachodzić równość
![\mu(A_1\cup A_2\cdots)=\mu(A_1)+\mu(A_2)+\cdots [; \mu(A_1\cup A_2\cdots)=\mu(A_1)+\mu(A_2)+\cdots;]](http://www.codecogs.com/gif.latex? \mu(A_1\cup A_2\cdots)=\mu(A_1)+\mu(A_2)+\cdots)
Oczywiście, żadna dodatniość nie jest tu potrzebna, co najwyżej ułatwia zdefiniowanie nieskończonej sumy, gdy zbiorów jest nieskończenie wiele. Na dobrą sprawę, te wartości wcale nie muszą być liczbami - przecież istotne jest li tylko dodawanie, a dodawać można wiele innych obiektów poza liczbami, na przykład wektory. Zatem, miara znakowana jest szczególnym przykładem miary wektorowej.
Przykład? Może z finansów (równie dobrze może być fizyka lub biologia)? Niech wartość funduszu w momencie t wynosi X(t) (dla uproszczenia, przypuśćmy że zmienia się w sposób ciagły). Jak się zmienia wartość funduszu w odcinku czasowym od momentu s do momentu t? Oczywiście, przyrost, który może być ujemny, wyniesie μ(s,t] =X(t) - X(s). Otrzymujemy więc miarę odcinka, którą można rozszerzyć na sumę mnogościową odcinków. Np., okres czasowy od 0 do 1, oraz od 2 do 7, oraz od 10 do 15 - wtedy jego miara wyniesie [X(1) - X(0)] + [X(7) - X(2)] + [X(15) - X(10)]. Dalsze rozszerzanie wymaga już solidniejszej techniki, więc pozostańmy przy tej prostej i naturalnej intuicji.
Co zatem Feynman tutaj czyni? Bierze starą klasyczną nazwę - "prawdopodobieństwo", i zamiast mówić "miara znakowana" (lub jakoś inaczej, vide końcówka notki), mówi "ujemne prawdopodobieństwo" (co też nie jest zupełnie dokładne, bo niektóre z występujących prawdopodobieństwe są dodatnie, a inne ujemne). Jest nieco więcej drobnych niechlujstw językowych, na przykład zdarzenia (zbiory) rozłączne Feynman nazywa "niezależnymi", choć to przecież ma zupełnie inne znaczenie.
Z jednego przykładu robi dwa, bo raz dopuszcza ujemne wartości dla prawdopodobieństw warunkowych piα, a następnie - dla prawdopodobieństw warunków Pα, . Zauważa przy tym (co jest ważne dla następnego przykładu), iż powyższe składowe (nazywa je "przejściowymi ("intermediary") mimo bycia ujemnymi mogą prowadzić do dodatniego prawdopopodobieństwa wyniku.
Następny przykład opleciony jest wokół równania dyfuzji cząstki w jednowymiarowym odcinku, o długości π. Jeżeli P(x,t) oznacza prawdopodobieństwo iż cząstka znajduje się w pozycji x w momencie t, to
![\displaystyle\frac{\partial P}{\partial dt}= -\frac{\partial^2P}{\partial x^2}. [;\displaystyle\frac{\partial P}{\partial dt}= -\frac{\partial^2P}{\partial x^2}.;]](http://www.codecogs.com/gif.latex?\displaystyle\frac{\partial P}{\partial t}= -\frac{\partial^2P}{\partial x^2}.)
Feynman zakłada absorpcję na krańcach odcinka - P(0,t)=P(π,t)=0 oraz warunek początkowy - rozkład prawdopodobieństwa dany przez gęstość prawdopodobieństwa P(x,0)=f(x).
Powyższe równanie - przy zastąpieniu literki 'P' inną, np. 'U' - znane jest również jako równanie ciepła, opisujące temperaturę pręta o długości π i jednostkowym współczynniku wyrównania temperatur, z "zamrożonymi" końcami utrzymywanymi w stałej temperaturze, powiedzmy 0. Skala jest bez znaczenia, gdyż przekształcenie jednej skali w inną - U → aU+b - pozostawia równanie bez zmiany. Temperatura początkowa w punkcie x wynosi U(x,0)= f(x). Rozwiązanie równania ciepła (ze współczynnikiem 1, dla długości pręta równej π) ma postać
![U(x,t)=\displastyle\sum_{n=1}^\infty b_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty b_n \sin nx [;U(x,t)=\displastyle\sum_{n=1}^\infty b_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty b_n \sin nx ;]](http://www.codecogs.com/gif.latex?U(x,t)=\displastyle\sum_{n=1}^\infty b_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty b_n \sin nx)
Współczynniki bn mogą przyjmować wartości i dodatnie, i ujemne. Widać też, iż pewne poczatkowe rozkłady temperatur podlegają bardzo prostej ewolucji. Mianowicie, gdy poczatkowa temperatura jest prostą harmoniką, to znaczy, posiada rozkład f(x)=sin nx dla pewnego ustalonego n, to zmianie podlega wyłącznie amplituda - powodująca szybkie spłaszczanie się wykresu:
![U_n(x,t)=\sin nx \cdot e^{-n^2t},\,t>0 [;U_n(x,t)=\sin nx \cdot e^{-n^2t},\,t>0;]](http://www.codecogs.com/gif.latex?U_n(x,t)=\sin nx \cdot e^{-n^2t},\,t>0)
Jedynie dla n=1 funkcja jest nieujemna, dla reszty - pojawiają się na przemian wartości i dodatnie, i ujemne.
W tej interpretacji ujemne temperatury nikogo nie szokują, zaś liniowość równania pociąga jego spełnianie dla dowolnych kombinacji liniowych powyższych harmonik.
I cóż Feynman czyni? Ano, zmienia nazwy. Przyzwyczaiwszy uprzednio czytelnika do terminu 'ujemne prawdopodobieństwo', zapisuje rozwiązanie równania ciepła, używając literek 'pe' ('probability'! ), zarówno małej jak i dużej:
![P(x,t)=\displastyle\sum_{n=1}^\infty p_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty p_n \sin nx [;P(x,t)=\displastyle\sum_{n=1}^\infty p_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty p_n \sin nx ;]](http://www.codecogs.com/gif.latex?P(x,t)=\displastyle\sum_{n=1}^\infty p_n\, \sin nx\,\, e^{-n^2t},\quad \mbox{gdzie } f(x)=\sum_{n=1}^\infty p_n \sin nx)
Co więcej, przedstawia otrzymany wzór jako identyczny ("precisely") ze wzorem na prawdopodobieństwo całkowite, gdzie tylko następuje zmiana ról, uprzedni warunek 'α staje się częstością oscylacji 'n', wynik 'i' staje się 'x'-em, zaś prawdopodobieństwo warunkowe piα; przyjmuje postać 'sin nx exp(-n2t)'. No i oczywiście, te liczby 'pn' to nic innego jak poprzednie "a priori probabilities" 'Pα'.
Czy tu czytelnik może zacząć powątpiewać w dopuszczalność takich zabiegów?
Feynman pisze "No objection should be made to the negative values of these probabilities." Zaiste, mocny "argument" przeciw wątpiącym
Powraca jednak do sytuacji, gdy początkowa funkcja f(x) jest "prawdopodobieństwem" (tak Feynman pisze, w istocie ma na myśli - gęstość rozkładu prawdopodobieństwa), i zwraca uwagę, iż w wyniku ewolucji tej funkcji, P(x,t) będzie wciąż nieujemne, mimo iz składniki sumy szeregu mogą być ujemne. A propos, nie jest to wcale oczywiste, zaś sposobami elementarnymi raczej trudno to uzasadnić.
W pracy jest jeszcze kilka innych przykładów, podobnie traktowanych. Pewne formuły lub modele, przy pewnych ograniczeniach mają interpretację probabilistyczną, lecz odrzuciwszy te ograniczenia, zarówno liczbowe składowe jak i wynikające wielkości tracą probabilistyczną wykładnię. Ale Feynman ma na radę. Tracą? Nie szkodzi, będziemy wciąż mówić o prawdopodobienstwach, a że ujemne, no cóż - przecież kto się nie zgadza, ma blokadę mentalną.
O, następnym przykładem Feynmana jest tzw. rozkład Wignera. Podobnie jak rozwiązanie równania ciepła/dyfuzji, w pewnych sytuacjach jest rozkładem prawdopodobieństwa, ale w innych nie jest. Rozsądnie byłoby użyć jakiegoś naturalnego określenia, bez powodowania semantycznego i konceptualnego szoku. I tak też ludzie robią, nazywając ową wielkość "quasi-prawdopodobieństwem". Źle brzmi? Przecież wcale dobrze. Szokuje? Ani nawet tycio.
Zostawmy więc dramatyczną terminologię (bo co jest poza nią?) Feynmana do straszenia po forach i blogach...
[1] Richard P. Feynman, Negative Probability, pp. 235-246: "Quantum Implications. Essays in honour of David Bohm." Routledge & Kegan Paul, London & New York, 1987.
Inne tematy w dziale Technologie