Biblioteka
  Wiw.pl   Na bieżąco:  Informacje   Co nowego   Matematyka i przyroda:  Astronomia   Biologia   Fizyka   Matematyka   Modelowanie rzeczywistości   Humanistyka:  Filozofia   Historia   Kultura antyczna   Literatura   Sztuka   Czytaj:  Biblioteka   Delta   Wielcy i więksi   Przydatne:  Słowniki   Co i gdzie studiować   Wszechświat w obrazkach    
  Jesteś tutaj:   Wirtualny Wszechświat > Biblioteka > Klasycy nauki




Rozdział jedenasty
Rachunek prawdopodobieństwa
Niektórzy czytelnicy mogą się zdziwić, znajdując tu refleksje nad rachunkiem prawdopodobieństwa. Cóż ma to wspólnego z metodą nauk fizycznych?

A jednak kwestie, które poruszą poniżej, nie podając ich rozwiązania, nasuwają się w sposób naturalny, gdy rozmyślamy nad fizyką, i to w takim stopniu, że w dwóch poprzednich rozdziałach przyszło nam kilkakrotnie użyć słów "prawdopodobieństwo" i "przypadek".

"Każdy zaobserwowany fakt pozwala przewidzieć wiele innych, lecz nie powinniśmy zapominać, że pewny jest jedynie pierwszy, zaś wszystkie pozostałe są tylko prawdopodobne - pisałem powyżej. - Niezależnie od tego, jak mocno ugruntowane wydaje się nam dane przewidywanie, nie jesteśmy nigdy bezwzględnie pewni, że doświadczenie nie okaże się z nim sprzeczne, gdy poddamy je weryfikacji. Prawdopodobieństwo wszakże często jest tak duże, że w praktyce możemy się nim zadowolić".

Nieco niżej dodałem:

"W tym celu rozpatrzmy, jaką rolę odgrywa w naszych uogólnieniach wiara w prostotę. Sprawdziliśmy pewne proste prawo w wielkiej liczbie przypadków szczególnych; wzdragamy się przypuścić, by zgodność ta, tyle razy powtórzona, była rzeczą czystego przypadku"...

Bardzo często się zdarza, że fizyk znajduje się w takim samym położeniu, co gracz, ważący swoje szanse. Ilekroć rozumuje za pomocą indukcji, tylekroć posługuje się, mniej lub bardziej świadomie, rachunkiem prawdopodobieństwa.

Dlatego muszę teraz otworzyć nawias i zawiesić analizę metody nauk fizycznych, by zbadać nieco bliżej, jaka jest wartość tego rachunku i na jakie zasługuje on zaufanie.

Sama nazwa rachunku prawdopodobieństwa jest paradoksem: prawdopodobieństwo, przeciwstawione pewności, oznacza, że czegoś nie wiemy, a jak można obliczać to, czego się nie zna? A przecież tylu wybitnych uczonych zajmowało się tym rachunkiem i niepodobna zaprzeczyć, że przyniosło to nauce wiele korzyści. Jak wytłumaczyć tę pozorną sprzeczność?

Czy prawdopodobieństwo zostało zdefiniowane? Czy w ogóle można je zdefiniować? Jeśli zaś nie, to jak może być przedmiotem rozumowania matematycznego? Definicja prawdopodobieństwa - ktoś mógłby powiedzieć - jest bardzo prosta: prawdopodobieństwa danego zdarzenia jest równe stosunkowi liczby przypadków, w których to zdarzenie zachodzi, do całkowitej liczby możliwych przypadków.

Wystarczy prosty przykład, żeby się przekonać, że definicja ta jest niekompletna. Rzucamy dwie kości. Jakie jest prawdopodobieństwo, że przynajmniej raz otrzymamy szóstkę? Każda kość może dać sześć różnych liczb: liczba możliwych przypadków wynosi 6 x 6 = 36. Liczba przypadków sprzyjających wynosi 11; prawdopodobieństw równa się przeto 11/36.

To rozwiązanie jest oczywiście poprawne, ale czy nie moglibyśmy równie dobrze rozumować następująco. Liczby, które dają kości, mogą tworzyć 6 x 7/2 = 21 kombinacji. Wśród tych kombinacji jest 6 sprzyjających, a zatem prawdopodobieństwo wynosi 6/21.

Dlaczego pierwszy sposób obliczania liczby przypadków możliwych jest poprawny, a drugi nie? Podana definicja nie dostarcza odpowiedzi na to pytanie.

Zmuszeni jesteśmy uzupełnić definicję w następujący sposób: "... do całkowitej liczby możliwych przypadków, o ile przypadki te są jednakowo prawdopodobne". W ten sposób jednak definiujemy prawdopodobieństwo przez prawdopodobieństwo.

Skąd możemy wiedzieć, że dwa przypadki możliwe są jednakowo prawdopodobne? Czy na mocy umowy? Jeśli przed rozwiązaniem każdego zagadnienia sformułujemy wyraźną umowę, to wszystko pójdzie dobrze - pozostanie nam tylko zastosować reguły arytmetyki i algebry, by przeprowadzić rachunki do końca i otrzymać wynik nie budzący żadnych wątpliwości. Jeśli jednak chcemy zastosować ten wynik, musimy udowodnić, że umowa nasza była uprawniona, a tym samym staniemy znowu w obliczu trudności, którą chcieliśmy ominąć.

Ktoś może powiedzieć, że w każdym konkretnym przypadku zdrowy rozsądek podpowiada, jaką umowę należy przyjąć. Niestety, tak nie jest. Bertrand wykazał to za pomocą następującego prostego przykładu. "Jakie jest prawdopodobieństwo, że poprowadzona w sposób losowy cięciwa okręgu jest dłuższa niż bok trójkąta równobocznego, wpisanego w dany okrąg?". Ten znakomity matematyk przyjął kolejno dwie umowy, które - jak się zdaje, z równą słusznością można uznać za zgodne ze wskazaniami zdrowego rozsądku i raz otrzymał wynik 1/2, a raz 1/3.*

* Znana jest jeszcze jedna, równie rozsądna umowa, która daje wynik 1/4 - P.A.

Z tego wszystkiego wydaje się wynikać, że rachunek prawdopodobieństwa jest nauką jałową i należy się odnosić z wielką nieufnością do owego niejasnego instynktu, który nazywamy zdrowym rozsądkiem i który miałby uprawniać nasze umowy.

Ale i na ten wniosek nie możemy przystać, gdyż bez tego niejasnego instynktu obejść się nie możemy; bez niego nauka byłaby niemożliwa, nie moglibyśmy ani odkryć żadnego prawa, ani go stosować. Czy wolno nam, na przykład, odrzucić prawo Newtona? Niewątpliwie liczne obserwacje są z nim zgodne, ale czy nie jest to tylko przypadek? Skąd zresztą wiemy, że prawo to, choć obowiązuje od tylu wieków, nie przestanie obowiązywać w roku przyszłym? Na takie zarzuty nie możemy odpowiedzieć inaczej, jak tylko, że jest to bardzo mało prawdopodobne.

Przyjmijmy zatem to prawo; sądzimy, że dzięki niemu możemy obliczyć położenie Jowisza za rok. Czy mamy prawo tak sądzić? Kto nam zaręczy, że w ciągu tego roku przez Układ Słoneczny nie przeleci z ogromną prędkością jakieś duże ciało niebieskie i nie spowoduje nieoczekiwanych zakłóceń? W tym przypadku również nie ma innej odpowiedzi, jak: "Jest to bardzo mało prawdopodobne".

Zgodnie z tym rozumowaniem, wszystkie nauki są tylko nieświadomymi zastosowaniami rachunku prawdopodobieństwa; wyrok skazujący, wydany na ten rachunek, byłby przeto wyrokiem na całą naukę.

Wspomnę tu tylko, dłużej się nad tym nie zatrzymując, o zagadnieniach naukowych, w których rola rachunku prawdopodobieństwa jest bardziej widoczna. Tak jest przede wszystkim w zagadnieniu interpolacji, gdy znając pewne wartości funkcji, staramy się odgadnąć wartości pośrednie. Wymienię tu również słynną teorię błędów pomiarów, do której powrócę poniżej; teorię kinetyczną gazów, w której zakłada się, że każda cząsteczka gazu porusza się po bardzo skomplikowanej drodze, ale na mocy prawa wielkich liczb wszystkie wielkości średnie, które możemy obserwować, podlegają prostym prawom Mariotte'a i Gay Lussaca.

Wszystkie te teorie opierają się na prawach wielkich liczb. Obalenie rachunku prawdopodobieństwa spowodowałoby również ich upadek. Przyznać wprawdzie należy, że wyłączają interpolację, są to ofiary, z którymi można byłoby się pogodzić.

Jednak, jak już powiedziałem, nie chodzi tu tylko o utratę szczególnych teorii; zagrożona byłaby prawowitość całej nauki.

Wiem wprawdzie, że można byłoby na to odpowiedzieć: "Tkwimy w nieświadomości, a jednak musimy działać. Aby działać, nie mamy czasu na badania, które rozproszyłyby naszą nieświadomość; zresztą to trwałoby w nieskończoność. Musimy zatem decydować nie dysponując pełną wiedzą; musimy to robić częściowo po omacku i postępować zgodnie z pewnymi regułami, w pełni w nie nie wierząc. Jeśli coś wiemy, to nie to, że dane to a to jest prawdą, lecz tylko to, że najlepiej dla nas będzie, jeżeli będziemy działali tak, jakby tak było naprawdę". Rachunek prawdopodobieństwa, a wraz z nim cała nauka, miałyby jedynie wartość praktyczną.

Na nieszczęście w ten sposób nie można wyeliminować trudności: przypuśćmy, że pewien gracz chce zaryzykować stawkę i prosi nas o radę. Jeśli mu jej udzielimy, oprzemy się na rachunku prawdopodobieństwa, lecz nie zagwarantujemy mu powodzenia. Mamy tu przykład tego, co nazwałbym prawdopodobieństwem subiektywnym. W tym przypadku można byłoby się zadowolić wytłumaczeniem naszkicowanym powyżej. Przypuśćmy jednak, że ktoś obserwuje grę, notuje wszystkie kolejne wyniki, a gra trwa bardzo długo; gdy zrobi on bilans swoich notatek, stwierdzi, że rozkład wyników jest zgodny z prawami rachunku prawdopodobieństwa. Tu mamy do czynienia z tym, co nazwałbym prawdopodobieństwem obiektywnym, i właśnie to zjawisko wymaga wyjaśnienia.

Istnieją liczne towarzystwa asekuracyjne, postępujące zgodnie z rachunkiem prawdopodobieństwa i przynoszące akcjonariuszom dywidendy, których obiektywnej rzeczywistości nikt nie kwestionuje. W celu ich wyjaśnienia nie wystarczy odwołać się do nieświadomości połączonej z koniecznością działania.

Widzimy zatem, że zupełny sceptycyzm jest nieuzasadniony; powinniśmy żywić pewną nieufność do rachunku prawdopodobieństwa, lecz nie możemy go potępiać w czambuł. Konieczna jest tu dokładniejsza analiza.

I. Klasyfikacja zagadnień o prawdopodobieństwach. - Przy klasyfikowaniu zagadnień dotyczących prawdopodobieństwa, można rozpatrywać je z kilku różnych punktów widzenia, a przede wszystkim z punktu widzenia ogólności. Powiedziałem już, że prawdopodobieństwo to stosunek liczby przypadków sprzyjających do całkowitej liczby przypadków możliwych. To, co z braku lepszego terminu nazywam "ogólnością", rośnie wraz z liczbą przypadków możliwych. Liczba ta może być skończona, na przykład gdy rzucamy dwiema kośćmi - wtedy wynosi 36. To stanowi pierwszy stopień ogólności.

Gdy natomiast pytamy, na przykład, jakie jest prawdopodobieństwo, by punkt leżący wewnątrz koła, znajdował się zarazem wewnątrz kwadratu wpisanego w koło, to mamy tyle przypadków możliwych, ile jest punktów w kole, czyli nieskończenie wiele. Jest to drugi stopień ogólności. Ale ogólność może być jeszcze większa: zadajmy sobie pytanie, jakie jest prawdopodobieństwo, że pewna funkcja spełnia podany warunek: mamy wówczas tyle przypadków możliwych, ile można wymyślić rozmaitych funkcji. Jest to trzeci stopień ogólności, z którym mamy do czynienia, gdy na przykład chcemy odgadnąć najbardziej prawdopodobne prawo na podstawie skończonej liczby obserwacji.

Można również rozpatrywać zagadnienia dotyczące prawdopodobieństwa z zupełnie innego punktu widzenia. Gdybyśmy nie nasza niewiedza, nie byłoby żadnych prawdopodobieństw - mielibyśmy do czynienia jedynie z pewnością. Niewiedza nie jest jednak zupełna, bo w takim razie nie byłoby również prawdopodobieństw; trzeba choć trochę światła, by zdobyć tę niepewną wiedzę. W ten sposób zagadnienia dotyczące prawdopodobieństwa można klasyfikować według mniejszego lub większego stopnia naszej niewiedzy.

Nawet w matematyce można rozważać zagadnienia związane z prawdopodobieństwem. Jakie jest prawdopodobieństwo, że piąta cyfra dziesiętna logarytmu, wziętego na chybił trafił z tablicy, jest równa 9? Każdy odpowie bez wahania, że prawdopodobieństwo to wynosi 1/10. W danym przypadku jesteśmy w posiadaniu wszystkich danych; umielibyśmy obliczyć logarytm nie korzystając z tablic, ale nie chcemy zadać sobie tego trudu. Jest to pierwszy stopień niewiedzy.

W naukach fizycznych niewiedza jest już większa. Stan układu w danej chwili zależy od stanu początkowego i od prawa, rządzącego jego ewolucją. Gdybyśmy znali stan początkowy i to prawo, pozostałoby nam jedynie rozwiązanie pewnego problemu matematycznego; mielibyśmy zatem znowu pierwszy stopień niewiedzy.

Zdarza się jednak często, że znamy prawo, ale nie znamy stanu początkowego. Weźmy na przykład pytanie, jaki jest obecny rozkład planetoid; wiemy, że zawsze zachowywały się zgodnie z prawami Keplera, ale nie wiemy, jaki był ich rozkład początkowy.

W teorii kinetycznej gazów zakłada się, że cząsteczki gazu poruszają się po torach prostych i zderzają się sprężyście, ponieważ jednak nie wiemy nic o ich prędkościach początkowych, to również nie wiemy nic o ich prędkościach obecnych.

Jedynie rachunek prawdopodobieństwa pozwala na przewidywanie wielkości średnich, wynikających z kombinacji tych prędkości. Jest to drugi stopień niewiedzy.

Zdarzyć się może wreszcie, że nie znamy ani warunków początkowych, ani praw ewolucji układu; wpadamy wtedy w trzeci stopień niewiedzy i wówczas na ogół nie możemy nic powiedzieć o prawdopodobieństwie danego zjawiska.

Zdarza się często, że zamiast przewidywania jakiegoś faktu na podstawie mniej lub bardziej niedoskonałej znajomości prawa, które nim rządzi, znamy właśnie fakty i usiłujemy odgadnąć prawo; zamiast wyprowadzanie skutków z przyczyn, chcemy wyprowadzić przyczyny ze skutków. Są to tak zwane zagadnienia o prawdopodobieństwie przyczyn, najbardziej interesujące ze względu na znaczenie w nauce.

Gram w écarté z człowiekiem, o którym wiem, że jest zupełnie uczciwy; na niego kolej - jakie jest prawdopodobieństwo, że odwróci króla? Wynosi ono 1/8; jest to zagadnienie o prawdopodobieństwie skutków. Gram z panem, którego nie znam; na 10 razy, 6 razy odwrócił króla; jakie jest prawdopodobieństwo, że pan ten jest szulerem? Jest to zagadnienie o prawdopodobieństwie przyczyn.

Można powiedzieć, że to właśnie jest zasadnicze zagadnienie metody doświadczalnej. Zaobserwowaliśmy n wartości x i odpowiadające im wartości y. Stwierdziliśmy, że stosunek y do x jest w przybliżeniu stały. Oto fakt: jaka jest tego przyczyna?

Czy jest prawdopodobne, że istnieje ogólne prawo, zgodnie z którym y jest proporcjonalne do x, a przyczyną drobnych odchyleń są błędy pomiarów? Tego typu pytania ustawicznie stawiamy i nieświadomie rozwiązujemy, gdy analizujemy w sposób naukowy dane doświadczalne.

Dokonamy teraz przeglądu rozmaitych kategorii zagadnień, biorąc kolejno pod uwagę opisane powyżej prawdopodobieństwo subiektywne i prawdopodobieństwo obiektywne.

II. Prawdopodobieństwo w naukach matematycznych. - Niemożliwość kwadratury koła została dowiedziona w roku 1883, ale na długo przed tą stosunkowo świeżą datą matematycy uważali tę niemożliwość za tak "prawdopodobną", że paryska Akademia Nauk odrzucała bez rozpatrzenia zbyt liczne, niestety, rozprawy, które nadsyłali jej na ten temat rozmaici nieszczęśliwi obłąkańcy.

Czy Akademia nie miała racji? Oczywiście, że tak, i wiedziała ona dobrze, że postępując w ten sposób nie ryzykuje bynajmniej, że pominie ważne odkrycie. Nie mogłaby dowieść, że miała słuszność, ale wiedziała dobrze, że instynkt jej nie zwodzi. Gdybyście zapytali o to członków Akademii, odpowiedzieliby wam następująco: "Porównaliśmy prawdopodobieństwo, że nieznany badacz odkrył coś, czego szuka się na próżno od tylu wieków, z prawdopodobieństwem, że zjawił się jeszcze jeden obłąkany na kuli ziemskiej i to drugie wydało się nam wyraźnie większe". To oczywiście bardzo dobry argument, ale nie ma w nim nic matematycznego - jest to argument czysto psychologiczny.

Gdybyście pytali bardziej natarczywie, dodaliby jeszcze jeden argument: "Dlaczego pewna wartość szczególna pewnej funkcji przestępnej ma być liczbą algebraiczną? Gdyby było pierwiastkiem pewnego równania algebraicznego, to dlaczego pierwiastek ten miałby być równy okresowi funkcji sin(2x) i dlaczego nie miałyby mieć tej właściwości również wszystkie inne pierwiastki tego równania?". Inaczej mówiąc, powołaliby się na zasadę racji dostatecznej w jej najbardziej mglistej postaci.

Cóż jednak mogli stąd wywnioskować? Co najwyżej mogli zadecydować, jak korzystać ze swego czasu, który pożytecznie było przeznaczyć na zwykłą pracę, niż na czytanie wypocin, budzących uzasadnioną nieufność. Lecz to, co nazwaliśmy prawdopodobieństwem obiektywnym, nie ma nic wspólnego z tym pierwszym zagadnieniem.

Inaczej rzecz się ma z drugim zagadnieniem.

Rozważmy 10 000 pierwszych logarytmów w danej tablicy. Wybierzmy w sposób losowy jeden z nich: jakie jest prawdopodobieństwo, że trzecia cyfra w jego rozwinięciu dziesiętnym jest parzysta? Odpowiecie bez wahania, że prawdopodobieństwo to wynosi 1/2 i rzeczywiście, jeśli zbadacie w tablicy trzecie cyfry dziesiętne tych 10 000 liczb, znajdziecie mniej więcej tyle samo parzystych, co nieparzystych.

Jeśli ktoś woli, można wypisać 10 000 liczb odpowiadających wartościom logarytmów, tak że każdemu logarytmowi, którego trzecia cyfra dziesiętna jest parzysta, odpowiada liczba +1, a w przeciwnym razie -1. Teraz możemy obliczyć wartość średnią tych liczb.

Nie zawahałbym się powiedzieć, że przeciętna z tych 10 000 liczb jest prawdopodobnie dokładnie równa zeru. Gdybym rzeczywiście ją obliczył, okazałoby się, że jest bardzo mała.

Próba ta byłaby nawet zbyteczna. Mógłbym ściśle dowieść, że średnia ta jest mniejsza od 0,003. Dowód ten wymaga bardzo długich obliczeń, których nie mogę tutaj przytaczać; ale można je znaleźć w moim artykule, zamieszczonym w "Revue générale des Sciences" z 15 kwietnia 1899 roku. Muszę tu zwrócić uwagę tylko na jeden istotny punkt: w obliczeniach tych oparłem się wyłącznie na dwóch faktach, a mianowicie na tym, że pierwsza i druga pochodna logarytmu, dla liczb z rozważanego przedziału, są zawarte między pewnymi granicami.

Z tego od razu wypływa wniosek, że własność powyższą ma nie tylko logarytm, ale każda funkcja ciągła, gdyż pochodne dowolnej funkcji ciągłej są ograniczone.

Jeśli z góry byłem pewny tego wyniku, to przede wszystkim dlatego, że w głębszych pokładach mego umysłu przeprowadziłem w sposób mniej lub bardziej nieświadomy i niedoskonały to rozumowanie, które doprowadziło mnie do wspomnianych nierówności, podobnie jak wytrawny rachmistrz, nim jeszcze wykona mnożenie, zdaje sobie sprawę, że "wyniesie to mniej więcej tyle a tyle".

Zresztą to, co nazwałem moją intuicją, było po prostu niepełnym szkicem prawdziwego dowodu, co wyjaśnia, dlaczego obserwacja potwierdziła nasze przewidywania, a prawdopodobieństwo obiektywne okazało się zgodne z prawdopodobieństwem subiektywnym.

Jako trzeci przykład wybierzemy zagadnienie następujące. Niech u będzie liczbą losową, n daną, bardzo dużą liczbą całkowitą; jaka jest prawdopodobna wartość sin(nu)? Zagadnienie to samo przez się nie jest dobrze postawione. Żeby mu nadać sens, trzeba zrobić umowę: umówimy się, że prawdopodobieństwo, by liczba u była zawarta między aa + da równe jest (a)da, to znaczy jest proporcjonalne do szerokości nieskończenie małego przedziału da, pomnożonej przez funkcję (a), która zależy jedynie od a. Funkcję tę można wybrać dowolnie, byle była ciągła. Ponieważ wartość sin(nu) nie zmienia się, gdy u wzrasta o 2 , możemy, nie ograniczając ogólności, założyć, że u należy do przedziału od 0 do 2 , co prowadzi do założenia, że (a) jest funkcją okresową o okresie 2 .

Szukaną prawdopodobną wartość można teraz bez trudu wyrazić w postaci prostej całki i wykazać, że całka ta jest mniejsza niż

2 Mk/nk

gdzie Mk oznacza maksymalną wartość k-tej pochodnej (u). Widzimy zatem, że jeśli pochodna rzędu k jest skończona, to nasza wartość prawdopodobna zdążać będzie do zera wraz ze wzrostem n, i to szybciej niż 1/nk-1.

Wartość prawdopodobna sin(nu) dla bardzo dużej liczby n jest zatem równa zeru. By wyznaczyć tę wartość, potrzebowaliśmy pewnej umowy, lecz wynik się nie zmienia, niezależnie od tego jaką przyjęliśmy umowę. Narzuciliśmy sobie nieznaczne ograniczenia, zakładając, że funkcja (a) jest ciągła i okresowa, ale założenia te są tak naturalne, że trudno ich uniknąć.

Analiza tych trzech przykładów, tak różnych pod każdym względem, pozwoliła nam domyślić się, z jednej strony, jaka jest rola zasady, zwanej przez filozofów zasadą racji dostatecznej, z drugiej zaś strony - jakie znaczenie ma to, że wszystkie funkcje ciągłe mają pewne własności wspólne. Analiza prawdopodobieństwa w naukach fizycznych doprowadzi nas do tego samego wyniku.

III. - Prawdopodobieństwo w naukach fizycznych. - Przystąpmy teraz do zagadnień związanych z, jak to nazwaliśmy, drugim stopniem niewiedzy, czyli takich, w których znamy prawo, lecz nie znamy stanu początkowego układu. Moglibyśmy tu mnożyć przykłady, ale weźmy tylko jeden: jaki jest prawdopodobny rozkład planetoid na pasie zodiakalnym?

Wiemy, że planetoidy zachowują się zgodnie z prawami Keplera; możemy nawet, nie zmieniając w niczym natury zagadnienia, przyjąć, że wszystkie planetoidy poruszają się po okręgach leżących w jednej płaszczyźnie i że wiemy o tym. Nie wiemy natomiast, jakie było ich rozmieszczenie początkowe. Pomimo to nie wahamy się twierdzić, że obecnie rozmieszczenie to jest jednostajne. Dlaczego?

Niech b oznacza długość jednej z planetoid w chwili początkowej, czyli w chwili zero; niech a oznacza jej średnią prędkość. Długość planety w chwili obecnej t wynosi zatem at + b. Gdy mówimy, że rozkład obecny jest jednostajny, oznacza to, że wartość średnia sinusa i cosinusa at + b jest równa zeru. Dlaczego tak twierdzimy?

Wyobraźmy sobie każdą planetoidę jako punkt na płaszczyźnie, którego współrzędnymi są liczby ab. Wszystkie punkty leżą w pewnym obszarze płaszczyzny, a że są bardzo liczne, obszar ten wygląda, jakby był usiany punktami. Nie wiemy nic o rozmieszczeniu tych punktów.

Jak można zastosować rachunek prawdopodobieństwa do tego zagadnienia? Jakie jest prawdopodobieństwo, by jeden lub kilka z tych punktów znajdował się w określonej części płaszczyzny? Wobec naszej niewiedzy, zmuszeni jesteśmy uciec się do jakiegoś dowolnego założenia. Aby wytłumaczyć istotę tego założenia, zamiast wzoru matematycznego skorzystamy z obrazu przybliżonego, lecz konkretnego. Wyobraźmy sobie, że pokryliśmy naszą płaszczyznę warstwą materii o zmiennej gęstości, zmieniającej się w sposób ciągły. Umówimy się wówczas, że prawdopodobną ilość punktów na danej części płaszczyzny będziemy uważali za proporcjonalną do ilości fikcyjnej materii, która ją pokrywa. Jeśli zatem weźmiemy dwa obszary płaszczyzny o jednakowej rozciągłości, prawdopodobieństwo, by punkt reprezentujący jedną z planetoid znajdował się w jednym lub w drugim z tych obszarów, mają się do siebie jak gęstości średnie fikcyjnej materii w jednym lub w drugim obszarze.

Mamy zatem dwa rozkłady, jeden rzeczywisty, w którym punkty są bardzo liczne, bardzo gęsto rozłożone, lecz oddzielne, podobnie jak cząsteczki materii według hipotezy atomistycznej; drugi daleki od rzeczywistości, w którym zamiast punktów reprezentujących planetoidy mamy fikcyjną, ciągłą materię. Wiemy, że ten drugi rozkład nie może być rzeczywisty, ale nasza niewiedza skazuje nas na jego przyjęcie.

Gdybyśmy jeszcze mieli pojęcie o rzeczywistym rozkładzie punktów, moglibyśmy urządzić się tak, by na obszarze o pewnej rozciągłości gęstość tej fikcyjnej materii była w przybliżeniu proporcjonalna do liczby punktów albo, jeśli kto woli, atomów, zawartych w tym obszarze. Lecz nawet to nie jest możliwe i niewiedza nasza jest tak wielka, że zmuszeni jesteśmy wybrać dowolnie funkcję określającą gęstość naszej fikcyjnej materii. Musimy przyjąć tylko jedno nieuniknione ograniczenie: założymy, że funkcja ta jest ciągła. Jak się przekonamy, to wystarczy, aby dojść do określonego wniosku.

Jaki jest prawdopodobny rozkład planetoid w chwili t? Inaczej mówiąc, jaka jest prawdopodobna wartość sinusa długości w chwili t, to znaczy sin(at + b)? Zrobiliśmy na początku pewną dowolną umowę, lecz skoro się na nią zgodziliśmy, to wartość prawdopodobna jest już jednoznacznie określona. Rozłóżmy płaszczyznę na elementy powierzchni. Rozważmy wartość sin(at + b) w punkcie środkowym każdego elementu; pomnóżmy tę wartość przez powierzchnię elementu i przez odpowiadającą mu gęstość materii fikcyjnej; weźmy następnie sumę iloczynów odpowiadających wszystkim elementom płaszczyzny. Z definicji, suma ta jest równa średniej wartości, która tym samym ma postać pewnej całki podwójnej.

Wydawać by się mogło, że ta wartość średnia zależy od wyboru funkcji określającej gęstość fikcyjnej materii, a skoro funkcja ta jest dowolna, to możemy otrzymać dowolną wartość średnią, zależnie od wyboru funkcji. Pogląd ten byłby zupełnie błędny.

Z prostych obliczeń wynika, że całka podwójna maleje bardzo szybko w miarę jak rośnie t.

Choć nie wiedzieliśmy, jakie przyjąć założenie co do prawdopodobieństwa takiego, czy innego rozkładu początkowego, okazało się, że niezależnie od tego założenia, zawsze dostajemy tak sam wynik, co wybawia nas z kłopotu.

Niezależnie od tego, jaką wybierzemy funkcję , wartość średnia dąży do zera w miarę wzrostu t, a ponieważ planetoidy niewątpliwie okrążyły już Słońce bardzo wiele razy, to możemy twierdzić, że wartość średnia jest już bardzo mała.

Możemy wybrać jaką tylko chcemy, byle spełnione było jedno ograniczenie: funkcja ta musi być ciągła. Z punktu widzenia prawdopodobieństwa subiektywnego wybór funkcji nieciągłej byłby nierozsądny; z jakiego bowiem powodu mielibyśmy przypuszczać, że na przykład długość początkowa była równa dokładnie 0o, a nie była zawarta w przedziale od 0o do 1o?

Trudność ta zjawia się jednak znowu, gdy przechodzimy do rozpatrzenia prawdopodobieństwa obiektywnego, gdy przechodzimy od rozkładu urojonego, w którym założyliśmy, że fikcyjna materia jest ciągła, do rozkładu rzeczywistego, w którym punkty reprezentujące planetoidy tworzą jakby odizolowane atomy.

Wartość średnia sin(at + b) jest równa

sin (at + b)/n,

gdzie n oznacza liczbę planetoid. Zamiast całki podwójnej z funkcji ciągłej, mamy teraz sumę oddzielnych wyrazów, ale mimo to nikt nie wątpi na serio, że wartość średnia jest bardzo mała.

Jest tak dlatego, że punkty reprezentujące planetoidy są rozmieszczone bardzo gęsto na płaszczyźnie, a zatem suma oddzielnych wyrazów na ogół niewiele się różni od całki.

Całka jest granicą, do której dąży suma wyrazów, gdy liczba tych wyrazów rośnie nieograniczenie. Skoro wyrazy są bardzo liczne, suma różni się bardzo niewiele od tej granicy, czyli od całki, a zatem to, co powiedzieliśmy od całce, dotyczy również sumy.

Istnieją jednak przypadki wyjątkowe. Gdyby, na przykład, dla wszystkich planetoid obowiązywała równość

b = /2 - at,

to wszystkie planety w chwili t miałyby długość /2 i wartość średnia byłaby oczywiście równa 1. Tak byłoby wtedy, gdyby w chwili początkowej wszystkie planetoidy były rozmieszczone na pewnej linii wężowej o bardzo ciasnych zwojach. Każdy uzna, że taki rozkład początkowy jest bardzo mało prawdopodobny (a gdyby nawet tak było rzeczywiście, to rozkład planetoid nie byłby jednostajny w chwili obecnej, na przykład 1 stycznia 1900 roku, ale stałby się jednostajny już kilka lat później).

Odwołamy się i tutaj do zasady racji dostatecznej, do której zawsze wypada nam powracać. Moglibyśmy przyjąć, że początkowo planetoidy były rozmieszczone w przybliżeniu na linii prostej; moglibyśmy również przyjąć, że były rozmieszczone nieregularnie, ale zdaje się, że nie ma dostatecznych racji po temu, by nieznana przyczyna, dzięki której powstały, sprawiła również, że wszystkie leżą na krzywej tak regularnej, a zarazem tak złożonej, by obecny rozkład planetoid nie był jednostajny.

IV. Rouge et noir. Zagadnienia związane z grami hazardowymi, jak ruletka, są w gruncie rzeczy zupełnie analogiczne do powyższych.

Weźmy na przykład okrągłą tarczę, podzieloną na bardzo dużo równych segmentów, pomalowanych na przemian na czerwono i czarno. Strzałka obracająca się na osi umocowanej w środku tarczy, po wykonaniu wielu obrotów, zatrzymuje się przed jednym z segmentów. Prawdopodobieństwo, że segment ten jest czerwony, wynosi oczywiście 1/2.

Strzałka obraca się o kąt , większy od pewnej wielokrotności kąta pełnego; nie wiemy, jakie jest prawdopodobieństwo, że siła, z jaką puszczona została strzałka, jest taka, że kąt ten będzie zawarty między + d ; możemy jednak przyjąć pewną umowę; możemy założyć, że prawdopodobieństwo to wynosi ( )d ; funkcję ( ) możemy wybrać w sposób zupełnie dowolny, naturalne jest jednak założenie, że funkcja ta jest ciągła.

Niech oznacza długość każdego segmentu (liczoną na okręgu o promieniu jednostkowym). Mamy obliczyć całkę ( )d , oddzielnie po segmentach czerwonych i czarnych, a następnie porównać wyniki. Rozważmy przedział o długości 2 , złożony z jednego segmentu czarnego i jednego czerwonego. Niech Mm będą najmniejszą i największą wartością funkcji ( ) w tym przedziale. Całka po segmentach czerwonych jest mniejsza niż M , całka po wszystkich segmentach czarnych będzie większa niż m ; różnica będzie zatem mniejsza niż (M-m). Jeśli funkcja jest ciągła, a przedział bardzo mały w stosunku do całkowitego kąta obrotu strzałki, to różnica M - m będzie bardzo mała i prawdopodobieństwo będzie bliskie 1/2.

Rozumiemy przez to, że nie wiedząc nic o funkcji , musimy postępować tak, jak gdyby prawdopodobieństwo było równe 1/2. Z drugiej strony, stojąc na gruncie prawdopodobieństwa obiektywnego, rozumiemy również, dlaczego jeśli zaobserwujemy pewną liczbę rzutów, zarejestrujemy w przybliżeniu tyle samo rzutów czarnych, co czerwonych.

Wszyscy gracze znają to obiektywne prawo; popełniają jednak na jego podstawie osobliwy błąd, który nie daje się wyplenić, mimo że wiele razy zwracano już na niego uwagę. Gdy na przykład sześć razy pod rząd wypadło czerwone, stawiają oni na czarne i sądzą, że grają niemal na pewniaka, albowiem - mówią - bardzo rzadko się trafia, by czerwone wyszło siedem razy z rzędu.

W rzeczywistości prawdopodobieństwo wygranej zawsze pozostaje równe 1/2. Z obserwacji wprawdzie wynika, że seria siedmiu kolejnych czerwonych zdarza się bardzo rzadko, ale seria sześciu czerwonych i jednego czarnego zdarza się dokładnie tak samo często. Gracze zauważyli, że seria siedmiu czerwonych jest bardzo rzadka, natomiast nie zwrócili uwagi, że seria sześciu czerwonych i jednego czarnego jest równie rzadka, gdyż serie takie mniej zwracają na siebie uwagę.

V. Prawdopodobieństwo przyczyn. - Dochodzimy teraz do zagadnień dotyczących prawdopodobieństwa przyczyn, najważniejszych z uwagi na zastosowania naukowe. Na przykład, dwie gwiazdy są bardzo blisko siebie na kuli niebieskiej; czy pozorne to zbliżenie jest wynikiem prostego przypadku i czy gwiazdy te, choć leżą na niemal tej samej linii widzenia, znajdują się w różnych odległościach od Ziemi, a przeto są również bardzo oddalone od siebie? Czy też niewielka odległość na kuli niebieskiej odpowiada rzeczywiście niewielkiej odległości? Mamy tu zagadnienie o prawdopodobieństwie przyczyn.

Przypomnijmy sobie przede wszystkim, że na początku każdego zagadnienia o prawdopodobieństwie skutków z pośród tych, które rozpatrywaliśmy wyżej, zmuszeni byliśmy sformułować pewną umowę, mniej lub bardziej usprawiedliwioną. I jeśli wynik był najczęściej niezależny od tej umowy, przynajmniej w pewnej mierze, to działo się tak z uwagi na pewne założenia, pozwalające a priori odrzucać funkcje nieciągłe lub jakieś dziwaczne umowy.

Podobne kwestie powstają gdy rozważamy zagadnienia o prawdopodobieństwie przyczyn. Dany skutek może być wywołany przez przyczynę A lub przez przyczynę B. Jeśli go zaobserwowaliśmy, to jakie jest prawdopodobieństwo, że jego przyczyną było A? Chodzi tu o prawdopodobieństwo przyczyny a posteriori. Nie moglibyśmy go obliczyć, gdybyśmy nie przyjęli z góry pewnej mniej lub bardziej uzasadnionej umowy, jakie jest prawdopodobieństwo a priori, że przyczyna A wejdzie w grę, to znaczy prawdopodobieństwo takiego zdarzenia dla kogoś, kto nie obserwował danego skutku.

Aby lepiej wyjaśnić, o co tu chodzi, powróćmy do przytoczonego powyżej przykładu gry écarté; przeciwnik nasz daje po raz pierwszy i odwraca króla; jakie jest prawdopodobieństwo, że to szuler? Wzory, zaczerpnięte ze zwykłych wykładów rachunku prawdopodobieństwa, dają 8/9, co jest oczywiście wynikiem zaskakującym. Dokładniejsze zbadanie tych wzorów wskazuje jednak, że w takich rachunkach zakłada się milcząco, że zanim usiedliśmy do gry, uważaliśmy, że prawdopodobieństwo tego, że przeciwnik nie jest uczciwy, wynosi 1/2. Takie założenie jest niedorzeczne, gdyż w takim razie na pewno byśmy z nim nie grali, co tłumaczy również niedorzeczność wniosku.

Taka umowa o prawdopodobieństwie a priori była nieuzasadniona, dlatego też rachunek prawdopodobieństwa a posteriori doprowadził do błędnego wniosku. Rozumiemy zatem znacznie owej umowy wstępnej; dodałbym nawet, że gdybyśmy takiej umowy nie zawarli, zagadnienie prawdopodobieństwa a posteriori nie miałoby żadnego sensu; zawsze musimy ją przyjmować, albo jawnie, albo domyślnie.

Przejdźmy teraz do przykładu o charakterze bardziej naukowym. Chcemy ustalić pewne prawdo doświadczalne; prawo to, gdy je poznamy, można będzie przedstawić za pomocą pewnej krzywej. Wykonaliśmy pewną liczbę pomiarów, którym odpowiadają punkty na wykresie. Po otrzymaniu tych punktów, staramy się poprowadzić między nimi krzywą, tak aby jak najmniej się od nich oddalić, a jednak nadać tej krzywej regularny kształt, bez załamań, bez wyraźnych przegięć, bez raptownych zmian promienia krzywizny. Krzywa ta przedstawiać będzie prawdopodobne prawo; przypuszczamy, że da nam nie tylko wartości funkcji między punktami pomiarowymi, ale również pozwoli poznać wartości zaobserwowane dokładniej niż bezpośrednia obserwacja (właśnie dlatego wymagamy, by krzywa przechodziła w pobliżu punktów doświadczalnych, nie zaś dokładnie przez wszystkie punkty).

Jest to zagadnienie prawdopodobieństwa przyczyn. Skutki - to wykonane pomiary; zależą one od kombinacji dwóch przyczyn: od prawdziwego prawa, rządzącego danym zjawiskiem i od błędów pomiarów. Chodzi o to, żeby znając skutki, obliczyć prawdopodobieństwo, że zjawisko przebiega zgodnie z danym prawem i że pomiary były obciążone takimi a takimi błędami. Najbardziej prawdopodobne prawo odpowiada wówczas nakreślonej krzywej, a najbardziej prawdopodobny błąd jednego pomiaru wyraża odległość między danym punktem a krzywą.

Zagadnienie to nie miałoby sensu, gdybyśmy przed wykonaniem pomiarów nie mieli pewnego pojęcia a priori o prawdopodobieństwie tego lub innego prawa oraz nie potrafili ocenić prawdopodobnych błędów pomiarów.

Jeśli nasze przyrządy pomiarowe są wysokiej jakości (co wiedzieliśmy, zanim wykonaliśmy pomiary), nie pozwolimy naszej krzywej oddalać się znacznie od punktów przedstawiających surowe wyniki pomiarów. Jeśli przyrządy są kiepskie, możemy oddalić się od nich nieco bardziej, aby otrzymać mniej powykrzywianą krzywą; poświęcamy wtedy więcej by uzyskać regularny przebieg krzywej.

Czemu staramy się nakreślić krzywą bez wielu zgięć? Dlatego, że uznajemy a priori prawo, przedstawione przez funkcję ciągłą (lub przez funkcję, której pochodne wysokiego rzędu są bardzo małe) za bardziej prawdopodobne niż prawo, które nie spełnia tych warunków. Bez tego założenia omawiane zagadnienie nie miałoby sensu, interpolacja nie byłaby możliwa, niepodobna byłoby wyprowadzić żadnego prawa na podstawie skończonej liczby pomiarów; nauka nie istniałaby.

Pięćdziesiąt lat temu fizycy uważali, że prawo proste, o ile wszystkie pozostałe okoliczności są jednakowe, jest bardziej prawdopodobne niż prawo skomplikowane. Odwoływali się nawet do tej zasady by bronić prawa Mariotte'a wbrew doświadczeniom Regnaulta. Dzisiaj wyrzekli się już tej wiary; jakże często zmuszeni są jednak postępować tak, jakby ją zachowali! Z tej tendencji pozostała wiara w ciągłość; jak widzieliśmy powyżej, gdyby i jej przyszło się wyrzec, nauka doświadczalna byłaby niemożliwa.

VI. Teoria błędów. - To prowadzi nas do analizy teorii błędów, związanej bezpośrednio z zagadnieniem prawdopodobieństwa przyczyn. I tutaj stwierdzamy skutki, mianowicie pewną liczbę rozbieżnych obserwacji i staramy się odgadnąć przyczyny, którymi są, z jednej strony, prawdziwa wartość mierzonej wielkości, a z drugiej - błąd każdego pojedynczego pomiaru. Trzeba obliczyć, jaka jest a posteriori wielkość prawdopodobna każdego błędu, a tym samym również prawdopodobna wartość mierzonej wielkości.

Zgodnie z powyższymi wyjaśnieniami, niepodobna przeprowadzić tych obliczeń, nie przyjmując a priori, to znaczy przed wszystkimi pomiarami, pewnego prawa rządzącego prawdopodobieństwem błędów. Czy istnieje prawo błędów?

Prawem błędów, przyjmowanym we wszystkich takich obliczeniach, jest prawo Gaussa, które opisuje pewna krzywa przestępna, znana jako krzywa dzwonowa.

Przypomnijmy sobie przede wszystkim klasyczne rozróżnienie błędów systematycznych i przypadkowych. Jeśli mierzymy pewną długość zbyt długim metrem, zawsze otrzymamy zbyt mały wynik i kilkakrotne powtórzenie pomiaru nic tu nie pomoże; jest to błąd systematyczny. Jeśli mierzymy metrem dokładnym, możemy się również pomylić, ale gdy powtarzamy ten sam pomiar wiele razy, mylimy się raz w jedną stronę, raz w drugą, a zatem po uśrednieniu błąd będzie dążył do zera. Są to błędy przypadkowe.

Błędy systematyczne nie podlegają oczywiście prawu Gaussa, ale jak wygląda sytuacja z błędami przypadkowymi? Podjęto wiele prób dowiedzenia tego prawa; niemal wszystkie są pospolitymi paralogizmami. Można wszakże udowodnić prawo Gaussa, przyjmując następujące założenia: popełniony błąd jest przypadkowy jest sumą bardzo wielu błędów cząstkowych i niezależnych, każdy błąd cząstkowy jest mały i podlega pewnemu prawu prawdopodobieństwa, o którym wiemy tylko, że prawdopodobieństwo błędu dodatniego jest takie samo, jak błędu równego co do wartości bezwzględnej, lecz o przeciwnym znaku. Warunki te są spełnione często, lecz nie zawsze; nazwę błędów przypadkowych zachowamy dla tych, które czynią im zadość.

Widzimy zatem, że metoda najmniejszych kwadratów nie zawsze jest poprawna; na ogół fizycy odnoszą się do niej z większą nieufnością niż astronomowie. Związane jest to zapewne z tym, że ci ostatni, prócz błędów systematycznych, które napotykają równie często jak fizycy, muszą walczyć z pewną przyczyną błędów niezmiernie ważną, a zupełnie przypadkową: mam na myśli zaburzenia atmosferyczne. Ciekawie jest słuchać, jak jakiś fizyk dyskutuje z astronomem na temat pewnej metody obserwacyjnej; fizyk, przeświadczony, że jeden dobry pomiar więcej jest wart od wielu złych, skupia uwagę na wyeliminowaniu wszelkich możliwych błędów systematycznych, na co astronom powiada: "Ależ w ten sposób będziecie mogli obserwować tylko niewiele gwiazd, błędy przypadkowe przez to nie znikną".

Jaki powinniśmy z tego wyciągnąć wniosek? Czy należy nadal stosować metodę najmniejszych kwadratów? Trzeba tu uczynić pewne rozróżnienie: wyrugowaliśmy wszystkie błędy systematyczne, których istnienie podejrzewaliśmy, ale wiemy dobrze, że jakieś jeszcze pozostały, lecz nie potrafimy ich wykryć. Musimy na coś się zdecydować i przyjąć jakąś wartość ostateczną, którą będziemy uważali za wartość prawdopodobną; oczywiste jest, że najlepsze, co mamy wówczas do zrobienia, to zastosowanie metody Gaussa. Stosujemy tu regułą praktyczną, dotyczącą prawdopodobieństwa subiektywnego. Nie da się temu nic zarzucić.

Niektórzy chcą iść dalej i twierdzą, że nie tylko wartość prawdopodobna wynosi tyle a tyle, ale nadto prawdopodobny błąd w stosunku do wartości prawdziwej wynosi tyle a tyle. Jest to stanowisko całkowicie nieuprawnione; byłoby ono słuszne, gdybyśmy mieli pewność, że wszystkie błędy systematyczne zostały wyeliminowane, ale o tym nic nie wiemy. Wyobraźmy sobie, że mamy dwie serie obserwacji. Stosując regułę najmniejszych kwadratów stwierdzamy, że prawdopodobny błąd pierwszej serii jest dwa razy mniejszy niż drugiej. A jednak druga seria może być lepsza, jeśli pierwsza jest obciążona dużym błędem systematycznym. Nie możemy powiedzieć nic ponad to, że pierwsza seria jest prawdopodobnie lepsza od drugiej, ponieważ dla niej błąd przypadkowy jest mniejszy, ale nie mamy żadnych podstaw aby twierdzić, że błąd systematyczny w jednej serii jest mniejszy niż w drugiej, ponieważ o tym nic nie wiemy.

VII. Wnioski. - W powyższych rozważaniach poruszyłem wiele zagadnień, a żadnego nie rozwiązałem. Nie żałuję jednak, że je przedstawiłem, bowiem być może pobudzą one czytelnika do rozmyślań nad tymi subtelnymi kwestiami.

Pewne sprawy są jednak ustalone. By przystąpić do obliczenia prawdopodobieństwa, a nawet żeby taki rachunek miał sens, należy przyjąć jako punkt wyjścia pewne założenia lub umowę, która zawsze jest w pewnej mierze arbitralna. W wyborze tej umowy kierować się możemy tylko zasadą racji dostatecznej. Na nieszczęście, zasada ta jest wielce nieokreślona i elastyczna; widzieliśmy też w pobieżnym naszym przeglądzie, że przybierała ona wiele rozmaitych postaci. Postacią, w jakiej napotykaliśmy ją najczęściej, jest wiara w ciągłość, wiara, którą trudno byłoby uzasadnić przez ścisłe rozumowanie, bez której jednak wszelka nauka byłaby niemożliwa. Zagadnieniami, do których rachunek prawdopodobieństwa można skutecznie stosować, są te, w których wynik nie zależy od założenia początkowego, byle tylko założenie to było zgodne z warunkiem ciągłości.


[  góra strony  ]

Wiw.pl  |  Na bieżąco  |  Informacje  |  Co nowego  |  Matematyka i przyroda  |  Astronomia  |  Biologia  |  Fizyka  |  Matematyka  |  Modelowanie rzeczywistości  |  Humanistyka  |  Filozofia  |  Historia  |  Kultura antyczna  |  Literatura  |  Sztuka  |  Czytaj  |  Biblioteka  |  Delta  |  Wielcy i więksi  |  Przydatne  |  Słowniki  |  Co i gdzie studiować  |  Wszechświat w obrazkach