Delta
  Wiw.pl   Na bieżąco:  Informacje   Co nowego   Matematyka i przyroda:  Astronomia   Biologia   Fizyka   Matematyka   Modelowanie rzeczywistości   Humanistyka:  Filozofia   Historia   Kultura antyczna   Literatura   Sztuka   Czytaj:  Biblioteka   Delta   Wielcy i więksi   Przydatne:  Słowniki   Co i gdzie studiować   Wszechświat w obrazkach    
  Jesteś tutaj:  Wirtualny Wszechświat > Delta > Fizyka - spis artykułów >  POWSTANIE TEORII KWANTOWEJ  
  Jesteś tutaj
Wybór artykułów z miesięcznika "Delta"
"Delta" to miesięcznik popularyzujący matematykę, fizykę i astronomię na bardzo wysokim poziomie, wydawany od 1974 roku.
Wirtualny Wszechświat prezentuje wybór tekstów publikowanych w "Delcie" od pierwszego numeru po początek XXI wieku.
  Szukacz
Delta 06/1979
Grzegorz BIAŁKOWSKI
POWSTANIE TEORII KWANTOWEJ

W ostatnich latach XIX i pierwszych XX wieku fizyka przeżywała jedyny jak dotąd kryzys w swoich dziejach. Co to właściwie znaczy "kryzys" w odniesieniu do fizyki? Normalny, "niekryzysowy" bieg wydarzeń jest taki (niestety, jakże rzadko się to zdarza!), że napływają ciągle nowe dane doświadczalne i że wszystkie te dane znajdują swoje wyjaśnienie ilościowe w istniejącej teorii. Jeśli nowe dane nie pojawiają się i brak też - częściowo zapewne z braku bodźców - nowych idei teoretycznych, to właściwym słowem jest raczej zastój, a nie kryzys. Załóżmy więc, że dane pojawiają się, ale teoria nie jest w stanie wyjaśnić ich ilościowo. Wprawdzie "na oko" wszystko się powinno zgadzać, ale są jakieś haczyki w teorii, nie powstała, czy też nie rozwinęła się jakaś technika rachunkowa i oto możemy się pocieszyć tylko jakąś luźną zgodnością jakościową, mimo iż przecież fizyka jest nauką ilościową. Trudno to jeszcze nazwać kryzysem, choć sytuacja jest niepokojąca. Gorzej jest, jeśli nowe dane napływają, teoria jest w stanie przewidzieć wyniki doświadczalne, no i przewidywania te nie są zgodne z wynikami rzeczywistych pomiarów. To właśnie jest kryzys i w takiej sytuacji znalazła się fizyka na przełomie stuleci. Trudno tu byłoby opisywać całość skomplikowanego układu danych, obliczeń i idei teoretycznych, bo jest to raczej temat na całą dużą książkę. A więc tylko poprzestaniemy na kilku uwagach dotyczących historii powstania teorii kwantowej.


Pierwszą jaskółką nadchodzących przemian, choć pozostawała ona potem przez wiele lat na uboczu, jak dziwaczne zwierzę, które trudno jest w jakikolwiek sposób zaklasyfikować, było odkrycie skromnego nauczyciela gimnazjum w Bazylei, Balmera, dokonane w r. 1885, że kilka (cztery) linii promieniowania atomów wodoru, znajdujących się w widmie widzialnym, spełnia warunek

= Bn2/(n2 - 4)

( - długość fali, n = 3, 4, 5, 6, B - stała). Wzór ten miał dwie zaskakujące własności: po pierwsze, bardzo dokładnie opisywał dane doświadczalne, a po drugie, był całkowicie niezrozumiały na gruncie teoretycznym.

Innym, jak się okazało, brzemiennym w konsekwencje przykładem zjawiska, którego rzeczywisty obraz nie zgadzał się z istniejącą teorią, był rozkład natężenia w promieniowaniu ciała doskonale czarnego. Oparte na ideach klasycznych rozumowanie, które doprowadziło do prawa znanego dziś jako prawo Rayleigha-Jeansa, nie tylko było niezgodne z danymi, ale w ogóle prowadziło do nonsensownych przewidywań teoretycznych. Prawo Rayleigha-Jeansa mówi bowiem, że w promieniowaniu ciała doskonale czarnego gęstość energii wypromieniowywanej rośnie z częstością fali jak jej kwadrat. Nonsensowność tego prawa dla bardzo dużych częstości (a więc małych długości) fali jest oczywista. Z drugiej jednak strony, istniało pod koniec ubiegłego stulecia półempirycznie wprowadzone prawo Wiena, obowiązujące właśnie dla bardzo wielkich częstości (i dobrze zgadzające się z doświadczeniem w tym obszarze), które przewiduje, że gęstość energii promieniowania maleje wykładniczo z częstością, a ściślej biorąc, maleje jak funkcja wykładnicza mnożona przez trzecią potęgę częstości. Zagadnieniem tym zainteresował się Max Planck, któremu udało się wpaść na poprawną formułę interpolacyjną między prawem Rayleigha-Jeansa (obowiązującym tylko dla małych częstości) i Wiena (dobrym tylko dla częstości dużych). Mówiąc krótko, Planck, bez żadnych głębszych podstaw teoretycznych, odgadł poprawny wzór na gęstość energii wypromieniowywanej przez ciało doskonale czarne. Oczywiście, sukces był znaczny, ale jego niezrozumiała przypadkowość zbyt dręczyła Plancka, aby nie starał się on jakoś wzoru tego uzasadnić.

Przełom nastąpił w ostatnich miesiącach roku 1900, na zamknięcie zatem XIX stulecia. Planck zauważył, że jego empiryczny wzór można "wyprowadzić", jeśli się założy, że promieniowanie ciała doskonale czarnego emitowane jest przez oscylatory, których energia nie może być całkowicie dowolna, lecz musi spełniać warunek

E = nh,

gdzie n = 0, 1, 2, ..., a h jest pewną stałą, która dziś, słusznie nosi nazwę stałej Plancka i jest jedną z podstawowych stałych przyrody. Można wątpić, czy Planck przewidywał kolosalną karierę literki "h", gdy wprowadził ją do swego wzoru na promieniowanie. Jak widać, energia może być przez oscylator pochłaniana i emitowana tylko pewnymi porcjami, które są pewnymi wielokrotnościami najmniejszej porcji, dla której Planck wprowadził nazwę "kwant" (energii). Łaciński źródłosłów "kwantu" jest mało romantyczny: wszak quantum po łacinie znaczy po prostu "ilość". Oczywiście, założenie Plancka, choć prowadziło do poprawnego wzoru na promieniowanie, było od początku do końca niezrozumiałe z punktu widzenia fizyki klasycznej, a nawet z nią sprzeczne. Fizyka klasyczna bowiem zezwala na to, by oscylator miał dowolną wartość energii. Innymi słowy, hipotezę Plancka w r. 1900 trudno było nazwać inaczej, jak łataniem dziury.


I może pojęcie kwantu nie zrobiłoby żadnej kariery w fizyce, gdyby nie dalsze odkrycia. Jednym z nich było zjawisko fotoelektryczne, dobrze nam wszystkim znane, którego charakterystyczne cechy ilościowe znów są zupełnie niezgodne z klasyczną falową teorią światła. Mówią one bowiem, że: (a) liczba wybijanych z metalu elektronów zależy od natężenia światła padającego na powierzchnię tego metalu, oraz (b) energia tych elektronów rośnie z częstością fali świetlnej. Zjawisko to wyjaśnił, jak wiemy, Einstein w r. 1905, wprowadzając pojęcie fotonu. Foton, zgodnie z koncepcją Einsteina, miałaby to być cząstka promieniowania elektromagnetycznego, mająca określoną energię i pęd, rosnące z częstością fali świetlnej liniowo, która padając na metal w akcie zderzenia wybija z niego elektrony. To przywrócenie - w pewnej mierze - do łask korpuskularnej teorii światła, wydawałoby się już całkowicie nieaktualne po stwierdzeniu istnienia ugięcia i interferencji światła, zjawisk typowo falowych, raz jeszcze świadczyło o tym, że dziewiętnastowieczny gmach fizyki zaczyna się kruszyć.

Badania nad promieniotwórczością wprowadziły fizykę wkrótce w głąb atomu. W latach 1910-tych wykonano szereg doświadczeń nad rozpraszaniem cząstek na cienkich foliach metalowych (wykonanych ze złota). Okazało się, że mimo iż przeważająca część cząstek po zderzeniu z atomami złota odchyla się niewiele od kierunku pierwotnego, to jednak nieoczekiwanie dużo tych cząstek odchylało się o bardzo duży kąt, czasem bliski 180°. Rozpraszanie to, jak wykazał Rutherford, wynika ze szczególnego rozkładu ładunku w atomie. Gdyby ładunek dodatni w atomie był rozmieszczony mniej więcej z jednakową gęstością w całej objętości atomu, na cząstkę nigdy nie mogłaby podziałać tak duża siła, która by tę cząstkę odrzuciła praktycznie biorąc wstecz. Wynika stąd, że siła elektromagnetyczna działająca na ładunek zbliżający się do jednorodnie naładowanej kuli rośnie jak 1/r2, gdy r maleje; dzieje się tak jednak tylko do chwili, w której ów ładunek nie zanurzy się w kuli, gdyż wówczas siła maleje jak r. Tak więc maksymalna wartość siły, która może podziałać na ładunek zbliżający się do kuli, jest tym większa, im mniejszy jest promień owej kuli (przy założeniu, oczywiście, że całkowity ładunek pozostaje bez zmiany). Na podstawie tego rozumowania i odpowiednich obliczeń Rutherford mógł wykazać, że cały ładunek dodatni atomu musi być skupiony w niezwykle małym obszarze, którego promień jest jakieś 100 000 razy mniejszy od promienia atomu. Obszar ten to, jak wiemy, jądro atomowe. Nawiasem mówiąc, Rutherford w swoich obliczeniach używał teorii klasycznej, opartej jeszcze na mechanice newtonowskiej. Doszedł zaś do wniosku zasadniczo z tą teorią sprzecznego.


W teorii klasycznej jedyną możliwością utrzymania równowagi w układzie dwu przyciągających się ciał jest zrównoważenie tej siły przyciągania odpychającą siłą odśrodkową. Innymi słowy, ciała te muszą wokół siebie krążyć. Tak jest na przykład w układzie Słońce-Ziemia i tak mogłoby też być w atomie. Okazuje się jednak, że teoria elektromagnetyzmu przewiduje, że niejednostajnemu ruchowi ładunku musi zawsze towarzyszyć promieniowanie elektromagnetyczne, a więc, w efekcie, utrata energii przez układ. Taka zaś strata - to stopniowe zmniejszanie się prędkości ładunku, a więc też i stopniowy spadek na przyciągające centrum. Atomy zbudowane jak układ planetarny musiałyby więc być nietrwałe. I to jak! Ich czas życia byłby rzędu 10-8 s, a więc i my sami, złożeni bądź co bądź z tych samych atomów (choć może nie tylko złota) żylibyśmy tak właśnie krótko. Co więcej, widmo promieniowania emitowanego przez atomy, stopniowo zmniejszające swoją energię, musiałoby mieć charakter ciągły, wbrew obserwacjom, częściowo ujętym ilościowo wzorem Balmera. Fizyka klasyczna znalazła się więc w ślepym zaułku. Stosując jej prawa, dochodziło się do wniosków całkowicie z nią sprzecznych. Można powiedzieć, że popełniła ona samobójstwo. Wyjście z tej sytuacji, aczkolwiek częściowe i niedoskonałe, które właściwie każdy szanujący się fizyk w owych czasach powinien był odrzucić, zostało podane w r. 1913 przez Nielsa Bohra. Bohr w teorii swej przyjął: (a) rutherfordowski (planetarny) model budowy atomu, w którym elektrony poruszają się wokół jądra po jakichś kolistych orbitach, (b) hipotezę wyróżnionych stanów kwantowych Plancka, zakładając, że atom może się znajdować w sposób trwały tylko w pewnych stanach o wyróżnionej energii, oraz (c) hipotezę fotonów Einsteina, zgodnie z którą emisja promieniowania elektromagnetycznego możliwa jest tylko w postaci fotonów i zachodzi wyłącznie, jak stąd widać, przy przejściu atomu od jednego wyróżnionego stanu energetycznego do innego.

Postulaty te nie tylko wyjaśniają trwałość atomu, w każdym razie w stanie o najniższej energii, ale tłumaczą też nieciągły charakter widma promieniowania atomowego. Są one jednak całkowicie sprzeczne z fizyką klasyczną. Cóż to jednak znaczy wobec tego, że dają one opis nie tylko jakościowy, ale i ilościowy promieniowania atomowego? Po 28 latach wzór Balmera znalazł swoje wyjaśnienie.

Po dalszych dwunastu latach okazało się, że postulaty Bohra były w gruncie rzeczy niepoprawne. Znaleziono, dzięki pracom Heisenberga, Schrödingera, Diraca, Pauliego, Borna i wielu innych wybitnych fizyków, nową, poprawną wersję mechaniki kwantowej. Nie jest ona wolna od pewnych trudności, nie wiemy zatem, czy pewnego dnia nie zostanie ona zastąpiona teorią jeszcze doskonalszą. Oczywiście nie będzie nią dawna teoria klasyczna, tyle tylko jest pewne.


W tej tak niezwykłej historii pierwszych piętnastu lat teorii kwantowej uderzają pewne dziwne fakty. Przede wszystkim, wśród owych przełomowych prac prawie nie ma takich, które by były całkowicie poprawne. W każdym razie, nawet jeśli wniosek jest słuszny, to droga, która do niego doprowadziła, jest co najmniej w pewnym stopniu błędna. I nic w tym dziwnego. Odgadując nową teorię, fizycy starają się przecież oprzeć na tym, co jest już znane, a więc na teorii, która w przyszłości ma zostać odrzucona. Z góry zaś trudno przewidzieć, który jej element przetrwa rewolucję. Po drugie, poszczególne odkrycia niesłychanie się ze sobą zazębiają. Chciałoby się powiedzieć, że gdy nadchodzi właściwy czas, to nowa teoria narasta lawinowo: mała grudka śniegu popchnięta w grudniu 1900 roku przez Plancka urosła do potężnej lawiny, w której grzmocie nadal żyjemy. Po trzecie, w odkryciach niezwykłą rolę odgrywa element przypadku. Gdyby na przykład prawo Coulomba miało inną postać niż ma, wzór klasyczny i kwantowy na rozpraszanie w polu tej siły różniłyby się i Rutherford na podstawie znajomości wzoru klasycznego może by nie wydedukował istnienia jądra atomowego. Takich "gdyby" w historii kwantów było więcej. Po czwarte, nowa teoria nie powstała ot tak, "z głowy". Konieczne były coraz to nowe doświadczenia i ścisła współpraca teoretyków i eksperymentatorów. Po piąte wreszcie - czego nie miałem okazji zademonstrować w tym artykule, ale do czego może warto będzie kiedyś powrócić - fizycy w poszukiwaniu nowej teorii po trosze "nawracają się" na filozofię, dziedzinę, którą często w dniach powodzenia nieco sobie lekceważą. Co jest jednak także dość charakterystyczne, filozofia, która poszczególnym fizykom służy jako latarnia morska kierująca ich do właściwego portu, bardzo często okazuje się nie tą, która ostatecznie pozwala na najgłębsze zrozumienie nowych odkryć, i która potem, przynajmniej częściowo, triumfuje. Choć więc nauka, i to szczególnie taka jak fizyka, ma swoją logikę, to trudno to powiedzieć o jej historii.




[góra strony]
Wiw.pl  |  Na bieżąco  |  Informacje  |  Co nowego  |  Matematyka i przyroda  |  Astronomia  |  Biologia  |  Fizyka  |  Matematyka  |  Modelowanie rzeczywistości  |  Humanistyka  |  Filozofia  |  Historia  |  Kultura antyczna  |  Literatura  |  Sztuka  |  Czytaj  |  Biblioteka  |  Delta  |  Wielcy i więksi  |  Przydatne  |  Słowniki  |  Co i gdzie studiować  |  Wszechświat w obrazkach