Indeks
|
|
Źródło
|
|
|
Leon Lederman, Dick Teresi BOSKA CZĄSTKA Jeśli Wszechświat jest odpowiedzią, jak brzmi pytanie? Przełożyła Elżbieta Kołodziej-Józefowicz
|
|
|
|
|
|
|
|
Z powrotem do maszyn: trzy przełomy technologiczne |
|
Z powrotem do maszyn: trzy przełomy technologiczne
|
|
pośród wielu przełomów technologicznych, które pozwoliły przyspieszać cząstki w zasadzie do nieograniczonych energii (jeśli nie liczyć ograniczeń nakładanych przez budżet), trzy zasługują na dokładniejsze omówienie.
|
Pierwszy z nich wiąże się z odkryciem zasady stabilności fazowej przez radzieckiego geniusza Władimira J. Wekslera oraz, niezależnie, przez Edwina McMillana, fizyka z Berkeley. Nasz wszędobylski norweski inżynier Rolf Wideröe niezależnie opatentował ten sam pomysł. Stabilność fazowa jest na tyle istotna, że chyba usprawiedliwiona będzie kolejna metafora. Wyobraź sobie, drogi Czytelniku, dwie półkoliste miseczki o maleńkich płaskich denkach. Obróć jedną z nich do góry dnem i połóż małą kulkę na płaskiej części, która teraz jest wieczkiem. Połóż drugą kulkę na dnie nie odwróconej miski. Obie kulki znajdują się w stanie spoczynku. Ale czy w obu wypadkach jest to stan stabilny? Nie. By się o tym przekonać, trąć lekko każdą z nich. Kulka numer 1 stoczy się po miseczce i jej stan ulegnie radykalnej zmianie. Była niestabilna. Kulka numer 2 wtoczy się trochę w górę po ściance miseczki, wróci na dno, wespnie się po drugiej stronie i tak będzie oscylowała wokół położenia równowagi. To jest stabilność.
|
Obliczenia matematyczne opisujące zachowanie cząstek w akceleratorze mają wiele wspólnego z opisem tych dwóch stanów. Jeśli niewielkie zaburzenie – na przykład nieznaczne zderzenia cząstki z atomem gazu, który pozostał w komorze akceleratora, albo z inną przyspieszaną cząstką – prowadzi do znacznej zmiany ruchu, to nie ma w tym wypadku podstawowej stabilności i cząstka ta prędzej czy później nam przepadnie. Z drugiej strony, jeśli podobne drobne zaburzenia doprowadzają jedynie do niewielkich oscylacyjnych odchyleń od idealnego toru, mamy układ stabilny.
|
Postęp w projektowaniu akceleratorów dokonywał się w wyniku subtelnego współdziałania rozważań analitycznych (teraz w wysokim stopniu skomputeryzowanych) z nowymi wynalazkami: pomysłowymi urządzeniami, w których konstrukcji często wykorzystywano osiągnięcia techniki radarowej z okresu wojennego. Zasadę stabilności fazowej zastosowano w wielu urządzeniach poprzez użycie sił elektrycznych o częstościach radiowych. Stabilność fazowa w akceleratorze zostaje osiągnięta wtedy, gdy tak uregulujemy częstość przyspieszających zmian napięcia, aby cząstka pojawiała się w szczelinie w nieco nieodpowiednim momencie, dzięki czemu uzyskamy niewielką zmianę jej toru. Gdy cząstka pojawi się przy szczelinie następnym razem, błąd zostanie skorygowany. Już wcześniej, gdy omawiałem zasadę działania synchrotronu, podałem przykład zastosowania tej zasady. W rzeczywistości zjawisko to polega na tym, że błąd jest nadmiernie korygowany i cząstka oscyluje wokół idealnej fazy, w której osiągane jest odpowiednie przyspieszenie. Tak jak kulka na dnie miseczki.
|
Kolejny przełom nastąpił w roku 1952, kiedy w Brookhaven ukończono budowę Cosmotronu – akceleratora o mocy 3 GeV. Grupa pracujących przy akceleratorze fizyków oczekiwała wizyty kolegów z CERN w Genewie, gdzie projektowano urządzenie o mocy 10 GeV. W trakcie przygotowań do spotkania trzej fizycy dokonali ważnego odkrycia. Stanley Livingston (uczeń Lawrence'a), Ernest Courant i Hartland Snyder byli przedstawicielami nowego gatunku fizyków: teoretyków od akceleratorów. Natknęli się na zjawisko, zwane silnym ogniskowaniem. Zanim opowiem szczegółowo o drugim przełomie, pragnę podkreślić, że zagadnienia dotyczące akceleratorów stały się wyrafinowaną i nadzwyczaj zawiłą dziedziną wiedzy. Warto powtórzyć kilka podstawowych faktów. Mamy więc szczelinę, w której pole elektryczne zmienia się z częstością radiową, dzięki czemu mijające ją za każdym razem cząstki zyskują pewną porcję energii. Żeby wielokrotnie korzystać ze szczeliny, za pomocą magnesów utrzymujemy cząstkę na mniej więcej kołowej orbicie. Maksymalna energia, jaką cząstka może uzyskać w akceleratorze, zależy od dwóch czynników: największego promienia orbity, na jaki pozwala magnes, oraz największego natężenia pola magnetycznego dopuszczalnego przy tym promieniu. Możemy zwiększać energię osiąganą w nowych maszynach albo zwiększając ich promień, albo podwyższając maksymalną moc pola magnetycznego; albo robiąc obie te rzeczy jednocześnie.
|
Gdy te dwa parametry są już ustalone, nadanie cząstce zbyt wielkiej energii spowoduje, że wypadnie ona poza strefę oddziaływania magnesu. W roku 1952 cyklotrony nie mogły przyspieszać cząstek do energii wyższych niż 1000 MeV. Synchrotrony utrzymują cząstki na orbicie o stałym promieniu dzięki zmiennemu polu magnetycznemu. Natężenie pola magnetycznego w synchrotronie na początku procesu przyspieszania jest niewielkie (takie, jakiego wymagają niewielkie energie wprowadzanych doń cząstek) i stopniowo wzrasta do maksymalnej wartości. Synchrotron ma kształt obwarzanka, którego promień w różnych maszynach budowanych w latach pięćdziesiątych wynosił 3–16 metrów. Pozwalały one na przyspieszanie cząstek do 10 GeV.
|
Problem, któremu poświęcili się pomysłowi teoretycy, dotyczył tego, jak utrzymać cząstki w zwartej i stabilnej wiązce jak najbardziej przypominającej idealną cząstkę poruszającą się bez zaburzeń w doskonale jednorodnym polu magnetycznym. Ponieważ cząstki przebywają bardzo długą drogę, nawet najmniejsze zaburzenia i niedoskonałości pola magnetycznego mogą wytrącać je z idealnej orbity. Po jakimś czasie może się okazać, że nie mamy już żadnej wiązki. Dlatego też trzeba stworzyć warunki dla stabilnego przyspieszania. Obliczenia związane z tym zagadnieniem były tak skomplikowane – jak zauważył pewien żartowniś – że aż brwi się rabinowi poskręcały.
|
Silne ogniskowanie polega na takim ukształtowaniu pól magnetycznych sterujących cząstkami, aby utrzymywały je znacznie bliżej idealnej orbity. Sedno pomysłu tkwi w tym, żeby poszczególnym biegunom nadać odpowiedni, lekko zaokrąglony kształt. Dzięki temu siły magnetyczne działające na cząstki wprawią je w szybki ruch oscylacyjny o maciupeńkiej amplitudzie wokół idealnej orbity. W ten sposób osiągamy stabilność. Przed wprowadzeniem silnego ogniskowania obwarzankowate komory próżniowe musiały mieć 50–100 cm szerokości i wymagały magnesów o podobnej wielkości. Przełom zapoczątkowany w Brookhaven doprowadził do zredukowania rozmiarów komory próżniowej do 7,5–12,5 cm. Rezultat? Bardzo znaczne zmniejszenie kosztu akceleratora w przeliczeniu na jednostkę osiąganej energii.
|
Silne ogniskowanie zmieniło kosztorysy i bardzo szybko uświadomiło, że możliwa jest budowa synchrotronu o promieniu około 60 m. Później pomówimy o drugim parametrze: o natężeniu pola magnetycznego. Dopóki do wyrobu magnesu używa się żelaza, natężenie pola ograniczone jest do dwóch tesli – tyle żelazo może wytrzymać i nie zsinieć z wysiłku. Przełom jest właściwym słowem na określenie silnego ogniskowania i jego konsekwencji. Po raz pierwszy zastosowano je w urządzeniu przyspieszającym elektrony do energii 1 GeV, zbudowanym przez Roberta Wilsona w Cornell. Podobno projekt, który złożyła grupa z Brookhaven w sprawie budowy nowego urządzenia przyspieszającego protony, miał postać dwustronicowego listu! (Można w tym miejscu zacząć biadać nad rozrostem biurokracji, ale to się na nic nie zda). Projekt ten został zatwierdzony i w efekcie w 1960 roku w Brookhaven powstała maszyna o mocy 30 GeV, znana jako AGS. CERN porzucił swoje pierwotne plany budowy urządzenia starego typu o mocy 10 GeV i przy użyciu nowej techniki silnego ogniskowania skonstruował – za tę samą cenę – akcelerator o mocy 25 GeV. Zaczął on działać w roku 1959.
|
Pod koniec lat sześćdziesiątych zaprzestano stosowania powykrzywianych magnesów i zamiast nich wprowadzono różne magnesy, spełniające oddzielne funkcje. Instaluje się zwykły dipol, który utrzymuje cząstkę na orbicie, a funkcję silnego ogniskowania powierza się magnesowi kwadrupolowemu o biegunach symetrycznie rozmieszczonych wokół komory próżniowej.
|
Wykorzystując obliczenia matematyczne, fizycy nauczyli się, w jaki sposób do kierowania i skupiania cząstek w wiązki można stosować złożone magnesy o rozmaitych kształtach. Magnesy o większej liczbie biegunów – sekstapole, oktapole i dekapole – stały się składnikami wyrafinowanych układów akceleratorowych tak zaprojektowanych, aby umożliwić jak najprecyzyjniejszą kontrolę orbit cząstek. Począwszy od lat sześćdziesiątych w funkcjonowaniu akceleratorów coraz większą rolę odgrywały komputery. Kontrolowały napięcia, natężenia, ciśnienia i temperatury we wnętrzu maszyny. To właśnie silne ogniskowanie i komputeryzacja umożliwiły zbudowanie niezwykłych maszyn, które powstały w latach sześćdziesiątych i siedemdziesiątych.
|
Pierwsze urządzenie pozwalające na osiągnięcie poziomu GeV (miliarda eV) nosiło skromne imię Cosmotron i zaczęło pracować w Brookhaven w 1952 roku. Następny był akcelerator o mocy 1,2 GeV należący do Uniwersytetu Cornell. A oto inne gwiazdy tej epoki:
|
AKCELERATOR | ENERGIA | MIEJSCE | ROK |
bewatron | 6 GeV | Berkeley | 1954 |
AGS | 30 GeV | Brookhaven | 1960 |
ZGS | 12,5 GeV | Argonne (Chicago) | 1964 |
dwusetka | 200 GeV | Fermilab | 1972 |
| (rozbudowany do 400 GeV w 1974 |
tewatron | 900 GeV | Fermilab | 1983 |
|
Poza Stanami Zjednoczonymi znajdowały się: Saturne (Francja, 3 GeV), Nimrod (Anglia, 10 GeV), Dubna (ZSRR, 10 GeV), KEK PS (Japonia, 13 GeV), PS (CERN/Genewa, 25 GeV), Sierpuchów (ZSRR, 70 GeV), SPS (CERN/Genewa, 400 GeV).
|
Trzecim przełomem było wprowadzenie przyspieszania kaskadowego. Na pomysł ten wpadł fizyk z Caltech, Matt Sands. Stwierdził on, że doprowadzanie cząstki do wysokiej energii w jednej tylko maszynie jest nieefektywne. Zaproponował korzystanie z oddzielnych akceleratorów, z których każdy w optymalny sposób przyspiesza cząstki do pewnej energii, na przykład od 0 do 1 MeV, od 1 do 100 MeV itd. Kolejne etapy można by porównać do zmian biegów w samochodzie wyścigowym. Każdy z nich ma za zadanie jak najefektywniej zwiększyć prędkość. W miarę wzrastania energii wiązka staje się coraz bardziej zwarta. Na wyższych stadiach coraz mniejsza powierzchnia przekroju wiązki wymaga coraz mniejszych, a więc tańszych magnesów. Kaskadowe przyspieszanie zdominowało wszystkie nowe maszyny od lat sześćdziesiątych. Najwspanialszymi przykładami zastosowań tego rozwiązania są: tewatron (5 etapów) i obecnie budowany SSC (6 etapów).
|
|
|
|