Fizyka
  Wiw.pl   Na bieżąco:  Informacje   Co nowego   Matematyka i przyroda:  Astronomia   Biologia   Fizyka   Matematyka   Modelowanie rzeczywistości   Humanistyka:  Filozofia   Historia   Kultura antyczna   Literatura   Sztuka   Czytaj:  Biblioteka   Delta   Wielcy i więksi   Przydatne:  Słowniki   Co i gdzie studiować   Wszechświat w obrazkach    
 Jesteś tutaj:  Wirtualny Wszechświat > Fizyka > Wielkie wykłady - Boska cząstka 
  Indeks
Wielkie wykłady
Dramatis personae
Niewidoczna piłka
nożna

Pierwszy fizyk cząstek
Interludium A:
Opowieść o dwóch
miastach

Poszukiwania atomu:
mechanicy

Dalsze poszukiwania
atomu: chemicy
i elektrycy

Nagi atom
Interludium B:
Tańczący mistrzowie
wiedzy tajemnej

Akceleratory: one
rozkwaszają atomy,
nieprawdaż?

Czy Bogini stwarza to
wszystko . . .

Dlaczego aż tyle
energii?

Szczelina
Umasywniacz
Katedra Moneta, czyli
trzynaście sposobów
widzenia protonu

Nowa materia:
kilka przepisów

Cząstki z próżni
Wyścig
Wpływowa osobistość
z Kalifornii

Wielka nauka i genius
loci Kalifornii

Synchrotron: tyle
okrążeń, ile chcesz

Ike i piony
Damy Beppa
Pierwsza wiązka
zewnętrzna:
przyjmujemy zakłady

Dygresja w stronę
nauk społecznych:
pochodzenie wielkiej
nauki

Z powrotem do
maszyn: trzy przełomy
technologiczne

Czy większe jest
lepsze?

Czwarty przełom:
nadprzewodnictwo

Kowboj dyrektorem
laboratorium

Dzień z życia protonu
Decyzje, decyzje:
protony czy elektrony

Zderzenie czołowe
czy tarcza?

Wytwarzając
antymaterię

Zaglądanie do czarnej
skrzynki: detektory

Kłopoty
z pęcherzykami

Czego się
dowiedzieliśmy:
akceleratory i postęp
w fizyce

Trzy finały:
wehikuł czasu, katedry
i akcelerator na orbicie

Interludium C:
Jak w ciągu weekendu
złamaliśmy parzystość
i odkryliśmy Boga

A–tom!
I wreszcie boska
cząstka

Mikroprzestrzeń,
makroprzestrzeń
i czas przed
początkiem czasu

  Źródło
Leon Lederman,
Dick Teresi

BOSKA CZĄSTKA
Jeśli Wszechświat jest odpowiedzią, jak brzmi pytanie?

Przełożyła Elżbieta
Kołodziej-Józefowicz


  Z powrotem do maszyn: trzy przełomy technologiczne
 
Z powrotem do maszyn:
trzy przełomy technologiczne
 
S
pośród wielu przełomów technologicznych, które pozwoliły przyspieszać cząstki w  zasadzie do nieograniczonych energii (jeśli nie liczyć ograniczeń nakładanych przez budżet), trzy zasługują na dokładniejsze omówienie.
       Pierwszy z  nich wiąże się z  odkryciem zasady stabilności fazowej przez radzieckiego geniusza Władimira J. Wekslera oraz, niezależnie, przez Edwina McMillana, fizyka z  Berkeley. Nasz wszędobylski norweski inżynier Rolf Wideröe  niezależnie opatentował ten sam pomysł. Stabilność fazowa jest na tyle istotna, że chyba usprawiedliwiona będzie kolejna metafora. Wyobraź sobie, drogi Czytelniku, dwie półkoliste miseczki o  maleńkich płaskich denkach. Obróć jedną z  nich do góry dnem i  połóż małą kulkę na płaskiej części, która teraz jest wieczkiem. Połóż drugą kulkę na dnie nie odwróconej miski. Obie kulki znajdują się w  stanie spoczynku. Ale czy w  obu wypadkach jest to stan stabilny? Nie. By się o  tym przekonać, trąć lekko każdą z  nich. Kulka numer 1 stoczy się po miseczce i  jej stan ulegnie radykalnej zmianie. Była niestabilna. Kulka numer 2 wtoczy się trochę w  górę po ściance miseczki, wróci na dno, wespnie się po drugiej stronie i  tak będzie oscylowała wokół położenia równowagi. To jest stabilność.
       Obliczenia matematyczne opisujące zachowanie cząstek w  akceleratorze mają wiele wspólnego z  opisem tych dwóch stanów. Jeśli niewielkie zaburzenie – na przykład nieznaczne zderzenia cząstki z  atomem gazu, który pozostał w  komorze akceleratora, albo z  inną przyspieszaną cząstką – prowadzi do znacznej zmiany ruchu, to nie ma w  tym wypadku podstawowej stabilności i  cząstka ta prędzej czy później nam przepadnie. Z  drugiej strony, jeśli podobne drobne zaburzenia doprowadzają jedynie do niewielkich oscylacyjnych odchyleń od idealnego toru, mamy układ stabilny.
       Postęp w  projektowaniu akceleratorów dokonywał się w  wyniku subtelnego współdziałania rozważań analitycznych (teraz w  wysokim stopniu skomputeryzowanych) z  nowymi wynalazkami: pomysłowymi urządzeniami, w  których konstrukcji często wykorzystywano osiągnięcia techniki radarowej z  okresu wojennego. Zasadę stabilności fazowej zastosowano w  wielu urządzeniach poprzez użycie sił elektrycznych o  częstościach radiowych. Stabilność fazowa w  akceleratorze zostaje osiągnięta wtedy, gdy tak uregulujemy częstość przyspieszających zmian napięcia, aby cząstka pojawiała się w  szczelinie w  nieco nieodpowiednim momencie, dzięki czemu uzyskamy niewielką zmianę jej toru. Gdy cząstka pojawi się przy szczelinie następnym razem, błąd zostanie skorygowany. Już wcześniej, gdy omawiałem zasadę działania synchrotronu, podałem przykład zastosowania tej zasady. W  rzeczywistości zjawisko to polega na tym, że błąd jest nadmiernie korygowany i  cząstka oscyluje wokół idealnej fazy, w  której osiągane jest odpowiednie przyspieszenie. Tak jak kulka na dnie miseczki.
       Kolejny przełom nastąpił w  roku 1952, kiedy w  Brookhaven ukończono budowę Cosmotronu – akceleratora o  mocy 3 GeV. Grupa pracujących przy akceleratorze fizyków oczekiwała wizyty kolegów z  CERN w  Genewie, gdzie projektowano urządzenie o  mocy 10 GeV. W trakcie przygotowań do spotkania trzej fizycy dokonali ważnego odkrycia. Stanley Livingston (uczeń Lawrence'a), Ernest Courant i  Hartland Snyder byli przedstawicielami nowego gatunku fizyków: teoretyków od akceleratorów. Natknęli się na zjawisko, zwane silnym ogniskowaniem. Zanim opowiem szczegółowo o  drugim przełomie, pragnę podkreślić, że zagadnienia dotyczące akceleratorów stały się wyrafinowaną i  nadzwyczaj zawiłą dziedziną wiedzy. Warto powtórzyć kilka podstawowych faktów. Mamy więc szczelinę, w  której pole elektryczne zmienia się z  częstością radiową, dzięki czemu mijające ją za każdym razem cząstki zyskują pewną porcję energii. Żeby wielokrotnie korzystać ze szczeliny, za pomocą magnesów utrzymujemy cząstkę na mniej więcej kołowej orbicie. Maksymalna energia, jaką cząstka może uzyskać w  akceleratorze, zależy od dwóch czynników: największego promienia orbity, na jaki pozwala magnes, oraz największego natężenia pola magnetycznego dopuszczalnego przy tym promieniu. Możemy zwiększać energię osiąganą w  nowych maszynach albo zwiększając ich promień, albo podwyższając maksymalną moc pola magnetycznego; albo robiąc obie te rzeczy jednocześnie.
       Gdy te dwa parametry są już ustalone, nadanie cząstce zbyt wielkiej energii spowoduje, że wypadnie ona poza strefę oddziaływania magnesu. W  roku 1952 cyklotrony nie mogły przyspieszać cząstek do energii wyższych niż 1000 MeV. Synchrotrony utrzymują cząstki na orbicie o  stałym promieniu dzięki zmiennemu polu magnetycznemu. Natężenie pola magnetycznego w  synchrotronie na początku procesu przyspieszania jest niewielkie (takie, jakiego wymagają niewielkie energie wprowadzanych doń cząstek) i  stopniowo wzrasta do maksymalnej wartości. Synchrotron ma kształt obwarzanka, którego promień w  różnych maszynach budowanych w  latach pięćdziesiątych wynosił 3–16 metrów. Pozwalały one na przyspieszanie cząstek do 10 GeV.
       Problem, któremu poświęcili się pomysłowi teoretycy, dotyczył tego, jak utrzymać cząstki w  zwartej i  stabilnej wiązce jak najbardziej przypominającej idealną cząstkę poruszającą się bez zaburzeń w  doskonale jednorodnym polu magnetycznym. Ponieważ cząstki przebywają bardzo długą drogę, nawet najmniejsze zaburzenia i  niedoskonałości pola magnetycznego mogą wytrącać je z  idealnej orbity. Po jakimś czasie może się okazać, że nie mamy już żadnej wiązki. Dlatego też trzeba stworzyć warunki dla stabilnego przyspieszania. Obliczenia związane z  tym zagadnieniem były tak skomplikowane – jak zauważył pewien żartowniś – „że aż brwi się rabinowi poskręcały”.
       Silne ogniskowanie polega na takim ukształtowaniu pól magnetycznych sterujących cząstkami, aby utrzymywały je znacznie bliżej idealnej orbity. Sedno pomysłu tkwi w  tym, żeby poszczególnym biegunom nadać odpowiedni, lekko zaokrąglony kształt. Dzięki temu siły magnetyczne działające na cząstki wprawią je w  szybki ruch oscylacyjny o  maciupeńkiej amplitudzie wokół idealnej orbity. W  ten sposób osiągamy stabilność. Przed wprowadzeniem silnego ogniskowania obwarzankowate komory próżniowe musiały mieć 50–100 cm szerokości i  wymagały magnesów o  podobnej wielkości. Przełom zapoczątkowany w  Brookhaven doprowadził do zredukowania rozmiarów komory próżniowej do 7,5–12,5 cm. Rezultat? Bardzo znaczne zmniejszenie kosztu akceleratora w  przeliczeniu na jednostkę osiąganej energii.
       Silne ogniskowanie zmieniło kosztorysy i  bardzo szybko uświadomiło, że możliwa jest budowa synchrotronu o  promieniu około 60 m. Później pomówimy o  drugim parametrze: o  natężeniu pola magnetycznego. Dopóki do wyrobu magnesu używa się żelaza, natężenie pola ograniczone jest do dwóch tesli – tyle żelazo może wytrzymać i  nie zsinieć z  wysiłku. Przełom jest właściwym słowem na określenie silnego ogniskowania i  jego konsekwencji. Po raz pierwszy zastosowano je w  urządzeniu przyspieszającym elektrony do energii 1 GeV, zbudowanym przez Roberta Wilsona w  Cornell. Podobno projekt, który złożyła grupa z  Brookhaven w  sprawie budowy nowego urządzenia przyspieszającego protony, miał postać dwustronicowego listu! (Można w  tym miejscu zacząć biadać nad rozrostem biurokracji, ale to się na nic nie zda). Projekt ten został zatwierdzony i  w  efekcie w  1960 roku w  Brookhaven powstała maszyna o  mocy 30 GeV, znana jako AGS. CERN porzucił swoje pierwotne plany budowy urządzenia starego typu o  mocy 10 GeV i  przy użyciu nowej techniki silnego ogniskowania skonstruował – za tę samą cenę – akcelerator o  mocy 25 GeV. Zaczął on działać w  roku 1959.
       Pod koniec lat sześćdziesiątych zaprzestano stosowania powykrzywianych magnesów i  zamiast nich wprowadzono różne magnesy, spełniające oddzielne funkcje. Instaluje się „zwykły” dipol, który utrzymuje cząstkę na orbicie, a  funkcję silnego ogniskowania powierza się magnesowi kwadrupolowemu o  biegunach symetrycznie rozmieszczonych wokół komory próżniowej.
       Wykorzystując  obliczenia matematyczne, fizycy nauczyli się, w  jaki sposób do kierowania i  skupiania cząstek w  wiązki można stosować złożone magnesy o  rozmaitych kształtach. Magnesy o  większej liczbie biegunów – sekstapole, oktapole i  dekapole – stały się składnikami wyrafinowanych układów akceleratorowych tak zaprojektowanych, aby umożliwić jak najprecyzyjniejszą kontrolę orbit cząstek. Począwszy od lat sześćdziesiątych w  funkcjonowaniu akceleratorów coraz większą rolę odgrywały komputery. Kontrolowały napięcia, natężenia, ciśnienia i  temperatury we wnętrzu maszyny. To właśnie silne ogniskowanie i  komputeryzacja umożliwiły zbudowanie niezwykłych maszyn, które powstały w  latach sześćdziesiątych i  siedemdziesiątych.
       Pierwsze urządzenie pozwalające na osiągnięcie poziomu GeV (miliarda eV) nosiło skromne imię Cosmotron i  zaczęło pracować w  Brookhaven w  1952 roku. Następny był akcelerator o  mocy 1,2 GeV należący do Uniwersytetu Cornell. A  oto inne gwiazdy tej epoki:
AKCELERATORENERGIAMIEJSCEROK
bewatron6 GeVBerkeley1954
AGS30 GeVBrookhaven1960
ZGS12,5 GeVArgonne (Chicago)1964
„dwusetka”200 GeVFermilab1972
 (rozbudowany do 400 GeV w 1974
tewatron900 GeVFermilab1983
       Poza Stanami Zjednoczonymi znajdowały się: Saturne (Francja, 3 GeV), Nimrod (Anglia, 10 GeV), Dubna (ZSRR, 10 GeV), KEK PS (Japonia, 13 GeV), PS (CERN/Genewa, 25 GeV), Sierpuchów (ZSRR, 70 GeV), SPS (CERN/Genewa, 400 GeV).
       Trzecim przełomem było wprowadzenie przyspieszania kaskadowego. Na pomysł ten wpadł fizyk z  Caltech, Matt Sands. Stwierdził on, że doprowadzanie cząstki do wysokiej energii w  jednej tylko maszynie jest nieefektywne. Zaproponował korzystanie z  oddzielnych akceleratorów, z  których każdy w  optymalny sposób przyspiesza cząstki do pewnej energii, na przykład od 0 do 1 MeV, od 1 do 100 MeV itd. Kolejne etapy można by porównać do zmian biegów w  samochodzie wyścigowym. Każdy z  nich ma za zadanie jak najefektywniej zwiększyć prędkość. W  miarę wzrastania energii wiązka staje się coraz bardziej zwarta. Na wyższych stadiach coraz mniejsza powierzchnia przekroju wiązki wymaga coraz mniejszych, a  więc tańszych magnesów. Kaskadowe przyspieszanie zdominowało wszystkie nowe maszyny od lat sześćdziesiątych. Najwspanialszymi przykładami zastosowań tego rozwiązania są: tewatron (5 etapów) i  obecnie budowany SSC (6 etapów).
góra strony
poprzedni fragment następny fragment
Wiw.pl  |  Na bieżąco  |  Informacje  |  Co nowego  |  Matematyka i przyroda  |  Astronomia  |  Biologia  |  Fizyka  |  Matematyka  |  Modelowanie rzeczywistości  |  Humanistyka  |  Filozofia  |  Historia  |  Kultura antyczna  |  Literatura  |  Sztuka  |  Czytaj  |  Biblioteka  |  Delta  |  Wielcy i więksi  |  Przydatne  |  Słowniki  |  Co i gdzie studiować  |  Wszechświat w obrazkach