Elementarz cząstek elementarnych
Skąd wiemy to, co wiemy
Model Standardowy powstał jako synteza początkowo luźno powiązanych ze sobą badań nad oddziaływaniami słabymi i silnymi. Historia jego powstania jest przede wszystkim historią idei teoretycznych. Same bowiem badania doświadczalne i nagromadzone fakty, jakkolwiek absolutnie niezbędne jako wskazówki i testy koncepcji, nigdy nie mogą doprowadzić do sformułowania teorii o charakterze fundamentalnym.
Relację z wydarzeń, które doprowadziły do sformułowania Modelu Standardowego, podzielę na dwie części. W niniejszym odcinku omówię okres od lat trzydziestych XX wieku do powstania Delty, a za miesiąc przypomnę wydarzenia, których Delta była bezpośrednim świadkiem. Na początku odkryto (głównie w promieniowaniu kosmicznym; ) wiele nowych cząstek, takich jak miony i mezony i
Zarówno jak i rozpadały się wskutek oddziaływań słabych, o czym świadczyły stosunkowo długie ich czasy życia. Wkrótce też zaczęto odkrywać cząstki dziwne, które dość łatwo produkowały się parami w zderzeniach wysokoenergetycznych hadronów, ale rozpadały się powoli, mając czasy życia świadczące, że również za te rozpady odpowiedzialne są oddziaływania słabe. Aby wyjaśnić, dlaczego cząstki te nie rozpadają się wskutek oddziaływań silnych, K. Nishijima i M. Gell-Mann nadali im liczbę kwantową zwaną dziwnością i wprowadzili zasadę, że dziwność jest zachowana w oddziaływaniach silnych i elektromagnetycznych, ale nie w oddziaływaniach słabych.
W tym czasie teoria oddziaływań elektromagnetycznych była już dobrze opracowana. Jej początkowe trudności zostały przezwyciężone dzięki pracom J.S. Schwingera, R.P. Feynmana, S.-I. Tomonagi i F. Dysona (pierwsi trzej otrzymali wspólnie Nagrodę Nobla w roku 1965), którzy sformułowali procedurę jej renormalizacji, czyli spójny sposób usuwania nieskończoności występujących w obliczeniach wychodzących poza najprostsze przybliżenie. Procedura ta zawodziła jednak w przypadku zaproponowanej przez E. Fermiego, jeszcze w roku 1934, teorii jądrowych rozpadów powodowanych przez oddziaływania słabe. Choć bardzo dobrze opisywała ona większość takich rozpadów, była jednak nierenormalizowalna. Oznaczało to m.in., że przy opisie słabych reakcji cząstek o energiach rzędu kilkuset GeV stosowane przybliżenie da prawdopodobieństwa reakcji większe od jedności. Odkrycie rozpadających się wskutek oddziaływań słabych cząstek i cząstek dziwnych, konieczność uwzględnienia tzw. rozpadów typu Gamowa-Tellera, a zwłaszcza odkrycie niezachowania parzystości, tj. łamania symetrii względem odbicia lustrzanego, w rozpadach wymusiło modyfikację teorii Fermiego. Ulepszoną jej wersję, uwzględniającą (w zasadzie) także niezachowanie parzystości w słabych procesach nieleptonowych (odkryte jako występowanie rozpadów na dwa oraz na trzy piony, ), zaproponowali w roku 1957 Feynman i Gell-Mann. W ich wersji teorii struktura chiralna części leptonowej elementarnego oddziaływania miała już taką samą postać jak w Modelu Standardowym. Taką samą strukturę chiralną miała też część hadronowa oddziaływania, tyle że wyrażona była ona przez pola barionów takich jak
Sposób, w jaki nowa wersja teorii Fermiego uwzględniała procesy słabe, takie jak wymagał przyjęcia, że z jakiegoś powodu oddziaływania silne niemal nie wpływają na amplitudy procesów słabych z udziałem hadronów. Na przykład, rozpad wymaga obliczenia dwóch amplitud i ; teoria Fermiego-Feynmana-Gell-Manna (FFG) przy pominięciu wpływu oddziaływań silnych dawała (z dokładnością do nieistotnego dla naszej dyskusji wspólnego mnożnika), podczas gdy zgodność z danymi wymagała i Feynman i Gell-Mann wysunęli więc hipotezę, że amplitudy i są w istocie wyznaczone przez symetrie oddziaływań silnych, tj. że część hadronowa oddziaływania słabego powinna być wyrażona nie tyle przez pola fizycznych hadronów, takich jak itp., co przez pewne wyrażenia (operatory) będące tzw. prądami Noether symetrii oddziaływań silnych. W owym czasie wiadomo było, że oddziaływania silne muszą być niezmiennicze względem symetrii izospinu (wspomnianej już w poprzednim odcinku), o czym świadczyło dobrze już wtedy znane grupowanie się wszystkich znanych naonczas hadronów i jąder atomowych w multiplety tej grupy. Symetria izospinowa w istocie tłumaczyła, dlaczego ale na pierwszy rzut oka nie widać było symetrii, która mogłaby zapewnić Razem z symetrią musiałyby one mieć charakter symetrii chiralnej ale teoria, w której równaniach występują jawnie wyrazy grające rolę mas nukleonów, takiej symetrii wykazywać nie może.
Feynman i Gell-Mann zauważyli także, że struktura oddziaływań ich teorii miała taką postać, że mogłaby ona być naturalnym przybliżeniem jakiejś ogólniejszej teorii, w której oddziaływania słabe przenoszone byłyby przez bardzo masywne bozony pośredniczące o spinie Zastąpienie punktowego oddziaływania z teorii FFG przez takie oddziaływanie wymienne byłoby krokiem w kierunku renormalizowalnej teorii oddziaływań słabych, choć sam ten krok sprawy jeszcze by nie rozwiązywał: teorie, w równaniach których występują bezpośrednio wyrazy nadające masy bozonom o spinie są nadal (choć "trochę mniej") nierenormalizowalne.
Kluczem do rozwiązania problemu amplitudy okazały się przeniesione przez Y. Nambu na grunt fizyki cząstek koncepcje z teorii nadprzewodnictwa za opracowanie której Nagrodę Nobla w 1972 roku otrzymali J. Bardeen, L.N. Cooper i J.R. Schriefer. Zrozumienie jego dynamicznych aspektów (czyli, w uproszczeniu, właśnie spontanicznego naruszenia symetrii) zainspirowało Nambu do rozpatrzenia podobnego mechanizmu w teorii cząstek. Pisząc w skrócie, zauważył on, iż możliwe jest zbudowanie teorii oddziałujących silnie pól nukleonowych, której równania są niezmiennicze względem chiralnej symetrii tj. zapewniają a równe masy obu nukleonów powstają dynamicznie, wskutek oddziaływań, mimo że odpowiednie człony nie występują jawnie w niezmienniczych względem symetrii chiralnej równaniach teorii. Pokazał też, że tak zbudowana teoria przewiduje istnienie bezmasowych mezonów (utożsamionych przez niego z mezonami ), które są stanami związanymi jej fundamentalnych fermionów.
Drugi ważny w kontekście Modelu Standardowego krok uczynił J. Goldstone, który, rozwijając idee Nambu, zauważył, że znacznie prostszym niż skomplikowana dynamika silnie oddziałujących pól fermionowych sposobem spontanicznego naruszenia symetrii może być wprowadzenie do teorii pola skalarnego, którego potencjał wprawdzie zachowuje symetrię, ale ma tworzące kontinuum minima dla niezerowej wartości pola. Zaletą tego mechanizmu jest to, że nie wymaga on, by same oddziaływania były silne, co także znacznie upraszcza rachunkową stronę teorii. Na przykład, istnienie bozonów NG (bezmasowych cząstek o spinie 0 związanych z naruszonymi spontanicznie symetriami) jest wtedy oczywiste bez złożonych rachunków à la Nambu.
Również w pracach Nambu pojawiła się idea, że jeżeli w rzeczywistości symetria chiralna jest jedynie symetrią przybliżoną (tzn. psujące ją człony równań są w jakimś sensie "małe"; zob. odcinek II), to mezony będą miały masy niezerowe, ale małe w porównaniu z masą nukleonów, a amplituda będzie bliska, ale niedokładnie równa jedności. Tak więc to w pracach Nambu, za które otrzymał on w roku 2008 Nagrodę Nobla pojawiła się po raz pierwszy myśl, że mezony są stanami związanymi punktowych fermionów (których rolę u Nambu odgrywały jeszcze nukleony, a nie kwarki).
Wreszcie, rozpatrując dynamiczne naruszenie symetrii chiralnej w teoriach, w których fermiony fundamentalne oddziałują za pośrednictwem bozonów o spinie Nambu postawił ważne pytanie, czy masa tych bozonów pośredniczących również nie mogłaby być skutkiem samej dynamiki oddziaływań, co pozwoliłoby wyeliminować z równań wyrazy bezpośrednio nadające tym cząstkom masy i stworzyłoby nadzieję na zbudowanie renormalizowalnej teorii z masywnymi bozonami pośredniczącymi o spinie
Odpowiedź na pytanie postawione przez Nambu dały wkrótce (w roku 1964) prace F. Englerta i R. Brouta, oraz G.S. Guralnika, C.R. Hagena i T.W.B. Kibble'a. Pokazano w nich, że gdy spontanicznemu naruszeniu ulega symetria cechowania (lokalna, a nie globalna), bozony pośredniczące, niezależnie od konkretnego sposobu spontanicznego jej naruszenia, rzeczywiście stają się masywne, a bozony NG stają się bozonami pośredniczącymi o skrętności równej zeru. Do tych samych wniosków doszedł także P.W. Higgs, który ponadto zauważył, że gdy za naruszenie symetrii cechowania jest odpowiedzialny kondensat pola skalarnego, tak jak to proponował Goldstone, musi dodatkowo istnieć masywna cząstka o spinie zero Za te właśnie obserwacje Englert i Higgs otrzymali w roku 2013 Nagrodę Nobla
Oparty na spontanicznym naruszeniu symetrii cechowania sposób nadawania mas bozonom pośredniczącym, zwany dziś w skrócie mechanizmem Higgsa, został w roku 1967 spożytkowany przez S. Weinberga i niezależnie A. Salama do zbudowania zunifikowanej teorii słabych i elektromagnetycznych oddziaływań, na razie tylko leptonów Wykorzystali oni teorię pól o spinie (tzw. teorię Yanga-Millsa, od nazwisk teoretyków, którzy pierwsi ją badali jeszcze w latach pięćdziesiątych XX w.) z grupą cechowania rozpatrywaną wcześniej przez S. Glashowa. Była to najprostsza grupa, której przekształcenia dawało się zrealizować na polach znanych leptonów ( oraz ). Jako mechanizm naruszenia symetrii Weinberg wykorzystał spostrzeżenia Goldstone'a, wprowadzając jeden dublet zespolonych pól skalarnych (czyli cztery rzeczywiste pola skalarne). Teoria ta to właśnie omówiony już w odcinkach I i II Model Standardowy, tylko bez kwarków i gluonów. Zastosowanie mechanizmu Higgsa do teorii oddziaływań słabych stanowiło przełom; wcześniej, kierując się sugestiami Nambu, próbowano w analogiczny sposób zbudować teorię oddziaływań silnych. Jak wspominał Weinberg: zrozumieliśmy, że stosujemy dobre koncepcje do niewłaściwego problemu.
Teoria Salama-Weinberga przez kilka lat pozostawała niedoceniona przez innych teoretyków. Jej status zmienił się jednak diametralnie, gdy w roku 1972 G. 't Hooft (który był wówczas doktorantem) i M. Veltman udowodnili ściśle, że, tak jak przypuszczał Weinberg, jest to teoria renormalizowalna (w roku 1999 otrzymali za swoje badania Nagrodę Nobla, ). Gdy zaś w roku 1973 w doświadczeniu przeprowadzonym w CERN-ie, wykorzystującym wiązkę neutrin produkowaną przez synchrotron protonowy PS, zarejestrowano w komorze pęcherzykowej Gargamelle reakcje i gdzie oznacza nukleon, a dowolny zbiór hadronów, w których oddziaływanie przenosi bozon teoria Salama i Weinberga została powszechnie zaakceptowana jako najpoważniejsza propozycja unifikacji oddziaływań słabych i elektromagnetycznych (którą już w roku 1957 przewidywał Schwinger).
Rozbudowanie teorii Glashowa, Salama i Weinberga, tak by opisywała także słabe i elektromagnetyczne oddziaływania hadronów, stało się możliwe dzięki koncepcjom z lat sześćdziesiątych, które, poparte odkryciami eksperymentalnymi, doprowadziły do uznania na początku lat siedemdziesiątych chromodynamiki za właściwą teorię oddziaływań silnych.
Pierwszym krokiem na tej drodze była wysunięta w roku 1961 przez Gell-Manna i niezależnie Y. Ne'emana hipoteza przybliżonej symetrii oddziaływań silnych. Stanowiła ona podstawę klasyfikacji znanych hadronów i, jak niegdyś tablica Mendelejewa, pozwoliła przewidzieć istnienie nowych cząstek. Idąc dalej, Gell-Mann przyjął, że w oddziaływaniach hadronów istotną rolę odgrywa też ukryta (zgodnie z sugestiami Nambu) przybliżona symetria i, uogólniając teorię FFG, przyjął, że hadronowa część oddziaływań słabych jest zbudowana z odpowiednich kombinacji prądów Noether tej właśnie symetrii. Pozwoliło mu to włączyć w tę teorię także oddziaływania słabe odpowiedzialne za rozpady cząstek dziwnych w taki sposób, że obliczając ich amplitudy, można było korzystać z teorii grup bez konieczności korzystania z dynamiki oddziaływań silnych (jego podejście nosiło tajemniczą nazwę "algebry prądów").
Jednak równoprawne potraktowanie przez Gell-Manna oddziaływań słabych zmieniających dziwność i tych, które jej nie zmieniały, prowadziło do trudności - mierzone czasy życia cząstek dziwnych były dłuższe niż przewidywała teoria, co wskazywało, że efektywna stała sprzężenia tych pierwszych oddziaływań jest słabsza niż drugich. Problem ten rozwiązał w roku 1963 N. Cabibbo, postulując, że uniwersalna stała sprzężenia (znana ze słabych reakcji leptonowych) w tych dwóch rodzajach słabych oddziaływań hadronów jest mnożona odpowiednio przez i (kąt nazywa się, oczywiście, kątem Cabibbo). Propozycja ta legła u podstaw omówionej już w odcinku I struktury zapachowej oddziaływań słabych.
W roku 1964 Gell-Mann i niezależnie G. Zweig zauważyli, że cechy wszystkich hadronów można by wyjaśnić, przyjmując, iż bariony są zbudowane z trzech tworzących podstawowy multiplet grupy rodzajów (zapachów) kwarków, a mezony z par, jakie można utworzyć z trzech kwarków i trzech antykwarków. Kwarki te, oznaczane dziś i musiały mieć ładunki elektryczne przy czym pierwsze dwa o dziwności tworzą izospinowy dublet, a trzeci będący izosingletem ma dziwność Kolor, jako dodatkowa cecha kwarków, został wprowadzony przez O.W. Greenberga jeszcze w tym samym roku, by uzgodnić kwarkową budowę hadronów z zakazem Pauliego.
Hipoteza istnienia kwarków, z początku bardzo kontrowersyjna, uzyskała spektakularne potwierdzenie w przeprowadzonym w laboratorium SLAC w Stanford w końcu lat sześćdziesiątych XX wieku eksperymencie (nagrodzonym w roku 1990 Nagrodą Nobla) polegającym na tzw. głęboko nieelastycznym rozpraszaniu elektronów na nukleonach. Eksperyment ten (zob. ), zinterpretowany przez J. Bjorkena i Feynmana, pokazał, że nukleony rzeczywiście są zbudowane z punktowych składników (które Feynman nazywał partonami) oraz że wzajemne oddziaływania kwarków na bardzo małych odległościach (tj. przy dużych przekazach pędu od rozpraszanego elektronu do nukleonu) są bardzo słabe. Mierząc charakterystyki głęboko nieelastycznego rozpraszania na nukleonach elektronów i neutrin mionowych (których wiązki były produkowane przez PS w CERN-ie), dość szybko ustalono, że partony oddziałujące z wirtualnym fotonem mają spin oraz liczbę barionową równą i utożsamiono je z kwarkami. Dalsze badania wykazały, że kwarki nie niosą całego pędu nukleonu - muszą więc w nim występować także jakieś elektrycznie obojętne składniki.
Dzięki wcześniejszym pracom (m.in. D.J. Grossa, C.G. Callana) wiedziano już wtedy, że słabnięcie wzajemnych oddziaływań kwarków na małych odległościach można by wyjaśnić przez malenie wraz ze wzrostem energii tzw. biegnącej stałej sprzężenia teorii opisującej ich oddziaływania. Wszystkie kawałki układanki zaczęły wskakiwać na swoje miejsce, gdy w końcu roku 1972 Gross ze swoim (mającym polskie korzenie) doktorantem F. Wilczkiem oraz niezależnie H.D. Politzer (laureaci Nagrody Nobla w roku 2004, ) pokazali, że jedynymi kwantowymi teoriami pola mającymi tę właściwość są teorie, w których kwarki oddziałują z bozonami cechowania nieabelowych grup (inaczej, grup nieprzemiennych, takich jak czy ale nie jak elektrodynamiki) cechowania. Teorie takie fachowo nazywa się asymptotycznie swobodnymi. Naturalne więc było utożsamienie grupy cechowania z grupą koloru i tym samym ośmiu bozonów cechowania z elektrycznie obojętnymi składnikami hadronów. Początkowo nie było jasne, czy kolorowa symetria cechowania jest symetrią ścisłą, czy też jest ona, tak jak symetria cechowania modelu Salama i Weinberga, spontanicznie naruszona. Za drugą możliwością zdawało się przemawiać istnienie masywnych mezonów o spinie ale po przeanalizowaniu różnych trudności, z jakimi musiałoby się to wiązać, Gross, Wilczek i Politzer zasugerowali, że symetria kolorowa musi być ścisła. Wskazali przy tym na to, że będący "odwrotną stroną medalu" asymptotycznej swobody wzrost siły wzajemnego oddziaływania kwarków wraz z ich oddalaniem się może być przyczyną ich uwięzienia w hadronach i wysunęli hipotezę (do dziś nieudowodnioną, ), że jako swobodne cząstki można rejestrować w detektorach tylko "białe", tj. będące singletami grupy koloru, cząstki (były wprawdzie doniesienia o zarejestrowaniu cząstek mających ułamkowe ładunki, ale były one nieprawdziwe).
Zaakceptowanie chromodynamiki jako poprawnej teorii oddziaływań silnych umożliwiło niemal natychmiastowe włączenie w schemat Weinberga, Salama i Glashowa słabych oddziaływań kwarków. Ponieważ chromodynamika dawała proste objaśnienie pochodzenia globalnych symetrii i i ich przybliżonego charakteru (zob. odcinek II), było jasne, dzięki koncepcjom Feynmana, Gell-Manna i Cabibbo, że bozony pośredniczące muszą sprzęgać się do kwarków i że chiralna struktura tych oddziaływań rządzi się takimi samymi zasadami, jak analogiczne sprzężenia leptonów.
Jeszcze przed tymi teoretycznymi osiągnięciami zauważono, że teoria słabych oddziaływań FFG-Cabibbo przewiduje zbyt szybki, sprzeczny z danymi, rozpad neutralnego kaonu (cząstki dziwnej) na dwa naładowane leptony ( lub ). Rozwiązanie tego problemu zaproponowane przez Glashowa, J. Iliopoulosa i L. Maianiego (w roku 1970) po zaakceptowaniu kwarków sprowadzało się do hipotezy, że istnieje czwarty kwark nazwany powabnym, o ładunku i że, emitując może on przejść albo w albo w ze względnymi amplitudami mnożonymi przez i Ten mechanizm redukowania amplitudy rozpadu będącego przykładem procesu rzadkiego, jest nazywany mechanizmem GIM. Mechanizm ten przenosi się do pełnego, sześciokwarkowego Modelu Standardowego, a rolę relacji pełni wtedy relacja unitarności macierzy CKM (zob. odcinek I). To właśnie mechanizm GIM sprawia, że Model Standardowy tak dobrze ilościowo opisuje procesy rzadkie (zob. np. ).
Bodaj najbardziej nieoczekiwanym wydarzeniem lat sześćdziesiątych XX wieku było odkrycie w 1964 roku niezachowywania parzystości kombinowanej CP, tj. łamanie w pewnych reakcjach symetrii polegającej na odbiciu lustrzanym połączonym z zamianą cząstek na antycząstki Efekt ten zaobserwowano jako zachodzący bardzo rzadko (około dwa razy na tysiąc innych rozpadów) rozpad długożyciowego neutralnego kaonu (cząstki dziwnej, ) na dwa piony. Odkrycie niezachowania CP było szokiem i traktowano je z początku jak skazę na doskonałości praw fizyki. Jednakże trzy lata później A. Sacharow zauważył, że niezachowywanie symetrii CP, liczby barionowej (co, jak wspominałem w odcinku II, jest uwzględnione w Modelu Standardowym) oraz dodatkowo brak równowagi termodynamicznej na pewnym etapie ewolucji wszechświata są koniecznymi warunkami dynamicznego wytworzenia obserwowanej we wszechświecie znacznej przewagi materii nad antymaterią. Gdyby któryś z tych trzech warunków nie był spełniony, cała materia uległaby anihilacji w trakcie ewolucji wszechświata i pozostałoby jedynie stygnące z czasem promieniowanie reliktowe Praca Sacharowa, gdy już została doceniona, zmieniła radykalnie nastawienie do niezachowania CP: uznane zostało ono za konieczny warunek powstania we wszechświecie obserwowanych struktur, a co za tym idzie także życia
Powstał zatem problem uwzględnienia łamania CP w uzupełnionej o QCD i elektrosłabe oddziaływania kwarków teorii Weinberga-Salama (próby takie podejmowano, oczywiście, już wcześniej, jeszcze na gruncie teorii FFG-Cabibbo). Analizę tego problemu przedstawili w roku 1973 dwaj japońscy teoretycy M. Kobayashi i T. Maskawa. Wynikało z niej, że w tej teorii jest to możliwe tylko pod warunkiem, że dopuści się istnienie sześciu kwarków! Śmiałość (względnie stopień desperacji) tego pomysłu musi być oczywisty: w roku 1973 znane były doświadczalnie tylko trzy kwarki (tworzące zaledwie półtorej rodziny), istnienie czwartego kwarka było wprawdzie bardzo prawdopodobne - cztery kwarki były niezbędne dla mechanizmu GIM i znakomicie pasowały do czterech znanych ówcześnie leptonów ale wprowadzenie jeszcze dwu nowych kwarków z miejsca psuło tę cieszącą oko każdego teoretyka kwarkowo-leptonową odpowiedniość! Pomysł okazał się jednak słuszny, a Kobayashi i Maskawa otrzymali Nagrodę Nobla w 2008 roku
W naszej wędrówce przez historię idei dotarliśmy do roku 1974, w którym ukazał się pierwszy numer Delty. O tym, co zdarzyło się w fizyce cząstek od tego czasu, napiszemy w następnym odcinku.