Albert Einstein miał wielkie marzenie polegające na odkryciu jednego, boskiego równania. Wzoru potrafiącego pogodzić elektromagnetyzm Maxwella z jego własną teorią względności. Gotowe dzieło tłumaczyłoby wszystkie zjawiska fizyczne występujące w znanym nam wszechświecie - od działania atomu aż po ruchy ogromnych galaktyk. Niestety. Kiedy Einstein starał się odszyfrować ten kosmiczny kod, badania świata mikroskopowego posuwały się naprzód niczym czołg, równając z ziemią dawne wyobrażenia o strukturze materii.
Wielokrotnie w historii bywało tak, że człowiek uważał, iż zgłębił już wiedzę na temat budowy wszechświata; po czym nagle uświadamiał sobie jak jednak daleko mu od ostatecznej prawdy. Podobnie rzecz się miała na przełomie XIX i XX wieku. Odkrycia rodzącej się fizyki jądrowej zaowocowały powstaniem pierwszych modeli atomu. Modele te, nazywane planetarnymi, wskazywały, że materia składa się z trzech rodzajów cząstek (protonów, neutronów i elektronów) działających, na pierwszy rzut oka, na zasadach podobnych do Układu Słonecznego. Wydawało się, że ludzkość jest o krok od poznania budowy materii na jej najbardziej elementarnym poziomie i już niewiele się może w tej kwestii wydarzyć.
Wydarzyło się wiele. Aby zachować chronologię, zacznę od pytania, które po raz pierwszy rzuciło cień na pierwotne i banalne modele atomu. Brzmiało ono wręcz głupio: Dlaczego rozgrzane ciało (np. kawałek metalu) żarzy się zmieniając barwę? Pomijając skomplikowane obliczenia, traktując światło jako falę elektromagnetyczną i korzystając z równań Maxwella, uczeni dochodzili do absurdalnego wniosku, że energia wypromieniowywana przez rozgrzane ciało powinna być nieskończona. Tak zwana katastrofa w nadfiolecie stała się prawdziwą łamigłówką dla fizyków*. Pytanie to poważnie potraktował szanowany profesor Uniwersytetu Berlińskiego - Max Planck. Znalazł on odpowiedź dzięki zmianie sposobu interpretowania fali elektromagnetycznej. Otóż Planck stwierdził, że energia przenoszona przez falę nie ma charakteru "ciągłego", a tak naprawdę jest posiekana na konkretne "kawałki". Oznaczało to, że każde drgnięcie fali następuje skokowo, jednak na tak małą wielkość, że przejścia tworzą iluzję płynnych. Teoria ta nie od razu zyskała pełne poparcie światka naukowego, gdyż pojedynczy "kawałek" fali światła był niezwykle mały, nawet jak na standardy fizyki jądrowej**. Żarówka w ciągu sekundy miała wysyłać miliardy miliardów "kawałków" światła. Wkrótce te niewielkie porcje zyskały używaną do dzisiaj nazwę kwantów (kwanty światła z kolei noszą nazwę fotonów), a odkrycie Niemca okazało się kamieniem milowym. Jakiś czas później Albert Einstein (zresztą, dobry znajomy Plancka) sprawdził tę teorię badając co się dzieje gdy rzekomy kwant światła uderza w metal. Zgodnie z przewidywaniami Plancka i Einsteina światło wybijało określoną ilość elektronów z metalu, co zostało nazwane zjawiskiem fotoelektrycznym. W ten właśnie sposób obaj panowie doczekali się splendoru w postaci nagród Nobla. (Ciekawostką jest to, że Albert Einstein nigdy nie otrzymał Nobla za teorię względności, która obróciła naukę do góry nogami, a za znacznie mniej spektakularne zjawisko fotoelektryczne).
Interesujące jest to, że na pomysł fotonów przenoszących światło wpadł już dawno temu Isaac Newton. Rzecz w tym, że jego przewidywania okazały się błędne po próbach empirycznego dowiedzenia. Najważniejsze w tej kwestii było doświadczenie z dwoma szczelinami. Każdy na pewno o nim słyszał w szkole średniej. Eksperyment polegał na przepuszczeniu światła przez dwie szczeliny i obserwacji obrazu jaki pozostawi na ekranie. Wyniki dawały argumenty przemawiające za jak najbardziej falową naturą światła. Na ekranie ukazywał się obraz interferencyjny, taki jaki pozostawiłaby po sobie choćby fala na wodzie. Tutaj dochodzimy do paradoksu: Doświadczenie ze szczelinami udowadnia, że światło to fala elektromagnetyczna, a einsteinowski efekt fotoelektryczny dowodzi, iż światło to w istocie promień cząstek. Kto popełnił błąd? Okazało się, że nikt, a nowo rodząca się mechanika kwantowa wymaga od nas uznawania czegoś za coś innego i odwrotnie.
O ile Plancka i ewentualnie Einsteina można uznać za dziadków mechaniki kwantowej, o tyle ojcami tej świeżej teorii należy nazwać Nielsa Bohra, Wernera Heisenberga oraz Erwina Schrödingera. Ten pierwszy zreflektował się nad planetarnym modelem atomu, stwierdzając iż jest on niestabilny biorąc pod uwagę użycie reguł fizyki klasycznej. Większość wybitnych uczonych szukając odpowiedzi zwróciło się ku nowej teorii kwantów. Drogą do zaadoptowania mechaniki kwantowej były badania nad elektronem, który pod wieloma względami przypominał światło. Eksperymenty wykazały, że podobnie jak foton, ma on charakter korpuskularno-falowy i ulega wielu innym dziwnym zachowaniom. Mam ten komfort, że nie muszę sztucznie wydłużać tego artykułu opisując zjawiska kwantowe, gdyż już to kiedyś zrobiłem. Przypomnę tylko, że najdonioślejszym wnioskiem płynącym z mechaniki kwantowej jest zasada nieoznaczoności Heisenberga. Nigdy z całą pewnością nie będziemy wstanie stwierdzić gdzie leży cząstka. Jedyne do czego jesteśmy zdolni to obliczenie prawdopodobieństwa, w którym miejscu można spotkać przykładowy elektron. Wracając do doświadczenia ze szczelinami. Pojedynczy elektron wystrzelony w stronę przeszkody, nim dotrze do ekranu pokona wszystkie możliwe drogi prowadzące do celu. Nie jest dla niego problemem przejść przez dwie szczeliny jednocześnie, czy też odlecieć na kilometr, zawrócić i uderzyć w ekran***. Kwestią jest jedynie obliczenie, na której trajektorii szansa na spotkanie cząstki będzie największa.
To jest niemal jak bajka - dla fizyków raczej koszmar. Kto tak nie uważa, albo już nieco skubnął mechaniki kwantowej, albo nadal nie zdaje sobie sprawy z tego co tu piszę. Spójrzmy od drugiej strony: Jeśli obserwujemy jakiekolwiek poruszające się ciało, możemy obliczyć jego prędkość, pęd i przewidzieć jego położenie w przyszłości. Na poziomie o wielkościach subatomowych nie istnieje taka możliwość. A teraz puenta. Albert Einstein uważał, że jeżeli tylko połączy grawitację z elektromagnetyzmem to odnajdzie uniwersalną zasadę rządzącą wszechświatem. Mechanika kwantowa pokazała, że jedyne na co może liczyć Einstein, to odkrycie zasad rządzących światem dużych obiektów - począwszy od jabłek, kończąc na galaktykach. Nijak ma się to jednak do cząstek elementarnych. Geniusz nie mógł się z tym pogodzić, idąc w zaparte, że Bóg nie gra w kości! Mechanika kwantowa była dlań dziurawa, podobnie jak niegdyś model grawitacji Newtona. Ironią losu jest fakt, że przecież to sam Einstein pomógł Planckowi dać podwaliny pod tę nieznośną teorię. Teraz jednak szwajcarski fizyk zmuszony został do odwrotu, jako jeden z naprawdę niewielu ludzi stojących w opozycji do mechaniki kwantowej. Jak napisał wiele lat później Stephen Hawking: Pogubił się Einstein, nie mechanika kwantowa.
Jak wykazało następne pokolenie fizyków, atomem kierują siły dotychczas nieznane, różne od grawitacji czy elektromagnetyzmu. Nie jest to dziwne, wszak trudno było oczekiwać, że niezwykłości mechaniki kwantowej powodowane są przez znane i przewidywalne oddziaływania. W ten sposób na firmamencie fizyki pojawiły się dwie nowe, tajemnicze siły. Pierwszą było oddziaływanie silne, odpowiadające za utrzymanie przy sobie protonów i neutronów wewnątrz jądra atomowego. Natomiast drugim oddziaływanie słabe, powodujące rozpad atomu i powiązaną z nim radioaktywność.
Znów pojawiła się idea unifikacji. Jednak tym razem aby mieć nadzieję na stworzenie teorii ostatecznej, należało połączyć już nie dwie, a cztery moce rządzące wszystkim co nas otacza. Wydaje się tu pasować humorystyczna reguła: Teoria jest wtedy, kiedy wszystko wiemy ale nic nie działa, natomiast praktyka wtedy kiedy wszystko działa, ale nikt nie wie dlaczego. W przypadku mechaniki kwantowej naukowcy prezentowali zdecydowanie praktyczne podejście. Mimo, że ludzkość nauczyła się korzystać z potencjału atomu, to jednak oddaliła się od odkrycia zamysłu Boga. Jakby tego było mało, zaczęto budowę gigantycznych obiektów badawczych, służących do zderzania ze sobą cząstek atomowych. Akceleratory szybko ujawniły, że to co nazywaliśmy cząstkami elementarnymi, da się rozbić na mniejsze elementy. W ten sposób ukazała się cała menażeria cząstek subatomowych, na oznaczenie których niemal zabrakło liter w alfabetach. Pojawiło się więc następne pytanie: Co tak naprawdę jest elementarnym budulcem materii?
Aby rozpocząć pracę nad próbą połączenia dawnej wiedzy fizycznej z najnowszymi odkryciami, potrzebny był człowiek o nieschematycznym, lotnym umyśle. Niewątpliwie kimś takim był amerykański kpiarz, kawalarz i kobieciarz, Richard Feynman. Lubiący łamać bankowe szyfry i grać na bębnach ekscentryk rzucił w kąt skomplikowane równania, zastępując je graficznymi bazgrołami pełnymi kresek i strzałek. Dzięki tak zwanym diagramom Feynmana, ich autor rozrysował nową teorię - elektrodynamikę kwantową (QED, Quantum ElectroDynamics). Elektrodynamika kwantowa dotyczyła oddziaływania fotonu z cząstkami subatomowymi, zwłaszcza elektronem. Oprócz tego Feynman chciał wiedzieć jakie są skutki wpadania na siebie cząstek elementarnych. Otóż, do tego czasu wszelkie równania mające zobrazować tego typu sytuacje nasączone były wynikami nieskończonymi, z czym oczywiście fizycy nie mogli się pogodzić. Feynman dzięki swoim diagramom i różnym sztuczkom matematycznym (nieskończoność - nieskończoność = 0) doprowadził do renormalizacji i bardzo pozytywnych rezultatów. Wbrew pozorom nie jest to rzecz na tyle doniosła, żeby laikowi warto było tę nazwę zapamiętywać, jednak po latach rozczarowań nawet nieznaczne przybliżenie do unifikacji było nagradzane Noblem. Co dla nas ważniejsze - QED dała podwaliny pod kolejny krok do połączenia oddziaływań podstawowych.
Feynman zgrabnie wytłumaczył jak oddziałują na siebie elektrony - przez wymianę przenoszących energię fotonów. Fizycy wzorujący się na QED wysunęli hipotezę, jakoby za tajemnicze oddziaływania słabe odpowiadała inna cząstka, którą wymieniają między sobą elektrony z neutrinami. (Dla tych co przysypiali w szkole: Neutrina to cząstki elementarne bez ładunku elektrycznego, bardzo małe i nieuchwytne. Do tego stopnia, że w każdej sekundzie całą Ziemię przenikają biliony neutrin nie pozostawiając po sobie śladu. Neutrino ma jednak tę cechę, że reaguje na oddziaływanie słabe i tu badacze upatrywali swojej szansy.) Cząstkę tę oznaczono literą W (weak - słaby). Początkowo teoria ta szybko padła, pełna matematycznych anomalii. Wróciła w glorii już kilka lat później, gdy zastosowano skomplikowaną (dla nie-fizyka jak cholera) symetrię cechowania. Symetria nawet podświadomie kojarzy nam się z pięknem. Kobieta o symetrycznych rysach twarzy wydaje się urodziwsza, a diament w formie symetrycznego brylantu jest wartościowszy. W fizyce symetria również robi furorę, wskazując iż natura dąży do uporządkowania i elegancji. Używając symetrii Adbus Salam oraz Steven Weinberg, dokonali ostatecznego wyjaśnienia oddziaływania słabego, przewidując istnienie aż trzech cząstek odpowiedzialnych za oddziaływanie słabe: W(+), W(-) i Z(0). Zauważyli oni, że przy odpowiednio wysokiej energii, owe cząstki zachowują się podobnie. Hawking dla wyjaśnienia tej symetrii używa następującej przenośni: Ten efekt przypomina zachowanie kulki ruletki. Gdy energia jest wysoka, kulka zachowuje się zawsze w ten sam sposób - po prostu toczy się po kole. Ale gdy koło zwalnia, kulka traci energię i w końcu wpada do jednej z 37 przegródek. Inaczej mówiąc, możliwych jest 37 różnych stanów kulki w niskich energiach. Naukowcy poszli za ciosem i analogicznie potraktowali elektrony oraz neutrina - jako dwie strony tej samej monety. Na tej podstawie przewiduje się, że w pierwszych chwilach Wielkiego Wybuchu, czyli w czasie ogromnego natężenia energii, oddziaływanie słabe i elektromagnetyzm stanowiły jedność! To było pierwsze, od czasu Johna Maxwella, przełomowe połączenie sił podstawowych. Salam i Weinberg odkryli oddziaływanie elektrosłabe.
Wnet fizycy zwrócili się ku oddziaływaniom silnym. Skoro fotony przenoszą oddziaływanie elektromagnetyczne, a cząstki W(+), W(-) i Z(0) oddziaływanie słabe, to powinny istnieć jakieś cząstki odpowiadające za oddziaływanie silne. Słowo ciałem się stało, a cząstki scalające protony i neutrony, jak i tworzące je kwarki ochrzczono gluonami. Nazwa wzięła się stąd, iż gluony działają niczym klej dla subatomowych cząstek.
Po zrozumieniu oddziaływania silnego wystarczyło już tylko odnieść je do świeżej teorii elektrosłabej, aby mieć pełny obraz natury świata mikroskopowego. Podjęto się tego zadania, a wynik nosi nazwę Teorii Wielkiej Unifikacji (GUT, Grand Unified Theory). Analogicznie założono, że gluony są członkiem jednej rodziny cząstek, wraz z fotonami i cząstkami oddziaływania słabego, której podobieństwo ujawnia się przy wielkich energiach. Problem w tym, że sprawdzenie słuszności GUT jest niezmiernie trudne, gdyż energia potrzebna do unifikacji oddziaływań silnych i elektrosłabych jest poza zasięgiem możliwości człowieka. Dowodem na prawdziwość Wielkiej Unifikacji byłby obserwowany rozpad protonu na elektrony, gdyż takie zjawisko przewiduje teoria. Tu jednak też jest problem, gdyż średni czas rozpadu protonu może trwać nawet 10^32 lat. Z tego powodu, przynajmniej obecnie, GUT nie zostanie zweryfikowany. Jednak mimo to, wszystkie płynące z niego konsekwencje oraz przewidziane cząstki przyjmuje się za prawdę, pod postacią Modelu Standardowego.
Mimo bezsprzecznej rewolucji, jaką zapewniło zunifikowanie oddziaływania słabego, silnego i elektromagnetyzmu, Model Standardowy nadal boryka się z poważną bolączką, o które starano się zapomnieć przy świętowaniu triumfów. Genialni fizycy pracujący nad Wielką Unifikacją doszli do wiekopomnych odkryć i wspaniałych zaszczytów, całkowicie pomijając siłę najbliższą nam wszystkim. Grawitację. Dopiero w ciągu ostatnich 20 lat zajęto się tym problemem na poważnie. Lekarstwem na chorobę okazuje się jedna z najbardziej niezwykłych teorii w historii nauki - Teoria Strun.
Korpuskularno-falowa egzotyka
Wielokrotnie w historii bywało tak, że człowiek uważał, iż zgłębił już wiedzę na temat budowy wszechświata; po czym nagle uświadamiał sobie jak jednak daleko mu od ostatecznej prawdy. Podobnie rzecz się miała na przełomie XIX i XX wieku. Odkrycia rodzącej się fizyki jądrowej zaowocowały powstaniem pierwszych modeli atomu. Modele te, nazywane planetarnymi, wskazywały, że materia składa się z trzech rodzajów cząstek (protonów, neutronów i elektronów) działających, na pierwszy rzut oka, na zasadach podobnych do Układu Słonecznego. Wydawało się, że ludzkość jest o krok od poznania budowy materii na jej najbardziej elementarnym poziomie i już niewiele się może w tej kwestii wydarzyć.
Wydarzyło się wiele. Aby zachować chronologię, zacznę od pytania, które po raz pierwszy rzuciło cień na pierwotne i banalne modele atomu. Brzmiało ono wręcz głupio: Dlaczego rozgrzane ciało (np. kawałek metalu) żarzy się zmieniając barwę? Pomijając skomplikowane obliczenia, traktując światło jako falę elektromagnetyczną i korzystając z równań Maxwella, uczeni dochodzili do absurdalnego wniosku, że energia wypromieniowywana przez rozgrzane ciało powinna być nieskończona. Tak zwana katastrofa w nadfiolecie stała się prawdziwą łamigłówką dla fizyków*. Pytanie to poważnie potraktował szanowany profesor Uniwersytetu Berlińskiego - Max Planck. Znalazł on odpowiedź dzięki zmianie sposobu interpretowania fali elektromagnetycznej. Otóż Planck stwierdził, że energia przenoszona przez falę nie ma charakteru "ciągłego", a tak naprawdę jest posiekana na konkretne "kawałki". Oznaczało to, że każde drgnięcie fali następuje skokowo, jednak na tak małą wielkość, że przejścia tworzą iluzję płynnych. Teoria ta nie od razu zyskała pełne poparcie światka naukowego, gdyż pojedynczy "kawałek" fali światła był niezwykle mały, nawet jak na standardy fizyki jądrowej**. Żarówka w ciągu sekundy miała wysyłać miliardy miliardów "kawałków" światła. Wkrótce te niewielkie porcje zyskały używaną do dzisiaj nazwę kwantów (kwanty światła z kolei noszą nazwę fotonów), a odkrycie Niemca okazało się kamieniem milowym. Jakiś czas później Albert Einstein (zresztą, dobry znajomy Plancka) sprawdził tę teorię badając co się dzieje gdy rzekomy kwant światła uderza w metal. Zgodnie z przewidywaniami Plancka i Einsteina światło wybijało określoną ilość elektronów z metalu, co zostało nazwane zjawiskiem fotoelektrycznym. W ten właśnie sposób obaj panowie doczekali się splendoru w postaci nagród Nobla. (Ciekawostką jest to, że Albert Einstein nigdy nie otrzymał Nobla za teorię względności, która obróciła naukę do góry nogami, a za znacznie mniej spektakularne zjawisko fotoelektryczne).
Interesujące jest to, że na pomysł fotonów przenoszących światło wpadł już dawno temu Isaac Newton. Rzecz w tym, że jego przewidywania okazały się błędne po próbach empirycznego dowiedzenia. Najważniejsze w tej kwestii było doświadczenie z dwoma szczelinami. Każdy na pewno o nim słyszał w szkole średniej. Eksperyment polegał na przepuszczeniu światła przez dwie szczeliny i obserwacji obrazu jaki pozostawi na ekranie. Wyniki dawały argumenty przemawiające za jak najbardziej falową naturą światła. Na ekranie ukazywał się obraz interferencyjny, taki jaki pozostawiłaby po sobie choćby fala na wodzie. Tutaj dochodzimy do paradoksu: Doświadczenie ze szczelinami udowadnia, że światło to fala elektromagnetyczna, a einsteinowski efekt fotoelektryczny dowodzi, iż światło to w istocie promień cząstek. Kto popełnił błąd? Okazało się, że nikt, a nowo rodząca się mechanika kwantowa wymaga od nas uznawania czegoś za coś innego i odwrotnie.
Geniusz odchodzi ze spuszczoną głową
O ile Plancka i ewentualnie Einsteina można uznać za dziadków mechaniki kwantowej, o tyle ojcami tej świeżej teorii należy nazwać Nielsa Bohra, Wernera Heisenberga oraz Erwina Schrödingera. Ten pierwszy zreflektował się nad planetarnym modelem atomu, stwierdzając iż jest on niestabilny biorąc pod uwagę użycie reguł fizyki klasycznej. Większość wybitnych uczonych szukając odpowiedzi zwróciło się ku nowej teorii kwantów. Drogą do zaadoptowania mechaniki kwantowej były badania nad elektronem, który pod wieloma względami przypominał światło. Eksperymenty wykazały, że podobnie jak foton, ma on charakter korpuskularno-falowy i ulega wielu innym dziwnym zachowaniom. Mam ten komfort, że nie muszę sztucznie wydłużać tego artykułu opisując zjawiska kwantowe, gdyż już to kiedyś zrobiłem. Przypomnę tylko, że najdonioślejszym wnioskiem płynącym z mechaniki kwantowej jest zasada nieoznaczoności Heisenberga. Nigdy z całą pewnością nie będziemy wstanie stwierdzić gdzie leży cząstka. Jedyne do czego jesteśmy zdolni to obliczenie prawdopodobieństwa, w którym miejscu można spotkać przykładowy elektron. Wracając do doświadczenia ze szczelinami. Pojedynczy elektron wystrzelony w stronę przeszkody, nim dotrze do ekranu pokona wszystkie możliwe drogi prowadzące do celu. Nie jest dla niego problemem przejść przez dwie szczeliny jednocześnie, czy też odlecieć na kilometr, zawrócić i uderzyć w ekran***. Kwestią jest jedynie obliczenie, na której trajektorii szansa na spotkanie cząstki będzie największa.
Tak się bawią, tak się bawią elektrony. |
Grawitacja i elektromagnetyzm to nie wszystko
Jak wykazało następne pokolenie fizyków, atomem kierują siły dotychczas nieznane, różne od grawitacji czy elektromagnetyzmu. Nie jest to dziwne, wszak trudno było oczekiwać, że niezwykłości mechaniki kwantowej powodowane są przez znane i przewidywalne oddziaływania. W ten sposób na firmamencie fizyki pojawiły się dwie nowe, tajemnicze siły. Pierwszą było oddziaływanie silne, odpowiadające za utrzymanie przy sobie protonów i neutronów wewnątrz jądra atomowego. Natomiast drugim oddziaływanie słabe, powodujące rozpad atomu i powiązaną z nim radioaktywność.
Znów pojawiła się idea unifikacji. Jednak tym razem aby mieć nadzieję na stworzenie teorii ostatecznej, należało połączyć już nie dwie, a cztery moce rządzące wszystkim co nas otacza. Wydaje się tu pasować humorystyczna reguła: Teoria jest wtedy, kiedy wszystko wiemy ale nic nie działa, natomiast praktyka wtedy kiedy wszystko działa, ale nikt nie wie dlaczego. W przypadku mechaniki kwantowej naukowcy prezentowali zdecydowanie praktyczne podejście. Mimo, że ludzkość nauczyła się korzystać z potencjału atomu, to jednak oddaliła się od odkrycia zamysłu Boga. Jakby tego było mało, zaczęto budowę gigantycznych obiektów badawczych, służących do zderzania ze sobą cząstek atomowych. Akceleratory szybko ujawniły, że to co nazywaliśmy cząstkami elementarnymi, da się rozbić na mniejsze elementy. W ten sposób ukazała się cała menażeria cząstek subatomowych, na oznaczenie których niemal zabrakło liter w alfabetach. Pojawiło się więc następne pytanie: Co tak naprawdę jest elementarnym budulcem materii?
Droga do Wielkiej Unifikacji
Aby rozpocząć pracę nad próbą połączenia dawnej wiedzy fizycznej z najnowszymi odkryciami, potrzebny był człowiek o nieschematycznym, lotnym umyśle. Niewątpliwie kimś takim był amerykański kpiarz, kawalarz i kobieciarz, Richard Feynman. Lubiący łamać bankowe szyfry i grać na bębnach ekscentryk rzucił w kąt skomplikowane równania, zastępując je graficznymi bazgrołami pełnymi kresek i strzałek. Dzięki tak zwanym diagramom Feynmana, ich autor rozrysował nową teorię - elektrodynamikę kwantową (QED, Quantum ElectroDynamics). Elektrodynamika kwantowa dotyczyła oddziaływania fotonu z cząstkami subatomowymi, zwłaszcza elektronem. Oprócz tego Feynman chciał wiedzieć jakie są skutki wpadania na siebie cząstek elementarnych. Otóż, do tego czasu wszelkie równania mające zobrazować tego typu sytuacje nasączone były wynikami nieskończonymi, z czym oczywiście fizycy nie mogli się pogodzić. Feynman dzięki swoim diagramom i różnym sztuczkom matematycznym (nieskończoność - nieskończoność = 0) doprowadził do renormalizacji i bardzo pozytywnych rezultatów. Wbrew pozorom nie jest to rzecz na tyle doniosła, żeby laikowi warto było tę nazwę zapamiętywać, jednak po latach rozczarowań nawet nieznaczne przybliżenie do unifikacji było nagradzane Noblem. Co dla nas ważniejsze - QED dała podwaliny pod kolejny krok do połączenia oddziaływań podstawowych.
Feynman zgrabnie wytłumaczył jak oddziałują na siebie elektrony - przez wymianę przenoszących energię fotonów. Fizycy wzorujący się na QED wysunęli hipotezę, jakoby za tajemnicze oddziaływania słabe odpowiadała inna cząstka, którą wymieniają między sobą elektrony z neutrinami. (Dla tych co przysypiali w szkole: Neutrina to cząstki elementarne bez ładunku elektrycznego, bardzo małe i nieuchwytne. Do tego stopnia, że w każdej sekundzie całą Ziemię przenikają biliony neutrin nie pozostawiając po sobie śladu. Neutrino ma jednak tę cechę, że reaguje na oddziaływanie słabe i tu badacze upatrywali swojej szansy.) Cząstkę tę oznaczono literą W (weak - słaby). Początkowo teoria ta szybko padła, pełna matematycznych anomalii. Wróciła w glorii już kilka lat później, gdy zastosowano skomplikowaną (dla nie-fizyka jak cholera) symetrię cechowania. Symetria nawet podświadomie kojarzy nam się z pięknem. Kobieta o symetrycznych rysach twarzy wydaje się urodziwsza, a diament w formie symetrycznego brylantu jest wartościowszy. W fizyce symetria również robi furorę, wskazując iż natura dąży do uporządkowania i elegancji. Używając symetrii Adbus Salam oraz Steven Weinberg, dokonali ostatecznego wyjaśnienia oddziaływania słabego, przewidując istnienie aż trzech cząstek odpowiedzialnych za oddziaływanie słabe: W(+), W(-) i Z(0). Zauważyli oni, że przy odpowiednio wysokiej energii, owe cząstki zachowują się podobnie. Hawking dla wyjaśnienia tej symetrii używa następującej przenośni: Ten efekt przypomina zachowanie kulki ruletki. Gdy energia jest wysoka, kulka zachowuje się zawsze w ten sam sposób - po prostu toczy się po kole. Ale gdy koło zwalnia, kulka traci energię i w końcu wpada do jednej z 37 przegródek. Inaczej mówiąc, możliwych jest 37 różnych stanów kulki w niskich energiach. Naukowcy poszli za ciosem i analogicznie potraktowali elektrony oraz neutrina - jako dwie strony tej samej monety. Na tej podstawie przewiduje się, że w pierwszych chwilach Wielkiego Wybuchu, czyli w czasie ogromnego natężenia energii, oddziaływanie słabe i elektromagnetyzm stanowiły jedność! To było pierwsze, od czasu Johna Maxwella, przełomowe połączenie sił podstawowych. Salam i Weinberg odkryli oddziaływanie elektrosłabe.
Wnet fizycy zwrócili się ku oddziaływaniom silnym. Skoro fotony przenoszą oddziaływanie elektromagnetyczne, a cząstki W(+), W(-) i Z(0) oddziaływanie słabe, to powinny istnieć jakieś cząstki odpowiadające za oddziaływanie silne. Słowo ciałem się stało, a cząstki scalające protony i neutrony, jak i tworzące je kwarki ochrzczono gluonami. Nazwa wzięła się stąd, iż gluony działają niczym klej dla subatomowych cząstek.
Po zrozumieniu oddziaływania silnego wystarczyło już tylko odnieść je do świeżej teorii elektrosłabej, aby mieć pełny obraz natury świata mikroskopowego. Podjęto się tego zadania, a wynik nosi nazwę Teorii Wielkiej Unifikacji (GUT, Grand Unified Theory). Analogicznie założono, że gluony są członkiem jednej rodziny cząstek, wraz z fotonami i cząstkami oddziaływania słabego, której podobieństwo ujawnia się przy wielkich energiach. Problem w tym, że sprawdzenie słuszności GUT jest niezmiernie trudne, gdyż energia potrzebna do unifikacji oddziaływań silnych i elektrosłabych jest poza zasięgiem możliwości człowieka. Dowodem na prawdziwość Wielkiej Unifikacji byłby obserwowany rozpad protonu na elektrony, gdyż takie zjawisko przewiduje teoria. Tu jednak też jest problem, gdyż średni czas rozpadu protonu może trwać nawet 10^32 lat. Z tego powodu, przynajmniej obecnie, GUT nie zostanie zweryfikowany. Jednak mimo to, wszystkie płynące z niego konsekwencje oraz przewidziane cząstki przyjmuje się za prawdę, pod postacią Modelu Standardowego.
Ślepy zaułek fizyki?
Mimo bezsprzecznej rewolucji, jaką zapewniło zunifikowanie oddziaływania słabego, silnego i elektromagnetyzmu, Model Standardowy nadal boryka się z poważną bolączką, o które starano się zapomnieć przy świętowaniu triumfów. Genialni fizycy pracujący nad Wielką Unifikacją doszli do wiekopomnych odkryć i wspaniałych zaszczytów, całkowicie pomijając siłę najbliższą nam wszystkim. Grawitację. Dopiero w ciągu ostatnich 20 lat zajęto się tym problemem na poważnie. Lekarstwem na chorobę okazuje się jedna z najbardziej niezwykłych teorii w historii nauki - Teoria Strun.
C.D.N.****
* Według ówczesnego stanu wiedzy, obliczano, że ilość wypromieniowanej energii jest proporcjonalna do czwartej potęgi częstości promieniowania, a to oznaczało, że ciało powinno promieniować w wysokiej częstotliwości nadfioletu. Przez to całą sytuację nazwano katastrofą w nadfiolecie.
** 6,5x10^–34 erg*sek, nazywana dziś stałą Plancka, jest obecna w większości równań mechaniki kwantowej.
*** Tak zwanym sumowaniem po trajektoriach zajmował się Richard Feynman.
**** Teraz już nie mam wyboru, gdyż na moje skromne wpisy spogląda administrator. Jeszcze pomyśli mnie zbanować.
0 komentarze:
Prześlij komentarz