Dwie wieże na zgliszczach (I)
25/01/2011
787 Wyświetlenia
0 Komentarze
29 minut czytania
Refleksje w stulecie przewrotu w fizyce Niech mi wybaczą ten wpis wszyscy zawodowi fizycy, którzy tu zajrzą. Dla was zawarta tu informacja to ledwie elementarz, do tego wysłowiony potocznym, elementarnym językiem. Lecz są całe rzesze ludzi ciekawych świata, dla których matematyczny formalizm to przysłowiowa chińszczyzna, którzy widząc symbol całki czy choćby delta iks, salwują się ucieczką w bezpieczniejsze rubieże. Z myślą o nich właśnie napisałem ten szkic. Powiadają, że życie pisze najlepsze scenariusze. W rzeczy samej, historia ostatniego stulecia fizyki jest tak niesamowita, że nie powstydziłby się jej renomowany scenarzysta, spec od thrillerów. Oto budowana przez z górą 200 lat misterna i zda się niewzruszona konstrukcja gmachu fizyki rozsypuje się niczym biblijna wieża Babel, a z ruin […]
Refleksje w stulecie przewrotu w fizyce
Niech mi wybaczą ten wpis wszyscy zawodowi fizycy, którzy tu zajrzą. Dla was zawarta tu informacja to ledwie elementarz, do tego wysłowiony potocznym, elementarnym językiem. Lecz są całe rzesze ludzi ciekawych świata, dla których matematyczny formalizm to przysłowiowa chińszczyzna, którzy widząc symbol całki czy choćby delta iks, salwują się ucieczką w bezpieczniejsze rubieże. Z myślą o nich właśnie napisałem ten szkic.
Powiadają, że życie pisze najlepsze scenariusze. W rzeczy samej, historia ostatniego stulecia fizyki jest tak niesamowita, że nie powstydziłby się jej renomowany scenarzysta, spec od thrillerów. Oto budowana przez z górą 200 lat misterna i zda się niewzruszona konstrukcja gmachu fizyki rozsypuje się niczym biblijna wieża Babel, a z ruin wyłaniają się zarysy dwóch nowych wież, niby bliźniaczych, lecz do siebie nie przystających.
Zapraszam do prześledzenia tego dramatu poznania od początku, który jest, jak u Hitchcocka, trzęsieniem ziemi – poprzez rozpaczliwe próby scalenia antagonizujących wież na powrót w jeden spójny gmach (unifikacje) – aż po stan dzisiejszy, który bynajmniej nie jest happy endem, lecz nieustanną wędrówką przez labirynty hipotez i spekulacji.
Ten thriller oparty jest na faktach, nie fikcji – przeto nie oczekuj, Drogi Czytelniku, teleportacji, napędu WARP, maszyny czasu i innych tego typu gadżetów – one są w Hollywood, nie w fizyce! Nim jednak udasz się ze mną w podróż, mała przestroga. Gdy poczujesz frustrację, bo niewiele zrozumiałeś, nie zniechęcaj się! Zrozumieć istotę teorii, hipotez, modeli tworzonych przez fizyków niepodobna bez znajomości formalizmu matematycznego, której, implicite tu zakładam, statystyczny czytelnik nie ma. Dlatego tu nie może być mowy o zrozumieniu tylko o przyjęciu (na wiarę!) do wiadomości, że takie czy inne koncepcje/spekulacje powstają. A że większość z nich „nie mieści się nam w głowie”? Cóż, to też informacja, być może dla wielu czytelników nowa: oto poziom abstrakcji, na którym toczą się naukowe spekulacje, nie jest dla nas osiągalny, nawet w wersji opisowej. Inna sprawa, że w większości przypadków ta wersja nie oddaje pełnego sensu zawartego w formalizmie matematycznym (inaczej nie byłby on potrzebny do zrozumienia istoty rzeczy). Jest tu więc troszkę tak, jak w Ewangeliach, gdy Jezus serwuje przypowieści o Królestwie Niebieskim, którego nie można pojąć wprost, tylko w sensie przybliżonym, metaforycznym.
Klaps 1: Trzęsienie ziemi
W noc sylwestrową przełomu XIX i XX w. fizycy mieli prawo do beztroskiej zabawy w poczuciu dobrze spełnionego obowiązku. Powszechnie uważano, że gmach fizyki został ukończony. Na jego nieskazitelnej konstrukcji, zbudowanej ze zweryfikowanych empirycznie matematycznych modeli, widniały jeszcze tylko dwie małe rysy. Pierwsza, na piętrze termodynamiki, wskazywała na niezgodność empirycznego widma promieniowania ciała doskonale czarnego z teoretycznym, opartym na prawach fizyki klasycznej, wzorem Rayleigha-Jeansa. Druga, na piętrze elektrodynamiki, objawiała się brakiem niezmienniczości solidnie zweryfikowanych doświadczalnie równań Maxwella względem transformacji Galileusza (ta niezmienniczość była w ówczesnym paradygmacie obowiązującym testem na falsyfikowalność teorii).
Nikt się tymi rysami zbytnio nie przejmował. Co tam – drobiazg, który się dopracuje – dwa pociągnięcia pędzla i gmach gotowy – bagatelizowano problem.
Okazało się jednak, że te dwie małe rysy rychło zamieniły się w całkiem szerokie pęknięcia, rozwalając gmach newtonowskiej fizyki w proch. Co ciekawe, okazały się one zalążkami dwóch nowych budowli. Rysa pierwsza (nazwana później „katastrofą ultrafioletową”) stała się fundamentem „wieży kwantowej”, która ukazała fizykom całkiem nowe oblicze mikroświata, druga zaś – „wieży relatywistycznej”: nowej teorii grawitacji, która zrewolucjonizowała wielkoskalowy (kosmologiczny) obraz rzeczywistości. I w jednym i w drugim przypadku nowa fizyka napotkała ograniczenia, które znacznie osłabiły optymizm poznawczy piewców deterministycznej mechaniki pokroju Laplace’a znanego z naśladowania Archimedesa: „dajcie mi położenia i pędy wszystkich cząstek świata, a pokażę wam jego historię i przyszłe losy”.
Klaps 2: Małe jest nieuchwytne, czyli niechciane kwanty
Wkrótce po Sylwestrze wprowadzającym świat w wiek dwudziesty na scenę wkroczył Max Planck, teoretyk z Berlina, ekspert od teorii ciepła. Szukając sposobu na zaszpachlowanie pierwszej rysy, ślęczał nad wzorem Rayleigha-Jeansa i dumał, jak go zmodyfikować, żeby zechciał pokazywać w paśmie fal ultrafioletowych widmo zgodne z danymi empirycznymi. W pewnej chwili doznał olśnienia niczym pomysłowy Dobromir: zaraz, zaraz, jeśli w tym
członie w mianowniku dopisać „minus jeden”, to widmo teoretyczne zgadza się z obserwowanym w całym przedziale częstotliwości! No dobrze, ale jakie są tego konsekwencje? Okazało się, że dokonana przez Plancka modyfikacja wzoru Rayleigha-Jeansa wymagała założenia, że materia
nie może wypromieniowywać energii inaczej, niż w określonych, niepodzielnych porcjach, nazwanych później kwantami. Bardziej nie chcąc niż chcąc, Planck przyjął to nieprzystające do fizyki newtonowskiej założenie.
No i zaczęło się dziać. Pierwsze ćwierćwiecze ubiegłego wieku przebiegło pod znakiem dynamicznego rozwoju teorii kwantów, a fizycy raz po raz popadali w osłupienie lub co najmniej zakłopotanie, bowiem niektóre konsekwencje tej teorii zdawały się kpić ze zdrowego rozsądku. Okazało się np. że w świecie cząstek elementarnych nie rządzi determinizm, lecz probabilistyka, że materia ma charakter falowy, wreszcie – że w procesie poznania istnieją immanentnie zawarte w mechanizmach funkcjonowania świata ograniczenia, których nigdy nie da się ominąć (zasada nieoznaczoności).
Klaps 3: Duże jest nieosiągalne, czyli kres absolutów
Czas przejść do drugiej rysy. Matematyczną transformację, względem której równania Maxwella zachowywały się niezmienniczo, odkrył Konrad Lorentz, lecz dopiero Albert Einstein odważył się wprowadzić ją do fizyki jako uogólnienie transformacji Galileusza.
Odważył się – bo, podobnie jak Planck, musiał złożyć w ofierze newtonowskie świętości: absolutny czas i absolutną przestrzeń, pogodzić się z istnieniem przeczących zdrowemu rozsądkowi relatywistycznych paradoksów (najbardziej znany to paradoks bliźniąt) a także zrezygnować z eleganckiej, prostolinijnej przestrzeni euklidesowej; w nowej teorii grawitacji, jaką jest ogólna teoria względności (OTW) Einsteina materia jawi się jako zakrzywienie czasoprzestrzeni (istotę OTW spektakularnie w jednym zdaniu streścił znany fizyk John Archibald Wheeler:
przestrzeń mówi materii, jak ma się poruszać a materia mówi przestrzeni, jak ma się zakrzywiać[i]).
Podobnie jak „wieża kwantowa”, „wieża relatywistyczna” także przyniosła bardzo dokuczliwe ograniczenie. Dowiedzieliśmy się, że prędkość światła jest najwyższą z możliwych prędkości w przyrodzie, na dodatek osiągalną wyłącznie przez fotony posiadające zerową masę spoczynkową. Miłośnicy podróży międzygalaktycznych wcale nie mają powodów do zadowolenia, ale nie ma co wierzgać przeciw Einsteinowi – on tylko odkrył to, co stanowiło dotąd ukryte mechanizmy funkcjonowania świata materialnego. Zresztą nie mają oni zamiaru wierzgać, lecz tego odkrycia po prostu nie przyjmują do wiadomości – widać to aż nadto w głównym nurcie fantastyki zwanej, często bez kozery, naukową – zarówno tej pisanej jak też tej „kręconej” (Star Trek i okolice).
Klaps 4: Dwie wieże rosną
Widzimy więc, że obie rysy nie tylko rozwaliły w perzynę gmach fizyki klasycznej, ale obróciły do góry nogami paradygmatykę fizyki. Przełom wieków był świadkiem rewolucji w fizyce na miarę kopernikańsko-newtonowskiej stanowiącej wręcz podręcznikową ilustrację koncepcji Thomasa Kuhna zawartej w epokowym dziele „Struktura rewolucji naukowych”. Kuhn uważał, że podczas rewolucji naukowej starszy paradygmat jest zamieniany w całości lub po części przez niezgodny z nim paradygmat nowszy, który nie jest modyfikacją starego tylko jego zamiennikiem, gdyż
„instytucjonalna tradycja naukowa wyłaniająca się z rewolucji naukowej jest nie tylko niezgodna, ale też nieuzgadnialna z tą, która pojawiła się przed nią”.[ii]
Rewolucje naukowe mają to do siebie, że pociągają za sobą dynamiczny wysyp nowych hipotez i teorii. Nie inaczej było po trzęsieniu ziemi w fizyce.
I tak mechanika kwantowa zaowocowała burzliwym rozwojem fizyki cząstek elementarnych. Odkrywano ich coraz więcej a obraz mikroświata miast się wyklarować, podlegał coraz większej komplikacji. Dyscyplina czekała na swego Mendelejewa – i czeka do dziś.
Mechanika kwantowa zmieniła też wyobrażenie fizyków o próżni. Okazało się, że nie jest ona nicością, zupełną pustką, jak sądzono w fizyce newtonowskiej, lecz polem kwantowych fluktuacji, gdzie nieustannie dochodzi do kreacji par splątanych cząstek materii i antymaterii. Takie cząstki powstają więc „z niczego” jakby kpiąc sobie z uświęconych w fizyce zasad zachowania masy i energii, za to potwierdzając stare porzekadło, że natura nie znosi próżni. Nie jest to bynajmniej czysta spekulacja: w 1948 r. holenderski fizyk Hendrik Casimir wpadł na pomysł wykrycia tych cząstek, a w 1997 r. jego amerykański kolega po fachu Steve Lamoreaux pomysł ten zrealizował w laboratorium, wykazując tym samym czarno na białym, że fluktuacje próżni istnieją.
na rysunku: Mierząca ok.. 0,1 mm kula porusza się w kierunku gładkiej płyty reagując na fluktuacje energii próżni pustej przestrzeni. To przyciąganie znane jest jako efekt Casimira.
Konsekwencje mechaniki kwantowej zaprowadziły nas dalej, niż bylibyśmy skłonni przypuszczać. Badanie związków między świadomością a mechanizmami kwantowymi zainicjowało nową dyscyplinę – parafizykę, która zajmuje się fizykalną naturą parapsychologii. Pewne fenomeny parafizyczne, na przykład psychokinezę, można wyjaśnić na gruncie nowej rozszerzonej fizyki kwantowej czy teorii chaosu.
Podobnie jak wieża kwantowa, tak i relatywistyczna błyskawicznie obrastała hipotezami i teoriami. Towarzyszyła im fala doniosłych odkryć w astronomii. Nowa dziedzina, astrofizyka spektralna, nie tylko przyniosła wiedzę o składzie chemicznym, a w konsekwencji ewolucji gwiazd; także zmieniła nasze wyobrażenie o strukturze Wszechświata. Badania widm galaktyk wykazały, że oddalają się one od siebie, co miałoby świadczyć o rozszerzaniu się Wszechświata. Nieuchronnie nasunął się wniosek, że cały kosmos powstał z Wielkiego Wybuchu (ang. Big Bang).
W latach międzywojennych OTW zaowocowała wysypem modeli kosmologicznych. Większość z nich oparta była na idei Wielkiego Wybuchu, która umocniła się w 1965 r., kiedy to Arno Penzias i Robert Wilson wykryli promieniowanie reliktowe tła zapostulowane jako konsekwencja Big Bangu już w 1948 r. przez George Gamowa.
Jednym z problemów modeli kosmologicznych była niemal idealna izotropowość obserwowanego wszechświata. Wytłumaczenie znalazł w 1981 r. Alan Guth, proponując tzw. model inflacyjny. Zakłada on, że w drobnym ułamku sekundy po Wielkim Wybuchu wszystko to, co w nim powstało, rozrosło się i rozdęło tak bardzo, że wszelkie krzywizny zostały „wyprostowane” i „wygładzone”. Inflacja zdumiewająco dokładnie (do 59 miejsca po przecinku!) dostroiła równowagę między grawitacyjnym hamowaniem a ekspansją energii
[iii].
Jak wyglądał Wszechświat in statu nascendi? Fizycy obliczyli, że gdy miał zaledwie 10-44sekundy, jego rozmiary wynosiły 10-33cm a gęstość 1093g/cm3. Przy takich warunkach nie obowiązują znane nam prawa fizyki. Ten moment nazywa się progiem Plancka. Aby opisać Wszechświat w erze przed tym progiem, trzeba zintegrować teorię grawitacji z mechaniką kwantową – czyli połączyć wieże.
Klaps 5: Pomost między zwaśnionymi wieżami
Fizycy zawsze marzyli, aby model funkcjonowania świata był prosty i klarowny. Najchętniej widzieliby jedno równanie (no, ostatecznie układ równań) z którego, przez podstawienie odpowiednich parametrów, dałoby się wywieść wszystko: mechanikę, termodynamikę, optykę, etc. Takie rozwiązanie nosi nazwę teorii unifikacji. Niestety, zainicjowana ponad wiek temu rewolucja zamiast scalać, wprowadziła następne zróżnicowanie. Nowa dyscyplina: mechanika kwantowa i einsteinowska teoria grawitacji (OTW) rozwijały się, owszem, dynamicznie, lecz każda sobie. Wybitny polski kosmolog ks. prof. Michał Heller mówi obrazowo, że współczesna fizyka jest chora na schizofrenię: świat relatywistyczny jest dokładny i geometryczny, zaś świat kwantów niezdeterminowany i probabilistyczny
[iv]. Ale przecież świat jest jeden, więc powinien istnieć jeden spójny zestaw rządzących nim praw. Oczywiście, fizycy czynili co w ich mocy, żeby te światy „pożenić” ze sobą. Już Einstein pracował nad jednolitą teorią pola mającą opisywać siły grawitacji i elektromagnetyzmu jako dwa przejawy tego samego zjawiska. Jego wysiłki były skazane na niepowodzenie, gdyż w tamtych czasach nie wiedziano, że są jeszcze dwie siły: słabe i silne oddziaływania jądrowe.
Fizycy wykazali, że im wyższa energia oddziaływania cząstek, tym bardziej natężenia różnych oddziaływań zbliżają się do siebie, tak że przy pewnym progu energii rzeczywiście dochodzi do ich „złączenia się” (unifikacji) w jedno oddziaływanie. W 1967 r. Steven Weinberg, Sheldon Lee Glashow i Abdus Salam zaprezentowali teorię tzw. „małej unifikacji” integrującej oddziaływania elektromagnetyczne i słabe w jedno (nazwali je elektrosłabe). Unifikacja ta zachodzi przy energiach przekraczających 100 GeV. Taki poziom energii był charakterystyczny dla Wszechświata liczącego 10-12 sekundy, lecz jest osiągalny w akceleratorach jądrowych, dzięki czemu można było tę teorię zweryfikować empirycznie – a potem przyznać odkrywcom Nagrodę Nobla (1979 r.)
Pokrzepieni tym osiągnięciem fizycy poszukiwali unifikacji następnych oddziaływań. W latach 70. XX wieku powstał zalążek Modelu Standardowego uważanego dziś za formalnie obowiązującą teorię fizyki cząstek elementarnych. Model opisuje trzy z czterech (bez grawitacji) oddziaływań podstawowych i został częściowo potwierdzony doświadczalnie, lecz do dziś nie zaobserwowano bozonu Higgsa – kluczowej cząstki przezeń przewidywanej.
Model Standardowy nie zadowolił fizyków, bo nie wyjaśnia wielu zjawisk. Dlatego nadal trwały poszukiwania, które zaowocowały teoriami Wielkiej Unifikacji (GUT) – unifikującymi oddziaływania silne i elektrosłabe. Dzieje się to przy energiach rzędu 10
15 GeV, co odpowiada warunkom, w jakich znajdował się Wszechświat w 10
-35 sekundy. Kolejna teoria, tzw. Supersymetria, przy energiach rzędu 10
19 GeV (10
-44 sekundy), unifikuje oddziaływania elektrosłabe, silne i grawitację.
Warto dodać, że na poziomie Wielkiej Unifikacji istnieją już tylko dwa rodzaje cząstek: fermiony i bozony, zaś Supersymetria przewiduje istnienie cząstek tylko jednego rodzaju nazwanych – jakżeby inaczej! – supercząstkami.
na rysunku:
Struktura materii. 1) kryształ, 2) sieć atomów, 3) pojedynczy atom, 4) elektron, 5) proton lub neutron składający się z trzech kwarków, 6) elektrony i kwarki mogą być tak naprawdę małymi drgającymi strunami.
Wielkie nadzieje wiążą fizycy z teorią superstrun. Jest ona obecnie najbardziej obiecującą kwantową teorią grawitacji i kandydatką na wymarzoną „teorię wszystkiego” – uogólnia bowiem w sobie wszystkie dotychczasowe unifikacje (Model Standardowy, GUT). Postuluje istnienie mikroskopijnej wielkości obiektów (10-33cm), które można sobie wyobrazić na podobieństwo strun zwiniętych w pętle. Obiekty te wirują, skręcają się i oscylują nie tylko w czterech znanych nam wymiarach (czas i przestrzeń), ale też w sześciu (lub siedmiu) dodatkowych. Gdy struny wpadają w rezonans, dają „czyste tony”, które obserwujemy jako oddziaływania i cząstki we Wszechświecie.Sama idea jest prosta i piękna, choć abstrakcyjna. Lecz na takim etapie poznania znajduje się od stu lat fizyka; sięgając granic mikro- i makroświata spotykamy się z jego nieuchwytnością i niewyobrażalnością. Abstrakcja jest, być może, jedynym sposobem sięgnięcia rozumem w ten aspekt rzeczywistości, którego nigdy nie będziemy w stanie zobaczyć i bezpośrednio doświadczyć.
Ale to nie jest zmartwienie – wszak podobne sytuacje mieliśmy wcześniej – np. prądu elektrycznego też „nie widać”, a jego istnienia doświadczamy pośrednio na każdym kroku! Ważne jest tylko to, aby teoria, choćby najbardziej abstrakcyjna, dała się zweryfikować empirycznie… No właśnie, z tym też zaczyna być problem.
Klaps 6: Zmagania z kapryśną Empirią
Weryfikacja empiryczna modeli matematycznych w fizyce jest warunkiem sine qua non uznania ich za teorie. O ile w makroświecie nie ma z tym większych problemów (pomiar odległości, czasu, temperatury etc.) o tyle w skalach kwantowej i kosmologicznej tak różowo już nie jest. Pomiary na poziomie cząstek elementarnych z jednej strony napotykają na barierę zasady nieoznaczoności (pomiar zakłóca doświadczenie) z drugiej na prozaiczne problemy związane ze skalą wartości mierzonych – czy to dotyczy dystansu, czy ładunku (energii), czy innych parametrów. Mimo tych kłopotów postępująca technologia otwiera przed pomiarami nowe horyzonty. Potrafimy dziś w sposób niewyobrażalnie dokładny mierzyć podstawowe wielkości fizyczne (niektóre z nich przedstawiono w tabeli obok), lecz
mimo to nie mamy powodów do huraoptymizmu. Nie będziemy w stanie wytworzyć (sztucznie) warunków panujących w pobliżu ery Plancka. Podobnie nie będzie możliwe sięgnięcie obserwacją ani do wnętrza czarnych dziur ani do okresów młodego Wszechświata (choć astronomowie zaglądają w coraz dalszą przeszłość – niedawno np. zaobserwowali gwiazdę, która zgasła 13,7 mld lat temu czyli „ledwie” 630 mln lat po Wielkim Wybuchu).
W związku z tym opisane wyżej teorie supersymetrii i superstrun nie są, a niektórzy sceptycy twierdzą, że nigdy nie będą zweryfikowane empirycznie (Sheldon Lee Glashow ironizuje, że teoria superstrun jest „absolutnie bezpieczna”, jako że nie ma jakiegokolwiek sposobu by ją zweryfikować i ewentualnie obalić).
Czy nowy akcelerator cząstek, zwany Wielkim Zderzaczem Hadronów (LHC) zbudowany w CERN-ie może zmienić tę sytuację? Fizycy wiążą z nim spore nadzieje, licząc nie tyle osiągnięcie warunków młodego Wszechświata, ile na zbadanie tendencji zbliżania się do siebie oddziaływań dla energii wyższych, niż dotychczas osiągane. LHC ma także potwierdzić istnienie bozonu Higgsa i pomóc wyjaśnić problem antymaterii.
Częstotliwość
John Hall i Theodor Haensch (Nobel w 2005 r.) zbudowali laser umożliwiający mierzenie częstotliwości z dokładnością do jednej biliardowej (10-15) i przymierzają się do tysiąc razy dokładniejszego (10-18).
Czas
W kwietniu 2008 r. naukowcy z USA zbudowali zegary mierzące czas z dokładnością 10-17sek. Taka dokładność nie jest nam potrzebna na co dzień – ani przy zmaganiach sprinterów, ani tym bardziej na dworcach kolejowych, ale w rzeczywistości mikroświata jest wciąż niewystarczająca; do czasu Plancka (5×10-44 sek), który jest uważany za kwant czasu, jeszcze sporo brakuje.
Temperatura
Wysłany w maju 2009 r. w kosmos europejski satelita „Planck” bada mikrofalowe promieniowanie tła. Jest on w stanie wykryć fluktuacje temperatury tła rzędu milionowej części stopnia.
Masa
Dla codziennych potrzeb wystarczy nam ważenie z dokładnością 1 grama. Aptekarze potrzebują już dokładności miligramowej (10-3 g).A fizykom udało sie precyzyjnie określić masy spoczynkowe cząstek: protonu (1,67262171×10-24g),elektronu (9,1093826×10-28g).
Prędkość
„Suszarki” policyjne mierzą prędkość z dokładnością ok. 3%, zaś zawrotną prędkość światła (299 792 458 m/s) znamy z dokładnością 0,4 m/s (0,00000013%).
Odległość
Jeszcze dokładniej mierzymy odległość Ziemia – Księżyc: do 2 mm (0,0000000005%)
Pomiary kątowe
System radioteleskopów VLBA (Very Long Baseline Array) umożliwia obserwację obiektów z rozdzielczością do 0,0001" (odpowiada to grubości ludzkiego włosa obserwowanego z odległości 400 km.).
Trwają też prace nad interferometrycznym teleskopem optycznym. Dzięki złożeniu obrazów otrzymywanych w dwóch dziesięciometrowych teleskopach Keck I i Keck II znajdujących się na hawajskim szczycie Mauna Kea, astronomowie chcą osiągnąć rozdzielczość optyczną wynoszącą 0,001", a w projekcie TRIO przewidziano kosmiczny interferometr, składający się z trzech teleskopów optycznych, którego rozdzielczość kątowa ma sięgać 0,00001". Powstaje także instrument, który umożliwi pomiary prędkości radialnych obiektów odległych o lata świetlne z dokładnością 1 cm/s.
cdn
[ii] T. Kuhn,
Struktura rewolucji naukowych, PWN, Warszawa 1963
[iii] Owen Jay Gingerich,
Boski Wszechświat, Wydawnictwa UW, 2009
[iv] Michał Heller,
Kosmologia kwantowa, Prószyński i S-ka, 2001