O fizycznych podstawach badania zmian klimatu
Ocena tego, czy klimat na Ziemi się zmienia i jakie są kierunki tych zmian, wymaga dostępu do wiarygodnych informacji, jak ten klimat wyglądał w przeszłości. W szczególności, prognozowanie zmian klimatu wymaga uwzględnienia wielu zjawisk, z których część charakteryzuje się długimi okresami zmienności. Tymczasem regularne pomiary temperatury powietrza za pomocą termometrów prowadzone są od zaledwie stulecia. Czy oznacza to, że jesteśmy skazani na proste ekstrapolacje i domysły? Bynajmniej...
Stosunkowo elementarne procesy fizyczne pozwalają nam zaglądać w klimatyczną przeszłość naszej planety. W tej krótkiej notatce omówimy dwa spośród wielu zjawisk pozwalających szacować temperaturę w dawno minionych wiekach.
Oprócz najbardziej rozpowszechnionych izotopów i „zwykła” woda we wszystkich stanach skupienia zawiera około 0,2% stabilnego izotopu Dokładna wartość zależy od pochodzenia wody. Woda pochodząca z opadów musiała kiedyś wyparować z oceanów, a ciepło parowania jest nieco mniejsze dla lżejszych izotopów. Prawdopodobieństwo wyparowania opisane jest rozkładem Boltzmanna,
i jest mniejsze dla cząsteczek wody zawierających Zależy ono także od temperatury: im temperatura wyższa, tym większy względny udział izotopu w atmosferycznej parze wodnej. Ponieważ pokrywa lodowa w okolicach biegunów Ziemi bierze się przede wszystkim z opadów, badając próbki starego lodu pochodzącego z głębokich odwiertów, można wyznaczać średnią temperaturę na Ziemi w czasie, kiedy ten lód powstawał. Uzyskane opisaną metodą dane wskazują na w miarę stabilną temperaturę w ciągu ostatnich lat, wcześniej miała zaś miejsce epoka lodowcowa, przerywana jednak okresami gwałtownego ocieplenia. Porównując lód arktyczny z antarktycznym, można także zaobserwować występowanie tzw. huśtawki biegunowej, czyli oscylacyjnych zaburzeń światowego przepływu ciepła, powodujących, że po niewielkiej dodatniej fluktuacji temperatury na Grenlandii pojawia się z opóźnieniem jeszcze mniejsze ochłodzenie na Antarktydzie i odwrotnie.
Ludzka zapobiegliwość oraz naturalne procesy spowodowały, że mamy obecnie dostęp do próbek powietrza z różnych chwil w przeszłości. Można dzięki temu stwierdzić, że w połowie XVIII wieku atmosfera ziemska składała się w 0,0039% z pary wodnej, w 0,00028% z ditlenku węgla mniej niż co milionowa jej cząsteczka była cząsteczką metanu Energie drgań atomów tworzących te cząsteczki odpowiadają długości fali elektromagnetycznej rzędu mikrometrów; takie fale, emitowane z powierzchni Ziemi, są silnie absorbowane przez cząsteczki , i a potem w wyniku spontanicznej emisji częściowo zawracane. Powoduje to efekt cieplarniany, czyli znaczący wychwyt zwrotny ziemskiego ciepła: symulacje komputerowe pokazują, że nawet tak niewielka domieszka powyższych substancji, tzw. gazów cieplarnianych, powoduje podniesienie średniej temperatury na powierzchni Ziemi z przy ich nieobecności, do W antarktycznym lodzie można znaleźć uwięzione bąbelki powietrza sprzed nawet lat, a wyznaczenie stężenia zawartego w nich i pozwala oszacować średnią temperaturę powierzchni Ziemi w tak odległej przeszłości. Dostępne obecnie wyniki pokazują gwałtowny wzrost stężenia tych gazów cieplarnianych w ciągu ostatnich 250 lat: o 38%, a o 160%. Wzrost ten odróżnia się wyraźnie od długookresowych, stabilnych zmian stężenia tych substancji, jakie można zaobserwować w całym badanym okresie.
Czy opisane powyżej dane pozwalają z zadowalającą dokładnością przewidzieć, co stanie się z klimatem na Ziemi w ciągu najbliższych stu lat? Zadanie to jest niezwykle trudne, trzeba bowiem oprócz średniej temperatury uwzględnić także obieg wody w atmosferze i pamiętać, że ewentualne zmiany klimatu mogą silnie zależeć od regionu (używana w tym kontekście nazwa „globalne ocieplenie” jest więc dość myląca). Porównując przewidywania różnych symulacji, badacze wolą raczej szacować prawdopodobieństwa wystąpienia różnych zjawisk. Na przykład, prawdopodobieństwo zwiększenia średniej temperatury powierzchni Ziemi o co najmniej w wyniku stałej emisji gazów cieplarnianych na poziomie sprzed kilku lat (6 mln ton w 1990 roku i 8 mln ton w 2007 roku) szacuje się na 40–80%. Czy to dużo? Na to pytanie muszą sobie sami odpowiedzieć i decydenci kierujący światową gospodarką, i zwykli obywatele.
[Cytowane informacje pochodzą z wykładu T. Stockera wygłoszonego w CERN-ie we wrześniu 2009 r.]