Rejestry temperatury wykorzystywane przez klimatologów i rządy do tworzenia modeli, które następnie prognozują niebezpieczne skutki globalnego ocieplenia spowodowanego przez człowieka, powodują poważne problemy, a nawet zniekształcenia danych, stwierdziło w rozmowie z „The Epoch Times” wielu naukowców, którzy opublikowali najnowsze badania na ten temat.
Międzyrządowy Zespół ONZ ds. Zmian Klimatu (IPCC) podziela ten pogląd, a jego przywódcy w odpowiedzi na to naciskają na poważne zmiany w polityce globalnej.
Jednak eksperci naukowi z całego świata z różnych dziedzin sprzeciwiają się temu. W recenzowanych badaniach przytaczają szeroki zakres błędów w danych o globalnej temperaturze wykorzystanych do wyciągnięcia tragicznych wniosków; mówią, że nadszedł czas, aby ponownie przeanalizować całą narrację.
Problemy z danymi dotyczącymi temperatury obejmują brak danych reprezentatywnych pod względem geograficznym i historycznym, zanieczyszczenie zapisów ciepłem pochodzącym z obszarów miejskich oraz uszkodzenie danych wprowadzone w procesie znanym jako „homogenizacja”.
Wady są tak znaczące, że sprawiają, że dane dotyczące temperatury – i oparte na nich modele – są w zasadzie bezużyteczne lub co gorsza, wyjaśniło trzech niezależnych naukowców z Centrum Badań nad Środowiskiem i Nauk o Ziemi (CERES).
Eksperci stwierdzili, że gdy weźmie się pod uwagę uszkodzenie danych, rzekomy „kryzys klimatyczny” rzekomo spowodowany działalnością człowieka znika.
Zamiast tego naturalna zmienność klimatu oferuje znacznie lepsze wyjaśnienie obserwowanych zjawisk – stwierdzili.
Niektórzy eksperci powiedzieli „The Epoch Times”, że wydaje się, że w grę wchodzi celowe oszustwo, podczas gdy inni sugerowali bardziej niewinne wyjaśnienia.
Jednak niezależnie od przyczyny istnienia problemów, konsekwencje ustaleń są trudne do przecenienia.
W przypadku braku kryzysu klimatycznego uzasadnienie wydatkowania bilionów dolarów przez rząd i kosztownych zmian w polityce publicznej mających na celu ograniczenie emisji dwutlenku węgla (CO2) załamuje się, jak wyjaśniają naukowcy w serii wywiadów na temat swoich badań.
„Przez ostatnie 35 lat słowa IPCC uważano za ewangelię” – twierdzi astrofizyk i założyciel CERES, Willie Soon. Do niedawna był pracownikiem naukowym współpracującym z Center for Astrophysics, Harvard & Smithsonian.
„I rzeczywiście aktywizm klimatyczny stał się nową religią XXI wieku – heretycy nie są mile widziani i nie wolno im zadawać pytań” – powiedział „The Epoch Times” pan Soon.
„Ale dobra nauka wymaga, aby zachęcano naukowców do kwestionowania dogmatów IPCC. Rzekoma czystość globalnego zapisu temperatury jest jednym z najświętszych dogmatów IPCC.”
W najnowszym raporcie rządu USA dotyczącym krajowej oceny klimatu stwierdza się: „Działalność człowieka zmienia klimat.
„Dowody na ocieplenie wielu aspektów układu ziemskiego są niepodważalne, a nauka nie pozostawia wątpliwości, że wzrost stężenia gazów cieplarnianych w atmosferze napędza wiele obserwowanych trendów i zmian”.
Według raportu jest to w szczególności spowodowane działalnością człowieka, taką jak spalanie paliw kopalnych na potrzeby transportu, energii i rolnictwa.
Patrząc na ramy czasowe, uwypukliliśmy główne problemy związane z tą narracją, powiedział Soon.
„Kiedy ludzie pytają o globalne ocieplenie lub zmianę klimatu, istotne jest pytanie: «Od kiedy?». Dane pokazują, że ociepliło się od lat 70. XX wieku, ale nastąpiło to po okresie ochłodzenia, który miał miejsce w latach 40. XX wieku” – stwierdził.
Chociaż obecnie jest „zdecydowanie cieplej” niż w XIX wieku, Soon stwierdził, że przybliżone dane dotyczące temperatury pokazują, że XIX wiek „był wyjątkowo zimny”.
„To był koniec okresu znanego jako mała epoka lodowcowa” – powiedział.
„Pokazują, że obecny klimat poza miastami nie jest niczym niezwykłym” – stwierdził, dodając, że ciepło pochodzące z obszarów miejskich niewłaściwie wpływa na dane.
„Jeśli wykluczymy dane dotyczące temperatury w miastach, które reprezentują jedynie 3 procent powierzchni planety, otrzymamy zupełnie inny obraz klimatu”.
Homogenizacja
Naukowcy twierdzą, że jednym z problemów jest uszkodzenie danych wynika z mało znanego procesu zwanego „homogenizacją”.Według klimatologów współpracujących z rządami i ONZ algorytmy stosowane do homogenizacji mają na celu, w miarę możliwości, korygowanie różnych błędów, które mogą występować w surowych danych dotyczących temperatury.
Do błędów tych zalicza się między innymi przeniesienie stacji monitorowania temperatury, zmiany w technologii wykorzystywanej do gromadzenia danych lub zmiany w otoczeniu termometru, które mogą mieć wpływ na jego odczyty.
Na przykład, jeśli stacja pomiaru temperatury została pierwotnie umieszczona na pustym polu, ale od tego czasu pole to zostało wybrukowane i stało się parkingiem, zapis wskazywałby na znacznie wyższe temperatury. W związku z tym sensowne byłoby podjęcie próby skorygowania zebranych danych.
Praktycznie nikt nie sprzeciwia się potrzebie pewnej homogenizacji w celu kontrolowania różnych czynników, które mogą zanieczyścić dane dotyczące temperatury.
„Chociaż społeczność naukowa uzależniła się od ślepego używania programów komputerowych do korygowania błędów w danych, do niedawna nikt nie zawracał sobie głowy zaglądaniem pod maskę, aby sprawdzić, czy programy działają, gdy zostaną zastosowane do rzeczywistych danych dotyczących temperatury” – powiedział The Epoch Times.
Od początku XXI wieku różne organizacje rządowe i międzyrządowe tworzące globalne rejestry temperatur korzystają z programów komputerowych w celu automatycznego dostosowywania danych.
Pan Soon, pan Connolly i zespół naukowców z całego świata spędzili lata przyglądając się programom, aby ustalić, jak działają i czy są niezawodne.
Jeden z naukowców zaangażowanych w analizę, Peter O'Neill, od 2011 roku codziennie śledzi i pobiera dane z Narodowej Administracji Oceanograficznej i Atmosferycznej (NOAA) oraz jej Globalnej Sieci Klimatologii Historycznej.
Odkrył, że każdego dnia NOAA dokonuje różnych korekt danych.
Używają tego samego programu komputerowego do homogenizacji i uruchamiają go ponownie mniej więcej co 24 godziny” – powiedział Connolly. „Ale każdego dnia korekty homogenizacji obliczane dla każdego zapisu temperatury są inne”.
To „bardzo dziwne” – stwierdził.
„Jeśli korekty dla danej stacji pogodowej mają jakiekolwiek podstawy w rzeczywistości, to oczekiwalibyśmy, że program komputerowy będzie za każdym razem obliczał te same korekty. Ustaliliśmy, że tak się nie dzieje” – powiedział Connolly.
Obawy te były pierwszym powodem wszczęcia międzynarodowego śledztwa w tej sprawie przez pana Soon i jego współpracowników.
Ponieważ NOAA nie przechowuje informacji historycznych na temat swoich stacji pogodowych, naukowcy z CERES skontaktowali się z europejskimi naukowcami, którzy zestawiali dane dla nadzorowanych przez nich stacji.
Ustalili, że konsekwentnie stosowano zaledwie 17 procent korekt NOAA. Mniej niż 20 procent korekt NOAA było wyraźnie powiązanych z udokumentowaną zmianą w obserwacjach stacji.
„Kiedy zajrzeliśmy pod maskę, odkryliśmy, że zamiast silnika, w kole siedział chomik” – powiedział Connolly. „Wygląda na to, że w przypadku tych programów homogenizacji jest to przypadek, w którym lekarstwo jest gorsze od choroby”.
Rzecznik Krajowych Centrów Informacji o Środowisku NOAA zbagatelizował znaczenie tej informacji, ale powiedział, że agencja pracuje nad rozwiązaniem kwestii poruszonych w gazetach.
„NOAA codziennie korzysta z dobrze udokumentowanego algorytmu homogenizacji parami na GHCNm (co miesiąc) – wersja 4, a wyniki konkretnych dostosowań do poszczególnych serii stacji mogą się różnić w zależności od serii” – powiedział rzecznik, dodając, że przedmiotowe artykuły nie Nie potwierdza poglądu, że obawy dotyczące ujednolicenia danych uczyniły je bezużytecznymi lub pogorszyły.
„NOAA zajmuje się kwestiami poruszonymi w obu tych dokumentach w przyszłej wersji zbioru danych o temperaturze GHCNm i towarzyszącej mu dokumentacji”.
Miejskie Wyspy Ciepła
Jedną z głównych wad danych dotyczących temperatury, która przede wszystkim stwarza potrzebę homogenizacji, jest tak zwany efekt miejskiej wyspy ciepła.Zasadniczo stacje pomiaru temperatury, które kiedyś znajdowały się na obszarach wiejskich, są obecnie w wielu przypadkach otoczone drogami, budynkami, lotniskami i miastami. Powoduje to dodatkowe, miejscowe ocieplenie wokół termometru, co daje wrażenie drastycznego „globalnego ocieplenia”, gdy bada się wiele podobnych stacji razem.
IPCC przyznała, że istnieje efekt miejskiej wyspy ciepła i zanieczyszczenie danych; Jednakże zdaniem naukowców, którzy rozmawiali z „The Epoch Times”, agencja ONZ błędnie założyła, że jest to drobny problem.
W nowym, recenzowanym badaniu koalicja naukowców szacuje, że aż 40 procent obserwowanego ocieplenia od XIX wieku, wykorzystywanego przez IPCC, jest w rzeczywistości wynikiem tego błędnego przekonania dotyczącego ciepła w miastach, a nie globalnego ocieplenia spowodowanego CO2.
„Kiedy spojrzymy na dane dotyczące temperatury lądu, oceanów i innych danych temperaturowych poza obszarem miejskim, zauważymy, że ocieplenie jest znacznie mniej dramatyczne i wydaje się podobne do innych ciepłych okresów przed rewolucją przemysłową” – stwierdził Connolly.
IPCC nie kontroluje efektu miejskiej wyspy ciepła, stwierdził.
Kiedy pan Connolly i inni naukowcy stworzyli zapis temperatury, korzystając wyłącznie z wiejskich stacji pomiarowych, zniknęła prawie połowa globalnego ocieplenia, o którym twierdzi organ ONZ.
Rzeczywiście zbiory danych dotyczące wyłącznie obszarów wiejskich znacznie lepiej odpowiadają danym z balonu pogodowego i danym satelitarnym.
„Wydaje się, że średniowieczny okres ciepły był mniej więcej tak ciepły jak współczesny okres ciepły, ale tylko wtedy, gdy korzystamy z danych dotyczących wyłącznie obszarów wiejskich” – powiedział pan Connolly.
Chociaż od zakończenia małej epoki lodowcowej obserwuje się globalne ocieplenie, jeśli pominąć zbiory danych miejskich, wszystkie główne szacunki temperatury globalnej pokazują, że „planeta przechodzi na przemian fazy ocieplenia i ochłodzenia” – powiedział.
Obecny okres ocieplenia rozpoczął się w latach 70. XX wieku, kiedy naukowcy wciąż ostrzegali przed rzekomym globalnym ochłodzeniem spowodowanym przez człowieka, które rozpoczęło się w latach 40. XX wieku.
Michael Connolly, inny niezależny naukowiec z CERES i ojciec Ronana Connolly'ego, zauważył, że ocieplenie miast w miastach, które zajmują około 3 procent powierzchni Ziemi, w rzeczywistości staje się „głównym problemem”, którym należy się zająć.
„Ale nie da się tego wyleczyć polityką dotyczącą gazów cieplarnianych” – stwierdził. „Zamiast tego powinniśmy więcej inwestować w zazielenianie miast i inne środki mające na celu ograniczenie miejskich fal upałów”.
Łączenie danych wiejskich i miejskich
Osobnemu zagadnieniu algorytmów homogenizacji podjęto w innej pracy opublikowanej w zeszłym roku w czasopiśmie Journal of Applied Meteorology and Climatology.Problem, który Ronan Connolly i jego współpracownicy nazywają „mieszaniem się miast”, polega na porównywaniu zapisów temperatury z jednej stacji z innymi w okolicy.
Jeśli jedno z nich wydaje się całkowicie rozbieżne z pozostałymi, program zakłada, że jest to błąd nieklimatyczny, który należy skorygować.
Być może największym problemem jest to, że pozwala to, aby ocieplenie w miastach zanieczyściło cały zapis temperatury poprzez zmieszanie go z danymi z obszarów wiejskich.
W rezultacie dane miejskie i wiejskie są łączone, co pozwala na wymieszanie części ocieplenia w miastach z danymi na obszarach wiejskich, w przypadku których nie występuje problem.
„Przydatną analogią jest to, że jeśli zmiksujesz truskawki i banany w blenderze, otrzymasz jednorodną mieszankę, która nie będzie ani truskawkami, ani bananami” – powiedział Ronan Connolly.
„Patrząc na dane dotyczące temperatury, oznacza to, że ujednolicone dane dotyczące obszarów wiejskich uwzględniają również ocieplenie w miastach”.
Rzekome „niezwykłe” globalne ocieplenie, na które powoływało się IPCC i inne źródła, można znaleźć jedynie w danych miejskich zanieczyszczonych ciepłem związanym z miastami – stwierdził. Jednak użycie ujednoliconych danych powoduje, że wszystkie te dane są sztucznie zafałszowane efektem miejskiego ciepła.
„Jeśli spojrzymy na dane dotyczące temperatury, które nie zostały skażone ociepleniem miast, wydaje się, że zmiany temperatury od czasów przed rewolucją przemysłową miały charakter niemal cykliczny – okresy ochłodzenia, po których następują okresy ocieplenia” – stwierdził Ronan Connolly.
„Nie można tego wytłumaczyć wzrostem emisji gazów cieplarnianych, ponieważ ich poziom jedynie wzrasta. Zamiast tego sugeruje, że naukowcy, którzy błędnie mieszali ocieplenie w miastach ze zmianami temperatury poza miastem, gonili za czerwonym śledziem, wierząc, że CO2 jest głównym czynnikiem wpływającym na klimat”.
Nie wszyscy jednak są przekonani, że kwestie te są tak istotne, jak sugerują naukowcy z CERES.
Profesor Robert Lund, uznany ekspert w tej dziedzinie i kierownik wydziału statystyki na Uniwersytecie Kalifornijskim w Santa Cruz, powiedział „The Epoch Times”, że argumenty przedstawione przez pana Soon i jego współpracowników „wzdrygnęły się”.
„To prawda, że wielu klimatologów na ogół nie stosuje najlepszych metod oczyszczania danych” – stwierdził Lund.
Jednak „twierdzenie naukowców z CERES, że wyciągane przez nas wnioski dotyczące ocieplenia są bzdurami z powodu zmian skrajni i problemów z przeniesieniem stacji, a także nieoptymalnego ich postępowania w procedurach homogenizacji, jest po prostu nieprawdziwe” – stwierdził.
„W rzeczywistości, niezależnie od tego, jak poradzisz sobie z kwestiami związanymi z punktami zmian, wszystkie uśrednione globalnie serie (takie jak seria IPCC) wykazują silne tendencje wzrostowe. To takie proste.”
Problem homogenizacji „może odpowiadać za około 0,1–0,2 stopnia Celsjusza na stulecie z 1,3 [stopnia Celsjusza], które powodujemy globalne ocieplenie, ale nie więcej” – powiedział Lund.
Oskarżył naukowców z CERES o „próbę przyjęcia jakiejkolwiek ilości niepewności, nasilenia jej i zdyskredytowania wszystkiego”.
Zapytany, czy planuje obalić te badania we własnym artykule, Lund powiedział, że on i inni specjaliści w tej dziedzinie znudzili się walką z naukowcami, którzy, jak zasugerował, byli głównie zainteresowani dyskredytacją narracji klimatycznej.
Wielu innych naukowców po obu stronach debaty nie odpowiedziało na prośby o komentarz.
Inne problemy
Historyczne dane dotyczące temperatury tak naprawdę nie istnieją sprzed lat 70. XX wieku, co utrudnia wszelkiego rodzaju długoterminowe badania.Poza Europą i Ameryką Północną zasięg jest bardzo niewielki.
Do niedawna dane z oceanów – stanowiących ponad dwie trzecie powierzchni planety – również były skąpe i ograniczały się głównie do sporadycznych odczytów z głównych szlaków żeglugowych na półkuli północnej.
Z badania meteorologa Anthony’ego Wattsa wynika, że do 2022 r. około 96 procent stacji nie spełniało własnych standardów agencji dotyczących niezawodności.
Michael Connolly zwrócił uwagę, że kiedy pierwotnie instalowano stacje pogodowe, miały one monitorować codzienną pogodę, a nie długoterminowe zmiany klimatyczne.
„Chociaż większość naukowców, z którymi rozmawiam osobiście, przyznaje, że ma zastrzeżenia co do pewnych aspektów obecnej narracji o zmianach klimatycznych, twierdzą, że ich instytucje ucierpiałyby, gdyby zabrali głos” – powiedział.
Soon przyznał, że pomiar zmian klimatycznych jest „bardzo trudnym problemem naukowym”, zwłaszcza że dane są niedoskonałe. Naukowcy mają jednak obowiązek być w tej sprawie uczciwi.
„Wydaje się, że wiele grup badawczych – śpieszących się z otrzymaniem grantów i publikacją swoich prac – przeoczyło poważne problemy związane z danymi, z których korzystają” – stwierdził, dodając, że wielu naukowców obawia się o bezpieczeństwo zatrudnienia i nie chce rozmawiać na zewnątrz.
Jednak niektórzy analitycy, którzy widzieli te problemy, twierdzą, że jest to celowe oszustwo.
Powtarzając obawy dotyczące homogenizacji i mieszania, powiedział dziennikowi The Epoch Times, że „teoria działania wydaje się być taka, że zmieszanie wielu bardzo złych składników da dobrą zupę”.
Heller oskarża NOAA o manipulowanie danymi w celu stworzenia „pozorów ocieplenia” i nazywa globalne i amerykańskie rekordy temperatury „propagandą, a nie nauką”.
Wprowadzające w błąd korekty danych i szersze oszustwo są „całkowicie zamierzone” – stwierdził.
„Wpływają biliony dolarów na globalne ocieplenie i zmiany klimatyczne”.
Jak dotąd badania przeprowadzone przez pana Soon i innych nie zostały przeciwstawione w żadnej recenzowanej literaturze.
Ani IPCC, ani czołowy klimatolog NASA Gavin Schmidt nie odpowiedzieli na prośbę o komentarz.