Post z bloga Johnatana Tonkina, omawiający ostatnie badania umieszczone w “Nature”, które nie zostawiają żadnych złudzeń. Górny decyl, a właściwie jeden procent populacji, obciąża Ziemię w sposób wyjątkowo nieproporcjonalny. Wklejam link do bloga, bo Tonkin próbuje wyjaśnić dość osobliwie zrobione wykresy, bez jego eksplikacji jest ciężej.
I tak, wiem, że dla niektórych nauki o układach Ziemi (Earth Systems Science) nie są zbyt “naukowe” bo w końcu opierają się głównie na Lovelockowskiej hipotezie Gai, więc można zakwestionować co najmniej niektóre wskaźniki użyte w badaniu jako niefalsyfikowalne.
Niemniej jednak badanie posługuje się też bardzo twardymi danymi dotyczącymi emisji bardzo konkretnych substancji i jest według mnie dość rozstrzygające w tej kwestii. Legendarny 1% literalnie odbiera nam smak życia.
Pamiętajcie że ja jestem laikiem i nauki przyrodnicze znam o tyle o ile sama się nimi interesuję.
Wspaniale merytoryczna, objaśniająca wypowiedź-komentarz, dzięki!
Jeśli dane ujęcie (metodologia) w danej dyscyplinie rodzi wątpliwości (czy “Gaja” to czasem nie jakaś kryptoezoteryka, protołysenkizm?), wówczas zawsze warto polecić rozwadze krytyczną adaptację, rozwidlenie.
Nie, nie byłabym tak okrutna żeby hipotezę Gai zrównywać z ezoszmezo albo łysenkizmem. To nie ten level.
Sama hipoteza jest oczywiście niefalsyfikowalna, a przynajmniej jej falsyfikacja ma granice, bo zwyczajnie jest nam bardzo trudno udowodnić, że Ziemia jest żywym organizmem, którego reakcje można porównać do reakcji ośrodkowego układu nerwowego, gdzie wszystko na siebie wpływa i nic nie pozostaje bez związku.
Z drugiej strony to nie tak że Lovelock nadawał tej hipotezie wymiar magiczny, nie uważał nigdy że Gaja ma swoje “centrum” podobne do mózgu które tymi wszystkimi reakcjami steruje. Można na ramy jego koncepcji patrzeć po prostu jak na paradygmat – nauka przyjmuje paradygmaty, bez nich nie może zgodzić się co do pewnych podstaw, paradygmaty narzucają optykę spojrzenia.
(np. paradygmat “materia jest jedynym budulcem rzeczywistości” – uważamy że cały wszechświat musi składać się z jakiegoś rodzaju materii, i tam gdzie nie umiemy jej wykryć, zakładamy że musi działać jakaś jej “ciemna” odmiana niewychwytywalna dla naszych przyrządów pomiarowych; ostatnio coraz gorzej jest z tymi dowodami na ciemną materię, ale jako że nie za bardzo wyobrażamy sobie, żeby coś poza materią złożoną z cząstek elementarnych de facto istniało, trzymamy się tej koncepcji dopóki jest ona w stanie coś wyjaśniać)
Nauki o układzie Ziemi (wywiedzione z hipotezy Gai) stoją na paradygmacie, że nie ma zjawisk niepowiązanych w przyrodzie itp, właśnie dlatego że Ziemia jest układem. Nie musimy rozumieć jak ten układ jest zbudowany w szczegółach (tak jak nie rozumiemy co jest “spoiwem” wszechświata), żeby móc dostrzegać korzyści z takiego podejścia: wiemy przecież że ekosystem jest układem o wysokim stopniu złożoności i nie zachodzą w nim zjawiska całkowicie izolowane. Wszystko ma jakiś impakt.
ESS szukają narzędzi do badania tego w skali nielokalnej, stąd właśnie te skale zastosowane w badaniu typu 'Land System Change" (HANPP)", albo “Biosphere integrity (MSA loss)”. One w zamyśle mają mierzyć to, w jakim stopniu ludzkość eksploatuje Ziemię. Składowe tych skał są oparte o twarde dane, takie jak np. współczynnik wylesienia, utrata biomasy (w efekcie wypasu zwierząt, wydobycia kopalin, wyrębu, wypalania), wymieranie gatunków, utrata siedlisk, itp.
Dane są w większości liczbowe, ale jako że dla wielu składowych tych różnych skal brakuje precyzyjnych twardych danych, stosowane są oczywiście pewne modele matematyczne których zadaniem jest szacunek tak trudno mierzalnych rzeczy jak “zdrowie” ekosystemów czy jakiś rodzaj “równowagi” między gatunkami. Można się tego czepiać, można pytać dlaczego ten wskaźnik a nie inny, dlaczego takie założenie a nie inne.
Bo np. w skali MSA loss (Mean Species Abundance – “zasobność gatunków) masz sobie skalę od 0 do 100, gdzie 0 to 'niezdrowy”, zdegradowany ekosystem w którym nie żyją już jego “oryginalne” gatunki, a 100 to ekosystem “nienaruszony”. Tej skali używa się łatwiej w kontekście lokalnym, bo jak masz jakieś ramy ekosystemu (geograficzne, etc) to możesz z jakąś ostrożnością coś powiedzieć – chociaż i tak trudno o twarde dane wyjściowe. Za to używanie tego w skali globalnej może być poczytane za karkołomne, i wiele osób może się czepiać że skąd właściwie te dane określone tak precyzyjnie i to jeszcze względem tych decyli dochodowych.
Still, ja uważam paradygmat w którym poruszają się ESS za ciekawy i twórczy, i imo spokojnie można w nim robić naukę. Po prostu czasem może być ciężko z porządną obroną tez i dlatego napisałam że komuś może to orzeszkadzac.
Fajne, przystępne wyjaśnienie i obrona, ponownie dziękuję za naukę.
Na marginesie, jedna z IMHO ciekawszych kontrowersji ostatnich dekad, fringe science, to twierdzenia noblisty Luca Montagniera et al. o jakiejś formie pola powiązanego z procesem [proto]życiowym, rejestrowanego pod postacią promieniowania E/M z budulca życia – DNA:
(retweets =/= endorsements; przychylam się do opinii, że “niematerialna teleportacja” per se nie jest możliwa na gruncie znanej nauki, lecz jakieś ultrasłabe promieniowanie [w rezonansie z tym ELFem?] z oryginalnej próbki jednak mogło zostać zarejestrowane, dostarczając nowego narzędzia badawczego czy diagnostycznego). Dopiero nie tak dawno temu usłyszało się o tzw. ultrasłabej emisji biofotonowej (najwyraźniej nie prosto termicznej):



