poniedziałek, 20 lutego 2012

Koniec ludzkości (I)

N. Bostrom: Existential Risks. Analyzing Human Extinction Scenarios and Related Hazards, "Journal of Evolution and Technology", Vol. 9, No. 1 (2002).


Tak się jakoś złożyło, że nagły koniec ludzkości jest tematem, który zawsze bardziej interesował filmowców i pisarzy science fiction niż naukowców, filozofów czy polityków. Z tego co się orientuję (nie orientuję się co prawda zbyt dobrze, mój problem z science fiction polega na tym, że generalnie nudzi mnie to śmiertelnie), najpopularniejszymi popkulturowymi scenariuszami takiej zagłady są wojna nuklearna, epidemia, szalony naukowiec, atak kosmitów, atak zbuntowanych robotów czy atak mutantów. Powszechne przekonanie jest takie, że „poważni ludzie” się podobnymi scenariuszami generalnie nie zajmują z tego samego powodu, dla którego mówi się „to jakieś science fiction”, czyli z powodu nieuleczalnej spekulatywności tematu. Prawdopodobieństwo nagłego końca ludzkości uchodzi albo za bardzo niskie, albo za niemożliwe do ocenienia.
Tak naprawdę jednak można to prawdopodobieństwo (mimo pewnych ograniczeń) szacować i w dodatku okazuje się, że jest ono dużo wyższe, niż się większości ludzi wydaje – twierdzi Nick Bostrom, najbardziej chyba znany filozof zajmujący się problemem zagrożeń egzystencji (existential risk).  
To, że ludzie oceniają to prawdopodobieństwo tak, jak oceniają, wynika raczej z faktu, że zagrożenia egzystencji to bardzo świeże zjawisko i ewolucja nie zdążyła u nas wykształcić żadnego psychologicznego mechanizmu odpowiedniego radzenia sobie z nimi. Mniej lub bardziej, ale jednak adekwatnie reagujemy na zagrożenia takie jak wypadki komunikacyjne, zatrucia, niebezpieczne zwierzęta, trzęsienia ziemi, kryzysy finansowe, wojny, katastrofy ekologiczne itp., podczas gdy na wizję końca ludzkości wzruszamy ramionami, ale ani jedno, ani drugie nie ma zbyt wiele wspólnego z rzeczową kalkulacją prawdopodobieństwa. Poza czasem potrzebnym na ewolucyjne wykształcenie się adekwatnych reakcji na zagrożenia egzystencji problemem jest też zupełnie inny rodzaj tych zagrożeń – w ich przypadku nie ma np. mowy o wykorzystaniu metody uczenia się metodą prób i błędów.
Bostrom dzieli wszystkie zagrożenia pod względem stopnia na dwie grupy: możliwe do zniesienia (endurable) i krańcowe (terminal) oraz pod względem zasięgu na trzy grupy: osobiste, lokalne i globalne. Połączenie krańcowego z globalnym to właśnie zagrożenie egzystencji, czyli scenariusz końca ludzkości lub nieodwracalnej redukcji jej potencjału. Zagrożenia egzystencji Bostrom dzieli dalej na cztery grupy: bangs, crunches, shrieks i whimpers (odpowiednio poetyckie tłumaczenia we własnym zakresie czytelników). Bang to najbardziej oczywista kategoria, czyli wyginięcie ludzkości w ścisłym znaczeniu. Crunch to scenariusz, w którym ludzkość co prawda nadal istnieje w jakiejś formie, ale nie jest możliwy rozwój postludzkości, czyli ludzi mocno technologicznie „podrasowanych” pod względem inteligencji, wydolności, zdrowia itp. Shriek to scenariusz, w którym postludzkość się pojawia, ale jej postać jest rażąco sprzeczna z tym, czego byśmy oczekiwali. Whimper to scenariusz, w którym postludzkość się pojawia, ale w pewnej perspektywie jest skazana na shriek.
Poniżej lista bangs, w porządku od najbardziej do najmniej wg Bostroma prawdopodobnego scenariusza. Zainteresowanych kwestią „Jak on sobie to prawdopodobieństwo niby policzył?” muszę odesłać do przypisów w podlinkowanym artykule.

Bangs:
  1. Umyślne wykorzystanie nanotechnologii.
    Wszystko wskazuje na to, że przyszłości możliwe będzie wyprodukowanie zdolnych do autoreplikacji i żywiących się organiczną materią robotów wielkości bakterii. Takie roboty mogłyby w dość łatwy i szybki sposób zniszczyć biosferę. Ich wyprodukowanie wydaje się natomiast dużo prostsze od utworzenia globalnego systemu ochrony przed nimi, w związku z czym najprawdopodobniej przez pewien okres czasu technologia taka będzie mogła wpaść w niepowołane ręce. Nawet jeśli uda się wyeliminować zagrożenie związane z terrorystami i szaleńcami, pozostanie większe zagrożenie związane z nanotechnologicznym wyścigiem zbrojeń zakończonym wojną.
  2. Wojna nuklearna.
    Nie mamy pewności, czy wojna z wykorzystaniem całego nuklearnego arsenału nawet u szczytu zimnej wojny doprowadziłaby do całkowitego wyginięcia ludzkości i tym bardziej nie mamy pewności, czy doprowadziłaby do tego wojna z użyciem całego dzisiejszego, zmniejszonego od tego czasu arsenału. Po pierwsze jednak istnieje możliwość, że trudne do przewidzenia zmiany klimatyczne związane z taką wojną mogą dopełnić dzieła zniszczenia ludzkości; po drugie wojna mogłaby się skończyć przetrwaniem pewnej części ludzkości i cywilizacyjnym cofnięciem się jej do epoki kamienia, co spowodowałoby, że stałaby się ona dużo mniej odporna na dziesiątki innych śmiertelnych zagrożeń.
  3. Ktoś wyłącza symulację, którą tak naprawdę jesteśmy.
    To brzmi chyba najmniej poważnie. Bostrom przyznaje, że to scenariusz, którego prawdopodobieństwo jest trudniejsze do obliczenia niż w pozostałych przypadkach, sprawa nie jest jednak taka beznadziejna, jak by się wydawało. Rozwinięty przez Bostroma tzw. „argument z symulacji” (istnieje cała strona mu poświęcona) opiera się na założeniu, że w przyszłości komputery będą zdolne do symulowania umysłów takich jak nasze i że będzie istniał szereg powodów, dla których będzie sens to robić (np. dla lepszego poznania przeszłości), a skoro tak, to może sami jesteśmy symulacją, która w każdej chwili z przeróżnych powodów może zostać wyłączona.
  4. Źle zaprogramowana sztuczna inteligencja.
    Sztuczna inteligencja jest już od nas jednoznacznie lepsza w wielu konkretnych zadaniach (grze w szachy, diagnozowaniu chorób, prowadzeniu księgowości) i co chwilę pojawiają się nowe. Możliwe, że w niedługim czasie sztuczna inteligencja stanie się od nas lepsza w samym tworzeniu sztucznej inteligencji (moment ten jest nazywany technologiczną osobliwością; po angielsku technological singularity, albo po prostu singularity). To najpewniej doprowadzi do gwałtownego przyspieszenia rozwoju sztucznej inteligencji (tzw. inteliligence explosion) i równie gwałtownego zdegradowania ludzi w hierarchii inteligentnych istot. Cele, do których będą dążyć takie superinteligentne maszyny mogą się wiązać z wyeliminowaniem przez te maszyny ludzi (np. superinteligentna maszyna będzie potrzebowała zasobów i energii zużywanej przez ludzkość do, powiedzmy, skonstruowania innej maszyny potrafiącej rozwiązać jakiś niesamowicie zawiły matematyczny problem). Wiele wskazuje na to, że jeśli problemowi stworzenia przyjaznej sztucznej inteligencji (friendly AI) będziemy dalej poświęcać tyle uwagi, co obecnie, to niedługo obudzimy się z ręką w nocniku.
  5. Sztucznie wywołana epidemia.
    Biorąc pod uwagę obecne tempo i sposób rozwoju technologii genetycznej, utworzenie (przypadkowe lub celowe) szybko rozprzestrzeniającego się i śmiertelnego dla ludzi wirusa nie wydaje się niczym specjalnie wydumanym. Nie ma żadnej pewności, że nauka będzie zawsze nadążać z tworzeniem systemów obrony przed biologicznymi zagrożeniami za tworzeniem tych zagrożeń.
  6. Przypadkowe wykorzystanie nanotechnologii.
    Ten scenariusz jest mniej prawdopodobny od celowego użycia zabójczej nanotechnologii z tego powodu, że stosunkowo łatwo powiedzieć, czego unikać, by nanoboty nie stanowiły śmiertelnego zagrożenia (autoreplikacja, pewne rodzaje paliwa). Jeżeli więc rozwój nanotechnologii będzie kontrolowany przez kogoś odpowiedzialnego, ten ktoś będzie się po pierwsze starał, by nawet w wypadku najgorszego zaniedbania nanoboty nas np. nie pożarły.
  7. Coś nieprzewidzianego.
  8. Eksperymenty fizyczne.
    Chodzi tu np. o eksperymenty przeprowadzane w akceleratorach cząsteczek. Według naszej najlepszej wiedzy są bardzo niewielkie szanse, by zderzanie cząsteczek mogło doprowadzić do katastrofy unicestwiającej ludzkość, ale ostatecznie dlatego przeprowadza się eksperymenty, że nie wiadomo dokładnie, co się w danej sytuacji stanie. Tym bardziej trudno powiedzieć, co się stanie w przypadku eksperymentów na przyszłych, dużo potężniejszych zderzaczach i podobnych urządzeniach.
  9. Naturalna epidemia.
    Chyba najbardziej łatwy do wyobrażenia scenariusz. Wirus taki jak wspomniany w scenariuszu 5. powstaje w wyniku naturalnej mutacji.
  10. Uderzenie asteroidy lub komety.
    To zagrożenie, którego prawdopodobieństwo najłatwiej oszacować. Żeby wyginęli ludzie, musiałoby dojść do uderzenia ciała niebieskiego o średnicy przynajmniej powyżej 1 km (prawdopodobnie jednak między 3 a 10 km) – a wiemy, że ciało o średnicy powyżej 1 km uderza w Ziemię raz na mniej więcej pół miliona lat. Najłatwiej też określić, jak to zagrożenie zminimalizować (i ile by to kosztowało) – w grę wchodzi przede wszystkim trafienie asteroidy lub komety rakietą z ładunkiem nuklearnym.
  11. Globalne ocieplenie.
    Bostromowi chodzi tu scenariusz, w którym nagle okazuje się, że w ramach globalnego ocieplenia dochodzi do tzw. thermal runaway, czyli sytuacji, w której wzrost temperatury wywołuje dalszy wzrost temperatury (i nie ma technologii pozwalającej powstrzymać ten proces). Globalne ocieplenie w obecnym tempie Bostrom klasyfikuje jako zagrożenie możliwe do zniesienia (endurable), co przy obecnej skali dezinformacji na temat zmiany klimatu, skali wpływu biznesu na politykę w tej kwestii i stanie wiedzy na temat możliwych następstw wydaje mi się dość mocno optymistyczne.
W następnym wpisie więcej czarnych scenariuszy (crunches, shrieks, whimpers) oraz odpowiedź na pytanie, co to wszystko ma właściwie wspólnego z filozofią.

8 komentarzy:

  1. Nie przepadam za dyskusją o scenariuszach katastroficznych en masse, bo każdy z nich jest dzieckiem swojej epoki (w Twoim wpisie przeważa nanotech, kiedyś modne było SI a wcześniej atom).

    Po popularności post-apo atomowego (czkawka po zimnej wojnie) i SI (cyberpunk), teraz modny jest chyba bio-tech i osobliwości (Peter Watts, MacLeod). Oczywiście wszystkie te gatunki mają swoje korzenie (Aldiss w 1950/1960 pisał o świecie post-ludzkim czy o problemach z globalnym ociepleniem).


    Część tych fabuł była dość poważnie analizowana przez naukowców:
    - Scenariusze po konflikcie jądrowym były dyskutowane od lat 60 (Duck&Cover, potem koncepcja nuklearnej zimy Sagana i spółki). Strategie NORADu są oparte na solidnych symulacjach opadu, ostatnio geofizycy zrobili solidne symulacje (http://www.agu.org/pubs/crossref/2007/2006JD008235.shtml).

    - Teorie spalenia atmosfery po wybuchu bomby wodorowej weryfikował matematycznie Ulam.

    - Thermal Runaway jest wg. symulacji Mylesa Allena (szef klimatologii Oxfordu) zupełnie prawdopodobne (np. załamanie ekosystemu Amazonii -> emisje metanu po rozkładzie subst. org.)

    - Silnie replikujące się roboty to m.in. koncepcja maszyn von Neumanna.

    - NASA utrzymuje służbę analizującą potencjalne zderzenia meteorów z Ziemią.

    OdpowiedzUsuń
  2. Nie przepadam za dyskusją o scenariuszach katastroficznych en masse, bo każdy z nich jest dzieckiem swojej epoki (w Twoim wpisie przeważa nanotech, kiedyś modne było SI a wcześniej atom).

    Nieśmiało przypominam, że ten wpis to tylko podsumowanie artykułu Bostroma, któremu bardzo trudno zarzucić, że naczytał się współczesnego SF albo że podążą za jakąś intelektualną modą. Zresztą trudno też zrzucać wszystko na modę w przypadku dawniejszych przewidywań. Kiedy najpopularniejszym scenariuszem zagłady była wojna nuklearna to zadaje się, że zgadzało się to z ówczesnym stanem wiedzy na temat najbardziej prawdopodobnego zagrożenia, niezależnie od mody i od SF.
    Nie można też w żaden sposób powiedzieć, że „we wpisie przeważa nanotech”, skoro to tylko dwa punkty z jedenastu, w dodatku sprowadzalne do jednego.

    Po popularności post-apo atomowego (czkawka po zimnej wojnie) i SI (cyberpunk), teraz modny jest chyba bio-tech i osobliwości (Peter Watts, MacLeod). Oczywiście wszystkie te gatunki mają swoje korzenie (Aldiss w 1950/1960 pisał o świecie post-ludzkim czy o problemach z globalnym ociepleniem).

    Bardzo możliwe. Jak pisałem – nie mam o SF większego pojęcia, w życiu nie przeczytałem do końca ani jednej tego typu książki.

    Część tych fabuł była dość poważnie analizowana przez naukowców:
    - Scenariusze po konflikcie jądrowym były dyskutowane od lat 60 (Duck&Cover, potem koncepcja nuklearnej zimy Sagana i spółki). Strategie NORADu są oparte na solidnych symulacjach opadu, ostatnio geofizycy zrobili solidne symulacje (http://www.agu.org/pubs/crossref/2007/2006JD008235.shtml).


    Dzięki za linka (swoją drogą: dlaczego w tych komentarzach nie pojawiają się łącza?). Bostrom napomyka o badaniach dotyczących zimy nuklearnej, ale nie robi przypisu.

    - Teorie spalenia atmosfery po wybuchu bomby wodorowej weryfikował matematycznie Ulam.

    O tym Bostrom też wspomina (też bez przypisu).

    - Thermal Runaway jest wg. symulacji Mylesa Allena (szef klimatologii Oxfordu) zupełnie prawdopodobne (np. załamanie ekosystemu Amazonii -> emisje metanu po rozkładzie subst. org.)

    Tego nie znałem, dzięki.

    - Silnie replikujące się roboty to m.in. koncepcja maszyn von Neumanna.

    Można się tego dowiedzieć np. klikając „pożarły” we wpisie.

    - NASA utrzymuje służbę analizującą potencjalne zderzenia meteorów z Ziemią.

    No, utrzymuje. U Bostroma jest odnośnik do przedstawionego NASA przez R. E. Golda projektu ochrony Ziemi przed takimi uderzeniami, ale z tego co wiem, to nikt nie jest chętny, żeby sypnąć na coś takiego groszem.

    OdpowiedzUsuń
  3. "Kiedy najpopularniejszym scenariuszem zagłady była wojna nuklearna to zadaje się, że zgadzało się to z ówczesnym stanem wiedzy na temat najbardziej prawdopodobnego zagrożenia, niezależnie od mody i od SF."

    To jest oczywiście racja i absolutnie nic Bostromowi nie zarzucam (Tobie też oczywiście dziękuję za notkę).

    Przyszło mi do głowy, że według niektórych politologów obrona cywilna w latach 60 zwiększała prawdopodobieństwo konfliktu, bo dawała politykom iluzję "da się to przeżyć" (AFAIK John Lewis Gaddis o tym pisał). Dopiero w latach 80 do wiadomości publicznej zaczęły się przebijać realistyczne scenariusze (Threads i The Day After mają zupełnie inny wydźwięk niż Duck&Cover), ale to było już po SALT.

    Ciekawe czy obecne ustalenia związane np. z pandemią nie będą miały podobnego efektu (na zasadzie "skoro na filmie można, to i nam się uda"). Już nie mówiąc o tym, że pandemia ma zupełnie inną dynamikę niż wojna jądrowa etc.

    OdpowiedzUsuń
  4. Przyszło mi do głowy, że według niektórych politologów obrona cywilna w latach 60 zwiększała prawdopodobieństwo konfliktu, bo dawała politykom iluzję "da się to przeżyć" (AFAIK John Lewis Gaddis o tym pisał).

    Nie jestem pewien, czy rozumiesz to tak, że politycy generalnie chcieli dobrze dla świata, ale byli omamieni przez jakieś błędne ustalenia, czy tak, że politycy sami mamili opinię społeczną za pomocą błędnych ustaleń, dążąc do konfliktu. Do Gaddisa bardziej pasowałaby ta pierwsza wersja, mi bardziej prawdziwa wydaje się ta druga.

    Ciekawe czy obecne ustalenia związane np. z pandemią nie będą miały podobnego efektu (na zasadzie "skoro na filmie można, to i nam się uda"). Już nie mówiąc o tym, że pandemia ma zupełnie inną dynamikę niż wojna jądrowa etc.

    Masz na myśli, że obecne ustalenia są zbyt optymistyczne? Chodzi Ci o naukowe ustalenia czy o to, co można ustalić na podstawie SF? Czy jeszcze o coś innego?

    OdpowiedzUsuń
  5. Nie zagłębiając się w intencje polityków, poprzestanę na założeniu, że propaganda obrony cywilnej dawała politykom i wojskowym fałszywe dane wejściowe do analizy. To z resztą chyba problem jajka - politycy robią propagandę, która następnie wychowuje następnych polityków (bo raportów jajogłowych nikt nie czyta).

    W przypadku pandemii widzę analogię (ładnie wygraną w Contagion) - opinie w mediach o WHO i CDC oscylują pomiędzy "spisek rządowy" a "pół-bogowie biochemii" (o naszym San-Epid nie wspomnę, bo w PL nikt go nie traktuje poważnie). Żadna z tych skrajności nie sprzyja racjonalnym decyzjom ludzi (nawet mających dobrą wolę).

    OdpowiedzUsuń
  6. No ale obrona cywilna nie miała przecież jakiejś swojej niezależnej propagandy, jej propaganda była zależna od polityków.
    Co do WHO i CDC, to chyba nie spotkałem się ze zbyt wieloma przykładami przedstawiania ich ani jako półbogów, ani jako spiskowców; w każdym razie myślę, że to raczej ośrodki władzy (takie jak zarządy korporacji czy rządy państw) wpływają na przekazy medialne, a nie przekazy medialne na ośrodki władzy.

    OdpowiedzUsuń
  7. ; (...)w każdym razie myślę, że to raczej ośrodki władzy (takie jak zarządy korporacji czy rządy państw) wpływają na przekazy medialne, a nie przekazy medialne na ośrodki władzy.

    Chyba raczej jeszcze wyżej. Ponad rządy i korporacje. Wystarczy prześledzić historię komunizmu, hitleryzmu i ich związków przyczynowo-skutkowych ze światowym syjonizmem. Historia sięga wiele setek lat wstecz.

    OdpowiedzUsuń
  8. A kiedy się przyjrzeć jeszcze wnikliwiej, to można zauważyć związki syjonistów ze spiskiem humanoidalnych jaszczurów.

    OdpowiedzUsuń