Poza scenariuszami wyginięcia ludzkości (tzw. bangs) wymienionymi w poprzednim wpisie, Nick Bostrom pisze też o kilku czarnych scenariuszach, które nie zakładają wyginięcia ludzkości, ani nawet nie wykluczają rozwinięcia się postludzkości, czyli gatunku radykalnie przewyższającego ludzi pod względem poziomu inteligencji, długości życia i pod innymi względami. Dzieli te scenariusze na crunches, shrieks i whimpers:
Crunches, czyli rozój technologiczny zatrzymuje się i postludzkość nie może się rozwinąć:
- Wyczerpanie zasobów.Istnienie i rozwój technologii, na których opiera się współczesna cywilizacja wiąże się ze zużywaniem zasobów naturalnych. Jeśli jakiś kataklizm doprowadzi do zniszczenia obecnej technologii, odbudowanie jej może okazać się niemożliwe ze względu na wyczerpanie zasobów takich jak węgiel, ropa czy minerały.
- Światowy rząd lub podobna organizacja zatrzymuje postęp technologiczny.Jeśli jakiejś fundamentalistycznej (np. religijnej) organizacji uda się utworzyć coś w rodzaju światowego rządu, może hamować ona rozwój technologii ze względów ideologicznych.
- Dysgenika.Badania pokazują, że bardziej utalentowani i inteligentni ludzie mają mniej dzieci. Jeśli ta tendencja się nie zmieni, ludzkość może się stawać coraz mniej rozgarniętym i coraz bardziej chętnym do rozmnażania gatunkiem. Inne badania pokazują jednak, że średni iloraz ludzkiej inteligencji cały czas rośnie (tzw. efekt Flynna). Scenariusz robi się też mniej prawdopodobny, kiedy weźmie się pod uwagę postępy w inżynierii genetycznej i przyszłe możliwości ich zastosowania.
- Naturalne zatrzymanie postępu technologicznego.Może się okazać, że istnieją jakieś przeszkody, które nigdy nie pozwolą na rozwój technologii umożliwiającej powstanie postludzkości.
- Coś nieprzewidzianego.
Shrieks, czyli postludzkość się pojawia, ale jej potencjał jest mocno ograniczony:
- Transfer umysłu zakończony nieszczęściem.Transfer umysłu (mind uploading) to hipotetyczna możliwość przeniesienia ludzkiego umysłu (ze świadomością, wspomnieniami, umiejętnościami, wartościami itd.) na komputer. Kiedy (i jeśli w ogóle) będzie to możliwe, nie tylko będzie można mówić, przynajmniej w pewnym sensie, o nieśmiertelności, ale też najprawdopodobniej przetransferowanemu umysłowi dużo łatwiej niż człowiekowi będzie radykalnie podnieść poziom swojej inteligencji. W czarnym scenariuszu taki upload (lub grupa uploadów) przejmuje kontrolę nad ludźmi i poważnie ogranicza ich możliwości rozwoju w związku z jakimiś swoimi egoistycznymi celami i wartościami.
- Źle zaprogramowana sztuczne inteligencja.Jak wyżej, z tym że wcześniej niż transfer umysłu pojawia się silna sztuczna inteligencja i to ona przejmuje kontrolę nad ludźmi.
- Światowy reżim totalitarny.Jakaś grupa fundamentalistów programuje wartości sztucznej inteligencji, która osiąga technologiczną osobliwość i w ten sposób przejmuje kontrolę nad światem. Ideologia grupy mocno ogranicza możliwości postludzkości.
- Coś nieprzewidzianego.
Whimpers, czyli pojawia się postludzkość, ale po jakimś czasie jej potencjał ulega poważnemu ograniczeniu:
- Ewolucyjne zmiany doprowadzają do ograniczenia ludzkiego potencjału.To jeden z najbardziej (obok komputerowej symulacji, nr 3. na liście bangs) zawiłych scenariuszy. Chodzi najogólniej o sytuację, w której okazuje się, że zajęcia uznawane przez nas za wartościowe nie stanowią w postludzkim świecie korzystnej adaptacji, a wręcz przeciwnie, co prowadzi do selekcji na niekorzyść postludzi, których te zajęcia interesują. To może prowadzić do próby zastąpienia naturalnej ewolucji ewolucją kierowaną w celu uratowania pewnych wartości. Kierowana ewolucja wymaga jednak jakiejś nadrzędnej, ogólno(wszech)światowej organizacji, która by ją koordynowała (Bostrom nazywa taką organizację singleton), a jej powstanie nie może być niczym pewnym.
- Atak kosmitów.W związku z tym, że Bostrom ocenia prawdopodobieństwo natknięcia się na pozaziemską cywilizację w najbliższych latach (czy raczej w najbliższych setkach lat) jako bardzo niskie, ewentualna konfrontacja z kosmitami odbędzie się według niego raczej po rozwinięciu się postludzkości i skolozinowaniu innych galaktyk. Konfrontacja ta może się oczywiście zakończyć wojną i przegraną postludzkości, co będzie oznaczało albo jej wyginięcie, albo zniewolenie.
- Coś nieprzewidzianego.
Poza tym wszystkim na żadną z list nie zmieściły się scenariusze uznane przez Bostroma za zbyt mało prawdopodobne – albo zbyt mało prawdopodobne jako takie, albo nie mogące raczej stanowić zagrożenia egzystencji (m. in. erupcje superwulkanów, utrata bioróżnorodności, rozbłyski gamma, eksplozje czarnych dziur, zatrucie powietrza, utrata płodności, apokalipsy religijne).
Do tego na żadną listę nie trafił scenariusz dobrowolnego wyginięcia ludzkości. Niezależnie od jego prawdopodobieństwa (istnieje nawet Voluntary Human Extinction Movement, czyli Ruch Dobrowolnego Zakończenia Rasy Ludzkiej, ale zdaje się, że nie są na razie specjalnie liczni) nie można tej opcji uznać za zagrożenie, ponieważ zagrożenie jest z definicji niepożądane. Jeśli ludzkość w najbliższym czasie uzna, że lepiej będzie dla świata, kiedy z tego świata zniknie, to cóż, nie będzie się czym przejmować.
Można zapytać dlaczego właściwie Bostrom przejmuje się radykalną zmianą skali wartości w postludzkim świecie, skoro zmiana skali wartości w bliskiej perspektywie go nie rusza. Czy to nie jakiś przejaw szowinizmu gatunkowego (na zasadzie: podpisuję się pod zmianą wartości dokonaną przez ludzkość, ale już nie przez postludzkość)? Może jednak chodzi po prostu o to, że „oświecone samobójstwo” uważa on za inny przypadek niż porzucenie pewnych zajęć, o których mowa w punkcie 1. listy whimpers. Ciężko powiedzieć tym bardziej, że Bostrom podaje tu tylko jeden przykład takiej wartościowej z naszego punktu widzenia czynności, mianowicie zabawy.
Co to ma właściwie wspólnego z filozofią? To oczywiście zależy od tego, co uznać za filozofię – Bostrom jest raczej metodologicznym naturalistą, czyli uważa, że nauka i filozofia nie różnią się w zasadniczy sposób ani pod względem metody, ani przedmiotu. Jeśli chodzi o w miarę tradycyjnie rozumianą filozofię, a zwłaszcza o jej praktyczny zakres, można mówić o przynajmniej trzech sprawach.
Po pierwsze, chodzi o pytanie na ile etyka normatywna powinna zajmować się problemem zagrożeń egzystencji. Wzięcie na poważnie tych zagrożeń może prowadzić np. do wniosku, że pilniejszą sprawą niż roztrząsanie kwestii moralności aborcji czy kary śmierci jest współpraca etyków z informatykami w celu zaprogramowania przyjaznej sztucznej inteligencji. Po drugie, chodzi o pytanie o moralne priorytety – czy np. mając 100 zł do przeznaczenia na zbożny cel powinniśmy je oddać organizacji walczącej z głodem w Afryce, czy może raczej organizacji pracującej nad przyjazną sztuczną inteligencją, takiej jak Singularity Institute (Bostrom powiedziałby, że to raczej drugie). Po trzecie, chodzi o pytania z zakresu filozofii politycznej, takie jak na ile obecny porządek polityczny sprzyja walce z zagrożeniami egzystencji, a na ile nie sprzyja. Bostrom zauważa, że rynkowa konkurencja nie jest z tego punktu widzenia czymś specjalnie pożądanym, ponieważ praca nad eliminacją zagrożeń egzystencji musi się raczej wiązać z ogólnoświatowym porozumieniem i współpracą. Nietrudno zauważyć, że współczesny kapitalizm w lepszym razie ignoruje bardziej znane zagrożenia, a w gorszym sprzyja szeroko zakrojonym dezinformacyjnym kampaniom dotyczącym np. zmian klimatu czy innych ekologicznych problemów, ponieważ pozwala to firmom (przede wszystkim tym wielkim i międzynarodowym) maksymalizować zyski. Podobnie niewesoło wygląda to z rywalizacją posiadających sprzeczne interesy rządów różnych państw. Możliwe więc, że pomyślne istnienie ludzkiego gatunku będzie się musiało wiązać i z radykalnymi zmianami w indywidualnej moralności, i w światowym porządku politycznym.