Poza scenariuszami wyginięcia ludzkości (tzw. bangs) wymienionymi w poprzednim wpisie, Nick Bostrom pisze też o kilku czarnych scenariuszach, które nie zakładają wyginięcia ludzkości, ani nawet nie wykluczają rozwinięcia się postludzkości, czyli gatunku radykalnie przewyższającego ludzi pod względem poziomu inteligencji, długości życia i pod innymi względami. Dzieli te scenariusze na crunches, shrieks i whimpers:
Crunches, czyli rozój technologiczny zatrzymuje się i postludzkość nie może się rozwinąć:
- Wyczerpanie zasobów.Istnienie i rozwój technologii, na których opiera się współczesna cywilizacja wiąże się ze zużywaniem zasobów naturalnych. Jeśli jakiś kataklizm doprowadzi do zniszczenia obecnej technologii, odbudowanie jej może okazać się niemożliwe ze względu na wyczerpanie zasobów takich jak węgiel, ropa czy minerały.
- Światowy rząd lub podobna organizacja zatrzymuje postęp technologiczny.Jeśli jakiejś fundamentalistycznej (np. religijnej) organizacji uda się utworzyć coś w rodzaju światowego rządu, może hamować ona rozwój technologii ze względów ideologicznych.
- Dysgenika.Badania pokazują, że bardziej utalentowani i inteligentni ludzie mają mniej dzieci. Jeśli ta tendencja się nie zmieni, ludzkość może się stawać coraz mniej rozgarniętym i coraz bardziej chętnym do rozmnażania gatunkiem. Inne badania pokazują jednak, że średni iloraz ludzkiej inteligencji cały czas rośnie (tzw. efekt Flynna). Scenariusz robi się też mniej prawdopodobny, kiedy weźmie się pod uwagę postępy w inżynierii genetycznej i przyszłe możliwości ich zastosowania.
- Naturalne zatrzymanie postępu technologicznego.Może się okazać, że istnieją jakieś przeszkody, które nigdy nie pozwolą na rozwój technologii umożliwiającej powstanie postludzkości.
- Coś nieprzewidzianego.
Shrieks, czyli postludzkość się pojawia, ale jej potencjał jest mocno ograniczony:
- Transfer umysłu zakończony nieszczęściem.Transfer umysłu (mind uploading) to hipotetyczna możliwość przeniesienia ludzkiego umysłu (ze świadomością, wspomnieniami, umiejętnościami, wartościami itd.) na komputer. Kiedy (i jeśli w ogóle) będzie to możliwe, nie tylko będzie można mówić, przynajmniej w pewnym sensie, o nieśmiertelności, ale też najprawdopodobniej przetransferowanemu umysłowi dużo łatwiej niż człowiekowi będzie radykalnie podnieść poziom swojej inteligencji. W czarnym scenariuszu taki upload (lub grupa uploadów) przejmuje kontrolę nad ludźmi i poważnie ogranicza ich możliwości rozwoju w związku z jakimiś swoimi egoistycznymi celami i wartościami.
- Źle zaprogramowana sztuczne inteligencja.Jak wyżej, z tym że wcześniej niż transfer umysłu pojawia się silna sztuczna inteligencja i to ona przejmuje kontrolę nad ludźmi.
- Światowy reżim totalitarny.Jakaś grupa fundamentalistów programuje wartości sztucznej inteligencji, która osiąga technologiczną osobliwość i w ten sposób przejmuje kontrolę nad światem. Ideologia grupy mocno ogranicza możliwości postludzkości.
- Coś nieprzewidzianego.
Whimpers, czyli pojawia się postludzkość, ale po jakimś czasie jej potencjał ulega poważnemu ograniczeniu:
- Ewolucyjne zmiany doprowadzają do ograniczenia ludzkiego potencjału.To jeden z najbardziej (obok komputerowej symulacji, nr 3. na liście bangs) zawiłych scenariuszy. Chodzi najogólniej o sytuację, w której okazuje się, że zajęcia uznawane przez nas za wartościowe nie stanowią w postludzkim świecie korzystnej adaptacji, a wręcz przeciwnie, co prowadzi do selekcji na niekorzyść postludzi, których te zajęcia interesują. To może prowadzić do próby zastąpienia naturalnej ewolucji ewolucją kierowaną w celu uratowania pewnych wartości. Kierowana ewolucja wymaga jednak jakiejś nadrzędnej, ogólno(wszech)światowej organizacji, która by ją koordynowała (Bostrom nazywa taką organizację singleton), a jej powstanie nie może być niczym pewnym.
- Atak kosmitów.W związku z tym, że Bostrom ocenia prawdopodobieństwo natknięcia się na pozaziemską cywilizację w najbliższych latach (czy raczej w najbliższych setkach lat) jako bardzo niskie, ewentualna konfrontacja z kosmitami odbędzie się według niego raczej po rozwinięciu się postludzkości i skolozinowaniu innych galaktyk. Konfrontacja ta może się oczywiście zakończyć wojną i przegraną postludzkości, co będzie oznaczało albo jej wyginięcie, albo zniewolenie.
- Coś nieprzewidzianego.
Poza tym wszystkim na żadną z list nie zmieściły się scenariusze uznane przez Bostroma za zbyt mało prawdopodobne – albo zbyt mało prawdopodobne jako takie, albo nie mogące raczej stanowić zagrożenia egzystencji (m. in. erupcje superwulkanów, utrata bioróżnorodności, rozbłyski gamma, eksplozje czarnych dziur, zatrucie powietrza, utrata płodności, apokalipsy religijne).
Do tego na żadną listę nie trafił scenariusz dobrowolnego wyginięcia ludzkości. Niezależnie od jego prawdopodobieństwa (istnieje nawet Voluntary Human Extinction Movement, czyli Ruch Dobrowolnego Zakończenia Rasy Ludzkiej, ale zdaje się, że nie są na razie specjalnie liczni) nie można tej opcji uznać za zagrożenie, ponieważ zagrożenie jest z definicji niepożądane. Jeśli ludzkość w najbliższym czasie uzna, że lepiej będzie dla świata, kiedy z tego świata zniknie, to cóż, nie będzie się czym przejmować.
Można zapytać dlaczego właściwie Bostrom przejmuje się radykalną zmianą skali wartości w postludzkim świecie, skoro zmiana skali wartości w bliskiej perspektywie go nie rusza. Czy to nie jakiś przejaw szowinizmu gatunkowego (na zasadzie: podpisuję się pod zmianą wartości dokonaną przez ludzkość, ale już nie przez postludzkość)? Może jednak chodzi po prostu o to, że „oświecone samobójstwo” uważa on za inny przypadek niż porzucenie pewnych zajęć, o których mowa w punkcie 1. listy whimpers. Ciężko powiedzieć tym bardziej, że Bostrom podaje tu tylko jeden przykład takiej wartościowej z naszego punktu widzenia czynności, mianowicie zabawy.
Co to ma właściwie wspólnego z filozofią? To oczywiście zależy od tego, co uznać za filozofię – Bostrom jest raczej metodologicznym naturalistą, czyli uważa, że nauka i filozofia nie różnią się w zasadniczy sposób ani pod względem metody, ani przedmiotu. Jeśli chodzi o w miarę tradycyjnie rozumianą filozofię, a zwłaszcza o jej praktyczny zakres, można mówić o przynajmniej trzech sprawach.
Po pierwsze, chodzi o pytanie na ile etyka normatywna powinna zajmować się problemem zagrożeń egzystencji. Wzięcie na poważnie tych zagrożeń może prowadzić np. do wniosku, że pilniejszą sprawą niż roztrząsanie kwestii moralności aborcji czy kary śmierci jest współpraca etyków z informatykami w celu zaprogramowania przyjaznej sztucznej inteligencji. Po drugie, chodzi o pytanie o moralne priorytety – czy np. mając 100 zł do przeznaczenia na zbożny cel powinniśmy je oddać organizacji walczącej z głodem w Afryce, czy może raczej organizacji pracującej nad przyjazną sztuczną inteligencją, takiej jak Singularity Institute (Bostrom powiedziałby, że to raczej drugie). Po trzecie, chodzi o pytania z zakresu filozofii politycznej, takie jak na ile obecny porządek polityczny sprzyja walce z zagrożeniami egzystencji, a na ile nie sprzyja. Bostrom zauważa, że rynkowa konkurencja nie jest z tego punktu widzenia czymś specjalnie pożądanym, ponieważ praca nad eliminacją zagrożeń egzystencji musi się raczej wiązać z ogólnoświatowym porozumieniem i współpracą. Nietrudno zauważyć, że współczesny kapitalizm w lepszym razie ignoruje bardziej znane zagrożenia, a w gorszym sprzyja szeroko zakrojonym dezinformacyjnym kampaniom dotyczącym np. zmian klimatu czy innych ekologicznych problemów, ponieważ pozwala to firmom (przede wszystkim tym wielkim i międzynarodowym) maksymalizować zyski. Podobnie niewesoło wygląda to z rywalizacją posiadających sprzeczne interesy rządów różnych państw. Możliwe więc, że pomyślne istnienie ludzkiego gatunku będzie się musiało wiązać i z radykalnymi zmianami w indywidualnej moralności, i w światowym porządku politycznym.
dziwi mnie fakt ze zagrozenia naturalne wypadly w tym zestawieniu jako malo prawdopodobne. Np erupcja superwulkanu, nie zaglebialem sie w zrodla bo wpadlem na tego bloga troche przypadkowo, ale wydaje mi sie ze ciezko obliczyc statystyczna mozliwosc tagiego zdarzenia przy obecnym stanie wiedzy i nie wiem jaki przedzial czasowy jest brany pod uwage ale cos takiego jak erupcja superwulkanu badz uwolnienie sie zloz hydratow metanowych moze wg mnie nastopic wlasciwie w kazdej chwili (czyli jednak nie znamy dnia ani godziny;) a na rozwoj nanotechnologii i AI troche napewno poczekamy. W kazdym razie chcialem powiedziec to ze z mojego punktu widzenia, katastrofy naturalne wystepowaly juz wielokrotnie w dziejach ziemi (np wymieranie perm/trias) i zmiataly z powierzchni nawet do 90kilku % gatunkow, wiec po takiej erupcji ktora mialaby ogromny wplyw na nasz klimat na nawet setki tysiecy lat gatunek ludzki moglby wyginac razem z innymi ogniwami lancucha pokarmowego a nawet przy obecnym stanie technologii gdzie teoretycznie moglibysmy zestrzelic komete zagrazajaca naszej planecie, na wulkany i inne zjawiska endogeniczne (chocby aktywnosc jadra ziemi - problem ten poruszony byl chyba w najgorszym i najglupszym filmie scifi jaki widzialm pt. jadro - a zagrozenie takie jak chocby przebiegunowanie ziemi jest calkiem realne) nie bedziemy miec znaczacego wplywu. Dzieki za mozliwosc wypowiedzi ;) i za ciekawe artykuly pozdrawiam :)
OdpowiedzUsuńTo rzeczywiście dziwne, bo już np. w tej książce pod redakcją Bostroma znajduje się rozdział o wulkanach autorstwa M. R. Rampino, który z grubsza potwierdza to, co piszesz.
OdpowiedzUsuńArtykuł Bostroma jest dość stary (2002), od tamtego czasu wyszło (sądząc po bibliografii Rampino) kilka ważnych prac na temat zimy wulkanicznej, więc możliwe, że Bostrom zmienił zdanie.
Przypomniałem sobie o tym blogu kiedy oglądałem pewien filmik popularno naukowy na YT http://www.youtube.com/watch?v=uBspKffP2ME&feature=related . Chociaż sam uważam że czynniki endogeniczne na naszej planecie mogą mieć dużo większy wpływ na jakąś tam apokalipsę ludzkości czy choćby wielkie wymieranie gatunków to hipoteza zawarta w tym filmie jest całkiem ciekawa. Sam jestem studentem geologii i na zjawiska w czasie mam inne spojrzenie niż miałem kiedyś, wiem że istnieją zjawiska których efekty odczuwalne są przez setki tysięcy lat albo same zjawiska występują z taką częstotliwością i trzeba odpowiednio dopasować swoją wyobraźnię aby je zrozumieć. Jest faktem że większe czy mniejsze ale masowe wymierania gatunków na ziemi zdarzały się mniej więcej co 26 milionów lat. W filmie tym naukowcy próbują wytłumaczyć co może odpowiadać za taką częstotliwość występowania tego zjawiska na naszej planecie.
OdpowiedzUsuńZ tego co wiem „fakt” to trochę za dużo powiedziane o sugestii Raupa i Sepkoskiego. Nie czytałem niestety niczego na temat tego, na ile prawdopodobnym wyjaśnieniem jest tajemnicza gwiazda krążąca wokół Słońca i tym bardziej na temat prawdopodobieństwa całkowitego wyginięcia ludzkości, które mogłaby spowodować. Znasz coś na ten temat?
OdpowiedzUsuńNa przyszłość: żeby wkleić tutaj linka, trzeba użyć takiego zaklęcia: [im]https://lh6.googleusercontent.com/-OLYPHb7MavU/T2twzXwFjBI/AAAAAAAAAbA/g__kVaoV-5g/s221/a%2520href%2520url%2520title%2520a.png[/im]