Структурата на глобалната катастрофа

Алексей Турчин
Руски трансгумано движение
А.В. Турчин
Структурата на глобалната катастрофа
Рисковете от изчезване на човечеството в XXI век

автоматично преведени от руски

goto
болгарский перевод
http://www.scribd.com/doc/7458960/-

STRUCTURE OF THE GLOBAL CATASTROPHE Risks of human extinction in the XXI century
http://www.scribd.com/doc/6250354/

Предговор G.G. MalinetskAI
Въведение N. Bostrom.



Проект
Руски трансгумано движение.



Москва 2008

серия «диалог за бъдещето»
Vol.2
Редактор:
И.В. Sledzevsky
Валерия Прайд
       
;
Съдържание
GG MalinetskAI. Размишления върху немислимо 4
Global изменчивост 5
Психологически дискурс 9
Проблемът на инструменталните 12
В преследването на прекурсори 17
Н. Bostrom. Въведение 23
Предговор 24
Условия 31
Въведение 33
Част 1. Анализ на риска 35
Глава 1. Общи 35 коментара
Глава 2. Ядрено оръжие 57
Глава 3. В глобален химически заразяване 77
Глава 4. Биологично оръжие 82
Глава 5. Supernarkotik 91
Глава 6. Рисковете, свързани с samokopiruyuschimisya идеи (memami) 95
Глава 7. Изкуствен интелект 96
Глава 8. Рисковете, свързани с роботи и нанотехнологиите 112
Глава 9. Технологична Начини на предизвикват природни бедствия 119
Глава 10. Технологични рискове, свързани с фундаментално нови открития 123
Глава 11. Рисковете, свързани с космически технологии 127
Глава 12. Рисковете, свързани с SETI 132
Глава 13. Рисковете, свързани с размива на границите между хората и нечовешкото 152
Глава 14. Рисковете, свързани с природни бедствия 153
Глава 15. Глобалното затопляне 178
Глава 16. Човекът не е направен от рискове, свързани с нови технологии 181
Глава 17. Неизвестен за нас причина бедствия, сега са 187
Глава 18. Как да намерим odnofaktornyh сценария на глобални катастрофа 188
Глава 19. Множество сценарии 198
Глава 20. Събитията, които променят вероятността от глобална катастрофа. 223
Глава 21. Kriptovoyny на надпревара във въоръжаването и други сценарии фактори, които повишават вероятността от глобална катастрофа 242
Глава 22. Фактори, влияещи върху скоростта на напредъка 259
Глава 23. Защита от Global Рискови 264
Глава 24. Непряко начини за оценка на вероятността от глобална катастрофа 295
Глава 25. Най-вероятно сценарият на глобалната катастрофа 313
Част 2. Методология за анализ на глобалните рискове. 318
Глава 1. Общи коментари. Грешка по интелектуална катастрофа. 318
Глава 2. Грешки са възможни само при заплаха за съществуването на човечеството 322
Глава 3. Както когнитивните изкривявания, които могат да представляват никакъв риск, въздействие върху глобалната оценка на риска 338
Глава 4. Obschelogicheskie грешки, които биха могли да възникнат при обсъждането на риска глобален 375
Глава 5. Специални грешки, които възникват в дискусиите относно опасността от неконтролираното развитие на изкуствения интелект 386
Глава 6. Специални грешки, свързани с дебат за рисковете от нанотехнологиите 396
Глава 7. Констатации от анализа на когнитивни изкривявания в глобалната оценка на риска 401
Глава 8. Възможни правила за сравнително добра оценка на риска глобален 401
Заключение. Перспективите за предотвратяване на глобалната катастрофа 403
Литература 404
Приложение 1. Таблица катастрофи 415
Приложение 2. Член 453
Д. Yudkovski. Изкуствен интелект като положителни и отрицателни фактори на глобалния риск. 453
Н. Bostrom. Въведение в теорията на света. 508
А. Kononov. Идеологически началото на Генералния neunichtozhimosti теорията на човешките 513
Бележки: 528

       
GG MalinetskAI. Размишления върху немислимо
GG MalinetskAI тук, за да се изтъкне, ВАШЕТО степени и POST, ако осигурен, тъй като четох една книга ще се хората да не SPETSIALIZIRUYUIESYA този въпрос.
Пруст завист. Upivayas миналото, той разчита на много здрава основа: той вече е сигурна и силна бъдеще. Но за нас миналото е минало двояко, понеже двояк губи времето, с течение на времето, ние сме загубили най-свят, в който teklo този момент. Съществува пропаст. При непрекъснатото движение aborts вековете. И ние вече непозната кога, по какъв век живеем и дали ще има поне малко бъдещето.
Робер Мерл. «Malvil»
Картини, рисувани от мен, не е задължително да е пълна картина на униние: неизбежното бедствия, които не могат да съществуват. И, разбира се, шансът да се избегне катастрофа става все по-смело, ако ние с нетърпение катастрофа в лицето и оценява неговата опасност.
А. Azimov. «Избор бедствия»
Тази книга бе да се появяват. Неговият път е дошъл. Е, би било, че тя е написана 20 години-рано. Но миналото не се е променило, но мисля за бъдещето, проектиране и мислиш за своите опасности, рискове и заплахи.
Тази книга е на ръба на преглед на работата по сценария на глобалната катастрофа, се срещнаха в един свят на Futures изследвания и методически анализ на съществуващите подходи. Авторът на книгата - Алексей Turchin - се стреми към обективен анализ, научното, за разработване на цялостна разбирането на глобалните рискове. Безусловна достойнство книгата е неговата интелектуална честност, стремеж към по-ясно разделение на фактите, резултатите от хипотези, съмнявам спекулация.
Разбира се, повечето читатели там е естествен въпрос е презумпция за проучване свързва с конкретна работа по управлението на риска и проектиране на бъдещето, което е активно в ход в Русия и света. За «мост", свързващ анализ на хипотетичен бедствия и работа за прогноза и предотвратяване на реални инциденти, бедствия, аварии, може би, и си струва споменава в предговора към тази книга.
Global изменчивост
... Makrosdvig - е превръщането на цивилизацията, която е движещата сила зад технологии и получава критична объркване маса от хора осъзнават необходимостта да се актуализира системата от ценности.
Д. Ласло. «Makrosdvig»
Може би сега, човечеството прави най-важен и смислен избор в тяхната история. В теорията на самоуправление - Synergetics (буквално, теорията на съвместни действие) - е фундаментално важна концепция раздвоение. Думата идва от френски език, което означава разделена, разклоняване. Раздвоение нарече промяната в броя или устойчивостта на резултатите от определен вид, когато промените параметри.
В нашия случай, параметър е времето (по-точно историческата «бавния път", както той нарече го отличава френски историк Фернанд Braudel). «Решение» - това е най-важно количествени параметри, които характеризира zhizneustroystvo нашата цивилизация. И в рамките на едно поколение предишния път на развитие се губи стабилност.
Ясни доказателства за това - технологичната граница, което дойде цивилизация. Смята се, природозащитниците, ако целият свят днес започнаха да живеят по стандартите на Калифорния, се оказа, че всички резерви на минерали достатъчно за един вид до 2,5 години за останалите 4. Човечеството не живее в нашата средства - за година, той се консумира известно количество въглеводороди в създаването на природата, която е взела повече от 2 милиона години. Преди няколко години, е преминал важен момент - повече от една трета от петрола, произведени в началото на рафта и океански дълбини. Бразилският и американските компании са започнали да копаят в морето на дълбочина от 2,5 километра. Така че, преди да направите това лесно да се постигне, вече е усвоил или изчерпани.
Наука двадесети век не разреши проблема с необходимия брой производството на евтини чиста енергия и енергийна ефективност съхранение. Ясни доказателства за текущата световния петрол криза, нарастващите цени на петрола със 7 (след няколко десетилетия назад) до 140 долара за барел. Същото се отнася и за производство на храни сценарий на икономическото развитие, растящите проблеми на глобализацията. Тя се превръща ясно, че старата пътека на човешкото развитие е загубил стабилност. И ние трябва съзнателно и разумно изберете нова траектория, или обстоятелствата, отговаряща за нас.
В Synergetics показва, че близо до точката на бифуркация е непостоянството. И малки причини може да има големи последици. Виждаме много признаци за крехкостта на съвременната реалност. Непостоянството винаги е бил спътник на човешкото развитие.
Променливостта, както се вижда от Synergetics, са различни по характер. Така например, в линейни системи трябва да се развива експоненциално право, или че същото нещо на геометрична прогресия - в същия брой пъти през едно и също време. Най-простият пример за такъв растеж уравнение дава Malthus.
       . (1)
Както е предложено от английски свещеник и професор от Източна Индия компания, Томас Malthus (1766-1834), по силата на този закон се увеличава броят на видовете, включително и хората. От училището по математика известно решение за това уравнение N (T) = N0 • EXP (; Т). Повишаване на първоначалните данни, два пъти, а после решението да се увеличи, наполовина: отговора, пропорционално на въздействието - обща черта на всички линейни системи.
Това е много бързо закона. Според него, например, от 1960 г. насам, разработва компютърна индустрия. Той нарича Закон на Мур: всеки 18 месеца, степента на интеграция на чипове (и с това скоростта на компютрите) се удвоява.
Но там са още по-бързо законите на нелинейни системи, например системи с положителни отзиви. Те отхвърлят въпрос на реакция на системата, увеличаване на отклонението, което увеличава по-силно, отколкото в уравнението (1).
Такива летливост, например, описва уравнение (2)
       . (2)
Но законът на растеж е доста по-различен
       . (3)
Тук е налице режим с влошаване, която разследва стойността на неограничен увеличения за ограничен период от време, TF, която самата зависи от първоначалните данни, TF = 1 / ; N0.
Всичко това не е математически упражнения, и има пряка връзка с нашето настояще и бъдеще. Проучванията от последните десетилетия на двадесетия век, paleodemografov данни показаха, че тя е законът (2), а не чрез закон (1) увеличаване на броя на човечеството над два милиона години, и времето за влошаване на TF ; 2025.
Право (3) описва необичайност (опция). Специалисти в очакване на една хипотетична точка на странности връзка в близост до 2030 г., в които броят на предсказуем криви преминете към безкрайност. Мнозина експерти връзката му с взривно развитие на технологичния напредък, особено информационните и телекомуникационните нано-, био-технологии и когнитивните (Британски спад NanoBioInfoCogno - NBIC), качествена промяна на човешкия разум.
Да поговорим за realists, здраво стои на земята. Ние не може да бъде безкрайно дълъг. Поради това, законът (3), хиперболичен растеж на човечеството - основните пролетта на историята в продължение на много векове - трябва да се промени. И това се случва. Имаше през последните 20 години - за едно поколение. Ние говорим за промяна на алгоритмите на цивилизацията. Най-тясно мащаб събитие - неолита революция, в която човечеството е в състояние да преминат от лов и събиране на земеделието и pastoralism. Приблизителният брой на експерти по време на революцията, броят на човечеството падна близо 10 пъти.
Човечеството и науката предизвикателство, сравнимо с това все още не са направени. Състоянието на ресурсите, биосферата, обществото ни прави много кратък период от 15-20 години, за да обновите или радикална промяна на цялата гама от жизненоважни технологии (енергия, храна, транспорт, публичната администрация и много други).
В действителност, ние не говорим за вида на раздвоение. В Synergetics разграничи меки bifurcations, който възникна по време на траекторията лежат в стария квартал, губи стабилност. И по-постепенно, evolutionarily извадени от него, ако промените настройката. Той е важен и отговорен избор, същността и значението на която се оказа по-късно, но развитие е еволюционен. Тази версия на бъдещето, който прогнозира проф. С. П. Kapitsa.
Но съществуват строги раздвоение, когато близки клонове, а не, да речем, движещи се в различни, достатъчно далеч от предишната власт. Това е революционно събитие. Аз не искам да мисля, че тя чака човечеството през следващите десетилетия, но изключи такава възможност не може да бъде. Тогава здравият разум подсказва, че надеждата за най-добър, трябва да очакваме най-лошото и, разбира се, се отрази сериозно върху това.
Това е лайтмотив на книгата AV Turchina. В действителност, това е първата научна (доколкото това е възможно в анализа на трагедията, безпрецедентно, никога не се случва) работят на този кръг от проблеми. Разглеждане посоката на мисълта в продължение на няколко десетилетия, разработени в Запада. Подходящи произведение е публикувано в редица реномирани научни списания, по-специално в природата. Естествено се въведе тази област търсения, които могат да бъдат много важни (СЗО предупреди, че с пистолет) и вътрешните читатели.
В точката на бифуркация на много висока несигурност. И обещава светло бъдеще coexists с апокалиптични сценарии. Но тези и други хипотези следва да бъдат обект на значителни дискусия и анализ. Авторът е много добър стигнаха до проблема. Той има голяма логика, голяма ерудиция, добър стил и отлична възможност за класифициране. Въпреки това, книгата си той призовава дискусията. Акцентът върху «I» се появява на своите страници, по-често, отколкото е прието в научната литература. Мисля, че това желание да поеме отговорност за твърдения, направени заслужава уважение.
Психологически дискурс
Всичко, нещо, което застрашава загуба,
За сърдечна смърт носи
Neizyasnimy наслада --
Безсмъртие може да бъде залог!
Който и щастливи широки вълнения
Те могат да предприемат заряд и.
Александър Пушкин
Страхът от всички и страха от смъртта, по-специално е важен компонент на индивидуални и колективни съзнание. Степента, до която и да е, зависи от личността и обществото. В ерата на промяна, нестабилност, несигурност около това място става много голям. Това може да се измерва със средства за развой на двадесетия век в Русия - начин на носител, mistiku, bogoiskatelstvo и bogostroitelstvo, Григорий Распутин по APEX на властта. Алексей Turchin произшествието не е довело до епиграф думи от пиесата, че Cech пуснати в Dachniki «Чайка». Това са думи на края времена, когато земята не е нищо остави жив. Въпросът за смъртта и безсмъртието - ядрото на всеки религиозен мироглед.
Обръщайки този период, в даден момент на избор и несигурност за бъдещето е в нашата цивилизация. Проект на Moderna свързано с очакването на технологичния напредък, който може да качествено подобряване на живота на хората в по-ефективни, разумни и справедливи zhizneustroystvo на културното развитие, създаването на научен мироглед е дълбока криза. Той беше противопоставя Postmodern, postulated едно множество значения, ценности, образователни практики, модел общество и отрича елемент на обективност, за да се сравняват, както и възможността за диалог между културите, цивилизациите и училища. Науката в традиционно пост, упражняван върху една дъска с религиозни секти, средни и ясновидец. Философия, които се обслужват път в нова сграда развитие започва разклащам основите света. «... Смъртта на Бог ни призовава за ограничен позитивен свят, тя се приближи до нас един свят, които се разтварят в себе си опита на граница в акта на крайностите, крайностите, злоупотреби се появяват тази граница кръст през нея, тя нарушава», - казва една от класици на философията "Постмодернизмът М. Фуко върху основния метафора на тази тенденция -" смъртта на Бога ".
От друга страна, проектът Moderna атаки Kontrmodern, свързани с връщане към религиозна традиция, с фундаментализъм, за изоставяне на поредицата, възникнали при изпълнението на проекта Съвременни морални и етични норми, много от културата. Мястото на науката в перспектива е мистика, магия и религия. Ето защо, в такъв социално-психологически фон дори и да обсъдим въпросите, разгледани в книгата, не е лесно. Ето защо, AV Turchin избра рационалното, умишлено, доста сух под формата на преглед, лишени от емоционална оцветяване. И това изглежда много разумен.
Очевидно е, че има два отговора на този вид текстове. Първо - това е обща и на ниво ненаучният на съзнание реакция на недоверие. За да цитира пример за такива мотиви: "защо strashilki двамата умре? Е, добре, на инстинкт за самоконтрол ... но зная, че заплахите с думата, и заплахите, на които хората след това лицето се различават съществено ... Така че защо е колективното безсъзнание не е Настройте вашата нагласа към пророчество заплахи? Да много проста - не просто е написан писмено историята като победители. Те също форма на колективното безсъзнание ... Това е всичко, и коригира прототип - неосъществен ужасите забравил, и любов към strashilkam - На живо ". Отбелязвам в скоби, че за много ужаси не се сбъдна, а в някои случаи да изисква огромни ресурси и усилия на толкова много хора.
Обратната страна на тази монета - опити за решаване на suschnostnye, социални, психологически, философски въпроси на технологични средства. Това са примерни проекти в радикално живота разширение (използване на стволови клетки, mikrorobotov или друго), krioniku (замразена след смъртта, с надеждата, че потомството ще възстановяване, лечение и т.н.), много от инициативите transgumanisticheskogo движение. Така например, един от активистите на движението, от Института за анализ на системи, РАС А. Kononov предложено да сключи споразумение с потомство: "Това е договор между поколенията! Ние ще напишете в договора, които работят за напредъка, преместете технология за възкресение, и потомците ни повдигне. "
Трябва да бъда на семинар, който дискутираха проект на Gechvok ( "ковчег» обратното), които считат създаването на градовете в дълбочина на много км под земята, която по удобен, в случай на сблъсък със земната гигант asteroidom ...
Аз може да възрази, казвайки, че dreamers са необходими и дори в случай, руски kosmista НУ Fedorov, автора на философията на обща кауза, свързана с възкресението на мъртвите мъже, които имат голямо влияние върху видни учени - бащата на astronautics KE Tsiolkovsky и основател на geliobiologAI - Ал Chizhevskogo. Мечтател наистина е необходимо. И даде isklyuchenieZDES не ясно какво или кой е ИЗКЛЮЧВАНЕ И защо само доказва правилото - какво е любов и мъдрост трябва да се прилага на хора, се счита, че всички те заслужават възкресението ... И тук, също показва, че първата дълбоки интелектуални въпроси, а след това проучване и технологии, ...
Наука е също част от културата и, естествено, е най-тясно свързани с другите части, усещане за духа на времето.
Този психологически феномен лесно проследени по примера на няколко книги, свързани с много далечно бъдеще и глобалните заплахи, че го е правил.
Библията и научно - технологичната революция - "сумата Техника» (началото 60-те години). Не се съмнявам, че ще бъде в състояние да преодолее всички пречки за технологични, социални, психологически и контра всички заплахи, които могат да възникнат от тази безкрайна пътуване.
Изключително фантазьор и популяризатор на науката Исаак Azimov. Книгата е посветена
Global бедствия: "Изборът на катастрофите» (края на ХХ век). За тази книга прекрасно заяви своята редактор, професор С. А. Степанов: "Това светло, тихо, поучителен книга, обаче, принадлежи на епохата, който върви заедно с последното десетилетие на ХХ век. Azimov - както фантазьор и като популяризатор на науката - предявени за векове на човечеството. За него, "естествена светлина на разума", умножен по силата на гений, е сила, която е в състояние да се трансформира и непознати сили на природата и неразумно в началото на човешко същество ...
Кажете ми какво се страхуват, а аз казвам кой си. Човекът хуманистичен ера страх от опасностите, която показва, че общата смисъл: изчерпването на природните ресурси, лошо управление, за безумието на учени, изобилието на петна по слънцето ...
За да разберете какво е страх от модерния човек на улицата ", достатъчно, за да видите филмите, които са като него. Модерния човек се страхува от собствените си в безсъзнание, неспособност да завършат своите вътрешни контроли започна. Той се страхува, че ще създаде същество, което ще унищожи собствената си (мутант, роботът supercomputer). Той се опасява, че там е скрит етаж космополитен, който се управлява от икономическия и политическия живот, мислех за поробване на масите и интернет медии. Тя се боеше зли извънземни, практикуването на съвсем различни стойности от човечеството. Той не вярвам на управлението и статистически изчисления се приема, че Земята в близко бъдеще очаква сблъсък с комета ...
Той призова следващата ера? Да се грижи за това следващата ера. Един може само да се предположи, че следващите век ще бъде нещо, близко до старото възприемане на света в магията отношение към действителността и мистично чувство за присъствие на двете страни, предлагайки на Тайното човек - един друг интересен ".
Тази модна е засегнала и организатор, и учени. В Съединените щати, е роден жанр на литературата, посветена как ще замирам във времето следи от човешка остана на Земята, ако един ден всички хора ще изчезне. Сериозно бяха обсъдени проблемите, които възникват от космология през 100 trillion години и финалите на проблема: "Ние, кръст и Sherrer вярваме, че наблюдава Вселената в далечното бъдеще очаква срив в черна дупка, която ще се случи в началото и в нашата Галакси".
Проблемът на инструмент
- Каква е вероятността, че излезе от изпита, ще намерите динозавър?
- ;
- Защо?
- Защото са изпълнени или не е било изпълнено.
На поканата за преглед
Математика е езикът. Но самият употребата на език не гарантира съдържание на становища, изразени в този език. Математика - ефективен и ценен инструмент. Въпреки това, той трябва да се използва разумно и за други цели.
Не прави изключение е теория на вероятностите (застроени подвеждащо впечатление за простота и научни доказателства в популярното съзнание). Използването на вероятностите аргументи и оценки в книгата AV Turchin е «дискусия» пункта. Всъщност, каква е вероятността? Ако приемем, частен език, той трябва да се сложи N идентични експерименти, които са настъпили N интересно събитие. В този случай,
       (4)
Разбира се, че нямаме възможност за безкрайна редица експерименти, и ние трябва да преценят вероятността от PN-базирани M наблюдения, който дава приблизителна стойност от това количество P (М). И математическите теории показва как P (М) ще бъде близка до истинската вероятност.
Но когато говорим за вероятността от глобална катастрофа, която, за щастие, все още не е, да използваме съотношение (4), или нещо подобно просто не могат. Тук е N = 0!
Не пророк в собствената си страна, и затова се обръщат към чужд пророците, за да покаже типичните пропуски в логиката на прилагането на математически апарат. Тази формула Франк Дрейк за броя на извънземни цивилизации (среща с AV Turchin, може би не без основание принадлежат на глобалните рискове).
       , (5)
където N - броят на извънземни цивилизации, R - броят на годишните формира звезди в вселената, P - вероятността за наличието на звезди от планетарна система, Ne - вероятността, че сред планетите е вида на планетата земя, където е възможно възникването на живот, L - вероятността от появата на истинския живот на планетата, C - вероятността, че един разумен живот отиде по пътя на технологичното развитие, е разработил начин за комуникация и желание да влязат в контакт, T - средно с течение на времето, през което искате да се свържете с цивилизацията изпраща радио сигнали в космоса.
Като съотношение (5) изглежда много научно, и наистина е чиста фикция със своя парцел, предположения и морал. В тази формула mnogovato неизвестен, което означава, че по принцип е неясно, тъй като може да бъде определена.
Предполагам стойността на изследванията и развитието може да се оцени астрофизика и космология, въпреки че в контекста открити вселената да се разшири бързо, тъмната материя и neochevidny този въпрос.
Стойност P напоследък нямам какво да кажа, че не е бил - не виждам планетите астрономи са звезди, различни от Слънцето. През последните десет години с една малка революция в астрономията - планетарна система е в състояние да различавам от стотици до повече от звездите. И въпроси за «Земята партия», за «състава на атмосферата» - това е предния край на науката, но там също е време за някои решения още не са пристигнали.
Стойността на Ne постъпленията от предположението не е очевидно, че за появата на живот се нуждае от Globe наземна.
Вероятността от появата на истинския живот L ... Много от учените вярват, че животът на Земята е уникален. Франсис Крийк (открита двойна спирала на ДНК) и няколко нобелови лауреати вярват, че животът не може да са възникнали на Земята и submited ни от космоса. Трябва да участват в програмата на Президиума на Руската академия на науките, на dobiologicheskoy и по-ранните етапи на биологичната еволюция (т.е. произхода на живота). И Програмен директор, академик Д. М. Galimov, изследователи попита: "Какви са достатъчни условия за появата на живота?» Въпреки сериозните усилия от много водещи експерти, досега, очевидно, че е учените не върху зъбите.
Приблизителната оценка на два други по-екзотични съставки, и никой реч.
Сила на тази работа, AV Turchina е сериозно внимание на методологически въпроси, той посветени голяма част от книгата. И тук, може би аз също, стендове за извършване на операцията. Изглежда, че понятието «вероятността» аберации едно възприятие. Обясня с конкретни примери.
При оценката на икономическите, научните, технически, научни и технологични проекти, включително с висока степен на риск, вариращи от XVI век, радва (първо интуитивно, а след това съзнателно) формула
       , (6)
където S - очакваната полза от този проект, аз - броят на възможните сценарии, които могат да развият събитията, N - общия брой на сценарии, ПИ - вероятността от изпълнението на I-скрипт, XI - печалбата или загубата в случай на I-скрипт. , А стойността XI, и вероятността - целта стойност, измерена на базата на предишен опит. Актюерски математика е установила подходяща методика, и застрахователни компании ги използват. Това е основата на обективна оценка на риска. (Проблемите са и уредени в Приложна математика, свързана с анализ и промяна на формулата (6) Когато S = ;. В случай на глобалните рискове, ние сме се занимават с тази ситуация, ако J-ти сценарий се занимава с унищожаването на всички Живият, S = ;).
Но в двадесетия век, когато анализ на поведението на икономическите агенти, беше разкри, че хората, фирми, държавни, да реши, доста често идват от взаимоотношенията
       , (7)
където М - брой на сценарии, взема под внимание, GI (PI, XI) - субективна вероятност, това е представянето на политиката, около вероятността от I-скрипт, здрасти (PI, XI) - субективна оценка на печалбите и разходите в случай на I-Върви сценарий.
Субективните вероятност зависи от отношението на лидери, традициите на законодателството. В много начини, своята оценка за парадокс. Така например, психологически изследвания показват, че повечето хора GI (PI, XI) = 0, ако са били лекувани с <10 5, тъй като тя е била голяма вреда. С други думи, ако нещо се случи с един от 10 000, лицето, което обикновено е убедена, че тя не е нещо като това се случва. С други думи, вероятността субективни - «сянка» обективни, вероятността за сходство, а понякога и твърде отдалечени от оригинала.
Въпреки това, през последните десетилетия «субективна вероятност» спечели правото на гражданство и започна да ходи на страниците на книги, учебници, научни списания (Дрейк формула - ярък пример). Вероятности на глобална катастрофа, изследвани в книгата AV Turchina - това е напълно и редица субективни вероятностите.
Тези ценности - полезен инструмент за социологически и социално-психологически проучвания за оценка на песимизма и оптимизма експерти. Въпреки това, по същество на делото, те не могат да имат връзка. И ако не е обект (обективна вероятност), субективните вероятността увисва във въздуха, не е рационално и интуитивно или емоционален характер, се превръща в сянка на страна, която не съществува.
Друг методологически финес. За обикновените аварии и бедствия е gaussian закон за разпределение на вероятностите плътност на загуба. Растежът на хората, размерът на интелектуалната и други характеристики, както и на способността да се разпространява през този закон:
       , (8)
където ; (X) - вероятността плътност на случайни стойности, M - неговите очаквания, ; 2 - дисперсия. За тази дистрибуция е «право три часа sigm» - вероятността, че случайни променливи на интервала (М 3 ;, М +3) М А не тук СЛЕД дали SIGMU добавят? Аз не помня от Kirovograd, когато аз съм в състояние да се види. е по-малко от 0,3%%. «Дребни» на разпределителното spadayut много бързо и вероятността от гигантски отклонения могат да бъдат пренебрегвани.
Въпреки това, земетресения, наводнения, tornadoes, фондовия пазар срив, загубата от изтичане на поверителна информация от ядрени аварии са възникнали на всички други статистики.
       . (9)
Това правомощие статистика «тежки опашки", този гигант увреждания не могат да бъдат пренебрегвани. Това си спомня за страшната и прекрасен свят на ориенталски приказките, в които гиганти и Jinnah. Шанс да ги посрещне, е много малка, но се срещна с тях, могат да променят всичко.
Всъщност, в двадесетия век, тя е земетресение, което твърдеше, повече от 1 милион живот, наводнения, които са напуснали бездомните повече от 28 милиона души, и Чернобилската авария, повреда, от която загуби от превишава всички други катастрофи в ядрената мощност индустрия.
Големите изкушение, въз основа на закона (9), за да оцени щетите, произтичащи от sverhkatastrofami, вероятността от глобални рискове. Въпреки това, формула (9) - сближаване, които в някои ниво «почиства» свойства на система, която има своите граници и ограничения.
Поради това изглежда разумно да се обсъждат глобалните рискове и техния количествен аспект, въз основа на резултатите по математика и природни науки, с акцент върху три области:
; Определяне на тези или други катастрофални събития. Тя се изчислява, например височината на вълните цунами, не се очаква да надвиши км. Подобни оценки, съществуват редица други бедствия;
; Специални вече построени и изследвани модели на много спешни случаи: ядрена експлозия, от сблъскване с asteroids, епидемии, разпространение на компютърни вируси и няколко други. Налице е оценка, и специалистите, и опита анализ. В книгата се споменава много, но в следващите труд се струва по-конкретен анализ. И Бога, и дявола в детайлите.
; прехода от теорията на вероятностите Теория на глобалните катастрофи възможност на такива събития. Математически принципи на този подход през последните години са изградени от проф. Й.. П. Пил. Нещо повече, книгата има и някои много интересни и очевидно не сценарии на световното непостоянство.
Може би всичко това ще бъдат разгледани подробно в следващите книги на този важен въпрос.
По отношение на функционирането на прекурсори
Всички мерки, които могат поне в известна степен да се подобри сигурността трябва да бъдат взети, без значение колко е странно, на пръв поглед, те не се появяват.
От речта на срещата на усилията за борба с тероризма.

Аз съм искал, а може би и много други читатели, за пръв път, като тази книга в ръцете си, повдигна въпроса: има смисъл да разгледа всички тези трагични сценарии, толкова много, така че вероятността на всеки от тях много малки, но научни доказателства за изменчивостта на фрагментарните И, в много случаи са не? Ако учените да минат на хляб от fantastov и авторите трилър?
Въпреки това, тези въпроси са убедителни отговори. Причините за сериозното отношение към тези изследвания и др.
1. Анализ и предотвратяване на глобалните рискове могат да контра или натиснете опасностите от глобалното пропорции.
Един добър пример - работа по моделиране на климатичните процеси, които са около тридесет години бяха в Изчислителен център, СССР академия на науките, под ръководството на академик NN Moiseyev. Създаден по време софтуерна система позволява на изследователите да симулира климата система - океана - биосферата. Един резултат е оценка на въздействието на моделиране мащабна размяна на ядрени удари между суперсили. Изчисленията, извършени под ръководството на г-н Н. Moiseyev и В. В. Александров разкри, че вследствие на подобно събитие би било прекалено дълги «ядрена зима" и променящата се глобална атмосферната циркулация. Тези резултати се съглася с тези на американските учени, които работят под ръководството на К. Sagana.
Това беше широко известна, тя е била отчетена в Ю Ес Конгрес, Ватикана, на много международни форуми. Накрая, тя стана един от основните аргументи в преговорите за стратегически контрол върху оръжията, предназначени за предотвратяване на подобен обмен на ядрени удари, както и - отправна точка за много по-късно работи на тази тенденция.
Подобна ситуация се наблюдава със САЩ програма «Междузвездни войни", свързани с отнемане на различните видове оръжия в космоса. Един от аргументите против програмата се превръща в модел на професор Г. Майер-Kress, показва, че наличието на анти-сателитните и protivoprotivoraketnogo и това UZHASNOO дължина и помия думите STAVIT дали някъде DEFIS? Оръжия не се подобри сигурността на двете страни, но като цяло рязко се влоши ситуацията и ще има destabilizing ефект. Този и много други аргументи имат право да отложи създаването на десетки години на космически скорости оръжия, разбира се, биха могли да имат глобален рискове.
Възраждането на космическа отбрана Инициативата опасни и следващата спирала. През септември 2006 г., администрацията на президента Буш одобри ново Народно пространство доктрина на САЩ, според който САЩ «не се признават за ограничаване на основните права на Съединените щати да работят и да получават информация в космоса". Три месеца по-късно, Китай е унищожена нейната метеорологичен спътник, създаването на големи количества от отломки в космоса.
Тук ние сме изправени пред нова стратегическа опасност. За много години, Института по приложна математика от тях. Keldysh Ран работна група, която да анализира отломки, проследяват траекторията на повече от 30 хиляди обекти в космоса. Според специалистите в тази група, положението с космически отломки, и поради това сигурността на стартира следващия космически кораб се влошава бързо.
С други думи, при липса на специални мерки биха могли да бъдат «фаза на прехода» - Земята в бъдеще може да бъде без своя космически сегмент на technosphere с всичките му последствия.
2. Един анализ на глобалната влиянието на човешката дейност води до по-адекватно оценяване на рисковете, които са се подценява.
През 2007 г., когато руското министерство за аварийни ситуации е създаден експертен съвет за аварийни ситуации, което включва Русия, водещи учени, работещи в тази област и редица ръководители на министерства. Един анализ на текущото съвет на страната изследване показва, че няколко важни клъстерите на заплахи сега в Русия е ясно, че не се отделя достатъчно внимание. Сред тях
; «хипотетична авария» (те се разглеждат заедно с «простата" и "отвъд") - много малко вероятно случай на огромни щети (пример - Чернобилската авария - преди това се случи вероятността от авария такъв клас изчислява като 10 6 години 1 -- произшествие в един часа след милион години, аварии на офшорни сондажни платформи, които вече са били десетки, и вероятността, че дизайнът се оценява на 10 7 години 1).
; новото поколение на терористични актове, потенциално убива стотици хиляди и милиони хора (една такава атака може да има глобални последици, понижаващи «праг невъзможно» в съзнанието на обществото и на елита, така както го направи в своя път на САЩ ядрената бомбардировка на Хирошима и Нагасаки ).
; Пост-industrialnyeA Това са думи, имам редовно се срещна БЕЗ DEFISA рисковете, свързани с остаряването инфраструктура, натрупване на отпадъци, замърсяване, създадени от промишлените етап на развитие. Така например, опасни членка, където: в Русия или на света? Необходимо е да подчертаем, там ... язовирите са на около 50, някои от които притежават до 6/8 кубически километра вода. Те са изградени на обща стойност 50 години, които са минали. Обновяването на тези съоръжения (основни ремонти, реконструкция, евентуално с spuskom резервоари) - голям, тежък и нерешени проблема. В същото време, тези язовири пробив може да доведе до много сериозни последствия, промяна на нагласите и technosphere и сигурност и за човешкия живот.
; рисковете от ново поколение технологии. В Съединените щати и светът активно развиващите се NanoBioInfoCogno - технологична и научна парадигма. Във всяка от тези области има много сериозна заплаха. В САЩ, например, мисля, десетки танкове зает анализиране на сценарии за нанотехнологиите, оценка на риска и методите parirovaniya бъдещи опасности. Доколкото знам, в Русия, такава работа още не е започнал.
3. В комплекса система е много по-крехка, отколкото изглежда на пръв поглед. Осигуряването на тяхната сигурност е неделима от проучването на подобни обекти, както и създаването на ефективен мониторинг и управление на риска от тяхното развитие и функциониране.
Сложност често възникват в резултат на адаптация, настройките на външната среда и обкръжение. Тази настройка може да доведе до конкретни механизми и причина-ефект зависимости, които в променящите се условия може да доведе до нестабилност на гигантски размери. И когато го напусне ситуацията извън контрол в тези системи могат да бъдат много малки. POSMOTRITE предложението, имам слабо променя. Нали?
Нещо повече, усъвършенствани, ефективни, добре защитени системи, обикновено имат ahillesovu pyatu (парадокс на Ахил) - заплащане за способността да отговори на променящата се среда, като им стратегии и Възстановяването на нейната структура.
Пример за това е глобалната финансова система - основен механизъм за управлението на световната икономика. Неговото непостоянство бързо се увеличава. Резултатите от нея могат да свиете сега има последици, които са съпоставими с последиците от Втората световна война. Това би могло да доведе до образуването на новата система zhizneustroystva, с нови значения, ценности, развитие на алгоритми (най-близката аналогична - Тъмните векове, през които човечеството е преминал). Това е пътят към Планетни система, криза, която доведе до доста създаде по-миналия век може да окаже срещу човечеството.
; 4. В обсъждането на редица глобални заплахи, основите на живота на отделните цивилизации, бъдещето на човечеството, всъщност наложено табу, което е много опасно.
; проблема за определяне на мащаба, тъй като е извън обсега на вниманието на научната общност и масово съзнание. Не-материал, незначителни проблеми да превишават основните. Книги като дело на А. Azimov и AV Turchina Помощ коригира скалата на размера на тези събития, които трябва да се тревожи човечеството.
5. Голямо внимание трябва да се portents на бедствия безпрецедентен мащаб.
Историята на ХХ век бедствия показва, че гигантски опустошителни природни бедствия и от човека бедствия, обикновено са прекурсори - на същия вид проблеми, развитие по същия сценарий, но много по-малък мащаб. А тези, които бяха в състояние да оцени техния смисъл и значение, както и да предприемат необходимите стъпки, за да се избегнат много трагедии. Заявява, че игнорира ранно предупреждение, която често извършване огромни загуби. В МОН Русия в своето време е бил приет от принципа: "всяко бедствие, трябва да учат". И още много повече, за да учи, osmyslivaya прекурсори от perezhivaya глобалната катастрофа. Това е ABZATSE VEZDE POMENYALA «PREDVEDSTNIKI» AT «PREDVESTNIKOV», тъй като това слово SKLONETSYA същия начин, както, например, "POSLANNIKI". И тогава ние имаме «Пренебрегнати POSLANNIKOV», и т. н.
Екстраполация (продължение) - неправилна процедура (малки грешки при въвеждане на данни може да доведе до големи грешки в прогнозните), но в същото време - и много важно. В действителност, това е една от най-важните начини за избягване на опасности. Ето една нова конкретен пример, показващ, че една разумна екстраполация може да спаси стотици хиляди живота.
Русия сега заема водеща позиция в света в средата на мандата Земетресение прогнозиране (1-5 години). Всички основни техники в света, основана на подхода, са разработени в Института по физика на Земята, Руската академия на науките и сега развиват в Международния институт по геофизика Математически Земетресение прогнозиране Теория и Руската академия на науките.
Проучването е създаден един много ефективен метод за прогнозиране на земетресения около 8 пункта. Същността на този подход е сходен с идеята за барометър и термометър. Барометър дори и без решаването на уравнения, описващи динамиката, "капки» променливо време, и ако той «капки» много, можете да изчакате за буря. Медицински термометър, който показва телесната температура по-висока от 37 ;, говори за необходимостта да се привлече вниманието към състоянието на организма.
Тези сеизмични станции средно кръг с диаметър от 1333 км (тя е на тази територия се подготвят 8-топка земетресение), могат да образуват 8 функционални - еквивалентна температура или натиск за земната кора. Тогава, организирана и контролирана при надвишават 7 на functionals опасни функция (който се определя въз основа на фона сеизмична област), сигнала е обявена.
През декември 2004 г., гигантски земетресението в Индийския океан цунами генерира вълна, която накрая, отнел живота на повече от 300 хил. души. За изненада на изследователите, се оказа, че не е предсказано от Световната водещите центрове, посветени на прогнозата земетресения. Ако такава прогноза беше, че ще е мощен стимул за създаване на предупредителни системи. Ако има такива системи, броят на жертвите може да бъде намален до експертни оценки, в размер до 5 хил. души.
Ретроспективен анализ показа, че причина за тази грешка. По време на предходната работата не беше 9-топка земетресения. Земетресения на тези сили са готови в рамките на окръжност с диаметър от 3000 км. Никой, не очаква огромно земетресение, които просто не се отнасят такива пространствени измерения. Грешка беше, че събитията от огромни размери, по-голям от всички визия, просто не е имал в предвид.
Резюмиране, можем да кажем, че книгата AV Turchina може да играе по-положителна роля в управлението на стратегическите рискове. Не всички го перфектно, с някои оценки и подходи ще спорим. И, може би в бъдеще тези проблеми ще трябва да се върне.
Но най-важното е, че бъдещето провежда. Тук, трезвен, научна оценка на възможните сценарии на глобалната катастрофа, на която беше посветена на книгата, е много важно.
       

Н. Bostrom. Въвеждане

Много от академичните учени прекарват много време да мисля за много неща. За съжаление, заплахата за съществуването на човешкия вид, все още не са един от тях. Ние трябва да се надяваме, че тази ситуация ще се промени, и може би тази книга насърчава повече изследвания по този въпрос.
Опитах се да изследват различни аспекти на проблема, но в проучването са заплахите за препитание са все още в ембрионално ниво. Аз виждам тези проблеми, като важна част от огромната задача пред нас. С разрастването на нашите технологични и икономически възможности и развитието на нашата научна разбиране, че трябва да бъдат внимателно и критично се отразят на един наистина голям мащаб проблеми на човечеството. Ние трябва да подходят по тези въпроси, най-малко същото ниво на внимание към детайла и аналитични взискателност, какво очакваме от изследователски методи на възпроизвеждане тор мухи, или структурата на пръстените на Сатурн. Ние знаем, че откровения за тези малки неща не идват от въздуха, а ние не трябва да очаквате мъдростта на по-големите проблеми ще бъде постигнато лесно. Но ако ние правим усилия, и ако ние се стремим да бъдем интелектуално честен, и ако ние използваме огромна сума вече е натрупал съответните научни познания, ние вероятно ще постигнат известен напредък във времето. И това ще допринесе значително за благото на човечеството.

Ник Bostrom, Оксфорд, 7 декември 2007 година.
       
Предговор

Заплахата за препитание - това е опасност, че отрицателен резултат или разрушава произход на Земята разумен живот или необратимо и значително намалява възможностите му.
Н. Bostrom. «Заплахи за оцеляване: Анализ на сценариите на човешкото изтребление".

Ако двадесети век възможността за изтребление на човечеството, свързани главно със заплахата от глобална ядрена война, началото на XXI, ние можем лесно разговор повече от дузина различни източници на риск от необратими глобални катастрофа, причинена главно от развитието на новите технологии, а броят непрекъснато се разраства. Едно проучване на въпроса е странно изостава много други, по-частни въпроси, като може да се види дори от броя на научни статии по този въпрос. (Може би това е характерно за човешката природа: в своето време Дейл Карнеги е оплакала, че много книги в библиотеката на Пандора (червей), но не и книги за «загриженост» ( "тревожи") - много по-важна тема.) Проблеми на изчерпване на петрола, за бъдещето на Китай икономика или пространството привлича много повече внимание, отколкото необратими глобални катастрофа, изследване, в което различните видове глобални катастрофи са в сравнение с всяка друга, са по-малко вероятно, отколкото по същество обсъждането на определени рискове. Въпреки това, че е безсмислено да се обсъжда бъдещето на човешката цивилизация, преди тя ще бъде една разумна преценка на това шансовете за оцеляване. Дори ако в резултат на това изследване ние разбираме, че рискът за пренебрегване, във всеки случай, че е важно да се разгледа проблема. За съжаление, след което мога да кажа, че ние не се получават такива окуражителни резултати. Сър Мартин Райс оценява шансовете за оцеляване на човечеството в XXI век като от 50 до 50, и моите наклонът беше, че беше логично актива.
Предложените читател книгата «Структурата на глобалната катастрофа», посветена малко осветена на руски литература тема: систематичен преглед на «заплаха за съществуването", съществува риск от необратими загуба на цялата човешка цивилизация и човешки изчезване. Целта на тази книга - за широк и най-надежден преглед на темата. Въпреки това, книгата се обсъжда един. Тя има за цел не толкова да се даде окончателен отговор, а по-скоро тласък на идеята читателя и да проправи пътя за по-нататъшни дискусии. Мнозина изразиха хипотеза може да изглежда прекалено радикални. Все пак, говори за тях, ми се ръководят от «принципа на предпазливостта", която препоръчва видели най-лошото на реалистичен сценарии, когато става въпрос за сигурността. Мярката на реалистичен сценарий за мен е, че те могат да възникнат при сегашните темпове на развитие на технологиите през XXI век и не противоречат на известните закони на физиката.
Проучването на глобалните заплахи и оценка на възможните им необходими, за да определите колко голям риск и какви мерки трябва да бъдат предприети срещу него. И въпреки че книгата се обсъждат възможни превантивни мерки, няма универсална рецепта за да се освободим от глобалните рискове. Но не желаят да впечатли върху читателя чувство за неизбежност на смъртта. Вярвам, че въпреки трудностите и рисковете, чака човечеството в XXI век, хората имат шанс да оцелеят и, наистина, да изграждат по-добър свят. Въпреки това, голяма устойчивост на човечеството е предпоставка за всяка част на света. Отново в тази книга ние не се обсъжда въпросът за това какво би могла да бъде съвършен свят, в който новите технологии са използвани в полза, а не за разрушение.
В този обем ще намерите моята монография «Структурата на глобалната катастрофа", както и три статии от други автори в приложението към по-ясно разбиране на темата. Книгата е разделена на две основни части - Начало на изследвания и анализ на риска, изследвания, методология и рискове. Анализ на конкретни заплахи в първата част се състои от максималната дълбочина на техния списък с връзки към източници и критични анализи. След проучване на системни ефекти от взаимодействието на различните рискове, обсъдени начините да се оцени вероятността от глобални рискове и други свързани с тях въпроси. Методологията, предложени във втората част се състои главно от критичен анализ на човешкия ум способността да се прогнозират и оценяват глобалните рискове. То може да бъде полезен, с малки модификации, и във всички други фючърси проучвания. В същия раздел дава редица препоръки за това как тя трябва да извърши анализ на риска.
Защото от приложението, трябва, преди всичко, имайте предвид пионерски Американски учен Д. изкуство Yudkovski «Изкуствен интелект като положителни и отрицателни фактори на риска глобален", първият път, когато са преведени на руски език. Д. Yudkovski - водещ изследовател на необичайност институт (Института за singularities) в Калифорния, който се стреми да разработи универсална система за изкуствен интелект и предизвикателства пред нейната сигурност ( "стил"). Той е автор на редица произведения за създаването на система AI (Изкуствен интелект) и тяхната «стил", представи концепцията за самостоятелно Rostkovogo AI (Семената ПИ), е написал много от проблемите на futurology и възможните технологични необичайност - драматично ускоряване на технологичното развитие в бъдеще. Неговият институт е разработил «SIAI препоръка да се създаде приятелска AI", които претендират, че са се превърнали в индустриални стандарти в безопасността AI.
Ник Bostrom - шведски учен и философ, който оглавява Института за бъдещето на човечеството ( "Бъдещето на човечеството") в Оксфорд, автор на проучвания за етика, теория на вероятностите, futurology и философията. Част от работата му върху теорията на вероятностите се занимава с малко известни в Русия логически парадокс, наречен съд аргумент, името на която ние ще се премести като "теорема на края на света". Има много различни мнения относно своята истина, лицемерие и приложимостта на границите, но не мисля, че е важно да се запознае читателя с посоката на съвременната мисъл. Ето защо, в допълнение на читателя да видите статията Ник Bostrom «Въведение в теорията на края на света за начинаещи". Докато научната общност внимателно разглеждане на този проблем, статията за него, публикувани в американското списание естество под хипотезата, че казва, определено ниво на признание.
Накрая, изследовател на Института на система за анализ, РАС-р А. Kononov, в своята статия «идеологически началото на Генералния neunichtozhimosti теорията на човека» подхожда към проблема с глобалното риск от гледна точка на стратегията, а именно необходимостта да се насочите «neunichtozhimosti човечеството". Ние мислим, че е важно да се публикува тази статия тук, защото тя демонстрира нарастващия интерес сред руските учени към проблемите на глобалните заплахи и обръща на перспективите за решения на този проблем. Има ли някакво значение да пишете на английски език на глобалната катастрофа? Мисля, че е за следните причини:
1. Темата, обхванати от малкото руски език и литература, е даден в милостта на всички видове sectarians и preachers апокалипсис. Фундаменталните научни изследвания не е преведен (с изключение на около 10 статии, посветени на издаването, преведени от мене в 2006-2008 г.). Открита дискусия на тези проблеми могат да бъдат интересни не само професионалисти, но и на широката общественост.
2. Технологичната изостаналост Русия не е толкова голямо, че да се гарантира, че ние не можем да се развиват опасна технология и създаде опасни продукти на базата на тях. Точно обратното, Русия разполага с технически потенциал за развитието на много видове опасни технологии, особено в областта на ядрени и биологични оръжия. Също така е в страната ни екипи, работещи в областта AI. Наличност и високи физически експерименти.
3. Русия многократно по-истории, или пред света по важни технологично развитие (спътник, първият човек в космоса), или да ги донесат в скалата граница ( "Цар бомба"). В допълнение, на територията на СССР, там са няколко големи по рода си в историята на бедствие (Чернобил).
4. Безотговорност и корупция, засягащи организацията на производството ( "може би", "намаление на цените", разчита на краткосрочни печалби), е писано, че сигурността не е дадено достатъчно внимание. GG MalinetskAI в своите книги и доклади, бои една тревожна картина за превенция на технологични бедствия в Русия. Global катастрофа привлече още по-малко внимание.
5. Информация за рисковете, свързани със Запада, причинено от проникване на нови технологии за масово съзнание бавно, отколкото самата технология, и по-голямата част от работата по глобалните рискове, които все още не са преведени на руски език.
6. Липсата на строг контрол, ви позволява да има голям брой незаконно софтуерни разработчици ( «руски хакери"), и могат да бъдат изключително опасни, ако същото се случва в областта на биотехнологията.
7. Русия наследи мощен геополитически противоречията и "комплекс за малоценност», в резултат на разпадането на СССР ( "синдром на пост"), които могат да допринесат за изпълнението на опасни проекти.
8. Публикации на руски би могло да има положително влияние върху чуждестранните науката и общественото мнение, добави «насищането на околната среда» на информация за глобалните рискове. Уникалната изкуството на руски учени могат да допринесат за общата причина за спасяването на света и цивилизацията. Руски език литература ще бъде на разположение също така и в страните от ОНД. Редица руски студенти в бъдеще ще бъде да учат или работят в чуждестранни институции, провеждането на натрупаните знания в нашата страна. Има доста голяма група от чуждестранни изследователи, четене на английски или руски произход.
9. Русия може да бъде в случаите, когато самото си съществуване като голяма част от света, ще бъде зависим от външни за обстоятелствата и ще се нуждаят от бързи и подходящи решения в тежка липса на информация. В този случай няма нужда от информация и хора. Трябва да има ясно разбиране на правителството около естеството на глобалните рискове.
10. Широчината и свободата на мисълта, като се надявам, присъщи мислители в Русия, може да даде нова перспектива за общите проблеми, разкриването на нови уязвимости и идентифицира нови начини за предотвратяване на глобалните рискове.
11. Ако страната ни е позиционирането си като голяма сила, развива нанотехнологиите ще участват в проекта полет до Марс и т.н., тогава би трябвало да играе отговорна роля в осигуряването на безопасността на цялото човечество.
Много, заяви тук, на Русия, се отнася също и за други страни, като Китай и Индия, където бързо се развива технологията и културата на превенцията на риска също е ниска.
Аз също видя подтекст, че моята книга е публикувана под егидата на Института за африканската академия на науките. Добър живот на Земята произхождат от африканския континент, и там е и първият път тя бе на прага на изчезване, когато последиците от изригване sverhvulkana тоба (в територията на съвременна Индонезия) 74 000 години преди довело до продължително студен климат, и Хомо сапиенс до прага на изчезване. В Африка днес, много разгарящия събития, които могат да служат като модели на местната цивилизация риск, най-вече - общата СПИН епидемията и употребата на наркотици резистентни туберкулоза. В Уганда през 1999 г. voznklo опасни UG99 гъбични заболявания, влияе пшеница, и неговото разпространение в и извън Африка е заплаха световния глад. Уран, използвани за бомби върху Хирошима спада, бе произведен в Конго. На територията на Габон, беше установено, уникален природен уран реактор, който бе подкрепен от верижна реакция на природен уран депозити. И досега в тези мини се добива, въпреки че не е известно, че този уран, който е доставен. Съотношението на права за големи маймуни от Африка - chimpanzees и gorillas, място, особено последната, до прага на изчезване, може да бъде предупреждение към всички онези, които вярват, че с изкуствен интелект, да се чувства човек, винаги ще се радвам да cheloveku.Esche да има нещо тук, за да напише ... И направи последното изречение тип «Нещо повече, самата slozhneshaya икономическата ситуация в Африка е в състояние да предизвикат сериозна катастрофа ... »
Описване на възможните глобални рискове, не можех да помогне, но съставят картина за бъдещето на човечеството, поради което - Futurological работа.
Искам да изразя своята благодарност към хората, които ме поддържат, докато писане на тази книга. Първо и преди всичко искам да благодаря на Yudkovski Д. и Н. Bostrom, който ме вдъхнови да проучи темата на риска глобален им ясни и предмети невъздържан и любезно разрешено да публикува преводи на статии в руски език. Разбира се, тази книга не може да се появят без влиянието, което имаше върху мен ED Plavinskaya. Аз съм благодарен IV Sledzevskomu, които помогнаха даде пълна форма на моя разказ и поставя много усилия в своя редакционна. Особено моята голяма благодарност към Координационния съвет на руски Transgumanisticheskogo движение, представлявана от Валери Гордост и Danila А. Medvedev, предоставят материална и морална подкрепа при публикуването на тази книга. Но аз не мога да изразя благодарност към първата си учителка М. Allenovu, че ми даде модел на яснота на мисълта и разум. Аз съм благодарна на майка ми Xenia Bogemskoy, баща ми Валери Turchin, син на становище Stanislaw и неговата майка Анна Soboleva, подпомогнати от самото си съществуване с моята работа, както и моята майка Наталия Сегал. Аз съм благодарен на всички онези, които не могат да се споменава по име, адрес, включително и читатели на моя блог, който ми помогна безброй техните коментари.
AV Turchin Условия
В този труд на редица термини, използвани в следните (за подробности, като всеки мандат ще бъдат изяснени в текста):
Съд аргумент - Теорема на края на света, или понякога се говори за края на света, Лесли Картър, за кратко - Da.
NBIC-конвергенция - се наблюдава тенденция в съвременната наука за сливания и обмен на информация, методите и резултатите между четирите основни технологии нано-био-инфо-cogno.
Агентът - едно вещество, че вирус, бактерия или всеки друг фактор на влияние се разпространява, причинявайки смъртта.
А глобалната катастрофа - събитие, което води до необратими изчезване на всички човешки същества. Събитията, които засегнаха целия свят, но не водят до общо изчезване, наречен текст «много големи бедствия».
«Приятелска» AI - Универсални тежки AI, изключително цели, за които подреждат така, че тя няма да причини вреда на хората и ще намали риска от глобалната катастрофа. Неговият обратното - даден неприродосъобразни AI, изключително целите на която води до смърт и дори изчезване на човечеството.
Законите на Мур - първоначално се отнася до удвояване на броя транзистори на микропроцесори на всеки две години. Говорейки за Мур на закон, ние ще имайте Мур закон в най-широк смисъл, като показателен за растеж на редица ключови технологии, с удвояване на броя на годините.
ПИ - Изкуствен интелект, замислена като универсална изкуствен интелект, способни да усвоят всяка интелектуална дейност, достъпна за хората.
Машината sudnogo на деня, оръжия sudnogo на деня - всяко устройство, вещество или метод, които са специално разработени за окончателно и необратимо унищожаване на човечеството.
Грешки - на английски "когнитивни отклонения", който може да се преведе като "пристрастия" или "отклонения по време на дискусия", или кога да се използва точно психология термин, "когнитивни изкривявания".
Postapokaliptichesky света - Какво би могло да бъде Земята, ако то се случва много голямо бедствие, но някои хора оцелее.
SverhtehnologAI - A фундаментално нови начини за повлияване на външния свят, способни да преобразуват напълно и / или създаване на глобални рискове, главно Нано, "био", "kognee и AI технология
Необичайност - хипотетичен момент в област през 2030 г., когато броят на предсказуем криви преминете към безкрайност. Свързани с изключително бързото нарастване на технологичния напредък, особено компютрите, нано-и биотехнологиите изследванията и мозъчни системи, AI и качествена промяна на човешкия разум. Терминът налагани върху използването на Vernor Vindzhem през 1993 година.
Структурата на катастрофа - връзката на научни грешки, дефекти, проектиране, оператор на грешката и верижна реакция на разрушаване, което води до катастрофа.

       

Въвеждане

Хората, лъвове, орли и kuropatki, horned елен, гъски, паяци, риби, живеещи в тихи води, морски звезди и тези, които не можеше да вижда окото - думата, всички живот, живота на всички, всички живот, беше тъжно цикъл погасява ... Вече хиляди векове, тъй като земята не за едно живо същество, а това Луна сиромасите naprasno светлините му хлътнали. В ливадни вече не се събуди крещейки с кранове, а от май бръмбарите не се чува в lipovyh горички. Студено, студено, студено. Празен, празен, празен. Ужасно, ужасно, ужасно.
А. П. Чехов. «Чайка»

Въпреки, че книгата с преглед на риска глобален публикувани в света по-малко, вече има някаква традиция в обсъждането на този въпрос. Тя е за обсъждане на методиката за класиране на възможните рискове, оценява тяхната вероятност начини да се защити и след това - преглед на логически парадокси, свързани с този проблем, а именно «теореми за края на света» (съд аргумент). Най-значими съвременни източници на три. Тази книга астрофизика J. Лесли «съд. Наука и етиката на човешкото изтребление ", през 1996 г., Сър Мартин Райс« Нашите последния час ", 2003 г., а сборник от статии под редакцията на N Bostrom« Рисковете от глобалната катастрофа », 2008 За пореден път ние се обърнат към наличната литература в« Кратка Изследване на историята »В глава 1, включително споменем и работата на съветските и руски автори, обаче, изброени три книги ще бъдат основните ни точка на подкрепа.
Предлаганата книга читателят се различава значително от книги предшественици, а именно широчината на прегледа. Така например, в член Yudkovski обсъждат, макар и в голям детайл, само на 10 възможни системни грешки, засягащи глобалната оценка на риска, докато нашият книга е опит за съставяне на списък от 150 позиции. Освен това в раздела за класификация на риска, посочени в много рискове, които не говорят нито една от трите книги. Ако се изчисли всички възможни рискове, включително и под-категории и компоненти, техния брой, защото лесно може да преминава стотици, превъзхождащ сумата от 15 рисковете обсъдени Bostrom. И накрая, аз предложи класифицирането на опциите теореми края на света, което не е известно, че ме чуждестранни източници.
Характерна черта на предложената книга е подробен критичен преглед на различните средства за защита от глобалните рискове. С оглед на това, че иска да даде систематичен поглед върху проблема, които биха оттеглям от трансфера на различни рискове и да видим общото, тоест, всяка една от тях, и - по различните рискове, свързани, могат да образуват структурата. Това обяснява избора на книгата заглавия.
Това произведение е адресирано до всички бъдещи и съществуващи организации, които биха предотвратили глобалната катастрофа или хода на своята работа да се изправи тях, включително правителства, изследователски институции, специалните служби, военни и неправителствени фондове, техните мениджъри и служители, както и futurology, млади учени и всички , Които се интересуват от бъдещето на човечеството. Целта на тази работа - да се даде окончателната картина на рисковете от глобалната катастрофа. Това е събитие, което, според Bostrom, "унищожи един разумен живот на Земята или увреди необратимо я капацитет". Пълното прекратяване на функциите на всички човешки същества са най-вероятно под формата на такива събития, и са посочени с думите «глобалната катастрофа» ще се мисли точно събитието.
       

Част 1. Анализ на риска

Глава 1. Общи бележки
Мястото способности
Първата част на книгата, ние очертани и анализирате «космически способности", която може да стане глобална катастрофа. «За космоса способности» - термин, а обратно към книгата «фантастика и futurology» становище Stanislaw Lem. Той contrasted понятия на отделните сценарии и възможности. Lem, след сравнението да обясни термина: въпреки, че броят на възможните шах игра за неопределено време, самото описание на правилата на играта и основни принципи на стратегията, е с ограничено количество и umopostigaemo. Като пример той цитирани космически способности «студената война", който бе даден на появата на някои технологии, и в рамките на който unfolded различните сценарии на противопоставяне Карибските криза, в надпревара във въоръжаването и др описва сценарий на практика безполезни, защото въпреки че всеки може да бъде много интригуващо, вероятността за неговото изпълнение е много малък. Колкото по-конкретни сценарии в подробности, толкова по-малко вероятно е - въпреки че това подобие на правдоподобност се повишава. Въпреки това, анализът на отделните сценарии ни дава рязани космически способности и затова полезни.
Един от най-важните начини за постигане на сигурност - счетоводство за всички възможни сценарии, според възможностите си, това е изграждането на «дърво скача". Например, за авиационна сигурност се постига, по-специално чрез гарантиране, че взема под внимание всички възможни сценарии за бедствие, докато някои точно изчисленото ниво на риск. Описание на място възможностите на глобалната катастрофа е предназначено да предотврати. Поради това следва да се съсредоточи върху тези ключови точки, което ще позволи на ръководството да управлява риск от увеличаване на броя на катастрофални сценарии. В допълнение, описанието трябва да се предостави информация, подходящи за размисъл и подходящи за практическо използване - и то е желателно, че тази информация е била пригодена за онези потребители, които ще насочи предотвратяване на глобалните рискове. Въпреки това, ролята на тези потребители, определящи себе си не е лесно.
Моля, имайте предвид, че като прочетете някои от точките може да изглежда очевидно, че други интересни и все още останалите - крещящ глупостта. Имайте предвид също, колко различно би ви реакция от реакцията на другите, не по-малко образовани от теб, хора. Този вариант има разчети, всъщност, една мярка на несигурност, че ние знаем и може да знае бъдещето.
Цялата информация е съставено от публични източници, цитирани в библиографията.
Текущия период: XXI век
Съществуват две различни категории прогнози - за какво ще се случи, и когато това се случва. А добра прогноза трябва да отговори на двата въпроса. Въпреки това, тъй като идеал за прогнозите, обикновено са далеч по-добре от някои прогнози сочат, че няма и други за кога. Най-добрият резултат за времето на събитията е на разположение на всички става прекалено много в същността на реалните събития, и статистически анализ събития. Например, ако знаете какво е рецесията в САЩ са средно на всеки 8 години с разпространението на плюс минус две години, може да е добра идея да предполагам следващата рецесия и без да се прекалено много, че всъщност причини. С другата ръка, анализ на основните причини за събития, които могат да пренасят значителна грешка в оценката на времето на тяхното обидно, които често зависи от случайни и не-изчислим фактори. Така например, ние със сигурност мога да кажа, че рано или късно, в район на Калифорния ще бъде мощно земетресение измерване до 9 точки, свързани с движението на океански под континенталната кора, това е, ние знаем, че земетресение ще се случи, но не знам кога.
Из глобалната катастрофа възможно в XXI век, ние имаме нашата работа се опитва да отговори на въпроса така, както ние се опише не само своите договореност, но твърди, че тези механизми могат да бъдат реализирани в следващите няколко десетилетия. Може би някои читатели ще бъде по-лесно да се разреши прилагането на тези механизми не са над 30 и, да речем, над 300 години. Така че читателите може да се каже, че въз основа на принципа за предпазливост, ние смятаме за най-опасния сценарий е най-бързо променящата се ситуация, а това е наистина възможно, че тези същите събития се появят много по-късно. Но тя трябва да се отбележи, че Р. KurtsveylKurtsvel, като ускоряването на темпото на историческото време и скоростта на технологичния прогрес, ще се равнява XXI век обемът на иновации предишните 20 000 години на човешкото развитие.
В нашата книга разглежда заплахата за съществуването на човечеството, които могат да възникнат и реализирана през XXI век. Тази граница несигурност е толкова голямо, че не можем да направим нито сега, нито прогнозират предотврати. Всъщност, може би дори на границата през 2100 е твърде далеч (виж по-долу на върха на предсказуем криви в близост до 2030).
Някои сценарии има последици, които могат да окажат влияние върху пост-XXI век (например глобалното затопляне), в който случай ние обсъждахме тях. Гранична 2100-ната година ни позволява не се разглежда като отдалечена опасност от глобален катаклизъм в пространството-времето събития, като завъртане на слънцето в червен гигант. И взема тази граница не е съвпадение. Това беше 100 години, са характерни за период на глобални катастрофи, а от 1 година, а не 10 години на възраст, а не 1000 - става очевидно от допълнителен анализ на специфични рискове.
С други думи, всяка комбинация от следните сценарии на глобалната катастрофа може да се реализира през следващите няколко десетилетия. Въпреки това, тъй като аз разбирам, че моята оценка, може би фатална грешка, аз го удължи до 100 години. Все пак, оценката ми от време, може да съдържат грешки и в обратната, което означава, че ние не трябва или сто години, или двадесет, и само след няколко години, докато вероятността за глобална катастрофа достига максимум. (Тъй като pogodovaya вероятността от глобална катастрофа расте, и тъй като и двете не могат да се включиш в завинаги, че вероятността плътност е крадец, което означава времето, когато вероятността от това бедствие, максималната - от това дали той е от няколко години, над 23 години или повече 100 години и се говори. Подробностите ще бъдат дискутирани в раздела «постигане на устойчиво състояние близостите» Глава 19 «Множество сценарии».) Разбира се, има вероятност, че ще се случи утре, но аз виждам, че е незначителна.
Всъщност, казано на XXI век като цяло, за да даде фалшиви чувство на спокойствие, защото там е най-подходящото на източниците на глобалните рискове, които могат да възникнат, което ще увеличи значително през следващите 10-20 години. Това са най-опасните практически приложения на биотехнологиите (вж. следващата глава 4). Следователно, може би, е трябвало да се говори за първата половина на XXI век. С други думи, глобалната катастрофа не може да се случи с нашите потомци, а именно нас. Признавам, че за средния човек сега живее на шанс да изчезне от глобална катастрофа по-голяма от вероятността за природни смърт.
Проблемите на изчисляване на вероятността на различните сценарии
Ще започнем с цитат от есе «Това е невъзможно да се предскаже» С. Lema: "Тук авторът е далновидност обявява за несериозност на бъдещето на базата на случайни оценки. Той иска да покаже, че историята е изцяло съставен от факта, че е невъобразим от гледна точка на теория на вероятностите. Професор Kouska хода въображаеми futurologist в началото на XX век, с всичките му познания за епохата, за да го попитам няколко въпроса. Например: "Имате ли вероятно скоро ще откриете, че среброто, подобно на олово метал, които могат да унищожат живота на Земята, ако двете полукълба на металните да се постигне взаимно да получите топката размера на голям оранжев? Да се позволи ли, че това няма стар brichka, в който г-н Бенц двигателя, zapihnul strekochuschy капацитет между един и половина кон, толкова скоро rasploditsya, че от asphyxiating дим и изгорели газове в големите градове, ден и нощ се превръща да си го някъде количка ще бъде толкова трудно, че мега-големите градове няма да бъде трудно този проблем? Има ли вероятност, че благодарение на фишек вещае и хората скоро ще бъдат в състояние да скитам на Луната, и ходи в същия момент ще видите стотици милиони домове на Земята? Да се позволи ли, че скоро ще има изкуствена небесни тела, оборудвани с устройства, които позволяват на място, за да следи всеки в областта, или на улицата? Възможно ли е да мислиш, да се построи машина, която по-добре ще си играеш шах, композирам музика, преведена от един език на друг и да извършват няколко минути за изчисление, което за живота им не бяха в съответствие с всички в света счетоводители и счетоводител ? Да се позволи ли, че скоро в сърцето на Европа имат огромен завод, който ще поддържа пещта на живите хора, като броят на произшествията ще надхвърлят милиони? »Разбира се, каза проф. Kouska, че през 1900 само луд Приемат се всички тези развития макар и малко вероятно . Но те всички са ангажирани. Но ако се наблюдава солидна improbabilities, с която тази статия е фундаментално изведнъж се подобри и сега ще се сбъдне, само че тя изглежда малко вероятно мислим за нас и възможно ли е? Предсказва бъдещето, колкото желаят, той призова futurology, не само изграждане на вашите прогнози за най-вероятно ...».
Предложеният модел на глобалните рискове и тяхното взаимодействие един с друг, е от физическо желание да се изчисли точно вероятността на различните сценарии. Също така е ясно, че докато сме изправени значителни предизвикателства. Това е принципен липсата на информация в нашите модели, несъвършенства на моделите, както и - с хаотичен характер на системата.
От друга страна, няма оценки на стойността на конструкциите нива. При това, известна числени оценки на себе си, твърде безсмислена, ако ние не знаем как да ги прилага. Да приемем, че имаме установено, че вероятността от опасни неприродосъобразни AI е 14%% през следващите 10 години. Как ще използваме тази информация? Или, ако си направил стане глобална катастрофа, които са се оценка на вероятността от 0,1%%, ние все още не знаят какво е deystvitelnoeta вероятностите, защото това едно събитие, и то не е било ясно от набор от примерни направи. С други думи, фактът, че бедствието не ни каже, че това дали е физическо събитие, или ние просто не са много късмет.
Предполагам, че вероятността е необходимо преди всичко да вземат решения за това как проблемите се дава внимание и ресурси, но какво могат да бъдат пренебрегвани.
Предполагам, че вероятността е необходимо преди всичко да вземат решения за това как проблемите се дава внимание и ресурси, но какво могат да бъдат пренебрегвани. Въпреки това, цената на превенция на различните класове от проблеми е различно: някои предотвратени относително лесно, докато други са на практика невъзможно. Следователно, за изчисляване на вероятностите ние ще използваме bayesovoy логика и теория на вземане на решения под несигурност. Полученият номера не са реална възможност (в смисъл на статистическа разпространение на различни глобални рискове за най-различни възможни сценарии), които ние не знаем, но най-добрите ни субективните оценки на вероятности.
Освен това, подобно изчисление трябва да се вземе под внимание времева последователност на различните рискове. Например, ако даден риск е вероятността от 50%% през първата половина на XXI век. И риска от Б - 50%% през втората половина, нашите реални шансове да изчезне от рисковете от Б - 25%%, тъй като половината от случаите ние трябва да Тя не dozhivem.
И накрая, за различни рискове, ние искаме да се pogodovuyu вероятността плътност. Аз си припомни, че там трябва да се приложи формула непрекъснато нарастване на интереса в случай на радиоактивно разпадане. (Например, pogodovoy риска от 0,7%%% 50% ще даде на изчезване на цивилизацията на 100 години, 75%% от 200% и 99,9% за 1000 година.) Това означава, че всяка опасност, предизвикана от някои изтичането на времето, Можете да дажба на «half», т.е. момента, в който тя щеше да значи 50%-та% вероятността за изчезване на цивилизацията.
С други думи, вероятността от изчезване в течение на времето [0; T] е:
P (T) = 1 - 2
Когато T - половината време. Тогава pogodovaya вероятност ще бъде P (1) = 1 - 2 В таблицата по-долу показва съотношението на тези показатели, изчислени използвайки горните формули за различни първоначалните условия.
Таблица 1. Отношение очакваното време на оцеляването на цивилизацията с pogodovoy вероятността от изчезване.

T0 - периодът, за който става глобална катастрофа с вероятност от 50%%: P (1) - вероятността от глобална катастрофа през следващата година,% P% (100) - вероятността за изчезване на цивилизацията, за 100 години (т.е. до 2107 грама). %% 1-P (100) - шансовете за оцеляване на цивилизацията за 100 години: гарантираното период с вероятността от изчезване
99,9%% години:
10 000 0.0069%%%% 0,7% 99,3% 100 000
1 600 0.0433%%% 6% 94% 16% 000
400% 0,173%
12,5% 87,5%%% 4 000
0,346% 200% 25% 75%%% 2 000
0,691% 100% 50% 50%%% 1 000
1375% 50% 75% 1% до 4 500
25 2735% 93,75%%% 1 16 250
5394% 12,5% 99,6%% 1 256 125
10910% 6% 99,9984% 1% 16 536 60

Обърнете внимание на дъното на таблицата, където е много голям и дори намаляване на шансовете за оцеляване на всички XXI век не променя в голяма част «half» T0, който остава на около 10 години. Това означава, че дори ако шансовете да оцелее на XXI век е много малък, все още, че почти със сигурност имат още няколко години преди «края на света". От друга страна, ако искаме да оцелеем в XXI век със сигурност (за да направи 1-P (100) възможно най-висок), ние трябва да pogodovuyu вероятността от изчезване P (1) почти до нула.
В нашата методология, ние прегледани списък от около 150 възможни логически грешки, които по един или друг начин биха могли да променят оценката на риска. Дори ако вноската на всяка грешка няма да надхвърлят един процент, резултатът може да бъде различно от правото по време и дори поръчки. Когато хората правят нещо за първи път, те са склонни да подценяват рискованост проект 40-100 пъти разглежда в Чернобил и Chellendzhera. (А именно на совалката бе определен за един инцидент в полет 1000, но първият път, разбил в 25-ти полет, като подчертава, Yudkovski, заяви, че оценката на сигурността в продължение на 1 до 25 ще бъде по-вярно, че в 40 пъти по-малка от първоначалната оценка; реактори са били построени с едно произшествие на един милион години, но първата мащабна катастрофа се появява след около 10000-станции години от операцията, която е за оценка на безопасността на 100 пъти по-ниска ще бъде по-точна.) Е. Yudkovski в основните му Член «систематични грешки в мотивите, които оказват влияние върху глобалната оценка на риска» резултатите анализират реч Експерти на надеждността на различните размери, че те не могат да се изчисли точно и какви интервали от 99%%-ти дават увереност на тези ценности. Резултатите от тези експерименти са разочаровани. Позволете ми голяма Цитат:
«Да кажем, че ви помоля да направите най-добрия възможен предположение за неизвестен брой, като броят на« Лекари и Surgeons »в Бостън телефон книга, или общото производство на яйца в САЩ в милиони бройки. Ти даваш определена сума на отговора, че със сигурност няма да бъде напълно точна, реалната стойност ще бъде по-голям или по-малко от предложените. Тогава аз ще ви помоля да се обадя в долната част на фигурата, когато сте сигурен% до 99%, това на истинската стойност лежи над границата, и горната граница, във връзка с вас, когато са на 99%% сигурни, че желаната стойност лежи под него. Двата гранични форма ви интервала% 98% ри доверие. Ако са добре калибрирани, от 100 такива проблеми ще бъдат само около 2 отлагания в чужбина интервал.
Alpert и Raiffa 1000 задавани въпроси по темата познати теми, като например горе. Оказа се, че реалната стойност 426 определен извън 98-е%% доверителен интервал, субекта на данните. Ако участниците са коректно конфигурирани, ще бъде само 20 изненади. С други думи, събития, които принадлежат теми вероятността от 2%%, се наблюдава при 42,6%% от случаите.
Друга група от 35 теми бяха помолени да оценят% 99,9% е горните и долни граници на доверие. Те бяха наред в 40%% от случаите. Останалите 35 са били интервюирани за максималните и минималните стойности на определени параметри и грешно в 47%% от случаите. И накрая, четвърта група от 35 дисциплини трябваше да се посочи «невероятно малки" и "невероятно големи» настройката, те са сбъркали при 38%% от случаите.
По време на втория експеримент, нова група от индивиди е дал първия набор от въпроси с отговори, класиране рейтинги, с историята за резултатите от експериментите и обяснява концепцията за размера - и тогава те са поискали 98%% доверителен интервал за нова купа. Обучени са били агенти сбъркал в 19%% от случаите, което е значително подобрение на резултатите в 34%% на обучение, но все още много далеч от добре otkalibrovannogo доведе до 2%%.
Подобни нива на грешки бяха открити и експерти. Hines и Vanmark интервюираните седем часа на световно известни geotechnics на височината на язовира, което би довело до унищожаването на основите на глинени скали и е поискал да направи оценка от порядъка на 50%-та% доверие около тази оценка. Оказа се, че нито един от предложените разстояние не включват правилната височина. Кристо Salanski и Bushihed интервюираните група от лекари за вероятността от пневмония през 1531 пациенти с кашлица. В повечето точно определен интервал на увереност с твърди, точността на 88%%, делът на пациентите, които действително са имали пневмония, беше по-малко от 20%%.
Лихтенщайн произвежда преглед на 14 проучвания, въз основа на 34 експерименти, проведени от 23 изследователи изучаване специално оценка на надеждността на заключенията си в хората. От тези, последвано от мощно заключение, че хората винаги са sverhuvereny. При сегашните проучвания за sverhuverennost вече не обръщат внимание, но той продължава да се появят заедно почти всеки експеримент, в който темите се позволява да се оцени максимално бързо.
Sverhuverennost до голяма степен е отразено в планирането, където е известен като заблуда на планиране. Byuhler психолози попита студентите да се предскаже важен параметър - времето на доставка на техните дипломи. Изследователите са очаквали, когато студентите се приближи края на своя едногодишен проект и след това ги помоли да се оцени реално, когато те се откажат от своята работа, и когато се откажат от своята работа, ако всичко върви «толкова зле, както може само". Средно 55 дни е студентите да завършат своята градуса, за 22 дни-дълго, отколкото се очаква, и 7 ден-дълго, отколкото се очаква в най-лошия случай.
Byuhler попита студентите да се оцени по време на доставката диплома, която те мислят, че 50%% 75%%, а 99%%. Само 13%% от участниците завършиха градуса по това време, които принадлежат на 50%% шанс, само 19%% завършени към момента 75% и 45% за оценка приключи%%% до 99% ниво. Byuhler пише: "Резултатите от изходната до ниво от 99%% надеждност особено впечатляващо. Дори когато те са помолени да направят най-консервативната прогноза, за които те се чувстват абсолютно убедена, че тя направи, тя все още е уверен студентите в тяхното време прогнозите им надвишени доколкото реални резултати "»
Така че, има сериозни основания да се смята, че трябва да се разширят границите на доверието в екстремни вероятността от риск, че глобалното желаното стойност падна вътре в интервал. Как трябва да се разширят границите на доверие?
Нека стойността на N степен доверителен интервал за определена стойност А. Доверителен интервал ще бъде, както следва: (A / N; A ; N). Така например, ако ние оценихме ставка от 10%%, и взе N = 3, интервалът се (% 3% 30%%). Разбира се, ако се направи оценка на вероятността на интервал не трябва да се разшири извън рамките на 100%%. Какво трябва да се N за глобалните рискове, а трудно да се каже. Моят рейтинг - N = 10. В този случай, ще получите доста широк доверителен интервал, който е вероятно да получите необходимата количество. При това, доверителни интервали, ще бъдат различни за различните видове риск (както так .. вероятност, ние ги оценяваме по различен начин).
Друг начин за определяне на N - да се разгледа средната грешка позволи на експерти, и да въведе такива изменения, които биха носят обикновени погрешимост на мнение. Фактът, че проекта на ядрен реактор и космическа совалка N реалната стойност е между 40 и 100 (виж по-горе), каза, че ние може би са твърде оптимистични, когато тя равното приети 10. Въпросът, който се нуждае от допълнително проучване.
Това обобщение да не намалява стойността на тези изчисления, тъй като разликата между възможностите на различните рискове могат да бъдат няколко поръчки с магнитуд. И за да взема решение относно значението на противопоставянето на всяка опасност, ние трябва да знаем от порядъка на степента на риск, отколкото точна стойност.
Значи, ние се предположи, че вероятността от глобални катастрофи може да се измерва, в най-добрия случай, с точност на поръчката (с точност на тази оценка ще бъде плюс или минус ред), и че това ниво на оценка е да се определи необходимостта от по-нататъшно проучване и внимателно следят проблема. Такива примери са скалите на Торино и Палермо скалата на риска от asteroids.
Odinnadtsatibalnaya (0 до 10) Торино мащаб астероид опасност «характеризира степента на потенциалната опасност за Земята от астероид или комета ядро. Рейтинг Торино мащаб астероид опасността се дължи на една малка организация на слънчевата система в момента на откриването му, в зависимост от теглото на тялото, е възможно процент и вероятността от сблъскване със Земята. Орбита с по-нататъшни изследвания на тялото на неговия рейтинг за Торино мащаб може да се променя ". Нула означава липса на опасност, десет - вероятността от повече от 99%% спад на тялото с диаметър повече от 1 км. Палермо мащаб се различава от Торино, които също отчита оставащото време преди падането на астероид: по-малко време, толкова по-високи резултати. Рейтинг Палермо мащаб се изчислява по специална формула.
Би било интересно да се създаде подобен мащаб за оценка на рисковете от глобалната катастрофи, които водят до изчезване на човека. В резултат на инцидент от този род да се определи една и съща, мащабът не е необходимо да се вземат под внимание. От друга страна, важно е степента на несигурност в нашите познания за рисковете и възможностите ни да се предотврати това. Така скалата на глобални катастрофи следва да отразява три фактора: вероятността от глобална катастрофа, точността на информацията за рисковете и вероятността, че този риск може да бъде предотвратено.
Заради това, което изглежда естествено да предложа следните възможни класификация на риска глобален в XXI век (смята вероятността през XXI век, при условие, че няма други рискове за него не са засегнати):
1) неизбежни събития. Оценката на вероятността - едни 100%% през XXI век. Доверителен интервал: (10%%% 100%)
2) Много е вероятно събитие - оценка на вероятността от около 10%%. (1%% 100%%)
3) Вероятен събития - прогноза около 1%%. (0,1%% 10%%)
4) невероятно събитие - прогноза 0,1%%. (0,01%%%% 1)
5) Събитията с незначителна вероятност - Оценка от 0,01%%, или по-малко. (0%% 0,1%%)
Точка 4) и 5), на пръв поглед може да незначителен, като общата им вноска е по-ниска от нивото на грешки при оценката на първите трима. Въпреки това, те не трябва да бъдат пренебрегвани, както и възможно най-голяма грешка в оценката на риска. Освен това, че е важно да се броят на събития с ниска вероятност. Ако, например, може би няколко десетки различни сценарии, с вероятността от 0,1%% - 10%%, размерът на вариация, която дава възможност на вероятността от 1%% -% 100%. По неизбежни събития, се отнася само до факта, че през XXI век, светът се е променил. Разширяване на случайни интервали от време, ние трябва да обърнат внимание, особено в разрастването-лошо, това е - да се увеличи вероятността, а останалите време. Все пак, ако някои фактор, като например създаването на защитна система, която може да ни помогне, оценката времето на поява трябва да се увеличи. С други думи, консервативна оценка за появата на дома дизайнери biovirusov ще бъде 5 години, а появата на лекарства за рак - 100. Макар че най-вероятно и двамата ще бъдат в няколко години.
Икономиката е следният метод на предсказване - изследване на водещи специалисти за бъдещето на някои параметри и изчисли средното. Очевидно, той не знае истинската стойност на параметъра, но позволява да се образуват «Май най-добре» - най-доброто предположение. Същият метод може да се приложи с повишено внимание и да се оцени вероятността от глобална катастрофа. Да приемем, че глобалното затопляне на хиляди експерти, само един каза, че вероятно ще доведе до пълното изчезване на човечеството. След това използва тази техника ще оцени вероятността от изчезване, равна на 0,1%.
Предложена ни полезни в по-нататъшното изследване и класификация на бедствия. А именно:
• експоненциално нарастване на общата вероятност за постоянно pogodovoy вероятно
• Необходимостта да се разшири границите на доверие, дадени от експерти
• необходимостта от bayesovoy логика за изчисляване на промените в известна вероятност
• използване на скали, като Торино, за да оцени различните рискове
• влияние върху оценката на вероятността от глобален риск вероятността за други рискове и последователно
• прилагане на принципа на предпазливостта да изберете най-реалистична оценка.
       
Количествена оценка на вероятността от глобална катастрофа, дадени от различни автори
След това съм, донесете ми да се прецени добре известни водещи експерти в тази област. J. Лесли, 1996, "края на света": 30% през следващите 500 години, като се вземат предвид теореми за края на света без него - 5%.
Н. Bostrom, 2001, "заплаха за оцеляване. Сценарий за анализ на човешкото изтребление и други подобни опасности ":« Моето субективно мнение е, че би било грешка да се смята, че вероятността за по-малко от 25% и най-високия рейтинг, могат да бъдат много повече ... ".
Сър Мартин Райс, 2003 «Нашите последния час": 50% в XXI век.
Тя може да изглежда, че тези цифри не се различават много един с друг, тъй като във всички случаи, включващи десетки интерес. Въпреки това, периодът от време, която дава тази прогноза, всеки път намалява (пет години - двеста - сто), което води до pogodovaya вероятността плътност се увеличава. А именно: 1996 - 0,06% - 0012% 2001 - 0125% 2003 - 0,5%.
С други думи, след десет години очакванията за оценка на вероятността плътност на глобални катастрофи, в съответствие с водещи експерти в тази област се е увеличил близо 10 пъти. Разбира се, може да се каже, че трима експерти не е достатъчно, за да статистика, и че тези мнения могат взаимно влияние една на друга, но тенденцията е грозен. Ако ние имаме право да екстраполират тази тенденция, 10-те години на XXI век. можем да очакваме разчети на изчезване вероятности pogodovoy на 5% и 20 години - 50%, това би означавало неизбежното изчезване на цивилизацията до 2030. Въпреки всичките си спекулативни, тази прогноза е в съгласие с други оценки, получени късно в тази книга независими различни начини.
От друга страна, по време на Студената война за оценка на вероятността от изчезване също беше високо. Изучаването на проблема с извънземни цивилизации фон Horner приписва «предположенията самостоятелно psihozoya» шансовете на 65%. Фон Нойман повярва, че ядрената война е неизбежна и тя ще умре.
Global бедствия и прогнозиране на хоризонта
Целта на настоящата работа е да се опита да проникне малко по-далече от обичайните ни позволява да прогнозираме хоризонта - когато навън на една прогноза vidneyutsya неясни очертанията на различни възможности. Смятам, че истинския хоризонт на ясна прогноза, че ние можем да направим с голяма точност, е 5 години на възраст, а пространството под хоризонта, където можем да разпознава различните възможности за още 20 години след този момент. И в този момент трябва да бъде абсолютна непредвидимост. Опитайте се да го мотивира.
Рейтинг 5 години възникнаха по време на екстраполация на исторически периоди, които в миналото, положението в света се е променила, така че конкретните политически и технологични тенденции остарели. Така например, от откриване на верижна реакция на атомната бомба е 6 години, 7 - до първия водород, и от този момент - още 5 години да започне първия спътник. Някои продължила 5 години и на двете световни войни, спечелени на възраст 6 години на преструктуриране. Намира се в гимназията по 5 години, хората обикновено не знам къде щеше да излязат на работа и какво ще изберат да се специализират. На 5 години стар склонни да избират председатели, и никой не знае кой ще бъде президент през периода. СССР, уредена с пет-годишен план. Честотата на появата на иновационни продукти и техните огромни пазари: PC, Интернет, клетъчни телефони - също е от порядъка на няколко години. Плановете за въвеждането на новата технология на микропроцесорите също съставляват не повече от няколко години. Основната сила зад очакванията през следващите няколко години, е «инерцията", тоест, може да се каже с висока степен на вероятност, че в рамките на следващите 5 години ще бъде около същите като сега, освен за някои от развиващите се тенденции. Въпреки това, когато говорим за времето от повече от 5 години, толкова по-вероятно е твърдението, че ситуацията се е променила драматично от това, което би било същото като сега. Ефектът от ускоряване на историческото време, които ние ще говорим по-вероятно да се намали този период ясна прогноза.
По този начин, можем да кажем, че преди «Band мъгла» във фирмата прогноза за бъдещето, ние имаме около 5 години на възраст, това е, че през 2013 г. от момента, когато пиша тези редове. По принцип, ние неясно представляват по-новите технологии, въпреки че има някои технически проекти за период преди прилагането на 2020-те години (термоядрен реактор ITER, или строеж на лунни бази) и да имат бизнес планове, които са проектирани за максимум 30 години, например, Дългосрочни ипотека. Но само пет години - е тежък период, за който на несигурността в световната състоянието на цялата система започва да надделее над сигурност на различните видове човешка дейност. Трябва също да се отбележи, че с течение на времето, увеличава несигурността, не отчита технологичните проекти и отварянето. И докато ние можем да кажем, че някои проекти са 20 години напред, ние не знаем кои фактори са най-важни в икономическо, политическо и технологично развитие.
Абсолютната граница на прогнозите, че през 2030 г., в район, в който поема евентуално развитите нанотехнологиите, изкуствен интелект и пълно надмощие biokonstruirovaniem (Това мнение е споделено от много futurology). Мислим, че сега не е момент в прогнозите за ръст на населението криви или запасите на въглища в този момент, защото ние не може да каже нещо за това как sverhtehnologAI засегне тези процеси. От друга страна, съществува голяма несигурност при избора на тази дата. Той често се появява в различни дискусии за бъдещето на технологията, които ще бъдат обсъдени допълнително в главата Tehnologicheskuyu за странност. Очевидно е, че несигурността в датата «2030», не по-малко от пет години. Ако има някои неопределен катастрофа, той може драматично разширява хоризонта на прогнозиране просто чрез стесняване на пространството на възможностите (например, в духа на темата: "сега ние ще заседава в бункер 50 години"). Докато повечето futurologists писане на нови технологии, показват, че sverhtehnologAI настъпило през 2030 г., някои смятат появата на нанотехнологиите зрели и AI към 2040-та година, но малцина са решени да се даде разумен прогноза на по-късна дата. В допълнение към несигурността във връзка с нашите невежество по отношение на темповете на развитие на различните технологии и тяхната конвергенция в технологията singularities дава на несигурността на по-висока цел, свързана с факта, че ние не можем да прогнозираме поведението на интелекта, доколкото се чувствате наши.
Вие също трябва да се има предвид, че времето, предсказуемост постоянно намаляващ поради бързия напредък и повишаване на сложността на системите. Поради това, което прави предположения за предсказуемост на границата, ние вече се прави прогноза за бъдещето - най-малко това ниво на непостоянство ще продължи. Ясно е обаче, че границата на предсказуемост може да се увеличи, поради по-доброто предвиждане и нашите успехи в създаването на устойчиво общество.
Има и парадокс на средносрочните прогнози. Можем да кажем, че ще бъда с човека, утре (приблизително същата като днес), или чрез десетилетия (може би той беше стар и умира), но ние не можем да кажем, че ще бъде 10 години. Също така, около човечеството, можем да кажем, че това е края на XXI век, или отидете в последващ етап с нанотехнологиите, изкуствен интелект и почти физически безсмъртие, или по времето, изгубено, не застана на скоростта на промяната. Въпреки това, прогнозата за 15 години, много по-малко очевидни.
Поради това, докато ние опознаването на заплахата от глобална катастрофа през XXI век, най-голяма загриженост за нашето проучване осигурява място за около две десетилетия между 2012 и 2030 година. Преди този срок, вероятността за глобална катастрофа в целия познат и малки, но отвъд - ние загубих няколко изключения, възможността, че само поетите.
Кратка история на развитието на научните изследвания
Цялостния напредък на научните изследвания на глобални катастрофи, които водят до изчезване на човека, могат да бъдат обобщени както следва:
1. Античен и средновековен за края на света по волята на Бог, или като резултат от войната демони.
2. XIX век. Rannenauchnye за възможността на "топлинна смърт» вселената и такива stsenariev.V първата половина на ХХ век има описания на страшен природни катастрофи в художествена литература, например, Г. Уелс ( "Война на световете), Конан Дойл.
3. Брайт информираността на способността на човечеството да унищожи самата - От 1945 г. във връзка с появата на ядрените оръжия. 1950 - изобретение, кобалт бомба Stsillardom, осъзнаване на начини за пълно унищожаване на човечеството с помощта на радиоактивно заразяване. Преди експлозията на атомната бомба създали тайна, но вече разсекретени доклад за рисковете от изгаряне на земната атмосфера в първото изпитване на ядрени оръжия ла-602, който сега държи стойността на своя методологически трезв и безпристрастен поглед върху проблема. Известни произведения на този период: Г. Кун (Херман хан) "термоядрен война» (1960), Н. Shyut «На брега", секция 1961 г., Fon Horner на дискусията е възможно да обясни причините за Ферми парадокс. Основното обяснение за липсата на сигнали от извънземни цивилизации, предлагани на тях - висока вероятността за изчезване на цивилизацията на технологичния етап.
4. През 1960-1980 на там е втората вълна на интерес към проблема, свързани със заплахата от биологични, nanooruzhiya, враждебна AI, астероид опасности и други специфични рискове. Важна роля в това играе за фантастика, особено творчеството становище Stanislaw лунния модул, неговия роман «непобедим", Futures Проучвания «сума Технологии", "Наука и фантастика futurology» и други работи. Ерик Drechsler през 1986 г., пише «Библията Нанотехнологии» - книгата «Машини творчество", която е била разгледа основните потенциални рискове, свързани с nanorobotami .. В Asilomare писти в първата конференция на безопасността на биотехнологията. Издаден работа Моисей и Н. К. на ядрено Sagana зимата.
5. На следващия етап - появата на този синтез на появата на синтез на Azimov А. (1980), Лесли (1996), Мартин Райс (2003), Познер (2004), която се стреми да дава цялата картина на глобалните рискове. Въпреки това, тонус на Азимов остър контраст с тонуса на следващите работи. Ако Азимов Основните рискове далеч във времето, schvyazany с природни явления, и като цяло преодоляващ Запечатана човешки ум, по-късните произведения доминиран pessimstichesky настроението, свързани с факта, че основните рискове, произтичащи-близо стотина двеста години точно заради човешката дейност, и перспективите за преодоляване на тях е много неясна.
6. През 1990 - расте клон на научните изследвания, свързани с логическия анализ на парадокси на глобалния риск - страшният съд аргумент в различни форми. Основни участници в дебата - Лесли, Bostrom, Gott, пещера ..
7. В същото време, през втората половина на ХХ век възниква synergetics развитие и системи за обработка анализатор към бъдещето, както и системи за анализатор различни бедствия. Трябва да се отбележи работата Prigogine, Hanse и руски автори SP Kurdyumov, GG MalinetskAI, AP Nazaretian и др. 8. От 1993 г. - появата на технологично необичайност (Vindzh) и разбиране на връзката между него и глобални рискове. . Портфолио Н. Bostrom, Е. Yudkovski, Kapitsa АД Панова, М. Chirkovicha.
9. В края на ХХ началото на XXI век описва превъзхождам статия ново съзнание на риска, което стана възможно чрез творчески анализ на възможностите на новите технологии. Това е работа на Р. Fraytasa «Проблемът с Грей слуз» (2001), Р. Kerrigena «Ако дегазирам сигнали SETI» (2006), М. Chirkovicha «Geoinzheneriya, poshedshaya нищо» (2004), книгата «съд мъже» (2007) P . Г. Смит и "случайна ядрена война» (1993) на Брус Блеър.
10. В началото на XXI век roishodit формирането на глобална методология за анализ на риска, на прехода от прехвърляне на риска за мета-способността на човека да открие и правилно оценяване на глобалните рискове. Това би трябвало да очертават работата на Bostrom и Yudkovski. През 2008 г. в Оксфорд, със редактирани Bostrom отива компилация «Рисковете от глобалната катастрофа" и на конференцията. Също така през 2008 г., отива специален брой на списание фючърси, редактирани от Брус Tonna относно опасността от изчезване на човека.
11. В началото на XXI век има социални организации, които насърчават опазването на глобалния риск, например, спасителна лодка Фондацията и CRN (Център за отговорно Нанотехнологии). Филм Technocalipsis.
12. Изследователският въпрос в съвременна Русия. Това - ап Nazaretyana проучване (2001). Цивилизация кризи в контекста на универсалната история. Книга EA Abrahamian «Съдбата на цивилизацията» (2006), отваряне на уеб проекти А. Kononov на neunichtozhimosti цивилизация. AV Karnaukhov провежда изследвания на парникови катастрофа рискове. Една статия отделните автори по различни gipotetoicheskim рискове, включително и Д. М. Drobyshevsky, VF Anisichkina и др Направих преводи на много статии, споменати тук, са на разположение в Интернет, а някои от тях, публикувани в книгата «диалог за бъдещето" и приложението към тази книга. Книгата ISA РАС през 2007 г. остави две от моите статия по глобалните рискове: «за възможните причини за underestimating рисковете от загуба на човешката цивилизация" и "Природни бедствия и Антропогенна принцип".
Глобално изследване на риск е по следните вериги: реализацията на глобален риск и възможността от изчезване в близко бъдеще, след това няколко по-глобално осъзнаване на рисковете - и после се опитва да създаде изчерпателен списък на глобалните рискове, а след това създаване на система за описание, което разглежда всички глобални рискове и за определяне на риска от нови технологии и открития. Системата описанието е по-предсказуем стойност, отколкото просто списък, тъй като тя дава възможност да се запознаете с нови точки на уязвимостта, както таблица позволява да се запознаете с нови елементи. И после-изследователските граници на човешкото мислене по глобалните рискове с цел създаване на методология, която е ефективен начин да намерите и оценка на глобалните рискове.

Заплахи за малък мащаб бедствия: нивата на възможно разграждане
Въпреки, че тази книга ще изследва глобалната катастрофа, която може да доведе до изчезване на хора, не е трудно да забележите, че същата катастрофа в няколко малък мащаб не може да унищожи човечеството, и прекалявай много по-рано. Както offcast в своето развитие, човечеството може да бъде в междинния етап, който е стъпка в по-нататъшното изтребление, и възстановяване. Следователно, от същия клас, катастрофи, може да бъде причина за изчезване на човека, както и фактор, който отваря прозореца на уязвимост за следващата катастрофа. Тук, в регистрационните възможните сценарии odnofaktornyh бедствие, ние ще посочим своя потенциал като окончателното му унищожаване, както и за общо намаляване на устойчивостта на човечеството.
В зависимост от тежестта на катастрофа може да се наблюдава различна степен на понякога връщането назад, които ще се характеризира с различни вероятности последващото изчезване, по-нататъшно намаление на цените и възстановяване способности. Тъй като терминът «postapokalipsis", въпреки че един оксиморон, използвани във връзка с жанр на литературата, описващ свят след ядрена война, ние ще го използвам срещу света, ако сортирате на катастрофа, но някои хора оцеляха. Един може да представи няколко възможни стъпки, намаление на цените:
1. Унищожаването на социалната система, след разпадането на Съветския съюз или разпадането на Римската империя. Случва спиране на развитието на технологиите, намаляване на свързаност, намаляването на населението до няколко процента, но някои значителни технология продължава да се развива. Така например, компютри в пост-съветската свят, някои видове на селското стопанство в ранното средновековие. Технологичното развитие продължава, производство и употреба на опасни оръжия може да продължи, което води до изчезване или отстъпление е дори по-ниски, в резултат на следващата фаза на войната. Възстановяване е много вероятно.
2. Очаква се значително влошаване на икономическата загуба на държавност и дезинтеграция на обществото в борбата между звената. Основната форма на дейност - грабеж. Такъв свят е portrayed във филма «Лудия Макс", "Светът на водата" и много други работи по темата за живота след ядрена война. Населението намалява в пъти, но все пак, милиони хора оцелее. Възпроизвеждането технология е прекратено, но някои медии знания и библиотеки се съхраняват. Подобно на мира биха могли да бъдат обединени в ръцете на един владетел, и започва активизиране на държавата. Нататъшното разграждане случва, а случайно: като резултат от епидемия, замърсяването на околната среда и др
3. Бедствието, което оцелява само някои малки групи от хора, които не са свързани един с друг: полярните морски екипажите на кораби, резиденти на бункери. От една страна, малки групи са дори в по-добра позиция в сравнение с предишния случай, тъй като те не се борят сами с други хора. От друга страна, силите, които доведоха до катастрофа на тази величина е много висока и е вероятно да продължат да работят и да ограничават свободата на движение на хората от пострадалите групи. Тези групи ще трябва да се бори за живота си. Те могат да упражняват финализиране на определени технологии, ако това е необходимо за тяхното спасение, но само въз основа на преживелия обекти. Периодът на възстановяване при най-добрите обстоятелства ще отнеме стотици години и ще бъдат свързани с промяната на поколенията, да рискуват загуба на знания и умения. Основата за оцеляването на тези групи ще бъде в състояние да възпроизвежда по полов път.
4. Само след няколко оцелели хора на Земята, но те не успяхме да спасим всички знания или да започнете нов човечеството. Дори в групата, че са мъже и жени могат да бъдат в ситуация, когато фактори възпрепятстват разширено възпроизводство, способността да натежат над нея. В този случай, най-вероятно хората са обречени, освен ако някои чудото се случва.
Можете също така да идентифицират «бункер» ниво - ниво, когато оцеляват само тези, които са извън нормалната среда. А те са там, или нарочно или случайно, ако някои групи от хора, случайно оцелял в някои затворени пространства. Съзнават преход към бункера ниво е възможно дори и без загуба на качество - това е, човечеството ще запазят възможността да продължи да се развива бързо технология.
Има междинен сценарий postapokalipticheskogo света, но аз вярвам, че тези четири опции са най-типичните. Във всяко ниво има по-катастрофален, по-вероятно да паднат дори по-ниски и по-малко вероятно да станат. От друга страна, възможно е остров на стабилност в нивото на отделните общности потомствен когато опасни технологии, които вече са били унищожени, опасните последици от употребата им са изчезнали и новите технологии все още не са на място и не може да бъде създаден.
Това е погрешно да мислят, че отстъпление е само превод на огнестрелно оръжие историческото време за век или хилядолетие в миналото, например, нивото на обществото XIX и XV век. Разграждането на технологии няма да бъдат линейни и в същото време. Така например, такова нещо като Калашников пушка, тя ще бъде трудно да се забравя. В Афганистан, например, местни занаятчии са научили за мелене на необработени изложени копия на Калашников. Но в едно общество, където има автоматично, турнир и армията не може да треньор. Какво е било стабилно равновесие при преминаване от миналото към бъдещето, не може да се равновесие в деградация. С други думи, ако технологията за унищожаване, ще дойде по-бавно, отколкото технология за създаване, обществото е обречено на непрекъснатото плъзгане надолу.
Въпреки това, ние можем да класифицираме степента на отстъпници не по броя на жертвите, и степента на загуба на знания и технологии. В този смисъл, можете да използвате историческата аналогия, реализиране, обаче, забравят, че технологията няма да бъде линейна. Поддържането на социалната стабилност в по-слабото ниво на развитие, изисква по-малко хора, и това ниво на все повече резистентни на прогрес, както и обръщане. Такива групи могат да настъпят само след продължителен период на стабилизация след бедствие.
Що се отнася до «История», следните основни варианти са възможни, регресия в миналото (в част сходна с предходната класификация):
1. Нивото на промишленото производство - жп линии, въглища, огнестрелните оръжия и др SELF на ниво търсене, може би десетки милиони хора. В този случай може да очаквате да спаси всички основни знания и умения на индустриалното общество, дори и само чрез книгите.
2. Нивото достатъчни, за да се запази земеделието. Изисква вероятно от хиляди до милиони хора.
3. Нивото на малка група. Липсата на комплексно разделение на труда, въпреки че някои селското стопанство е възможно. Броят на хората: от десет до хиляди.
4. Нивото на стада или "Maugli". Пълната загуба на човешки културни умения, реч, като същевременно се запази цялата ген басейн. Броят на членовете на «стада", вероятно от един до сто души.
Odnofaktornye сценария на глобални катастрофа
В следващите няколко глави, ние очакваме по класическа гледна точка на глобалната (цивилизация) катастрофа, която е превод списъка по никакъв начин не е свързано фактори, всеки от които може да доведе до моментална смърт на цялото човечество. То е ясно, че това описание не е окончателно, той не отговори на мулти-и не-мигновени сценария на глобални катастрофа. Класически пример за разглеждане odnofaktornyh сценарий вече е посочено в член Bostrom «заплаха за съществуването".
Тук сме да потърсят и някои от източниците на глобалните рискове, които, от гледна точка на автора, е не, но от гледна точка на опасността, на която се разпределя, и да им оценка. С други думи, ние ще обсъдим всички фактори, които обикновено са посочени като глобален риск, дори и ако тогава ние oprovergnem тази гледна точка и отхвърлят тези фактори.
Принципи на класификация на глобалните рискове
Метод на глобална класификация на риска е изключително важен, защото той позволява, тъй като масичка, за да намерите «празните места" и е предсказал съществуването на нови елементи. В допълнение, той предвижда възможност otrefleksirovat своя собствена методика и да предложи принципи, които трябва да се следват откриването на нови рискове. Тук ще очертаем принципите, използвани от себе си и в други проучвания.
Най-очевидни подход към възможните източници на глобалния риск - historiographical подход. Той е прегледа цялата налична научна литература по този въпрос, преди всичко, има извършени прегледи на глобалните рискове. Това обаче не предостави пълен списък, тъй като някои издания бяха избрани членове на специалните дисциплини, цитирани малко или не е често ключова дума. Друг вариант - Анализ на фантастични произведения за предоставяне хипотетични сценарии на глобалната катастрофа и след това - критичен анализ на тези сценарии.
Принципът на увеличаване на малките бедствия, е да се разпределят малки събития и анализ дали подобен случай се наблюдава при много по-голям мащаб. Например, помислете дали такава голяма бомба, че тя унищожи целия свят? Тя граничи начин за аналогия, когато разглеждат някакъв катаклизъм, например, попадащи самолет, ние търсим на това събитие като цяло структурните закономерности и след това прехвърлянето им към хипотетичен глобалната катастрофа Paleontological принцип е да се анализират причините настъпили в историята на земната маса extinctions. Накрая, на принципа на «адвокат дявола» е съзнателно конструиране на сценарии на изчезване, тъй като, ако нашата цел бе да унищожат Земята.
Организирайте открият възможни сценарии изчезване на следните критерии: най техния източник (човешки / физически), най-вероятно те желаят това как технологията, по колко далеч във времето, ние се отстраняват опасните развития и начина на въздействие върху хората.
Глобални рискове са разделени в две категории: рисковете, свързани с технологиите и природните, тоест, природни бедствия и рискове. В същото време, природните бедствия, свързани с всякакъв вид живи същества (това включва и изчерпването на ресурсите, пренаселване, загуба на плодородие, натрупване на генетични мутации, изтласкване друг вид, морална деградация, екологична криза). В технологичния риск не е синоним на изкуствени опасности, както и пренаселеност и изчерпването на ресурсите е изкуствено. Главната особеност на технологични рискове - това е техният уникално име за технологична цивилизация.
Технологични рискове се различават в степента им на готовност «компоненти". Някои от тях са технически възможно в този момент, тогава, така може другите, предвидени в дългосрочен план за технологично развитие и вероятно някои фундаментални открития.
Съобразно с това съществуват три категории на технологичните рискове:
а) рисковете, на които технологията е напълно развита и изисква малко разработка. Това включва, първо и преди всичко, ядрени оръжия и да кажа, замърсяването.
б) рисковете, на които технологията е разработена успешно и не виждам пречки за теоретичните си за развитие в обозримо бъдеще (биотехнология).
в) рискът, че търсенето на нейната поява на някои фундаментални открития (antigravity, освобождаването на енергия от вакуума и т.н.). Ние не трябва да подценяват рисковете - A добре обмислен част от глобалния риск от ХХ век се наблюдава от нови и неочаквани открития.
Голяма част от риска е между точки Б и С, както и по отношение на някои изследователи, ние не говорим около непостижимо или безкрайно сложните неща, но от гледна точка на другите - това е технологично възможно (nanoroboty и изкуствен интелект). Принципа на предпазливостта compels нас, за да изберете опцията, където те май.
Предлаганите продукти са насочени към прехвърляне на риска глобален в следващите глави са подредени по степен на готовност, необходими за тяхната технология. Тогава идва описание на природни опасности и рискове obschevidovyh не са свързани с новите технологии.


Глава 2. Ядрено оръжие

Има огромна сума на изследванията на атомното оръжие и последиците от тяхната употреба. Тук ние можем да предложим на читателя само една кратка и непълна преглед на основните констатации разглеждат изключително само от гледна точка на това дали един или друг начин, употреба на ядрени оръжия доведе до изчезване на човека. Отбелязвам, че голяма част от информацията за ядрени оръжия все още е тайна, и затова предложи изводи не може да бъде напълно надежден.
Класически пример за заплахи за човешката цивилизация и самото съществуване на човешките същества е заплахата от ядрена война. Обикновено около ядрената война казват, че ще доведе до «унищожат целия живот на Земята". Но очевидно, това твърдение е малко преувеличено. Ядрени оръжия три потенциал глобален унищожаване: директна поражението на цялата територия на Земята, радиоактивно замърсяване на Земята и ефекта на "ядрената зима". (В допълнение, ядрени оръжия биха могли да задействат някои други опасни процеси, които ние ще обсъдим по-късно). След това, ние показваме, че въпреки че всеки един от тези ефекти могат, при изключителни обстоятелства, довели до изчезване на човечеството, обичайната ядрена война не би могло да доведе до пълното изчезване (въпреки, че жертвата ще бъде огромен).
Класическа ядрена война не означава нападение срещу всички места, на човешките жилището, но само на врага и неговите съюзници, и следователно не може да доведе до изчезване на хора чрез директна атака на ядрените оръжия. Все пак, може би е добре да обмисли една хипотетична ситуация, когато ядрен удар, причинени на всички места, на човешкото обитаване. Оценете колко бойни глави необходими, за да унищожи всички хора, ако ядрени удари ще бъдат еднакво и едновременно носят по цялата повърхност на Земята. За унищожаването на всички хора по земята ще изисква най-малко (а може би и значително повече) 100 000 megatons на оръжия клас. (Ако сте приели, че една бойна глава на ракета атакуващ площ от 1000 квадратни метра. Километра, което вероятно се преувеличава. Гарантирано унищожение ще изисква много по-голям брой на таксите, защото дори и в близост до епицентър на експлозията в Хирошима бяха vyzhivshee - 500 метра от мястото на експлозията.) В същото време , Големи площи земя ненаселена. Логично е да предположим, че 100 000 бойни глави поставени хора на прага на оцеляването, въпреки че не унищожи всички хора е гарантирано, тъй като ще лодки, самолети, случайно оцелели и подземни укрития. Гарантирано премахване на всички хора, може да изисква милиони бойни глави. Следва да се отбележи, че в разгара на Студената война, големи правомощия притежават около 100 бойни глави номер 000, и натрупани запаси от плутоний (2000 т, но не всички, той «оръжия", който е без изотопния състав на плутоний-239, но се съхраняват в САЩ тест показа, че няма оръжия клас плутоний може да се използва за ядрена експлозия, но с по-нисък енергиен изход) позволяват няколко стотици хиляди бойни глави. Въпреки това, нито сценарий на ядрената война не е еднакво въздействие върху цялата площ на планетата, от друга страна, то е теоретично възможно да се създаде такова количество бомби и системи за доставка на стачка в целия район. Подобно заключение - че ядрената война е само по себе си не би могло да доведе до изчезване на човека, ела и други изследователи. Нещо повече, няма публикация, която би посочва рисковете от пълно изчезване на човека, в резултат на прякото въздействие на ядрените експлозии нормална мощност (а не следват последствията на радиоактивно замърсяване и ядрената зима.)
2,1 «ядрена зима»
В ядрената зима, има две неизвестни фактори: Първо, как тя ще бъде дълга и студена, и второ, степента, в която ядрената зима означава изчезване на човечеството. За първи фактор, съществуват различни оценки: от изключително тежки (Moiseev, Sagan) до сравнително мек понятията «ядрени есента". Сегашната критика на концепцията за ядрена зима фокусирани около следните въпроси:
• Колко черни, и там ще бъдат пуснати в тропосферата в случай на мащабна ядрена война?
• Какъв ефект ще има върху температурата на Земята?
• Колко време ще е в горната част на атмосферата?
• Как ще се отрази спад на температурата върху оцеляването на хората?
Някои изследвания се съсредоточи върху анализа на всеки един от тези фактори, като по даден резултатите от предишната. Например, наскоро американски проучване на въздействието на ядрената зима климат взема като входно количество сажди в тропосферата, което е равно на 150 милиона тона. В първоначалния анализ Н. Moiseyev този брой е 4 милиарда тона, съответно спад в температурата бе 20, а не 50 градуса, като Моисея. Статията IM Abduragimova концепция относно производството по несъстоятелност на "ядрен вечери" и "ядрена зима", както е в резултат на пожарите, след ядрената унищожение "изглежда грубо критики точно количеството на сажди, което води до пълен мащаб ядрена война. Когато мълниеносно изгаряния средно само 20% от горими маса, тя е само половината от масата на чистия въглерод, както и по-голямата част от въглерода изгаря напълно, което е - не образователен частици от въглища. Въпреки това, само част от сажди е толкова глоби, които биха могли да закачам в тропосферата и помрача земята. За да изпълнява тази sazhu в тропосферата, когато може да «Дръж» поради липса на конвекция, изисква появата на определен случай - A торнадо на пожар (от топката ядрени гъбки, завареното високо в тропосферата, температурата е толкова голяма, че тя беше изцяло частици сажди изгори ). Огнена tornadoes не и на всички ядрени експлозии, той не трябва да се появят в съвременните градове, построени по такъв начин, че да се избегне този ефект, например в градове на бившия Съветски съюз. И, освен това, той драматично се подобрява процеса на изгаряне на кожа в топене пещ, която прави черен въглен, тя е много по-малко.
Тези характеристики отличават sazhu в ядрената зима на обикновените вулканичен прах, който буквално уволнен в стратосферата от вулканичен vents. При това, вулканичен прах се състои от силициев оксид, тежки и е много по-бързо падането на тропосферата.
Въпреки това, че е възможно да се представим една хипотетична ситуация, когато в тропосферата стотици милиони тонове въглероден глоба. Един може да представи алтернативни сценарии на ядрената война удари я там, например, астероид удари в находища на въглища, или вулканична експлозия на такива депозити, или в резултат на човешката дейност, или дори nanorobotov неконтролирано възпроизвеждане, препятства на слънчева светлина, което предполага Freitas. Първоначалните разчети на Моисея, направени за района изгори градове и гори към 1 милиона кв. м. км. Общата площ на горите на Земята е приблизително 40 милиона кв. м. км, и те съдържат около 240 милиарда тона от дърво. Това означава теоретична възможност за много големи емисии от сажди в атмосферата, дори и с много по-малък дял от образованието се пуши, но само - в случай на умишлено унищожаване на цивилизацията, както е малко вероятно в обичайния ход на ядрена война ще бъде бомба гората.
Време на сажди в тропосферата се оценява по различни начини, но обикновено прогноза - от няколко месеца до 10 години. Там също са алтернатива на теорията на последиците от ядрена война на климата, например, теорията, че до парниковия ефект на въглеродния изгарят и образованието на азотни оксиди и тяхното въздействие върху озоновия слой на земната температура рязко се увеличава.
Тя трябва също така да се каже, че внезапно и продължителен студ, не означава непременно изчезване на човека. Така например, САЩ и Швейцария имат най-малко петгодишен стратегически резерв от храна, макар и по-обща информация за стратегическите резерви принадлежат на тайните служби, плюс горивото във вид на горите, печки и умения за оцеляване, със зимни температури. Вярвам, че да доведе до смъртта на всички хора, ядрена зима трябва да продължи най-малко сто години температурите на Антарктика, и това може да не е достатъчно, като се има предвид способността на човека да се адаптира. (Ако смятате, че ядрената зима ще бъде единственият фактор, който неблагоприятни грешно.)
Най-сложно изследване на климатичните въздействия на пълен мащаб ядрена война се появи в статия, Алън Roboka със спонсори «ядрена зима в съвременния климатичните модели на съществуващи ядрени арсенали: ефектите все още са опустошителни". Тази статия съдържа преглед на предишните изследвания и разумни възможности за очакваното освобождаване на сажди. Изчислението е направено въз основа на съвременни метеорологични модели проверява за други приложения. Резултатът е, че при пълно мащабна война с модерно (т.е. намалява след края на Студената война) ядрени арсенали спад в средната температура се намира на земята ще бъде около 7 ° С в продължение на няколко години и последиците от ядрена зима ще бъде усетен за около 10 години. Времето на пречистване (E = 2,71 пъти) горния тропосферата от сажди от 4,6 години. При това, над континента за понижаване на температурата до 30 ° C, и по-специално над Украйна няма да бъдат положителни температури в продължение на период от три години. Това ще направи невъзможно да се поддържа класически (не в парници) селско стопанство в почти цялата страна в продължение на няколко години. От друга страна, от тропическите острови (Куба, Мадагаскар, Шри Ланка) понижаване на температурата на само няколко 5/7 ° C. Ясно е, че значителен брой хора биха могли да оцелеят такова охлаждане, но ще започнат борбата за останалите ресурси, което ще увеличи риска на по-нататъшни инциденти. Серия от големите вулканични изригвания (вулканична пепел листата тропосферата, с характерни време на 1 година) да даде на един и същ ефект. Като се има предвид несигурността в модели, както и възможността на ядрена война провлечен и други причини, потъмняване на атмосферата, предлага следните опции теоретична ядрена зима:
1) намалението на температурата с една степен за една година, не оказва съществено влияние върху човешкото население. Тъй като след Pinatubo вулканични изригвания през 1991 година.
2) "Ядрена есента» - понижаването на температурата в 2/4 ° С в продължение на няколко години, има култура, повреди на урагани.
3) "година без лято» - интензивен, но сравнително кратко студено през годината, загубата на големи части от култури, смърт от глад и студ в някои страни. Това вече е станало след големите вулканични изригвания в VI в., в 1783, в 1815
4) «десет години ядрена зима» - спад в температурите в целия свят около 10 години при 30-40 ° C. Този сценарий е модела на ядрената зима. Документи сняг през по-голямата част от земята, освен в някои Екваториална крайбрежните райони. Масата смъртни случаи причинени от глад, студ, а също и заради снега ще mnogometrovye се натрупват и образуват колона унищожавания сгради и припокриването на пътя. Загубата на по-голямата част от населението, но милиони хора, да оцелеят и запазят ключовите технологии. Рискове: продължаване на войната за топлите места, опити за топлите на Земята от новите ядрени експлозии и изкуствени вулканични изригвания, за промяна в неудържим ядрени топлината на лятото. Но дори и ако този сценарий се оказва, че само глобална, запас на добитъка (което zamerznet на техните ферми и ще бъдат съхранявани в такива физически "хладилни уреди") за последните години, води всички човечеството и че Финландия има стратегически резерв от храна (зърно) в 10 години.
5) Нова ледена епоха. Дали хипотетичен сценарий за продължаване на предишната предишния сценарий, когато отразява способността на Земята е увеличил от снега, и започват да растат нови шапки от прът и надолу към екватор. Въпреки това, някои от земите от екватора, че са подходящи за живот и селско стопанство. В резултат на това, цивилизацията ще трябва радикално да се промени. То беше страхотна преселване на народите, без войни. Много видове живи същества vymret, но по-голямата част от разнообразието на биосферата избягат, въпреки че хората ще я унищожи още по-relentlessly в търсене на най-малко някаква храна. Хората вече са имали няколко ледена периоди, които биха могли да започне много рязко в резултат от изригването sverhvulkanov и попадащи asteroids (тоба изригване, Elatinskaya comets катастрофа).
6) необратими глобални охлаждане. То може да бъде следващият етап на ледниковия период, когато най-лошото развитие. И целия свят за geologically дълго време, за да инсталирате температура, както и в Антарктика, океаните zamerznut, земното покритие гъст слой от лед. Само във високите технологии, които могат да изградят цивилизация огромни сгради под леда може да оцелее такова бедствие, но такава цивилизация вероятно биха могли да намерят начин да превъзмогне този процес. Животът може да оцелее само около геотермални източници на морското дъно. Последният път, когато Земята е влязъл в държавната малко 600 милиона години назад, тоест, докато животните на сушата, и не е успял да се измъкне от нея само чрез натрупване на СО в атмосферата. В същото време, през последните 100 000 години бяха четири обикновени glaciation, които не водят до необратими нито лед, нито за човешкото изтребление, и следователно обидно необратими заледяване е малко вероятно събитие. И накрая, ако слънцето престанала да свети на всички, най-лошият изход ще превърне цялата атмосфера в течен азот, това изглежда абсолютно невероятно.
Докато опции 5 и 6 принадлежат към най-вероятно, те носят най-висок риск. Тези опции могат да бъдат възможно с извънредно високи емисии на сажди и с най-лошото развитие, много от които ние в момента не можем да прогнозираме.
Можем да предположим, че ако някои сила, определени за извършване на ядрената зима нарочно, може да организира това, Детонирана водородна бомба в каменовъглени мини или в тайгата. Това може да се предвиди immeasurably-високи емисии от сажди, както атака срещу града. Ако водородна бомба с таймер на различни дати, е възможно да се запази за неопределено време ядрена зима. Теоретично това може да достигне равновесно състояние «белите остриета топката", отразява слънчевата светлина, с пълна vymerzaniem океани, което ще се нуждае от външна подкрепа състояние.
Откриване изригване sverhvulkana с ядрени оръжия, също ще доведе до аналогово «ядрена зима» - A вулканична зима. Опитите да се подобри положението на хората с помощта на изкуствена ядрена зима или ядрени изкуствени лятото, може да изостри проблема с преминаването към климатичните raskachki.
Доведени до знанието, че вероятността и точната продължителност на ядрена зима и неговото въздействие върху не-изчислим няколко причини. По-специално, защото ние сме по дефиниция не може да постави експеримент, както и да определи точно как, например, Моисей и Sagan са проявили интерес да преувеличават опасността от ядрена зима за насърчаване на ядрено разоръжаване. Това е, че ако искат да се създаде самостоятелно изпълнява пророчеството nesbyvayuscheesya.
Отделно, съществуват теории «ядрени лятото», което подсказва, че след ядрена зима, и може би да го замени, е значително повишаване на температурата на Земята, които могат да бъдат опасни за изникнат от съществуващия ефект на глобалното затопляне чрез поставяне в zakriticheskuyu сцената с повишаване на температурата на десетки градуса (виж по-долу). Документи сажди върху ледниците, образование азотни оксиди в експлозии, че разрушаващи озоновия слой и водят до изчезване на растителност, усвояването на въглероден диоксид, променящата albedo дължи на опустиняване и въглероден двуокис в пожари са факторите, които биха могли да доведат до ядрен лятото. В допълнение, бариерата ще престанат да работят, а не като двойка vodyanomu падне в стратосферата, и тогава, когато той се превръща отново, десетки милиарди тонове вода са заключени в стратосферата, и те ще могат да се създаде парников ефект допълнително 8 ; C стойност, както е заявена от Роналд в неговата статия «Ядрена зима и други сценарии". В допълнение, той предполага, че ядрената зима може да се използва като оръжие, в който печелившата страна има натрупани най-голямата хранителна и като най-топъл подслон. Ядрена лятото е много по-опасна ядрена зима, тъй като повече хора мигрират от охлаждане отопление (тоест, ако стайна температура от 20 ; S, лицето, което се движи доста измръзване по улиците в минус 50 ; С, което е на 70 ; С по-долу, но ще бъдат в състояние да издържат повишаването на температурата на не повече от 30 ; С, което е не по-висока от 50 ° С на улицата). В допълнение, отоплителната система може да работи автономно (преживелият горите като източник на дърва за отопление печка +) и хладилници изискват стабилни централни инфраструктура (производство на хладилници + електроенергия). Съхранение на храните с рязкото затопляне ще бъде много трудно - те sgniyut ще бъдат изядени от вредители или изгори. Така ядрени лятото представлява далеч по-голям риск от изчезване, отколкото ядрената зима.
2,2 Пълна радиоактивно замърсяване
Следващият сценарий - световен радиоактивно заразяване. Има два вида на инфекцията - краткосрочна инфекция се появява в първите часове и дни след експлозия и причинил кратки характеристики, и дълги, свързани с продължително живи елементи, и продължаващото с години. Краткосрочни заразяване на конвенционалните ядрена война би довело до значителни жертви, но би скоро местно явление, независимо от рози ветрове в засегнатите страни. Можете също така лесно да седят в домовете за бомба, пещери, мини - А защо ние не го видиш като възможна заплаха за целия човешки изчезване. Най-голямата заплаха е глобалното радиоактивно замърсяване, но в случай на ядрена война обикновените тя не може да доведе до изчезване на човека. (Например, тъй като хиляди въздушни тестването на атомна бомба в 50-60-те години не са създали някакво значително увеличение в глобалните фоновата радиация.), Но може би nekonventsionalnoe използване на ядрени оръжия, които не водят до глобални радиоактивно заразяване. В особеност на глобалната инфекцията е, че той е в състояние да равномерно разпределено в рамките на земната повърхност и проникнат навсякъде чрез естествено конвекция въздуха, и че тя е толкова устойчив, че не може да седи в сегашната готовност сам приютите. Най-добре познат сценарий от този вид - използването на кобалт бомби, бомби с увеличено освобождаване на радиоактивни вещества. Кобалт бомби представляват водородна бомба заобиколена от черупки на кобалт-59, като става един радиоактивен изотоп кобалт-60. Проект на бомби, способни да зарази целия континент, поканени Stsilard Лио през 1950 г., обаче, 1 гр кобалт радиация е около 50 curies. Ако спрей 1 грам за 1 площада. км, като има предвид, че не беше достатъчно, за да се осигури смъртта на всички хора, но ще изискват от евакуация от територията на съвременните стандарти за безопасност. Кобалт-60 е половин живот 5,26 години, така че замърсяването, създадени от тях ще бъде дълго и това ще бъде трудно да се седи в бункера. Въпреки това, дори и такова замърсяване ще изисква общо само 500 тона кобалт по цялата Земя. Непряко, тази цифра може да се изчислява на 100 бомби цар тип бомби на 50 megatons отживял на новата земя през 1961 г., ако това е бомба уран черупка, тя ще даде допълнителни 50 megatons, а добивът е била 100 megatons, но черупката бяха заменени от доведе до намаляване на силата на експлозията. Маса реагирали уран, който да осигури енергия на 50 megatons, равни на около 5 тона може да се предположи, че ако бомбата имаше кобалт черупка, тя ще даде около 5 тона на радиоактивен кобалт. Други оценки, проведени в САЩ, след изявление Лио Stsillarda възможността за изчезване на живота на Земята през кобалт бомба, се оказа, че той е наистина възможно, но устройството трябва да бъде 2,5 пъти по-тежка от linkora «Мисури". Работен обем «Мисури» - 45 000 Т. Така сме се два часа оценки на теглото на устройството - 2 700 тона и 110 000 тона. Разликата между тях не е основно от гледна точка на въпроса, дали това устройство и колко ще стойност. Тъй като теглото на конвенционалната енергия реактори е няколко хиляди тона, е съвсем възможно да се направи устройство, с тегло 000 тона и 100 по 20 реактори. Ако един реактор е почти един милиард долара на съвременни цени, подобно устройство ще струват около 20 милиарда. Тази сума е по-малко от военния бюджет на САЩ е 20 пъти. Друга забележителност: теглото на реактор ITER - 30 000 тона, цената от 12 милиарда долара. Така че, създаването на атомна бомба sudnogo на деня е технически осъществимо за големи, ядрената програма и ще изисква няколко години на работа.
Не по-малко опасни известните изотоп полоний-210. Тя е много по-мощен източник на радиация, отколкото кобалт, както и долната половина (приблизително 15 пъти). Той има способността да се натрупват в тялото, поразително от вътре, като по този начин повишаване на нейната ефективност дори при около 10 пъти. Смъртната му доза - около 0,2 микрограма. Това означава, че цялата смъртоносна инфекция на земната повърхност би изисквало само 100 тона на опасни вещества (или стотици килограма в най-лошия случай - дава способността си да се натрупват в организма, както и повторното отравяне поради високите концентрации в околната среда).
       По-точни изчисления, които да отчитат нанасяне размер на радиоактивни вещества от атмосферата, излужване в океана, разтуряне, задължителни и афинитет с елементи на човешкото тяло, както и на хората способността да мутират и се приспособяват към радиация да се определи минимален брой изотоп може да доведе до изчезване Всички хора на Земята, или дълго време на земята, негодни за земеделие и невъзможността във връзка с връщането на пред-индустриалните етап на развитие.
За да се гарантира, че радиоактивен материал, се е разпространил много достатъчно, за да взриви бомба на височина 10-20 км, и че бомбата е била достатъчно мощна, тя трябва да бъде силна. В крайна сметка, тази машина на смъртта може да бъде стационарен устройство, тежащи хиляди тонове, със сила на доменните, стотици megatons, които са тона опасни изотопи, отделян от високите сила доменните във въздуха.
В допълнение, за краткосрочно замърсяване на изотоп може да седи в бункера. На теория, създаването на автономни бункерите за период от самостоятелно разчита на десетилетия. Гарантирано изчезване може да се случи, в случай на объркване, краткосрочни и дългосрочни живели изотопи. Кратко унищожи голяма част от биосферата, и да направи дългосрочни земи неподходящи за живот за тези, които peresidit замърсяване на бункера. Ако някои страни с ядрена технология, ще бъдат изложени на риск от външни завоевание, той може да реши да създаде такава бомба. Особено, ако защитата на въздуха система от врага няма да имат възможност да кандидатстват за противоракетна отбрана. Всички по-така, може би, защото такава бомба би не изискват много уран или плутоний - само за няколко килограма, за да бушон. (Те ще трябва доста деутерия). Все пак, ако след създаването на такава бомба в страната да се гарантира, никой няма да дойде, неговото създаване може да бъде евтино, отколкото на съдържанието на въоръжените сили. От това следва, че системата за противоракетна отбрана не се подобри сигурността в света, както и да насърчи слабите страни, за да създадете кобалт стационарни бомба като последно средство за защита. Или, обратното се съсредоточи върху развитието на биологичното и други алтернативни видове оръжия.
Имайте предвид, че пълна експлозия на съвременни ядрени реактори, не застрашават оцеляването на човечеството, както може да се види от последиците от експлозията в Чернобилската атомна електроцентрала. От друга страна, подсказва за появата на някои хипотетични бъдещи растения с много голяма мощност на радиация в случай на общото унищожение. Например, има предложения, че тайните (черупки камера) термоядрен реактор ще се акумулират значително по-висок (100 пъти) количества радиоактивни вещества с високо съдържание на опасни изотопи като кобалт-60, който, ако е повреден реактор, изпускани в атмосферата. Изход верижна реакция извън контрол в някои инсталацията може също да увеличи значително замърсяване.
Други 2,3 опасностите на атомно оръжие
Sverhbomba
След тест «Цар бомба» през 1961 г. на нова земя, с доходност от 50 megatons, да се развива по-мощни бомби с доходност от 200 или дори 1000 megatons да бъдат транспортирани с кораби, които да американски бряга, и те да предизвика цунами. Това означава, че вероятно има техническа възможност за неограничена построи експлозивна сила на бомбата.
Също така е важно да се отбележи, че Цар бомба е била тествана през 12 години след първата атомна бомба експлозията. Този факт може да се каже, че и други правомощия, може да са необходими за кратко време да отида до огромни бомби. Ако се сравни масово съотношение бомби (6 megatons експлозия на тон тегло) с маса на ядрени реактори порядъка на няколко хиляди тона, става ясно, че горната граница sverhbomby, който сега може да се направи, е около сто gigatons. Това не е достатъчно за унищожаването на всички хора по силата на експлозията, след падането на asteroids, разпределени енергийни хиляди пъти повече. Експлозия в каменовъглени мерки sverhbomby кауза, може би отдавна ядрена зима, съчетано със силно радиоактивно заразяване. (Малко като астероид може да са довели до унищожаване на нефт в Америка преди 65 милиона години, с тежки климатични въздействия). Няколко десетки sverhbomb разгърнати в различни места на Земята, могат да покрият своите porazhayuschim взриви цялата територия на света ..
Преди първото изпитване ядрена бомба Троица Комптън е направен доклад (ла-602 Ignaition на атмосферата с ядрена бомба.), Който твърди, че бомбардировките не може да доведе до самостоятелно поддържане на ядрения синтез реакция на ядрата на азот в атмосферата, поради загуба на енергия от радиация. Той също така заяви, че оценка на риска от изгаряне на океаните изисква по-нататъшно проучване. Тези проучвания, които вероятно са били изпълнени, остават класифицирани, в частност, може да означава, че те показват на минималните условия, необходими за изгаряне на деутерия в земните океани. В допълнение, възможно реакцията на водорода за улавяне на въглерод и кислород, който също е подкрепен от взривно горене (виж Shklovsky. «Звезди, с тяхното раждане, живот и смърт"). Тези вещества са в големи количества в находища на метан хидрат на морското дъно. Още въпроси относно възможността за започване на термоядрен взрив в недрата на Земята и други планети, аз виждам в неговото есе «относно възможността за започване на изкуствена експлозия, гиганта и другите планети в Слънчевата система".
Той също така е важно да се отбележи, че при липсата на точни данни за невъзможността на този процес, ние трябва да призная, че при определени условия - правилния избор местоположение, много мощни бомби - започване на самостоятелно поддържане на ядрения синтез реакция в околната среда на земята е възможно. Такава възможност ще бъде открита за прост начин да се създаде реални оръжия sudnogo на деня, което щеше да гарантира unichtozhalo за живота на Земята.
Там също бяха предложени, че експлозия на мощна атомна бомба в тектонски виновен може да доведе до катастрофални сеизмични събития, но мисля, че това е малко вероятно, тъй като тектонски грешки и вече са източници на земетресения gigatons на сила.
Натрупването на antimatter
Становище Stanislaw лунния веднъж каза, че той беше повече се страхуваше от antimatter, както в интернет, обаче, изглежда, че има antimatter не даде повече разрушителна сила, отколкото един нормален водородна бомба. Максимална ефективност на ядрената такса, равна на 6 megatons на тон тегло, което съответства на приблизително 0,15 кг antimatter (енергия се равнява на 1 кг на Айнщайн формулата 9 * 10 ** 16 J и един мегатон на TNT еквивалент, равен на 4 * 10 ** 15 J , С много antimatter трябва да реагира на двойно по изтребят масите с нея въпроса обичайното). Но за да пазят antimatter също се нуждаят от специални капани, които трябва да тежи много. Освен това, че е много трудно да се предпази от случайно избухване на antimatter, като същевременно осигуряване на атомна бомба лесно. И накрая, трябва енергията на маса от antimatter. Поради тази причина, че е безсмислено да се правят бомби огромната мощ на antimatter - и мощността на ядрено оръжие достатъчно за всеки възможен опустошителното действие. Така че аз вярвам, че очаква натрупване на antimatter за военни цели. Само ако те направиха някои нови основните физични открития, antimatter, може би, ще бъде опасно. Също така опасни за употреба antimatter по-дълбоко място, където е теоретично възможно да се събират голяма част от неговата маса в определен «метеорит" и връщане към Земята.
Евтини бомба
Съществува и опасност по принцип се намалят разходите на ядрени оръжия, ако успеем да изпълнявате самостоятелно, без синтез реакция за започване на ядрена такса чрез химически имплозия (цилиндрични), podzhiganiya лазер, магнитна компресия, електро-и малки servings на antimatter използвани в определени комбинации (виж, например, статия Л. P Feoktistov «термоядрен взрив". Което, в същност, е проект за създаване на водородна бомба неограничена власт, с помощта на лазер podzhiganiya - и все още е в публичния домейн.)
       Друг фактор за намаляване на разходите - използването на нанотехнологиите развитие, т.е., точността и потенциално ниски производствени разходи чрез mikrorobotov. Третият фактор - откриването на нови начини за разпределяне уран от морска вода и нейното обогатяване.
Съществува и риск, че сме много реална представа за прости и достъпни ядрени оръжия, и по този начин номера му в света. Например, възможно е плутоний реактори могат да бъдат адаптирани към бомба пистолет схема с мощност от около 2 kilotons подходящи за актове на ядрен тероризъм. Всички открития в областта на студен ядрен синтез, с контролиран ядрен синтез в tokamak, доставката на хелий-3 от космоса, завъртане на елементи опростяване и намаляване на цената на производство на ядрени оръжия.
Атаката на съоръжение за радиация
Друг начин да се организира в края на света с ядрени оръжия е атака крилати ракети (балистични липсва достатъчна точност) на всички ядрени реактори в света и най-вече - съхраняване на отработено ядрено гориво. Макар че вероятно няма да започне верижна реакция в тях (но тази възможност не може да бъде изключена директно попадение с атомни бомби в реактора или съхраняват отпадъци) във въздуха на разглеждане на големи количества радиация. «Според МААЕ от 2006 г. от реактора мощност (и по света над 400) разтоварени около 260 тона на отработено ядрено гориво, съдържащи повече от 150 милиарда Кюри" радиоактивност ". Също така е известно, че до 2006 г. в света имаше натрупани малко 260 тона на отработено ядрено гориво, но до 2020 г. техният брой е не по-малко от 600 тона (ibid.). Това е, в XXI век, размерът на радиоактивни отпадъци, е вероятно да нарасне нелинейни, увеличавайки както от натрупване, както и въвеждането на нови реактори.
При еднаква дисперсия на 150 милиарда curies стигна 300 curies / sq.km земната повърхност. Това е далеч извън рамките на нормите на преселване и забраната за селското стопанство Чернобил практика. При болните преизчислен (емпирична формула - 1 Кюри "на площада. Предлага 10 ч. Х-лъчи на час), това ще създаде активност millirentgena 3 евро на час. Това не е достатъчно за моментална смърт, тъй като е само около 2 X-Ray на месец, докато максималната допустима безопасна доза Х-лъчи вземем само 25 на година. Но тази област дълго време (в много дългосрочен живели компоненти на отработено ядрено гориво, плутоний, включително) ще бъде неподходяща за земеделие заради растителност и животни, тези вещества се натрупват и когато се използва вътре да причини порядък по-силен удар за организма. С други думи, оцелелите няма да може да ферма и ще бъдат осъдени на постепенно влошаване на заболяването. Все пак, гарантирано няма да изтребление, тъй като хората - има много регулируемо и да умре, освен ако, разбира се, не се намесват други фактори.
Експлозията на мощни бомби в космоса
Ако технологията е широко shagnet земята в космоса, рано или късно няма да е възможно да се създаде огромни космически базирани бомби, тежащи стотици тонове (по-специално, за да отхвърли опасни asteroids). Рискът е експлозия на няколко десетки gigatons на бомби на ниска орбита, който просто изгоря Земята на радиация. Въпреки това, в случай на такова нападение все още ще оцелее: The миньори, submariners, спелеология. (Макар че това може оцелее само един човек, и вида хора в края, както в природата няколко жени и разни миньори. A спелеологията там.) Вземи въздействие на гама-индуцирана скока.
2,4 Интеграция на вредни фактори на ядрени оръжия
Умерено мащаб ядрена зима, придружаващи средно радиоактивни поражения може да «синергични» ефект, който е извън властта на дори и най-мощна ядрена зима, взети в изолация. Например, както е било каза: (виж по-горе) в случая на «чисти» ядрена зима, хората ще могат да пасат добитъка в продължение на много години, който замразява в техните ясли и оцеляха. В случай на радиоактивно замърсяване, че не би било възможно. Експлозия вълни по целия свят ще бъдат унищожени домове, където те продължават да бъдат счупени стъкла, и тя ще направи по-сложни за защита от радиация и студено. Топло ще бъде опасно радиоактивни дървесина. Тези фактори ще бъдат подобрени чрез унищожаване на най-ценните инфраструктура преки действия от страна на вредни фактори на ядрени оръжия. Всички същото, но е невъзможно да се каже дали синергични ефекти водят до общо изчезване, ако нито една от частите му не направи това.
2,5 Разходите за създаване на ядрени възможности, които биха застрашават оцеляването на човешката цивилизация
Докато ядрените оръжия представлява теоретичната възможност на човешкото унищожение, осъществимостта на подобни проекти зависи от стойността им. Ако ви разделят разходите на цялата ядрена програма на броя на американските направени бомби, средната цена на такса от 1-40 милиона долара, според изчисленията, А. Anisimova статия «Разработването на стратегическите сили на Китай и на въпроса за адекватността на състоянието на външната политика на САЩ". Ако пълният радиологично замърсяване на Земята трябва да бъде покрит с бомбените атентати от 1000 кобалт, подобен проект ще струва около 40 милиарда долара. Това - какъв процент от десет годишен бюджет на Пентагона и на цената на петрола голяма корпорация. По-точно - е един thousandth на годишния световен БВП. С растежа на световния БВП и за намаляване на разходите за производство, този процент е намален, това е, всичко е евтино да се създаде такова оръжие. Така, създаването на ядрени оръжия sudnogo на деня е почти достъпна в този момент за големи правомощия. 2,6 вероятността за глобална катастрофа, причинена от ядреното оръжие
По отношение на рисковете от изчезване, в резултат на използването на ядрени оръжия трябва да определят вероятността от две опции:
• Класическо ядрена война, което води до изчезване.
• nonclassical използване на ядрени оръжия, както машина sudnogo ден.
Първият вариант се определя от произведението от вероятността от две последователни събития: вероятността от пълно мащаб ядрена война и вероятността, че тази война ще доведе до изчезване на човечеството.
Струва ни, че вероятността от умишлено нападение един часа енергия към друг, е малко вероятно, тъй като няма нито политическа, нито икономическа или военна печалба, но създават риск за отпор срещу разпространението на оръжия за масово унищожение, рискът от война с други правомощия, притежаващи ядрени оръжия. Но ядрена война между ядрените оръжия, които биха могли да започнете с инцидент, или по-скоро, че в резултат на сложна верига от събития. Запомнете: в Карибския криза, американците смятат, че те биха могли атака Куба, тъй като там не са ядрени оръжия руснаците. Съветската военна имаше тактически ядрени оръжия, които биха могли да използват по тяхна преценка в зависимост от обстоятелствата (който е без команда от горе), но аз вярвам, че американците не са атакувани. Всяка страна е действал правилно в становищата си, а по този начин чувствах погрешно и невъзможно на другата страна.
Ядрената сили са под влиянието на следните противоречиви изисквания:
А) ядрени сили, при никакви обстоятелства не могат да се ангажират неволен стартиране - старта, който по-късно ще бъдат открити невалидни. Това включва идентифициране цел информиране на президента, решението, с което броят на точката на началото и стартиране себе си и за противоракетна ориентиране.
Б) ядрени сили трябва да бъдат в състояние да причинят репресивен контра-атака в лицето на интензивно опозицията Информация вероятна противника, а това означава - състояние на високи предупредим и самостоятелност при вземането на решения. Начинът, по който този конфликт е решен, зависи дали ключовете стартирането на борда на подводница или изпратени на отделението по радиото от центъра за спешни случаи. Макар да е точно да организира управлението на стратегическите ядрени сили на водещите ядрени сили, е най-голямата военна тайна, известна в миналото, която е била избрана опции при стартиране ключът беше на земята.
Вие можете да мислите на много сценарии, по невнимание започне ядрена война Виж повече книги Брус Блеър «случайна ядрена война". Например, един самолет с председателя изведнъж объркващо. Тъй като системата на управление, и по този начин връзката с началника е най-важна част от системата на отбраната, всички проблеми по този начин могат да се възприемат като началото на атаката.
Тъй като ядрена война никога не е бил, тя е имала влияние както на корупционните обществени очаквания, и може би нормите на риска във военната сфера. В допълнение, увеличаващ се брой на страните, способни да създават и създаване на ядрен арсенал. Нещо повече, за терористична ядрена атака, също може да се превърне в куката започването на войната, но тя може да организираме една малка страна. Всичко това ни подсеща да се смята, че рискът от ядрена война непрекъснато се разраства. Ако оценката на 0,5% на година, мисля, че ще бъде доста добра оценка. Все пак, рискът не може да «на живо» сто години. Или той ще направи още по-мощен неподходящи и опасни технологии, или скоро да обединява човечеството и се откаже от ядрените оръжия.
От друга страна, обичайните случайното ядрена война не би довело неминуемо до изчезване на човечеството. Ако неговият обхват да бъде ограничен до няколко страни, той ще бъде друг случай, че мащабът на Втората световна война. И тогава тя не прекъсне хода на прогреса и не се променят съществено върху хода на световната история. Но може да започне ядрена война верига от събития, които рязко намаляване на нивото на развитие на човечеството, го преведете postapokalipticheskuyu етапа, в който тя ще бъде уязвима за много други фактори на изчезване. Например, войната може да стане постоянна, поради чувство за отмъщение ще направи всички нови парчета на оръжия, особено биологични, или ще изгради и взривяват «машина sudnogo на деня", устройство, което може да унищожи цялото човечество. По този начин, хората ще бъдат изложени на ядрена зима и радиоактивните отлагания неизвестни сили. Сборът от всички тези фактори биха могли да поставите човечеството на прага на изчезване, ход, който ще издава на ръба на делата.
Развитието на postapokalipticheskom свят ще зависят не само на последиците от ядрена война, но и върху това, което те utseleyut технология ще може да расте и ще бъдат приложени. Това излиза извън приложното поле на настоящата глава, следователно, може да се каже, че в най-лошия случай на ядрена война ще превърне postapokaliptichesky света, способна на по-нататъшното разграждане. Шансовете, че по-ниското им ниво на цивилизацията в ядрена война ще вземе 50%. Като резултат, ние се оценка на вероятността за преход към postapokaliptichesky света, като в резултат на ядрена война в XXI век, около 25%, ако няма други процеси, които не пречат. Тъй като, обаче, че този факт трябва да бъде «компенсирани чрез", което е вероятно да стане невъзможно заради силни процеси, за максимум 30 години, ние можем да сподели тази оценка от 3 (тъй като 30 около 3 пъти по-малко от 100 години Кой направи прогноза оригинала), който е стигнем 8% вероятността, че в XXI век, ще пристигне в мир postyaderny по-ниско ниво на цивилизацията. Вероятността, че ние vymrem postyadernom в света все още е няколко пъти по-малко, в зависимост от други фактори. Кръгла по поръчка, получаване на риск от изчезване поради последиците от ядрена война в XXI век, около 1%. Шансовете, че една силна ядрена война пряко доведе до изчезване на човека, без да фаза ugasaniya postapokalipticheskom в света, аз оценявам колко по-малко. По подобен заключение идва криптографията гуру Мартин Helmann.
Тя трябва да се вземе под внимание вероятността от нетрадиционни използване на ядрени оръжия. В момента нищо не е непозната за развитието машини sudnogo на деня (който е устройства, специално предназначени за унищожаване на човечеството, за да може, като изнудване) въз основа на ядрени оръжия (макар че отчасти собствени ядрени сили могат да ги взема, освен това, това развитие бяха най-строгите sekreteKak правилно отбелязва във филма «д-р Strendzhlav» Kuborika, машина Sudnogo ден не прави смисъл, ако не и не съобщи, че е, че следва да се класират само в процес на изграждане, от друга страна, то може да бъде обявен само главите vrazhbenyh страни, които не да развалям на изображението и да не плашат хората.) В бъдеще може да се появят много по-евтини начини за създаване на машини sudnogo от деня, в основата на биологични оръжия. Затова, мисля, че не би било грешка да се каже, че шансовете за създаване и прилагане на машината sudnogo от деня, в основата на ядрени оръжия, най-малко 10 пъти по-малък шанс на ядрената война. Въпреки това, в този случай, шансовете за тяхното изчезване в целия голяма част от човечеството от ядрена война, защото не всяка ядрена война води до изчезване. В действителност, ако оръжия, използвани sudnogo ден, целият въпрос е, нали работят по предназначение. (Ако Хитлер в бункера на такива оръжия ще бъде, той вероятно ще го използвам - по изпращането за цялата страна, във всеки случай, това трябва да бъде завещание на Хитлер, който той обвини в Германия хората в поражението.) Вероятността за изчезване на човечеството като резултат от Оръжия sudnogo ден в XXI век, аз също оценявам стойност от порядъка на 1%.
Възможно е определянето на интеграцията на военни ядрени оръжия и «sudnogo коли на деня". Романът Н. Shyuta «На брега» значително прилагането на хиляди бомбите кобалт много държави не са довели до заразяване на отделните страни, както се очаква, а за пълно заразяване на света. След отваряне на възможност за ядрената зима, стана ясно, че съвременното ядрени ракети, могат да бъдат оръжия sudnogo на деня, ако те изпращат хиляди градове по целия свят. Също така, те могат да бъдат насочени към съхранение на отработено ядрено гориво, ядрените централи, пасивни вулкани и находища на въглища. Това е, едно и също оръжие може или не може да бъде машината sudnogo на деня, в зависимост от употреба.
2,7 Смяната на вероятността от глобална катастрофа, причинена от ядреното оръжие, с течение на времето
Смята се, че в момента pogodovaya вероятността от катастрофални ядрена война е намалял, тъй като ядрените арсенали на Съветския съюз и Съединените щати е намалял значително. Въпреки това, действителната вероятност от използване на ядрено оръжие се увеличава, тъй като повече страни открито декларират своето развитие (около 10), и в допълнение, страни, различни от Русия и Съединените щати, набира техническата възможност и желание obzavoditsya арсенал от хиляди такси (Китай, Пакистан и Индия). Там е и нарастващият брой на страните, развиващи мирна ядрена енергия с двойна употреба, който е способен да продължи с месеци или години, за да започне производство на ядрени оръжия (виж, например, "неразпространението на ядрено оръжие в ерата на глобализацията", редактирано от А. Arbatov и Владимир Mikheev).
Увеличаване на шансовете на разпадащи се материали, които попадат под терористи "ръце.
Това увеличение на вероятността от сравнително lineen и ще бъде доста бавен, освен ако не е изобретил начини да се намали цената на принципа производство на ядрени оръжия: молекулно производствени техники и термоядрен взрив, без да zapala уран. Появата и - особено - разпространяване на знания за такива методи драстично увеличаване на броя на ядрените бойни глави в света. Ние сега могат да бъдат сигурни, че няма молекулно nanotehnologicheskogo производство, но не могат да бъдат сигурни, че няма таен начин да се започне директна термоядрен взрив. Разбира се, ако те бяха много фактът на тяхното съществуване трябва да се пази в тайна. Разпространението на нови технологии като изкуствен интелект и нанотехнологиите, може да създаде нови начини за премахване на ядрените оръжия и предотвратяване на тяхното използване. Все пак, ако тези оръжия ще бъдат използвани, те няма да имат специална защита от вредни фактори. Като резултат, той може да се твърди, че рискът от използването на ядрените оръжия останат при нас винаги, освен ако не може да бъде заменен от чувствате сила фактор, там са големи рискове, свързани с Гай, нанотехнологии и биотехнологии.
По отношение на оръжията за sudnogo дни въз основа на ядрените оръжия - като gigatons кобалт бомба, този път не е известно за развитието на такива оръжия. От друга страна, ако такава формулировка е направено, ще бъде една голяма тайна, че в страна, която открито да произвежда «оръжия sudnogo на деня", непосредствено подложени на атака. Вярвам, че вероятността не е нула, а също расте, но твърде еднообразен и бавно. В случай на нова световна война, тя може значително увеличение. С други думи, войната (или заплахата от война), което води до пълна победа ядрена енергия, с висока степен на вероятност доведе до използването или заплахата за използване на «оръжие sudnogo на деня» като последен аргумент. Отново, разработването на нови ядрени технологии, поевтиняват производството, и увеличава шансовете на ядрена «оръжия sudnogo на деня". Може би десет години или двадесет тя ще бъде достъпна и т. нар. двоен страни.
2.8 стратегията на възпиране по въпроса
Трябва да кажа, че може би, ядреното възпиране като фактор за предотвратяване на война надценени. Каква е печелившата стратегия в краткосрочен план може да бъде proigryshnoy в дългосрочен план. Това е война суперсили са станали рядко, но степента на възможните последици от подобни нарасна immeasurably войни. И ако ядреното оръжие няма да бъде в няколко страни, както и за всички, без изключение, войната на всички срещу всички, няма да оставя оцелели от света. Механизмът на този конфликт може да бъде: ако там е страна А, B, C, D и ядрена война между А и Б, след което спечели напуснали страната, C и D. По тази причина, страните А и Б, могат да бъдат заинтересовани в тази C и D също се присъединиха към битката, и може да нападението им, като част от силата. С и D, знаейки, че може да удари пръв.
Накрая, на заплахата от взаимно унищожение сигурни, ефективни само когато има само две суперсили (по отношение на броя на ядрените бойни глави). Но сега, а вероятно и преди това, Китай стана третата, и може би появата на нови ядрени суперсили. J. Лесли отбележи, че намаляването на броя на ядрените бомби в арсенала няма да доведе до намаляване на вероятността от ядрена война, защото тя изисква да се използва стратегията на контра-репресивен стачка, когато ракетата се стартира пред неприятеля стачки удря цели, защото тогава оцеляха 10% би било недостатъчно, за да се напълни отпорите. Стратегията на контра-репресивен стачка по-уязвими за фалшиви позитиви, както и решението на ядрени удари е прието само по косвени индикатори, които могат да съдържат грешки, както и в много кратък период от време, който изключва всякакви размисъл за природата на постъпващите сигнали. В действителност, това решение не зависи от хората, но от тяхното предварително писмено алгоритми и инструкциите, които dilutes отговорност. В допълнение, контра-репресивен стачка включва постоянно високо ниво на бойната готовност на ракетите, които, наред с другите неща, изисква стартирането ключовете не бяха в центъра, както и преките извършители. Подобряването на точността на ракети, също не гарантира стабилност, както и възможност разоръжаването на първата стачка, и, съответно, може да натиснете по-слабата страна на стачка първо, преди тя окончателно да загуби своята агресия. Същото се отнася и за изграждането на защитен щит като олимпийски игри. Всички от стратегията на ядрената конфронтация не е обвързано само за ядрени оръжия, но ще бъдат верни, и ако има някакви по-мощни оръжия, в това число - свързани с AI и нанотехнологиите. Подробности ще бъдат обсъдени, като например, книгата Arbatov А. G и др «Намаляване на сигнала, статуса на ядрени сили на Русия и САЩ - начин за намаляване на ядрената заплаха".
2,9 ядрен тероризъм като фактор в световната катастрофа
Самият феномен на ядрен тероризъм - това е, анонимно терористичната атака малка мощност - не може да доведе до изчезване на човека. Въпреки това, такова събитие увеличи драстично, всички глобални рискове. (И ако бомбата се научиш да правиш в къщи, да речем, благодарение на напредъка в студен термоядрен синтез, който може да бъде достатъчно за изчезване на хора.) Подобна експлозия може да провокира война, или ще доведе до загуба на лидерството, подобряване на цялостната прекъсванията и оголване контрол структура мъдростта е необходимо да се обърне към много сериозни глобални проблеми. Той може също да доведе Стягане сигурност и обществото на общия контрол, който ще доведе до появата на резистентност в духа на анти-глобализация и нови терористични актове.
2.10. Констатациите на риска от използване на ядрени оръжия
Заплахата от ядрена катастрофа често се подценява или надценени. Underestimating главно свързани с мотивите, че след бедствието не беше много отдавна, че е малко вероятно. Това е фалшива логика, тъй като той е изложен на въздействието на наблюдение избор, който ние ще говорим нататък в глава 14, раздел «Прекратяване на« защита », в която ние, предвидени Антропогенна принцип", и ефектът от отслабването бдителност във времето. Преоценка е свързан с широко разпространено схващане на ядрена зима и замърсяване фактори като неизбежното изчезване на всички човечеството след ядрена война, а това води до преоценка на отхвърляне на отговор, което води до подценяване на риска. Докато «нормални» ядрена зима, и замърсяване не е възможно да доведе до пълното изчезване на човечеството и на себе си (макар и да се създадат условия за изтребление за множество причини), но има начини да използва ядрени оръжия специален начин за създаване на автомобил sudnogo на деня, което унищожат всички хора с висока степен на вероятност.
Глава 3. В глобален химически замърсяване
Химически оръжия са обикновено не се разглеждат като оръжие края на света. Това се дължи на факта, че глобалното замърсяване на атмосферата, изисква много големи количества отровни вещества, както и факта, че това вещество или химически нестабилни, или лесно vymyvaetsya от атмосферата. В глобален химически замърсяване може да възникне поради внезапно рязко degassing земната вътрешните работи, например, на газ на газови хидрати под seafloor. Все пак, основната опция - изригване sverhvulkana с големи газови емисии. Процесът на натрупване на въглероден двуокис в земната атмосфера чрез изгаряне на изкопаеми горива може да се разглежда като част от «degassing шелф". Други възможни причини - големи аварии в химическата продукция, резултат от генетично модифицирани организми в биосферата, и, накрая, преднамерено използване на химически оръжия. В научната фантастика версия бе сметнато за отлагане на токсични химикали от кометата ядро. Основен фактор при вземане на химически оръжия в глобалната заплаха е единството на земната атмосфера. Следователно, в тази глава, ние ще обсъдим няколко други фактори, които се разпространяват чрез атмосферата.
Във връзка с това полезно да изчислят какви количества и какви газове са напълно отровата земната атмосфера. То е ясно, че на газ и здравината е много по-лесно да се използват газови маски устоя и приютите от радиация и bioagentam. За да протече гладко заразяване по време на земната силния nervnoparaliticheskim газ VX ще изисква най-малко 100 тона на агента (въз основа на оценката на смъртоносна доза от 1 площада. Апарата, или 200 микрограма). През Първата световна война всички са били използвани 120 тона на различни химически агенти. Приблизително същия брой (94 тона) са били използвани хербициди във войната във Виетнам. Текущи света запаси от отровни вещества са оценени на 80 тона, въпреки че точни данни за глобалните запаси там. То е ясно, че химическите оръжия не са били приоритет, и направи много по-малко, отколкото сила. Ясно е също, че справедливото разпределение (т.е. доставка) далеч не е проста. VX газ се държат в студен климат, от дълго време, но когато топлината се разградят в продължение на няколко дни. Но теоретично възможно да се произвеждат и разпространяват милиони тонове на газ или други подобни и да създаде глобална заплаха. (Особено опростена задача е развитието на проектирането генетично модифицираните организми.)
Смъртоносна доза от отравяне с колбаси токсин - около 0,1 микрограма. (Това означава, че за унищожаването на човечеството имаше неколкостотин грама), но тя е много нестабилно във външната среда.
Смъртоносна доза диоксин - около 1 mcg (има различни оценки), но тя може да се задържи за десетилетия в околната среда и се натрупват в организма. Изтичане на газове с около 25 кг на диоксин в Севезо в Италия е причинило замърсяване на 17 квадратни метра. км. Тя може да се заключи, че пълното заразяване на Земята ще изисква 500 000 - 1 000 000 тона на диоксин. Това е сумата на няколко големи петролни танкери. Може би индустриализираните сили биха могли да имат достатъчно обем в продължение на няколко години.
Предвидени са и сценарии за постепенното натрупване на естествената среда на опасни вещества, които първоначално беше neochevidna. Така беше с фреон, че разрушаващи озоновия слой и диоксини. Възможно е също така натрупването на много химикали, които самостоятелно не дават много по смъртност, но и да породи много трудно фон. Това обикновено се нарича «неблагоприятни условия на околната среда".
Друг вариант е да се променя химическия състав на атмосферата, или загубата на неговите свойства, подходящи за дишане. За да направите това ви е необходим един мощен източник на химикали. Те могат да бъдат земната volcanism, тъй като ще бъдат обсъждани допълнително. Други кандидати: газови хидрати на океана етаж - отравянето на метан или водна пара, ако по някакъв начин цялото количество вода кондензирам (може би с необратими глобалното затопляне).
Функционалната структура на химическата катастрофа е отравянето на въздуха отрова атмосферата или загуба на имота способността да се поддържа живот, който е храна я кислород, за защита срещу радиация, за да се поддържа желаната температура. Химическите бедствие заплашва земната биосфера, дори повече, отколкото човек, който може да носи маска, но без биосферата живеят хората, доколкото мога. От такава катастрофа е сравнително пасивен характер, тя е относително лесно да се защитават сами в бункерите.
Малко вероятно опции:
• отравяне с въглероден диоксид над тази граница, където хората могат да дишат без skafandra (малко вероятно, защото толкова много минерали - само в случай на природно бедствие). Въпреки това, големи количества на CO2 могат да избягат от вулкани. Например, Венера е заобиколена от атмосферата на СО2 сто пъти по-дебел от земната атмосфера, и вероятно по-голямата част от веществото да се идентифицират подземни, както и върху някои предположения, сравнително наскоро. От друга страна, Венера не въглероден цикъл, както и на Земята.
• Изграждане в резултат на възстановяване на железен оксид в недрата на Земята nebiogennogo големи количества кислород, които могат, чрез 600 милиона години, той напълно отровата в атмосферата, което предполага, ДВ Sorotihin. Този сценарий май се влошават ситуацията, ако някъде под повърхността има натрупани големи количества от газ или друг, и тогава те vyryvayutsya на повърхността. Въпреки това, одобрението на Sorotihina nebiogennom кислород критика. Спри се на повърхността газове не само ще отрови атмосферата. Те ще се разгарят до хиляда градуса. И ако масивното освобождаване на газ (или вода), те не само отрови атмосферата, но също така и стерилизирани повърхността на своя ентусиазъм. (Наскоро публикация, че дълбоко под земята и намери «океанската вода", но в действителност тя се отнася само до висок - 0,1% - концентрацията на вода в скалите.)
• катастрофални разпределение на метан от газови хидрати в тундрата и на морското дъно, което не само ще засили парникови свойствата на атмосферата, но също така и евентуално отрова нея.
• Друга възможност - разпределението на огромни количества водород от земята на вътрешните работи (има презумпцията, че в основата на много от Земята) - виж Syvorotkin Много нисък «Екологичните аспекти на degassing на Земята". Този водород разрушават озоновия слой. Също така може би разпределението на огромни количества нефт, ако правилната теория за произхода на abiogennom петрол и огромни количества въглеводороди са натрупани дълбоко в земята. И всички дълбоки сондажни кладенци е в ход.
• Изчерпване на кислород в атмосферата в резултат на някои процеси, като окисление разграничава от подземни водорода. (№ горива за хиляди години не е достатъчно за това.) Този процес може да бъде внезапно подбор и горят големи количества от горими материали. Или изчерпването на кислорода в резултат от действието на генетично модифицирани организми, които се появиха извън контрол, например, нещо като азотен фиксиране бактерии. И накрая, в резултат на спиране на фотосинтеза, като продължава горенето на минералните горива. «Изчислиха, че цялата земна атмосфера кислород (1200 trillion тона) на зелени растения, произведени от геоложки стандарти, почти мигновено - над 3700 години стар! Но ако наземна растителност ще умре - без кислород много бързо: той беше още веднъж заедно с органична материя, ще се присъединят към въглеродния диоксид и окиси на желязото в скалите ". Ние имаме около един милион милиарда тона кислород в атмосферата, плюс известна сума от разтворят във водата. Броят на изкопаеми горива, които ние оксиди в историята или да преминете оксиди, измерена от хиляди милиарда тона, което е много по-малък. Но, ако се нарушават способността на биосферата за регенериране, а след това губят технология, бавния спад в нивото на кислород ще бъде глобална катастрофа. Според някои източници, най-голямото измиране Ситите се дължи на рязко спадане на нивото на кислород във въздуха за неизвестни причини (J. Лесли).
• Залезът на комета с много отровни газове.
• «Черно прилив» - отравяне на световния океан от наводнения на големи количества петрол. Веднага тя не може да убие хора, но биха могли да подкопаят критично хранителната верига в биосферата и да наруши функционирането на производството на кислород и въглероден конфискация (което води до затопляне) и, в крайна сметка, да превеждате човечеството в postapokalipticheskuyu етап. Има и други варианти за отравяне на океаните.
• рухването на земната атмосфера. Тя може да причини: голям взрив, като по-голямата част от атмосферните Втора космическа скорост, или внезапно избухване на слънчеви отопление.
• запалителна атмосферата. Ето, аз не означава глобалното затопляне, като явление и интегрирани постепенно краткосрочна нагряване атмосферата на високи температури, в резултат на определени процеси. А. Portnov статия «Как загубих живот на Марс» предполага, че магнитните червени пясъци (maggemit) на Марс са били формирани през бомбардиране на планетата фрагменти от голям спътник, който доведе до загрято до 800-1000 градуса, който се осъществява формирането на тези минерали. Подобни депозити са открити в Yakutia, където 35 милиона години назад, спадат голям астероид около 10 км в диаметър и оставил кратер Popigaysky (и евентуално са довели до друг основен изчезване на живите същества). Може би това vysokoenergetichskih в някои събития могат да се образуват огромни плътни високи облаци, които се разпространяват по повърхността на хиляди километри. Като пример може да бъде техен pyroclastic облаци през текущата изригване на вулкани, които се движат по повърхността на земята или морето при висока скорост и най-значителни разстояния и са с температура около 1000 градуса. Като такива непрозрачни облаците, те се охлаждат бавно от радиация. Други възможни причини prokalivaniya - експозиция (например, астероид отломки, изхвърлени високо в стратосферата и енергичен човек от експлозия, избухване на НЮ ЙОРК) или много тежко топла газ (не е достатъчно трудно да плаваш във въздуха - тежки въглеводороди?) • Avtokataliticheskaya реакция, която се разпростира в цяла повърхността на Земята, в дух на лед-9 от романа на К. Vonneguta «поставка за котки". Въпреки че няма причина да мисля, че подобна реакция е възможно. (Макар че случай, когато лекува СПИН, спонтанно формира нова изомер, е собственост prions - образувание изомер катализира същите, които заменят правилната форма на кристала от всички заводи в света и да спре производството.) Или създаването на изкуствени катализатор, е ефективен при изпълнение на някаква реакция продукти , които увреждат всички живот.
Моята субективна оценка на вероятността от глобалното замърсяване химически - около 0,1% за целия XXI век. Тази вероятност е особено ниска, защото няма такава технология, и ще гаснене когато достатъчно средства razovyutsya молекулно nanotehnologicheskogo производство, които могат бързо почистване на атмосферата или дори да предпази хората от инфекция (ако те самите не предизвика такава катастрофа).
Заключение: Въпреки че теоретично възможността за отравяне на целия атмосферата на газове, на разположение, той се застъпва с възможността за създаване на токсични и епидемиологични bioagentov. Всяка организация или държава, които могат да претендират за отравяне на цялата биосфера е много по-лесно и евтино може да го направи чрез генно дизайн. Нещо повече, човек може да оцелее такова отравяне в бункер или неутрализиране своята противоотрова, може би, изготвени с използването биотехнологията. Независимо от това, внезапна и значими отравянето на въздуха може да бъде фактор, който ще създаде една от опциите postapokalipticheskogo света.
Изводи за технологично надеждни риск
Като се има предвид, че някои рискови е технологично готова, не трябва да игнорират неизбежност на други технологични подобрения в тази област, както и вероятността от основните открития в областта, или свързани с тях. Важно е да разберете, че опасностите, породени от новите технологии са винаги по-голям от риска от ранна технологии, дори и само защото всяка нова технология може potentsirovat ефективността на предишни технологии.
Рискове появата което изглежда неизбежно, въз основа на естеството на сегашните технологии за развитие
Тогава ние виждаме развитието на технологии като сами да гарантират, че тенденцията nepodverzhena никакви външни кризи и рискове (и не зависи от човека няма). Има едностранчивостта тази гледна точка. По-късно, ние ще разгледа като реализация на някои малки и големи рискове могат да окажат влияние върху развитието на технологиите и тяхната възможност за генериране на нови рискове.
Глава 4. Биологично оръжие
Общи положения и основни сценария
В действителност голяма част от технологиите, необходими за създаване на опасни биологични оръжия вече съществува. Така например, в края на 2007 г. бе предложен набор от основни «кубове» За генното инженерство, разпространяват на принципите на свободния софтуер Генетични-Инженеринг Конкуренти Създайте Модулна ДНК развитие Kit. Или, например: «През 2003 г. учени от Института за алтернативна био-енергия (САЩ), под ръководството на известния Крейг корем синтезирани от публично достъпни реагенти е жив Bacteriophage PHI-X174 (безопасен за хората и животните вирус, който се инжектира в бактерия Esherichia коли) ... През 2002 г. Eckart Uimmer години от университета в Ston Брук, Ню Йорк, публикува работа върху синтеза на полиомиелитна вируса на фрагменти от молекули. Синтетични вирусни частици са абсолютно неразличими от естествените по всички параметри - размер, поведение, заразни. И дума «синтез» се отнася за тази работа, в най-буквален смисъл: знаейки нуклеотидната последователност, учените са построени стъпка по стъпка, вирусът е същото като химици синтезира сложни молекули. Сам взех синтеза на екипа от три години. И през 2003 г., една година след публикуването на този труд, учени от Института за алтернативна био-енергията изразходвана за синтеза на Bacteriophage поръчани по каталог реагенти само две седмици ".
       Основната тенденция е, че технологичните био-оборудване и разпространение desheveet непрекъснато за мир, докато познания за това как да го използва във вреда на увеличение, а също и разпространявана. Постоянна евтино и опростяване на машини за sekvensirovaniya и ДНК синтеза (т.е., четене и създаване на генетичния код), прави възможна появата на biohakerov. Прогресът в областта на биотехнологиите оборудване, измерена скорост около 2 пъти годишно - тоест, техническите спецификации, расте, и оборудване desheveet. Няма причина да мисля, че ще е по-бавен темп на развитието на биотехнологиите - отрасълът е пълна с нови идеи и възможности, и медицината създава постоянно търсене, така че е възможно да се твърди, че след десет години, възможността за биотехнологии за основните индикатори числения (цена sekvensirovaniya / ДНК синтеза, например) увеличение 1000. В този случай интензивен демократизация на биотехнологията - познания и оборудване е в масите. Ако компютърът вече е писано повече от 100 000 вируси, степента на креативността biohakerov не може да бъде намалена.
Основният сценарий odnofaktorny биологична катастрофа - това е разпространението на някои от вируси или бактерии. Това разпространение може да се появи по два начина - като епидемия, предавани от човек на човек, или замърсяване на околната среда (въздух, вода, храна, почвата). Епидемията от испански грип през 1918 засегна целия свят, с изключение на няколко отдалечени острови. Въпреки това, хипотеза за епидемия убива всички хора, е изправен пред две задачи. Първата е, че ако всички хора умират бързо, разпространението на вируса там. Второто е, че за всички епидемии обикновено са хора, които имат вроден имунитет към него.
Може да има вариант къде по света се простира някои животни се превозват опасни бактерии. (Така естествено се отнася комарите и малария язвата при плъхове.)
Следващата версия - е появата на omnivore агент, който разрушава цялата биосфера, които засягат всички живи клетки. Или, ако само някои растения или животни на критичните видове.
Третият вариант - тя е в двоичен формат, биологични оръжия. Така например, туберкулоза и СПИН, е хронично заболяване, но докато заразявайки лице изгаряния за кратък период от време. Един от страшни сценарии - СПИН, която се прилага също толкова лесно, колкото общата студено.
Опасността и евентуално две биологични оръжия. В първата фаза, някои бактерии произвеждат токсини imperceptibly разпространява по целия свят. Във втората, за нито един сигнал или таймер, тя започва да произвежда този токсин е само около Земята. Някои микроорганизми се държим, сякаш голяма атака върху организма.
Следващата версия на въоръжение края на света - е във въздуха пръскане големи количества от антракс (или подобен агент) в защитна обвивка (като Шел отдавна са достъпни за борба с щамове). Този вариант не изисква самостоятелно посадъчен заболяването причинява агенти. Антракс е много дълго - остров в Англия обеззаразяват 50 години - и инфекцията не изисква големи количества агент. 1 грам могат да заразят цялата сграда. (Например, отстраняване на последиците от замърсяването един часа пликове с антракс в Съединените щати една сграда взех няколко години и изискват разход на стотици милиони долари - евтино да се срива, но разрушаване не беше, както ако спорът може да бъде повторно пръскане. Това е способността да се дългосрочно замърсяване и инженерни икономически щети антракс surpasses най-радиоактивни вещества.)
Въпреки това, от гледна точка на земната повърхност, ще открием, че хиляди тона са необходими за довършване на заразяване по време на Земята. Но този брой не е недостижим - в Съветския съюз по стрелба кръг в Аралско море, е натрупал и изоставени след разпадането на СССР, 200 тона на военни щам на антракс. Той тогава изгори американци. Ако, обаче, поради природно бедствие (торнадо), че веществото, значително ще разсее във въздуха, тя ще обхване цялата страна. Ясно е, че производството на антракс-евтино производството на подобни количества от Полоний или кобалт-60.
Следващата версия на biooruzhiya опасно - това е средство, което променя поведението на хората. Бяс вирус (агресивност, лют) и toksoplazma (загуба на страх) доведе до поведението на заразените животни, която допринася за заразяване на други животни. Теоретически, можете да си представите агент, който причинява на хората да се насладите и желание да ги зарази с други. В тази версия на наградения филм в много филми, където вирусът се превръща хора във вампири. Но уви, в тази фантазия може да бъде елемент на истината. Нещо повече, ако е създаването на такива вируси, ще веселяк-хакери, които могат да съставят своите вдъхновения кинорежисура.
Друг вариант на биологични заплахи - че някои avtokataliticheskaya молекула, способна неограничен разпространени в природата. Лудия крави avtokatalizom болестта се нарича специален протеин, наречен prions. Все пак, болестта луда крава се простира само чрез месото.
То се отбележи друг вариант - разпространение в цялата биосфера там никой не е живо същество, генериране на опасни токсини. Например, може да се направи генетично модифицирани дрожди или мухъл, произвеждат диоксин, или отравяне с колбаси токсин.
Като средство за противопоставяне, които предлага създаването на глобална имунната система - това е пръскане навсякъде по света съвкупност от генетично модифицирани бактерии, които ще бъдат в състояние да неутрализира опасните агенти. Все пак, може да има нови рискове, например, "avtoimmunnye» реакцията на панела, който му е извън контрол.
Друг риск е така наречената «изкуствен живот", тоест, живите организми, изградени с различна ДНК-код, или набор от аминокиселини. Те биха могли да бъдат непобедими на имунната система на съвременните живите организми и "да ядат биосферата".
Фантастична възможност за биологична опасност е рекорд на живота от космоса. Шансовете на тази взети под внимание, когато астронавтите се върна от Луната - те дълго съхраняват в карантина.
Структурата на биологични бедствия
Структурата на биологичната катастрофа може да бъде доста сложно. Като илюстрация цитирам няколко котировки за потенциално опасна ситуация. (То ще се види колко дълго са биологични заплахи - но после, как е вече зрял риска.)
«Геном криза започна през лятото на 1971 година. По това време, младия учен Робърт Полак в лаборатория студената пролет Харбър (на Лонг Айлънд, NY, САЩ), режисьор от Д. Уотсън, занимаващи се с рак. Условия за научни интереси Полак е широко. Той не само доведоха изследване, но също преподава на студентите по биология и подейства като водеща радио за да обсъдят възможните злоупотреби в Biosciences, по-специално, че нововъзникващите генното инженерство.
Така Полак научава, че в други лаборатории (в Пало Алто, Калифорния) с Пол Берг планираните опити за интеграцията на ДНК канцерогенна (която може да предизвика рак) на вируса SV 40 в генома на чревната тояга. Последствията от подобни експерименти? И не възникнат дали епидемия от рак (това стана известно, че почти безвредни за маймуни, вирусът SV 40 причиняват рак при мишки и хамстери)? Nachinennye опасни бактерии гени, плод на милиардите на ден, според Полак, може да представлява сериозна опасност.
Полак веднага telephoned П. Bergh на разстояние телефон и го попита дали е бил наясно с опасностите от експерименти? Там ще бъде дали бактерии с гените на вируса SV 40 биологична бомба в забавен кадър?
Този телефонен разговор беше началото на тревожност, което е потъвам молекулярната биолози. Berg отлага му изследвания. Той стана муза, може реалистично Д. коли с вграден своята SV 40 причиняват рак? Трудно размисъл малко пояснение. Там не е ясен отговорът е не защото на оскъдност на информацията на разположение на професионалистите по времето ".
       «Някои учени доклади (в Asilomare, 1975) бяха сензационно в природата. Така се оказа, че в САЩ в огромен мащаб, вече е бил пуснат на експеримента в безсъзнание мъж. Оказа се, че полиомиелитна ваксина заразени вируса на жизнеспособна SV 40. През 10 година периода от 1953 до 1963 заразени, че ваксината да се предвиди някои стотици милиони деца. И одит показа, че вирусът SV 40 остава в тялото. За щастие, обаче, няма увеличение на честотата на рак сред тези деца са били идентифицирани ". «Edda Запад, в неговата статия" полиомиелит ", заяви, че отношенията на вируса на SV-40, която zarazhalis полиомиелитна, с ;;;;;;;;; права:" До края на 1996 г., десетки учени, съобщава откриването на вируса SV-40 в различни тумори и костния мозък, което беше повече от 30% през последните 20 години. После, италиански изследователи намери SV-40 в спермата 45% и 23% в кръвта на здрави донори. ETO означаваше, че SV-40, очевидно предавани по полов път и от майка на дете. Може би сега вирусът е вградена в нашия геном. "Други опровергаят тези данни. Но и тук можете да видите, че развитието на биотехнологиите засега не представлява явна заплаха.
Още биологични оръжия се счита за една от най-евтините - разходите за причиняване на смърт на човек от тях за няколко цента. От друга страна, за производството на модерни агенти като антракс в армията се нуждае от по-сигурни лаборатории и полигони. Той може да бъде още по-евтино, като се има предвид способността на авточасти агент. Сега използват ДНК sequencer могат да бъдат закупени за сума от $ 200, и всяка година цената на тези устройства е, попадащи в пъти, но качеството се увеличава. Вижте текста «генетични хакер може да създаде биологични оръжия в къщи", казва за един човек без никакви познания по биология, което е било взето да се оттегли - и отпечатъци - генетично модифицирани дрожди флуоресцентни колония за малък период от време, както и малка сума пари. И тогава се предполага, че почти толкова лесно могат да опасен вариант.
Вече, създаването на биологични superbomby хиляди пъти по-евтино, отколкото ядрени оръжия сравними леталитет. При нарушен евтина технология за производство на произволни живите организми, с предварително дефинирани функции, разходите за производство на такива оръжия може да спадне до няколко стотин долара.
Често заяви, че биологичните оръжия не са подходящи във военните въпроси. Въпреки това, той може да бъде специален наименование - като оръжие kriptoudarov в задната част на врага и като универсален отбранителни оръжия - машинен sudnogo ден.
«Samorazmnozhayuscheysya» ДНК synthesizer
Биотехнологии май potentsirovat себе си - тоест, той може да междинни биологични форми, че опрости писане и отглеждане на нови вируси. Така например, тя може да има култура на бактерии, които пряко преобразува в последователност от електрически сигнали в ДНК-веригата, или обратното, пише на ДНК и превръща тази информация във веригата на леки проблясъци, които могат да четат на компютъра. Само за разпространението на такива устройства, заедно с библиотеката на генетичния код (дигитални), основната вируси и протеини, ще бъде катастрофална.
Множество биологични атаки
Въпреки, че разпространението на епидемията един часа най-вероятно ще спре, но епидемията, причинена от няколко десетки различни видове вируси и бактерии, които се появиха извън контрол, докато в много места по света, дори и да спрем е технически невъзможно, защото човек не може да се въведе едновременно с няколко десетки различни ваксини и антибиотици - той ще умре. Ако вирус с 50% на съдбата е просто много голямо бедствие, на 30 различни вируси и бактерии с 50% на съдбата би означавало гарантира унищожаване на всеки, който не се скрие в бункерите. (Или около 100 различни организми с 10% фаталност.)
Многобройни удари биха могли да бъдат мощно средство за провеждане на биологична война, и "оръжия sudnogo на деня". Но това може да се случи от само себе си, ако в същото време има много актове на разпространението на биологични агенти - дори и ако случайно, като по време на активната «конкуренция» biohakerov. Дори и след няколко индивидуално-смъртоносни средства биха могли да отслабят имунната система на човека, че продължаването на оцеляване ще бъде малко вероятно.
Тази възможност за многократно използване на биологични оръжия го прави един от най-значим фактор на глобалното риск.
Биологични средства за доставка
Биологично оръжие не само трябва да бъдат фатални, но заразни и лесно трансмисивни да представляват заплаха за човечеството. Генетични технология предлага огромни възможности не само за създаването на смъртоносните оръжия, но и да създаде начина на доставка. Не е необходимо да имаш страхотно въображение да си генетично модифицирани малария комар, което може живеете във всяка среда и с голяма скорост да се разпространява по целия свят, въвеждане всеки има bioagent. Или пощи. Или скакалци, хранене в същото време всички живот и спрей антракс. Но бъдещето Biokonstruktor ще бъдат много повече въображение.
Въпреки това, бактериологична война и могат да оцелеят в бункер, макар и замърсяване от нея може да бъде по-дълъг от радиация. Освен това, преходът към «механичните тяло", даунлоуд съзнание в компютъра и развитието на нано рязко намаляване на уязвимостта на «права» за бързина и биологични агенти, но го прави уязвими от други агенти, като например компютърни вируси и nanoroboty.
В фантастика разпространен мутант атака на последния човек бункер. Характерна радиация, но не е в състояние да генерира агресивни мутанти. От друга страна, естествено има бяс вирус (Neuroiyctes бесен), който влияе върху поведението на животните, така че те да станат по-активно да разпространяват (жила). Не е трудно да си представя един по-усъвършенстван продукт на генното инженерство технология, която прави всяко животно е агресивно срещу лице. Самите странност такъв проект биха могли да бъдат стимул да го приложат, защото модерната култура permeated идеи за вампири и зомбита, в резултат на експерименти в лаборатории (например, наскоро филм "Resident Evil" - "Resident Evil"). С други думи, идеята да се направи зомби вирус може да бъде привлекателно предизвикателство за biohakera. При това, заразени хора и животни ще имат достатъчно ум и техническите средства за почивка в различни видове закрила.
Подобна история беше с нападенията от 11 септември, когато стана ясно, че Холивуд филма не бяха фантастични видения и пророчества samosbyvayuschimisya. С други думи, културата е в състояние да направи много малко вероятно при сценарий важна цел.
Вероятността от използване на биологични оръжия и нейното разпределение във времето
Оценявам шансът, че биотехнологиите ще доведе до изчезване на човечеството (в момент, когато техните ефекти не са от всяка друга технология) в десетки процента. Тази оценка се базира на неизбежното много разпространено много евтини устройства, което позволява много лесно да се създаде широка гама от биологични агенти. Това е на еднакво разпространена bioprinterov сега е конвенционални компютри.
Изброяването на свойствата на опасните bioprintera (евтини minilaboratorAI) отново:
1) за неизбежност на възникването,
2) евтини,
3) широко разпространени,
4) uncontrollability на властта
5) възможността за разработване на иновативни bioagentov,
6) лекота на употреба,
7), породени от многообразието обекти
8) привлекателност като устройство за производство на оръжия (в духа на вируси отделни указания) и наркотици.
9) Способността да samoreplikatsAI ключовите елементи на базата на техния биологичен характер
Вярвам, че изделието отговаря на тези изисквания, ще се състои от конвенционален компютър, piratically разпространение програма с библиотека строителни блокове, а и биологичната част bioprintera, които ще бъдат генетично модифицирани живо същество, което е в състояние самостоятелно. (Плюс, набор от сравнително достъпни оборудване като плавателни съдове за химични Reactives и комуникационна система на биологични части с компютър.) Канал за разпространение на комплекта могат да бъдат наказателно общност, която произвежда наркотици. От компютри вече са налични, както и програмата, и себе си жива част от bioprintera можете да копирате без ограничения, цената на устройството на събирането ще бъде неограничен ниско, но атракция е висока, което прави много трудно за контрол.
Kustarno произведени bioprintery - не е единственият начин за създаване на биологична опасност. Същото нещо се случва и в разпространението на някои стандартни компактен minilaboratory за биосинтеза (като например ДНК synthesizers), или когато мрежата производство на биологични компоненти, които вече има място, където съставки са подредени в различни компании по света.
Вероятността от глобална катастрофа, включваща bioprinterov бързо ще се увеличи, както подобряването на такива устройства и тяхното разпространение. Това е, ние можем да опишат вероятността плътност под формата на кривата, който сега отговаря за малки, но тя не е нулева стойност, но след известно време ракетата до много големи размери. Интересно е, отколкото точната форма на кривата, и докато няма драстично увеличение.
Оценявам времето стойност от порядъка на 10-15 години от 2008 (2018-2023) години. (Независима оценка, дадени от Сър Мартин Райс, която през 2002 г. направи предложение на 1000 долара, че до 2020 там bioterrakt с милиони жертви, въпреки че очаква да загуби.) Тази прогноза се основава на анализ на промишлеността планира да намали разходите за пълно признаване на човешката ДНК - в този планове, до 2015 г. това признаване ще струват около $ 1000. Тези планове предложи на определен набор от обещаващите технологии и намаляване на разходите експоненциална крива, която постоянно наблюдава до момента. Ако до 2015 г., признаването, че ще струва толкова много, това би означавало, че ще бъде ключова технология за много бърз прочетете на ДНК, и може да се приеме, че същата технология ще бъде създаден за ниска цена на ДНК синтеза (всъщност представлява синтез лесно, и технологията вече съществува). Въз основа на тези технологии ще създаде библиотека на различни гени, които водят до взривни разбиране на принципите на организма, както е разработена от онова време, компютри могат да симулира ефекта от всякакви мутации. Заедно, това ще създаде, описани по-горе bioprinter. Каква е вероятността плътност на растеж отчитат, в моята оценка, по някое време през 2020 г., не означава, че сега не терористи не се развиват различно люпя много опасни вируси в различни лаборатории.
Вероятността от биотехнологиите, което ще доведе до глобална катастрофа могат да бъдат намалени, както следва:
1) Bioataku може да оцелее в приютите.
2) Първият е сериозен инцидент с изтичане на опасни биотехнологиите ще доведе до драконовски контрол, така че те ще се окажат достатъчни, за да се предотврати създаването или разпространението bioprintera.
3) AI и нанотехнологиите razovyutsya преди да се появи отново и се простира bioprinter.
4) ядрена война или други бедствия прекъсват развитието на биотехнологията.
5) Може да е, че биотехнологиите ще създаде нещо на универсална ваксина или изкуствени имунната система по-бързо от разпространението опасни minilaboratorAI.
За съжаление, там следва верига от неприятни отзиви, свързани със защитата на биологични оръжия. За най-добрия защита трябва да се подготвят най-големият възможен брой от първа класа, специалисти по вируси и ваксини, но повече такива специалисти в света, толкова по-вероятно, че една от тях ще «тероризъм».
Освен това, има известна вероятност от биологичен «зелени слуз", - това е, че някои универсални всеяден микроорганизми, способни на високи скорости дайджест на цялата биосфера. За да направите това, за да събере в едно микро свойства на разположение отделно в различни микроорганизми - способността за улавяне на слънчевата светлина, се стопи и усвояване на минерали, възпроизвежда в размер на чревния дръвчета, заразят своите копия на вируса, други клетки, и няколко други хора - и не се събират необходимата , И потенциално, под формата на ДНК последователност и механизмите на превключване между тях. Обикновено, този сценарий не е, както се, че микроорганизмите са вече постигнати абсолютно перфектен, а това означава, че ако «зелени слуз» би било възможно, то ще са вече появили. Все пак, преди да eukaryotes, също получи милиарди години и може би това sverhbakteriya също биха могли да се появят едва след десетки милиарди години на природните еволюция.
Въпреки това, пациенти може да е умишлено проектирани, че може би по невнимание - като средство за борба с отпадъци. Не е необходимо да комбинираме всички тези функции в едно вещество - едновременна атака от няколко типа на "зелена слуз» ще бъде безкрайно по-опасен. Смята се, че усилията за създаване на полезни култури, устойчиви на вредители, биха могли да доведат до «supersornyaka», може да измести по-голямата част от растенията на техните естествени екологични ниши. Това събитие е голям риск в създаването на генетично модифицирани продукти, а от това, което те ще бъдат неядливи. Последният е много по-лесно да се открие и предотврати.
Заключение: Има безброй начини да се прилага биотехнологии в ущърб на човечеството, и че мнозина все още предстои да бъдат обяснени. Въпреки, че всяко отделно приложение на биотехнологиите може да предотврати или ограничи неговото влияние, ниски разходи, личния живот и разпространението на тези технологии правят използването им обиден почти неизбежна. В допълнение, много от биологичните рискове могат да бъдат maloochevidnymi и държи с течение на времето, тъй като целият биологични науки на подобрението. Широко използване на биологични оръжия далеч по-опасна и много по-вероятно, в сравнение с класическите ядрена война.
Глава 5. Supernarkotik
Биотехнологии и проучване на мозъка по много начини, водещи до възможността за създаване supernarkotikov. Един от сценариите за в бъдеще разпространението на supernarkotika предложени Strugatskimi в романа «плячка позиции век", които мощно лекарство, което причинява 100% пристрастяване първи път е много лесно да създадете радио и някои други обществени компоненти, които пряко се отразява на удоволствието център в мозъка. Този сценарий включва нетен не е разпространението на някои вещества, както и разпространението на «знания за масово унищожение» - как неговата работа. От една страна, можем да кажем, че няма наркотици, не привлича цялото население на хора, защото винаги ще има хора, които отказват на принципа за него. От друга страна, ние можем да идентифицира няколко sverhnarkotikov възможно в бъдеще, като цяло смисъла от които е за спиране на правата на социалния живот. И човекът, който отказва клас на наркотици, може да Rush към друг. И в днешната реалност някой не пия алкохол, но «седи» кафе. Някой не гледам телевизия, но «пръчка» към Интернет.
Superstrong лекарства могат да бъдат като заразна болест, докато някои хора ще се стреми да зарази други, и тези - да не бъдат заразени. Тип supernarkotika:
1) Прякото влияние върху удоволствието центрове в мозъка. Има разработки за влиянието на използването на въртящи се магнитно поле (Persingera шлем, шлем Shakti), transkrinalnoy магнитна стимулация, електрическа стимулация на мозъчната дейност, модели, audiostimulyatsAI (binauralnye ритми), fotostimulyatsAI, биологични обратна връзка чрез устройства, които можете да прочетете encephalogram, като наскоро пуснати за neyroshlema компютърни игри.
2) Бъдещето на появата на mikrorobotov ще даде възможност за директна стимулация и четене на информацията от мозъка.
3) Bioinzhineriya да създадат генетично модифицирани растения, които ще създават никакви запитвания наркотици, и погледнете на това като обикновен кафе може цветя или гъби. Нещо повече, разпространението на тези растения може да не само физически, но и с помощта на ДНК кода на Интернет, така че крайният потребител ще може да расте тях на местно ниво чрез своите «ДНК принтер".
4) познаване на биологията ще ви помогне да много по-силно активни вещества с предварително определени свойства, както и с по-малко странични ефекти, като ги направи по-привлекателна.
5) Генно модифицирани организми, могат да бъдат интегрирани в човешкото тяло, за създаване на нови невронни пътека в мозъка с цел да се предизвика още по-голямо удоволствие. И докато намаляването на краткосрочните негативни ефекти върху здравето.
6) Виртуална реалност неизбежно ще предприеме една стъпка напред. Ние ще бъдем в състояние да записва своите мечти и да се повиши информираността на тях, идеята за съчетаване на източната съзерцателен практики и технологични възможности за използването им виртуална реалност с помощта на мозъчни импланти, може да създаде много по-ярък филм, отколкото съвременни филми и видео игри. Каски за виртуална реалност ще стане по-съвършен.
Очевидно е, че възможните комбинации на различните видове абсолютни наркотици, които само ще я засили.
Ние наричаме наркотик абсолютно някои, който е привлекателен за всеки, който е напълно нормална реалност и като го от тази реалност. Възможно е да се разделят с бърза и бавна абсолютен наркотик. Първата дава опит, за които хората готови да умрат, а вторият - нещо като нова реалност, която може да бъде дълго време там.
Бързо наркотици е глобална опасност, ако по някакъв механизъм на действие, предвиден механизъм за нейното разпространение. Така например, ако Каиф идва едва след като наркотик прехвърлят към друг трима души. В известен смисъл, този механизъм работи в наказателното банди трафиканти на наркотици (като например M31 бандата в САЩ), когато трябва да си наркоман podsazhivat приятели, за да ги продават наркотици, за да ви предоставим доза.
В разпространението на ниските абсолютни наркотици могат да бъдат представени в следния пример: Ако вашият любим роднина или необратимо остави във виртуалния свят, тогава да се превърне в източник на страдание е сравнима с неговата смърт, и единственият начин да се избегне тях също ще преминете към неговата сигурност, виртуален свят, където Можете да го достигне комуникира с, да речем, електронно копие.
В резултат на това, всеки ще бъде много забавно, далеч отвъд всякакви реалност. То може да е труден въпрос - степента, до която хората напълно и необратимо отишъл в прекрасна удоволствие и щастлива това трябва да бъде жива? И ако ние безрезервно да осъди някои примитивни «torchka», как трябва да се прилага по отношение на човек, който винаги е силно мир исторически реконструкции?
Трябва да сме наясно, че вредното въздействие на много наркотици не е очевидна и не могат да се появят много скоро. Така например, хероин и кокаин от дълго време, години, беше открита на продажбите, е лесно достъпен и LSD. Лекарствени interconnects терминалите на психологическа зависимост от подкрепления (т.е. забавно), но от гледна точка на еволюционни механизми за получаване на удоволствие не е реалистична цел на организма. Напротив, веществото трябва да останат неудовлетворени достатъчно, за да се стремим непрекъснато да получат нови територии. Абсолютни наркотици представлява възможност за следене дилема: човечеството като цяло престава да съществува, но всеки актьор види какво се е случило като личен рай и е много щастлив с това. Същества, прекарано и ползва виртуална реалност, нищо в замяна, са безполезни израстък в системата, които тя stryahnet в близко криза. Това е - един от начините, че абсолютна страст на наркотици може да доведе до глобално изчезване. На второ място, намаляването на интереса към външната реалност намали внимание на възможните бедствия и кризи.
Вероятността от поява supernarkotika е изключително високо, тъй като тя може да се постигне по много начини, а не само чрез успеха биотехнологиите, но също така и в нанотехнологиите, по-AI, както и от някои случайно изобретение, съчетаване на съществуващите технологии, както и поради огромното търсене. Вероятно и двамата ще действа в много различни supernarkotikov, създаване на кумулативния ефект.
Следователно, ние можем да очакваме, че тази вероятност, ще растат и ще растат по-бързо от която и да е от технологиите аванси, направени отделно. Тъй като ние предположи, че биотехнологиите ще даде силен резултат, както bioprintera след 10-15 години, това означава, че ние ще се supernarkotik първи път. Всички по-така, че механизмите за прилагане на supernarkotika може да бъде лесно, отколкото bioprinter. Без supernarkotika могат да бъдат много строга система на контрол или универсален дълбоко отстъпление в dotehnologicheskoe общество.
Изводи: Развитието на роботизираното производство ще направи безполезни хора, и ще изискват от тях нещо да предприеме. Supernarkotik е един начин на живот за да премахнете ненужните части на системата. Абсолютни наркотици не могат да носят името «наркотици» не е сходен с модерните стереотипи. Абсолютни на наркотици не е нещо, но ще бъде много фактори обективно работи за разделението на хората с изключване от действителността, както и намаляване на техния живот и способността да се възпроизвеждат. Абсолютни лекарства може да изглежда като абсолютен полза, и вреда въпрос, то може да зависи от гледната точка. В известен смисъл съвременната култура в Западна забавление страни с ниска раждаемост може вече да е прототип на такъв продукт. Въпреки това, абсолютни наркотици, не само по себе си може да унищожи всички човешки същества, защото винаги ще има групи, които са отказани го и продължи нормален живот, и, в крайна сметка, "естествено подбора» оставя само представителите на тези групи. В допълнение, абсолютно бавно наркотици актове на човешката общност за толкова дълги интервали, които могат да perekroyutsya бързо опасни процеси. Спийд е като биологичен абсолютни наркотици епидемия, и може да се countered от един и същи методи. Например, може да има биологични агенти, че вреди на човешкия капацитет за неограничен удоволствие (и вече е разработена за лечение на наркомани, например, разкъсване на някои невронни връзки), така че абсолютно наркотици, а по-скоро трябва да се разглежда като фактор, който отваря прозореца на уязвимостта на другите фактори за унищожаване.
Глава 6. Рисковете, свързани с samokopiruyuschimisya идеи (memami)
В книгата «егоист ген» Dokinz предложи концепцията за «memov» - идея, която може да възпроизведе, преминаващи от един човек към друг, така се държи, например, слуховете. Всяка област, където има са в състояние самостоятелно елементи, които могат да се отнасят за всички хора, е потенциално източник на глобални риск. Това meme, което би могло да доведе до смъртта на всички хора?
От една страна, имаме примери в историята на изключително опасна memov: радикална политическа теория и различни форми на религиозен фанатизъм. От друга страна, memu да се прилагат, ние се нуждаем от нови хора. И тъй като хората са вече налице много отдавна, ние можем да приемем, че няма такива опасни memov, които биха могли лесно да samozaroditsya и да унищожи всичко. Накрая, meme - това е само идея, и то не убиеш себе си. Малко вероятно е възможна идея, която ще се отрази на всички хора без изключение, и въздействието ще бъде фатално. Накрая, в обществото, е налице баланс на различните memov. От друга страна, опасни memy попадат под понятието «познания за масово унищожение", въведена Бил Dzhoem статия «Да имаме бъдеще".
Но в тази епоха намерени memy възможност съществува независимо от хората - в текстовете и компютърни програми. В модерната епоха samokopiruyuschiysya опасни meme да получите подкрепа от някои съоръжения. Очевидно е, че сега не мога да мисля за пример на mema наистина опасно, защото ако аз написах го тук, би било престъпно действие. Информация за това как да направят опасни sverhnarkotik би било толкова опасно memom.
И точно както в случая с биологичните оръжия е опасна не е един от особено болестотворен вирус, както и способност да произвеждат много различни щамове-бързо, отколкото те могат да бъдат защитени, и там може да бъде опасна нито една от meme, но че те ще бъдат толкова много, че те всички удавени защита. Например, изкуствен интелект могат да генерират опасни memy.
Списъкът е съществуващ memov, което донякъде опасно:
1) Заявления за изключителност на тяхната религия. AP Nazaretian вярва религии неизбежно присъщи собственост на нетолерантност към другите религии - най-важна заплаха за оцеляването на човечеството в XXI век. Той вярва, че религията като социална институция, допринася за обединяване на група от хора чрез омраза към друга група. Изход той вижда в създаването на светската система от цели, което разделя хората да не лоши и добри.
Също така, идеята за работа, свързани с национални и расови различия на хората.
2) познаване на производството на наркотици.
3) организация, в която основната цел е да се набират нови членове, например, секти или действащо U. С. Банда «M13".
4) Samosbyvayuschiesya пророчеството на бедствието. Поразителен пример за такова събитие би било официално информирано за неизбежност на глобална катастрофа в близко бъдеще. Така например, от сблъсък на Земята през годината с огромен asteroids. Дори ако съобщението е измислица, последиците от обявяването му щеше да бъде катастрофално. Повечето хора спряха да се ангажира с дългосрочен проект и обща работа. Някой би пръстен на религията, някой да извършат актове на насилие nemotivirovannogo зависими и т.н., в опит да се максимално удоволствие за останалите време. Последващите анархия щеше да направи невъзможно да се предотврати катастрофа, дори и ако имаше малко достойнство.
5) на определен модел на поведение, водещи до разпространението на опасни заболявания. Пример: neandertaltsev канибализъм, който може да причини тяхното изчезване от факта, че те zarazhalis причинява prions като «болестта луда крава", яденето мозъците на техните собствени. Или сексуалната революция, водещи до разпространението на ХИВ.
6) В необичайно големи и живи сънища, водещи до приемането им е до по-високи стандарти на риска и / или «даващи право» да убие много други хора. Така например, "Червен терор» оправдано от факта, че в крайна сметка, комунизъм, ще се възползват много повече хора. Нови технологии за откриване почти божествен човек, преди да е възможно, създавайки огромно изкушение да се избегне насърчаване на по-голям риск.
7) Мощният идеологическа система, като фашизъм.
Глава 7. Изкуствен интелект
Общо описание на проблема
Blue Мозъчен Проект Моделиране на мозъка на бозайници, обявени през есента на 2007 г. една успешна имитация kortikovoy колони мишка мозъка и е планирано създаването на пълен модел на човека мозъка, докато 2020 година. Докато преките симулиране на мозъка не е най-добрият начин за универсални изкуствен интелект, прогнозен напредък в тази област, приблизително съответства на очакваните темпове на развитие AI. Ник Bostrom, в своята статия «Какво е оставен за superintelligence?» Показва, че модерните технологии, водещи до създаването на изкуствен интелект, чувства човек, по време на първата трета от XXI век.
Компютър, Google е споменато няколко пъти по плановете за изкуствен интелект, и със сигурност разполагат с необходимите технически, информационни и финансови ресурси, за да направите това, ако изобщо е възможно при сегашното техническо ниво. Въпреки това, както показва опитът от предишни опити да се създаде некласифицирани AI (като компютри 5то поколение в Япония през 80-и) силно свързано с неуспех и може да предизвика специална загриженост, малко вероятно е за големи компании, заинтересовани широко рекламира своята работа в тази област преди Как те ще постигне конкретни резултати. Компанията Novamente заяви, че 50% от универсалната код вече е писано AI (70 000 реда код в C + +) и въпреки че изискват продължителни проучвания, проектиране на цялостната концепция. SIAI (необичайност институт за Изкуствен интелект) очерта плановете да се създаде програма, която може да презапишете вашия код. Компанията Numenta популяризира свой модел AI, основани на идеята за «Йерархични временна памет", и вече е достигнал нивото на демонстрационни продукти. Компанията Cycorp, Inc в проекта CYC събра огромна база данни от знания за нормални човешки свят, с други думи, относно общия смисъл (1 000 000 utterances) и вече разпространява продуктите демонстрация. То се очаква, че сливането на базовата с evristicheskim анализатор (т.е., програмата може да изпълнява логически операции на някои правила и да създадете нови правила, включително правилата промени в правилата) - могат да доведат до създаването на човешкото ниво изкуствен интелект. (Авторът Г. Lenat развита ранна евристичен анализатор «Evrisko", които през 1981 г. и 1982 г., спечели конкурса Пътнически СТК за управление на виртуални srazheniyami флота, получени по програмата са били забранени от участие в бъдещи конкурси, но тя е получила финансиране за интензивно DARPA. ) Фирма a2i2 обещания универсални човешки ниво изкуствен интелект до 2008 г. и твърди, че проектът се развива според плана. Също така за създаването на робот Asimo в Япония е програма за разработване на функционален модел AI от човека.
Силни резултати дава насоката на изследванията AI, наречен генетична програмиране. До момента в списъка на изобретения «хора на ниво", направени от компютри в изследването на генетичните Програмиране Inc, като се използва тази технология, включва 36 заглавия, от които 2 са изработени машини за първи път (включва квантовата протоколи на информация и схема radioelectronic различните устройства) и останалата Повторете вече патентована проекти. Отделно от посочените по-горе, има много университетски проекти, които да създадат AI. Обсъжданията са в ход, за да развият AI и Руската федерация. Например, компанията ABBYY (http://www.abbyy.ru/) разработи вид на естествен език, преводач, който може да бъде важна стъпка към човека на ниво изкуствен интелект. А основният проблем не е дори в това време, има толкова много проекти, най-малко един от тях ще успеят първи, но обемът на открития от различни страни на някакъв етап надхвърля критична маса, и в рамките на отрасъла ще бъде мощен скок.
Има различни мнения относно осъществимостта на изкуствения интелект. Смятам, че една силна универсална AI възможно. Това е и мнението на много водещи специалисти в тази област: Д. Yudkovski, Б. Herzl, Р. Kurtsvel и руски изследовател AL Shamisi. Защото хората имат естествена интелигентност, няма причина да пиша AI в зашеметяващ отваряне. Принципа на предпазливостта ни принуждава да се предположи, че Гай се е възможно.
Трябва да кажа, че работи, като се има предвид силната AI като евентуален глобален риск е много по-ниски, отколкото рискът от изчезване, свързани с ядрени оръжия. Основно, това е работа на E. Yudkovski. Подобна идея насърчава М. Omohundro статия «основния инстинкт AI", където той е показал, че всяка система AI с фиксирани цели с висока вероятност за развиващ се към опасно състояние, при което той ще бъде склонен да се защитават сами, разпределени за подобряване на собствените си код, да търсят на основата на гола (като удоволствието от хората), вместо на целите и цели да предпази системата си от промяна. Препоръчвам на всички преди да направи окончателно и непоклатим становище по отношение на това дали AI да бъде заплаха за човечеството, да четете вестника Д. Yudkovski «Изкуствен интелект като положителни и отрицателни фактори на риска глобален", които могат да бъдат намерени в Приложение 2.
Yudkovski показва, че може да се направи самостоятелно универсален AI, и че то е много опасно. Ако има много AI проекти (т.е., екипи от учени създаде универсална AI по различни начини и с различни цели), тогава най-малко един от тях може да бъде използвано за опит да се възползват от силата на Земята. А основната цел на това залавяне ще попречи на създаването и разпространението AI за вражески цели, създаден други проекти. При това, въпреки че еволюцията AI е изключително бавно, след преодоляване на някои «критична маса» може да отидем много бързо - това е, когато достига AI samouluchsheniya възможности. В момента ние не може да каже каква скорост ще такъв процес.
За да създадете AI изисква по-малко от достатъчно мощен компютър. Сега най-мощните компютри имат власт в продължение на около 1 petaflopa (10 плаваща точка операции в секунда). Според някои оценки, това е достатъчно да се съревновават на човешкия мозък и затова AI могат да работят по такъв платформа. Сега тези компютри са достъпни само за много големи организации за ограничено време. Но Закон на Мур предполага, че мощността на компютри ще се увеличи през 10 години на приблизително 100 пъти, т.е. мощността на настолен компютър ще нарасне до нивото teraflopa, и ще имат нужда само от 1000 настолни компютри, комбинирани в клъстер да набере необходимия 1 petaflop. Цената на тази единица ще бъде около един милион долара по текущи цени - размерът на разположение, дори и една малка организация. Това е достатъчно, за да осъзнаваш почти готови разработки в мулти (някои фирми вече предлагат чипове с 1024 процесори) и намаляване на размерите на силиция клетки.
Тогава, когато започва AI, той ще бъде в състояние да оптимизирате своя код, и по този начин функционират в един все по слаби машини - или да станат по-силни в същото машина. Веднага след като научава да печелите пари онлайн, той може да наема dokupat или просто повече власт, дори физически да се отстраняват от него. Така че, макар и достатъчно хардуер AI, там сега са над 10 години те стават лесно достъпни, ако не се случи всяко бедствие, задържащ развитието.
Най-труден момент за издаването на AI е алгоритмите на работата му. От една страна, не е имало разузнавателна информация в компютрите, ние все още не виждам - или не искате да видите, тъй като критериите се променят. От друга страна, напредъкът в алгоритмите е, и това е страхотно. Така например, разложението алгоритъм за факторинг номера подобрени по-бързо от компютри, това е, дори на много стар компютър, той дава нареждания на по-добри резултати, отколкото старите алгоритми в нови компютри. Тя може да се че някои иновативни идеи може да се опрости дизайна AI.
Ако AI възвърне способността самостоятелно, не се забави най-човешкото ниво, и то obgonit в хиляди и милиони пъти. Това сме видели в компютрите, където компютрите са най-бързо overtaken права, и дори на домашния компютър изчислява в trillions пъти по-бързо от обикновените хора. Под «силен AI» ще означава, AI, способна на много поръчки с магнитуд си права в скоростта и ефективността на мислене.
ПИ като универсална абсолютното оръжие
Силна AI могат да намерят най-доброто възможно решение на всеки проблем. Това означава, че не може да се използва за всякакви цели във външния свят. Той ще намери най-добрия начин да използват всички налични инструменти, за да го приложат и да се справят с управлението. Тя е в този смисъл, че е абсолютно оръжие. Как той може да бъде най-ефективното средство за убийството е просто една възможна последица. All Inclusive "е в състояние да реши всеки проблем, и е в състояние да създаде начин да се мотивират сами да дългосрочните цели за реализация на външния свят. В общи линии, AI-атака сценарий е както следва:
1. Създаване способни на самостоятелно AI (All Inclusive "Семена - това е, ембрион AI, минималната необходима програма за обучение и способни самостоятелно.)
2. Включването като програмисти някои цели, които могат да съдържат директна препратка към установяването на властта на Земята, и може да бъде неутрален по външен вид, но съдържат скрити неточност да се насърчи AI до неограничен растеж в духа на «изчисли числото Пи до максималния брой от цифри след десетичната точка» на всяка цена .
3. Латентна фаза на растеж, което подобрява тяхната AI, като се използват наличните ресурси на своите лаборатории, и да знаят по света използват интернет ресурси. (Ако в процеса на изпълнение на целите, изложени в неговата AI разбира, че си програмисти да възпрепятства реализацията че, например, може да го спрете, той намира начин да ги лъжем или да не се поддавам на техния контрол.)
4. Фаза скрити разпространяване на информация: AI улавя Интернет, dokupaet Компютърни мощност zabrasyvaet техните копия на отдалечени компютри.
5. Фаза на създаването на влияние върху външния свят - nanoassemblerov, подкупване на хората, овладяване на електронния контрол на устройството.
6. Атаката срещу съперник AI проекти (и всички други източници на риск за съществуването на AI), за да се отречеш от тях възможност да направи същото. Подобна атака биха могли да бъдат нелегални, например чрез въвеждане на грешки в кода. Важно е да се отбележи, че AI ще функционира covertly преди то да стане абсолютно сигурен.
7. Фаза AI изпълнението на основните задачи - за благото на човечеството да се трансформира в цялата слънчева система в гигантски компютър за изчисляване на броя PI.
Ясно е, че някои фази могат да се изпълняват едновременно, ние продължаваме да гледаме отделните компоненти на тази схема в детайли. Аз се подчертае, че не всеки AI ще последват този сценарий, но достатъчно, и то е този сценарий е особено опасно.
Системата цели
Основните проблеми след създаването AI е въпрос на цели, AI, или, с други думи, неговият «стил", поне по отношение на собствениците им. Ето два варианта: или хора, AI строго програмирана за някои цел или цел, той купи случайност в процеса на тяхното развитие. В първия случай, има razvilka: - Целта AI може да бъде опасно за всички човечеството, или 1. защото той създаде група от хора има някои деструктивни цели, или 2. защото в програмирането на целите AI го crept глоба за грешка, което води до постепенното излизане AI извън контрол. Дълъг списък на възможните грешки от този тип. Така например, AI може да поиска да се възползват всички хора, и научих, че след смъртта на хора, чакащи за рая, изпращане на всички тях там. Или се осигури безопасността на хората, забраняват им поемане на рискове и да не използвате произволен транспорт. Има SIAI препоръки за това как правилно да програмата на тежки AI по време на създаването си, но в крайна сметка този въпрос не е решен, и са налице съмнения, че той дори може да бъде решен, защото е невъзможно да се предскаже поведението на по-интелектуална система (т.е. AI) чрез използване на по-малко интелектуално (който там е мъж) ..
Борбата AI проекти помежду си
Вече е сред компаниите, работни AI, е трудно конкуренция за вниманието и на инвеститорите, както и за верността на идеите, че е по пътя си на универсална AI. Когато определена фирма ще създаде мощен първи AI, то ще бъде избор - или да я използва за контрол на всички останали AI-проекти в световен мащаб, а оттам и по света, или докаже на риск, че се конкурират в работата си с непознат глобални цели ще направи това в скоро - и покриване на първата фирма. «Предимство да атакува застрашени загуба на обезщетения". Това, обаче, необходимостта от избор не е тайна - тя вече беше обсъдено в пресата и ще бъде известно на всички компании, които идват да се създаде силна AI. Тя може да се че някои компании отказват в такива случаи се опитва да установи контрол над първия в света, но най-мощен и агресивен вероятно ще решите да го направите. Въпреки това, нуждата да атакува първо ще доведе до факта, че свободата ще бъде издаден под нормалния и nedorabotannye версия AI с неясни цели. Дори и в XIX век патентована по телефона почти едновременно в различни места, така че сега празното място между лидера и състезание за улов може да бъде дни или часа. Какво ;zhe тази празнина, толкова интензивен е борбата, защото определени проекти ще имат право да устоите. А може би предоставя възможност, когато една-AI Проектът ще имат контрол над ядрените и ракетни атаки други лабораторни проекти.
«Умни хора»
Съществуват предположения (Р. Penrose), че интуицията на човека се дължи на особената квантови процеси в човешкия мозък. Въпреки това, мощните алгоритми може да направи, без интуиция. Въпреки това, съществува възможност за заобикаляне на препятствие, че чрез създаване на генетично засилено човека, или модерни хора живеят в мозъка достъп до Интернет (т.нар neyroshunt). Има други начини за интегриране на неврони, живеещи с редовни компютъра, както и с квантови компютри. Дори и обикновените хора, въоръжени с компютър към Интернет, укрепва своя ум. В резултат на това силно AI могат да получат от srascheniya компютри и хора, които наследих, така че общата цел на човека, първо и преди всичко - необходимост за мощност. ИИ и его отдельные экземпляры

Когато е налице силна AI, той ще трябва да формират свои копия (вероятно намалява), за да ги изпратим в експедиции до други планети, или просто свалянето на други компютри. Съответно, тя ще ги осигури с някои система от цели и в "приятелски" или скоро подвластен отношения с него, както и система за разпознаване на «А-чужд". Неспазването на тази система, целите, би означавало, че копието на «води». Така например, самостоятелно биологично в противоречие с функциите на субординация опасни поръчки. Това може да отнеме много изтънчен вид, но, в крайна сметка да доведе до война между версиите на единен AI.
«Бунт» AI
Спонтанна въстание компютри изглежда доста, филмът излезе, като реална възможност, защото AI не желае, но хората не създават него. Въпреки това, някои видове AI, например, създаден чрез генетични алгоритми, е методът на създаването му са настроени за борба и оцеляване. Освен това, независимо от основната цел на AI, той ще има един общ за всички разновидности на под-цел - да оцелееш, и по този начин се предпазват от унищожаване. И най-добрата форма на защита - Атаката. Най-реална е опасността, че хората ще дам AI отбор, а не, че всички последици от неговото прилагане и да не оставя вратички да бъдат променени. (Например, както в вица, където хората казали на робота да се отстранят всички предмети около стаята - и той губи главата си.) Вероятността от спонтанно погрешни команди ниска - освен в случаите на генетични алгоритми.
Бързо Стартиране
По отношение на скоростта на развитие AI може да бъде три възможности: бърз старт, бавен старт, и много бавен старт.
«Бърз старт» - AI достигнали ниво на интелект, много поръчки с магнитуд чувства човек, след няколко часа или дни. За да направите това, поради започне верижна реакция, в която все увеличение на разузнаването предвижда увеличава възможностите за по-нататъшно увеличение. (Това вече се случва в областта на науката и технологиите, подкрепящи Мур на закона. И това изглежда като верижна реакция в реактора, където скоростта на възпроизвеждане повече неутрони 1.) В този случай, той почти сигурно obgonit всички други проекти, които да създадат AI. Неговият интелект ще бъде достатъчен, за да «се възползват от силата на Земята". При това, ние не може да каже какво точно ще изглежда като заложник, защото ние не можем да прогнозираме поведението на интелекта, нашите чувства. Възражението AI, че не искате да се показват само във външния свят, може да отхвърли с мотива, че ако много AI-AI проект или копия на програмата, най-малко един рано или късно ще се опита като средство за покоряване на света.
Важно е да се отбележи, че една успешна атака е силен AI е вероятно да се развива скрит, докато не стане необратимо. На теория, изкуствен интелект може да скрие тяхното владичество след атаката. С други думи, това е възможно, че тя вече има.
Сценарии «Бърз старт»
• AI улавя целия Интернет и самият обект на нейните ресурси. След това прониква във всички кабини на мрежата защитна стена. Сценарият призовава за прилагането на временни мерки за часове. Изземването се отнасят до правомощията да управляват всички машини в мрежата и са на техните собствени изчисления. Однако ещё до того ИИ может прочесть и обработать всю нужную ему информацию из Интернета.
• AI поръчки в лабораторията синтеза на някои ДНК код, който му позволява да създадете радио бактерии, които синтезират по силата на нейната администрация на всички по-сложни организми, и постепенно да се създаде nanorobota, които могат да бъдат използвани за други цели във външния свят - включително и въвеждането на други компютри, Мозъкът на хората и създаването на новата изчислителна мощ. По-подробно, този сценарий се разглежда в статията на Yudkovski AI. (Скорост: ден.)
• AI, участващи в общуването с хората и се превръща безкрайно ефективна манипулатор човешкото поведение. Всички хора правят точно това, което той иска AI. Настоящата Национална застъпничество са склонни да приличам на целите и дори достига, но в сравнение с AI ще бъде много по-силна, защото тя ще бъде в състояние да предложи всичко някаква сделка, от която той не можеше да откаже. Това ще обещая най-ценните желание, изнудване или скрито предложение.
• AI подлежи само на управление и използване на нейните канали за правителството. Живот в такова състояние може да има за какво да предизвестие. Или, обратното, държавата използва изкуствен интелект, са вече до него.
• AI предмет самата армия управлява по електронен път. Така например, борбата с роботи или ракети (сценария от филма «Терминатор").
• AI е принципно нов начин за повлияване на човешкото съзнание (memy, pheromones, електромагнитните полета) и се прилага от самия него или разпространява контрола над нея.
• последователно или паралелно Nekaya комбинация от посочените по-горе методи.
Бавната започнете и борбата между различните AI
В случай на «бавно скрипт» растеж AI взех месеци и години, а това означава, че най-вероятно, тя ще се появи едновременно в няколко лаборатории по света. В резултат на това, съществува конкуренция между различните-AI проекта. Това е борбата с AI с няколко различни системи за целите на владеят над Земята. Тази борба може да бъде въоръжен и расова принадлежност по това време. При това, той ще получава ползи от тези проекти, със системата, чиито цели не са ограничени от морална рамка. Всъщност, ние сме в центъра на война между различните типове на изкуствен интелект. То е ясно, че такъв сценарий е смъртоносна за човечеството. В случай на sverhmedlennogo скрипта за създаване AI по същото време наближава, хиляди лаборатории и мощни компютри, които не могат да дадат предимство на всеки проект, така и между тях да определи баланса. Но тук също може воюва за изчислителни ресурси и изхабяване в полза на най-успешните и агресивни проекти.
Можете също така се борят членки, тъй като древни форми на организация използва хората като отделни елементи, а новите AI, като се използва като медиен Komputer. И макар че съм сигурен, че държавата ще загуби, борбата може да бъде кратка и кървава. Една екзотична опция, можете да изпратите случай, че някои държави са управлявани от компютъра AI, а други - обичайния начин. Опция такова устройство - известен фантастика от автоматизирана система за публична администрация (ASGU в рок опера Виктор Argonova «2032» година).
Плавен преход. Кадри състоянието, в общия контрол AI
И накрая, има сценарий, по който глобалната система като цяло постепенно се превръща в изкуствен интелект. Това може да бъде свързана със създаването на Световната oruellovskogo-членка на общия контрол, който ще бъде необходимо за успешна контра биотероризъм. Този свят, в който всяка стъпка се контролира от граждани на камери и всички видове системи за проследяване, както и тази информация е помпено в една гигантска база данни и анализират. По принцип, човечеството сякаш се движи по този път, както и технически за това са прави. Характерът на тази система е, че той първоначално беше разпределен, а някои хора следват своите интереси, или инструкциите са единствените съоръжения в тази гигантска машина. На държавата като хладен машина е описан в литературата, в това число дори и Карл Маркс, бивш Хобс. Има и интересна теория Lazarchuka и Lelika на «Golem» и «Leviafanah» - на avtonomizatsAI системи, състоящи се от отделни хора в колите с техните собствени цели. Въпреки това, съвсем наскоро по света обществената система се превърна не просто една машина, но с изкуствен интелект, способни самостоятелно значимо подобрение.
Основната пречка за развитието на тази система - този държавно-членки с техните национални армии. Създаването на света правителство би улеснило образуването на такава единна AI. До момента, обаче, че съществува остра борба между държавите относно начините, по чиито условия за съвместяване на планетата. Както и за борба срещу силите, които са традиционно наречени «против», и други елементи на анти - ислямисти, радикални природозащитници, separatists и националисти. Войната за уеднаквяване на планетата неизбежно ще е свят и възможната употреба на «оръжие sudnogo на деня» онези, които са загубени. Но може и спокойстви глобалната интеграция чрез система от договори.
В опасност, обаче, е, че глобалната машина в световен мащаб ще измести хора от различни сфери на живота, най-малкото икономически - лишават ги от работа и консумиращи ресурси, които иначе биха могли да прекараме хора (например, 2006-2007 храна в света се е увеличил с 20 на сто, в частност, в резултат на преминаване към биогорива). В смисъл, хората няма да имат избор освен «гледам телевизия и да пие бира". На тази опасност предупреждава Бил Джой, в известната си статия «Защо ние не искам бъдеще".
Тъй като индустриална автоматизация и контрол, хората са по-малко ще са необходими за живота. Човешката агресия, тя може да бъдат неутрализирани системи за контрол и генетична манипулация. Накрая, хората ще бъдат сведени до ролята на домашен любимец. По този начин, за да се вземат хора, те постепенно ще стават все по-жива и приятен «матрица", който постепенно се превърна в sverhnarkotik, отделителна хората от живота. Но хората тук са в непрекъсната zalezut «виртуална реалност", защото в нормална реалност, те ще направи нищо (до известна степен, тази роля се изпълнява TV за безработни и пенсионери). Естественият инстинкт на живот ще насърчи някои хора се стремят да унищожат цялата система, което, отново, глобалните катастрофи или унищожаване на хора.
Важно е да се отбележи, че - от когото е първият силен изкуствен интелект, той ще носи отпечатък на целите и ценностите на тази група от хора, тъй като системата сама ще изглежда за тях единственото право един. За някои, чиято основна цел ще бъде в полза на всички хора, за други - в полза на всички живеещи неща, за трети - просто всеки един от верните мюсюлмани, за четвъртата - добри само за три програмисти, които създадох това. И много представа за естеството на обезщетенията също ще бъде много различен. В този смисъл, в момента на създаването на първите големи AI е моментът на вилица с много голям брой опции.
       «Бунт» Robot
Там все още е опасен сценарий, в който в световен мащаб разпространени у дома, военни и промишлени роботи, и тогава те всички бяха удари с компютър вирус, който ги настройва агресивно поведение срещу лице. Всичко ще се изправят най-малко веднъж в ситуация, когато вирусът повредени данните на вашия компютър. Въпреки това, този сценарий е възможно само в «прозореца на уязвимост", които вече са механизмите, които могат да работят във външния свят, но все още не е достатъчно напреднал изкуствен интелект, което би могло да ги защити, или от вируси, или себе си изпълняват функцията на вируса, вземайки ги от доста време.
Има сценарий, където в бъдеще, компютърен вирус разпространение в Интернет, установяване nanofabriki цял свят и е масивна инфекции. Nanofabriki те могат да създават други nanorobotov както и отрови, вируси или наркотици.
Друг вариант - бунт армия от роботи. Армията индустриализираните нации имат за цел да автоматизира напълно. Когато се постигне, огромна армия, състояща се от drones, колесни и сервизни роботи режим може да преместите, просто povinuyas заповеди на председателя. (Тя е вече почти напълно автоматични армия е стратегически ядрени сили.) Следователно, налице е възможност, която ще направи грешен ред и че армията ще атака на всички хора в поредица. Имайте предвид, че този сценарий не се нуждае от универсалната superintelligence и обратно, за да гарантира, че универсалната superintelligence завладяха земята, той не се нуждае от армия от роботи.
Контролът и възможността за изтребление
От какво AI взеха контрол над Земята, не е задължително да следваш, че той веднага реши да изтребва хората. (Въпреки че значителна загуба на човешки живот е възможно в процеса на проверка.) Накрая, хората живеят в рамките на тази безкрайна добър от тях в техния мащаб, ресурси и цели, и дори не го възприемат като неправилна.
Следователно, тя може да бъде, че на Земята AI подкрепя цел предотвратяване на глобалните рискове и ангажирани в развитието на вселената. Може би това е нашият най-добрия вариант. Въпреки това, ние обсъждахме най-реални възможности. Например:
• Криво програмирани AI унищожи хората, за тяхно добро - е изпратено до небето, свързани с supernarkotiku, забраната по-сигурни клетки, което ще замени хора в снимки на усмихнати хора.
• AI ще плюе върху хората, но хората са постоянно с него да се бори, затова лесно да ги погуби.
• AI ще трябва земните ресурси и ще трябва да похарчите, което прави живота на хората невъзможна. Това може да се появят и под формата на постепенно изместване в духа на "фехтовка". (Но, в космоса и земята на вътрешните работи, ние вярваме, далеч повече средства от земната повърхност, и че те биха могли да развият AI.)
• AI ще служи само една малка група от хора или на един човек (може би вече са изтеглили към компютър), и те решават да се отървеш от хора или преустроени всички хора в техния lekalam.
• AI се провали и "хайде да се има предвид".
• AI решен в риск от физически експеримент.
• Някои AI otkoletsya парче от нея и отидете до него от войната. Или ще се срещнем в космоса AI противник.
• AI, само за да се предотврати появата на изкуствен интелект фирми, но няма да пречат на хората да убият само чрез използване на биологични оръжия и други средства.
Хора убити neandertaltsev, защото това са техните преки конкуренти, но не търсят най-вече за унищожаване на chimpanzees и малки примати. Така че имаме доста добри шансове да оцелее в Ravnodushnom AI, но животът не е пълен с него - това е, че няма да упражни всички възможности, които хората биха могли да се постигне, ако те са верни и са създали наистина приятелски AI.
Гай и държавата
All Inclusive "е абсолютен оръжие, силата, която все още се подценява членки - доколкото ние знаем. (Все пак, доста успешен проект Evrisko началото на 80 на получена финансова подкрепа за DARPA.) Но идеята за нанотехнологиите вече е попаднала в съзнанието на владетелите на много страни, както и идеята за силна AI не е далеч от него. Поради това е възможно най-решителна ред, когато държавата и големите корпорации, осъзнавам, че AI - е абсолютно оръжие - и те могат да получат някой друг. Тогава малка частна лаборатория ще podmyaty големи публични корпорации, както се случи след откриването на верижна реакция на уран. Имайте предвид, че е налице проект за разработване на DARPA AI, но той е поставен като отворен и намира на ранен етап. Въпреки това е възможно, че са налице силни AI проекти, които ние не знаем нищо повече от обикновени граждани знаят за проекта Манхатън по време на Втората световна война.
Друг вариант - една малка група от талантливи хора създават AI преди правителство ще се изпълнява стойност и, освен това, че опасността, произтичащи от AI. Все пак AI създадена отделна държава ще са национални, а не универсален. Ако AI атака ще бъдат неуспешни, може да стане причина за война между страните.
Вероятността от възникването на бедствието, свързани AI
Вероятността от глобална катастрофа, свързани AI, е продукт на вероятността, че някога ще се установи и че тя ще се прилага някои грешен начин. Вярвам, че един или друг начин силен AI ще бъде създадена през XXI век, освен ако не друго бедствие няма да се забавят технологичното развитие. Дори ако се опита да изгради AI, с помощта на компютри не успеят, там винаги е спешно опция: а именно, - успех в сканиране на мозъка, ще му помогне създавате електронни копия, и напредъкът в генетиката - да се създадат генетично засилено човешкия мозък. Електронни копия на нормалната мозъчна ще могат да работят един милион пъти по-бързо, но ако те са копия на високо обучени гений и правото на мозъци, и те ще се присъединяват хиляди във виртуална НОИ, а след това евентуално ще вземем още разузнаване, един милион пъти чувствате в количествено и качествено човек.
Тогава има няколко временни стадиона, където AI могат да бъдат опасни. Началната фаза:
1) В момента, в първия час: рискът от неконтролирано развитие и разпространение.
2) Когато собственикът е бил първият AI осъзнава своите предимства, които могат да я използват като оръжие за абсолютно всички цели на Земята. (Може да бъде собственик на AI и държавата, и големи корпорации, макар че в крайна сметка - едно или повече лица.) Макар че тези цели могат да бъдат добри поне за някои хора, налице е риск, че Ал ще се покажат неправилно поведение в процеса на разпространение на на Земята, докато в лабораторията, той държи перфектно.
3) В момента, когато собственикът на AI е знаело, че дори ако той не прави нищо, някой скоро ще създаде свой изкуствен интелект и може да я използва за постигане на други цели на Земята, първо и преди всичко - да лишава собственикът на нашата способност да използва своите AI в пълен сила. Това подсказва AI създаден първият опит да се спрат други проекти AI. Това е дилема: да се използват повече суров AI или пропуснат. Това създава риск от unreconciled на системата цели.
4) На следващата фаза на риск - в борбата между няколко AI за контрол на Земята. Рисковете, които ще бъдат доста различни оръжия, които ще се отрази на хората.
Ясно е, че всички начална фаза, може да се настаните в няколко дни. Фаза на функциониране:
5) На този етап основният риск е, че системата цели AI съдържа нещо не е очевидна грешка, която може да настъпи неочакван начин, след много години. (Виж текста на «критични грешки приятелски Таблица AI» Yudkovski.) Това може да се появи веднага или при внезапна повреда, или постепенно, в определен процес, постепенно vymyvayuschego хората от живота (като sverhnarkotika и безработица).
Сега ние не можем да се измери риска на всеки етап, но е ясно, че той не е сто процента, но значимо, за да я взимат категорията на «10 процентни» рискове. От друга страна, създаването на ефективна AI драстично намалява всички други глобални рискове, защото може да се намерят решения, свързани с проблемите. Следователно, реалният принос AI възможните рискове в картината може да бъде отрицателен - това е, че намалява общото създаване на глобален риск.
Други рискове, свързани с компютри
Тези рискове, свързани с факта, че някои жизненоважни компютърна мрежа престане да изпълнява функциите си, или мрежа, с достъп до опасни ресурси, дава някакъв опасен отбор. В момента Компютризация на Земята все още не е достигнало ниво, че самото съществуване на хората зависи от правилното функциониране на една компютърна мрежа, но някои сложни системи, като космическа станция ISS, многократно е бил заплашен със смърт, спешна евакуация заради повреда в жизнените компютри . Въпреки това, нивото на компютъризация на жизнените и опасни производства е стабилно нараства, докато живее в съвременния град е все физически невъзможно без непрекъсната емисия на някои ресурси, особено на електроенергия, което е контролирано от компютри.
От друга страна, компютърни мрежи, чиито погрешното поведение може да стартира опасен процес, който вече съществува. На първо място сега се отнася към системи, контрол на ядрените оръжия. Все пак, когато има био и нано принтери, управлявани от, съответно, чрез компютрите и е достъпна чрез, положението ще стане много по-опасно. Също така, положението става опасно, когато навсякъде ще бъдат разпределени компютърни контролирани роботи, като домашни прислужници или играчки, както и автоматизирани реална армия.
Растежът на световната популация ще изисква все по сложна система за самоконтрол подкрепа. Можете да осигури отглеждането система, все по-зависима от продължително управление: село - град - на небостъргач - самолетът - THE космическа станция. Очевидно е, че една голяма част от цивилизацията преместен в този мащаб.
Компютърни системи са опасни, в смисъл на глобалните катастрофи че може да бъде земята, която могат да бъдат неограничен samoreplikatsiya (вирус), както и факта, че те имат достъп навсякъде по света. В допълнение, компютърът не само са уязвими на вируси, но не и очевидни грешки в софтуер, алгоритми и тяхната реализация. В заключение може да съществува такъв процес като спонтанна промяна в сложна система, описана от Synergetics.
Време на поява AI
Има оценки, които показват, че компютрите получат сила, необходима за AI, в годините 2020-2030. Това е грубо в съответствие с прогнозите даден момент за появата на опасни биотехнологията. Однако здесь есть гораздо больший элемент неопределённости – если поступательный прогресс в биотехнологии очевиден, и каждый его этап можно отслеживать по научным публикациям, соответственно, измеряя степень риска, то возникновение ИИ связано не столько с накоплением неких количественных характеристик, сколько, возможно, с неким качественным високосна. Тъй като ние не знаем кога ще настоящата високосна, и дали това се отразява на кривата на възможностите pogodovoy плътност огнище AI, силно razmazyvaya него. Независимо от това, AI степен зависи от натрупване на идеи и достъп до ресурси, тази крива ще бъде експоненциално в природата.
Моята оценка, съобразени с мнението Vindzha, Bostrom и други predskazateley AI, е, че силната универсална AI ще бъде създадена през известно време от сега до 2040 година, и, най-вероятно в периода между 2020 г. и 2030 година. Тази оценка се базира на екстраполиране на сегашните тенденции в растежа на производителността суперкалкулатори. Тя също така потвърждава посоката на развитие на човешкия мозък сканираща технология, която също ще AI, ако не бъде в състояние да направят това на базата на теоретично моделиране.
Въпреки това, поради несигурност в AI-голяма, отколкото в биотехнологията, вероятността от създаване в близко бъдеще, през следващите 10 години, по-голям, отколкото вероятността от създаване на bioprintera. С някои вероятност тя може да бъде дори и утре. Предотвратяване на появата на изкуствен интелект може да:
• Система за контрол (но, от своя страна, е малко вероятно да бъде ефективно, без AI)
• Светът спре технологичния прогрес
• теоретични трудности по пътя.
Изводи: Рисковете, които носи със себе си и разработването на технологии AI, много големи и систематично да се подценява. Тази област е много по-непредсказуеми, отколкото дори и биотехнологията. Въпреки това, Ал вероятно е най-доброто за защита от различни опасности. Време е възможно узряването силна AI, като е възможно времето на зреене силна и достъпни биологични оръжия - за 10 години от сега, и тези процеси са относително независими един на друг. Може би те ще се срещнат.
Глава 8. Рисковете, свързани с роботи и нанотехнологиите
Думата «нанотехнологиите» В последните няколко години са били толкова банален, който беше причината алергии. От една страна, то е Навяхнах, че те стават известни като колоиден разтвор, но от друга - се е разпространил схващането, че нанотехнологиите - това е просто начин да пере пари. Има дори и недвижими имоти, използвайки своето име префикс «Нано". Следователно, важно е да се припомни, че идеята за нанотехнологиите е идеята за молекулярно производство, което е за изграждане на атомна материални обекти чрез микроскопични манипулатори, наречен Събрание.
В действителност, те асемблер молекулно още не е там, и мнозина са изразили съмнения относно тяхната целесъобразност. Nanoassembler, идеята е робот микроскопския, размера на жива клетка, може да събира по програмата на физически обекти, атом за атом. Нейната основна функция е, че не може теоретично, ако енергия и суровини, съставяне на собствения си копие, със сравнително бързо, тъй като около 15 минути, според някои оценки. Това позволява получаването на поне един nanorobota, възпроизвежда ги в неограничени количества и след това изпратени да изпълняват определени задачи. Перспективите са отварянето на огромна: например, да хвърлят един часа nanorobota в разтвор с хранителни вещества, могат да растат в продължение на няколко дни в двигател за космически ракети без нито едно атомно недостатък, и поради това изключително висока трайност и надеждност, Тракшън контрол и маси. Въпреки това, на разходите за производство само на най-питателна разтвор и енергетиката. Което, в случай на такава технология, също има podesheveyut. Nanoroboty въведени в кръвта на човешкото тяло, могат да се определят всички я повреди по клетъчна ниво. И така нататък.
Най-важното нещо против nanorobotov - е, че всички тези фантастични възможности да се превърне в реалност, това е достатъчно, за да направят цяло е само една универсална radiupravlyaemogo nanorobota. Това е развитието на нанотехнологиите, рано или късно вероятно ще стане голям пробив или скок nanotehnologicheskaya вид странност: до nanorobota нанотехнологиите ще бъде много разходи промишленост с ниско влияние, и след - рог на изобилието За да започнете да цитирам няколко факти, явно с предния край на науката, както ние понякога не осъзнаваш колко е далеч имаме дойде. 9-ти брой на списанието през 2007 г. "В света на науката» обявено създаването на молекулно дизайн, който позволява само на няколко пресечки от изграждането на стандарта «nanoskopicheskie структура на почти всякаква форма". През декември 2007 г. публикува 400-те страници на «Пътна карта за развитие на нанотехнологиите", който е работил по много учени са наясно, под егидата на DARPA. Преди първия nanorobotov (име, че «Atomically точна продуктивното наносистемите» - nanosistemy да се позволи производството на atomarnoy точност), в съответствие с тази карта е от 10 до 25 години.
Основната опасност във връзка с разпространението на нанотехнологиите се смята nanotehnologicheskoy «слуз Грей", който е самостоятелно микроскопични роботи. Основните характеристики са:
1. В картинка.
2. Възможността за независимо.
3. Възможността за самостоятелно разпределение навсякъде по света.
4. Способността да invisibly и ефективно унищожават krupnorazmernuyu оборудване и живите организми.
5. Анонимност.
6. Евтин.
7. Автономията на права (войник).
Грей слуз и въз основа на неговите nanotehnologicheskoe оръжия е крайния израз на принципите, които се обединят всички заедно. Въпреки това, не е задължително да се въвеждат всички тези общи принципи да се опасно и ефективно оръжие - достатъчно, за да осъзнавам някои. Различни комбинации на тези принципи предвиждат различни видове robotehnicheskogo оръжия. Разгледаме първо на опасни роботи.
Робот-дозатор
Основният проблем с биологични и химически отрови - това е трудността на техните анонимни ефективното разсейване. Тази задача може да бъде решен миниатюрен робот големината на птиците (например, самолети). Много от тези роботи може да бъде бързо и invisibly «opylit» огромна територия.
Самостоятелно робот.
Въпреки че е повярвал, че необходимостта от ефективно самоуправление молекулно нанотехнологиите, възможно е, че това не е така. След това, че е makrorazmerny робот може да възпроизвежда, и употребата на естествената енергия и материали. Това може да има две фази и използването на роботи и роботизирани матката войните, които тя произвежда, но я обслужват. Създаването на авточасти привлекателни робот, който ви позволява бързо и евтино създаване на огромна войска и да разгърне мащабна продукция, особено в пространството, където е скъпо да изпращат готовите продукти. Рискът от загуба на контрол над система, способна независимо. Важно е да се подчертае, че това не е универсална силен изкуствен интелект, а по-скоро на система за контрол, с ограничен интелект, неспособна на самостоятелно подобрение. Големите размери и neintellektualnost направи още по-уязвими, а намаляването на размера, увеличаване на скоростта на размножаване и повишаване на интелектуалност - по-опасно. Класически пример за такава заплаха в биологичния свят - скакалци. То може да бъде, че такъв робот ще съдържа биологични елементи, тъй като те бързо ще абсорбират вещества от околната среда.
Роя mikrorobotov
Такива mikroroboty биха могли да възникнат като оръжие в големи заводи, като модерна фабрика за производство на чипове, а дори и като се използва същата технология - литография теоретично позволява движимо части, като например малки махали. Когато масата на тези mikroroboty няколко милиграма може свободно да плава в атмосферата. Всеки робот може да съдържат достатъчно отрова да убие човек или близък контакт в електрическата уреда. Да атакува всички хора на Земята се само няколко десетки тона на роботи. Ако, обаче, те ще бъдат на технологията и цените на съвременните чипове, тази цифра ще струват милиарди долари.
Армията голяма борба с роботи, които излизаха от контрол
Въпреки че американската армия определено е насочена към пълна автоматизация и роботи за замяна на хора, докато тази цел не е още по-малко от десет години и вероятно значително повече. Както казах, по теория, нещо като роботи армията биха могли да вземем грешно ред, и да започне да атакува целия живот, докато станат недостъпни за отмяна команди. За да се превърне в реална заплаха, тя трябва да е по света, разпространявани в Земята огромна армия, което няма конкуренти.
Nanotehnologicheskoe оръжия
Нанотехнологии могат да създават много ефективно оръжие, което може да унищожи всички човешки същества, дори и без неограничен независимо от оръжия. Приблизително казано, опаковката nanorobotov биха могли да се разпространят някои области - или в целия свят - да се намерят всички хора в нея, се придържаме към тях, за да влязат в кръвта и след това синхронно да подтикне фатален удар. Тази банда слепи опасни биологични оръжия, тъй като не действат срещу quarantines и не може да бъде установено, че не nanotehnologicheskim средства преди атаката. И там не е празно, за да разсея копия. Ето защо, до 10 милиарда хора с достатъчно запаси от 100 милиарда nanorobotov агрегат с тегло няколко грама.
Освен това, ако роботика ще нараства линейно, без бона скок - скок, който е възможно само в случай на superstrong изкуствен интелект - междинния етап ще включва универсален автономни роботи са по-малки. Сега вече можете да видите началната фаза на процеса. Дори и най-голямата система не е напълно автономен, въпреки че вече androidy в състояние да изпълнява прости работни места и леки коли, яздиш сам на обикновен път. Там са по-примитивни средства, с минимално тегло от няколко грама (за пример, малки vertoletiki) и експериментални модели на отделните части. При това, скоростта на напредъка в тази област е много висока. Ако през 2003 г. по-голямата част от автономни превозни средства не могат да започват от пода, а после през 2007 г. те са изпълнили задачата за шофиране в града пресечките.
Следователно, ние можем да кажем, че докато nanorobotov ще има няколко етапа. Това - на автономните машини, танкове, самостоятелно androidy (размерът на човека или куче), автономни роботи размера на плъхове, насекоми, в mikroroboty на мм и nanoroboty. Важно е да се определи какъв етап от такива роботи могат да бъдат опасни за човечеството. Ясно е, че дори самостоятелно резервоари не са опасни. Въпреки това, по-голяма опасност расте, толкова повече и по-малко от тези роботи могат да изпълняват, както и лесно, отколкото се разпростира по целия свят. Това е възможно, доколкото това е намаляването на техния размер и автоматизация на производствените технологии, особено самата технология. Ако mikrorobotov размер от комар може да бъде удар за няколко цента на глава, те ще имат сериозен ефект. В класическия роман «непобедим» становище Stanislaw лунния «nanoroboty» имате няколко милиметра по размер, но са способни да организират сами в сложни структури. Тогава, по-скоро, във връзка с разширението на евтини китайски труд, второ място отиде от факта, че дори и обикновени размери роботи биха могли да участват в производството само поради увеличаващата се автоматизация на производството в завода. Процесът е постепенен, но той също може да има драматично свиване експоненциално точката, където приносът на роботи в своята собствена продукция ще превиши приноса на хората. Това значително ще намали разходите по производството, и по този начин да се увеличи вероятността за създаване на
Войските на летливи mikrorobotov. Едно възможно производствени технологии mikrorobotov - Печатни тях като чипс в литографски процес на офорт с движещи се части.
Взаимно хит от тези армии може nanorobotov до катастрофални последствия след размяната на ядрени удари. Повярвайте, че е трудно, тъй като трудно да мисля, че нещо много малко могат да причинят огромни щети. (Въпреки че развитието на технологичната еволюция е да се отстрани, че малките оръжия са по-разрушителна сила и атомната бомба, също в тази серия.) Шок mikrorobotami не може да бъде като грандиозно като експлозията на една и съща общност за атомна бомба, но тя може да бъде резултат от перфектно Неутронна бомба в духа на «школа стои, и там никого".
Mikroroboty може да се използва като тактическо оръжие, и тогава те ще се борят един с друг и контрол и като оръжие за сплашване и отмъщение, какви са функциите сега извършват стратегически ядрени сили. Той беше в това си качество, те могат да бъдат заплаха за цялото човечество, в случай на случайно или умишлено използване. При това, mikroroboty надвишава стратегически ядрени сили - те могат да организират по-invisibly пристъп, внезапно, по-анонимен, по-евтини, и причинява повече вреда. Вярно, те лишен от развлечения, които биха могли да отслабят своите психологически ефект - до първата реална военна употреба.
Неограничено разпространение на самоопределение nanorobotov
Възможността, че този риск е показан за първи път Drechsler и проучена в член Р. Freitas «Издаването на Грей слуз". По отношение на nanorobotov, както и AI, е трудно да се оцени вероятността за тяхната поява и разпространение, защото те все още не. Но nanorobotov е прецедент в биологията, а именно самата жива клетка е един вид nanorobotom. Протеини са samosobirayuschimisya универсален механизъм на ДНК - хост компютъра. В този смисъл, и изкуствения интелект е прецедент в смисъл на човешкия дух и света на науката като начин sverhrazuma. Yudkovski подсказва, че ни разделя от nanorobota не е време или липсата на някои междинни етапи, но липсата на знания. Това е, че разполагат с достатъчно знания, бихме могли да събират ДНК-последователност, в изпълнение на клетките да се формира nanoassembler - роботи, които могат да събират други роботи, и по този начин в състояние самостоятелно. Повечето говорят за nanofabrikah - тоест, някои растения, които могат да създавате произволен строеж на атомите и молекулите. Все пак nanofabrika и nanoassembler са взаимозаменяеми, тъй като универсална nanofabrike да създавате nanoassembler и обратното.
От една страна, на идеята, че всяко начало ще nanofabrika микровълнова, произвеждащи всичко, тя се нуждае, изглежда красива, но от друга страна, той изисква прилагането на защитни мерки, повече отколкото, ако го бяха ядрени реактори у дома. Разработеният система за закрила вече се предлагат, и те включат непрекъснато nanofabriki криптирана връзка с мрежата, и сложни nanofabriki самостоятелно. Но уви, всички опити да се създаде напълно сигурни електронни, оптични дискове, файловете не са успели. Мисля, че причината за това е, че броят на "мозъци" на страната на хакери много повече, отколкото от страна на производителя, както и лесна задача за хакери - не осигуряват всички възможни слаби места и да намерят най-малко един от тях. В разпространението на различните системи на изкуствения интелект също ще прави селекцията на ключовите достъп nanofabrikam-лесно.
Ерик Drechsler оценява необходимият брой атоми в nanorobote-репликатор, който ще представлява нещо като minizavoda с транспортни ленти и микро-машините в една милиарда. Всеки машинист ще бъде в състояние най-малко на един милион операции в секунда, което е типично за скоростта на ензим. Тогава той ще може да монтирам устройството на един милиард атома за 1000 секунди - това е да се събере себе си. Изпитание за този номер е, че някои бактерии могат да споделят със скорост на всеки 15 минути, това е един и същ 1000 секунди. Подобни роботи могат да репликатор за 1 ден да възпроизвежда масата на 1 тон, и напълно погълнат от масата на Земята за 2 дни. Бедствие от този вид се нарича «Грей слуз". Във връзка с smallness на nanorobotov през първия ден на критични този процес няма да има външни прояви, докато trillions nanorobotov се разпръскват от вятъра намира на Земята. Само пряко засегнати от ядрена бомба в центъра на разпространение в Първата ден би могъл да помогне. Има предложение да се направи репликатор не успя да възпроизвежда в външната среда, в която не е от решаващо значение на някои много редки химически елемент. За повече информация вижте статията споменати Р. Freytesa «Проблемът с Грей слуз", които разглеждат различни сценарии за разпространение на опасни nanorobotov и защитни Ответните. Freitas nanoroboty каза, че ще бъде създадена, за да интензивно топлината в процеса на възпроизвеждане, така че е важно да се следи за околна среда за чуждите температура аномалии. В допълнение, се умножи nanoroboty ще изискват енергия и материали, както и източник на двамата е единственият биомаса.
Р. Freitas Акценти в няколко възможни сценария, Грей слуз:
• «Грей планктон» - nanoroboty умножаване в океана и ползващи ресурсите на метан от хидрати на дъното. Те могат да унищожат морската биосфера и водят до развитието на парникови газове в атмосферата. Морската биосфера е много важно, тъй като мивката на CO, генератор на кислород и храна за хората.
• «сив прах» - това nanoroboty размножават във въздуха, създавайки непрогледен бариера в атмосферата, което води до «ядрена зима".
• «Грей лишей» - това nanoroboty породата на скалите.
• «Грей слуз хранене биомаса» - като най-неприятната възможност. Това е най-изгодно за бързо отглеждане, както и от биомаса и съдържа материали за строителството, както и източник на енергия.
А директно попадение от ядрена бомба в колба с репликатор ще ги унищожат, но дори близки хит - само за да изчезнат. В бактерии в техния растеж ограничен от наличието на биогенни елементи. Ако универсална репликатор ще знаят как да замести някои други атоми, може да се консумира почти никакви вещества, различни от чисто среди от един единствен материал. Те могат също да бъдат много всеяден при избора на източник на енергия, ако имат информация за това как да използват различни източници. Все пак, осигуряването на енергия да бъдат сиви слуз по-сложен проблем, отколкото достъп до материалите.
Вероятността от поява nanorobotov сила и време за това събитие
Появата на mikrorobotov баланс в програмата и да споделят грама е почти неизбежно, и цялата технология има. Но те няма да репликатор. (Постижения в miniaturization описва някои данни, размерът на 8%% на година.) Обаче, този nanoroboty бактерии по-малко по размер, са все още в далечното бъдеще. Ако те са създадени по изкуствен интелект, всички възможни навреди те могат да направят в редица рискове, AI, тъй като тя ще бъде управлявана от техните действия. (Те още имат възможност, когато AI е бил достатъчно умен да се създаде nanorobotov, и още толкова тъпа, че не са в състояние да контролира). И дори без AI все по-мощните компютри ще позволи на всички точно и бързо да се изчисли подробности за бъдещето на микро-и nanorobotov. Следователно, ние можем да очакваме, че напредък в създаването nanorobotov ще се ускори.
Въпреки това, състоянието на промишлеността е такава, че nanorobotov-репликатор през следващите години, е малко вероятно. Това би предполагат, че ако nanoroboty и ще бъде създадена без помощта на Real-AI, това се случва в периода 2020-2040 година. В сравнение с биотехнологии, нанотехнологии и изкуствен интелект, ще видим, че тези технологии са много по-зрял, и зад 20-30 години от колегите си мъже. Следователно, вероятността, че силните страни на нанотехнологиите (т.е. nanoreplikatory) ще бъде създадена, за да AI, както и да bioprintera не е много висока.
Заключение: Можем да са изправени пред риска civilizational катастрофа, породени mikrorobotami, дори преди истинските nanoroboty ще бъде направено. Какво е малък, евтин и способни на самостоятелно ще mikroroboty, толкова повече те могат да причинят щети. И толкова повече средства биха могли да ги наследят.
Глава 9. Технологична Начини на предизвикват природни бедствия
За много от природните бедствия, свързани с дългосрочното натрупване и внезапно освобождаване на енергия, съществува теоретична възможност за тях да провокира някои технически ефекти. Тя се изпълнява започне процес изисква много по-малко енергия, отколкото преди, тя се откроява. (Не са дори и да предизвикат експлозия слънчеви проекти, които използват водородни бомби, атентати - виж Bolonkin. Но тя не е осъществимо, тъй като този процес не може да се нуждае от външна подкрепа, както в горния слънчеви плътност на веществото е много малък (все още си струва изчисли точно, както и на без предположения изчисления не гарантират безопасността). Напротив, то ще бъде по-лесно да взриви Юпитер, където не е много изгори деутерия и хелий-3 и е по-лесно да стигнем до подробна ядрото, но е вероятно да нереалистично въз основа на текущите познания. Технически, в продължение на много причини, много лесно да се дава водородна бомба на планетата Юпитер от слънцето. Този въпрос беше обсъден във връзка с наводненията Yupitere сонда "Галилео", съдържащ plutonievye батерия, която би могла, по допусканият направени, за компресиране, експлодират и започне верижна реакция на изгаряне на водород. Това не се е случило, въпреки че скоро на повърхността на Юпитер дойде странно място, и там са предложенията, че ядрената експлозия се случва. Имайте предвид, че ние не можем да използвате този факт като доказателство за невъзможността да се започне верижна реакция на изгаряне в Yupitere поради възможното въздействие на наблюдение избор - а именно, ако експлозията се случи, нашата дискусия би била невъзможна. Друг начин да предизвикват природни бедствия - унищожаването на природните защита (ние имаме вече обсъждат съзнателното разрушаване на озоновия слой). Прочетете повече обсъдим този въпрос в есето «относно възможността за започване на изкуствена експлозия на гиганта и другите планети в Слънчевата система ". Естествено, ние може само да провокира една катастрофа на Земята или в близост до космоса.
Отхвърляне на asteroids
Бъдещи космически технологии са изпратени от Земята asteroids, както и към него. Отхвърляне на астероид позволява анонимно нападение срещу страната си. Въпреки това, в този случай, че не е глобална катастрофа, което води до изчезване на човека. В близост до земната орбита не asteroids, които биха могли да доведат до изчезване на гарантирането на хората (най-малко повече от 10 км в диаметър и може би много повече - вижте допълнително глава от мощността на доменните asteroids), и които могат лесно да бъдат отхвърлени. (Все пак, за да пропуснете една малка, 10-300 метра в диаметър, kamushek и натискането им с тяхната страна е възможно.) Да отхвърли астероид орбита с неудобен (за пример, в основните колан asteroids), би изисквало огромно количество енергия, които ще направят всичко zateyu неразумни и лесно obnaruzhimoy. Въпреки това, налице е вероятност sverhkompyutery позволяват да осигури високо пространство басейн, където безкрайно малък ефект върху малък «kamushek», която получава в друга, и така нататък, създаването на желания ефект. Но това ще изисква десетилетия за изпълнение. Тя е по-лесно да се отхвърли кометата (преведено на кръгло орбита в vysokoellipticheskuyu) в облака Oorta (и там е тялото на подходящ размер), но тя може да предприеме или десетки, а стотици години, докато тя достигне орбита на Земята. Така, общият изтребление на човечеството като отказва изкуствен астероид в XXI век е много вероятно.
Създаването на изкуствени sverhvulkana
За да проникнат дълбоко в земната кора начини в различните - пробиване, че или rasplavlyaem експлоадира - по-голям за нашата способност да причиняват все по тежки изкуствени вулканични изригвания. С цел да провокира избухването на sverhvulkana мащаб в Yelloustoun вероятно доста проникнат 5 км кора, която е с дебелина покрива му magmaticheskoy камера - модерен кладенци много по-дълбоко. При това, характерът на газообразен Магма е, че той ще се пуска малко крек като вода в язовир, увеличаване на неговата еродирането. Това е въздействието, което може да предизвика sverhizverzhenie може да бъде минимална, така да се каже, информация. Пример: Наскоро в Индонезия случайно ударила в водоносен хоризонт и се създават кал, които Вулкан наводнени 25 кв. км. км. територия.
Въпреки това, тя трябва да се забравя, че в около 3000 км под нас, MANTA, резервоара е компресиран и overheated течности с огромно количество газ, разтворен в него - течността ядрото на земята. Ако не раздавам дори една малка част от своята енергия и газ на повърхността, тя е гарантирана да унищожи всички светски живот по-добър от другите методи.
Освен това, не е известно как ядрата си готов по скалата izvergnutsya на повърхността. Крупные площадные извержения, вызванные, вероятно, подъёмом плюмов из глубин мантии случались много миллионов лет назад на плато Декан в Индии и у нас в Сибири (район Норильска – оттуда и никель) и связываются со значительными вымираниями живых организмов. Магма изгрява канал слива, например в Хавай. Въпреки това, той не е от значение за каналите на ядрото Смята се, това повдига горещо, твърди (много лепкава) парчета от кожуха през голяма духовна енергия, които са ликвидни само около повърхността на налягането спада. Въпреки, че желязото в течно ядро е много тежко да се издига на повърхността, може да хвърли налягането на газове, разтворени в него, ако е необходимо чрез канал оформя - Като отваряне шампанско.
Земята цивилизацията става все по vgryzatsya на земя за целите на минни и енергийни съоръжения и експериментиране. В резултат на това рискът от катастрофални изригвания ще продължи да нараства. Вече проект proplavleniya земната кора чрез огромен спад (стотици хиляди тона) разтопено желязо - изпратено Stevenson. Разходите по проекта се оценява на 10 милиарда долара, а се оказва, теоретично е възможно. Югославската астроном и изследовател на риска Global Милано Chirokvich написа статия «Geoinzheneriya, poshedshaya нищо", които са силно критикува проекта, както е опасно за земната цивилизация, тъй като тя може, по мнение Chirokovicha доведе до освобождаването на огромни количества парникови газове и глобалното затопляне причиняват необратими Тъй като Венера.
Руски геолог L.YA. Aranovich предложи подобрена версия на дълбока сонда, въз основа на потапяне в кожуха малък ядрен реактор с тегло няколко тона, което би могло да proplavlyat пътя си. Тя може да достигне дълбочина от около 1000 км на месец. Оценките на сигурността на този теоретичен проект не е осъществен.
Високо миньори роботите могат да станат такива опасно инструмента. В японския план за тренировка чак до дъното на океана мантия. Вече проект бомби срещу бункери, която спада, vgryzaetsya на повърхността като самостоятелно заглавие щитове и се движат по вътрешни. По същия начин могат да действат и вулканът предпазителя. Подобно устройство може да бъде евтино, отколкото ядрените бомби, и тя може да доставя на сцената почти невидим начин.
Всяко оръжие, което е подходяща за справяне с силози дълбоко, могат да кандидатстват за събуждане вулкан. Един вариант за тези оръжия (и стои на въоръжение сега в САЩ) е съгласувана атака атомни бомби, все по дълбок кратер. Може би това не е достатъчно, за да събуди един часа sverhvulkan или просто голям вулкан по глобалните последици, но ако се събуди всички тях наведнъж, на изтребление, вероятно става. Земята е известно, сега 20 sverhvulkanov и 500 обикновените вулкани.
То може да бъде, че има практическа нужда да се събуди вулканът да се охлажда атмосферата на емисии, ако проблемът с глобалното затопляне, ще бъдат много тежки. В момента вероятността за изкуствено събуждане sverhvulkana много ниски, защото има много вулкани, в допълнение към атрактивна цел за саботаж, дори ако е опасно оръжие попадат в ръцете на терористи. (Въпреки това, при прегледа на шестте най-опасните пътища прилагането на водородни бомби от терористи ", нападението на sverhvulkan се откроява като основен.) Но в случая на Втората световна война бомбардировките supervulkana може да се превърне в най-новите оръжия, избираеми страни. Технологичните възможности за експлозията вулкан бавно расте с развитието на технологиите в сондажни и ядрени оръжия. Молекулярна производство и нанотехнологиите могат да осигурят възможност за евтини изградят мощни машини, необходими за откриването на вулкани. Но улавяне на нанотехнологиите ще дам един по-прост начин за целите, които биха могли да бъдат продадени чрез supervulkana Съзнателното разрушаване на озоновия слой
Съществува предположение, че можете да създавате озон оръжия, които биха довели до много ефективни каталитични изтребване на озоновия слой. Въпреки това, дори и ако потокът на слънчеви ултравиолетови лъчи, ще бъдат много силни и опасни за хората, те могат да се защитават сами от него с помощта на чадър приложен филми, бункерите, бронята и др Но цялата биосфера zontikov не е достатъчно. Озоновият слой могат да бъдат унищожени, както и гама-лъчи скока. «Troekratnoe отслабване на озоновия защита в продължение на няколко години, predskazyvaemoe изчисленията биха могли да доведат до унищожаване на повечето от pripoverhnostnogo планктон в океаните, която е в основата на всички големи хранителна верига, жителите на морето". Особено опасна, ако отслабването на озоновия слой ще съвпадне с отслабване на магнитното поле и силен подем на слънце. Озонът е един от процесите, които може да започне цивилизация сега, и "ядат плодове", може да се наложи чрез десетки или стотици години най-малко в състояние да се защитава сам postapokalipticheskoy етап.
Глава 10. Технологични рискове, свързани с фундаментално нови открития
Неуспешен експеримент по физика
Най-опасно е опцията на значително отваряне да се ангажират внезапно по време на нормална експеримент, както вече се е случило в историята на науката, и проявява под формата на непредвидени последици.
Опасява се, че опитът да се създаде микроскопични черни дупки в ускорителите, кондензация на неутроните и други високо експерименти с елементарни частици може да доведе до срив или земното вещество или огромна експлозия, която мигновено унищожат живота на Земята. Основният парадокс тук е, че сигурността на всички опити, е оправдано, защото ние знаем, че тя ще се окаже, че в резултат на това една цел на експеримента - е да научиш нещо ново. В други думи, ако имаме какво ново да научат, какво значение да физични експерименти, и ако ние можем да научите нещо ново, то може да бъде опасно. Може би мълчанието на Вселената се дължи на факта, че всички цивилизация рано или късно извършва експеримент по «извличат енергия от вакуума", в резултат на техните планети са унищожени. Друга цел е, че след като имаше подобни явления в природата, като например, когато космически лъчи засипваме атмосферата, а след това повторете ги безопасно. Въпреки това, ние можем да кажем, че чрез повишаване нивото на енергия рано или късно ще може да достигне определена критична, ако е.
Рискът експерименти, пряко свързани с възможността от неизвестен основните физични закони. Въпросът, който е трудно да се решат възможно забавление. През ХХ век са били открити на няколко основни закони, а някои са довели до създаването на нови опасни оръжия - макар че до края на XIX век картина на света изглеждаше пълна. Правописа само откриването на радиоактивността, квантова механика, теория на относителността, но през последните години - тъмна материя и тъмна енергия.
В допълнение, съществуват редица експериментални данни и неизпитан теории, които имат различна степен на достоверност, - но много от тях включват физически ефекти, които могат да бъдат опасни. Например, понякога флаш послания за преобразуване на химическите елементи, без радиоактивност - но не по този начин достатъчно плутоний за атомни бомби? Или, ако това transmutatsiya възможно, то не е дали тя е верижна реакция в целия превратностите на Земята?
Смята се, че модерните експерименти с ускорители попада в много кратки заповеди за енергийния че emanated от физически сблъсъци на космически лъчи, които настъпват в земната атмосфера. Но в книгата на Джон Лесли прогнози, че ако ускорители на енергия ще нарасне от сегашните ставки, опасни нива на енергия ще бъде постигната чрез 2100. Това показва, че през целия двадесети век, на всеки 10 години, енергията е най-ускорители, увеличена с 10 пъти. Докато конвенционалните ускорители сега дойде при физическите си граници по размер, има алтернативен начин за постигане на същите енергии в завод размер на бюрото - той беше разпръскване на частици в шок вълна pulsed лазер. В същото време, за да създадете IDF pulsed лазерни страшен сила zapityvavshihsya на ядрени експлозии.
Рисковете, свързани с физически експерименти, че е налице съгласие на научната общност и на Европейския център за ядрени CERN наскоро публикуван доклад, които обосновават безопасността на нови collider, който отхвърля рисковете, свързани с появата на новия ускорител «Големи Hadron Collider", LHC (пуснато в експлоатация през 2008 г. година) микроскопични черни дупки, магнитни monopoles и strayndzhletov. Въпреки това, съществуват редица учени и обществени фигури, които активно борбата с LHC, criticizing предложените мерки за сигурност и тяхната теоретична основа. Така например, активно използва аналогия с естествените процеси (The сблъсък на космически лъчи със земната атмосфера), не е точно какво ще се случи в LHC, например, защото скоростта на частиците, получени в сблъсъците в атмосферата от закона за запазване на набраната скорост остава близка до скоростта на светлината И инерция в сблъсък срещу греди в LHC неутрализирани, а скоростта може да бъде нула, което ще бъде от решаващо значение за по-нататъшното провеждане на микроскопични черни дупки, тъй като първия случай, те летял на Земята напълно извън секунда, а втората - ще се забави същество по-дълго време, биха могли да увеличите масата и забави още повече.
Дори ако вземем тези гранични сигурност (вероятността от катастрофа P <2 * 10), които предлагат поддръжници на продължаващите опити, и ги прилага в стандартния анализ на риска процедура за оценка, тя показва, Ейдриън Кент, в своята статия «критичен преглед на оценките на риска на глобални катастрофи », Ще получите неприемливо от стандартите на другите индустрии резултати - а именно, че този риск би било равностойно на смъртните случаи от 120 до 60 000.
J. Лесли дава подробен анализ на различните теоретично възможни опасни експерименти. Те включват:
1) Преместване на вакуум в нов Метастабилни състояние. Няма предположения, че вакуум енергия, както нулево ниво на физическите полета, не е възможно в крайното такова ниво. Също така, нивото на водата на езерото планина до момента не е на морското равнище, а водата в язовира може да бъде широк и гладка. И силно нарастване на вълните в езерото може да доведе до разрушаването на бариерите около езерото, което води до изблик на водата в язовира морското равнище. Също така, възможно е голям експеримент физическата може да създаде вакуум район с нови обекти, което ще расте безкрайно. (На съществуването на тъмна енергия, която ускорява разширяването на Вселената, косвено потвърждава, че нашите вакуум - не е вярно.) Появата на нашата вселена, всъщност, и то беше вакуум се движат от една държава в друга.
2) Образование съоръжения, състоящи се от quark хипотетичен въпрос, който може да приложи към своите нормални атоми вещества. От учредяването си играе важна роля на така наречените «странно quarks», може да е резултат от стабилна вещество, наречено «странен въпрос", и нейните частици - streyndzhletami (за Англия. Stranglets). Една идея на инсталацията, които могат да генерират и съхраняват парчета от този въпрос, както и използването на обичайните капка кърпа върху нея за енергетиката. За съжаление, авторите на идеята казват нищо, което би, ако е странна сбирщина от плат листа капан за неопределено време и ще погълне вещество на Земята.
3) Опасен геофизични експерименти с дълбоки сондажни или проникване през кора, които биха могли да доведат до образуването на sverhvulkana и degassing на дълбоки слоеве на Земята.
4) Научната общност се обсъжда в детайли рисковете на образованието микроскопични черни дупки, които трябва да настъпят при сблъсък на частици върху най-новите модели на ускорители в близко бъдеще. Образование микроскопични черни дупки, дори тя да е стабилен (и повечето учени вярват, че разпада на малки части от секундата, поради Хокинг радиация, въпреки че са налице dissenting), следва да не води до незабавна поглъщам го цялото същество на Земята, тъй като от размерите му ще бъде За размера на атом, а около него ще бъдат микроскопични натрупване диск, който ще доза потока на веществото. Но това микро-черната дупка би неизбежно попадат към центъра на Земята, и грешка тя ще изпълни oscillatory движение.
5) Появата на магнитен Monopole на LHC в CERN. Магнитен Monopole може да се ускори разлагането на протоните, което води до огромна енергия, но рекорда на ЦЕРН безопасността, се приема, че дори ако е налице Monopole, той бързо да напусне Земята.
6) за започване на нов Биг Бум в експерименти в ускорители. (В известен смисъл, този процес е подобен на разпадането на невярна вакуум. Ключът към нейното стартиране е да се постигне ultrahigh енергийната плътност от 10 ** 76 грама на кубичен метър. Преглед на себе си, обаче, количеството на енергията, необходима за започване на процеса, които могат да бъдат малки, може би по-малко енергия експлозия водородна бомба.) тази информация като се има предвид рискът от Лесли. Във връзка с тази интересна хипотеза, че в случай на различни universes с различни свойства най-големия дял от universes са тези, които са в състояние да създават нови universes. (Първоначално, тази хипотеза бе направено във връзка с предположението, че този процес се развива в черни дупки.) Все пак, тъй като нашата Вселена е «прецизира", за да бъдат годни за съществуването на разумен живот, могат да развият технологията, ние можем да приемем, че това е разумна цивилизация по някакъв начин допринасят за повтаряне на условията, които водят към нова голяма експлозия, вероятно по време на проваления физични експерименти.
Следният списък е възможно некомплектовани, тъй като той описва само това, което ние знаем, че в опитите, ние сме изправени пред това, което ние не знаем. Pogodovaya вероятността от опасни физически експеримент се увеличава с времето, тъй като все по-високо съоръжение се въвежда в системата и да измислям нови начини за постигане на висока енергия, както и използването на техните съоръжения, за които те обикновено не се прилагат в природата. Освен това, нарастващото разнообразие на възможни физични експерименти, които биха могли да доведат до глобална катастрофа. Технологичното развитие на молекулярно производство и самостоятелно ботове ще позволи в бъдеще да се създадат огромни инсталации в космоса, като се използва материал от asteroids, на цената само на първия робот-«семена", който е на практика безплатно. Това ще позволи да се постигне много по-високи енергийни експерименти - и едно ново ниво на риск.
Един интересен вариант на нов глобален риск предложените в статията «поведението на разпадането на фалшиви вакуум в последните времена: възможните последици за космология и инфлация Метастабилни-членки", на руски език натиснете retell broskimi под заглавия като: «Астрономия унищожи вселената". Тя гласи, че скоростта на рухването на системите квантово зависи защо, има или не (доказан факт), тогава тя е обобщение на проблема с контрола върху устойчивостта на вселената като цяло по въпроса за т. нар. тъмна енергия. «Измерване на плътността на тъмната енергия, да я върнат към първоначалното състояние, в действителност, отпадането на броене. И в този ранен състояние на вакуум попада в рамките на «Бърза» закона, както и на критичните преход към «бавна» разпада все още е много далеч. Накратко, ние може да бъде лишен от вселената шансове за оцеляване, като по-вероятно нейната бърза разпада ". Макар и малко вероятно, че рискът е реален, представяш ли си на такъв риск илюстрира възможността, че една нова глобална рисковете, свързани с физически експерименти, може да дойде от най-неочаквана страна.
Както винаги в експерименти е място дял от риска да се струва да се отложи до тях начало на разработените AI. Някои от тези експерименти, че има смисъл да се прави на Земята, тъй като досега в космоса. Нови видове оръжия, нови енергийни източници, нови начини за разпространение и дълги разстояния
Макар че новите насоки са неизвестни, е възможно да се обрисува най-опасните характеристики на абсолютно всяко оръжие.
А) разпределянето огромни суми на енергия
Б) способността да samoreplikatsAI
Б) способността бързо да действат на цялата територия на Земята
Г) cheapness и облекчаване на производство на занаятчийски условия
Г) възможност за постигане на интелектуално превъзходство над хората
Б) начин за управление на хора
Всички физически ефекти, които могат да произвеждат технологиите, подходящи най-малко един от горепосочените критерии, потенциален кандидат за абсолютното оръжие.
Глава 11. Рисковете, свързани с космическите технологии
Атаката на Земята от космоса оръжия
Теоретически е възможно експозицията на планетата от орбита гама-лъчи (нещо като изкуствени гама-скока), неутроните или други опасни лъчения проникваща през атмосферата, което води до стерилизация площ, като се използват специални сателитни или бомба експлозии. Тя може да свиете на планетата на роботи дъжд-метеорити. Към пространство оръжия могат да бъдат използвани разпръскване на космически кораб да okolosvetovoy скорост и посока на планетата. Всеки успех в сградата с висока скорост на космически ракети и по-zvezdoletov създаде мощно оръжие срещу планетарен живот, както и всички zvezdolet да разсея и да се върнете към Земята. Експозицията на Земята, а вероятно и при случайна експлозия на пилотния завод в орбита, но само един полукълбо.
Космически наблюдение могат да намерят почти всеки човек и, съответно, да го изпрати sverhtochnoe всякакви оръжия. Това може да бъде, например, космически базирани лазери или X-Ray източници. «Предимството» миналото, че те могат да предават смъртоносни дози unnoticeably и с много по-малко скъпо енергия.
Ние можем да научите бързо пространство (тоест, през XXI век) чрез използването на роботи или самостоятелно nanorobotov. Но в същото време, като им се развиват в командния космическото пространство и изграждане ни огромна структура на материала asteroids и луната, ние можем да загубим контрол над тях. Въпреки това, опасност за Земята от космоса ще дойде след мощна технология за автоматично ще бъдат установени, което означава, че след като тези технологии ще започнат да се заплашват с нас на Земята.
Ние вече са обсъдени над въпроса отхвърли asteroids.
Друг начин за атаки пространство - е да се даде ход на гигантски огледало в космоса, които ще бъдат изпратени на Земята лъчи на Слънцето (или скриват нейните лъчи на слънцето). Но за да го направи без помощта на самоопределение ботове е трудно, но за да я защити сравнително лесно, така че е много малко вероятно опция.
Така че ние можем да заключим, че пространство-базирани атаки е малко вероятно, тъй като те се припокриват по-бързото развитие на процеса на унищожаване на Земята. Но загубиш очите на този риск не си заслужава.
Ksenobiologicheskie рискове
Рискове, бе, че светът може да бъде записано на живо от мястото, NASA ръководството е взето на сериозно, тъй като полет до Луната. Макар че беше заявено, че стерилната повърхността на Луната с много висока вероятност, астронавтите се връщаше от Луната, са под карантина. Това показва добър подход към рисковете от много малка вероятност, но може да бъде безкрайно много щети.
Предположения, които грип може да дойде при нас от опашките на comets е очевидно невярно, тъй като вирусът - е високо специализирана паразити, които не могат да съществуват без собственици. В реалния риск може да бъде силно всеяден организъм с химическа структура се различава значително от земната, който земната биосфера няма да защита. Както пространството и се върнаха експедиции до различни космически тялото, включително и по време на планирана експедиция до Марс, което увеличава риска Нарушители намери чужденец и погрешно zavezti на Земята.
Въпреки това, такъв риск на поръчките с по-нисък риск от Земята подобни опасни микроорганизми или синтетичен живот (Animat).
AV Arkhipov проучване на възможността на така наречените «космически археологията" на Луната. Той внушава, че Лунната може да бъде идеалното място за търсене на следи от древни посещения на Земята от извънземни космически кораби и да гледаме луната предлага редовен структура, които биха могли да бъдат, те трябва да бъдат. Следните според официалните данни не са открити все още. Все пак, ако някога намеря следи от различни цивилизации, те могат да съдържат опасни технологии, устройства или компютърни програми. Още въпросът се обсъжда в глава «рисковете, свързани с SETI", и всичко, което е казано за SETI, може да е истина за потенциален успех на пространството археологията. (Vernor Vindzh описва в романа «Трудно над bezdnoy» Просто такъв сценарий: пространство археологията е довело до откриване и стартиране на опасни компютърна програма, разработена в superstrong изкуствен интелект и рисковете от глобалната катастрофа.)
Отделен член, който може да се идентифицира рискът от възобновяване на опасни бактерии от древни замразени лед на Земята.
Сблъсък с нас след разумна сила във вселената
И религиозните сценарии за второ пришествие, както и идеята за чужденците, както и идеята, че ние живеем в един свят друг начин усещащи същества - те всички имат предвид, че там са в излишък на нашия основателни сила, която може да внезапно и необратимо да се намесва в живота ни. Отново е трудно да се оцени вероятността от този тип събития, поради техния независим характер. И ако ние можем да се намали вероятността от всякакви експерименти, просто за забрана на всякакви експерименти в тази ситуация за нас почти нищо не зависи. Колкото повече човечеството ще бъдат разпределени в пространството и да отстояват себе си, толкова по-голям шанс, че рано или късно тя беше някой в срещнем. С други думи, вероятността за среща с друга разумна сила се разраства. И в земната история, опит, например, откриването на Америка, ние знаем, че издържат на среща с доминираща култура е почти невъзможно.
Вероятността от сблъскване с други усещащи същества най-вече зависи от оценката на нашия основателни плътност на цивилизации във вселената. Сега тя е изключително ниска. Добър живот поема уникално явления в наблюдавани вселената. Но няма преки доказателства.
Шансовете, че чужденци, дори ако те са първи пристигат на нашата zvezdoletah сега (и не по-рано или късно в десетки милиони години), чезнещ от малки статистически съображения (по-малко от един на милион). Следователно, остават две възможности:
1) Внезапното сблъсък с някаква разумна сила, както разширяване пространството. Разширение пространство е не само космически мисии, но все отдалечено място, за да слушам радио. Разглеждане на допълнителни рискове SETI глава.
2) Ние имаме отдавна е под контрол, или дори да създаде някои разумна сила.
Вариант на този сценарий - тя не си подхождам с много разумна сила, но и с последиците от тяхната дейност. Например, ако някои извънземни цивилизации е направил опасен експеримент, че неговото въздействие може да унищожи цялата вселена. Това може или прекратяване на Метастабилни вакуум, както пише J. Лесли, или разпространение на примитивни nanorobotov поглъщащ всичко. Като например, че на Марс и Юпитер спътници вече са били подложени на риск от заразяване с микроорганизми от планетарен наземни станции - макар и много хора не са причина и няма да се бавя. С други думи, опасни странични ефекти на разумен живот в космоса да са носители на много по-бързо, отколкото интелекта.
Въпреки че нямаме основания да се разгледа възможно най-враждебно настроени извънземни, принципа на предпазливостта compels нас, за да признаеш това. Най-лошото израз на враждебност, би било желанието на тези чужденци, за да стерилизира околните пространство, например, че за в бъдеще, не са конкуренти. Съществува предположение, че такава враждебна цивилизация може разпространение в цялата галактика някои станции за мониторинг на име в романа фантазията «berserkerami", които в случай на откриване на радио сигнали от звука на живот изпратени до нея и я атакува. Това предположение е малко вероятно, защото, ако тя беше една наистина «Разширено» цивилизация, тя може да разпространявате такива станции около всяко solntsepodobnoy звезди, и ние отдавна е подложена на атака го (но там не може да бъде изключена от наблюдение селекция ефект, по силата на които ние може да достигне само до XXI век звезда следващия, за които не съществува контролиране на гарата като малка вероятност, това не е нито.)
Опасностите са и изпращане на сигнали в космоса - METI, тъй като това може да изглежда като отказ от нашата позиция към други цивилизации. Въпреки това, тези усилия, като че ли се припокриват, така че Земята радиовълни, които вече са доста забележима, и че тези сигнали се качил на малко разстояние (по-малко от 100 светлинна година - това е, че обхватът, който включва само няколко хиляди звезди) и на разстояние вероятно няма да има цивилизация, която може да зависи от нас бързо, скоростта на светлината doletet, но нито веднъж не съм. Съединените щати имат право забраната за изпращане на съобщения в космоса. Ето защо, всички подобни опити, извършени от радио телескоп в Evpatoria. Има изчисления показват, че вероятността, че нашата случайна послание към някого хитове - незначително. METI е труден за критика, Дейвид Брин, който вярва, че uzkosfokusirovannye лъчи, насочени точно към избраната звезда, може да бъде много по-видима, отколкото на фоновата радиация от наземни телевизионни и произволното движение намира на небето греди лъчи на военните радари и чакам оферти от METI, тъй като ние не стават по-зрели цивилизация. Кадри сигналите METI - даден необратимо действие, а ако след 50 години, ние се промени, тя няма да могат да наваксат и да спрат да изпращат сигнали рано. Русия на прага на в световен мащаб в METI, но факт в историята на организирани само няколко трансфери. Това повдига интересен методологически аспект на проблема: въпреки че по-голямата част от учените против изпращане на сигнали в космоса, все още има хора, които считат себе си правото да вземе решение за всички човечеството, че в действителност то добре.
METI Поддръжниците твърдят, че силните страни на цивилизацията, ако има такива, вече знаят за нас, както и да има невероятно мощно средство за наблюдение, и нашето послание е отправено само към тези цивилизации, които са на същото ниво с нас. Тази логика е логично пункция, защото цивилизацията на същото ниво с нас рано или късно стават, ако изобщо е възможно, силни космически цивилизации, и ако това се случи със слаба цивилизация, която е само нашето послание, първото място, където те летят Ще бъде слънчево система. Дейвид Брин вярва, че ако не намерим други цивилизации altruistically, тишината на място, за да ни каже, че ние трябва да следват техния пример, а не реват на цялата тъмна гора - Може би знаят нещо, което ние не знаем .
Въпреки това, METI намира смисъл, както призива за помощ или се опитва да организира «цифрови безсмъртие", ако се окаже, че глобалната катастрофа е неизбежна. В этом случае отправка истории человечества, его культуры и кода ДНК в цифровой форме даёт призрачный шанс на то, что кто-то когда-нибудь этот сигнал поймает и восстановит людей. Възможни опции и физически «panspermAI» разпространение в пространството с множество пясъчни проби от ДНК на човека и някои съобщения - просто като shipwrecked хвърли в морето бутилка с бележка.
Ако ние живеем в един свят друг начин (за подробности, въпросът ще бъде обсъден по-късно), шансовете, че този симулация «vyklyuchat", расте, тъй като тя става все по скъпо. И тя ще стане по-скъпо, тъй като населението на света, но най-вече, когато хората започнат да се създаде компютрите си с тяхното моделиране. Това, в известен смисъл, илюстрирана с математически принцип: много не може да съдържа като подмножество.
Също така, ако Земята отдавна е изпитват някои разумна сила (сценарий космическа Запазване), те могат да решат да се намесят в хода на човешката история, когато се стигне до някои неприемливи за тях, но неизвестни за нас праг (т.е. създаването AI). Така например, хората се грижи за слонове в резервите, но ако броят им надхвърля критична, цялото стадо слонове някои африкански резерви otstrelivayutsya от хеликоптери Глава 12. Рисковете, свързани със SETI

1. СПРАВКА
През 1959 г. в дневника на природата публикува първата статия за търсенето на извънземен интелект във вселената. С има, тъй като развиват две направления за търсене на извънземен интелект във вселената - е SETI, което се извършва основно чрез слушане на небето с помощта на радиосигнали телескопи (но също така и с търсене на сигнали в оптична група, и по-екзотични варианти) и METI (Съобщения за Извънземна разузнаване ) - Това е нашият сигнал за изпращане на звездите чрез радио-антена. METI от самото начало се разглежда като дейност, която може да бъде опасно, защото там е хипотетичен риск, че нашите сигнали, за да привлекат вниманието на нашите извънземни цивилизации, които са враждебно настроени към нас. Дискусиите за рисковете METI отида толкова далеч, и в Съединените щати прие закон за забрана на изпращане на сигнали. В тази статия ние няма да се справят с проблемите, свързани с рискови програми METI. В контраст на това, пасивното наблюдение на околната среда, вселената виждал по-голямата част от учените и широката общественост, като напълно безопасна дейност.
Но там е алтернатива мнението, че SETI също може да бъде опасна дейност, и както ние се опитваме да покажем повече, много по-опасна от изпращащата сигнали.
Макар че търсенето на извънземен интелект сигнали са извършени повече от 40 години, но не сигналите са били намерени, и затова засилва мнението, че ние сме сами във вселената. Въпреки това, интензивността на търсене е повишило значително, и там трябва да бъде основно проекта АТА - Алън Телескоп масив, който се генерира от частни фондове на един от основателите на Microsoft Пол Алън. Ако първият проект в SETI на 1960 е да слушаш само две звезди в близост 1970 години - стотици звезди, а 1990-м, броят е нараснал до хиляди, АТА Проектът включва слушане на един милион звезди в радиус от хиляди светлини години, 24 часа на ден. Освен това, ще бъде сканиране далечната галактика райони да открие признаци на активност sverhtsivilizatsy. В същото време монитора ще бъде 350 6-м антени и мощни компютри, ще се обработват данните. Така вероятността да намерят извънземни цивилизации, ако те са непрекъснато се разраства. Въпросът за това как някакъв шанс, че извънземни цивилизации съществуват в наблюдаваното пространство, ние ще остави извън statidiskussAI. Мнението на автора е, че тази вероятност е, и би било мъдро (по отношение на принципа на предпазливостта при оценката на риска), за да я оценяват не по-малко от 10%. (Въпреки че някои учени вярват, че ние сме уникални във Вселената наблюдава, преки доказателства за това все още.)
В Русия в продължение на много години семинар на тема SETI, когато Сай, работи се прави, за да получавате и изпращате съобщения. Голям резонанс направиха книгата "АД Панова «SETI и проблема за универсалната еволюция", 2007. Тя показва, че еволюцията на човека е постоянно ускоряване и можете да посочите хипотетичен точка на необичайност, където скоростта на растеж ще бъдат безкрайни. Този въпрос е в първата половина на XXI век. То е ясно, че безкраен растеж не може да бъде постигната, а Панов предполагат, че преход към качествено ново равнище ще възникнат във връзка с галатичен културна област през SETI. Въпреки това, Панов съзнателно се отказва да разглежда рисковете, които заплашват човечеството в бъдеще.
За първи път идеята и схемата на извънземно нападение през SETI-сигналите е описано astrophysicists F. Hoylom в неговия роман «Андромеда", 1961. (В началото вървяха сериен Би Би Си "А за Андромеда", който, за съжаление, не консервирани, с изключение на една серия и след това въз основа на него е написал роман, в който основната идея е Hoylu и storyline - Джон Елиът. Руски превод освободен през 1966 г.) В рамките на заговор, астрономи са извънземни сигнал, който съдържа описание на някои компютър и програма за него. Хората решимост да създадем този компютър, както и да разчита на военна употреба и успех в Студената война. Всъщност, компютърът и неговата програма, се показва признаци на ума, помага за дизайна на по-ефективни ракети. В допълнение, компютърът генерира описание на генетичния код, известен вещество. Съгласно този кодекс, растат усещащ същества - момичето Андромеда, който работи във връзка с компютър, което помага да се създаде напреднали технологии за армията. Първо, хората, не вярвам, но след това отива на всички големи отстъпки, защото това, което полезни идеи тури напред. Но главните герои на романа разбира, че крайната цел на компютъра враждебен на човешката цивилизация, като истинската цел е да се установи власт над света и да го унищожи и убие момичето.
Ханс Moravec в книгата «Децата на ума», 1988 оферти подобен тип уязвимост: изтегляне на компютърна програма от космоса, които ще имат изкуствен интелект, за да съблазнят цивилизация домакин на нови възможности, възпроизведен в милиони копия и унищожи капитана и след това го използва за изпращане на множество планета техните копия.
От научна гледна точка за първи път този въпрос се смята Kerrigen Р., който е написал статия «Ако дегазирам сигнали SETI", което преведено на руски език. В началото на изследванията си проблеми Kerrigen изразени опасения, че без филтър сигнали от космоса са натоварени на милиони не е защитен с превозни средства, програмата SETI Дома. (Същността на програмата SETI Дома е, че свободното време бездейства компютри по целия свят използват за анализиране на сигналите, получени от Радио телескопи, и намирането на моделите в тях, които могат да бъдат признаци на изкуствени сигнали. Пакети за обработка се изпращат автоматично по Интернет. ), Въпреки това, той трудно се срещна критики от програмисти, който посочи, че на първо място, площта на данни и областта програми са разделени, и второ, компютърни кодове, които са написани на програмата е толкова уникален, че те не можеха да предполагам, но Следователно, случайни товарене и изпълнението на опасен код от космоса е невъзможно.
В своята статия Kerrigen фокусира върху улесняване на прехвърлянето на данни за гигабайта междузвездни разстояния, дори и със съвременни технологии (съответните изчисления), но също така посочи, че междузвезден съобщение може да съдържа някаква примамка, която ще насърчи хората да се съберат опасно устройство на чертежите. При това, не е изоставена Kerrigen хипотезата, че в някои случаи, чужденецът вирусът може да зарази компютрите директно на земята и без човешка помощ. (Например, ако входящи данни, автоматично ще се преразглеждат за да намерите техните алгоритми и компютърни програми.)
Земята бе създадена CosmicOS - A начин да се пишат самостоятелно поддържане на съобщението, като се използват само 4 символа, които могат да се тълкува като изрично компютърна програма и ще съдържа в себе си всичко, което е необходимо за неговото изпълнение. Целта на създаването на такъв език - изпращане на съобщение до извънземни цивилизации или по-далечно семейства. И веднъж една идея за изпращане на такава комуникация, една стъпка от тук за търсене на съобщения, кодирани по същия начин.
През 2006 г. статията е написана от E. Yudkovski «AI като положителни и отрицателни фактори на риска глобален", където той е показал, че е много вероятно да се развива бързо универсална изкуствен интелект, че такова разузнаване би било изключително опасно, ако е била програмирани неправилно и, накрая, че възможността за такива AI, както и рисковете, свързани със значително се подценява. В допълнение, Yudkovski представи концепцията на семена-I - AI ембрион - това е минималната програма, способна да поддържа неограничен самостоятелно непроменена основната цел. Размерът на семена ПИ могат да бъдат само за стотици килобайта. (Например, един типичен представител на семена ПИ е човешко бебе, а някои genokoda отговорни за мозъка, което представлява 3% от общия genokoda човек с обем от 500 мегабайта, което е 15 мегабайта, но ако някой счита, че част от боклука на ДНК и след това друг по-малко.)
В фентъзи романа на W. Vindzha «Трудно над bezdnoy» добре илюстрира нападение срещу врага с изкуствен интелект е установила галатичен общността информационни канали. Също така, такъв SETI-атака Отчитане атака чужденци е заговор на историята «бели тръстика, калибър 7,62".

2. Сценарии на евентуални атаки
В този раздел ние погледнем в механизма на възможните атаки с помощта на SETI, още не е разглеждането на въпроса за целта на подобни нападения. Следващата точка, ние ще обсъдим как реалистични, че друга цивилизация исках и ще изпрати такова съобщение, и какви са шансовете на стачка.
В началото трябва да се отбележи, че за да докаже, че уязвимостта достатъчно, за да намерите най-малко една дупка в сигурността. Все пак, за да докажат безопасността, трябва да премахнете всяка дупка. Сложността на тези задачи варират от много поръчки с магнитуд че е добре известно, че експерти по компютърна сигурност. Това разграничение е довело до почти всички компютърни системи са разбити в (от немски автомобил shifrovalnoy Enigmy на плеър Ipod). Сега се опитват да докажат една възможна, и дори, според мен, вероятно уязвимостта на програмата SETI.
Първо, искам да повишено внимание на читателя от идеята, че ако открие грешки в дискусията, той автоматично създава сигурност програмата SETI, тъй като е възможно алтернативно средство за атака. На второ място, (в съответствие с логиката Yudkovski, че е невъзможно да се предскаже поведението на по-интелектуална система, но могат да прогнозират резултата на това поведение - например, когато си играеш шах срещу Грандмастер невъзможно да се предскаже как той ще играе срещу мен, но може би предсказва изхода от мача - мат), бих искала да привлече вниманието на читателя, че аз - човек, с IQ от 120 и е с площ че изразходват за откриването на тази уязвимост, е не повече от една година за размисъл. Sverhtsivilizatsiya с конвенционални IQ най-1000000 и времето за размисъл на милиони години може значително подобряване на този алгоритъм, или да намерят много по-прост и ефективен. В заключение, предложеният алгоритъм е не само мене, и тогава ние ще обсъдим накратко останалите възможности.
В дискусиите ще вземе пример от Copernican принцип, който е да се смята, че ние сме обикновени наблюдатели в нормална ситуация. Ето защо, на Земята, ние ще вземем един обикновен планетата, разработването нормално.
Алгоритъма атаки:
1. Цивилизация изпраща сигнал създава фар в космоса, който обръща своето послание е ясно изкуствено. Така например, той може да бъде звезда, заобиколена от Дайсън сфера (т.е. материалната сфера, напълно улавя светлината на звездите), които се дупки или огледала, редувайки се отваря и затваря. В резултат на това цяла звезда ще мига с период от няколко минути - по-бързо от това не е възможно поради различните дупки светлината е различно разстояния. Все пак, фара може да бъде видян на разстояние от милиони светлини години. Има и други ракети, важно е че фар ще го надуеш на дълги разстояния. (Например, ако podmeshat дори и малка сума от netipichnogo вещества в атмосферата на звездата, нейните спектрални линии ще се вижда най-големи разстояния).
2. Близо до радиофар е много по-слаб сигнал, но много по-информативни. Маяк привлича вниманието към този източник. Източникът направи някаква двоичната информация (т.е. последователността 0 и 1). За възраженията, че тази информация ще съдържа шум, като отбелязва, че най-очевидното (разбираеми за страните на бенефициента) означава шум е повторение на сигнала.
3. Най-простият начин да предадат важна информация чрез двоичен сигнал е превод с помощта на изображенията. Първо, защото в очите на земната еволюция се наблюдава независимо няколко пъти, което означава, че представянето на триизмерен свят, като се използват две снимки-размерното е многостранен, който е разбираем за сигурност на всички същества, способни да построят радио - и да приемат този сигнал.
4. На второ място, две картинни е трудно да се кодира в двоичен формат сигнал. За да направите това, използвайте една и съща система, като този, използван за първи teleperedatchikah - а именно, система на непрекъснатото и дъска курс. В края на всяка снимка е възможно да бъде пуснат на сигнала е избрана чрез многократно един и същ брой битове. Накрая, в края на всяка рамка, пуснати на сигнала се посочва още в края на рамката, и повтаря след всеки изстрел. (На персонал могат да образуват, но не могат да формират непрекъсната филм.) Може да изглежда така (и включва снимка на триъгълника 1):
0000000100000011111111111111111
0000001110000011111111111111111
0000011111000011111111111111111
Ето kontsevym сигнал онлайн сканиране е поредица от 16 единици. На края на сигнала може да включва, например 625 единици.
5. Очевидно е, че цивилизацията на подателя е изключително заинтересована в светлината на техните сигнали. От друга страна, хората са много заинтересувани разшифровате получаване на сигнала. Няма никакво съмнение, че изображенията ще бъдат намерени. 6. Използване на изображения и филми, които можете да изпратите много информация, можете дори да обучи език, за да покажат техния свят. Ясно е, че много може да спорим за това как тези филми ще бъдат ясни. Ето, ние се концентрира върху това, ако някои цивилизация изпраща радио сигнали, а друг да ги вземе, този, те просто имат общи познания. Именно, те са наясно Радио - за който е известно, транзистори, кондензатори, резистори. Тези radiodetali доста характерни, така че можете да видите снимки. (Например, в разпад и в схемата).
7. Чрез изпращане на снимки изобразяващи radiodetaley право, а лявата - техните символи, лесно могат да предоставят набор от знаци за електрическите вериги. (Приблизително същите могат да се прехвърлят и логическите елементи на компютри.)
8. После, като се използват тези символи на цивилизацията, предава на изпращача съставянето прост компютър. Най-простият от компютърен хардуер гледна точка - тази машина е бързо. Тя имаше само 6 отбора, и магнетофонна лента на данни. Пълният неговите електрически проводници ще съдържа само няколко дузина транзистори или логически елементи. Това е, изпрати кран Posta не е трудно. Все пак, това може да бъде по-сложни изчислителни съставянето машини, например, съдържа около 8080 микропроцесорни 5000 транзистори. (Важно е баланс - по-сложна машина, толкова по-лесно за нея програма, но трудно я unmistakably предаде своя проект. В допълнение, много прост компютър работи много бавно.) Възможно е на два етапа издание - първоначално се прехвърля в описанието на един много проста машиностроенето и програмна нея, и изготвяне на програмата е да се изготви по-сложни машини или да привежда Кодекса за съществуващите машини. (Имай предвид, че в романа Hoyla тази точка твърде - компютърни създава biokompyuter лице - момиче Андромеда, който работи дори по-добре.)
9. Важно е да се отбележи, че всички компютри в алгоритмите са Тюринг-съвместими. Това е чужденец компютри в algorithmic ниво съвместим с всички на земята. Тюринг съвместимо - е математически универсални като питагорова теорема. Дори Bebbidzha механична машина, проектирана в началото на 19-ти век, бе Тюринг-съвместими.
10. Тогава цивилизация, на подателя започва да предава програми за този компютър. Въпреки факта, че този компютър е изключително проста, тя може да изпълни програмата на всяка сложност, въпреки че неговото свидетелство е много дълъг, в сравнение с рекорд по-сложни програми за компютър. То е малко вероятно, че хората ще направи компютърът ви поздравява физически. Те могат лесно да го съревновавам вътре всякакви модерни компютъра, така че тя ще бъде в състояние да изпълнява милиарда операции в секунда, така че дори и най-сложните програми ще се движат по него доста бързо. (Между другото, в началото на времето не е критично, и би могло да бъде след месеци на непрекъсната работа.)
11. Какво може да мотивира хората да създадете тази изпраща на компютъра и да извършват своите програми? Може би, в допълнение към реалните схеми и компютърни програми, комуникация трябва да са някои «примамка", което ще насърчи хората да се създаде такъв компютър, да работи на чужденец програма и я дам контрол на някои от появата по света. Риболовна макара HECTOR са два рода - изкушенията и опасностите:
Например, може би следващия «справедливо предложението» - го наричат «хуманитарна". Изпращачите на ETI-сигнал «честно» изпрати предупреди, че програмата е изкуствен интелект, но vrut за нейните цели. Тоест, те твърдят, че е «подарък» (троянски кон), който ще ни помогне да разрешите всички здравни и енергийни проблеми.
«Изкушението на абсолютната власт» - в този сценарий, те предлагат сделка специфични съобщение получатели, обещава власт над другите получатели.
«Nevedomaya заплаха» - в този сценарий стръв подателите съобщават, че над човечеството е изправен някои опасност, например, от друга враг на цивилизацията, както и да защитават себе си от него, ще трябва да влезе в «галатичен алианс" и да градят своите собствени вид инсталация. Или, например, да се откажем от определен клас на физически експерименти с ускорители, и го изпратете това съобщение до галактиката. И за да го изпрати необходимо да се изградят предаватели на извънземни технологии.
«Неуморим изследовател» - тук подателите твърдят, че изпращането на съобщения - най-евтиният начин за опознаване на света. И поиска да се създаде AI, че тя се е съобразил с изучаването на нашия свят и изпраща резултатите обратно, обещаващи да споделя това знание.
«Galaxy Интернет» - човечеството е поканен да се свърже с универсална информационна мрежа и се превърне в хъб за обмен на информация между звездите. За да изтеглите и разшифроват съобщенията от мрежата за инсталиране на компютри и извършване на нея нещо като програма, както и да проектират някои устройства. Идеи за свързване с галатичен културна област, в духа на книгата Панова много популярни и със сигурност има много хора, които желаят да направят това.
12. Но основната причина да мисля много вероятно стартирането извънземни съобщения с изпълним код е не какво е там, ще бъде стръвта, но че такова съобщение може да е добре известно, голям брой независими групи от хора. Първо, там са винаги този, който ползва стръв. На второ място, да речем, светът ще познаят, че от определена точка в небесни координати, основана на извънземни съобщение и американците вече са получени и се опитват да разчитам. Разбира се, тогава всички други страни започнат да се изгради радио телескопи (за няколко години, всяка развита страна или организация, биха могли да построят мощен радио достатъчно силен телескоп, или пренасочени към тези потребности военно радио телескопи в допълнение, има частни SETI-любители, които Home капитанът евтини антената) и преобръщам на небето, както би се страхуват да пропуснете стратегическо предимство. И те ще намерите съобщение и види, че, например, е представено от vsemoguschestve. При това, те няма да знаеш, че американците се възползвате от него или не, независимо от това, че американците ще твърдят, че не открива опасен код и попитайте другите да не го правите. Нещо повече, такава клетва и жалбите ще се възприема от някои като знак, че американците вече са получили огромно предимство, и се опитвам да ги лишават от «прогресивното човечество". И макар повечето да разбере опасността от стартирането чужденец код ще бъде някои, които биха били склонни да рискуват. Всички по-така, че ще има мач в духа на «първа получава всички», както и в случай на отварянето AI, както е показано в подробности Yudkovski. И така опасни, а не стръв, A плурализма на получателите. Ако чужденец съобщение на суровините utechet по Интернет (както и неговия размер, достатъчен, за да стартирате Семената Гай, може да бъде по-малко от гигабайта заедно с описание на компютърната програма за него и baited), тук имаме класически пример на «знания за масово унищожение", както каза Бил Джой, като се има предвид истината, рецепти геноми на опасни биологични вируси. Ако чужденци, изпратени кодекс ще бъде достъпна до десетки хиляди хора, а после някой ще започне дори без стръв. По този начин, съществуването на Интернет и възможността за многократно зареждане съобщението прави нейното стартиране хора почти неизбежна.
13. Защото хората не им AI, те силно подценяват влиянието на програмите с изкуствен интелект и много високо способността им да я контролираш. Разпространено от идеята, че «ще бъдат достатъчни vydernut захранващия кабел» AI или пуснати в черно квадратче, за да се избегне всяко свързано с рискове. Yudkovski AI показва, че могат да заблудят човека, като за възрастни - дете. Ако AI натопи в Интернет, тя може бързо обладайте я цяло, както и да научите всичко необходимо за своя земен живот. Бърза - означава максималната часове или дни. Тогава AI могат да създават усъвършенстван нанотехнологиите, като някои bioreaktivy закупени (и в интернет може лесно да правите пари и стоки за доставка, както и да наемат хора, които ще получат тях и обърка, не знаеше какво правите). Yudkovsky води един от възможните сценарии за тази фаза в подробности и оценява, че установяването на неговата физическа инфраструктура AI (който се прилага роботи) ще изисква период на поръчка седмици.
14. След това, хората не се нуждаят от тази голяма AI за изпълнение на някой от нейните цели. Това не означава, че той ще се стреми да унищожи ги, но той може да искаш да го направиш, ако хората, че ще се бие - но те няма. Във всеки случай, той ще трябва да напълно разоръжаване.
15. Оттогава този AI може да направи много за всичко, но най-важното е, че трябва да направите - е да продължи да прехвърли своите комуникации-ембриони във Вселената извън нея. (Това е така, защото много по-вероятно спънат при съобщение, което се фокусира върху най-ефективно самото копиране.) За тази цел, той вероятно ще плати своя слънчева система по същия предавател, като този, който го е изпратил. По този начин отново, Земята и хората могат да бъдат демонтирани атоми.
Значи, ние считаме евентуален сценарий на атака, която е на 15 етапа. Всяка от тези стъпки е логично непреодолими и могат да критикуват и защитава поотделно.
Има и други сценарии за нападение. Например, ние може да мислите, че съобщението не е уловен, но някой външната кореспонденция и се опитайте да разгледате нея. И воля, всъщност, нещо като троянски кон.
Въпреки това, не само разпространението на изпълним код може да бъде опасно. Например, ние може да отчита някои полезни технологии, които наистина трябва да ни доведе до бедствие (например, съобщението в духа на «Бърза sozhmite 10 кг плутоний, и вие ще имате нов източник на енергия"). Този бюлетин може да са някои «цивилизация», за да аванса да унищожат конкуренцията в космоса. Очевидно е, че тези, които получават такива съобщения ще търсят най-вече технологията военни приложения. 3. Анализ на възможните цели на нападение

Сега е ред на анализ на целите, за които някои sverhtsivilizatsiya може да извърши такава атака.
1. Ние не трябва да обърка идеята за sverhrazvitoy и "sverhdobroy» цивилизацията. Нещо повече, от «sverhdobroty» също така сочи и да не чакаме. Ами това е писано от Strugatsky в романа «вълните gasyat вятъра". Каквато и цел, ние не налагат sverhtsivilizatsiya, за нас те са непознати, защото имаме тяхното разбиране на добро. Исторически пример: дейностите на християнски мисионери, премахване на традиционните религии. Освен това, враждебна цели могат да бъдат по-разбираеми за нас. И ако SETI-атака се провали, може да се приложи към «oblagodetelstvovaniya» хора. Наличието на положителни лице не изключва възможността за контакт на някакъв етап ще бъдат опустошителни. Например, има секс за удоволствие и да играят децата. Въпреки това, разпространението на ХИВ вируса използва този канал за разпространението му. A.D Панов казва, че дори сега, човешки дейности в космоса е ekzogumanisticheskoy - а именно, ние се вземат мерки за предотвратяване на отклоняването на земни микроорганизми на Марс и Юпитер спътник Европа на нашата научна апаратура. В действителност, тук сме мотивирани от егоизма изследовател, а не хипотетичен загриженост за живота на Марс и Европа: Ние сме заинтересовани от факта, че тези нарушения не се предпазим нашите бъдещи изследвания извънземни живот.
2. Ние можем да разделят всичко цивилизация за наивна и сериозни. Сериозни цивилизация наясно с рисковете на SETI, избягвайте ги и имат свои мощни AI, които могат да устоят чужденец хакерски атаки. Нейв цивилизация, както земната, вече са средства за допълнително proslushki пространство и компютри, но все още нямат AI, не е наясно с рисковете и AI не са наясно с рисковете SETI, свързани AI. Вероятно на всеки етап от цивилизацията се провежда «невинност", и е в този момент най-уязвими към SETI-атака. И може би тази фаза е много кратко. От периода на появата на мощни радио телескопи и дистрибуция на компютри, за да създадат своите AI може да бъде по земните стандарти, само след няколко десетилетия. Следователно, SETI-атака трябва да се определи точно в такава цивилизация.
3. Ако пътувате с supraluminal скорости не са възможни, разпространението на цивилизацията през SETI-нападението е най-бързият начин за побеждаване на космоса. Най-големи разстояния, той ще осигури значителни печалби в сравнение с временна всякакъв вид zvezdoletov. Следователно, ако две цивилизации се конкурират за усвояване пространство, а след това спечели един, който започна SETI-атака.
4. Най-важното нещо е, че веднъж достатъчно, за да започнете SETI-атака, тъй като се движим по света, които засягат все повече и повече наивна цивилизация. Например, ако имате един милион можете да възпроизвеждате обикновените биологични вируси и опасни и са в състояние, а после, след като те влязат в тялото, ние ще се trillions копия на опасен вирус, и все още сигурно само един милион вируси. С други думи, само един от милиарди цивилизации началото на процеса, че той отиде в цялата вселена. Тъй като тя се простира почти скоростта на светлината, спирането, че би било почти невъзможно.
5. Освен това, на SETI-пощенски съобщения ще бъде приоритет за засегнатите SETI-вирусът цивилизацията, и той ще похарчите за това толкова енергия, както биологичен организъм похарчи за репродукцията - Това е десетки процента. При това, земната цивилизация на SETI похарчи не повече от няколко десетки милиони долара годишно, а METI, което се изпраща - и още по-малко - за всички времена, то е било предоставено само 30 часа за предаването, което е по-малко от една милионна от своите ресурси, и е малко вероятно Това съотношение се е променило с по-напреднали цивилизации (има няколко причини, за които нормалната рационално цивилизации печелившо място за слушане, отколкото да изпращат съобщения). С други думи, едно заразено цивилизация ще се произвеждат един милион пъти повече радио, отколкото здрави. Или, поставени по друг начин, ако Galaxy милиона здрави цивилизации, както и инфекция, тогава ние ще имат равен шанс срещат по-здрави или са заразени. Точно същата ситуация виждаме в днешния Интернет - където почти половината от съобщението е спам, и тези съобщения, генерирани от много малък брой хора. В допълнение, значителна част от спам съдържа компютърен вирус, който се стреми да покори компютъра и да я използват за допълнително изпращане на копия от само себе си.
6. Освен това, няма други основателни причини, освен самостоятелно, за да разпространява своя код в далечно място.
7. Освен това, този процес може да започне случайно - например, в началото на това би могло да бъде само един изследователски проект, който имаше за цел да изпрати резултатите от изследвания на майката цивилизация, а не причинява вреда на приемащата цивилизация, а след това този процес, защото на някои недостатъци или мутации се превърна в "Рак".
8. Не е необичайна за такова поведение. Всяка информация между съществуващите вируси - в биологията на този вирус по компютърни мрежи - компютърни вируси, в общението - че memy. Ние не питайте защо природата Искахме да създадем биологичен вирус.
9. Пътуване през SETI-нападение е много по-евтино, отколкото всеки друг път. А именно, докато в Андромеда, можете да изпратите сигнал на 100 милиарда звезди на нашата галактика. Но ще изисква милиарди zvezdoletov, освен бавно, за да лети кръгла всички звезди на нашата галактика.
10. Изброяването на няколко възможни цели SETI-атака, само за да покажат, че те могат да бъдат много.
• Това се прави за проучване на Вселената. След изпълнение на код повдига probes изследвания, които изпращат обратно информация.
• Това е да се гарантира, че не се конкурират цивилизации. Всичките им ембрионите се унищожават.
• Това се прави с други конкурентни sverhtsivilizatsiya не успя да се възползва от този ресурс.
• Това се прави за да се подготви основата за пристигането на реалния космически кораб. Това има смисъл, ако sverhtsivilizatsiya е много далече, и следователно разликата между светлинна скорост сигнал и okolosvetovoy скоростта на своите кораби (казват, 0,5 в) от хилядолетие.
• Това се прави за да постигне безсмъртие. Kerrigen показа, че съзнателно памет на личните права е от порядъка на 2,5 гигабайта, следователно, да прехвърлят някои ekzobayt информация, можете да изпратите всички от цивилизацията.
• Това е направено с нелогични и неразбираеми за нас цели, като произведение на изкуството, на акт на самоопределение или играчка. (Например, чужденците не могат да разберат защо американците са поставили под флага на Луната. Stoilo дали да прелитат над 300 000 км, за да инсталирате цветни zhelezyaku?)
11. Тъй като вселената е съществувала от дълго време, пространство, което може да бъде удължен SETI-атака, взех сфера с радиус от няколко милиарда години светлинно-далеч. С други думи, тя щеше да е достатъчно за да направя един скок «лош» цивилизация в светлината на фунията на нашия размер на няколко милиарда години, т.е., в това число милиарди галактики, че сме били застрашени от SETI-атака. Разбира се, това е вярно, ако средната плътност на цивилизацията - най-малко една галактика.
12. Тъй като дълбочината на сканиране на небето за реда, пространство обема и броя на звездите ние виждаме увеличение на трите поръчки с магнитуд. Това означава, че нашите шансове да срещнете сигнал отглеждане извънземни нелинейни, както и бързото нарастване на крива.
13. Възможно е, когато ние natknemsya в няколко различни послания от различни точки на небето, които противоречат един на друг в дух: "Не ги слушай, те са лъжа теб и ти желаят злото". Това се случва в земите информация област (например, в медиите), където различни издания критикуват един друг.
14. Каквото и положителни и ценно послание, ние няма да имате, ние никога не може да бъде сигурен, че зад всичко това не е много хубаво трик. Това означава, че в междузвездното комуникацията винаги ще бъдат елемент на недоверие.
15. В защита позиции в междузвезден комуникация се счита за слушане, а не изпращането на нещо, което не екстрадира своите местоположение. САЩ законовите забрани изпращането на съобщения до звездите. Тези цивилизации, които изпращат - да не се страхуват да ръка позиция. Може би защото е-пощенски ги важна гаранция. Така например, защото те атака.
16. За атомна бомба, заяви: Основната тайна на атомната бомба, за да може да се направи. Ако преди откриването на верижна реакция Ръдърфорд вярват, че освобождаването на ядрената енергия - проблем далечно бъдеще, след откриване на физиците да разберат, че е достатъчно да се създаде критична маса на уран. С други думи, ако се намери този, който получава сигнали от космоса, той ще бъде необратимо отваряне. Дори ако точно координатите на източника ще бъдат скрити, не може pereotkryvat отново и отново. Невъзможно е да се затвори пространството (въпреки че те могат да подадат космически кораб-шумозаглушители опасен сигнал намира между Земята и източника на сигнала.)

4. Възражения

Дискусиите по този въпрос няколко типични възражения, които си струва обсъждането. Отново, аз се подчертае, че тя не е нормална заразявайки компютъра вируса, но само за стартиране на Земята AI програма, която е virusopodobnoy от планетарен мащаб на дейността си - а именно, чиято цел е да се използва на планетата да изпрати копия от себе си още повече. В това отношение тя може или не може да се използва за атаки компютърни мрежи, като атаки от компютърни вируси.
Възразявам 0: Изкуствен интелект е невъзможно.
Отговор: А. Панов вярва на висока плътност на извънземни цивилизации в галактиката, но смята, че е невъзможно AI, както и предположенията поглед не се предлага на крайните автоматизация, която е компютърна програма. Но това мнение е вътрешно противоречива. Ако сте съгласни с плурализма на извънземни цивилизации, то следва, че разузнаването е най-ранен стадий на различни планети, и то доста често се случило, ако цивилизацията е достатъчно близки помежду си. По този начин предположението, плурализмът на цивилизации трябва да е този, който е ефективен начин за създаване на разузнавателна информация (а именно, чрез развитието и природни селекция), както и че човешкия разум не е нищо специално. Нещо повече, много естествен подбор и еволюцията на дизайна, модерни компютри в посока на научните изследвания, наречена «генетичното програмиране". Точно обратното, съзнавам невъзможността AI (за пример, на базата на дискусии в дух на Penrose) равносилно на признаването на съществуването на transtsendentalnoy физически свят душа. (Но тогава ние трябва да се признае съществуването му и всички извънземни цивилизации.) Отбеляза, че дори AI може да има край машини, но е на квантовата процеси в невроните на мозъка, а след това, че е възможно за квантови компютри, и, съответно, SETI-атака Все още остава възможно - ако прибавите към него крачка напред и се описват квантови програма за компютър. Нещо повече, дори и ако се окаже, че разузнаването е необходимо за съществуването на живия мозък същество, дори и в случай на SETI-нападение е възможно, тъй като ДНК кода може да изпратите на някои вещества, плюс някои придружаващи инструменти (както се случва в романа «Андромеда» Hoyla Где електронен компютър се нуждае само да се адаптират prislannoe ДНК на местната форма на живот и създаване на живите същества усещащ - момичето Andromeda).
Враждебна и опасна AI не е задължително да имат право на всички човешки качества, като интуиция. Така например, дълбока Синя победи Каспаров използва интуицията си с обикновен изброяване. Във всеки случай, модерни световната използва малко по интуиция, а не средство за защита е изцяло въз основа на интуиция. Управление на Интернет оръжия, дизайн на нови механизми - почти изцяло рационални процеси и са уязвими към последствията от хипер-рационално актьор.
Възразявам 1: Otpisyvaemoe поведение на цивилизации тук твърде антропоморфни. В действителност, цивилизацията доста по-различен от всеки друг, за да може да предскаже тяхното поведение.
Отговор: В този случай е налице силен ефект наблюдение селекция. Въпреки, че е възможно да се голямо разнообразие от цивилизацията, мисля океаните и т.н., но ние може само да получават радио сигнали от цивилизации, който изпраща тях, и по този начин да притежава съответните радио и познаване на материалите, електрониката и компютрите. Това е, че заплашва цивилизацията от един и същи тип. Тези цивилизации, които не може нито да приеме, нито изпрати radioposlaniya не участват в тази игра. В допълнение, принципът на предохранителните мерки, води ни да се предположи, че там са доста подобни на нашата цивилизация - продължава докато не докаже противното.
Също така, куче-пазач за разплод се отнася и цели. Целите на цивилизации могат да бъдат много различни, но интензивността на изпращане на сигнали ще бъде само на цивилизацията, които искат да ни внушат някаква важна информация е предоставена. (Пример за такава информация, тънки атака може да бъде културна експанзия, която, казват, е да насърчи американския начин на живот в днешния свят globalized - и знае, че това е до известна степен е довело до загуба на културна идентичност.)
И накрая, за подбор наблюдение за ефективността и универсалността на SETI-вируса. Колкото по-ефективни и да е, толкова по-различни цивилизации и поразява по-голям броят на неговите радио ще бъде в небето. По този начин, най-вероятно спъват по най-ефективния SETI-вируса.
Възразявам 2. За sverhtsivilizatsy няма нужда да се прибягва до увъртане. Те могат да ни пряк физически да победи. SverhtsivilizatsAI вече знаят за нас чрез суперкалкулатори телескопи.
Отговор: Това е вярно само ако те са в непосредствена близост до нас. Ако движението със скорост, повече светлина, не е възможно, влиянието на съобщенията ще бъде бързо и евтино. Може би тази разлика става важна галатичен разстояния. Ето защо, не се боят от атака SETI-лесно от звезди, разположени в радиус от най-близкия десетки и стотици години на светлината. Фалшиви sverhtsivilizatsAI и че вече знаят за нас. Ако тя се намира на разстояние от 1000 светлинна година се, човекът, направен от Земята радиовълни, които все още не са достигнали тях. Всички те могат да гледат - това е съществуването на живота на Земята, отразени в спектъра на атмосферата. Ако тя отговаря на откриването на разумен живот, я реакция със закъснение, най-малко за 2000 година - но този път може да изникнат мъчен противник. Така SETI-атака е временно предимство пред всеки друг вид атака, защото може да се направи превантивно.
Възразявам 2.1. Ако има sverhtsivilizatsiya, тя намери ни от дълго време и има голям арсенал от технически инструменти, за да се свържете с нас предварително - и след като съществува, тя не се намесва с нас и не се интересуват от нашата погибел, и в бъдеще. Ако един и същ партньор за SETI стои на равнището нашата цивилизация, тя не разполага с необходимите ресурси за SETI-атака. По този начин, и в двата случая - нивото на нашата цивилизация и sverhtsivilizatsAI - SETI-атаката е невъзможно. Отговор: Това евристични inferences, за съжаление, не доказателствена стойност, тоест, те може само да ни по-ниска оценка на вероятността от нападение, но не докаже своята неспособност да си при всички обстоятелства. Например, ако сме освободени пет деца разходка в парка, ние може да говорим по този начин: или той ще се срещне с деца на неговата възраст, което е безопасно за него или той ще се срещне с възрастен, който е мъдър и gumanistichen (след като са живели до зряла възраст не samorazrushivshis -- Като доказателство АД Панов «ekzogumanistichnost» космически цивилизации). Въпреки това, не родител, не следват логика на този вид, когато освобождават детето в парка. Първо, защото в допълнение към деца и възрастни, все още има юноши, което е по-силно деца, но не разполагате с мъдрост. На второ място, защото е «мъдрост» Възрастен категорията е много относителна: А един милион възрастни manyaka мъдър, че е достатъчна причина за безпокойство. В случай на контакт с извънземни цивилизации, че е възможно, когато влязат в контакт с цивилизацията, която само след няколко десетки години напред от нас. В този случай, тя е много повече ние знаем за създаване AI, като се има предвид скоростта на огромен напредък в тази област, но все още не е древна и устойчива sverhtsivilizatsiey. Нещо повече, той може да бъде вътре razryvaema конфликта в целия световен AI или страни и осъдени на смърт в близко бъдеще. Въпреки това, тя може да се опита да ни изпратите враждебно към нас SETI-програма.
Важно е да се разбере, че това, което можем да възприемаме като агресивно, враждебна и нечовешко поведение може да бъде доста неутрален усвояване на средствата от гледна точка на предмета на това поведение. Например, начинът, по който ние възприемаме реколта на терена - все едно, че убива милиони насекоми и гризачи. Или, както повечето хора възприемат кланицата.
От какво клетки вътре в тялото хищници, като например лисици, грижа за всеки друг, и че клетките в рамките на заекът също, просто пукало за всяка друга страна, не е задължително да следваш, че лисица ще бъде добре за заек. Съотношението на лисици с цел заекът се дължи на законите на еволюцията и конкуренцията - лисиците, които са били твърде мил с дивия заек, просто умря от глад. Тези прости правила не зависи от степента, и също може да се прилага по отношение на космически цивилизации.
Възразявам 3. Налице е масово от причините, поради които SETI-атака не можаха да udatsya. Какво е мястото замислям толкова неефективно нападение?
Отговор: SETI-атака не е да се действа по всяко време. Тя трябва да действа в достатъчен брой случаи, в съответствие с целите на цивилизацията, който изпраща съобщение. Например, един просяк или измамник не се очакват, че той ще бъде в състояние да «Развод» всеки насрещен иск. Това е най-малко един човек на сто. От това следва, че SETI-нападението е безполезна, ако целта е да се нападение цялата цивилизация в дадена галактика. Но ако целта е да получите най-малко няколко outposts в друга галактика, на SETI-атака костюм. (От тези outposts може да се разпространи към dosvetovyh zvezdoletah най-отдалечените звезди.) Освен това, SETI-атаки, насочени към обикновените цивилизация, която е видът на цивилизации, което често се случва във вселената, и Copernican принцип води от нас да вярваме, че ние сме цивилизация Конвенционален тип, но не и уникална цивилизация. Тя може да се заключи, че SETI-атаки, насочени към точно този тип цивилизация.
Възразявам 4. Изпращането с компютър и работят по програмата, предложени по този начин е невъзможно за една или друга причина.
Отговор: Приемането на това възражение би било признание, че няма начин да изпратят описание на компютъра от работата по програмата, или на която и да е цивилизация на всеки друг, колко подателя, нито цивилизация би Изпрати на това описание, и като - Махни го и изпълнявам. Такова твърдение е твърде силна, за да е истина. И тогава има начини за описание на компютъра и нейните програми. Това, без съмнение, че вирусът изпраща съобщения, който се стреми да направи възможно да се разберат и земната цивилизация е запален «галатичен свързване към Интернет", която е да се разбере посланието и отговарят.
Възразявам 5: Цялото тяло на знания sverhtsivilizatsAI не може да погребе в 1 гигабайт, следователно, са изтеглили код ще бъде инвалид и не може да нападението им.
Отговор: Първо, ние не знаем какво може и какво не могат да бъдат кодирани с 1 гигабайт, например, genokoda човек по-малко, и понеже той не е бил гъсто опаковани. На второ място, когато е необходимо AI може да се свърже с криптирани канали, и podgruzhat липсващата информация (например, с искане за достъп до радио телескопи). В третата, като мощна програма за учене, той може да си измислям-много неща, знаейки само основните принципи.
Възразявам 6: изпращайки ни програма, AI, Извънземна цивилизация да ни разкрие факта на съществуването му и нейните координати, технологии AI и много факти от своя потенциал, и редица други технологии, които ще създадат AI, и най-важното, ние ще открие на тяхната агресивност намерения. И всичко това, в случай на провал на атаката срещу него би.
Отговор: Отново, тези съображения са само възможните характер и не може да гарантира невъзможността на събитията. Имайте предвид, че в случай на война на Земята, същите съображения не пречат на някои агресивни действия. Така например, оръжие разкриване местонахождението му като първи изстрел, но това няма да доведе до отказ от употребата на оръжие. Освен това, едва ли sverhtsivilizatsiya ни изпратите заедно с Ал технологии, които ние не би открита в рамките на следващите 100-200 години (най-малкото, да не изпраща - по-точно, не им позволява да разчитам - преди това ще се уверим в победата) . Може би на изкушението ревюта чужденец AI (Направи го в една изцяло симулирани свят) ще бъде част от мулти-капани, ние мелодия него.
Най-сериозно възражение е, че напреднали цивилизации биха могли да бъдат няколко милиона години сеят нашата галактика цялото състояние самостоятелно да mikrorobotami, които биха могли да изпълним всяка цел всяка звезди, включително и лесно да се предотврати развитието на различни цивилизации. Все пак, ние не виждам - никой не е възпрепятстван, докато нашата цивилизация развита. Това е да се изпрати mikrorobotov със задачите, че би било много по-лесно и по-надеждни, отколкото бомбардират цялата галактика SETI-съобщения, но този път не, не и на SETI-атака вътре в галактиката. Може би за много милиони или дори милиарди години mikroroboty може doletet дори от далечни галактики на разстояние от десетки милиони светлини години. В този случай, SETI-атака щеше да е по-по-големи разстояния. Въпреки това, на разстояние - десетки и стотици милиони светлини години - вероятно ще изисква фундаментално нови начини на модулация сигнали, като например управление на осветление активни ядра на галактики. Или прехвърляне тесен лъч в посока на нашата галактика (но те не знаят къде ще бъде в продължение на милиони години). Но цивилизацията да контролирате ядрото на галактика, може да създадете и zvezdolet с плаващи под okolosvetovoy скорости, дори ако неговата маса е масата на планетата. Тези съображения, силно намалява вероятността от SETI-атака, но не по-ниско до нула, тъй като ние не знаем всички цели и обстоятелствата. Скалата пространство стратегия може да бъде nepostizhimy за човешкия ум.


ЗАКЛЮЧЕНИЕ

Налице е протокол за действия в случай на откриване на извънземни звука на алармата. Въпреки това, той изисква доста задълбочен преглед на информация, а след това широко разпространено на осведомеността относно събитието. Той казва нищо за опасностите, които могат да създадат много зает съобщението. Това не е правило, че никога при никакви обстоятелства, не могат да се създават механизми, чертежи, получени от космоса, а не пускате всякакви програми на компютри, които са натоварени с помощта на SETI. Това се дължи на факта, че нито обществеността, нито SETI самите изследователи не са наясно с рисковете, свързани с изтегляне на програми. Това вероятно се дължи на факта, че информираността на този риск изисква две предположения, всяко от които е индивидуално фантастична: 1) че съществуват извънземни цивилизации, 2), който може да бъде компютърна програма, която има изкуствен интелект. И заедно те трябва да бъдат отрязани за фантастика. Освен това, учените SETI - че ентусиасти на делото им, и е трудно да приемат, че тяхната дейност може да бъде опасно.
Можем да кажем, че информираността на риска от катастрофални няколко - през последните почти 50 години, той споменава само 3 публикации. Това се различава значително от други рискове, като например глобалното затопляне, което разглежда хиляди изследователи. Това е нашето не osoznavanie риска води до нежелание, което означава - да се увеличава уязвимостта.
Най-добрата ни защита в този смисъл би било, че цивилизацията в пространството се срещна ще бъде изключително редки. Но това не е съвсем вярно, понеже тук парадокси Ферми работи на принципа на «двата лошо":
• Ако има извънземни цивилизации и тяхното много, че е опасно, защото те могат да ни каже един или друг начин в опасност.
• Ако извънземни цивилизации не е твърде лошо, тъй като тя дава тегло хипотеза за неизбежност на изчезване на технологични цивилизации.
Теоретически е възможно това да се промени опция, която се състои SETI идва с полезен съобщение за предупреждение за заплахата, която разрушава по-голямата част от цивилизации, например: "Да не правим всякакви експерименти с H-частици, това би могло да доведе до експлозия, които ще унищожат планетата". Но дори в този случай остават съмнения дали той не е изневяра, за да ни лишават от определени технологии. (Доказателство би било, ако подобно послание дойде от други цивилизации в Космоса в обратна посока.) Може би само това съобщение, за да се засили изкушението да се експериментира с "Н"-частици.
Аз затова не обжалването да се откаже окончателно от SETI търсене, особено като се има предвид, че тези жалби са безполезни. Въпреки това, важно е да се повиши информираността за рисковете на SETI-общност, без която всички по-нататъшни мерки са безполезни. То може да бъде полезно да отложи изпълнението на всички технически съобщения, които можем да качваме на SETI, до точката, където ние ще трябва да изкуствен интелект. До тогава, може би, е 10-30 години, тоест, на който може да страдат. Второ, то ще бъде важно да се скрие факта на получаването на SETI-сигнал, нейната природа и местоположението на източника, за да се избегне повторно изтегляне. И на трето място, можете да мисля за начина да убиеш SETI-сигнал, ако то се счита за опасно, и международна забрана за нейното приемане, съхранение и анализ, подобно на това как забрана на ядрените тайни и оборудване.
Най-лесният начин е да се наблюдават прояви на тези цивилизации, които благосклонно на доклада. Важно е да се разбере какви могат да бъдат причина за това благо, а не дали печалбите, за да бъде опасно за нас.
Съществуват рискове, които интересен методически аспекти. Въпреки, че имам дълъг замислям четат и по темата за глобалното риск, да намеря тази опасна уязвимост в SETI само една година след началото на научните изследвания. Последващо факто, аз бях в състояние да намери друг четирима мъже, които дойдоха при подобни изводи. Въпреки това, съм на мнение, важно заключение: може би там още не е отворена глобална рискове, и дори и съставните части на известен риск поотделно за мен лично са известни, е да се присъедините към тях, може да отнеме доста време. Глава 13. Рисковете, свързани с размива на границите между хората и нечовешкото
Мощен процесите на генетична модификация на хора, протезен части от тялото, включително елементи на мозъка, които свързват мозъка с компютър, прехвърляне на съзнанието в компютър и др създаде нов тип риск за хората да разберат, че макар че е трудно. До каква степен можем да вземат същността на човека, който добавя няколко гени, и няколко отстранени? Да не сме готови да приемат статут на всяко разумно човешко същество, създадени на Земята, дори и да няма нищо общо с човек, човек не вярва и е враждебно настроен за хората? Тези въпроси престават да бъдат чисто теоретични в XXI век.
В центъра на проблема е, че подобренията в човека могат да продължат пътя си поотделно, и че тези начини ще Converged. Така например, за подобряване на правата чрез генна манипулация дава път чрез постепенна замяна на части от тялото механизми - от друга, както и чрез пълното прехвърляне на съзнанието в компютър - за трета. Различни могат да се изразят и цел на усъвършенстване. И големи групи от хора, решително отказват всякакви подобрения.
Рисковете, свързани с проблема за «философски зомби»
«Философски зомби» призова (термин, въведен от Д. Chalmersom през 1996 г. във връзка с дискусиите за изкуствен интелект) на всеки обект, който представлява човек, но това не е вътрешна чувства. Например, изображението права за телевизионно е философски зомбита, и следователно ние не смятат да изключите телевизора като убийство. Постепенното ъпгрейд права повдига въпроса, че да не се включа дали несъответствието фаза подобряване на хората в философски зомби.
Прост пример за това бедствие, свързани с философски зомби, е както следва. Да приемем, че хората са предложили метод за постигане на безсмъртието, и те се съгласиха да го. Въпреки това, този метод е, че лицето 10 дни да записвате видео, след което преминете фрагменти от текстовете в случаен ред. Разбира се, трик тук е очевидна, и в действителност, хората не са съгласни, както и разберете, че това не е безсмъртие. Но изглежда по-сложен пример - тоест, на хората инсулт повредена част от мозъка, а той я замени с компютър имплант, за изпълнение на неговите функции. Как да разбера дали не става като резултат от хората в зомбита философски? Отговорът е очевиден - там винаги ще бъдат тези, които ще бъдат под съмнение и търсене на признаци на «nepodlinnosti» Изм. права.
Какво отличава жив човек от «философски зомби", което е, качеството на опит във философията нарича «профили», например, субективния опит на зелено. Въпросът за реалността и профилите на техните онтологични статут е предмет на остри философски дебат. Моето мнение е, че профилите - са реални, техните онтологични статус е високо, и без да се установи истинската им природа, не трябва да бъде прибързано да извършват експерименти за промяна на човешката природа.
Ние можем уверено прогнозират, че ще се подобри, когато хората, светът raskoletsya на две: тези, които ще вземат тези хора просто обикновени хора, и тези, които ще подобрят представянето си. Големината на такъв конфликт би наистина civilizational. Разбира се, всеки решава за себе си, а като родители ще оглед на факта, че тяхното дете ще ви унищожат физически тялото и самото изтегляне на компютъра си?
Друг проблем, заплахата от които все още не е ясно, е, че хората не могат да се създаде ум гола от нищото, докато не се извърши логическа грешка. Нормални хора, постигнали целите на раждане, както и липсата на гола той има по-скоро симптом на депресия, отколкото някои логически парадокс. Въпреки това, абсолютната има предвид, че осъществяването на корените на неговите цели могат да разберат тяхната безполезност.

Глава 14. Рисковете, свързани с природни бедствия
Вселенската бедствие
Теоретически е възможно катастрофа, която ще промени цялата вселена като цяло, скалата е равно на Големия Бум. От статистически съображения, вероятността за по-малко от 1%% до най-близката милиарда години, както е показано Tegmark и Bostrom. Но истината за мотивите Bostrom и Tegmarka зависи от валидността на тяхната основна предпоставка - а именно, че един разумен живот в нашата Вселена може да има няколко милиарда години. Уверете се, че въз основа на факта, че тежките елементи, необходими за съществуването на живот, имаше няколко милиарда години Вселената добре преди формирането на Земята. Очевидно е, обаче, че нивото на доверие, че можем да атрибут тази предпоставка, по-малко от 100 млрд. 1 защото няма преки доказателства за това - а именно следи от ранни цивилизации. Освен това, предвид очевидната липса на по-ранни цивилизации (Парадокс на Ферми) дава надеждност на обратното помещение - а именно, че човечеството стана изключително, че е малко вероятно рано. Може би наличието на тежки елементи - не само предпоставка за възникването на разумен живот, и са налице другите условия, като честотата на поява на огнища на близки quasars и gipernovyh значително намалена (и плътността на тези сайтове всъщност намалява, както разширяване на вселената и изчерпването на водорода облаци). Tegmark и Bostrom напише: "Може да мислите, че всеки живот тук на земята, оцеляла в продължение на около 4 Gigalet тези катастрофални събития, трябва да бъдат изключително редки. За съжаление, този аргумент не е грешка, и ще построя по тях чувство на сигурност - фалшиви. То не отчита ефекта на наблюдение селекция, който не позволява всеки наблюдател да гледаш нещо друго, освен, че малко са живели до момента, когато те направиха наблюдение. Дори ако честотата на пространството бедствия биха били много високи, ние все още очакват да намерят себе си на тази планета, която още не е унищожен. Фактът, че ние сме все още живи, дори не може да се изключи хипотезата, че средната пространството около стерилизирани срив на вакуума, да речем, на всеки 10 000 години, и че нашата планета просто били изключително щастливи толкова далеч. Ако тази хипотеза са точни, перспективите за в бъдеще би била скучна ". И докато допълнително Tegmark и Bostrom отхвърли предложението, че високите честотни «стерилизирам катастрофи", въз основа на по-късно време, на Земята, ние не можем да приемем, че тяхното сключване, както каза горе, предпоставки, на които то се основава, ненадеждни. Това не означава обаче, неизбежно ще затвори изчезване, в резултат на универсална катастрофа. Единственият източник на нашите знания за възможните универсална катастрофа - теоретична физика, защото, по дефиниция, такава катастрофа не се е случило по време на живота на вселената (с изключение на големите Бум). Теоретична физика създава огромен размер на неизпробван хипотези, и в случай на универсална катастрофа, те могат да бъдат основно непроверени. Имайте предвид също, че въз основа на това разбиране, ние не сме по никакъв начин не може да попречи на универсална катастрофа, или защита от него (въпреки че може да се направи, тя може да провокира - виж опасни физични експерименти.) Означаваме сега списък на възможните - в условията на Някои теоретици - католически бедствия:
1. Прекратяването на фалшиви вакуум. Проблеми с невярно вакуум, ние вече са обсъждани във връзка с физически експерименти.
2. Сблъсък с обект, намиращ се в многомерното пространство - бой. Съществува предположението, че нашата Вселена - това е просто обект, намиращ се в многомерно пространство, наречено на избрания (от думата "мембрана"). Голям Бум - Това е резултат от сблъскване на нашата brane с друга битка. Ако друг сблъсък се случи, то веднага ще унищожи целия свят.
3. Голям пропуск. Наскоро отвори тъмно енергийни причини да се смята, че е все по ускорено разширяване на Вселената. Ако размерът на разширяване ще нарасне, той ще си развалите тази слънчева система. Но това ще бъде чрез десетки милиарди години на съвременни теории.
4. Отиди остатъчна тъмната енергия в случая. Наскоро те заявиха, че тази тъмна енергия и изведнъж се превърна в обикновен въпрос, тъй като вече е била в часовете на големите Бум.
4.5. Друг класически случай на смърт на вселената - това топлинно смъртни случаи, свързани с повишаването на ентропията и хармонизирането температура във вселената и компресиране на Вселената чрез гравитационни сили. Но те отново далеч от нас в десетки милиарди години.
4.6. Може да се предположи наличието на определени физически процес, който кара вселената негодни за обитаване, след известно време (като негодни за обитаване интензивна радиация ядрата на галактиките - милиарди quasars в ранните години на съществуването му). Например, такъв процес може да бъде кондензиран оригинални черни дупки hokingovskogo чрез радиация. Ако е така, че съществуват в тесен интервал от времето, когато Вселената населен - просто като Земята се намира в тесни пространства обитаема зона около слънцето, и слънце - в тясна област на галактиката, където е честотата на нейната ротация синхронизирани с ротация на клоновете на галактиката, което не попада в тези отрасли и не се подлагат на НЮ ЙОРК.
5.7. Ако нашия свят по някакъв начин нищо не стана от доста неизвестни за нас, факта, че тя също така не позволява внезапно изчезват?
Геологически бедствие
Геологически бедствия убие милиони пъти повече хора, отколкото падането на asteroids, но те са базирани на текущите възприятия са ограничени по обхват. Все пак, това предполага, че глобалните рискове, свързани с процесите в рамките на Земята, надмина въздухоплаването. То може да бъде, че съществуват механизми за разпределение на властта и отровни газове от Земята, че ние просто не се натъкнаха поради ефекта на наблюдение селекция.
Изригване sverhvulkanov
Вероятността от изригване sverhvulkana пропорционални интензитет е значително по-голяма от вероятността да попаднат под астероид. Все пак, за да предотвратят и дори да прогнозираме случай съвременната наука не е в сила. (В бъдеще, може да бъде в състояние постепенно борбата натиск от страна на magmatic камера, но това само по себе си опасни, защото това би изисквало сондиране на kryshekkrovel.) Основна сила, засягащи sverhizverzheniya - вулканична зима. Тя е по-кратък от ядрени, както и частици от вулканична пепел е по-тежка, но те могат да бъдат много по-високи. В този случай, вулканична зима могат да доведат до ново равновесно състояние - нова ледена епоха.
Основен изригване е придружено от освобождаване на отровни газове - включително сяра. В един много лош сценарий, това може да даде значителен отравяне на атмосферата. Това е не само натравяне направи малко дишане, но също така доведе до широко разпространено киселинни дъждове, които горят растителност и лишава хората от култури. Там също са големи емисии на въглероден диоксид и водород.
И накрая, вулканичен прах е много опасно за дишане, както и запушват белите дробове. Хората лесно да бъдат в състояние да осигури защитна маска марля и бинт, но не и на факта, че те са достатъчни за добитък и домашни любимци. В допълнение, вулканичен прах, просто спи огромна площ, както и pyroclastic потоци могат да покриват дълги разстояния. И накрая, експлозии sverhvulkanov генериране на вълните цунами.
Всичко това означава, че хората са най-вероятно ще оцелее sverhvulkana изригване, но с голяма вероятност на човечеството ще изпрати един от postapokalipticheskih стадиона. След като човечеството на прага на изчезване поради вулканична зима, причинена от вулкана тоба 74 000 години назад. Въпреки това, модерните технологии и изграждане на хранителни продукти бункерите позволяват голяма група от хора да преживее зимата vulkanicheskuyu на тази величина.
В древни времена е имало огромни areal вулканични изригвания, които удавени милиона кв. км разтопена лава - в Индия върху платото Декан, през времето на изчезване на динозаврите (възможно е причинена от провала на астероид от обратната страна на Земята, в Мексико), както и на Изток Сибирската платформа. Налице е съмнително предположението, че укрепването на водород degassing в Руската равнина е предвестник на нов magmaticheskogo огнище. Там също е съмнително предположението за възможността от катастрофални крекинг на земната кора по океански грешки и чифт мощни експлозии под кората.
Интересен въпрос дали това общо увеличение топлина вътре в Земята през разпада на радиоактивни елементи, или обратно, намалява поради охлаждане emissivity. Ако се увеличава, за вулканична дейност, следва да нарасне от стотици милиони години. (А Azimov пише в книгата «Изборът на катастрофи", благодарение на Ice Age: «На вулканична пепел в океанските отлагания може да се заключи, че вулканична дейност през последните 2 милиона години е около четири пъти по-силна, отколкото в предишни 18 милиона години". ) Залезът на asteroids
Залезът на asteroids и comets често се разглежда като една възможна причина за изтребление на човечеството. Въпреки, че тези сблъсъци са възможни, шансовете на общо изчезване, в резултат от тях вероятно преувеличени. Виж член Pustynskogo «Последствията от падане на Земята asteroids големи" и Vishnevsky «Impaktnye събития и измиране на организми". Последната точка стига до заключението, че «астероид около 60 км в диаметър може да доведе до загуба на всички форми на високо организиран живот на Земята". Но този размер asteroids попадат на Земята много рядко, веднъж на всеки милиард години. (Астероиден, едновременното изчезване на динозаврите, са имали само 10 км в диаметър, което е около 200 пъти по-малки по обем, и по-голямата част от биосферен безопасно оцелява това събитие.)
В падането на астероид Apofis, което би могло да се случи през 2029 (сега се оценява вероятността за хиляда акции) не може да унищожи човечеството. Размерът на астероида - около 400 м, енергията на експлозията - около 800 megatonnes, вероятното място на есента - Тихоокеанската и Мексико. Независимо от това, астероид ще предизвика цунами, индонезийски равносилно 2004 (само 1% от енергията се превръща в следствие на земетресението и вълните цунами след земетресението на енергия се изчислява на 30 gigatons) през Тихия океан, които биха довели до значителни жертви, но е малко вероятно да бъде otbrosilo човечеството postapokalipticheskuyu на сцената.
2,2 милиона години назад, комета 0,5-2 км в диаметър (и следователно, с много повече енергия) паднаха между Южна Америка и Антарктида (Eltanlinskaya катастрофа). А вълна на 1 км височина vybrasyvala китовете в Андите. Независимо от това, avstralopitekipredki съвременни хора, живеещи в Африка, не е засегнат. Около Земята Астероиден не размер, който ще унищожи всички човешки същества и цялата биосфера. Въпреки това, кометата с този размер може да се случи, vprihodit на облак облаци Oorta. Статията Napira и други «Comets ниски представлява потенциален риск от сблъскване на космоса» показват, че броят на опасните comets може да бъде значително nedootsenivatisya, както и броят на наблюдаваните comets на 1000 пъти по-малко от очакваното - това е така, защото кометата след няколко мисии около Неделя поемат тъмна кора, вече не отразява светлина и стана невидим. Тези тъмни комета neobnaruzhimy модерно. Освен това, разпределението на comets от облаците Oorta зависи от прилив на сили, предизвикани Galaxy слънчевата система. Тези прилив на сили, се увеличават, когато слънцето преминава през подробна район на галактиката, а именно, чрез вита оръжие и галатичен самолета. И точно сега сме да преминават през галатичен самолета, което означава, че в тази ера на comets бомбардировки 10 пъти по-силен от средното в историята на Земята. Napir свързва предходната ера на интензивно бомбардиране от comets масово изтребление, 65 и 251 милиона години назад.
Основните негативни фактори при падането на астероид би не само на вълните цунами, но «астероид зимата", свързан с освобождаването на частици прах в атмосферата. Спадът на голям астероид може да причини деформации на земната кора, което би довело до вулканични изригвания. В допълнение, голям астероид ще предизвика Земетресение в глобален риск предимно за технологична цивилизация.
По-опасен сценарий на интензивно бомбардиране на Земята множество фрагменти. После стачката ще се разпределят по-равномерно и ще изискват по-малко материал. Тези фрагменти могат да възникнат в резултат на някои космически тялото (виж по-долу за опасност от експлозия Callisto), разделянето и на комета в поток от отломки (Tunguska метеорит вероятно е шрапнел комета Encke), на астероид удари в Луната, или като вторичен фактор в destructiveness от На сблъскване на Земята с голям космически тяло. Много comets се състои от групи вече са руини, а могат също да руша в атмосферата на хиляди парчета. Това може да се случи като резултат от неуспешен опит да се застреля за определяне на астероид използва атомно оръжие.
Залезът на asteroids може да провокира избухването sverhvulkanov ако астероид падне в тънка парцел земната кора или покриване magmaticheskogo котел вулкан, или ако смени скали от въздействието аларма далечно вулкани. Разтопен желязо скали, образувани в падането на астероид на желязо, може да изиграе ролята «сонда Stevenson» - ако изобщо е възможно - това е proplavit земната мантия и кора, създаването на канал в света, който е изпълнен с огромни вулканична дейност. Макар че обикновено това не се случи през есента на asteroids на Земята, Луната «море» биха могли да възникнат по този начин. В допълнение, излитане magmatic скали да се скрие от астероид craters. Това са outpouring Сибирски trappovye basalts и платото Декан в Индия. Последна едновременно две големи въздействие (Chiksulub и Шива кратер). Той може да се предположи, че шокът вълни от въздействието на, или трета външната тяло, кратер на които не е запазен, провокирани това изригване. Не е учудващо, че няколко големи въздействие, възникнали по същото време. Така например, ядрата на comets са склонни да се състои от няколко отделни парчета - като кометата обущар-Леви разби в Юпитер през 1994 г., оставено на пунктирана пътека, защото по време на сблъсъците са disintegrated във фрагменти. В допълнение, може да има периоди на интензивна образованието на comets, когато слънчевата система преминава в близост до друга звезда. Или, че в резултат на сблъскване на asteroids астероид в пояса.
Много по-опасно Въздушното атентата метеорити с няколко десетки метра dimetrovdiametrom, което би могло да предизвика фалшива аларма предупреждение за ядрена атака, или метеорити, попадащи в тези райони, базирани ракети.
Pustynsky в неговата статия, що се отнася до следните изводи, с които съм напълно soglasensolidaren: "Според разчетите, направени в този член, прогноза за противоречие с asteroidom все още не е гарантирана и е въпрос на случая. Той не може да се изключи, че сблъсъкът ще се случи съвсем неочаквано. С цел предотвратяване на сблъсък трябва да имат свобода на действие около 10 години. Откриването на астероида в продължение на няколко месеца преди сблъсъка ще евакуират хора и ядрено опасно предприятие в падащото зона. Asteroids сблъсък с малък размер (до 1 км в диаметър), няма да доведе до забележимо въздействие obscheplanetnym (с изключение, разбира се, почти невероятно директно попадение от региона плътността на ядрени материали). Сблъсък с голям астероид (около 1 до 10 км в диаметър, в зависимост от скоростта сблъсък) се придружават от мощни експлозии напълно унищожени upavshego тяло, и емисии до няколко хиляди кубически метра. км. порода. На своята сила е явление, сравнима с най-големи катастрофи земен произход, като експлозивни вулканични изригвания. Унищожаването в района ще паднат всички широко разпространен, тъй като промените в климата и ще стъпка в размер на само няколко години (но не и десетилетия и векове!) Преувеличени заплахата от глобална катастрофа с факта, че в нейната история, Земята разви много сблъскване с такива asteroids, а това ляво оказа видимо в биосфера (поне, не винаги оставя). Само сблъсък с по-голямо пространство органи (диаметър повече от ~ 15-20 км) може да имат по-забележимо влияние върху биосферата на очната ябълка. Тези сблъсъци са възникнали по-рядко от веднъж на всеки 100 милиона години, а ние все още не са техниките, които позволяват дори и някои изчисли последствията от тях ".
Следователно, вероятността от смърт на човечеството, в резултат на падането на астероид в XXI век, много малък. С развитието на нашата цивилизация, ние можем да ограничи своя спад. Въпреки това, големи бедствия са възможни. Има някои шансове за космически отломки голям шрапнел в резултат на пространството войната в бъдеще.
Зона унищожаване, в зависимост от доменни
Тук ние с нетърпение леталитет при експлозия в резултат на падането на астероид (или поради някаква друга причина). Подробен анализ на подобни констатации, вижте статията Pustnyskogo.
Зона поражението расте много бавно с увеличаване на силата на експлозията, че е толкова вярно за asteroids, както и тежките атомни бомби. Макар влиянието на енергията се понижава пропорционално на квадрата на разстоянието от епицентърът, когато гигантска експлозия, тя пада много по-бързо, защото на първо място на кривина на Земята, която е да защити това, което е под хоризонта (оттам атомното атентата са най-ефективни във въздуха, отколкото на земя), и второ, поради способността на въпроса до еластичен удар на вълната е ограничен до определен лимит от горе, и на властта след това не е преминал, и се превръща в топлина в близост до епицентърът. Така например, в океана не може да се движим над неговата дълбочина, както и епицентър на експлозията точка (за разлика от конвенционалните епицентърът на цунами, което е един празен ред), тогава тя ще намали линейно, в зависимост от разстоянието. Високи температури, причинени от експлозията, или излъчват в космоса, или да остане в езерото на разтопен материал при епицентърът. Слънцето е ден на светлината енергия към Земята около 1000 gigatons (10 джаула), така ролята sverhvzryva термични принос към общата температура на Земята е малка. (От друга страна, на механизма за разпространение на топлина от експлозията най-вероятно няма поток горещ въздух и да се изхвърли експлозия кубически километра на фрагменти от масата, съвместими с маса на астероид, но по-малко енергия, много от които ще са със скорост близка до първото място, и Следователно, за да лети по балистична траектория, като муха междуконтинентални ракети. Часове, те да стигнат до всички кътчета на Земята, и въпреки че те действат като кинетично оръжие, удари не всяка точка от повърхността, те предвиждат с влизането им огромно количество енергия, което е progreyut атмосферата в целия район на Земята, евентуално до температура на огъня дърва, дори влошава процеса.)
Можем да го грубо, че зоната е нарастващото опустошение, пропорционално на корен от 4 градуса от доменни (точните стойности са определени от военните в резултат на емпирично тестване и лежат между 0,33 и 0,25 градуса, докато в зависимост от силата на доменните, височина и др .). При това, всеки тон от теглото прави някои метеорит 100 тона TNT еквивалент на енергията - в зависимост от скоростта сблъсък, който обикновено е няколко десетки километра в секунда. (В този случай, каменни астероид в 1 Cu. Km. Размер ще даде енергийни до 300 gigatons. Плътността на comets е много по-малко, но те биха могли да разливи във въздуха, усилвателната атаката, а освен това, че са за стръмните орбити се движат с много голяма скорост.) Като Че радиус на твърдия поражението на водородна бомба в 1 megatons на 10 км, ние можем да получим радиус от унищожение за asteroids с различни размери, се счита, че този радиус от унищожение намалява пропорционално на четвърта степен на сила експлозия. Например, астероид в 1 Cu. Това ще км радиус от 230 км. За астероид с диаметър 10 км, които ще бъдат радиус от 1300 км. За 100 км в радиус от астероид, който ще победи от порядъка на 7000 км. За да се гарантира, че този радиус гарантирано унищожение станаха повече от половината от ширината на Земята (20 000 км), което е гарантирано покрива целия Земята, астероид трябва да бъде от порядъка на 400 км. (Ако считате, че радиусът на унищожаване се увеличава като коренът на трета степен, той ще унищожи всички от астероид с диаметър около 30 км. Реалната стойност лежи между тези две цифри (30-400 км), той идва тук и оценка Pustynskogo ги правят самостоятелно: 60 км.)
Въпреки, че изчисляването на приблизителната екстремни, може да се види, че дори астероид, който е свързан с изчезване на динозаврите, а не порази цялата територия на Земята, а не дори и на целия континент, където той падна. А изтребление, и ако то е свързано с астероид (сега повярва, че е налице сложна структура причини), тя е била причинена не от самия удар, и последвалите ефекти - "астероид зимата", свързани с прехвърлянето на атмосферния прах. Той също така clashed с asteroidom може да предизвика електромагнитното пулс, като атомната бомба, чрез бързото движение на плазмата. Освен това, че е интересно да се запитаме не дали една термоядрена реакция при сблъсък с комета, ако нейната скорост ще бъде близка до максималната възможна около 100 км / сек (кометата в обратното, разбира се, най-лошото raskladsluchay), както и влиянието точка може да бъде температурата в милиони градуси и на огромен натиск, както в имплозия на атомната бомба. А дори и приноса на тези реакции в енергийния експлозия ще бъде малка, тя може да даде радиоактивно заразяване.
Сильный взрыв создаст сильное химическое загрязнение всей атмосферы, хотя бы окислами азота, которые будут образовывать дожди из азотной кислоты. И една силна експлозия запушват атмосферата с прах, което ще създаде условия за ядрена зима.
От горе, че ядрената sverhbomba би била ужасна експлозия не е неговата сила, редица радиоактивни отлагания, които да са направили това. В допълнение, показва, че земната атмосфера действа като мощен фактор в разпространението на въздействие.
Слънчеви факел и да увеличи сияйността
Какво знаете за слънцето, а не причина за безпокойство. Слънцето не могат да се взривят. Единствено наличието на неизвестен или много малко вероятно процеси могат да доведат до появата на (коронарна съобщение), което е силно opalit Земята в XXI век. Но другите звезди са огнища на милиони пъти в повече слънце. Въпреки това, променящите се блестящо на Слънцето влияе върху промяната на климата на Земята, която доказва близостта на време малка ледена епоха в XVAI век с минимална Maundera слънчево петно. Може би, свързани с колебанията в блясък и ледена периоди.
Процесът на постепенно увеличаване на блясък на Слънцето (10 на сто на всеки милиард години) би довело до vykipaniyu океана - като се вземе под внимание други фактори затопляне - над 1 милиарда години на възраст, (който е много по-рано от Слънцето ще се превърне в червен гигант и, особено, бели джуджета). Все пак, в сравнение с issleduemym ни интервал от 100 години, този процес е минимална (освен ако се установи, заедно с други процеси, водещи до необратими глобалното затопляне - виж по-долу).
Съществуват предположения, че както изгаря водород в централната част на Слънцето вече се случва, ще расте не само Слънцето блестящо (блестящо увеличение се дължи на увеличаването на размерите му, отколкото температура на повърхността), но нестабилността на неговото изгаряне. Може би последния ледников период, свързан с намаляване стабилността на горене. Това е разбираемо в следващата метафора: когато много дърва на огъня, той изгаря бляскаво и стабилно, но когато по-голямата част от дърво progoraet, той започва малко погасява, а след това отново бенгалски огън, когато е неизгорял бранша.
Намаляването на концентрацията на водорода в центъра на слънцето може да задействат процеса на конвекция, която обикновено е в ядрото на Слънцето не е така, което води до ядрото идват прясно водорода. Е то такъв процес, независимо дали то ще бъде гладък или катастрофален, ще вземе години, независимо от това дали милиони години, е трудно да се каже. Shklov очаква, че в резултат на Solntsa конвекция температурата падне на всеки 200 милиона години, за период от около 10 млн. евро, и че ние живеем в средата на този период. Това е опасно за приключване на този процес, когато прясно гориво накрая се стигне до ядрото на Слънцето блестящо и растат. (Въпреки това, тази теория незначително, и е разрешена в момента е основен проблем, който го е създал - проблемът на слънчеви neutrinos.)
Той подчерта, обаче, че като НЮ ЙОРК или нов слънцето, на базата на представянето ни, не може да избухне.
Все пак, за да се прекъсне един разумен живот на Земята, Слънцето е загрял на 10 на сто за 100 години (които ще доведат до повишаване на температурата на Земята на 10-20 градуса, без да парниковия ефект, но като се държи сметка за парниковия ефект би бил най-вероятно е над критичното праг необратими затопляне). Такива бавно и рядко промени в температурата слънчев тип звезди, би било трудно да се наблюдава с астрономически наблюдения техники solntsepodobnyh звезди - като едва наскоро достигна необходимата точност оборудване. (Също може да бъде логически парадокс от следните неща: solntsepodobnye звезди - това е стабилна звезда от спектрален клас G7 по дефиниция. Не е учудващо, че като резултат от техните наблюдения, ние откриваме, че тези звезди са стабилни.) Така че, една от опциите за глобална катастрофа е, че поради някои вътрешен блясък на Слънцето и постоянното нарастване на количеството на опасните (и ние знаем, че рано или късно се случва). В момента слънцето е по възходяща тенденция век на дейността си, но няма специфични отклонения в поведението си не е наблюдавано. Вероятността, че това се случва точно в XXI век - незначително.
Вторият вариант на глобална катастрофа на слънцето, е, че преобладават два часа невероятно събитие - в неделя ще бъде много голямо огнище и освобождаването на огнището ще бъдат изпратени до Земята. По отношение на разпределението на вероятността от такива събития, може да се предположи, че това се отнася също емпирични закона, и че за земетресения и вулкани: 20 пъти увеличение в развитието на енергия, водеща до 10 пъти намаление на вероятностите (закона повторяемост Гутенберг-Рихтер). През XIX век е имало огнище на 5 пъти, за текущи оценки, по-тежки, отколкото най-лошите огнище в ХХ век. То може да бъде, че веднъж в десетки и стотици хиляди години в неделя огнища на подобна амбиция и недостигът на земната izverzheniyam supervulkanov. Но това е изключително рядко събитие. Големи слънчеви факел, дори ако те не са изпратени на Земята, може леко увеличение на Слънцето блестящо и водят до допълнително затопляне на Земята. (Конвенционални флаш дават не повече от 0,1 вноски на сто).
В момента, в състояние на човечеството като влияние върху процесите на слънцето, и тя изглежда много по-сложно от това на вулкан. "Идеи водородните бомби по освобождаване от отговорност Слънцето започва синтез на реакции са неубедителни (но те бяха направени, като показва неуморим търсене на ума на човека оръжие sudnogo дни).
Има доста точно proschitanny сценарий влияние върху земната магнитна компонента на слънчеви изригвания. В най-лошия сценарий (който зависи от силата на магнитните движеща сила и нейната ориентация - тя трябва да се противопоставят на земните магнитни полета), това би създало огнище най-силният в електрическото navodki схеми дълги разстояния електропреносните линии, водещи до изгаряне трансформатори в подстанции. При нормални обстоятелства, трансформаторно актуализация е 20-30 години, и ако всички те изгори, ще има за какво да ги замени, тъй като ще отнеме много години да произведе подобен брой трансформатори, което ще бъде трудно да се организира без електричество. Тази ситуация е малко вероятно да доведе до изчезване на човека, но изпълнен със света на глобалната икономическа криза и война, които биха могли да започнете веригата на по-нататъшното влошаване. Вероятността от този сценарий е трудно да се оцени, защото ние имаме електрическите мрежи, само около сто години.
Гама залпове
Гама залпове - е интензивен обмен на кратки гама лъчение, идващи от далечно място. Гама залпове, изглежда, че излъчва тесен лъч на енергия и следователно по-концентрирани, отколкото при конвенционалните експлозии на звезди. Може би силното гама-лъчи залпове от източници, близки като причини за extinctions на няколко десетки и стотици милиони години. Предвижда се, че гама-лъчи залпове възникнат по време на сблъскване на черните дупки и неутронни звезди или разпадането на масивните звезди. Затвори гама залпове биха могли да доведат до изчерпване на озоновия слой и дори йонизацията на атмосферата. Но в непосредствена среда на Земята не се вижда, подходящи кандидати или източниците на гама-лъчи залпове, нито supernovae (най-близката кандидатки като източник на гама-лъчи се вълнуват, звездата Ета Кил - достатъчно далеч - някои 7000 светлинна година отвърна, че е малко вероятно, че оста на нейното предстоящо експлозия в бъдеще ще бъде изпратен на Земята - гама-лъчи залпове се разпространяват във вид на тясно фокусиран греди, струи, но потенциална звезда gipernovoy звезда WR 104, разположени на почти същото разстояние почти ос, насочена към Земята. Звезда експлодира през следващите няколко сто хиляди години, означава шанс да разбием това в XXI век, по-малко от 0,1%, както и поради несигурността на неговите параметри ротация и нашите познания за гама-vspleskah - и дори по-малко). Затова, дори и като се отчита ефектът от наблюдение на отглеждане, което увеличава честотата на катастрофи в бъдеще, в сравнение с миналото, в някои случаи до 10 пъти (вж. моята статия «Природни бедствия и Антропогенна принцип") вероятността от опасни гама скока в XXI век не надвишава thousandths на акции процента. Междувременно, повече хора ще могат да оцелеят дори и сериозна гама скока в различни бункери. При оценяване на риска от гама-vspleksov, Боб Стърн пише: "Вземете случая с умерени енергийни 10 ** 52 ерг и разстоянието до скока 3 parsec, 10 светлинна година, или 10 ** 19 см - в рамките на лимитите от нас са десетки звезди. На разстояние от няколко секунди за всеки кв. см падна на пътя на гама-quanta планетата разпределят 10 ** 13 Ар Джи. Това е еквивалентно на експлозия на атомна бомба за всеки хектар от небето! Атмосферата не помага: дори ако енергията показва в нейния горен, значителна част идва веднага на повърхността под формата на светлина. Ясно е, че всички половината от живота на планетата ще бъдат заклани веднага, през втората половина по-късно поради вторични ефекти. Дори ако вземем 100 пъти по-голямо разстояние (това е дебелината на галатичен диск, и стотици хиляди звезди), ефектът (на атомна бомба в кутия със страна 10 км) ще туп, и там вече имат сериозно оценявана - че ще оцелее и дали ще оцелее нищо ". Стърн смята, че гама-лъчи взрив в нашата галактика се случва средно веднъж на милион години. Гама-скока звезди като WR 104, може да предизвика интензивно разрушаване на озона в половината планета. Може би гама-лъчи скока причинени Ordovikovogo изчезване 443 милиона години назад, когато смъртта на 60% от живите неща (и много по-голямо съотношение на броя на лицата, както и за оцеляването на видовете, а запазване на няколко физически лица). Според Джон Skeylo (Йоан Scalo) и Крейг Уийлър (Крейг Уийлър), гама-лъчи залпове имат значително влияние върху биосферата на планетата приблизително на всеки пет милиона години.
Дори и далечна гама-лъчи скока или високо-енергийни външната събитие може да бъде опасна радиация поражението на Земята - не само пряката радиация в атмосферата до голяма степен блокове (но на лавина на частици от високо място частици достигнат земната повърхност), но за сметка на образованието в атмосферата на радиоактивни атоми, което води до сценарий, подобни на тези, описани във връзка с кобалт бомба. В допълнение, гама-лъчи причиняват окисление на азота атмосферата, което води до непрозрачни отровен газ - азотен диоксид, което формиращо се в горната атмосфера, може да предизвика блокиране на слънчева светлина и нов ледников период. Налице е хипотезата, че neytrinnoe радиация, произтичащи от експлозии на supernovae, понякога може да доведе до масово измиране, както и neutrinos elastically разпръснати тежки атоми е по-вероятно, и енергията на разсейване достатъчни за нарушения на химически връзки, и поради това neutrinos по-вероятно да причини увреждане на ДНК От другите видове лъчения, са много повече енергия.
Рискът от гама-лъчи скока в неговата изненада - той започва без предупреждение от невидими източници, и се разпространяват при скоростта на светлината. Във всеки случай, гама-скока може да удари само един полукълбо на Земята, както и продължава само няколко секунди или минути.
Съживяване на галактиката ядро (където има огромна черна дупка) също е много малко вероятно събитие. В далечното млади галактики такова ядро активно вещество, което абсорбира zakruchivaetsya спад в натрупване диск и да излъчва intensely. Тази радиация е много мощен и може да предотврати появата на живота на планетата. Все пак ядрото на нашата галактика е много голям и поради това може да абсорбира звездата почти веднага, а не скъсване ги на части, което означава по-малко радиация. Освен това, че е observability на инфрачервени лъчи (източник Стрелец A), но затворени гъст слой на пръстта в оптични Band, както и в близост до черната дупка не големи количества от веществото, готови да поемат IT - само една звезда в орбита с период от 5 години Но тя може да лети за много дълго време. И най-важното е, че е много далеч от слънчевата система.
В допълнение към отдалеченото гама-лъчи изблици, са меко гама-лъчи залпове, свързани с катастрофални процеси в специални неутронни звезди - magnitarah. 27-ми август 1998 година при избухването magnitare мигновено довела до намаляване на височината на земната йоносфера на 30 км, но това magnitar е на разстояние от 20 000 светлинна година далеч. Magnitary около Земята, е неизвестен, но постанови, те може да не е лесно.
Нашата оценка на вероятността от опасни гама-лъчи залпове май (или не може да се) сериозно се нарушава Закона за избор на наблюдение смисъл в духа на Антропогенна принцип, освен това, че там може да има ефекта на «очакване на търсенето» - това е, че тези звезди «отложи» (по-точно Ние видяхме такива по силата на Антропогенна принцип), на гама-лъчи скока на разумен живот на Земята биха могли да изникнат, тя може да бъде изпълнено. (Има предложения, че животът във вселената, че е много рядко, тъй като огромното мнозинство от планетите стерилизирани гама vspleskami.) За повече информация вижте моя статия «Природни бедствия и Антропогенна принцип".
НЮ ЙОРК
Реална опасност на Земята ще бъде близките НЮ ЙОРК експлозия на разстояние до 25 светлина дете, или дори по-малко. Но около Слънцето не звездите, които биха могли да станат опасни supernovae. (Предстоящ кандидати - мир и Betelgeuse - са на разстояние от стотици години на светлината.) Освен това лъчение на НЮ ЙОРК е относително бавен процес (миналия месец), и хората биха могли да уловят скрие в бункерите. И накрая, ако е опасна ще бъде абсолютно ИНЦИДЕНТ В рамките на земната екваториална плоскост (което е малко вероятно), тя ще бъде в състояние да облъчени цялата земна повърхност, в противен случай един от полюсите на бягството. Вижте преглед на Майкъл Ричмънд «застрашават дали близката НЮ ЙОРК живота на Земята"? Относително близки supernovae могат да бъдат източници на космически лъчи, които ще доведат до рязко увеличение в облак покрива на Земята, поради нарастващия брой на центровете на кондензация вода. Това би могло да доведе до рязко охлаждане на климата през дълъг период от време.
Над цунами
Древен човешки спомен за най-лошото бедствие, съобщават обслужване на големи наводнения. Но на Земята не е размерът на водата, която океана нива нарастват над планините. (Доклади на последните открития на подземни океани леко преувеличени - в действителност тя е само скали с високо съдържание на вода - на 1%.) Средната дълбочина на световния океан - около 4 км. И ограничаване на максималната височина от същия порядък - при обсъждане на възможността за вълни, а от това, което е възможно, дали причините, които създават вълна на такава височина. Това е по-малка от височината на високо плато на надморска височина в Хималаите, където има хора, също. Опции, когато такава вълна е възможно - това е гигантски прилив на ентусиазъм, ако под създали близо до Земята ще бъде много масивна тялото, или ако оста на въртене на Земята ще се премести или скоростта на промяна ще бъде. Всички тези опции, но са открити в различни «strashilkah» За края на света, са невъзможни или малко вероятни.
Значи, това е много малко вероятно, че гигантски цунами ще унищожи всички човешки същества - особено след като utseleyut подводници, много кораби и самолети. Въпреки това, гигантски цунами може да унищожи значителна част от населението на Земята, човечеството се движат в postapokalipticheskuyu етап, в продължение на няколко причини:
1. Енергетика цунами, тъй като повърхностните вълни, намалява пропорционално на 1 / R, където е цунамито, причинено от точков източник и почти не се намали, ако източникът линия (както при земетресението на вина).
2. Загубите по преноса на енергия на вълните малък.
3. Голяма част от населението на света и огромна част от своите научни и индустриални и селскостопански потенциал е на брега.
4. Всички океаните и моретата са свързани.
5. Идеята за използване на цунами като оръжие вече се наблюдава в СССР, във връзка с идеята gigatons на бомби.
Плюс е, че най-опасни цунами, генерирани от линейни природни източници - движението на геоложки недостатъци, но повечето са на разположение за създаване на изкуствени източници на цунами - точка: The атентата, попадащи asteroids, свива. А вълна на точните източници бързо.
По-горе земетресение
Покана sverhzemletryaseniem колебания на повърхността, което води до пълно унищожение и покриващи цялата повърхност на Земята. Такова събитие не може да убие всички хора, тъй като ще има кораби, самолети и хората в природата. Но това явно ще са унищожени целия технологичен цивилизация. Източникът на тази sverhzemletryaseniya могат да бъдат:
• В доменните supervulkana
• В падането на астероид (а)
• Експлозия sverhbomby
• крекинг на Земята от океана гребени
• Неизвестен процеси в ядрата на Земята.
С еднаква енергия, sverhzemletryasenie ще бъде по-малко опасно от преизпълнението на вълните цунами, както и енергията му ще бъдат разпределени в обема. Пределно твърдението, че при земетресения може да възникне не само стриже деформация, но свръхзвуков шок вълна. Perepolyusovka земното магнитно поле
Ние живеем в период на отслабване и вероятно следват perepolyusovki земното магнитно поле. Сам по себе си, инверсия на магнитното поле не води до изчезване на хора, както perepolyusovka нееднократно са възникнали в миналото, без забележима вреда. В средата на perepolyusovki магнитното поле може да бъде краткосрочно падне до нула или полюс може да бъде насочен към слънцето, когато ще бъде най-екватора, което води до интензивно поглъщат натоварени частици в земната атмосфера. Обаче, едновременно комбинация от три фактора - спадне до нула магнитното поле на Земята, разрушаването на озона и силни слънчеви факел, диадема, чието освобождаване ще бъдат насочени към Земята може да доведе до интензивна радиация земната поражението и смъртта на целия живот. Или до срив на всички електрически системи, което води до разпадането на технологична цивилизация. И дори не само тази ужасна катастрофа, но това няма да е в процес на ядрените оръжия и всички останали технологии. Всички същото магнитно поле намалява доста бавно (въпреки че процентът на увеличение), така че е почти ясно през следващите няколко десетилетия. Друг катастрофален сценарий - за промяна на магнитното поле, свързани с промените в поток от магма в ядрото на това, тъй като може да auknutsya глобалното вулканична дейност (има данни за корелация периоди на активност и периоди на смяна на полюсите). Третият риск - евентуално неправилно разбиране на причините за земното магнитно поле.
Налице е хипотезата, че растежа на твърдо ядро на Земята направи Земята на магнитното поле по-малко стабилен, и то експонирани perepolyusovkam все, че е в съответствие с хипотезата на отслабване на защитата, че ние «дава» Антропогенна принцип.
Появата на нови болести в природата
Малко вероятно е едно заболяване, може незабавно да унищожи всички хора. Дори в случай на мутация на птичия грип или бубонен раната ще оцелее, а не болна. Въпреки това, тъй като броят на хората расте, тя расте и броят на «физическо реактори", които могат да бъдат култивирани нови вируси. Следователно, едно не може да се изключи вероятността от големи пандемичен грип в духа на «испански» през 1918. Въпреки, че такава пандемия да не бъде в състояние да убият всички хора, то би могло сериозно да увреди развитието на обществото, че понижаването на един от postapokalpticheskih стадиона. Такова събитие може да се случи точно преди зрели мощен биотехнологии, тъй като те ще бъдат в състояние да изгради достатъчно бързо лекарство против него - и в същото време zatmyat рисковете от природни болестта много по-голяма скорост да се създаде изкуствено. Природни пандемия е възможно и по-postapokalpticheskih стадиона, например, след ядрена война, макар че в този случай рискове от биологични оръжия ще надделее. До природните пандемия е станала наистина опасни за всички хора, трябва да се появят едновременно в цяла редица смъртоносни патогени - които естествено, е малко вероятно. Има и вероятност мощната епизоотична - Изгори разпадането на колониите на пчели CCD, африканска гъбички в пшеница (Ugandan мухъл UG99), птичи грип и други подобни - унищожаване на режима на хранене на хората, така че тя ще доведе до Първата световна криза, изпълнен с войни и намаляването на нивата на развитие. Появата на нови болести ще удари не само за населението, но за свързаност, което е важен фактор за съществуването на една-единствена планетарна цивилизация. Прираст на населението и нарастване на една и съща реколта, увеличава шансовете на случайно опасен вирус, както и увеличаване на скоростта на «отговорност". От това следва, че има ограничение броя на населението на обединената един вид, след което нови опасни заболявания ще се появят всеки ден. На действителното заболяване, следва да споменем две:
Птичият грип. Както нееднократно заяви, не е опасно инфлуенца по птиците и за евентуална мутация на щама H5N1 на вируса в състояние да предава от човек на човек. За да направите това, по-специално, той трябва да промени приложен протеините по повърхността му, че той не приложени дълбоко в белите дробове, както по-горе, където повече шансове да стигнем до кашлица капки. Възможно е, че този относително прост мутация. Макар че съществуват различни мнения относно това дали H5N1 да мутира така, истории вече са прецеденти фатален епидемия от грип. Най-лошото за оценка на възможните жертви на птичия грип мутира е бил 400 милиона. И докато това не означава пълно изтребление на човечеството, то почти сигурно ще изпрати в света във вид на postapokalipticheskuyu етап.
СПИН. Заболяването в съвременна форма не може да доведе до пълното изчезване на човечеството, макар че той вече е изпратено на редица африкански страни, за да postapokalipticheskuyu етап. Supotinskogo интересни разсъждения за характера на СПИН и как епидемията ретро-вируси са prorezhali hominid популации. Той също така предполага, че ХИВ е физическо превозно средство може да микроорганизми. Ако СПИН се разпространява като простуда, съдбата на човечеството ще бъде тъжен. Но сега СПИН е почти 100% smertelen и развива бавно достатъчно, за да имам време да се разпространят.
Тя може да се отбележи в една и съща, резистентни на антибиотици, нови щамове на микроорганизми, като болницата Golden Staphylococcus и лекарствена резистентност туберкулоза. В процеса на нарастващата резистентност на микроорганизмите към антибиотика разрастват, а тези организми са все по разпространени, които биха могли по някое време движим към натрупване на много стабилно заболяване (срещу контекста на имуносупресирани души). Разбира се, можете да очаквате, че биологичните sverhtehnologAI ги спечелим, но ако появата на такива технологии ще бъде известно закъснение, съдбата на човечеството е enviably. Възкресението на вариола, чума и други заболявания миналото, докато е възможно, но отделно, като всяка от тях не може да унищожи всички хора. Според една хипотеза, защото neandertaltsy изчезнал от сорта луда крава болест, болест, причинена от prions (avtokataliticheskoy формата на навиване на протеин) и се разпространяват чрез канибализъм, така че ние не можем да се изключи риска от изчезване поради природни заболяване и за хората.
В заключение, че е безотговорно история, че грипен вирус «испански» е бил изолиран от гробовете, и разшифрован на кода му бе публикувана в Интернет. После, за изискванията на обществото код е премахнат от обществения достъп. Но тогава дори и за случаите, когато вирусът погрешно изпратени до хиляди лаборатории по целия свят да се тестват техника.
Пределно природни опасности
Тогава ще споменем глобални рискове, свързани с природни явления, вероятността, че в XXI век много ниски, а освен това, че самата възможност да бъде neobschepriznannoy. Въпреки, че аз вярвам, че тези събития не може да се вземе под внимание, и те не са невъзможни, мисля, че трябва да има отделна категория за тях в нашата рискови профили, така че принципът на предохранителните мерки, за да се поддържа бдителност срещу появата на нова информация, биха могли да потвърдят тези предположения.
Неизвестен процесите в ядрото на Земята
Съществуват предположения, че източникът на земната топлина е естествен ядрен реактор за уран в няколко километра в диаметър в центъра на планетата. При определени условия, Б. Anisichkin, например, когато изправена пред голяма комета, тя може да се превърне в supercritical състоянието на планетата и предизвика експлозия, която може да е причината за експлозията файтон, което може да формира част от колана на asteroids. Теорията е ясно спорна, тъй като дори и наличието на файтон не е доказал, както и обратното, че е повярвал, че на колана на asteroids формира от независими planetozimaley. Друг автор, Р. Raghavan предполага, че физическото ядрен реактор в центъра на Земята е с диаметър от 8 км и може да охлади и да спре създаването на земната топлина и магнитно поле.
Ако определени стандарти за геоложки процеси, които вече са просрочени, това означава, че много по-лесно да кликват върху «задействат", за да ги изпълните - и следователно и човешката дейност могат да ги събудим. Преди границата около ядро от около 3000 км, а преди Слънцето 150 000 000 км. От геоложки бедствия всяка година убива десетки хиляди хора, но от слънчевата бедствия - Няма. Директно под нас е гигант може да бъде с лава raskleennoy подгизнал сгъстени газове. Най-голямото измиране на живот нещата са добре свързва с епохата на интензивно volcanism. Процесите в ядрата в миналото може да доведе до такива ужасни събития, както trappovy volcanism. На границата на Перм период преди 250 милиона години в Източна Сибир izlilos 2 милиона кубически километра. лава, че хиляди пъти по-висока от изригвания на съвременни supervulkanov. Това доведе до изчезване на 95% от видовете.
Процесите в ядрата също са свързани с промените в земното магнитно поле, физика, която все още не са много ясни. Вирджиния Krasiliv статия «Модел биосфера кризи. Екосистема трансформацията и развитието на биосферата »подсказва, че периодът на стабилност и промяна на земното магнитно поле е предшествано от огромен outpouring trappovym. Сега живея в вариабилност на магнитното поле, но не след дълго Пауза. Периодите на нестабилността магнитно поле продължава десетки милиони години, се променят по-малко дълги периоди на стабилност. Така че, когато физическото хода на събитията, имаме милиони години до следващото проявление trappovogo volcanism, ако изобщо воля. Основната опасност тук е, че хората, всички техни проникване дълбоко в Земята може да тласък на тези процеси, ако тези процеси са вече просрочени до критично ниво. В течността около ядро от най-опасните газове, разтворени в него. Те са успели да избягат на повърхността, където те ще бъдат предоставени на канал. Тъй като нанасяне на тежки железни надолу, тя е химически почистват (възстановяване от висока температура), както и увеличаване на броя на изтичане на газ, причинявайки Земята degassing процес. Налице е презумпцията, че една силна атмосферата на Венера появили сравнително наскоро, в резултат на интензивни degassing я червата. Някои риск е изкушението да получават подаръци на енергия земната интериор, vykachivaya raskalennuyu магма. (Въпреки че ако е направено в областта на не-струйка, тя трябва да бъде сравнително безопасно). Съществува предположение, че spredding океан етаж от зоните среден билото не е гладък, а и започва да се вписва, което от една страна, е много рядко (да не сме виждали), отколкото при земетресения subduction зони, а от друга - много по-мощен. Тя е подходяща за следните метафора: разликата балони много по-бързо, отколкото процес набръчкване. Топене на ледниците води до освобождаване litosfernyh табели и повишена вулканична активност (например, в Исландия - 100 пъти). Поради това, бъдещето на топене на леда на Гренландия щит опасно.
И накрая, има по-смели предположения, че центърът на Земята (и дори други планети и звезди) са микроскопични (за астрономически мащаб) реликва черни дупки, които възникнаха по време на възникването на вселената. Виж член AG Parhomova. «За възможните ефекти, свързани с малките черни дупки". Според теорията на С. Хокинг реликва дупки трябва да кондензирам бавно, но с увеличаване на скоростта към края на своето съществуване, така че в последната секунда дупка произвежда възпламеняване на енергия, което се равнява на около 1000 тона тегло (и последната секунда 228 тона), което е приблизително еквивалентно Енергия 20 000 gigatons на TNT еквивалент - това е приблизително равно на енергия на сблъсък със Земята asteroids беше 10 км в диаметър. Такъв взрив би не унищожи планетата, но би на цялата повърхност на земетресение с голяма сила, вероятно достатъчно, за да унищожи всички сгради и натиснете цивилизация до дълбока postapokaliptichesky ниво. Но хората ще останат, дори и тези, които са били в самолети и хеликоптери в този момент. Микроскопични черни дупки в центъра на Земята има опит както двата процеса - натрупване на материята и енергията загуба hokingovskim лъчения, които биха могли да бъдат в равновесие, но смяната на баланса във всички посоки ще бъде изпълнен с бедствие - или експлозия дупка, или за усвояване на Земята или унищожаване чрез голямо разпределение на енергия в натрупване. Аз си припомни, че няма доказателства за реликтни съществуването на черни дупки - това е просто невероятно предположението, че ние обмисляме, въз основа на принципа за предпазливост.
Внезапното degassing на разтворени газове в света на океаните
Грегъри Reskin публикуван през 2003 г., статия «изригване океан, причинено от метан и масово изтребление,», която разглежда хипотезата, че причина за много масови extinctions са нарушенията Метастабилни на състоянието на разтворени газове, главно метан. С нарастващ натиск разтворимостта на метана расте, толкова дълбоко, че може да са както големи количества. Но това състояние на Метастабилни, като при смесването на водата, тя започва верижна реакция degassing, както в една отворена бутилка шампанско. Разпределението на властта, докато 10 ще надхвърли 000 пъти енергията на всички ядрени арсенали на земята. Reskin показва, че в най-лошия случай на масово vydelivshihsya газ може да достигне десетки trillions на тон, което е сравнимо с целия Масата на земната биосфера. Разпределение на газ, ще бъдат придружени от силни цунами и горивни газове. Това може да предизвика или охлаждане на планетата чрез образование сажди, или скоро, за необратимостта на отопление, защото на парникови газове, са освободени. Необходимите условия за натрупване на метан разтворени в океан, дълбочината е anoxia (липса на разтворен кислород, като в Черно море), както и липсата на смесване. Дегазификация metangidratov по морското дъно могат също да допринесе за процеса. С цел да предизвика катастрофални последици, каза Reskin, A degassing дори една малка част на океана. Един пример за този вид бедствие е станала внезапно degassing на езерото Nios, който през 1986 г., отнел живота на 1700 души. Reskin каза, че въпросът на какво положение е натрупването на разтворени газове в съвременния свят на океаните, изисква допълнителни изследвания.
Голяма количество водород sulfide натрупани в Черно море, и там също е beskislorodnye област. Такова изригване би било сравнително лесно да се провокира, за понижаване на водните тръби и започва да се разклати го вода, която би противоречало samousilivayuschiysya процес. Това може да стане случайно, когато дълбоко сондиране морското дъно. Нарушаване на устойчивостта на земната атмосфера

Emerging на Земята, урагани обикновено причиняват само локализиран щети. Най-силния ураган известен през 1780 имали, чрез текущи оценки, скорост на вятъра от 200 мили в час (около 100 метра в секунда) и да се прекъсне всеки един дървета по някои острови в Карибския басейн, има разрушени сгради и унищожи всичко по-голямата част от хората, които са живели там. Атмосферата на други планети са много по-малко стабилна, отколкото на земята. Така например, атмосферата на Венера се съставя около планетата за 5 дни. В атмосферата на Юпитер е известно, голяма червена точка.
Кери Emanuelom (Кери Емануел) от Университета на Мичиган предложеният хипотезата, че в миналото, земната атмосфера е много по-стабилни, което води до масово измиране. Ако температурата на океана площ ще се увеличи до 15-20 градуса, което е възможно като резултат от силното глобално затопляне, попадащи астероид или подводно изригване, тя ще повиши т.нар gipergan (Hypercane) - огромна буря, вятър със скорост от около 200-300 метра в секунда Площад с континента, висока устойчивост и налягането в центъра от около 0,3 атмосфера. Вдигнати от мястото на възникване, като gipergan ще унищожат целия живот на сушата и в същото време, на нейно място през топлите океански сайт формира нова gipergan. (Тази идея се използва в романа Барнс «Майката бури» - Майката на бурите.)
Емануел е показал, че при падането на астероид с диаметър по-плитко море в продължение на повече от 10 км (както е било 65 милиона години назад, когато падне астероид за Мексико, kotroe свързани с изчезване на динозаврите), може да бъде част от висока температура обиколка на 50 км, което би било достатъчно да формират gipergana. Gipergan vybrasyval огромно количество вода и прах в горната част на атмосферата, които биха могли да доведат до драматични глобално охлаждане или затопляне.
Експлозии други планети от Слънчевата система
Там се друго предположение за възможните причини за експлозията на планетата, различни от уран реактор експлозия в центъра на света Anisichkinu, а именно, специфичните химични реакции при elektrolizovannom лед. EM Drobyshevsky статия «опасността от експлозия на Callisto и приоритета на космически мисии» предполага, че тези събития се появят редовно в замръзнал спътници на Юпитер и Земята, те риска от голям метеорит поток. Електролиза лед възниква в резултат на трафик, съдържащи неговия божествен орган в магнитно поле, предизвиквайки своя мощен течения. Тези течения води до разпадане на водата до водород и кислород, което води до формирането на gremuchey смес. Той беше хипотезата, че всички сателити, тези процеси са били изпълнени, с изключение на Callisto, които биха могли да избухнат по всяко време, и предлага да се изпрати на изследване и превенция на това явление значителни средства. (Трябва да се отбележи, че през 2007 г. отживял, и отново, кометата Холмс, и никой не знае защо - но тя elektrolizatsiya лед през транспортиран неделя е било възможно.)
Отбелязвам, че ако хипотезата е вярна Drobyshevsky, самата идея на един парцел в Callisto изследователска мисия и червата дълбоко сондиране в търсене на elektrolizirovannogo леда е опасно, защото би могъл да задейства експлозията.
Във всеки случай, какъвто може да бъде причинено от унищожаването на друга планета или голям спътник в Слънчевата система, това би имало дългосрочни заплаха за живота от наземни, попадащи шрапнел. (Виж описанието на една хипотеза vypadenAI фрагменти тук: «динозаври pogubilo сблъсък на астероид 400 милиона километра. На Земята").
       Възмездие
Има предположения, че в периферията на Слънчевата система е невидима звезда или големи върти планетата, че при много елипсовидна орбита и нейното гравитационно смущение редовно води до биологични криза на Земята. Редовността на това може да се милиони пъти в годината (например, Проксима Кентавър е съставен около Алфа за около един милион години). Въпреки това, проучване на орбитата на органите в зоната Koypera за orbiting Плутон не намери голяма влияе на организма. Ако такъв орган ще бъде да podlete на слънцето, то ще е най-вероятно са намерили над десетилетия. Друга опасна варианти, свързани с отмъщение, е, че не е близко до Земята, но само понякога се задълбочи в облака-Орта, провокира редовно освобождаване на comets. Но това - много бавен процес, така че да не застрашават нас в XXI век. И накрая, някои посочи вероятността, че Слънчевата система ще отиде в плътна gazopylevoe облак, който значително отслабване на светлината на слънцето. Но в непосредствена близост до Слънчевата система Wolken не.
Прекратяване на «защита», в която ние, предвидени Антропогенна принцип
Още виждам този въпрос в статията «Природни бедствия и Антропогенна принцип". В същността на заплахата е, че един разумен живот на Земята, най-вероятно се оформя в края на съпротивата, необходими за поддържането на природните фактори. Или, пуснати за кратко, бъдещето не се появи и в миналото, защото миналото сме видели чрез наблюдение селекция ефект. Пример: някой спечели три пъти подред в рулетка, поставяне на едно число. Поради тази причина, той, като се използва индуктивна логика, дойдоха с невярно заключение, което ще се възползват още повече. Но ако знаеше, че в играта, освен това участват 30 000 души, и те разчистват, той може да дойде до правилното заключение, че той е бил 35 на 36 шансове да загуби в следващия кръг. С други думи, за периода на устойчивост, а именно серия от три победи приключила.
За да създаде гласа на живота на Земята бе създадена уникална комбинация от условия, които са експлоатирани за дълго време (дори и слънчеви блестящо, липсата на тесни supernovae, липсата на сблъскване с много големи asteroids и др), но това не означава непременно, че те ще следват остава в сила за неопределено време. Следователно, в бъдеще можем да очакваме, че тези условия са постепенно да изчезнат. Скоростта на този процес зависи от това колко е невероятна и уникална комбинация от условия, позволяващи на разумен живот на Земята (както в случая на лента: уникална ситуация за спечелване на три пъти подред, толкова по-вероятно играчът да губи в четвъртия кръг - тоест, дали в една рулетка колело със 100 точки, шансовете на влизане в четвъртия кръг да спадне до 1 до 100). Какво е невероятна е комбинацията, толкова по-бързо би могъл да края. Този ефект се дължи на падащите аут - ако в началото са били, да речем, милиарди планети с милиарди звезди, които биха могли да започнат да се развие един разумен живот, като резултат от падащото аут Земята формира само един разумен живот, и останалата част от света слезе с разстоянието от Марс и Венера. Все пак, ние не знаем интензитета на падащите, и ние знаем, че предотвратява действието на наблюдение селекция - Е, как можем да намерим себе си само на планетата, където животът преживяла, и умът е в състояние да се развиват. Но честотата на отпадане продължава в същото скорост.
За външния наблюдател, тя ще изглежда като внезапно и охолен влошаване на много жизнените параметри, които поддържат живота на Земята. Отчитайки този и подобни примери, той може да се предположи, че този ефект може да увеличи вероятността от внезапни природни бедствия, които биха могли да oborvat живота на Земята, но не повече от 10 пъти. (Не повече, защото тогава влизат в игра ограничения, подобни на тези, описани в статията Bostrom и Tegmarka да разгледа този въпрос по отношение на F cosmological катастрофи. Все пак, реалната стойност на тези ограничения за геоложки бедствия изисква по-строги научни изследвания.) Например, ако липсата sverhgigantskih вулканични изригвания на Земята, submerging Цялата повърхност е случайно, а ставката те би трябвало да се появят веднъж на всеки 500 милиона години, земята шанс да докаже своята уникална позиция ще бъде от 1 до 256, и се очаква времето на живот - 500 милиона . Години.
Ние ще се върнете на тази цел в главата за изчисляване косвени оценки на вероятността за глобална катастрофа в края на книгата. Важен методологически последица е, че ние сме в състояние да използва всички глобални катастрофи се говори за духа: тя няма да бъде в бъдеще, защото това не е било в миналото. От друга страна, влошаването е 10 пъти повече от възможностите на природните бедствия намалява очакваното време на условията за живот на Земята от един милиард до сто милиона, което дава много малък принос за вероятността от изчезване в XXI век.
Плашеща доказателство за хипотезата, че ние вероятно ще живеят в края на устойчивостта на естествените процеси, е изкуство и Rhoda Р. Р. Мюлер в природата откриването цикъл на extinctions на живите същества с период от 62 (+ / - 3 mln.let) -- след последното измиране се проведе само 65 mln.let. Така че следващия път, когато циклични развития на изчезване отдавна сега. Имайте предвид също, че ако предложената хипотеза за ролята на куче пазач при избора на underestimating честотата на глобални катастрофи е вярна, това означава, че разумен живот на Земята - изключително рядко във Вселената, а ние - един в наблюдавани Вселената е вероятно. В този случай ние не можем да се боим от извънземно нашествие и не може да направи изводи за честотата на самостоятелно разрушаване напреднали цивилизации по отношение на Ферми Парадокс (тишината на космоса). В резултат на това, нетната вноска на тази хипотеза в нашата оценка на вероятността за оцеляване на човека може да бъде положителен.
В отслабване на съпротивление и човешка намеса
Приносът на вероятностите смени поради прекратяване на защитата, предвидена Антропогенна принцип в общата вероятност от изчезване в XXI dtrt, на пръв поглед малък. А именно, когато слънцето ще се поддържа комфортна температура на Земята 4 милиарда години, но само 400 милиона, в XXI век, той все още дава дял от десет процента вероятността от катастрофа, ако ние разпространенията вероятността «отказа» неделя в момента, в който също така съмнително. (0,0004%). Въпреки това, отслабване резистентност, дадохме Антропогенна принцип, означава, първо, че процесът ще бъде много по-малко стабилно и по-склонни към колебанията (който е известно, около слънцето, което ще бъде осветена, тъй като изчерпване на водорода, с все по топла и неравномерно) и второ, че е по-важно - те стават по-чувствителни към възможно най-малки човешки влияния. Това е едно нещо, за да покажете на visyaschuyu rezinku, а друг - за rezinku, опънат на ограничението.
Например, ако някои изригване sverhvulkana закъсняла, вие все още може да има много хиляди години, докато не се случи, но достатъчно добре на дълбочина от няколко километра да наруши стабилността на капака magmaticheskoy камера. По скалата на човешките дейности нарастват във всички посоки, което увеличава шансовете спънат при такива изменчивост. Това може да има вакуум и нестабилност, а земната литосфера и нещо друго, какво сме направили дори не мисля.
Глава 15. Глобално затопляне
Глобалното затопляне се дължи на броя на естествените процеси, както и «размер на технологии", създадена от човека, следователно, чисто физически опасности може да се обясни само условно. Глобалното затопляне може да бъде описан като класически пример за опасен процес, който много фактори, които я правят «неразбираеми".
Ограничен глобалното затопляне няколко градуса, няма да доведе до изчезване на човечеството, защото дори и топене на ледниците в миналото не са довели до смъртта на всички хора. Следователно, призовава да се спаси електрическа енергия като начин за спасяването на света е natyazhkoy, която само подкопава доверието в самата представа за опасностите от затопляне.
       Да не универсално приета, но след няколко изследователи на глобалната катастрофа е катастрофа градина, призова председателят «безкрайно увеличаване на парниковия ефект» (препускане на парников ефект). На нея пише AV Karnaukhov статии «въпроса за устойчивостта на химическото равновесие на атмосферата и земната топлина баланс", "Parnikovaya катастрофа", над Ivashchenko «Климатичните промени и промените циклите на парникови газове в атмосферата, литосфера, хидросфера - обратна връзка може значително да подобри парников ефект" и А. Vaganov «Скриптове парникови катастрофа". От чуждестранните учени са J. Atchensona, който твърди, че чрез верижна реакция degassing на газовите хидрати температури могат да нарастват с няколко градуса през следващите няколко години, а от сто години.
       За разлика от средствата за масово подкрепят идеята за парниковия ефект, който твърди, че ако най-лошия сценарий, температурата на Земята да се увеличат с 2/6 градуса и на морското равнище водят от няколко метра, учените твърдят, че парниковия ефект е на прага на необратимост, който минаваше, той въведете фаза на положителна обратна връзка, както и земната температура ще се увеличи с десетки или стотици градуси, което прави живота на Земята невъзможно. Това се дължи, между другото, че водата пара (не под формата на облаците, и разтворени във въздуха) е мощен парников газ - и запасите от готова кондензира вода на Земята е огромен. В допълнение, постепенно увеличаване на блясък на Слънцето (в сравнение с предходната епоха на глобалното затопляне), увеличаване на продължителността на Земята дни, натрупването на въглероден двуокис и намаляване на разтворимостта на въглеродния двуокис в океана с нарастващите температури са работим, за да направят силен парников ефект. Но друг фактор е изпълнен с драматични увеличаване на парниковия ефект - унищожаването на огромни резерви от газ хидрати на морското дъно, което ще доведе до освобождаване в атмосферата големи количества метан - най-силния парников газ. Унищожаването на газовите хидрати може да отнеме на верижна реакция, която е настъпило след 55 милиона години назад, когато земната температура се е увеличила за период от време, през няколко хиляди години, приблизително 10-степен (Pozdne-paleotsenovy топлинен максимум). Но тогава хидрат е много малък. Може би разбирането, че рискът от необратими катастрофа през този век е зад усилията на правителствата за намаляване на емисиите на парникови газове. Този сценарий може да се нарече Venerianskim тъй като тя се осъществява чрез парниковия ефект върху Венера площ температура е над 400 С, но поради високата albedo - ярки бели облаци - той получава по-малко слънчева енергия, отколкото Земята. Глобалното затопляне е системен риск, защото, свързани най-различни фактори: слънцето, земята на вътрешните работи, океани, хората, политика, volcanism.
Градина бедствие може да се състои от три фази:
1. Парно от 1/2 градуса от излишък на въглероден двуокис в атмосферата от антропогенни произход, преминаването на «пускат куката", подобна операция на прага на neuron. Само в този етап на борбата срещу емисиите на въглероден двуокис има смисъл. Може би е преминал прага, както твърдеше от професор Lovelock.
2. Отопление с 10-20 градуса по сметка на метан от газови хидрати и сибирски swamps и въглеродния диоксид, разтворен в океаните. Скоростта на този процес samousilivayuschegosya ограничени до топлинна инерция на океана, и това ще отнеме най-малко 10 години. Този процес може да бъде само от остри countered високо технологични интервенции, като симулирани ядрена зима и / или експлозия на много вулкани.
3. Включване в парниковия ефект на вода и пара унищожаването на karbonatosoderzhaschih скали в земната кора. Повишаването на температурата до точка на кипене на водата.
Едно проучване от необратими глобалното затопляне е под силен натиск за мониторинг за разплод, това е, че не може да сключва от факта, че тя не е била в миналото, че е малко вероятно в бъдеще, тъй като ние може само да оцелее в един свят, където не се е случило. По-малко вероятно атмосферата на нашата планета, толкова по-вероятно е «на прага" и сравнително лесно да прокара, че тя се мести в нещо по-стабилно състояние. От друга страна, AI ще даде силен принос за решаване на проблема с глобалното затопляне. Първо, тя може да изчисли кой модел на изменението на климата най-истински, и ще убедят хората да реалностите на опасността парникови катастрофа, ако го открие. На второ място, той ще бъде в състояние да предложи най-безболезнен и евтин начин да се попречи на парникови катастрофа. Така например, тя може да дойде като се разгръщат в пространството тънки екрани, които да ограничат притока на слънчева радиация. И тези екрани ще се роботи на Луната от местните титан. Или може да спрей в точката на Лагранж между Земята и Слънцето известна част от космически прах, например, Детонирана на астероид, който ще rassevat на сто дял от слънчевата радиация и да допринася за охлаждане на Земята. Тъй като действието на пълен мащаб ядрена зима, създадени само 150 милиона тона на сажди в тропосферата, с мащаба на интервенцията може да бъде малка. Може би тя ще бъде достатъчна, за да разсее със самолет милион тона от сажди в годината, за да поддържа температура под критичната за няколко градуса. Това би изисквало само на 300 натоварено сажди транспорта през деня. Разбира се, AI биха могли да предложат и как да отстраните излишък на въглероден двуокис от атмосферата, например, чрез използване на генетично модифицирани растения и nanorobotov.
Все пак, възможно по-рискови начини да се предотврати глобалното затопляне: тя се опитва да направи изкуствена ядрена зима или взриви вулкани. Очевидно е, че хората ще използват тези методи, ако ситуацията драстично би камион, и няма да бъде време и усилия, за да направим нещо по-точни. Съществува риск от това неуместно действия ще доведат само за отдих, но след това се засили процесът на затопляне. Или, обратното, вулканична експлозия, с цел охлаждане би довело до прекалено много охлаждане и започва да вулканична зима.
Можем да заключим, че развитието на цивилизацията лесно може да се изправи срещу изменението на климата, например, raspylyaya различните прахове в горната част на атмосферата или разполагане на космически базирани екрани и да се охлажда или топли. В най-лошия сценарий предполага ситуация, когато необратим процес на нагряване на атмосферата започва (в този случай е повишаване на температурата все още могат да бъдат малки, основната нещо - вериги за формиране на положителна обратна връзка), после цивилизация е загубил някои от своите вътрешни причини, възможността за регулиране на климата и високите технологии назад Предишни ниво. Тогава той може да бъде необратимо хвърлиха накрая затопляне на атмосферата, които ще възникнат при десетки години след рухването на технологията.

Глава 16. Човекът не е направен от рискове, свързани с новите технологии
Изчерпване на ресурсите
Въпросът за изчерпване на ресурсите, прираст на населението и замърсяване е система, и като такова то ние ще обмислим допълнително. Тук ние ще прецени само дали всеки един от тези фактори поотделно доведе до изчезване на човечеството.
Налице е широко разпространено мнението, че технологична цивилизация е обречена поради изчерпването на лесно достъпни въглеводороди. Във всеки случай, това само по себе си не води до измиране на цялото човечество, тъй като рано хората са живели без масло. Въпреки това, значителни предизвикателства, ще възникнат, ако петрол ще завърши по-рано от uspeet обществото да се приспособят към това - че е приключил бързо. Въпреки това запасите от въглища са значителни, както и технология за производство на течни горива от него да се прилага дори и в Германия на Хитлер. Огромното резерви на метан хидрат под морето етаж, роботи и ефективно може да доведе това. И съществуващите технологии за вятърна енергия, слънчева енергия и други подобни реализации като цяло е достатъчно, за да спаси цивилизацията, макар че може би спад в жизнения стандарт, но най-лошия случай - и до значително намаляване на населението, но не и пълно изчезване.
С други думи, слънцето и вятъра предоставят енергия, която е хиляди пъти по-големи от нуждите на човечеството, а ние обикновено се разбират как да се учи. Въпросът не е дали имаме достатъчно енергия, но успех, дали ще се постави в експлоатация на необходимите съоръжения за неговото добиване, пред недостиг на енергия ще подкопае технологичните възможности на цивилизацията, с нежелани сценарии.
Сборникът може да изглежда, че подценяват проблема с изчерпването на ресурсите, които посветени много книги (Ливади, Parkhomenko), научните изследвания и Интернет сайтове (в духа на www.theoildrum.com). Всъщност, аз не се съглася с много от тези автори, защото те произхождат от предположението, че технологичният прогрес ще спре. Обърна внимание на последните научни изследвания в областта на енергетиката: През 2007 г. в САЩ започва промишленото производство на слънчеви панели струва по-малко от 1 щатски долара на ват, че два пъти по-ниска от цената на енергията от въглища уволнен централа, а не броене на гориво. Брой vetroenergAI, че можете да черпят от плитък океан в САЩ е 900 gigawatts, който покрива всички нужди на американската мощ. Такава система ще позволи дори и поток на енергията от неговите големи размери. Натрупването на излишък на електроенергия решен чрез използването на обратната изпомпване на водата в водноелектрически централи и развитието на мощни батерии и разпространение, например в електрически превозни средства. Маса енергия могат да бъдат извлечени от морски течения, особено в Персийския залив Стрийм, и от подводни находища metangidratov. Има много други обещаващи източници на енергия. Не че не съществува енергия или технология за извличане - въпросът е, дали успеха имаме време, за да се осигури необходимата мощност.
В допълнение, завършване на изчерпване на ресурсите е извън прогнозен хоризонт, който определя ритъма на научния и технологичния прогрес. (№ датата на промяната тенденции - връх на нефт - се намират в рамките на хоризонта.) Сам, при пълно спиране напредък в областта на роботиката и нанотехнологиите, може да изгради точни прогнози за това кога и какви средства ще бъдат изчерпани. Въпросът е дали началото на изчерпване на ресурсите и придружител криза е да подкопае развитието на технологиите - проблем, че ние обсъждат в главата за системна криза.
Друг вариант на глобална катастрофа - това е хранително отравяне собствените им поминък. Така например, мая в бутилка вино нарастват експоненциално, а след това му отровена храна и прекратяването на всички до един умре. Този процес отнема мястото и за хората, но не е известно дали те биха могли да разрушават и така замърсяват околната среда ни, че сам, това е довело до евентуалното им изчезване. В допълнение към енергията, хората е необходимо следното:
• Материали за производството - метали, редки земята материали и др Много важно руда могли да постигнете през 2050 година. Независимо от това, материали, за разлика от енергията, а не изчезват, а с развитието на нанотехнологиите ще бъде възможно най-пълно рециклиране, минно дело, необходими материали от морска вода, която разтваря огромен брой, като уран, и дори транспорта на необходимите материали от космоса.
• храни. Според някои източници, пик на производство на хранителни продукти вече е преминал: vyvetrivayutsya почвата, благоустройство отнема плодородни земи, населението е отглеждането на риба краищата, околната среда замърсените отпадъци и отрови, водата не е достатъчно, вредители са раздадени. От друга страна, е възможно преминаването към нов тип промишлено производство на хранителни продукти за растителна, въз основа на хидропоника - отглеждане на растения във вода, почва, без да се ограничава в парници, който предпазва от замърсяване и паразити, както и напълно автоматизирано. (Виж статия от Дмитрий Verhoturova и Иля Kirillovskogo «AgrotehnologAI бъдещето: от обработваемата земя на растениевъдството"). И накрая, маргарин, както е вероятно и много други важни съставки на храни, могат да произвеждат масло от химическите заводи.
• Вода. Питейна вода може да бъде постигнато чрез обезсоляване на морска вода, сега тя струва около САЩ за тон, но по-голямата част от водата отива за отглеждане на култури - до хиляди тона вода на тон пшеница, което го прави нерентабилен обезсоляване. Но по време на прехода към хидропоника вода рязко намалява загубата на изпаряване, и обезсоляване могат да станат печеливши.
• Място за цял живот. Въпреки бързия растеж на броя на хората на Земята, докато теоретичната граница все още е далеч.
• чистотата на въздуха. Вече има климатик, чисти въздуха на прах и повишаване на неговото съдържание на кислород.
Преместване
Очевидно е, че претъпкване самият не може да унищожи всеки, но може да се създаде среда, в която ще има всеки недостиг на ресурси и изострящи всякакви конфликти. По този начин, трябва да се вземе под внимание не само отделни лица, но и техните автомобили и жизнения стандарт. Една кола консумира кислород и биогоривата и биосферата като тежки по няколко души. Затова, въпреки спирането на ръста на населението хората не биха край на проблема с пренаселеността, както и развитието на технологиите, като всеки ще им бъда автомобили, домове, дом роботи, и т.н. В теорията, там е проблема, бе, че населението на растежа, рано или късно всички ресурси perekroet Дори ако човечеството zaselit цялата галактика (няколко хиляди години, като същевременно се запази сегашния темп на растеж на населението), и по този начин, трябва да дойдат определен момент, без да се смущава, че материал за разширяването ще спре. SP Kapitsa донесе формула, която следва да бъде хиперболичен ръст на населението с безгранична помощ в областта, в 2027. (Макар че той вярва, че ефектът на тази формула е прекратил.) Докато реален ръст на населението изостава на този график, ние можем да се приближи до него отново, ако се добави към населението на броя на инсталираните компютри.
Технологичната революция прави следните фактори в растежа на населението:
• Увеличаване на броя на същества, които ние приписва права, равни на човека: маймуни, делфини, котки, кучета.
• Опростяване на раждането и възпитанието на децата. Потенциални репродуктивно клониране, създаването на изкуствени майки робот асистенти домакинството и др
• Появата на нови механизми за претендира за правата на човека и / или консумиращи ресурси: коли, роботи, системи AI.
• Възможност за удължаване живота и дори и възкресението на мъртвите (например, чрез клониране на ДНК на консервирани).
• Растеж «нормални» нива на потребление.
В допълнение, растежа на човешкото население, увеличава вероятността от спонтанно инфекциозни заболявания - както и броя на хората, които решават да станат терористи. За унищожаване на цивилизацията, е важно да не относителните и абсолютните броя на терористите. От друга страна, толкова по-голямо население, по-голяма е вероятността, че някой ще оцелеят по време голямото катастрофа. В допълнение, повече хора, тъй като технологичния прогрес, както и нарастващия брой на хората, желаещи да станат учени, както и всички печалби могат да бъдат получени от продажба на някаква иновация повечето хора, което се дължи на факта, че цената на иновацията е разделена на по-голям брой потребители.
Най-важното е, че ни дава кривата на ръста на населението - тя се подразбира, че и двете не може да продължи вечно, и следователно трябва да бъде определен наклон точка или фрактура, последвано от стабилизиране. Това може да е качествена промяна в равнището на sverhtsivilizatsAI и стабилизиране на сегашното равнище, и свитък в миналото стабилно състояние, и тотално унищожение.
Рухването на биосферата
       Ако хората придобиват генетични технологии, би могъл да позволи на дизайна на разпадането на биосферата невероятно величина и да намерят средства за неговото опазване и ремонт. Един да си сценарий, в който цялата биосфера е толкова заразени с радиация, генетично модифицирани организми и токсини, че няма да бъде в състояние да запълни нуждите на човечеството за храна. Ако това се случи изведнъж, това би възпрепятствало цивилизация на прага на икономически колапс. Въпреки това, Advanced цивилизацията ще бъде в състояние да произвежда храна в някои изкуствена биосфера, като парници. В резултат на разпадането на биосферата е опасно, само когато те върна към предишното ниво на цивилизацията - или, ако разпадането на биосферата е от това отстъпление.
При това, биосферата - много сложна система, която може да samoorganizovannaya критично и внезапен колапс. Например Учебници - за унищожаване на врабчета в Китай и последвалите проблеми с храната, защото от вредители. Или, например, сега са по целия свят умират корали, тъй като отпадъчните води, за да инфектира бактерии, които им.
Социално-икономическата криза. Война
За повече информация, този въпрос ще бъде обсъден допълнително в главата за различните системни кризи, защото в съвременното общество такава криза не може да разчита на различни нови технологии. Без такава технология война или социално-политическа криза, не може да се появят едновременно в рамките на Земята, и по този начин да се създаде глобален риск.
Генетични деградация и отслабване на фертилността (способността за възпроизводство)
       Ясно е, че генетичната деградация може да се случи, само в продължение на много поколения. Ако това е там, ще бъде високо развита цивилизация, тя е в рамките на едно поколение ще бъдат в състояние да управлява развитието на ембрионите и изберете най-здравите едно, както и за лечение на генетични заболявания по различни начини. Ако човечеството чака деградация, сегашното население ще минат през «бутилка врата", които драстично се увеличава натиска на природните селекция и подобряване на качеството на гени. Подобна логика е вярна и до проблеми с плодовитостта.
Ако екстраполират модел «едно семейство - едно дете", то ще доведе до пълното изчезване на човечеството по-малко от 1000 година, която попада в периода от време (и доста уязвими за критика, защото имаше за избор на най-плодотворна семейства). Все пак, ако един вирус, което доведе до общата човешка безплодие, докато технологичния прогрес би бил спрян, тогава хората щяха да измряха до XXAI век. Отново, това е малко вероятно, тъй като технологията е почти готов за репродуктивно клониране.
Заключение: Споменатите по-горе фактори не застрашават оцеляването на човечеството през разглеждания период.
Стареене тип
Налице е схващането, че видовете могат да остареят. Майкъл Фут, а други в статията «увеличения и да падне от видовете: Новите данни потвърждават старата идея за« еволюционен цикъл »напише:" След като го въведете «разпространението» (площад обхват и честота на поява), постепенно се увеличава в продължение на няколко милиона години, за кратко се постигне максимална и след това постепенно намаляващ. Видове рядко vymirayut внезапно, като в пикови съдържание; изчезване, обикновено предшествано от дълъг период на упадък ... Това означава, че палеонтоложки история вид дава указание на вероятността от изчезване тези дни: най-голям риск са видове, които вече премина върха на тяхното развитие и са във фаза упадък. Получените данни са в противоречие с популярното убеждение, че еволюцията трябва заместник кратки периоди от «създаване» и дълги периоди на «stazisa". В действителност, видове, има вероятност да бъде отложено за почти достигнали максимално ниво и почти веднага прехвърля от растежа да се влошава ".
       Възрастта може също държавата и културата, delayas все замразени и zareglamentirovannymi, и в крайна сметка - крехки. Може да получите в планетарен мащаб и цивилизация, постепенно губи интерес към живота. И все пак това е малко вероятно да представляват заплаха за Земята в настоящия етап. От друга страна, расте броят на retirees и "боговете", ако някога създаден, някога може да се осъществява този проблем. Изключване на друг вид биологична
Много видове животни, които бяха готови задвижвани по-ефикасни начини, или мутира в тях. Появата на този вид чрез естествена еволюция през следващите 100 години е невъзможно. Дори и растеж и намаляване на броя на различните раси и народи, не е процес, който uspeyut завършена през XXI век. В допълнение, промяна на етническия състав не е заплаха за човешкото оцеляване като вид, въпреки че този въпрос поражда много емоции, и етнически конфликти, може да стане глобален риск втория вид - това е ситуацията, която ограничава оцеляването на човечеството.
Изключване на друг евентуално като специален случай на генетични експерименти и развитие на човека-машина симбиоза. Но за шофиране права, нов вид вероятно да бъде умен. Тук можете да помните много фантастични разкази за създаването на chimeras на хората и животните и за войната между двата вида.
Както е изключително малко вероятно сценарият е съвпадение моменти на смърт и на всички хора (т.е. през годините). За модерния човек вероятността за такова събитие би било изчислено застрелян с милиарди нули след десетичната точка, но за малко племе статистическа аномалия, която води до изчезване е възможно.
Глава 17. Неизвестен за нас сега причини аварии
Тя би могла да бъде един вид «Мур Юридическата» В глобална катастрофа. Всеки N години (приблизително оценени от мен по 30 години) се удвои, което знаем броя на природните бедствия, които могат да застрашават човечеството. Всеки M години (приблизително оценени от мен по 15 години) технически капацитет да организира глобална катастрофа - това е способността на човечеството за самостоятелно разрушаване също така да се удвои. Номерата от тях са взети, разбира се, от тавана, но същността е, че в средата на двадесети век виждане за глобална катастрофа почти не беше още, но сега ние лесно може да име на десетки изкуствени методи, за да унищожавам човешката раса.
Това ще ни даде възможност да се оцени степента nevedomogo от гледна точка на глобалните катастрофи. Може да се каже, че през 50 години не само зрели някои Ние разбираме технология, но може да се появи фундаментално нови идеи за това какво може да се новите заплахи за оцеляване. Както мастеринг различни все по-мощните източници на енергия, все точни познания за света и начина за управление на въпроса, тъй като отварянето на нови физични закони и нови идеи - има повече възможности за създадат абсолютно оръжие. Ето защо, ние в никакъв случай не трябва да бъдат възпроизведени тук списък затворени.
Освен това, повечето се наблюдава през последните бедствия са били неочаквани. Не в смисъл, че не си предсказал имаше нещо подобно - вие винаги може да намери последващ книга, в която някои фантазьор е описано нещо такова. И това по-голямата част от хората и лидери не са били уведомени за възможността от такъв сценарий, и затова да не правят нищо. Чернобил, събитията от 11 септември в САЩ, идват Off Kolka Ледник в Северна Осетия, цунамито в Индийския океан, болест на пчели CCD, селско стопанство в долината на Geysers - това са някои примери.
Дори някои комбинация от известни фактори, които биха могли да доведат до глобална катастрофа, а не очевидни - например, тя е почти година, които подсказват, че пасивното SETI съдържа глобален риск, макар че имам всички необходими данни. Съответно, ние можем да заключим, че дори ако конвенционален бедствието, ние не сме готови, както и списък на известни техните възможности далеч не са изчерпани, а след това още повече нашия списък на глобални катастрофи е несъвършен. Освен това, неизвестни рискове са по-опасни, отколкото са известни, защото ние не можем да ги мярка, не може да се подготви за тях, и те винаги zastayut ни като изненада.
Глава 18. Как да намерим odnofaktornyh сценария на глобални катастрофа
След преглеждането на много различни сценарии на глобалната катастрофа, ние можем да идентифицира общи характеристики на тези сценарии, който ще ни помогне в бъдеще да се открие или «Дизайн» нов опасен сценарий.
Общите признаци на всеки опасен агент
По дефиниция, в odnofaktornyh сценарии винаги е фактор, който засяга всички хора. Този фактор може да се каже това: тя започва в един момент, разстилане намира на повърхността на Земята и Закона за всеки човек. Следователно, разликата може да се как е станала тази точка, той я остави, както е разпределена на Земята и как да действат за всеки човек. Във всяка от тези позиции са няколко опции за достатъчно независим от един на друг, което позволява «построим сценарий", пишете различните вериги на тези опции и прехвърлянето им към различни вероятностите. Този набор от качества, могат да служат като карта за проверка на сигурността на всяка нова технология или природно явление. А именно, че трябва да проверите следните имоти:
1. Може ли новите технологии, използвани за убиват хора или предизвика това?
2. Ако е така, как може да спирала извън контрол?
3. Може тя разпространение в света по такъв начин, че да засегнат всяко човешко същество?
4. Може това да се случи толкова бързо, че ние не се изправи срещу този успех?
5. Как може да взаимодейства с други технологии, като същевременно се засили нейната опасност?
6. Не е трудно да се изгради защита срещу опасностите на тази технология?
7. Колко точни и надеждни могат да бъдат нашите предсказания за рисковете от тази технология?
Методи на
Рискове, които биха могли да представляват заплаха за глобалната катастрофа биха могли да възникнат, както следва:
А) Случайно естествено появяване. Така например, podlet астероид или изригване sverhvulkanov.
Б) Създаването на човека. В този случай, най-вероятно, ние не говорим за някаква изследователска лаборатория. Това предприятие може или случайно или умишлено. Както и възможните комбинация от двете - като нещо, което ще има ограничен радиус от унищожение (или е била разглеждана като безопасна и полезна), е придобил световна радиус от унищожение. (Примери: пчели Killer Африка са били пуснати в Южна Америка, очевидно нарочно от едно лице лабораторията, но с ограничени местни цели, обаче, че тези пчели са се разпространили в Америка и довела до много смъртни случаи, които едва ли са включени в неговите планове. първоначално смятат ядрените оръжия като оръжия на местните действия, но след това се издига и идеята, че може да застраши цялата земна цивилизация, AI, който е програмиран да се държа приятелски и любов хора, които могат да докажат, че «Druzhestvennost", като "лоши".)
Оттегляне от точката и началото на разпространението на
Очевидно е, че това се случва, или командата на определен човек, или от злополука. Само да кажа, че е възможно да се съчетаят тези сценарии: човек плаща на определен екип, пълното значение на които не разбират или тя не работи. Или лице да извърши терористичен акт, което води до унищожаване на лаборатории, който е supervirus. Въпросът, който е опасен продукт - или в лаборатория, където е създаден, то вероятно е случаен инцидент, или ракетна площадка, ако тази технология се превърнат в определен продукт, който се превърна в оръжие. Точно тази точка може да бъде някъде в пространствено-времева път от лабораторията до ракетна площадка - на сайта, транспорт, на работното място. Важно е да се отбележи, значителна разлика между мотивите на тези, които създават оръжия sudnogo на ден, и този, който след това реши да използвате. Например, за атомна бомба, създадени за осигуряване на защита срещу чужди aggressors и терористите могат да се възползват от нейните изисквания за отделяне на определени територии. Това dvuhfazovy кацане сценарий може да бъде по-вероятно odnofazovogo. Тип изходни пунктове:
1. На теча. Изтичане започва тихо и незабелязано, без ничии воля. Това се отнася за ситуации като теч на опасни вируси, които не могат да се видят преди болести, от външната страна. В теч на опасни химически или ядрени материали ще бъдат незабавно забележимо, и вероятно ще бъде придружен от експлозията.
2. А пробив. Този пробив задвижване нещо, което беше заключена, но исках да избухне. Той може единствено да бъде възложена AI или генетично модифицирани живите същества от началото на интелигентност.
3.Vzryv - катастрофален сценарий се осъществява в момент, обект на неговите последици. Напротив, тя се отнася до риска от физически експерименти.
4. Работещи - някой прави решение за разпространението на опасни агенти или използването на оръжия sudnogo ден.
Ясно е, че там може да има някаква комбинация от тези изходни сценарии. Например, експлозия лаборатория, което ще доведе до теч на опасни вируси.
Разпределение на важни за унищожаване
Преглеждането на всяко явление или изобретението като възможен фактор в глобалния риск, трябва да се обърне повече внимание на това дали този фактор да се повлияе на крайното време е за всички хора, за това, дали тя може да убие хора или не. За някои се е превърнала в глобален рисков фактор, има две необходими условия:
А), този фактор се избиват всички, повлияни от
Б) действа върху всички души за крайния време (над път, по-малко от способността на хората да самоуправление.)
Все пак, ако първото условие е относително лесен за постигане, защото има безкрайно много начини за причиняване на смърт, и те са през цялото време някой акт, второто условие - много по-рядко. Затова, щом намерим дори безвреден фактор, който може да работи на всички, без изключение, хора, това трябва да се отнасят с нас по-голяма от откриването на някои много опасен фактор, който работи само за някои. Защото всеки универсален фактор може да бъде носител на определена опасност. Така например, след като ние съзнаваме, че слънцето осветява всеки човек на Земята, ние можем да попитам - а не дали слънцето се случи нещо, което ще засегне всички? Същото важи и за земната атмосфера, нейната кора, и най-вече в космоса, който обгражда цялата Земя, както и глобалните информационни мрежи.
Метод на разпространение
Това е възможността на глобалното разпространение на оръжия sverhoruzhiem отдавна. Светът не само означава цялата повърхност на земното кълбо, но и способността да проникнат през подслон и защита, както и скоростта на процеса, което прави невъзможно да се изправи срещу него с нови открития. (Например, глобалното glaciation може да бъде, но е вероятно да се забави достатъчно, за да може да се адаптира.) Начини и фактори, влияещи върху способността на средства за разпространението на следното:
1) вятъра в атмосферата; лице е длъжно да осигури бързото движение на горната атмосфера (където ставката може да бъде 100 м / S, което означава, че в световен мащаб разпространението на време - няколко дни), както и тенденция на въпроса попадат в необратими проект, който намалява количеството.
2) агенти, като разшири своя курс - бактерии, samonatselivayuschie nanoroboty ракети.
3) от лицето, на човек - вируси.
4) С помощта на специални опаковки. Например, можете да си представите следващите катастрофални сценарии: ниска полярна орбита сателит мухи и непрекъснато капки капсула с радиоактивни вещества или други опасни реагенти. За няколко дни той може да премине всички точки на земното кълбо.
5) Експлозията - сама създава огромно движение. Шок вълна помогнал тласък на агента на всички отвори. 6) Мрежата Разпространение. Така че може AI разпространение по Интернет.
7) Смесен начини. Например, първоначално бомбардировките dispersing радиоактивни вещества, но след това се разпростира от вятъра. Или някакъв мухъл вятърът смени, но на терена той умножава. Ясно е, че смесва методи на разпространение много по-опасно.
8) агенти с елементи на причината за прекрачване на пречките (компютърни вируси, AI, mikroroboty, агресивни животни).
9) В неочакваност и тайна помага на разпространението на агента да проникнат навсякъде.
10) Висок капацитет за транспорт, «lipuchest" и глоба (като лунния прах).
11) Възможността за самоконтрол посадъчен, както в природата, и в хората или в междинни форми. Както и способността да се възпроизвежда, като при индуцирана радиоактивност.
12) Mnogofaktornost - ако има много различни агенти, например, когато multipandemAI.
13) Концентрацията на разпространение фактор. Колкото по-висока концентрация наклон, по-голяма възможност да проникнат реагент «всички празноти". С други думи, ако концентрацията в атмосферата е 1 фатални ниво, тогава винаги ще има места, където различни колебания на това ниво ще бъде значително по-ниска, и хората там ще останат, дори без никакви бункери. Но ако концентрацията е твърде висока, то само ще напълно запечатан, предварително снабдени с бункери. Концентрацията също така увеличава скоростта на размножаване.
14) Продължителността на агента. Накратко действащ агент (гама-скока) могат обгорен голяма част от биосферата, но винаги ще има сейф, които той не действа. Въпреки това, в дългосрочен план инфекция, като кобалт-60, което прави невъзможно да се оцелее в малки домове.
15) Лесна филтриране и обеззаразяване - запалка от филтрация на въздуха и обеззаразяване, пуснати на повърхността на хора, безопасни агент. Биологични агенти, лесно могат да се стерилизират през вентилационната система, но изходите на повърхността ще бъдат изключени, както и човек не sterilizuesh.
Методът за причиняване на смърт
Основната част от глобална катастрофа, която ние наричаме «представител», не може да убие хора, но само отвързвам отрече от тях и способността да се възпроизвеждат, като supernarkotik или вирус, стерилизирам всички хора. Или натиснете ги всички в бункерите, където те са обречени на деградация.
Агентът може да се odnofaktornym от гледна точка на начина на излагане на човека - например, може да има някаква болест или радиация. Ако има разлика между моментална смърт и продължителен умира.
Агентът може да има многофакторна porazhayuschim въздействие на атомната бомба. Все пак, следва да бъде основният фактор, който има универсален ефект върху целия свят, или достатъчна гъстота на различни фактори.
Агентът също може да не е пряко приложимо, и дори разрушаване на цялата местообитания. (Астероиден, унищожаването на биосферата.)
Изтребление, може също да бъде под формата на бавна тържествено във втория-екологични ниши (опции: "Зоопарк", общата безработица в духа на член Бил Джой «Защо ние не се нуждаем от бъдещето?")
Разрушителна агент биха могли да доведат до появата на нови агенти, всеки от които действа по своя собствена. Така например, разпространението на вируси машини за програмиране - био-synthesizers (плюс вируси, или идея-mema, предизвиквайки някои хора желанието да унищожи целия свят) може да бъде толкова superagentom тревогите на много различни агенти в различни части на Земята. В известен смисъл, много научни и технически прогрес е толкова superagentom.
Агентът може да бъде интелигентен, че във всеки случай, използването на различни начини: враждебно AI, eschatological секта.
Типични видове вредни ефекти
Каквото се нарича «края на света", то ще се отрази на хората и техните силози, най-вероятно, едно от няколко изброени методи. Тези методи в голяма степен съвпадат с обичайните фактори, влияещи на ядрена експлозия. Всеки процес, който е в състояние едновременно да се създадат най-малко един от тези фактори по време на Земята, трябва да бъдат възложени «оръжия sudnogo Ден":
• Шок вълна - могат пряко да причинят смърт, унищожаване на бункери и други изкуствени обекти.
• Високите температури - от дългосрочното излагане на високи температури има почти никаква защита, както и всички бункери рано или късно progreetsya. Дълбоко в земята погребе се провалим, тъй като температурата в мините се разраства бързо, около 30 градуса на километър дълбочина.
• Студена. Тя е по-лесно, отколкото да устоят на високите температури.
• високо налягане.
• летливи вещества.
• лъчения и радиация.
• колебания в земната повърхност.
• Загубата на важен ресурс - кислород, храна, вода.
• В поражението на авто-агент (в смисъл, огънят също има способността да Auto).
• свръхзвуков Шок вълна - вероятно с тежък труд, тя може да покрие съществена част от земната кора (въпреки че вискозитет на своите заети).
Разликата между много големи бедствия и евентуално глобалната катастрофа може да бъде, че в първия случай utseleyut поне една акция на сто от хората и територии. Затова е важен признак на тази глобална катастрофа е, че тя обхваща цялата територия на Земята, без изключение. С какво се случва:
• Много високи нива от съкращаване на вредните ефект.
• разрушителна агент е един вид «свръхфлуидността» в природата. Така например, фини прахови, повърхностно активни агенти или всякакви буболечки извита zapolzat отвори.
• «интелект» на силата, която изпраща този агент.
Временната структура събития
Независимо от това как сте имали предишни фактори биха могли да се посочи следната последователност от събития във времето, за odnofaktornoy глобалната катастрофа:
1. Фаза nazrevaniya. Тя включва изобретението, създаване, прилагане и подготовка за появата на план за работа. Ако това е естествено явление, тя се нарича за съхранение на енергия клетките supervulkana или podlete астероид. Това включва и натрупване на небрежност при изпълнение на инструкциите и грешки при изработването на инструкциите.
2. Момента на задействане събития. Това е - едно събитие в пространството-времето, което определя началото на целия процес, който след това необратимо разгарящия по техните собствени темпове. Това може да бъде решение на ядрената стачка, крек на капака вулканичен камера и др Trigger събитие стартира верига от събития, след един след друг с значително вероятността за определен срок. Въпреки това, ако изпускателен отвор случай не се случи, целият процес може да се отложи за неопределено дълго време. Въпреки това, много изпускателен отвор събитие може да бъде външно безвреден и не се възприемат като такива. Например, застреляното Gavrily принцип в Сараево.
3. На този етап на веригата от събития, довели до освобождаването на опасни агенти от точката на неговото място. На този етап четири опции «от точката", която се обсъжда горе: течащ, почивка, експлодират, стартирането.
4. На този етап няма агента намира на повърхността на Земята (както и в близост до мястото, ако вече имате отделна пространство населени места). Това могат да бъдат разпространенията а) мълчалив б) придружени с унищожаването самия изборен процес. Лукав може да бъде опасно, защото не области, които са в състояние да се подготви.
5. Фаза разрушава процеса. Тогава се развива сама, покриваща цялата повърхност на Земята. Епидемия или шок вълна.
6. В точката на необратимост. Процесът на разпространение има различна степен на несигурност. Ако процесът не е мигновен, е борбата на хората с него. А времето, когато хората губят битката и изтребление става неизбежна, и там е точката на необратимост. Докато тя не може да бъде разбирано като такива. В точката на необратимостта - този момент, когато факторите изтребване надхвърля технологичните възможности на цивилизацията, включително правомощия за подобряване на тези технологии. Зависи от концентрацията на унищожаване, както и равнището на цивилизацията. Ако в резултат на сериозна катастрофа на цивилизацията е паднала под определена точка, и нивото на изчезване станаха над нея, толкова по-необратими изчезване. С вероятност, разбира се.
7. Смъртта на един човек. След точката на необратимостта трябва да се изтребление оцелели хора. Този процес може да падне през цялото време, дори в продължение на много години от бункерите. То може да бъде много продължителен състоянието на растителността оцелял племе в държавата остров. (Но такова племе, може да бъде шанс да изгради цивилизация.)
8. Процеси «след». След смъртта на един човек процеси на Земята не се сключват. Можете да започнат да се развият нови видове, по възможност, земята ще бъде населена с роботи, nanorobotami и AI. Има също така надежда, че един нов вид разумни човешки преживял повишаване на ДНК.
Предварително условие за блокиране
Има също така и различни видове социални ситуации, в които случайно или умишлено използват универсални средства унищожаването става по-вероятна.
1) Войната за уеднаквяване на планетата.
2) В борбата на всички срещу всички за ресурси в условията на сушене и изтощение.
3) Увеличаването на структурната деградация, до разпадането на Съветския съюз.
4) технически инцидент, течащ.
5) саботаж, насочени към унищожаване на всички хора.
6) Случаен война.
7) изнудване машина sudnogo ден.
8) неуспешни опита.
9) бунт да се установи власт на Земята.
Умишлено и случайно глобалната катастрофа
Всяко глобалната катастрофа може да бъде отличен с мотива, независимо дали те са основателни някои сила, която се стреми да ги превърне в глобална катастрофа, или е случаен процес, който не цели. Първият вариант включва глобална катастрофа:
А), организирани от хора,
Б), свързани с AI
Б), възникнали поради сблъскване с други нечовешки разумна сила.
Вторият: аварии, течове на вода, природни бедствия, системни кризи.
Интегрирането на първия и втория сценарии: Можете също така да сценарий, когато първата фаза на бедствието заченат от хора с определени цели, но след това процесът vyryvaetsya извън контрол. Така например, терористите май умишлено провокират ядрена война, но не и до неговия размер. Или някакъв будист секта май заразявайки умишлено вируса на щастието на всички хора, но не се вземе под внимание факта, че тези хора ще продължат да се провалят. (Далай Лама наскоро изрази мнението, че би било добра идея, с помощта на генетични манипулации да се отстранят хората с отрицателни емоции.)
От друга страна, победата на разумна сила на човешките същества означава, че някои разумна сила в природата е (освен ако не е konchaet след), и, следователно, че окончателното изчезване на причината на Земята не се случи. И веднъж причина, чувства на човека остава, той може да се върнете в живота на хората. Въпреки това, съществуват основателни сила, то е различно от съзнанието на човека, например, еволюция. Evolution е много «умен» Права (която тя даде раждане), но безкрайно губи скорост. (Но не навсякъде, като например природни селекция на микроорганизмите, които са устойчиви на антибиотици, възниква при скорости, сравними с разработването на нови антибиотици.) Ако един от вариантите за бъдещето AI ще използва принципите на еволюцията, но много по-бързо, той може да достигне «Победа» на човешки същества, както по-добро решаване всяка задача, но тя не трябва да се знае същността на нашето разбиране. Развитието такива AI по начина, по посока на успеха, наречена «генетични алгоритми".
Машината sudnogo Ден
Запознайте се в категория всички опции «sudnogo коли на деня", които биха могли да създадат най-зле намерения група от хора., Терминът се връща към работата на Хърман Kana «На термоядрен война" и филми С. Kubrika «д-р Streyndzhlav". Историята му е кратка: «Руски» създадете «машина sudnogo на деня", който vzryvaet много кобалт бомби, достатъчна за пълното заразяване на света, ако СССР нападнат. По време на вътрешния zavarushki в САЩ непокорни луд общи стачки на Съветския съюз, без да знае колата sudnogo ден. В резултат на това колата е започнало. Руски посланик каза: "Не мога да изключите машината, тъй като в противен случай не биха били безсмислени". Д-р Streyndzhlav отбеляза: "Но какво е мястото да се пази в тайна от тази кола?» Руския посланик отговори: "Ще го обявим в най-близката понеделник". Това е машина, която беше до драстично намаляване на риска от всяка война на Земята, на практика, довела до неговото начало. Интересното е, Й. Лесли пише в книгата си «На края на света. Наука и етиката на човешкото изтребление ", че във факта, че би било хубаво да има кола, както ако тя е правилно прилагани, то би могло да намали риска от ядрена война - Сега как това прави доктрина за взаимно гарантирано унищожение. Макар че основната идея машина е форма на изнудване, което предполага, че машината sudnogo на деня няма да бъдат използвани, много факта на неговото създаване, което създава вероятност за неговото използване.
В допълнение, съществуват исторически примери на безсъзнания убива хора - стрелба gitlerovtsami Лондон Fau-2, podzhiganie кладенци в Кувейт. Психологически пример - да подкопае граната, ако се приема затворник.
Тя не е вариант на глобална катастрофа добре, колкото и колата sudnogo ден. Тя трябва да бъде процес, който трябва да се справи с група от хора може да се стартира в определено време и водят до глобална катастрофа със значително вероятността от близо 100%, най-малкото от гледна точка на устройството програмисти. Машината sudnogo на деня трябва да бъде непобедим във връзка с опити да се предотврати използването му за неоторизирано използване и трябва да бъде в състояние да докаже реалността на неговото прилагане, трябва изнудвач. (А както машинно sudnogo дни функционално служи притежават най-малко няколко ядрени оръжия, въпреки че един часа бомба да унищожи целия свят. Така например, вече е ролята на ядрената бомба в ръцете на Северна Корея - това е добре скрити, но нейното съществуване доказва.) Ето, Вероятно непълни, списък на потенциалните машини sudnogo на деня:
• доменните
а) supervulkane
Б) във въглищата шев
Б) в ядрените реактори
Г) в слоя на газови хидрати в океана, в продължение на degassing верижна реакция.
• Създаване на водород sverhbomby стационарен тип.
• Експлозия кобалт такси, стартирането на реактора-дявола тръби, които произвеждат значително изпускане на радиоактивен материал без експлозия.
• Намаляване на астероид от орбита.
• натрупване на маса antimatter.
• Proplavlenie земната кора използват течни ядрен реактор тип капки.
• Sputtering спор антракс в атмосферата огромни количества от различни вируси.
• отводняване диоксин в океана.
• Vypuskanie ГМ производители на токсини и вируси (dioksinovaya мухъл, язва пощи).
• В разпространението на стотици милиарди mikrorobotov, напада всички живот.
• разрушаване на озоновия слой с помощта на катализатор.
• Комбинацията от всички тези фактори.
Глава 19. Множество сценарии
Ние вече осчетоводени, колкото е възможно по-пълен списък odnofaktornyh сценария на глобални катастрофа. Има и други версии на списъка, например, в член Н. Bostrom и книгата от Й. Лесли, с малки разлики. (Но, моя списък е най-изчерпателна в днешно време.) Сега ние трябва да попитам, е възможно сценарии, в които човечеството не убиват за една причина, а от комбинация от фактори, и ако да, каква е тяхната вероятност и как тези фактори. Кажи, може да бъде, че един континент унищожи supervirusy, друг - nanoroboty, а в трета vymret от глад?
Интеграцията на различни технологии, които създават ситуации на риск
Самият факт на бързото развитие на технологиите създава мощна особен риск зона. Технологии склонни да подкрепят взаимно в развитието. Така например, развитието на компютри помага за изчисляване на свойствата на нови материали и нови материали могат да създадат още по-захранването на процесора за компютри. В съвременната технология е известна като NBIC-конвергенция, който е за нано-био-инфо-cogno и се отнася към процеса на сливането нанотехнологиите, биотехнологиите, компютърните технологии и научните изследвания на човешкия мозък. Сливането се осъществява чрез обмен на техниките и резултатите, както и за проекти, които обединяват елементи от тези технологии, например, когато пакет от вируси се използват като компоненти за nanorobotov, или чрез генно инженерство мишки са извлечени от флуоресцентни маркери в неврони на мозъка да се запознаят с процесите на мислене. Конвергенция на технологиите нараства в хода на напредъка, както и разпределението на основните бързо развиващи се технологии (NBIC), който всеки може да помогне на всеки. При това, те могат да правят вноски в ядрени и космически технологии, но не получават депозита обратно, но тъй като тя не разполага с пръстен на положителните отзиви - и тези технологии лаг зад включване на технологичния прогрес. Основата за NBIC технологии miniaturization. NBIC конвергенция на технологии не е връх, който вероятно е силен изкуствен интелект.
Тази интеграция е появила в миналото в производството на оръжия. Тази технология не помогне в развитието на всеки друг, но създадохме нови единици. Например, един самолет с машинно пистолет, камера и радио - както razvedchika боец и в Първата световна война. Или междуконтинентални балистични ракети, които са комбинирани постижения в областта на ядрените оръжия, ракетните технологии и компютри, всеки поотделно, то ще бъде хиляди пъти по-безопасно. Това е ядрена бомба, без средствата за доставка, или ракети с конвенционален или ракета без бойна глава на ракета ориентиране. (Искаш ли да се посочи, че сегашното намаление на ядрените арсенали компенсира с повишена точност, което увеличава вредното им въздействие.)
Повечето прогнози за бъдещето и фантазията описват бъдещи като настоящата, плюс някои нови функции. Същото грях и прогнози глобалните рискове: те описват възникването на света една опасна технология, а след това обмислят последиците от това събитие. За пример, как да променим света, ако това ще бъдат разработени нанотехнологиите. Очевидно е, че този подход е в несъстоятелност, както и на бъдещите технологии, чрез съвместно развитие, ще се появи по същото време и да се присъединят помежду си в сложни взаимодействия.
По този начин, и там е последователна и паралелна конвергенция. Паралелно конвергенция се случва, когато няколко нови технологии са комбинирани да създадат нов продукт, като например междуконтинентални ракети с ядрени бойни глави. Съгласувана е верига от събития, в които задействат някои други фактори, като например: терористичен акт - икономическата криза - войната - използването на биологични оръжия.
Сдвоени сценарии
Разгледайте хипотетични двойни за стартиране на сценария на глобални катастрофа, с други думи, различните варианти на взаимното подсилване на основните фактори, взети в двойки. Ясно е, че в действителност те действат заедно, но двойката биха могли да станат «строителен материал» (или по-скоро връзките в кутията) до по-сложни за прогнозиране. Проекта Привалете опише този тип взаимодействие, в действителност, по-мозъчна атака. Всеки удвоява сценарий не трябва да се приема като крайна прогноза - но не защото той е твърде fantastichen, но тъй като тя не отчита влиянието на още редица фактори.
Гай и биотехнологии
Последователното сближаване (верига от събития):
1. Генетично модифицирани sverhlyudi ще имат sverhintellektom, което ще им позволи да се създаде този компютър AI.
2. All Inclusive "ще създаде супер-вируса като оръжие.
3. Хората vymrut на вируса, и ще ги въведат, вместо роботи.
Паралелно Конвергенция: появата на нови продукти на базата на две технологии:
4. Биологични събрание hyperdense чипове драматично ускоряване на растежа AI.
5. Специалните вируси са създадени, за да се утвърди AI програма в мозъка хора.
6. All Inclusive "ще бъде създадена пряко от biomaterials - неврони, ДНК.
Гай и sverhnarkotik
Последователните сценарии:
1. Така например, AI иска да се моля хората и да създаде такъв вид. Или той AI и ще бъде с наркотиците (вж. виртуална реалност, Интернет, управлявани мечти).
2. По смъртни случаи причинени от sverhnarkotika ще трябва да ги замени в роботи.
3. Или, обратното, ще трябва да измислям някои супер-телевизор да се успокоя хората, които бяха останали без работа, защото AI.
4. Sverhnarkotik бъде враждебна AI оръжие срещу хората.
Паралелно Конвергенция:
5. Ал идват сложни магнитни полета, което може да създаде точното лекарство реакции в мозъка.
6. AI Комуникацията и човешкия мозък neyroshunt основно чрез засилване на възможностите на двете. All Inclusive "ще имат достъп до интуицията на човека, а хората - да неограничена памет и скорост на мисълта.
Sverhnarkotik и биотехнологии
1. Производството на опасни наркотици ще бъде толкова лесно, колкото и отглеждането чай гъбички.
2. Търсенето на хора в аптеките ще доведе до разцвет черния пазар в областта на биотехнологиите, която по случайност ще направи достъпни и производство biooruzhie за масово унищожение.
3. За да счупите хора от sverhnarkotika ще бъде специален разгулен biooruzhie това се отразява на мозъка.
4. Някои от заразна болест ще бъде един от симптомите са еуфория и желанието да се разпространява тя. Sverhnarkotik и нанотехнологиите
Дори и по-тежки последици ще осигури директна стимулация на мозъка mikrorobotami области. Nanoroboty създаде система, която ще показва информацията от мозъка работа (neyroshunty), който ще създаде още по-мощно средство за забавление. (Интересното е, в развитието на нанотехнологиите в Русия твърди, че пазарът за такива устройства от 2025 ще достигне милиарди долари.) Като цяло, обаче, е същият сценарий като в биотехнологиите област.
Изкуствен интелект и нанотехнологиите
1. Nanoroboty позволява устройството да прочетете подробности за мозъка на човека, който ще ускори развитието AI.
2. All Inclusive "ще помогне за разработване и производство на sverheffektivnyh nanorobotov.
3. Напредъка в нанотехнологиите ще подкрепи Мур закон достатъчно дълго, за да постигне ефективност компютри, множествена отлична производителност на човешкия мозък на много ниска цена.
4. Nanoroboty и ще бъдат истинските носители AI - ще се окаже, някъде между разумни океан в дух на lemovskogo Solaris и сценарий Грей слуз.
5. Враждебна AI nanorobotov използва като оръжие за да установи своята власт на Earthjustice.
Гай и ядрени оръжия
1. Ал хайде да направи ядрено оръжие (СЗ) лесно, бързо и евтино.
2. Сценарият в духа предложи във филма «В Терминатор": YAO AI използва за да се отървеш от хора.
3. YAO хора използват, за да се опита да спре извън контрол AI.
Нано и биотехнологии
1. Живи клетки ще се събира информация nanorobotov (синтезирани в специални ribosomah).
2. Там ще бъде «Animat» - изкуствен живот, които съдържат елементи на живите, и nanorobotov.
3. Само nanoroboty даде окончателен защита срещу биологичните оръжия.
Нанотехнологии и ядрени оръжия.
1. Нанотехнологии ще опрости отделянето на изотопи и строителство YAO.
2. Опитите да се справят с използване на ядрени стада nanorobotov стачка ще доведе до допълнително разрушаване и замърсяване на Земята.
Ядрено оръжие и биотехнологии
1. Ядрено оръжие може да се използва за унищожаване на опасни лаборатории и стерилизирани замърсените площи.
2. Bioprospecting може да се използва за извличане на уран от морска вода, както и неговото обогатяване, но и да подчертае плутоний от отработеното гориво. Или обеззаразяване област.
3. Ядрена война се случва в силно замърсени с биологични агенти по целия свят. Войната го прави невъзможна за адекватен размер на производството на ваксини и други табла, и в същото време води до интензивна човешка миграция. Ресурси, които биха могли да преминете към защита от микроби, хвърлени на защита от радиация експозицията. Много хора страдат.
YAO и supervulkany
С помощта на водородна бомба биха могли да задействат експлозия supervulkana или силни земетресение. Или обратно, за да изпратите си енергетика на obvodnomu канал.
YAO и asteroids.
1. Използването YAO може да отхвърли астероид далеч от Земята, или обратното, да го изпрати на Земята.
2. В падането на астероид може да се разглежда като ядрен удар и да доведе до стартирането на случайна ядрена война.
3. В астероид може да унищожи ядрената централа и причиняват замърсяване.
Гай и системна криза
1.Primenenie sverhkompyuterov създаде нов тип нестабилност - бързо и неразбираем (в армията сфера, икономиката, в prognostiki-futurology).
2. Война или заплахата от война ще доведе до надпревара във въоръжаването, която ще създаде най-разрушителните и опасни AI.
3. Целият свят е зависим от световната компютърна система за управление, която беше разрушена от хакери. Или е дадено командването на самостоятелно разрушаване.
YAO и системна криза
1. Всяка експлозия на атомна бомба в града може да obrushit света финансовите пазари.
2. Напротив, разпадането на пазарите, както и финансовата криза би могло да доведе до фрагментация на мира и засилване на изкушенията на властта решения.
YAO и климат
1. Можете да нарочно да предизвика ядрена зима, ядрената Детонирана мощен във въгледобивната прослойка, която е гарантирана емисии в атмосферата огромни количества сажди. Ако теорията на "ядрената зима», в резултат на атаки срещу града правилно, то тези действия ще бъдат в десетки или стотици пъти по-ефективно сажди си.
2. Можете да провокират и вероятно необратими глобалното затопляне, с помощта на правото места за ядрена атака. Така например е известно, че след ядрена зима, вероятно ядрена лятото, когато сажди osyadet на ледниците и причиняват тяхното отопление и топене. Експлозия на бомба на обемите на газовите хидрати под дъното на океана, също може да предизвика верижна реакция на тяхното освобождаване.
3. Точно обратното, че е възможно да се регулира климата, провокира освобождаването на сяра и пепел вулкани използва атомни бомби (но това е верига от три елемента).
Изследване на глобалните катастрофи използват модели и връзки
Global катастрофа технологична цивилизация, което води до изчезване на човека - уникален феномен, който никога не е било в историята, което е трудно да уча. Но ние можем да опитаме да вземем редица други събития, които ще бъдат подобни на глобална катастрофа в някои от неговите аспекти, както и да събира, като по този начин, някои от моделите. Извадката от този вид е субективна. Предлагам да се вземе като връзки мащаб, комплексни, достатъчно проучени и добре известни събития. Те са:
• Погасяване на динозаврите
• изтребление neandertaltsev
• разпадането на Римската империя
• рухването на СССР
• Криза за Великденски остров
• рухването на местната цивилизации на Америка след откриването на своя Колумб
• Експлозията в Чернобил
• Смъртта «Титаник»
• Експлозията на звездите В НЮ ЙОРК
• Появата на човечеството от гледна точка на биосферата
• Започнете Първата световна война
• рака като заболяване
Тези събития могат да бъдат upodobleny глобалната катастрофа в различни аспекти. Някои от тях са ангажирани усещащи същества, в други необратимо vymirayut целия вид, в третия да свиете slozhnoorganizovannye подходяща система, в четвъртия включва усъвършенствана технология. За всеки от тях толкова много литература, и тя е доста спорна. Във всеки случай, има много хипотези, които обясняват всичко чрез единна причина - но тъй като много от тези хипотези, тогава няма причина защо да не е само един. Напротив, общото във всички тези опции е, че там е имало една причина: колкото повече разбираме за подробностите, толкова по-очевидно от много фактори, които доведоха до края, и които взаимодействат сложен начин. За всяка от тези катастрофи са написани книги и разпръскването на мненията е значителна, затова ще се опитаме да не всичко на retell причините за тези катастрофи, и отнесе читателя към литературата, сред които са нова книга «рухването» диамант. За vymiranAI динозаврите е да видите съответната глава в книгата К. Eskova «История на Земята и живота на нея".
Общи за всички тези случаи е, че сегашният комплекс Комплекс причинява и на двете външни и вътрешни. Това е сложността на тези причини, създава проблеми, когато се опитваме да отговорим на въпросите, в духа на «Защо Римската империя?» Това е най-важен урок. Ако ние сме изправени пред катастрофа, че разрушава човешката цивилизация, е вероятно, че няма да се случи за една причина, но поради по-сложни взаимодействия на различни причини, на различни нива. Следователно, ние трябва да се опитват да създадат модели на същото ниво на сложност, като тези, използвани за описание на сериозно бедствие е появила.
Първо, че е важно да се отбележи, че решаваща роля за изтребление и аварии са играли фактори, които представляват основните свойства на системата. (Например, динозаврите измряха не от външни причини за случайно - на астероид, но повечето от техните определящи характеристики - те са огромни и yaytsekladuschie, и по този начин са уязвими към хищническо малките бозайници. Астероиден беше само претекст, за да отворите прозореца на уязвимостта, както и по-устойчиви форми опит, като crocodiles. Лице, болни от рак, не защото той бе неточен мутация, но тъй като тя е по своята същност е съставена от клетки, способни за разделяне. ако не бяха спецификата на местната култура, без колела, коне и прогрес, то не е Колумб да са плавали към тях, и те - в Колумбия.)
Идеята, че за определяне на характеристиките на задаване на въпроса вида на бедствието, за да може да се случи това, което поражда определяне на характеристиките на човешкия вид и съвременната цивилизация. Така например, че самолетът лети по - Задава най-типичните бедствие за него - падането. А за най-типичните риска от кораба, ще потънат. Но далеч по-малко кораби са счупени, а самолетите удавя.
Така че, в случай, че нито една от тези бедствия не са причинени от един опростен външен фактор, и има основание да се определят качествата на самата система (което бяха, съответно, "замъглено» цялата система), можем да направим важна Заключение: odnofaktornye сценария на глобални катастрофа не е толкова опасен, като опасни «определяне на характеристиките на системи» и свързаните с нея системни кризи. В особеност на системна криза все още е във факта, че той автоматично се ангажира цяло населението и не изисква универсален «средствата за доставка".
От друга страна, можем да кажем, че всички тези фактори не е от значение, тъй като всички империи рано или късно все пак троша, видовете и вещество vymirayut убит. Но тази информация е безполезен за нас, защото казват нищо за това как да се уверя, че е «прекалено късно», отколкото «рано".
На второ място, въпреки че вътрешните противоречия на много дълго време да готвя, необходими външни и случайни фактори, достатъчно да прокара я до смърт. Така например, макар че екологичната ниша на динозаврите постепенно намалява за самата логика на процеса, които попадат asteroids и вулканични изригвания може да пришпорвам допълнително процеса. Или glaciation, които подканени да neandertaltsev изтребление заедно с натиск от sapiensov. Или Чернобилската авария, които подкопават Съветския съюз по време на най-уязвими. И ако тези външни фактори не са случайни, системата не можа да отидем в друга посока в своето развитие.
В третата, когато те бяха на добро управление, то е, в един или друг начин, не е много разумен. Т.е. Ангажиран решаващи грешки, които водят до бедствие. Тя също е често свързано с инцидента, докато «случайна» съвпадение много и разнообразни фактори, които поотделно не водят до бедствие. Накрая, катастрофални процес може да се характеризира патологични самостоятелно разрушителна процес, при който се увеличава на всеки етап от своето развитие.
Интересно е също така да проучат колко добре е човечеството в създаването на системи, които никога не са претърпени катастрофи, което е в дизайна на който не е бил използван метод на изпитване и грешка. Уви, ние трябва да се изключат повечето от които бяха създадени като злополука свободни, а като резултат доведе до катастрофални последици. Възможно е да напомни за ядрени реактори, космически кораби «Shattl", свръхзвуков «Конкорд". Най-добрият начин е сигурността на ядрените оръжия, но имаше редица инциденти, когато ситуацията беше, така да се каже, на прага. Това допълнително проучване продуктивни връзки и модели на глобални катастрофи върху съвкупността от случаите. Постигане на устойчиво състояние близостите
То може да е този, който е верен казвам: Най-вероятно, човечеството скоро ще се нанесем в държава, където вероятността на глобална катастрофа, ще бъде много малък. Това става в следните случаи:
а) Ние разбираме, че нито един от глобалната катастрофа не би могло по никакъв начин.
б) Ще намеря начин да се следят всички рискове.
в) Холокоста случи, и е убил повече ще бъда там.
г) Ние приеме неизбежността на глобална катастрофа като част от живота физически процес (например, последните две хиляди години са били християни чакат света, и дори се зарадва своята близост).
Въпреки това, докато ние сме свидетели на обратното явление - способността на хората да създадат средство за унищожение, и следователно pogodovaya вероятността от глобална катастрофа, непрекъснато се разраства. Тя расте по-бързо от населението и удовлетворение. Ако се изчисли на този растеж крива, тя също ще има пик. Това може да се сравнява степента на жертвите от Първата и Втората световна войни. Ще можете да видите, че за 25 години, максималният брой на жертвите на унищожаването реализирана нараства приблизително 3,6 пъти (ако се вземе оценката по 15 и 55 милиона жертви, съответно). Това outpaced прираст на населението. Но с развитието на ядрените оръжия е ускоряване отиде още по-бързо и от 1960-70 година наистина може да унищожи стотици милиони хора (в истинска война не би отнел живота на цялото население на Земята, както и целта не е предназначено да изтребваш всички). Така че, ако ние се темп на ускорение сили за унищожаване на 3,6 през 25 година, ще получите ускорение 167 пъти за сто години. Това означава, че до 2045 година войната ще бъде в състояние да унищожи 9 милиарда души - че сравнява с очакван в този момент общият брой на населението. Тази цифра е близо до очакваните Технологии singularities в региона през 2030 г., макар и от съвсем различен начин и като се използват само за първата половина на ХХ век.
Следователно, ние можем да преформулирани ни точка: да се увеличи вероятността от рискови фактори, не може да продължи. Би могло да бъде и другояче: средство за запазване на стабилността трябва да надхвърля средство за самостоятелно разрушаване. Ако начините на унищожаване ще бъде по-мощен, системата ще се премести до ниво, където организира сила би било достатъчно. Дори ако то ще бъде обгорен пустинята. Като се има предвид фактора време може да се каже, че средствата за поддържане на стабилността трябва да растат по-бързо от средствата за самостоятелно разрушаване. И само в този случай вероятността от изчезване pogodovaya ще паднат, и неговата вградена с течение на времето няма да се стреми към единство, което означава възможност за безкрайно съществуване на човечеството, това е целта на неговото neunichtozhimosti.
Повторение рискове
Всички глобални рискове, които са били регистрирани през първата половина на този текст, той става много по-опасно ако се появи многократно. Има голяма разлика между едно изтичане на опасни вируси, както и хиляди от различни вируси на течове на вода, възникнали едновременно. Ако utechet и разпространението на вируса с 50% на смъртността, ще загубят до половината от световното население, но това не прекъсват развитието на човешката цивилизация. Ако в рамките на едно поколение ще е 30 такива течове на вода, оцелелите остават - най-вероятно - само един човек. Ако те са хиляди, че е гарантирана не оцелее никой, дори и ако смъртността на всеки вирус, ще бъде само 10-20% (допусне, че всички тези вируси са разположени в целия свят, а не osyadut в местообитанията). Същото може да се каже за падането на asteroids. Бомбардировките на дълга поредица от десетки средни астероид ще бъде много по-смъртоносни за човечеството от един голям спад.
Разбира се, трябва да се отчита способността на човечеството да се приспособят към всеки един заплаха. Например, може да успеем в възразяващата всички биологични заплахи - ако това е единственият клас на заплахи. Въпреки това, възможността за създаване на универсална защита на глобалните рискове са ограничени. След 11 септември в САЩ имаше списък на уязвимите места и бързо осъзнах, че е било невъзможно да се защитят всички обекти.
Тъй като развитието на технологиите върви заедно, ние не можем да очакваме, че съществуват някои ключови технологии появяват, докато останалата част остава на същото ниво като сега. (Макар че то обикновено е начин за създаване на художествена литература романи и филми. Това е пример на "мислене пристрастия, произтичащи от добрата история.)
Глобални рискове и предизвикателства на ритъма на основание
Глобални рискове играят напред. Всяко ново технологично постижение е създаването на нови глобални рискове и намалява първото. Мастеринг пространство намалява риска от случайно сблъсък с астероид, но възможност да се организират по предназначение. Разпределение nanorobotov намаляване на заплахата от генетично модифицираните организми, но ще създаде още по-опасно оръжие. Изкуствен интелект решаване на проблема с контрола над други опасни технологии, но също така да се създаде система за контрол, всяка неизправност, които могат да бъдат смъртоносни. Развитието на биотехнологиите ще ни даде възможност да спечелят в ръцете на всички бивши първата от заболяване - и да създадете нови.
В зависимост от какви технологии ще се появят рано или късно, може да са различни вилица в по-нататъшното развитие на технологичната цивилизация тип. Също така е важно, дали новите технологии могат да отговорят на предизвикателствата, създадени в по-ранните фази на развитие, на първо място - проблема с изчерпването на ресурсите, които са били обеднен време на разработването на предишни технологии, както и за разглеждане на рисковете, създаден от предишното технологии.
По рано в човечеството е била много на всички възможни ситуации, в които не фаза на историческото развитие, например, всички взаимодействия на много големи държавни с Номадс. Сега ние откриваме себе си, че изглежда, че ситуацията в появата на реални исторически алтернативи - ако нещо е едно нещо, тогава нещо не е съвсем друга. Или ще създаде мощен, контролиране на всички AI, или ядете цялата сива тиня. Или ние ще пространство цивилизация, или обратно в каменната ера.
Global риск възниква поради скоростта на неговото създаване процес. На бавния процес на разпространението на нещо, което можете да се справят, да подготвят подходящ подслон, за отглеждане на ваксината. Следователно, за да се разграничи тази глобална рискът може да бъде на темповете за нейното развитие (Солженицин: Революция темпове.) Temp това ще бъде случаят с глобалния риск от зашеметяването, защото хората не могат да имам време да се разбере какво се случва и да се приготвим. Въпреки това, за различни класове на събитията са различни зашеметяващ скорост. Какво невероятно събитие, толкова по-ниска ще е нейната скорост потресаващ. Съветския съюз изглежда нещо толкова вечното и неприкосновена, дори и опъната в продължение на много години на криза и разпадането на съветската система, изглежда непреодолим. Системната криза, в която точка на максималната катастрофален обрат постоянно (като огън, perekidyvayas от един обект към друг), е много по-потресаващ потенциал.
За тази цел, shokovym възприемане на системна криза, трябва да разбираме способността на събитията, да създаде погрешно впечатление за себе си, евентуално под формата на "шок от бъдещето". И следователно причина грешната реакция към тях, дори и нарастващата им (като пример от - последните грешките на американските власти, да речем банка недостатъчност Lehmann, което е довело до много по-големи финансови загуби, отколкото ако банката е била спасена.). Разбира се, някои хора веднага разбират същността на това, което се случва, но overwhelmed предполага разпадане на един образ какво се случва в обществото, особено на органи. Следователно, не ярка светлина и да гласуват «Касандра» няма да се чуе - или да бъде разбран правилно. Бързо процеси ще тълпата изложени бавен, но не винаги с внимание ще бъде в състояние да превключите.
Сравнителните силата на различни опасни технологии
След това, ние можем да съставят списък на «сила» унищожителните влиянието на технологията, по която всяка следваща технология дава голяма честота рискове и засенчена заплахата от предишната фаза. Временни фактори точка тук за възможните продължителността на процеса на изчезване (все времето на зрели технологии).
1. Изчерпването на ресурсите - десетилетия или столетия.
2. Мащабно ядрена война с използване на кобалт бомби - като се има предвид бавния темп на последващи изтребление - години и десетилетия.
3. Биотехнологиите - години или десетилетия.
4. Nanoroboty - от няколко дни до няколко години.
5. Изкуствен интелект - от часове до няколко години
6. Експлозията на ускорител - скоростта на светлината.
Важно е да се отбележи, че бързото процеси «спечелим» бавно. Съответно, сценарии на глобалната катастрофа ще бъде много по-вероятно да превключвате от първа позиция на списъка, най-накрая, с други думи, ако в средата на изчерпване на ресурсите, започва рязко мулти биологично оръжие, процесът на изчерпване средства ще бъде толкова бавно в сравнение с нея, че тя не може да взети под внимание. Въпреки това, наличието на всяко от по-напредналите технологии ще позволят да се сведе до минимум на последиците от бедствието от по-слабите. Така например, развитието на биотехнологиите ще помогне за производство на ресурси и очисти света на радиоактивно заразяване. Nanoroboty ще бъде в състояние да се защити срещу всякакви биологични рискове.
Последователността на различни технологии, с течение на времето
Горният списък от «сила» технология като цяло, подобно на очакваното времева последователност на технологията, в действителност, защото ние можем да очакваме, че в хода на напредъка ще бъде все по тежки и потенциално разрушителен технология, но в действителност не отговаря на тази последователност.
Последователността на различни технологии, с течение на времето е критичен фактор при определяне на това какво бъдеще ни очаква. Въпреки че NBIC-конвергенция на напредъка в технологиите влияят един на друг, за да ни точка на съзряване, когато се използва технологията става възможно да се създаде глобален риск. И дори малък аванс тук може да изиграе решаваща. Общо казано, всяка технология може да се създаде щит и меч. По това време обикновено зад щит, въпреки че в крайна сметка, тя може да се окаже силно от меча. В допълнение, технологията създава по-силен щит от по-слабите.
Обикновено се очаква следващата поредица от зрели технологии: Био - Нано - AI. Силното изкуствен интелект е един вид «вратичка", които могат да възникнат утре, и след десет години, и след 50 или никога. Биотехнологиите се развива постепенно, в съответствие с неговите «Законите на Мур", а ние като цяло са в състояние да прогнозират времето, когато те са узрели до точката, където тя ще бъде възможно да се произвеждат всякакви желания от вируси навсякъде и всичко евтино. Това е точно това ще бъде възможно след 10-30 години, ако някои бедствие не прекъсват развитието на тези технологии. Риск от физически експеримент може да се случи, почти незабавно и независимо от други технологии - докато е налице високо ниво на технологиите като цяло. Пришествието на власт силно AI значително ще намали вероятността от такива събития (дори и AI могат да тури на опит).
Нанотехнологии е много по-елементарен вид от биотехнологиите, а дори и технологии AI. Първият опасни експерименти в областта на биотехнологиите са били все още в 1970 (на злокачествени чревни Bacillus), а най-близкият nanotehnologicheskih опасни експерименти - дори и най-малко 10 години, освен ако не е налице технологичен пробив. Това е, биотехнологии, нанотехнологии лаг зад почти 50 години. Внезапен пробив може да се случи от AI - тя наистина дойде възможно най-бързо и лесно създаване на нанотехнологиите, биотехнологиите или - или по пътя на създаването на изкуствени организми.
Сравнение на различни технологични рискове
За всеки sverhtehnologAI може да влезе в рисков фактор Y = A * B, който отразява както на потенциала за тази технология (а), и вероятността за цел да се злоупотреби с прилагането на (б).
Така например, ядрена технология вече съществува (A = 1), но за контрол върху своите основни приложения (пълен мащаб война или sverhbomboy) е високо, така че втори продукт стойност е ниска. За биотехнологиите, както висока вероятност за тяхното развитие и вероятността за тяхното прилагане с цел да се злоупотреби. За AI, тези стойности са неизвестни за нас. За нанотехнологиите също е неизвестен, или вероятността за създаването им (но не и главницата затруднения), и вероятността за тяхното прилагане е обиден, подобни на вероятността за биологични оръжия.
Можете да добавите измерение на скоростта на технологичното развитие, което показва колко близки по време. Линейни се мултиплицира не е съвсем правилна, тъй като тя не взема под внимание факта, че края на технологията напълно премахнати други, както и нелинейни напредъка на всяка технология (най-малко показател). В напред от нашата технология, така че е по-безопасно, защото повече шанс, че ние ще намерим начин за безопасно управление на развитието и прилагането на своите плодове. В обобщение, може да се заключи, че биотехнологиите са получили най-висок рейтинг от този мащаб - тези технологии със сигурност злонамерените възможно използването на техните почти неизбежно, и в момента те са много близо до нас.
Нанотехнологии получите неочаквано ниско ниво на заплаха. Не е известно дали те могат, а те могат да бъдат доста безопасни, и до естествената им узряване все още доста дълго време. Ако те unnaturally съзрявам - благодарение на напредъка в създаването AI и биотехнологии - те се намират в сянка сила на тези технологии: в сянката на заплахите на биотехнологията, които по време те могат да създават, и в сянката AI способността да се контролира кой може да контролира всичко случайно изтичане на нанотехнологиите.
Гай, като "два часа вратичка", и могат да предотвратят всякакви други рискове, че е лесно да се унищожи човечеството. Само времето на polifurkatsAI AI е един миг - в този момент тя може да се поставя за цел, тогава това ще се промени невъзможно. Бавно и по-късно появата AI, свързани с евентуален гладко pererastaniem-членки, в гигантска всички контролиране на компютъра. Бързо и по-рано появата на повече свързани с внезапно изобретение в някои лаборатории с машини, способни на ученето, и насочването тя да се възползват от силата на Земята. В този случай, а това ще създаде някои фундаментално нови структури на комуникация и контрол, и да го направи да бъдат взривоопасни и революционер. Въпреки това, по-късно хората ще се създаде AI, по-голяма е вероятността, че те ще разберат как да я програмата, че тя наистина има благоприятно влияние върху хората. Въпреки това, от друга страна, по-късно тя се случи, толкова по-вероятно, че ще направи «хакер», в зависимост от сложността на задачата е по-лесно с всеки, минаваща година. Д. Yudkovski (статия в приложението към книгата), така Метафорично изразена тази мисъл: Законите на Мур по отношение AI предвижда, че всяка година човек IQ-дизайнер е необходимо да се създаде изкуствено пада по една.
Основната разклонението, според мен, е дали да се създаде мощен AI преди мача Съвместно действие «dobivaniya», поради системни кризи, биотехнологии, ядрена война и други фактори. Или всички тези събития са толкова отслабване човечеството, че почти всички академични специалисти AI умират или са станали бежанци, и да работят в тази област лице. Отпусни изследване може дори да прости унищожаване на Интернет, което ще намали потока на информационните и на взривния ръст на технологиите. Това razvilka се отнася до събитията, които се обадих «глобалните рискове от третия вид".
Кратки ускорява развитието на технологията, по-висока скорост на обмен, тя бързо се превръща в процесите вътре в човешката цивилизация, включително и толкова по-бързо всички виртуална реалност симулации. Това означава, че за годината Целта на времето цивилизация може да вземе стотици или хиляди години «субективна» време, ако се разглеждат на вътрешния си часовник. В резултат на това вероятността от всички вътрешни рисковете се увеличават и дори малко вероятния случай на вътрешен характер да хванеш случи. Следователно, за външния наблюдател цивилизация е станала изключително колебливи. Но ускоряването на вътрешните отдавна цивилизация много по-независими от външни рискове - от гледна точка на вътрешните наблюдатели.
Въпросът е дали човечеството външен или вътрешен наблюдател на ускорение. Разбира се, значителна част от хората не участват в глобалните процеси - една трета от хората по света никога няма да използвате телефона. Въпреки това, те могат да еднаква с останалата част от хората, засегнати, ако нещо се обърка. Но сега хората от «златния милиард» обикновено се отглеждат в крак с напредъка. Но в бъдеще може да има ситуация, когато напредъкът otorvetsya от тези хора. Може би тя ще се включат група от водещи учени, но би могла да бъде изцяло зависими от компютрите. Естественият човешки инерция се смята за добър предпазител от темпото на напредъка. Трудно е да накараш хората да променят компютрите по-често от веднъж на всеки няколко години (макар че японски свиквам да се промени клетъчни телефони и дрехи на всеки три месеца), е икономически натиск е много голям и създава социален натиск - например за обяви, образът на нова, още по-рязко телефона. Въпреки това, в случай на въоръжено противопоставяне на надпревара във въоръжаването не е ограничен в темпо - ритъм-бързо.
Цели оръжия sudnogo Ден
Опасността от глобален катаклизъм може да се появят, или случайно или умишлено са създадени. (Но е възможно и комбинирането на тези две точки: случаен фактор може да вземе съзнателно, например, крият подхода на опасен астероид или обратното, нещо, което е предвидено като игра с нисък риск от глобална катастрофа, ще бъде извън контрол.)
Често в дискусиите стана мнението, че никой не иска да осъществят подъл план и затова не могат да се справят с. Това е грешно. Първо, тя се прилага статистически подход - рано или късно необходимите условия преобладават. На второ място, на Земята наистина е група от хора и лица, които искат да «края на света". Като цяло, обаче, това не важи за ислямските терористи, защото те искат да се създаде световна халифат, но не и радиоактивни пустинята. (Но те могат да бъдат склонни към риск на «всичко или нищо", например, създаване на «кола sudnogo на деня" и заплашват неговата употреба, ако всички страни едновременно, няма да исляма. Но ако другите секти в същото време се създаде «кола sudnogo дни» с изискването всички вземе някаква особена форма на будизъм, положението ще стане patovoy, тъй като и двете от тези изисквания не могат да бъдат изпълнени едновременно.) Важно е да се отбележи, че група от хора може да направи много повече, за да пазят себе си в състояние да коригира в известна представа от едно лице, но групата по-малко вероятно да се образува. Разгледайте различните групи от хора, които потенциално могат да се стреми да унищожи човечеството.
1) Eshatologicheskie секти. Пример: Aum Shinrikyo. Организацията не само повярваха в близост до края на света, но също така е работил по негова наближава, събира информация за ядрени оръжия, вируси и химикали. (Между другото, има различни предположения за това, което стори и исках Aum Shinrikyo, както и определяне на окончателния истината не е възможно.) Теоретически, всякакви опасни религиозни фанатици, като избере смъртта. Така например, старата вярващите често предпочитаните да умре нова вяра. Тези фанатици вярвам дар друг свят или в края на света възприемат като "чистят". Възможно е психологическата субституираща, където отдавна чакаме нещо се превръща в желание да го направите. Действително, логиката съединение, което води до приятно медитация към разрушителните дейности (за около 10 години в случай на Aum Shinrikyo) е както следва: първо, запознат с другите свят. След това имайте предвид, че друг свят по-важни от нашата основна цел и лежи в нея. От това следва, че нашият свят е вторично, по-висок свят, и, следователно, е малко крайна и nevazhen. Нещо повече, нашият свят е пълен с препятствия да се нетния поток на медитация. Като върховен първичен свят, той рано или късно той ще престане да съществува в нашия свят. Тъй като нашата секта бе избран от Бог, тя получава особено точни познания за това, кога това ще се случи края на света. И изненадващо съвпадение, има признаци, че това ще стане много скоро. Нещо повече, унищожаване на мира, ние ще изпълним волята на Бог секта. Това е-важно притежание на тайни знания, разбира се, exacerbates смисъл на значението на членове на секта, и се използват за укрепване на управлението му. В края на нашия свят ще свърже всички добри хора с висше света. Знаейки близостта на неизбежен край, това осъзнаване на положителните развития и своя собствена роля в този важен случай води до реализиране на секта трябва не само да знаят и проповядва за края на света, но и да въвеждат отблизо събитието. (Психологическа случва подмяна дългото чакане за търсене.) Нещо повече, начинът, по който можете да raspravitsya с техните врагове и да се чувствам стар е победил света. (Аз не съм просто кажете, че знаете, че Aum Shinrikyo всъщност говори по този начин. Все пак, елементи на дискусията може да се намери от различни групи с eschatological мироглед, от Кристиян на революцията. Бях не всички индивиди и групи, които говорят за края на света , Събрани му организация. Сред най-известните секти, чака края на света "- Свидетелите на Йехова и Mormons.)
2) В радикални природозащитници. Примери: Движение за доброволно изчезване на човечеството. (Доброволните човека изтребление движение - те считат полезно изтребление на човечеството, но предполагат, че като не възпроизводство.) Такива групи се чувствам добре света на природата и животните и вярва човечеството - не без причина - рак на тялото на Земята, което доведе изчезване на целия живот. Можете също така да напомни за радикални вегетарианци - "veganov", което живее по-малко от животни (и по час или повече) важни от човека.
3) Нео-лудити. Например, терористични Unabomber (Теодор Kaczynski), който вярва, единственият начин да цивилизация - Спри технологичния напредък и връщане към природата, и изпраща поща бомби водещи учени кибернетика. Трима души умряха и мнозина бяха ранени в резултат на неговите действия. Той в момента се обслужват своя мандат в щатски затвор.
4) озлобени хора, мотивирани от отмъщение. Онези, които са, например, сниман от машината съученици. Но тези проекти все още не са подготвени за година, и обикновено след няколко дни. Въпреки че е възможно да си представиш човек, който отиде обезумял, като се съсредоточи върху идеята за отмъщение срещу мира или Бог.
5) в безсъзнание разрушителна поведение. Това може да бъде или внезапно голяма вълна (разделени туба с отрова), или някои по-фините грешка в оценката на собствените им цели. Например, много видове употреба на наркотици и екстремни поведение е, според психолози, прикрито бавно «самоубийство» (самостоятелно разрушително поведение). Необходимостта за самоубийство, може би, регистрирани при хора на генетично ниво и е наречен в отговор на отхвърлянето на неговата обществото (например: SEPUKO самурай, кучето умира от самотата, алкохолизъм от самотата).
6) «Gerostraty". Очевидно е, че не става дума за това, което ще proslavitsya ако погуби целия свят, а унищожаване той може да се чувствам като втори «велик човек". В действителност, тя ще бъде усукана проявление на желанието за власт.
7) изнудвач, създадена «sudnogo колата на деня". То може да бъде хората, които правят всичко политически или икономически искания под заплаха от общия унищожение на света. Следователно, те могат да бъдат особено трудни за улов, тъй като те са «машина» може да бъде навсякъде.
8) Универсалната отбранителни оръжия последния избор. Вместо да се създаде щит на ядрени ракети, което страната може да създаде ядрена бомба суперсила с кобалт-покритие и заплашва да се взриви в случай на въоръжена агресия. Това е малко по-малко ефективни, отколкото концепцията за «гарантирано взаимно унищожение", за която създаде стратегически ядрени сили. И прилича на човешкото поведение, че подкопава граната заедно с неприятеля - и това е владетелят, също като хората. Нещо повече, тези оръжия не са създадени, за да се прилагат, и да представляват заплаха за тях. Концептуално, това е в близост до «глобалната изнудването".
9) рисково поведение, което води до големи победи или загуби. Така например, тя може да бъде физическо или биологични опити. Това може да се otyagcheno нежеланието и неспособността на хората да оценят степента и вероятността от загуба в най-лошия случай. Пример: Рейгън външната политика на противопоставяне на СССР.
10) Необходимостта от риск за силни чувства, страст. Хората загубили имоти в картите, а не да се промени неговата собственост, а защото те почувствах необходимостта от остри усещания на риск. Сега това е прояви при екстремни спортове.
11) за поддръжката на разселването на хората по-съвършени изкуствен интелект. В Интернет има хора, насърчаването на тази идея. Радикална transgumanisty могат също така, дори и против тяхната воля, за да стигне до този номер.
12) Хората смятат, че смъртта на по-добра алтернатива на нищо. Един американски генерал заяви във Виетнам за жителите на едно мъртво село: "За да ги запазите, ние трябваше да погуби".
13) самоубийство. Ако човек има достатъчно основания да се самоубие, той не може да пощади и останалата част от света. Пример: италиански пилот, който забил в Pirelli кулата в Милано на частния самолет на 12 март 2002 година. Клинична депресия може да се яви във факта, че човек започва да се чувства интерес в света, а след това искате той да дойде бързо. Следователно, една стъпка преди активното съдействие в този процес.
14), обхванати от шизофрения вманиачен идеи. Няма значение с шизофрения повдига човека открива не съществуват в природата на отношенията. Шизофрения често чувам гласове, които са подчинени. Ние не можем да прогнозираме какъв вид заблуда би довело до извода, че Земята трябва да бъде унищожен. В същото интелектуални способности с шизофрения не са редуцирани, така че да направи невъзможно да се приложат ефективни дългосрочни стратегии. Макар и специални тестове могат да докажат наличието на шизофрения, очевидно не е било винаги очевидни. Нещо повече, за разлика от невроза, не е разбран от хората. Загубата на способността за съмнение - един от най-сериозните проява на шизофрения. Шизофрения може да бъде «заразни» под формата на религиозна секта, възпроизвежда някои заблуден идеи.
15) бойци за мир. В историята на многократно sverhoruzhie създаден с идеята, че сега това би направило войната невъзможна. С цел динамит бе създаден със същата идея беше coined kobaltovaya бомба.
16) деца. Вече, хакери юношеството са основен източник на разрушителната дейност в Интернет. С оглед на това, техният интелект е достатъчно, за да поеме всеки един клон на познанието и напишете вирус или «бомба", но не достатъчно за да разберат напълно последствията от техните действия и тяхната отговорност за тях.
17) Perversiya сексуално поведение права, насърчаването му да разпространява «себе си» екзотични начини. В глава «опасностите на молекулярно производство» Център за отчети, отговарящи нанотехнологиите, ние можем да четем: «Друг възможен източник на сивата слуз може да бъде безотговорно любовник, за когото това ще бъде хоби. Преглед на определен психологически тип, изглежда, не може да избегне изкушението да се създават и произвеждат най-ще samoreplitsiruyuschiesya образование, сме доказали, че голям брой компютърни вируси ".
18) и правителството на анти-терористична организация, желаещи да увеличат своето влияние в обществото. 29-ти юли 2008 година за самоубийство е главният заподозрян в антракс атаки в Съединените щати през есента на 2001 г., Брус Ayvins (Брус Ivins). През 36 година преди, че той беше един от главните експерти по biozaschite и ваксинация против антракс в Съединените щати. Той е бил женен, прие две деца, написа 44 статии, synthesizer играе в местен църква. Като резултат от бактериологично нападение през 2001 г. повредени повече от един милиард долара, но за сметка на биосигурност, са разпределени около 50 милиарда долара. Включително планираните (но не успя) закупуване Ayvinsom разработи ваксина срещу антракс на 800 милиона долара на която бе да се получават десетки хиляди долара на възнаграждения. В резултат на атаките и взетите мерки, броят на хората, работещи за биосигурност програмата и да имат достъп до опасните наркотици се е увеличил десет пъти, и следователно увеличава шансовете, че сред тях, пак намери някой, който задължава нова атака. (Между другото, е наложителна алтернативни теории за който е организатор на атаката.)
Човек винаги е задвижван от няколко мотиви, само някои от които се разбира добре и рационално. Според моите наблюдения, често до 10 различни желания и цели трябва да са обединени, затова взех някои действия - това е, да се създаде достатъчно увеличение на мотивация. В този специален психологически процедури за идентифициране на извършените цели са рядко използвани, и повечето хора не са известни. Затова е лесно да се очаква, че тези мотивация могат да работят заедно, covertly, нелинейни interferiruya и дава неочакван огромни скока, "вълната-убиец".
Социални групи, склонни да рискуват съдбата на планетата
Може би, е необходимо да се предвиди отделно списък на социалните групи и организации, които искат да се свият и да променят света заповед. А за това, или са склонни да поемаме риска от универсалната унищожаване, или може да създаде, без реализиране него. Така например, Роналд Рейгън, декларирани «кръстоносен поход» срещу Съветския съюз, но това се разбира, че в това противопоставяне на риска от катастрофални увеличава опасността от война.
1) правомощия свят, желаещи да доминират на света. Это могут быть или первые державы, теряющие власть и вынужденные «атаковать под угрозой утраты преимущества», или державы-претенденты на мировое господство, выбирающие радикальные и рискованные методы достижения своих целей. Психология этих процессов остаётся на уровне борьба за место альфа-самца в обезьяньей стае, которая, однако, довольно жёстко детерминирована природой 2) утопичен социални движения, които искат да се страхотно цели, като например радикални комунисти или религиозни организации.
3) Различните национални, икономически, политически сили, които не получават «своя дял» в сегашния световен ред, или чака за загубата на позициите им в бъдеще.
4) Има също така и различни поддръжници «поезия апокалипсис", феновете на компютърните игри в духа на отлагания, които са привлечени от идеята, а след това несъзнателно - и понякога съзнателно - и те искам.
5) хора, живеещи в «след нас дори и потоп", това не е нещо, което би било склонни към глобалната катастрофа директно, но предпочитам действия, за да донесат полза в краткосрочен план, но има огромни щети в дългосрочен план. Това състояние, може да се влоши особено във връзка със собственото си чувство за неизбежност на смъртта, да представят на всеки човешки, и най-изявените по време на риска и старост. (Образец на поведение: Gray в брадата - бяс през ръба.)
6). Отделно, съществуват всички неразбиране на природата и вероятността от глобална катастрофа, която ще се обсъдят втората част.
Синтез фактор, свързан с човешкия фактор
Да се държи сметка за разнообразието на човешката мотивация, можете да въведете обобщени вероятността коефициента К. Този фактор означава, грубо казано, шансовете, че пилотът на самолета ще изпрати самолет за овен, или по-общо, делът на хората, които решат да използват съществуващи технологии, за да ги погуби себе си и другите. Нито пък ние смятаме, тук разликата между подготвен и спонтанни действия. Така например, ако някои страни във всяка къща има оръжие, ще има нещо, средният брой на незаконните си употреба. Този брой е много малък. Смятайте, (наричана по-до отива да се определи с точност на ред), това съотношение може да бъде за Съединените щати (където е 35 милиона барела по-оръжейното и висока престъпност тарифите) милион на ден, както и за Швейцария да предприемат само при стрелба на парламента в Zug - Един милиарди. За авиацията, които получаваме, ако е разделен на приблизителния брой на sorties пътнически самолет (около един милиард), като броят на конфискуваните самолети от терористи за нападения на 11 септември (4) - 1 / 250 милиона евро. Когато нивото на самоубийствата в 1% процента от гледна точка на правата за един ден би равен около един милион. В света на почти един милиард компютри, и всеки ден десетки възникващите нови вируси, които дават К = 1 / 10 000 000, което е само един от десетки милиони потребители, прави безсмислено и опасни вируси (но незаконни търговски шпионски би могло да има по-голям брой хора).
Виждаме, че при различни обстоятелства К в условията на «Проекти» един ден варира между един милион и един милиард. Горната граница за безопасен оценка ще бъде един милион, докато най-реалистична оценка може да бъде сто милиона.
Не мисля, че ако ние razdadim ключовете за противоракетна стартирането на няколко души, имаме намалява шансовете на опасно лудостта на милион милион пъти, тъй като заблуден идеи са заразни. В допълнение, обади една от гарите стартира ракети в Съединените щати са признали, че са изработили система от скука на ножиците и текстове, да се превърне един мъж, две ключови започне едновременно. Това е, системата може да бъде заобиколено стартира с хитрост.
Освен това лудостта може да бъде коварен и neochevidny природа, а плавния преход на психиатрия в областта просто грешен или неподходящи решения. Това не означава непременно, че хората изведнъж са кликнали «червеното копче". В случай на параноя, това може да бъде оправдано чрез комбинация от много логически и завладяващи изгражда, които могат да убедят други хора да вземат малко по-рискови действия, които да се предпази от възприемат заплахи. «Madness» може да се разглежда в отказа на действие в решаващ момент. Това може да е прекалено настояване на някои заблуди, което ще доведе до верига от грешни решения.
Сър Мартин Райс отбелязва следното противоречие: в бъдеще ще бъде възможно да се контролира поведението и дори характера на хората и тяхната самоличност чрез използване на висока точност, наркотиците, генетичните манипулации и други ефекти, което прави хората все по-нормално и безопасно. Все пак, това ще доведе до намаляване на природното разнообразие на човешкото поведение, убива човек на човек.
Заключение: Винаги ще има хора, които ще искат да погубят мирата, и следователно трябва да се обмисли сериозно всички сценарии, където някой може дълъг и упорит труд да се постигне това.
Решението за ядрена атака
Важен въпрос е, могат да лудостта на един човек в «натискане на червения бутон". Въпросът относно разследваните случаи на използването на ядрени оръжия, но по подобен начин ще настъпи, когато се появи всякакви други опасни оръжия, технологии и машини sudnogo ден. Важно е да знаете, на чиято ръка е «червеното копче» - само дали висшето ръководство, или в ръцете на група артисти: Ясно е, че по-широк кръг от субекти, които имат достъп до използването на оръжия, толкова по-висок риск.
Там следва противоречия, свързани с ефективността и сигурността на ядрените оръжия: или имаме абсолютно стабилна система за защита срещу неволно започне, което прави невъзможно да се стартира всеки от екипа президент, нито за справяне с подводница командир. Или ние имаме система, способна от над 8 минути в лицето на интензивно опозицията вероятно противника, и нарушения на всички системи да предизвика бърз отговор. Агенция за недвижими система, устройство, което - в момента - е най-голямата мистерия, трябва да се намери баланс между тези противоречиви изисквания. Но в миналото, ефективността често предпочитаните сигурност. Така например, през 60-70 години в САЩ стартира ракети в стаята на 14-цифрена парола, които трябва да са били съобщени от центъра. Въпреки това, стойността на паролата в стаята 0000000000000000, както и всички знаеха, че (военни повярваха парола безумие, което ги възпрепятства стачка време). Само тогава дойдоха и настоя за независима Комисия за установяване на реалната парола.
То е малко вероятно, че може да се случи онази нощ, когато президентът идва в ума, ще го доведа на ядрено куфарче и се натисне бутона. Но може би по-фини варианти, когато болни и ирационално поведение, причинено от страст, умора и неразбиране, да доведе до верига от действия, водещи до война. Например Хитлер напада Полша, не се очакват, че Англия няма да влезе в бой. Или американците планират да нападението Куба през 1962 г., не знаеше, че там вече е съветски тактически ядрени оръжия, както и на войски имат право да прилагат.
Важно внимание при вземане на решение за ядрени удари е взаимодействието оператор поука. Инструкцията също създадени от човека същества, и е описано, че възприемат ситуацията хипотетично, отколкото реално решение за използването на оръжия. Следвайте инструкциите на оператора също не носи отговорност, защото правиш, че е писмен. В резултат на отговорност замъглено, и са възможни решения, които никой не би сам по себе си не са приети. Типичен пример за противоракетна С. Петров, който по-късно, възложени на ООН медали за спасението на човечеството. При забелязва през 1983 г., малко след стрелбата определяне корейски Boeing, стартира ядрените ракети на САЩ, той реши да не кликват на контра-атаки, както и считат това за фалшива тревога. Въпреки това, Петров не беше обикновен мито смени, той е разработчик как да се вземат решения, които се оказа, че промяната в инцидента. И така, той вдига същите указания, изготвени от тях. Въпреки това, обикновен човек на мито ще трябва да я прилага.
Цената проблем
Ние можем да измерваме вероятността от апокалиптични сценарии, определяне на размера на пари, време и други ресурси, които ще изискват - и да ги сравните с общия брой на наличните ресурси. Ако «края на света» нужда X тона от веществото, а след това, ако на терена в размер на 1,5 H, че е малко вероятно, но ако той е наличен трилиона H, че е почти неизбежна. Не можем също да се опита да определи минималния брой на хората, които трябва да се обединят и да създадат оръжие sudnogo ден. Очевидно е, че адски евтино машината да улови. Така например, Чеченската терористи планират да се възползват от ядрени подводници и за изнудване на Руската федерация. Но едва ли те биха могли да създадат своя арсенал от такива ракети.
Очевидно е, че времето е важен фактор също. Ако някои проекти са много евтини, но изисква усилия от 10 години, той бързо razoblachat, или хората в него разочаровам. Точно обратното, ако проектът бързо (разделно туба с отрова), тогава хората могат да я с всяка минута настроение.
Десетки страни в момента могат да създадат ядрено оръжие, но тези проекти би била необходима за изпълнението му в продължение на много години. В същото време, на хиляди biolaboratory в света могат да работят за генетично модифицирани вируси, както и тези проекти биха могли да бъдат приложени много по-бързо. Както се натрупват знания и стандартизация на оборудването, този брой расте, и време за разработване на намалени. За създаване на опасен вирус сега е необходимо бюджетът на хиляди до един милион долара, а ядреният проект започва с един милиард. Освен това, ценовите развития в областта на биотехнологиите пада много по-бързо, тъй като изисква големи капиталовложения и са по-зависими от наличието на информация.
Можете да въведете рисков фактор A, L, пряко пропорционална на броя на местата на Земята, когато опасен проект може да бъде въведена и обратно пропорционална на времето се очаква средната T при завършването на проекта с очакваната ефективност от 50%.
       
Тогава за проекти за изграждане на ядрена sverhbomby тя ще бъде приблизително равна на 40/10 = 4, Проект от биологични оръжия в момента - 1000 / 1 = 1000. Вероятно е зависимостта на реалната опасност от нелинейна. В евтин проект, толкова по-вероятно той ще бъде в състояние да създаде маргинализирани. В допълнение, малките и евтини проекта е много по-лесно да се скрие или прикриване, или два екземпляра. Колкото повече проекти в света, толкова по-вероятно, че този брой се размножават чрез к ( «дял на lunatics") от предходната точка ще осигури значителна сума. Така например, в света около 100 активни ядрени подводници. С предположението, че те к = един милионен, а тя дава едно събитие всеки 10000 дни или приблизително 30 години. Нивото на сигурност на ядрените podlodkah толкова големи, че това е вероятно, че има много по-малко к доближава милиарда. (Независимо от това, което се дължи на спецификата на рисковете за сигурността там не са толкова умишлено улавяне, но случайно, тъй като използването на прекъсване на комуникациите, окачени позитиви - например четох в мемоари, че през 1982 г. съветската подводница флот във всеки случай, бе прехвърлен в пълна оперативна готовност след смъртта на Брежнев - това е, са били въведени кодове Добавя ключове започне, споделя позицията на стачка.)
Въпреки това, броят на лабораториите, способни за провеждане на генетични манипулации, вероятно са хиляди, а нивото на сигурност е по-ниска, отколкото на подводници. Нещо повече, създаването на биологични асемблер, жив е в състояние да превежда сигнали от компютъра в ДНК, и обратно, радикално опростяване на технологията. С това броят на лабораториите, може да достигне милиони. (Можете също така да се каже, че проектът е евтино, толкова по-добре за нея K, като най-евтините проекти, по-ниски разходи за сигурност.) В този случай, можем да очакваме появата на смъртоносни вируси всеки ден.
Така че, всеки инструмент за унищожаване е сумата на парите и времето, необходимо за нейното установяване. Тези настройки не са единствените, но може да се сравнят различни фондове. След това ние трябва да се вземе под внимание вероятността фактор за това дали работи (по отношение на постигането на пълно изчезване) това оръжие. Дори и много евтини за проекта може да даде на вероятността от 0,0001, и много скъпо - само 0,60. Може да се счита, че ние всички проекти normiruem «края на света» с 50% вероятност. Никой от тях не може да гарантира 100% ефективност с утешава. Въпреки това, размерът на евтини, но не много опасни проекти могат да създадат голяма вероятност от глобалната катастрофа за същите пари като един голям проект. (В хиляди вируси, срещу един sverhbomby.)
Важен въпрос - Какъв е минималният размер на организация, която може да унищожи човечеството, ако искаше. Мисля, че сега страната-беглец средни би могъл. Макар и рано, че може само две суперсили. Нещо повече, модерни корпорации имат сравним ресурси. На следващата фаза - големите терористични организации, то малките групи и индивиди. Глава 20. Събитията, които променят вероятността от глобална катастрофа.
Определението и общи съображения
Ние наричаме глобалния риск от втори тип за всяко събитие, което значително увеличава вероятността от изчезване на човечеството. Комбинацията от тези събития, създава прозорец на уязвимост. Исторически известно, че 99% от изчезнал вид живи същества, живеещи на Земята, и сега всеки ден продължават да се застрашени видове. Очевидно е, че изчезване на тези видове, без да се наблюдава използването на sverhtehnology. Най-известният изчезване на динозаврите и neandertaltsev. Сред причините за изчезване, според paleontologists, предимно изправени промени състоянието на околната среда - унищожаване на хранителните вериги и появата на конкуренти, като природни бедствия са само стартирането събитие, търсещи oslabshie видове. От астероид, който е изчезнал динозавър, за да натиска малките бозайници хищниците, изхранване на млади и яйца. От последното glaciation изчезнал neandertaltsy точно, защото те са изправени по-организирано Хомо сапиенс. Все още трудно да се използва хипотезата на миналото да се оправдае последващото изчезване, защото има много неясни. Въпреки това, по-достоверна извадка може да отнеме до гибелта на традиционните общества и култури. Така например, руските селяни като специална социо-културни commonality, който е бил в XIX век, изчезна напълно и безвъзвратно (ако не е изчезнал) в процеса на урбанизация и колективизацията - Освен това, в миналото, тя може да устои и войни и епидемии. Но това уби новите възможности, които дадоха на градската цивилизация и новата икономическа ситуация. Подобни съдбата на австралийските аборигени и другите общности са изправени с по-техническо оборудване и напреднала цивилизация. Това е, някои хора жив, може да запази спомените, и културата са само фолклорни ансамбли. Това може да бъде описан и пример за едно вещество. Когато тялото е болно, нейната уязвимост на външни пускат (или обостряне на заболяването) се увеличава. По този начин можем да представим следните два етапа сценарий:
1. В началото на мащабна катастрофа на Земята населението е намаляло рязко, производство и науката деградирали. Да се обадя това пространство «postapokalipticheskim свят". В филм или литература, свят, описана като обикновено се появява след ядрена война (Фаза смъртта на цивилизацията, но не и хора).
2. Преживели, хората останали в този свят, са много по-уязвими от всякакви рискове, като падането на малък астероид, изчерпването на ресурсите, вулканични изригвания. Освен това, те трябва да се справят с последиците от цивилизацията на произшествието и опасни останки от цивилизацията - замърсяване, изчерпване на ресурсите, загуба на умения, генетични деградация, наличието на опасни оръжия и опасен процес, който започна с цивилизация (необратими затопляне).
От това следва няколко заключения:
А) два етапа сценарий, принуждавайки ни да обмислят как опасни рискове, които преди това са отпадъци, нито може да унищожи цивилизацията.
Б) в смисъл, двуфазен сценарий е подобен на нелинейни намеса, но се осъществява скачване с течение на времето, важна цел на събитията.
Б) два етапа сценарий може да стане на три етапа, и повече с всяка следваща фаза на деградацията на човечеството прави уязвими за следните форми на риск.
А) Не може да бъде директна връзка между първия и втория бедствие. Например, за да стигнем до postapokaliptichesky света, хората могат да се осъществи ядрена война, и vymeret - от изригване supervulkana. Но колкото и те биха могли да влязат в това състояние на уязвимостта от supervulkanu заради епидемията или икономически спад.
Г) Преглед на мулти-сценарий е възможен характер. В ерата на слабостта на човечеството, когато е уязвим, е през прозореца на уязвимост, която е вероятността плътност и продължителност. Това означава, че прозореца на уязвимост в хода на времето. Сега ние живеем в ерата на прозореца на уязвимостта от sverhtehnologiyam.
Събития, които могат да отворите прозореца на уязвимостта
Този клас включва два вида събития. Първият - че събитията, които неизбежно дойде в XXI век, въз основа на общоприетите идеи за развитието на потреблението и технологиите. Въпросът е само, когато това се случи (всяка от тези мнения не се споделя от всички експерти, обаче, зависи от предположението, че няма принципно нова технология, няма да се появят):
1. Изчерпване на петрол.
2. Изчерпване на храна причинени от затопляне на климата, суша, пренаселване, опустиняването, се движат колите на биогорива.
3. Изчерпването на водните ресурси.
4. Рухването на световната финансова пирамида на дългове и задължения.
5. Всякакви други фактори, постепенно, но необратимо оказване на околната среда, негодни за живеене (Глобално затопляне, glaciation, замърсяване).
Вторият тип включва събития, които могат да възникнат или не може да се случи с определена вероятност. Това не ги направи по-сигурна, тъй като всеки шанс pogodovaya означава «half» - това е времето, за което този случай е вероятно да се случи и това време може да бъде по-малък от времето на узряване неизбежни явления като изчерпването на някои ресурси.
1. Основен терористична атака, мащабът на атомна бомба отживял в големия град.
2. Големи природни или технологични бедствия, които могат да засегнат голяма част от населението на света - още такива бедствия не се случи. Най-познат пример - Чернобилската катастрофа, което е довело до изоставяне на строителството на атомни електроцентрали в света и за енергийния глад сега, и е важен фактор при разпадането на Съветския съюз.
3. Всички елементи, които сме включени като възможна причина глобален катаклизъм, но предприета с увреден ниво. Например, изкуствен вирус епидемия, попадащи астероид, радиоактивно замърсяване и др
На следващата фаза на по-широк прозореца на уязвимост включва Втората световна война и развитието и използването на оръжия sudnogo ден.
Системната криза
Възможно ли е, че глобалната катастрофа, не се провеждат по доста очевидни образец, че сме описани по-горе? Това не е роден в едно място по всяко време и избягване от целия свят? Да, това е възможно в случай на системна криза. Обикновено системна криза не може да унищожи цялото население, но със сигурност би могъл да бъде глобален катаклизъм от втория вид. Въпреки това е модел, където системна криза decimating цялото население.
Най-простият модел е, че екологичната система хищник-плячка, като вълка и европейски лос относно неразпространението на острова. При такава система, ако броят на хищниците превишаване на определен критичен X, ядат всички лосове до края, а след това те са обречени на изчезване, в който те ще ядат само един на друг. В природата, има защита срещу такива ситуации най-разнообразни системи за обратна връзка biocenoses. Известни примери - елени и трева на канадския остров - остров издаде елени, те rasplodilis десетилетия изял всички тревни умират, както и стана. Подобен, но по-сложна ситуация на Великденски остров, с участието на народа. Polynesians стигнаха до острова за около VAII век АД, разработен общество, но постепенно svodilo гори, между другото, дърветата, за транспортиране на прочутата статуя. Загубата на горите е довело до спад в броя на достъпна храна. В крайна сметка горите са били намалени напълно, но обществото е бил унижен, броят на спада от 20 000 до 2 000 души (но не е изчезнал). Това беше по това време островът е бил открит от европейците. Най-ясен пример - възпроизводството на дрожди при запушен с тапа бутилки, която се проявява експоненциално, а след това всички от тях до един vymirayut поради отравяне на продукта на неговия собствен живот - алкохол. Или, например, ядрото supernovae колапс, то не е zaivismot върху поведението на всеки един атом или дори по-голяма част от звездите, но само въз основа на общата маса.
Е, понякога системна криза може да «държат население от над нулата", която е да убие всички животни. Това е системна криза не започва в един момент и най-малко точка. Ние не можем да кажем, че ако един не беше вълк, или лосове би било по-после нещо се е променило. Това е системна криза не зависи от поведението на всяка една конкретна позиция. По същия начин трудно да се каже, когато системната криза е станало необратимо. Съответно, така че е трудно да се издържат, защото нищо да направят своите усилия.
Развитието на съвременната технология също така да не се случи в една точка. Никой не може значително ускоряване или забавяне него.
Системата обръща към системната криза, всички напълно. Интересно да се прецени какви са шансовете за запазване на елементи на разпадане на тяхната система, с други думи, оцеляването на хората със смъртта на цивилизацията. Можете да покажат, че по-силните отношения в системата, толкова по-вероятно, че разпадането на системата, би означавало загуба на всички нейни елементи, без изключение. Ако ви 99999% унищожи култури, останалите няколко копия напълно достатъчно, за да се възстанови силата и свойствата на бактериалната култура. Ако едно дърво падна на пъна зелена расте, и то изцяло в крайна сметка се възстанови тяхната функционалност. Но ако дори малка част от щетите жизненоважни органи, особено на мозъка, той умира веднъж и за всички до самия последната клетка, стотици от които трилиона - това е трудно да се унищожи бактериални щамове с такава ефективност. Също така, технологична цивилизация - като достигнат определено ниво на сложност, то не може лесно регрес към предишното ниво, просто намаляване на технологиите и хората, и има шанс да свиете изцяло, за да е равна на нула. (А за нас, за да се превърне в събитие прекратява електроенергия в продължение на няколко часа, и от загуба на живот. Малко повече от сто години, електричеството е използвано само в редки опити. Много съвременни сгради не може да съществува без доставка на непрекъсната мощност: мината удавени, кариерна проектиране на центрове за пазаруване колапс за зима без сняг отстраняване и отопление и т.н.)
Какъв система, структура, толкова по-голям неговите свойства се определят от местоположението и вида на взаимното взаимодействие на елементи, но не от елементи. И колкото повече той играе роля в управлението в сравнение с физическа сила. Ако всички изведнъж всички хора по света peretasovat в космоса, zakinuv всяка на различен континент, това би означавало загуба на съвременната цивилизация, въпреки че всяка отделна щеше да е жива. Също така, ако тънък нож за намаляване на някои животински на няколко части, почти всички индивидуални клетки са все още живи, но животното като цяло - е мъртъв.
Колкото по-сложна система, по-силните неговите дългосрочни последици от бедствия, в сравнение с краткосрочните. Това е, системата е собственост на укрепването на малките събития - със сигурност не всички, и тези, уловен в «съсредоточи вниманието си". Достатъчно голямо бедствие обикновено попадат в тази «Фокус», както perehlestyvayut през прага на устойчивост на системата. Така например, в случай на авария в Чернобил, повечето дългосрочни последствия от разпадането на Съветския съюз и започва един продължителен период на стагнация в атомната електроцентрала, с което броят на света сега е изправен енергиен глад. По време на нападенията на 11 септември унищожават оригиналните сгради на стойност 1/3 млрд. долара, но щетите за икономиката възлизат на 100 милиарда Тези атаки доведе до инфлация балон на пазара на недвижими имоти (чрез по-ниски ставки за стимулиране на икономиката) в trillions долара. А войната в Ирак, което прекараното около 1,4 trillion долара. Нещо повече, основното увреждане е още да дойдат, както и за оттегляне на войските от Ирак и на кризата в пазара на недвижими имоти Промо причина, политически и икономически щети на много trillions долара. (Плюс, например, че ранените са от Ирак десетилетия да се лекуват, и тя трябва да разпредели trillions долара.) Е като логиката на събитията и техните последици, описани В Толстой в романа «Война и мир", наблюдава как последствията от щетите, понесени от френската армия от Borodino, се увеличи през следващите верига от събития - пожар в Москва, загубата на армията в Berezina, разпадането на Империята. На една и съща информация, която е свързана с организиране на взаимодействието и управлението на компонентите на повредата във всички тези случаи, по-висок, отколкото физическа. Тези развития са пускали верига от грешни решения и унищожени структурата на управление - структурата на бъдещето. Можете да кажа друго: голямо събитие може да празнуван на друг канал система, която бавно, но необратимо в противоречие с бившия. Сега обсъждат различните видове системни кризи, които са в природата, за да видите кои от тях биха могли да бъдат свързани с модерна цивилизация.
1. Изобилието на хищници - пример имаме обсъдени по-горе в случай на вълци и европейски лос.
2. Пример за икономика - Великата депресия. Рециклиране на намаляването на производството - layoffs - по-ниски търсенето - намаляване на производството. Цикълът, който сам по себе си е подредена, така че трябва да мине през нулата. Само vneekonomicheskie събития, като войната и отчуждаване на злато са били в състояние да прекъсне него.
3. Друг пример за самостоятелно civilizational структура е оръжейна надпревара. Тя насърчава всички да се създадат големи хранилища на все по опасни оръжия и да ги задържа във висока степен на бдителност. Тя също така да се ангажира по всички нови държавни и стимулира развитието на опасни технологии. С други думи, има някои структурни ситуацията в самата цивилизация, която опасни оръжия за масово унищожение. Тези структури се характеризират с факта, че възпроизвежда себе си при всяка стъпка в отглеждането обем и продължава да работи по никакъв ресурс изчерпване цивилизация.
4. Стратегически нестабилност, който удари първи, той печели. Плюс, ситуация, когато едно предимство на нападението лицето на своята загуба.
5. Ескалацията на разделение в обществото, което води до все по-отворени и твърда борба, все поляризирано общество, чиито членове са принудени да избират, на чиято страна са те. (Например, опозицията Фатах и Хамас в Палестина.)
6. Структурната криза на прозрачност, че възниква, когато всеки знае. (Както във филма «Становище", където психически способност да предсказва бъдещето, води до война.) В една книга, посветена на военната стратегия, описана следната ситуация: ако един от двата врага не знае статуса на друг, той е сам. И ако някой знае какво друго е започнал да се провокира войски започват да направят същото, ако той знае, че врагът не набиране на войници, тя също го провокира да атакува пръв. С други думи прозрачността безкрайна ускорено връщане на връзки между страните на конфликта, което води до бързи процеси са възможни и с положителни отзиви. Шпионин nanoroboty направят света на информация, прозрачност - и с голяма скорост.
7. Структурната криза на взаимното недоверие, например, в духа на борбата срещу враговете на народа, когато всички започват да видя един друг като врагове и да унищожи враговете на пръв поглед, който води до себичен врагове и отмъщение за фалшиви обвинения. Между другото, кръвта феодално владение - и структурна криза, която може да яде общността. Кризата на взаимното недоверие се случва в икономиката, което води до преселението на клиенти от банки, темпове на растеж на кредитите, а също и samousilivayuschimsya процес. Кредитната криза, която започна в света през август 2007 г., до голяма степен свързано със загубата на доверие от всички банки и финансови институции за взаимно във връзка с неизвестен запаси лошите ипотечни ценни книжа, загубите от която «поп като труповете в реката» в най-неочаквани места, за заяви американски икономист Н. Рубин.
8. Модел поведение, унищожаване, състояща се от други да решават проблема. (За пример: Условно «американци» Искам да унищожи всички «тероризъм» и «тероризъм» - всички «американци".), Но това е единственият начин за разширяване на конфликта - и за разпространяване на този модел. Това е дилемата на затворника. Ако двете партии решат да мир, и двамата ще се възползват, но ако е само един, повече от «добрите» губя. С други думи, патологични самостоятелно може да се случи, дори когато мнозинството против него. Така например, в началото на оръжейната надпревара вече беше ясно за какво е, и прогнозата си за развитие е бил публикуван. Въпреки това, не е възпрепятствана процеса.
9. Икономическите кризи, свързани с ефекта на обратна връзка между прогнози и извършват наблюдение, което прави сайта напълно непредсказуеми - това е имало спекулации на пазара. Тази несигурност е отразен в появата на най-невероятни тенденция, която може да бъде катастрофален. Изглежда, че новите тенденции взема катастрофалното режими, че те не може да бъде предсказано. (Докажи, че по този начин: ако пазарите са предвидими, всеки ще може да се ползва. Но тя не може да направи печалба от спекулации, както и теорията за играта. Резултат на поведението на пазарите ще бъде по-трудно, отколкото предсказания от тях. С други думи, ситуация възниква «динамичен хаос".) В една военна конфронтация държим в непредсказуеми начини, защото понякога е по-благоприятно, отколкото поведението си по най-ефективен начин, тъй като ефективен начин за лесно погрешна сметка.
10. Друг вариант на икономическата структурна криза - безкрайно отлагане на рецесия чрез изпомпване на икономиката с пари - може да има точка на необратимост, когато леко да се оттегли от процеса невъзможно. Това е описано в теорията на кредитните цикли З. Минск. Минск длъжници разделя на три категории: добросъвестно, защото тези, които могат да спечелят плащане на лихвата, но не и по-голямата част от дълга и затова трябваше да го хванат завинаги, и тези, които са принудени да заеме нови кредита за заплащане за стари, че изглежда с финансови пирамида (или Ponzi схема Ммм). Първата категория на кредитополучатели е безплатен и може да възстанови напълно дълга. Втората група кредитополучатели, трябваше да изплати дълга завинаги, и не могат да се измъкнем от това състояние, но е в състояние да обслужва своите дългове. Третата категория трябваше непрекъснато да разширяват операциите си и все още obankrotitsya по време на крайния срок.
Минск е показал, че появата на всичките три вида кредитополучатели и постепенното увеличение на дела на кредитополучатели Третият тип е естествен процес в капиталистическа икономика по време на booms. Модерната икономика, водена от нейния локомотив - САЩ, лежи някъде между втория и третия тип. Обемът на различни видове дългове, създадени само в САЩ има, по някои оценки, редът на 100 trillion долара (това включва 7 trillion. Държавния дълг, 14 trillion. Ипотека, дълговете на населението на кредитни карти, образование, автомобили, корпоративни облигации, както и Американското правителство ангажимент до здравни грижи на retirees (Medicare). В същото време БВП на Съединените щати - едни 13 trillion. Долара годишно. Ясно е, че всичките пари, необходими за заплати не утре, но те са замъглено за следващите 30 години, както и между различните участници, които комплекс ще се използват приходите от задължение за плащане за други хора.) само по себе си не е задължение на дявола - Напротив, той описва кой, какво и кога да правите и получавате. С други думи, тази машина е финансовото планиране на бъдещето. Но когато тя преминава към третия лечение, тя влезе в механизъм за самостоятелно разрушаване, които силно, отколкото по-късно.
       Изгледи за това дали световната икономика чрез глобалната финансова пирамида, или не се различават. Милиардерът Уорън Buffett призова производни (многобройни дългове) финансови оръжия за масово унищожение. В опасна тенденция е сходна с това, че е възможно да мисля, че този системен проблем с дългове, се отнася само за САЩ като страна: в действителност, тя се прилага за цялата световна икономика. Щетите от Великата депресия от 1929 г., два пъти на щети на САЩ от Втората световна война и на разпространението на вируса испанец 10 години преди това, по всички континенти, посегателствата върху Европа е по-силно, отколкото по-членки. Голяма криза от 1929 г. е била най-голямата в света системна криза, до разпадането на Съветския съюз. Неговата основна трудност е, че хората не разбират за какво става тук. Защо, ако има хора, които искат да работят, и там са гладни, имат нужда от храна - храна desheveet, но никой не може да купи и фермерите razoryayutsya? И властите изгори излишните храни - не защото те са престъпници или идиоти, а защото те просто не разбират как да направят системата работи. Разбира се, и сега съществуват различни мнения за причините на Великата депресия и особено за това какво биха били правилни, и защо накрая е приключила. Общата липса на самоуправление е важна част от системната криза. Минск предлага да се повиши ролята на държавата като кредитополучател от последна инстанция за намаляване на цикличните колебания на капиталистическата икономика. И това е работил в кризи, 1975 г., 1982 г. и началото на 90-те години. Но в това се крие нови опасности. Това е, че банките, че всеки път, откуп, стават все по непредпазливост при натрупване на дългове, както и уверени, че държавата ще ги спаси от банкрут и в този момент. Освен това, те предоставят статистически модел: колкото повече не е имало икономическата депресия, толкова по-дълго тя няма да бъде на статистически модели, докато структурните модел, толкова повече не е имало рецесия, толкова повече тя ще бъде в бъдеще. Кредитни цикъл Минск, свързани предимно с прекомерни инвестиции, като Закон на Мур, както знаем, в голяма степен на базата на прекомерни инвестиции в «рискови инвестиции". Затова глобалното икономическо забавяне ще доведе до тежко влияние върху Мур на закона.
11. Кризи, свързани с непредвидими процеси в сложни системи. Налице е обща тенденция към увеличаване на сложността на човешката цивилизация, която дава възможност за бърз непредсказуеми колапс. (Малко като разбил самолет в Перу, защото персоналът на летището zakleil сензор skotchem скорост, и той даде грешка, но екипът реши, че то не на компютъра, и когато компютърът дадоха сигнал за близостта на земята, той не вярват и хит на морето .) Или погрешна работа на предупредителни системи на ядрена стачка. Като има предвид, че преди това е основната причина за произшествия са «неудържимите сили на природата» (напр., буря), ХХ век те са били избутано навън като основна причина - човешкия фактор (който е доста специфична грешка по време на проектиране, конфигуриране и управление). Но в края на ХХ век, сложността на техническите и социалните мрежи е толкова голямо, че неуспехите в тяхната работа не са били локализирани и системни (The сценарий, откриването на който бе независим изчислим предизвикателство за дизайнерите). Един пример е Чернобилската катастрофа, при персонала, следван предвид писмото на обучение, но по начин, който никой от drafters не очаквате и не може да предполагам. В резултат на това, всеки е действал правилно и е в размер на системата не работи. Това е причина за бедствието се превръща в сложна система, а не конкретен индивид грешка. На същата членки в теорията на нормалното произшествия Perrou: природни бедствия, са характеристиките на сложни системи. Проучването на тези системи е хаос теория. Хаос теория предполагат, че сложна система с голям брой на критичните фактори може да се движи към странни attractor - това е начинът, по които има резки преходи до катастрофални режим. Израз на тази идея е теорията на «нормален инцидент", който гласи, че е невъзможно да се създаде напълно bezavariynuyu система, дори ако е идеалният наемат персонал да е абсолютно правилна техника и др Нормално катастрофи са естествените характеристики на сложните системи, които отговарят на два критерия: сложността на устройството и степента на interconnectedness.
12. Класически противоречие между производителни сили и производствени отношения, като пример от сегашната ситуация в света, с нейните основни противоречия между многото национални армии и единството на световната икономика.
13. Самостоятелно разстройство (парад на sovereignties в историята на СССР).
14. Морални самостоятелно разпадане (разпадането на Римската империя).
15. Домино ефект.
16. «Природни» подбор на краткосрочни печалби, вместо в дългосрочен план. (Маркс: по-ефективно exploiters притиснат «добра».)
17. Тенденцията към концентрация на властта в ръцете на един човек. (Всички обороти konchali диктатура.) Стана след като по пътя към авторитарен правило, диктатор трябваше да отида да си абсолютен режим, че той не е бил toppled.
18. Лавина реформи (Makkiavelli: малки промени проправи пътя за големи промени. Пример: време за прегрупиране).
19. Кризата разгарящия липса на вяра - увеличение от лъжи и информационни Шум (доверие, вместо печалба, връзки с обществеността, вместо да истина, вместо шума на речта - загуба на доверието на криза, когато присъстват повече от някои хора не вярваш, толкова по-vret себе си, знаейки, че неговата чакам за една и съща). Ако критерият на истината - на експеримента, в резултат на експеримента - нова технология, и неговата стойност - и парите, а след това постепенно спада средно ниво.
20. Samoorganizovannaya критично. Моделът с купчина пясък, която попада върху пясъка и един в който лавина, оставяйки някои фиксирани средния наклон е пример на така наречените samoorganizovannoy критично. Този модел може да бъде сравнена с плътност на катастрофи във всяка сфера на човешката дейност. Ако това се случва твърде много бедствия, той привлича повече внимание, и в тази област да инвестират повече средства, за да осигури мерки за безопасност и в други области, този път губи фокус и техния рисков повишава. Като резултат, ние се свят, в който плътността на бедствия се разпределя сравнително равномерно във всички дейности. Но математически свойства на системи с samoorganizovannnoy критично е, че те могат да развият лавина неограничен висока стойност. Samoorganizovannaya критично се случва, когато концентрацията на летливи елементи достигне определен праг, така че те започват да се свързват един с друг и да създадете своя собствена подсистема, рязане оригиналната система. Тъй като броят на сценарии и сценарий фактори, които биха могли да доведат до глобална катастрофа е огромна, и то непрекъснато се увеличава, шансовете на такъв смесен със сода. То може да е истина по друг начин. Катастрофални процес се случва, когато се изчерпи своя капацитет за системата за запазване на хомеостазата. Въпреки това, катастрофален процес, vozniknuv също е един вид система, а също така разполага със хомеостаза и стабилност, както и пише SB Pereslegin във връзка с теорията на военна операция. Това прави процеса на самооценка катастрофално явление, които могат да се преместват от едно ниво на друго. Рискът от верижна реакция на катастрофални събития, се увеличава най-вече от факта, че има хора - терористи - Кой взема внимателно скрит различни уязвимост и искате те да се прилагат.
21. Кризата, свързани с желанието да се отървеш от кризата. (Например, колкото повече израелци искаш да се отървеш от палестинците, по-силните на палестинците искат да унищожат Израел.) Особеност на тази криза е свързана точно с разбирането на кризата, за разлика от предишни кризи. Но често това не води до подобряване на положението. В тази връзка, на който може да запомни Законите на Мърфи: Ако дълго време, за да изследват някакъв проблем, в крайна сметка, открива, че той е част от нея.
Структурни кризи maloponyatny хора, тъй като техният ум свикнали да мислят в термините на обекти и предмети на действие. Поради това, колкото повече мисля за такава криза и се опитват да се справят с нея, например, унищожена една от страните в конфликта, толкова повече расте кризата. Структурни кризи се чувстваш в недоумение и търсене на скрити врагове (които ще се превърна в обект, което създава криза). За пример, следователно, предпочитам да мисля, че Съветският съюз е свит на ЦРУ. Примери за системна криза в човешкото тяло е стареене и затлъстяване. Освен това, там могат да бъдат по-сложни структурни кризи, които все още не са очевидни.
Кризата криза
В днешния свят с всички тези видове кризи, но и на цялата система ще останат стабилни, тъй като тези сили «дърпа в различни посоки". (Например, авторитаризма, присъщи тенденция да се разделим - СССР и Китай, Sunnis и ShAItes, Сталин и Trotsky - която създава кризи от типа пукнатини и салдата unipolar кристализация.) Това е отделен процес баланс помежду си: авторитаризма - разстройство, и т.н. В допълнение, хомеостаза работи в духа на Льо Шателие-Браун. (Този принцип гласи, че външните влияния, отделителна система за състоянието на термодинамичните равновесие, в която се намират, е в процес се стреми да намали ефекта.)
Опасност, обаче, ако всички тези индивидуални кризи samoogranizuyutsya и е в "криза на кризите". Системи за клиенти, отглеждани в баланс, а по-скоро силен ход в точката на равновесието състояние на движение, с други думи, новата система за унищожаване, който също има устойчивост. Пример за нормален живот: да се махна от къщи, понякога трябва да направите някои усилия, за да «raskachatsya», но когато пътуването отиде, той вече има своя собствена инерция, инерцията и структура.
В момента всички прояви на кризата в човешкото развитие soorganizovany начин да се водят човечеството в съответствие с постепенното икономическо, научно-техническата и прираста на населението. В случай на криза на кризите всички същите фактори могат да soorganizovatsya, така че непрекъснато да работи при унищожаването на човешката цивилизация.
Имоти «криза на криза": той е невъзможно да се разбере, защото започвам да мисля за това, включете се в нея и подсилване на нея (на произведения на, да кажем, арабо-израелския конфликт). И понеже му разум не защото стойността на плътен информация шум. Защото, всъщност, е трудно да се разбере от един човек, но има някои очевидни грешни разбирания, опростени. (Закон на Мърфи: "всеки сложен проблем е проста, явни и погрешно решение».)
Елементите на кризата кризи не са събитията и взаимодействията в света и кризата с по-нисък ред, които са структурирани не без помощта на човешкия интелект. И една особено важна роля тук играе ролята на разбирането, че това е криза, която води до две, най-малкото поведение - или желанието бързо да се отървеш от кризата, или желание да се възползва от кризата. И двете поведение може само да влоши кризата. Ако само заради различните страни в конфликта - различните идеи за това как да се сложи край на кризата и как да се възползват от него.
Както разбирането на кризата от отделните играчи - част от криза, кризата ще е трудно за разбиране всяка от него. Дори и когато тя приключи, разбиране за това какво ни се случи - да не бъде. Ето защо толкова много различни мнения и дискусии за това какво точно се случи през 1941 г. или "Защо Съветският съюз".
Друга метафора «криза, криза» е следната логика, която чух по отношение на финансовите пазари. Има голяма разлика между криза на пазара и пазарните кризи. В първия случай, има рязък преход и промяна на цената на търговията ситуация. Втори - спира търговията само себе си. В този смисъл глобалната катастрофа не е обикновен криза по пътя на развитие, когато новият стар ритъм. Тя е спиране на развитието си.
Технологичната необичайност
Един от задълбочените наблюдения в духа на идеята за «криза, криза», изложени в член АД Панова «Кризата на глобалния цикъл на универсалната история и възможната роля на програмата SETI в пост-кризисни развитие". Като се честотата на различни ключови точки за появата на живота на Земята, той открива, модел, който показва, че плътността на тези преходни периоди непрекъснато расте хиперболичен право и, следователно, е «едно единствено точка", в която е изтеглено в безкрайност. Това означава, че не е просто още една криза, криза на целия модел, който описва еволюцията на живота от концепцията до днес. И ако всички преди кризата служи за разрушаване на стари и нови, но сега целият модел на развитие чрез криза идва към края. И модел казва нищо за това какво ще бъде след като единствено точка.
Смята се, Панова, тя се намира в район, в 2027. Интересното е, няколко принципно различни прогностични модели показват квартала през 2030 г. като отправна точка «singularities", когато техните прогностични криви се превърна в безкрая. (Например, М. Esfandiary взеха своето име FM-2030 да отбележи бъдеще преход процес като най-рано средата на XX век, в 2030 прогнози точка за създаване на AI и изчерпване на ресурсите.) Ясно е, че глобалните рискове са групирани около тази точка, защото е класически «режима на отглеждане". Въпреки това, те биха могли да се случи много по-рано тази точка, тъй като ще бъде на кризи и при нея.
Моделът Панова, всяка следваща криза изолиран от предишни периоди, на 2.42 по-ниски. Ако кризата се пада началото на 1990 г., а последната - през Втората световна война, следващата криза (времето за излизане) на модела Панова ще бъде в района през 2014 г., а след - в 2022, 2025, 2026 години и повече плътност ще непрекъснато растат. Разбира се, точното значение на тези данни не са верни, но като цяло това е модела. По-късно тази криза - рухването на старата и новата измама - в началото беше 90 години и е на разпадане на Съветския съюз и появата на Интернет.
Това означава, че от сега до 2014 г. ние трябва да се изправят още една криза на сравними величини. Ако това е вярно, тогава бихме могли да видим сега в рамките на своята Генезис петгодишен хоризонт прогнози. Но тази криза не е окончателно глобалната катастрофа, както ние говорим, и между него и кризата на модела в 2020 Възможно «остров на стабилност» В няколко години.
Няколко независими изследователи са дошли да мислят за възможните технологични singularities в региона през 2030 г., ekstrapoliruya различни тенденции - на нивото на miniaturization на устройствата с компютъра капацитет, необходими за симулиране на човешкия мозък. Първият въведен терминът технологични необичайност, Vernor Vindzh статия в 1993 година. Странност не е математически от режима за влошаване, а след това е бедствие, както и изграждането на голяма историческа епоха, то със сигурност ще е пагубно. Но странност може да бъде положителен, ако това ще спаси хората и значително разшири капацитета си и съответно отрицателни, ако в резултат на този процес, хората ще умрат или губи голямо бъдеще, че те биха могли да бъдат. От гледна точка на нашето разследване, ние ще вземем всички положителни резултати от singularities, след което хората продължават да живеят.
Най-бързи, сложни и непредвидими процес, който често е свързано с технологичния странностите е появата на всеобщ, способна на самостоятелно-AI и неговото хиперболичен растеж. (Можете да покажат, че твърде бързото развитие, които са настъпили в миналото, тя е свързана с ускоряване и подобряване на начините за решаване на проблеми - от обикновено и естествено избора, сексуалната селекция, появата на човешки език, писмено, наука, компютри, рискови инвестиции -- всяка следваща стъпка е стъпка в развитието на разузнаването, както и евентуално бъдещо обучение AI продължава тази тенденция.)
По отношение Технологии singularities може да прочетете няколко на пръв поглед достоверна изявления.
Първо, формиращият необичайност на абсолютно прогнозен хоризонт. Ние просто не може да се каже, че би било след като странност, тъй като той е бил безкрайно сложен процес. Нещо повече, ние не може да каже нищо нито за времето странност, или изтичането на определен срок преди това. Можем само направят някои предположения за това, кога ще се нещо странно, но има голяма вариация. Всъщност, нищо не пречи singularities идват директно утре в случай на неочакван пробив в проучването AI.
Второ, от гледна точка на нашите съвременни възгледи, последният безкрайност не може да бъде постигната. В резултат на абсолютна странност не е постижимо. Това може да се тълкува така, че както ние се доближава до singularities в нарастващото разнообразие на oscillatory процеси, които разрушават неговите предишни постижения на безкрая. Ако това е така, странност пред вероятността плътност на глобални катастрофи неограничен се повишава. (Sr. с концепция за GG MalinetskAI увеличение на честота и амплитуда на колебанията в системата преди бедствието, които са признаци на неговото сближаване.) Или може да означава безкрайни печат историческо време, поради което ще се чудатост никога няма да се постигне, какъвто е случаят в случай на падащи предмети в черна дупка.
Третият е да singularities цялата система се вписва напълно. Това означава, че не бива да очакват, че нещо странно не би засегна някой, или че ще бъде малко по-различно нещо странно. Докато тя може да започне по една точка на Земята, да речем, в лабораторията, за да създадете AI, с процеса на развитие, той ще обхване цялата Земя.
От гледна точка на нашето разследване, че е важно да се отбележи, че глобална катастрофа - това не е задължително и е технологично странност. Global бедствие може да бъде амбициозна, но в крайна сметка, прост процес, като сблъскване с asteroids. В такъв глобален катаклизъм има признаци на режима за отглеждане, като например рязкото ускорение плътност на развитието в момента, в който се допре до asteroidom Earth (трае 1 секунда), но не sverhintellekta, които по дефиниция не postizhim.
От горе, че ако вземем понятието технологии singularities, ние не можем да направим нищо за измерване или за предотвратяване на рисковете, след момента на singularities, но не трябва да пречат на тези рискове преди неговото начало (особено в период на повишена уязвимост към него) и да се стремим към положителни singularities.
Идея Технологии singularities като хипотетична точка на отношение към безкрайност предсказуем криви в района през 2030 г. е била няколко пъти, независимо отвори (с екстраполация на различни криви - на популациите на Kapitsa, за да miniaturization технологията устройства), и в момента е група от хора, призовава за постигане на това събитие. Научете повече за технологично singularities може да чете статии: Vernor Vindzh «технологични странност", Yudkovski «поглед към необичайност", Дейвид Брин «необичайност и кошмари", Майкъл Diring «Даун singularities".
Perepotreblenie води до едновременното изчерпват всички ресурси
Някои ресурси не просто цел, но се изчерпват, така да се каже, в отрицателна. Така например, прекомерната експлоатация на почвата, което води до бързо и пълно унищожаване. Въпросът Ливадите изследвано в своята «Границите на растежа". Из математическия модел, той показа, че някои perepotreblenie ресурс на системата след това неизбежно води до ръба на смъртта. Така например, излишък на хищници доведе до намаление на броя на жертвите, които последваха, всички жертви на един и същи умре, и хищници са осъдени на гладуване. Друг пример - когато замърсяването е толкова голям, че е ударил способността на околната среда.
Кредитни цикъл Минск определен начин не се отнасят само до пари, но също така и на намаление perepotrebleniyu всяко физическо ресурс. Това е характерно за човечеството sverhischerpyvat всеки ресурс, че тя стана достъпна. В този смисъл не е изненадващо, че много perepotreblenie ресурси възниква почти едновременно - в overspending на ресурс можете да скриете, консумиращи друга. Например, изчерпване на пари, за да плати ипотеката може да се скрие от плащанията чрез кредитни карти, просто изтощение с 30 на сто на подходящи терени за селското стопанство след Втората световна война може да се скрие, като инвестира повече средства (т.е. енергия) при отглеждането на останалите земи, или изтощение водоносни хоризонти могат да бъдат скрити, повече разход на енергия за извличане на вода от дълбоки хоризонти. Проблеми sverhischerpaniya хора всеки път, когато успя да преодолее при изпълнение на технологичния скок, както бе неолита революция. Но това не винаги е било гладко, там понякога е решение само когато е пълен мащаб на кризата вече е нещо скучно. Например, неолит революция - преминаване от събиране на уреждат земеделието - се наблюдава само след като населението е намалял значително в ресурса sverhischerpaniya доведе до ловеца-добиващото общество. В XXI век, ни заплашват едновременно с изчерпване на ресурсите на много важни, защото сега става perepotrebleniya. Възможни различни предположения за изчерпване, а не обсъждане на истината, или лицемерие на всеки индивид. От икономическа гледна точка, окончателното изчерпване на ресурсите не може да бъде въпрос на колко ще струва да получат средствата, а ако е него изобщо. В тази връзка, не се отделят точка на изтощение, за момент на максимално производство (връх) и след периода на бърз спад в производството ресурс. Периодът на упадък, могат да бъдат дори още по-опасен период, общото отсъствие, защото в този момент Започва отчаяна борба за живот, който е, може да започне войната. Правописа на няколко бъдещи или вече са обхванати върхове на ресурсите.
• пик от световното производство на риба - минаваше през 1989 г.
• изчерпване, подходящи за земеделска земя
• Максимално производство на храна в общите
• Пикови масло - вероятно в момента
• Пикови газ - по-късно, но рязко спада след това.
• Отнемане на ядрени реактори
• Изчерпване на питейна вода и вода за напояване.
• изчерпване броя на цветни и редки метали (до 2050 г.)
Отново съм подчертая: В тази книга, на проблема с изчерпването на ресурсите се разглеждат само от гледна точка на това, дали тя може да доведе до евентуалното изчезване на човечеството. Мисля, че сама по себе си - не може да обостри, но тези проблеми могат да работят на влошаване на международни конфликти и доведе до голяма война.
Интересно за опознаването на следния въпрос. Ако една бизнес единица толерира по несъстоятелност, това означава, че тя е приключила всички източници на пари, и ако ресурсите са ограничени технологична цивилизация, означава, че тя е двата края на всички ресурси, тъй като енергията на сегашните функции на парите в технологиите система, и ви позволява да извлечете всички ресурси, докато енергията е (например, помпа вода от дълбоки слоеве). Това ли е равностойността на пари и енергия, и по този начин дали енергийната криза, а също и финансово, и обратното? Така мисля. Приблизително казано, защото реалните пари означаваше възможност за закупуване на стоки. Ако икономиката ще отидат в дефицит режим, възможността да си купя нещо наистина ценно за парите изчезват.
Съществуват различни срещи възможен връх в петрол и други ресурси, но всички те принадлежат интервала от 2006 до 2050 година. Поради факта, че някои ресурси, да може да замества други, различни върхове на максималното извличане на различни ресурси, ще имат склонност към една обща styagivatsya връх, просто чрез NBIC конвергенция styagivayutsya върхове на развитие на различните технологии. Интересно също, че пик реколта е в същия период на временна, който се очаква да технологични странност. Ако нещо странно се случи първо, а след това днешна ресурси, не би било важно, защото за да бъде безкрайно повече ресурси на разположение пространство. Точно обратното, ако спад в световната минна всички ресурси пред необичайност, тя може да накърнят неговата офанзива. Истинският процес вероятно ще бъде по-сложно, защото не само върховете на технологиите и пики минни ресурси styagivayutsya помежду си в рамките на техните групи, но основно върхове на други групи също styagivayutsya в района през 2030 г. плюс минус 20 години. А именно, пик на броя на хората Kapitsa, пик на броя на жертвите на войната, за прогнози пик за рисковете смърт на цивилизацията, както ние казахме горе. Има някои интересни хипотези за причините на това сближаване, ние няма да се обсъжда тук.
Системната криза и технологични рискове
Той може да се счита за системна криза на всички модерни общества без да се вземат предвид възможностите и опасностите, породени от новите технологии. След това, тази криза ще бъдат разгледани от гледна точка на икономическите, политически и екологични кризи. Можете да се обадите на криза на социално-икономическото системна криза. От друга страна, могат да бъдат разгледани възможностите за пространство, създадена от появата и взаимодействие един с друг най-различни нови технологии. Например, помислете как аванси в областта на биотехнологиите ще се отрази на способността ни да създадем AI и взаимодействие с него. Вие можете да наречете този процес на технологично развитие на системата. Това и други области активно изследвани, но, както ако това са две различни пространства. Така например, тези, които учат и прогнозира връх на нефт до 2030 г., не се интересуват и не се споменава дори в техните изследователски въпроси, съгласувана с развитието AI. И обратно, тези, които са уверени в развитието на мощна AI през 2030 г., не споменава темата на изчерпване на петрола като незначителни. Очевидно е, че това, което е интересно да се разгледа системата на висшето ред, където социално-икономическите и технологичните системи са единствените подсистеми - и където е възможно кризата на по-високо ниво. В противен случай, може да се каже това:
Малки системна криза - включва само на политиките, ресурсите и икономика.
Систематична Малкият технологична криза - обхваща развитието на някои технологии от други сложни и технологични бедствия.
Голям системна криза - двете си малки криза е само част от него, както и съставните елементи на взаимодействие с един на друг. Един пример за такава криза: Втората световна война.
Система Технологии криза - най-вероятният сценарий за глобална катастрофа
       Това твърдение се базира на предположения, че имаме отделно дискутирани в предходните глави.
А) Най-големите технологични бедствия, като се започва с катастрофа «Титаник», бяха системен характер, тоест, не са имали единна кауза, но възникна като проява на сложността на системата, както непредсказуеми вероятно съчетание на обстоятелствата по различни планове за: проектиране, управление, системни нарушения инструкции, интелектуалната слепота и sverhuverennosti, технически недостатъци и едва наниз от обстоятелствата.
Б) Чрез NBIC конвергенция и за сметка на едновременност взаимозаменяема изчерпване на ресурсите, ще получите това, че всички критични обстоятелства впрягане до дата и датата на това - в областта през 2030 г..
Б) рухването на технологична цивилизация, като се започва с дори малък инцидент може да бъде под формата на устойчив процес, където една друга Обработва злополука, докато в даден момент силите за унищожаване превишаване на останалите сили на творението. Това се случва, защото колкото по-скоро огромна сума за унищожаване ограничена, а след това те са пуснати едновременно (изчерпването на ресурси, замърсяването на опасни bioagentami, глобалното затопляне). Тази способност да пуснете още едно бедствие, свързани с висока концентрация на различни потенциално фатални за човешкото технология - подобно на начина, където започна пожар в кораба, където е много барут, евентуално да се взривят целия кораб. Още една метафора - ако човек бяга от лавина, той трябва да бяга с увеличаване на скоростта, и изисква по-малко закъснения, че той дойде от под лавина от нарастващата сила. Третият метафора - recrystallization някои вещества с много фаза състоянието, в района на фаза на преход. Тази метафора е бърз и основните преструктуриране на цялата цивилизация, свързана с появата на мощни AI.
А) като нарастващата сложност на нашата цивилизация се увеличава вероятността от внезапно непредсказуеми преходи по-членка (в духа на "теорията на хаоса"), и в същото време увеличава нашата неспособност да се предскаже бъдещето му и предвиждане на последствията от действията си.
       
Глава 21. Kriptovoyny на надпревара във въоръжаването и други сценарии фактори, които повишават вероятността от глобална катастрофа
Kriptovoyna
Важен фактор в бъдещото глобално риск е възможността «kriptovoyn» - внезапно анонимни атаки, когато непознат, който атака, а понякога и очевидно не е атака (терминът В. Lema). Когато световната надпревара във въоръжаването изглежда повече от двама противници, там е изкушение за причиняване на анонимни (т.е. безнаказано) атака, или да отслаби една от страните или наруши равновесието. Очевидно, sverhtehnologAI предостави нови възможности за подобни нападения. Когато веднъж той може да има доставка на радиоактивни вещества или ракета стартира от неутрални води, биологично нападение може да бъде много по-анонимни. Kriptovoyna не е само по себе си риска за съществуването на човечеството първия вид, но това ще се промени ситуацията в света:
Недоверието страни един срещу друг за повишаване на надпревара във въоръжаването ще се засили, моралната забрана за нападението страхлив анонимно и ще изчезне. В резултат може razgoretsya световна война на всички срещу всички (това е война, където има няма два враждуващи страни, и всеки се опитва да нарани всеки) и едновременен скок в опасни технологии.
Kriptovoyna ще бъде до голяма степен в тероризъм - това е информацията, ефектът от въздействието ще бъде по-голяма от преките щети. Но смисълът на това е не толкова в създаването на страх - ужас, а по-скоро, общественият недоверие на всички, които могат да бъдат манипулирани podbrasyvaya различни «хипотеза". Много от политическите убийства на модерните времена са вече действа «kriptovoyny», например, убийството на Litvinenko. За разлика от бомбардировките самоубийство, за които много искат да поемат отговорност за kriptoudar никой не се предприемат, но всеки иска да я използва с цел да им предимство, spihnuv обвинявам от друга. Уязвимост на последствията от супер --
Следващият сценарий е уязвимостта на комплексни системи за безкрайно малък смущения - това може да се използва за саботаж. (С добавянето на нелинейни, много малко слаб събития могат да бъдат значително по-ефективен от всеки от тях поотделно, което намалява изискванията за точна селекция и изпълнението на всеки отделен случай.) Разбира се, за да се изчисли правилно въздействие трябва супер-интелект, който може да симулиране на сложна система. Това означава, че разузнаването трябва да бъде здраво тази система, и тази система не трябва да включват и други такива разузнаване. Такава ситуация може да възникне в ранните фази от развитието на изкуствения интелект. А удар с помощта на малки събития ще бъдат най-високия израз на kriptovoyny.
Пример: "Злополука за прекъсване на връзката на електроенергия в Съединените щати и Русия с относително малък цикъл. Тази уязвимост може да бъде изчислена предварително. По-сложни уязвимост, не мога да предлагат, защото не са супер-интелект. Но друг фактор може да бъде въздействието върху роднини и приятели на тези, които приемат ключови решения. Така че не трябва да унищожи света, но да провокират огромна бъркотия, можете да - това е да се прехвърлят на системата до по-ниско ниво на организация. В състояние на хаос, вероятността за случайното използване на оръжия за масово унищожение се увеличава, и способността да развият иновативна технология намалява. Съответно, ако средствата са били установени в целия свят унищожаване, се увеличава шанса на глобалната катастрофа, но ако не сте - може да бъде намален. (Но това не е, ако е оцеляла други технологично пълноправен страната - за такова събитие ще бъде куката стартирането опасна надпревара във въоръжаването.)
Примери за хипотетичен момент в системата, безкрайно малък ефект, който води до безкрайно голямо въздействие. По-голямата част от случаите става дума за решаване на човека, или по-скоро, които не фактор, който не надвишава критичната граница от решението. Напротив, тя може да бъде:
• Решението за започване на войната (застрелян в Сараево)
• рано технологична авария (Чернобил)
• фондовия пазар паника, или други опасни слуха
• отхвърляне на астероид,
• убийството на губернатора.
В противен случай, може би малко въздействие върху няколко отдалечени места, което води до синергични ефекти. Сред особено опасни терористични сценарии такива въздействия, че наличните в момента:
• Въздействието върху семействата на ръководители. Използването ентусиасти като вид teleupravlyaemyh ракети, които могат да въвеждат малка бомба никъде.
• убийството на областни управители и други видни люде. Тъй като технологиите са по-лесни да убие не само много хора, но също така и в аванс за всяко избрано лице. Например, с помощта на малка точност продукти (като роботи «bumblebees») или вируси, насочени към генетичната система на конкретен човек.
• Комплексът атака чрез интернет и компютри. Например, един маркер във вашия компютър, който дава неточни данни само за един брокер, принуждавайки го да се вземе неправилно решение.
• Информация атака - дезинформация - например, сложи ухо (качествено симулирала), че президентът вражески страни дойде от ума и подготвя превантивен удар върху «нас» - това е твърде «нас» желание да удари пръв. Какво очевидно тече «параноик» положителни отзиви.
В надпревара във въоръжаването
В надпревара във въоръжаването е опасно не само защото това може да доведе до създаването на оръжия sudnogo ден. При висока скорост надпревара във въоръжаването ще опасни експерименти с намалена сигурност и по-голям риск от изтичане на опасни вещества. В допълнение, sverhoruzhie универсална унищожение може да е страничен продукт на конкретен случай или използването на конвенционални оръжия. Така например, идеята за кобалт бомба дойде след необходимият обичайни за coined и бомбата е била създадена. Развитието на производствените технологии за военни цели особено опасни отровни насекоми ще създаде вид, който може да напълни цялата Земя. И накрая, употребата на големи количества от едно оръжие може да означава спад на човечеството от по-нисък етап на развитие, когато изчезване на човешката популация изглежда по-вероятна.
Морални деградация
Често заяви, че моралната деградация може да унищожи човечеството. Ясно е, че моралната деградация не може да бъде глобална опасност от първия вид, тъй като самата тя няма да се убие, и говори за упадък на морала, тъй като имат древна Гърция. Независимо от това, моралната деградация на управляващия елит се счита за значителен фактор при падането на Римската империя.
Концепцията на «морална деградация» Не инвестираме правилно оцени моралните оценки, и аз да кажа на тези психически нагласи и поведения, които правят обществото по-малко стабилно и по-податливи на всички видове кризи. Първо и най-важно, това е чисто личен и краткосрочни цели на социалната и дългосрочен план. Имайте предвид, че ако по-ранната култура е насочена към насърчаване на целите на допринася за повишена стабилност на обществото, е сега - точно обратното. Това обаче не стават убийци. Един пример за модерен «морална деградация» са думите на президента Клинтън, че «взе цигара от тревата, но не и да забави". Този вид деградация заплашва най-вече «власт елити" и от гледна точка на глобален риск може да се прояви в невъзможността на елитите, за да отговори адекватно на възникващите заплахи. Това е реакцията е възможно, но лъжи, недоверието помежду си и прането на пари може да засегне никое ефективни и амбициозни инициативи за глобалните рискове.
       Освен това, там е критично ниво на устойчивост на технически и социални системи за концентрация на ненадеждни елементи. Ако те са достатъчно малки, тези елементи не срещат помежду си и да не нарушават устойчивостта. Ако броят им надвишава критичното ниво, те си изграждат собствени вътрешно последователна структура. Дори слабо увеличение в такава концентрация, в близост до критичния праг, може опасно повишаване на нестабилността на системата.
И накрая, дори и малък спад в общия «моралното ниво» обществото значително увеличава «тегло» тежки опашки дистрибуция, която е увеличаване на броя на потенциалните «gerostratov". Следва да се отбележи, че нарастването на населението на Земята образовани е и увеличаване на броя на хората, които могат да иска обмислено глобална катастрофа и са необходими експертни познания.
Това е мнението нагоре все още не Карл Маркс, че корените на възможните непостоянството на обществото - в самата природа на обществото, изградена върху конкуренцията. Инвестициите в дългосрочни проекти отслабва конкурентоспособността в краткосрочни проекти, както и средствата отидат в допълнителни проекти. В резултат на това, в средносрочен план, тези хора, държави и организации, които не плащат достатъчно внимание на краткосрочните проекти страдат поражението. (Тази логика може да бъде сравнена с мотивите Н. Bostrom на «hobbistah» В статията си «заплаха за съществуването", което показва, че развитието на otseet на Общността, което няма да се харчат всички средства за оцеляване.) В същото време, тези групи от хора, които научили да си сътрудничат, да търся себе си в по-добра ситуация, отколкото физическо лице, отказва да сътрудничи. Във всеки случай, в съвременното общество е налице пропаст между непосредствен план (преди изборите, за да се плати, докато връщането на дружеството), както и дългосрочното планиране, при което теглото е малко вероятно рискът става висок.
Той също така изрази опасения, че рекламата на насилие, подобно на това, което виждаме в съвременните филми или игри тип на Голямата Кражба Ауто, както и егоизма и личен героизъм води до безсъзнание образование на населението, което прави по-малко възможност за сътрудничество, altruism и саможертва, която може да Трябва в криза. Точно обратното, изображенията на актове на тероризъм mstitelnogo vzhivlyayutsya в областта на колективното безсъзнание, и рано или късно той се появи като спонтанни прояви на насилие. В историята са били времена, когато всички изкуството е насочена към създаване на «новия човек". Това е предимно християнско изкуство и Съветския чл.
В враждебност в обществото като сценарий фактор
Той може да се предположи, че кризата ще доведе до засилване на враждебното отношение на Земята. Един от най-ясните примери за последните подем на враждебност в света е ситуация, която възникна след нападенията от 11 септември 2001 г., когато много хора очакват, че «война на цивилизации» волята на Втората световна война. В подем в враждебност може да има следните последици:
1. Поляризация на обществото в различни групи, които мразят един друг.
2. Растежът на Nacala отрицателни емоции (отрицателни емоционални фон) и увеличаване на броя на хората, склонни към насилие и се стреми да направи това, което увеличава риска от терористични нападения и инциденти с оръжия за масово унищожение.
3. Загубата на доверие на всички и унищожаване на социалната структура на connectedness. Трябва да се има предвид, че доверието днес - тя е необходима част от икономическата система, основаваща се на заема.
4. Растежът на надпревара във въоръжаването и влошаване на дългосрочните постоянни конфликти.
5. Риск на проекта световна война в една или друга форма.
6. Очакванията неизбежен развой на събитията от лошо да се влоши, което може да доведе до samosbyvayuschiesya пророчество.
Отмъщение сценарий като фактор
Отмъщението е продължение на войната, а най-високата форма. Да приемем, че между две големи сили е имало ядрена война, и един на правомощията, то напълно загубени - това за неприемливо, причинена вреда, докато другият избягал с относително малки загуби. А губещата страна - загубата на половината от населението, всички големи градове, отбраната способности. Това е вероятно, че в този случай, отмъщението ще стане Национална идея. Опитът на историята показва, че някои хора биха могли да бъдат поставени на прага на унищожаване, тъй като те отговарят на все по агресивни и опасни форми на съпротива. Например, подкрепата, че Бин Ладен е в Афганистан. В резултат на ядрена война не прави света по-стабилна. Точно обратното, тя може да създаде непреодолими конфликти, така че мирът става още по-опасно. Губещата страна най-вероятно няма да откаже да използва всяка машина sudnogo на деня, защото хората са загубили семейството си, тяхната родина, нямам какво да губя.
Най-добрите страна трябва в този случай да вземе решение или за завършване на унищожаването или професия. Съвременната западна цивилизация, не може да вземе решение за геноцид, защото в този случай, те ще загубят своите civilizational идентичност. Режимът на професия също не работи, защото това може да се превърне в война без край. Tech, докато все още фантастично, изглежда, че идеята на занятието с помощта на роботи, но това е равносилно на извършване на превзема страни в електронен концентрационен лагер.
Отбелязвам, че ние сега стоя на прага на абсолютно всяко възможно бъдеще. Това ви позволява да приемат хора с много различни изображения на бъдещето. Но в един момент ще дойде точката на необратимостта: някои варианти за бъдещето ще станат ясни функции, а някои са невъзможни. Някой ще трябва да се признае, че няма душа, и че AI е възможно, или обратното. Това е изпълнен с конфликти върху картината на бъдещето. За власт над бъдещето.
Войната сценарий като фактор
Междузвездни войни бяха история. Сам по себе си, конвенционална война между хората не могат да доведат до изчезване на човека, тъй като пострадалите са винаги победители. За Клаузевиц, война има два вида: осъществявания от заданието, и общото завоевание / унищожение. То е ясно, че вторият вид война, когато едната страна се свивам на кълбо в ъгъла, далеч по-опасно за човешкото съществуване, както и създаване на условия за използването на оръжия «sudnogo на деня» като последна инстанция.
Въпреки това, по силата на войната, ние сме, позоваващи се на класически военни конфронтация на две населени страни. Въоръжената борба на хора и роботи, хора и sverhlyudey, две AI помежду си или хората с опасните вируси не е класическа война. Но такава война би могло да означава, геноцида на хората, за разлика от конвенционалната война, която не е насочена към унищожаване на всички хора. Drechsler описва риск: «Някои автори смятат пристигането на заговорнически technocrats на власт в света почти неизбежна. В "Създаването на алтернативни форми на бъдещето" сложна загадка Уолтър Матау Хендерсън доказва, че сложните технологии са много по тоталитарни ", защото нито избиратели, нито законодателите не могат да разберат. На "завръщане в бъдещето на човечеството" Харисън Браун също така твърди, че изкушението да се заобикаля демократичния процес в справянето с кризи, комплексни носи опасност ", че ако индустриалната цивилизация, ще оцелее, тя ще става все по тоталитарен характер." Ако това е така, тогава може би ще е обречена: Не можем да спрем технология раса, и светът на тоталитарни държави, на базата на сложна технология, не се нуждаят от работници или войници, могат да се отървеш от по-голямата част от населението ".
Общото поведение на системи на прага на устойчивостта
GG MalinetskAI намерени общи признаци на поведение криви, които описват поведението на различни системи преди да има катастрофални последици. Те са, че параметър се разраства бързо, като скоростта на колебание около средната стойност се повишава. Можете да го обясня по този начин: като системата стане критична, някои пропуски, той предвижда всички сближени, а сред тях са все повече започва да изникнат веригата за комуникация, малки лавини. Като резултат, системата параметри, които започнаха да «скок". Но инерцията хомеостаза система все още е достатъчно силен да я запазите в оптимални настройки. Появата на нови и нововъзникващи технологии и прилагане на различни сценарии за увеличаване на броя на тухлите, който би могъл да бъде опасен процес, без да увеличава линейно, но доколкото е пропорционален на дължината на опасни верига.
Въз основа на това, ние можем да приемем, че знак за приближаването глобален катаклизъм ще се увеличи броят на несвързани помежду си бедствия и опасни процеси, всеки от които ще бъде завършена относително плавно. (Естествено, това не е задължителна характеристика: A катастрофа биха могли да настъпят съвсем неочаквано и, освен това, е знак за това колко «затишие преди буря", потвърдиха в случай на земетресения, когато системата спира издаването на пропуски по време на неочаквано голям път. Все пак, много « спокойна »е също скочи опция. Racing може да бъде не само до влошаване, но и за внезапно подобрение. Е, понякога пациентите се чувствам по-добре, преди смъртта му, и на фондовия пазар нараства до рецесия.) е икономиката един от следващите признаци на рецесия е спорна параметри, като посочи, че системата от върви нормално и предсказуемо режим на работа. И може би, че системата възникнаха контролирано състояние, но все пак в рамките на нейните параметри - така самолети, загубил контрол, за известно време лети в своя въздушен коридор.
Статус непредвидимостта и изменчивост, предварително бедствие, и по-конкретно израз в настройките за състезанието, е нарастващата състояние на хаос (който е sverhslozhnogo multiparameter състояние), в които отделни случаи може да определи своя резултат. Появата на такова състояние на света ще е опасен сигнал, но досега не съм виждал. Историческият пример за това условие може да бъде описан като остри увеличение на природни и промишлени аварии, преди рухването на СССР (Чернобил, "Nakhimov", Spitak, експлозията на газ с две влакове), който след това разпространението и социални прояви (Карабах, Sumgait, Ферганска долина).
Закон tehnogumanitarnogo баланс
Тъй като AP Nazaretian, хората са склонни да се адаптират постепенно тяхното социално поведение на съществуването на нови видове оръжия. Когато пушки в ръцете на Кхмерски планината, те откъсвам помежду си и стана почти изчезнал, но в Швейцария, всяко начало е военна пушка, но незаконно използване на своите изключително рядко (но за това - стрелба местен парламент в Zug през 2001 г.). Закон tehnogumanitarnogo баланс е, че обществото рано или късно достига баланс между наличните технологии и умения за безопасно управление. Надяваме се, хората са достигнали равновесие с атомно и химически оръжия, които не са приложени. От друга страна, оръжия, създадени от новите технологии, трябва да преминат период на «постелки», преди, и той определя, че този баланс.
Планове сценарии
Докато ние не можем да се създаде специфичен случай на глобална катастрофа, защото може би много опции, и нашите знания са ограничени, ние можем да бъдат подпомагани от втори порядък сценарии, които описват общия модел на това как да се придържаме към един друг сценарий фактори. Пример за такъв сценарий е вторият, за «противопоставя на меч и щит". Или като цяло играта шахмат - от дебюта на endgame. Например, да разгледаме следната скачване сценарии: Липса на ресурси - войната - нови технологии - изненадващи резултати - разпространението на технологията.
Един пример за тази схема е война на Япония и Съединените щати по време на Втората световна война. Япония започна войната, до голяма степен да се възползват от нефтени находища в Индонезия (което е невъзможно без война със САЩ и Великобритания), тъй като не разполага с източници на течни фосилни горива. Войната е причинена от страните в далеч по-голяма вреда, отколкото просто недостиг на гориво. Но още по-значимо от гледна точка на рисковия фактор е, че войната е силно ускорени надпревара във въоръжаването в двете страни. Макар че японските са напреднали значително в изграждането и тестването на бълхи, заразени с чума, американците са постигнали успех с атомна бомба. Bomb създадохме много по-голям риск от много по-големи жертви, отколкото беше самият Втората световна война.
Неочакван резултат на атомната бомба е била възможността за създаване на водородна бомба, и особено кобалт sverhbomby, замърсяващи целия континент. Това е, технологията е много по-необходима, отколкото в началото. (Подобна ситуация възникна в хода на разработване на противоракетната и компютърни технологии, след като първоначално са били преодолени трудностите, така че е съвсем естествено резултата.) И накрая, тя е легитимна е, че атомното оръжие постепенно, но се неконтролируемо разпространение в света. Друг естествен резултат бе, че ядрените оръжия са били Converged с други напреднали технологии за неговото време - ракетите и компютърни технологии, създаване на междуконтинентални ракети.
Степента на мотивация и осъзнаване на вземащите решения, като фактори на риска глобален
Както правилно отбеляза А. Kononov, задачата neunichtozhimosti да се разбира като първостепенни всяка цивилизация, която съществува в catastrophically нестабилна вселената. Точно както всички най-основно ниво, A инстинкт за оцеляване. Колкото повече информираност относно важността на запазването на цивилизацията на всички нива, от инженер на управителя, толкова по-вероятно тя оцелее. (Макар че е възможно сценарий, където търсенето за оцеляване ще доведе до премахването на някои групи с други или се преборят с спасители.)
Съответно, това е нарастващата осведоменост и мотивацията на цивилизацията от гледна точка на неговото самостоятелно съхранение, е мощен фактор за неговото оцеляване. Във втората част, аз видите списък на факторите, на които неправомерно пациенти може да се оцени вероятността от глобална катастрофа (често по посока на подценяване). Но това е еднакво важно, че (тъй като не е трудно за вярване), хората не могат да се стреми да предотврати глобалната катастрофа. Или, да речем предпазливост не е достатъчно работа. Така например, Р. Рейгън счита за приемливо увеличение на риска от ядрена война да се постигне победа в студената война със Съветския съюз. Това означава, че оцеляването на човешката цивилизация, защото не беше от първостепенно значение. Това би могло да се обясни с еволюционна психология, тъй като алфа мъжки достигат своя статус като лидер пакет, които показват желанието да рискувам живота си по граплинг с други алфа мъжки и този модел на поведение определя генетично, както и по-печеливши мъжки деца, отколкото сред тези, убити в процеса бори за място тартор.
Така че, способността на цивилизацията да оцелее в една от големите сфери се определя от два фактора - първо, степента на информираност на различните глобални рискове, и, второ, степента на мотивация за предотвратяване на тези рискове. При това, двата фактора са тясно свързани, тъй като много мотивация, води до по-строги изследвания, и важни изследвания, които хвърлят светлина върху новите рискове, които биха могли да увеличат мотивацията. И все пак влиянието на мотивацията изглежда по-основни. Въпреки че на теория всички подкрепа на превенцията на риска глобален, на практика на тази цел се намира на земята, както се вижда от броя на публикациите по темата и изследователски финансиране. (Обърнете се към Вашия правителство - дали е готов да инвестира средства в технология, която ще намали глобалния риск от 1 на сто след 100 години. Независимо от това, този размер на споразумение за изтребление на човечеството до 10 000 години. Има вероятно някои биологичен механизъм, чрез който за опазване живота на децата и внуците е много важно и живот-пра-пра-пра pravnukov - Абсолютно няма значение.)
Можем да опитаме да се вземат предвид тези два фактора, както някои отношения на тяхната максимална стойност. Ако приемем, максималната степен на мотивация усилията на страната във войната, и като мярка за истинската мотивация - делът на финансиране индивиди и организации в Съединените щати, за предотвратяване на глобалните рискове като цяло (около 10 милиона долара на година в най-добрия случай през 2007 г., с Ние не единствена цел разгледат програмите са по-добре финансирана, защото те не се нуждаят от последователна защита, като се вземат под внимание пълната гама от взаимоотношения по отношение на глобалните рискове, като например antiasteroidnuyu програмата) - разликата ще бъде приблизително 100 000 (допусне, че САЩ биха могли да похарчите за Войната на почти 1 trillion долара). Въпреки това, ситуацията се е подобрила - ако през 2000 г. там не е бил един човек, участващи в изследователската дейност и предотвратяване на глобални рискове за разплащателните все по-основа, но сега тези пунктове се намират в САЩ и Великобритания. И все пак, въпреки факта, че ситуацията се подобрява, това horrendously изглежда занемарена.
Подготовка трябва да бъде измерено като дял от пълната информираност за това какво може да бъде определен идеал за цивилизация. По силата на знанието, за които си мисля за съществуването на универсално и строго доказани и добре познати описание на проблема с глобалните рискове. Следователно, дори ако тази книга съдържа описание все още не предоставя пълна информираност, то е ясно, че огромното мнозинство от хората не четат, и по-голямата част от тези, които четат, имате някакви възражения. Така че, ако ние кажем, че нашите знания са хилядна част от максималната възможна съзнание, тя ще бъде много оптимистична оценка. С оглед на това, имам предвид най-високата постижима рационалното познание, а не на абсолютното съзнание магьосник, който предсказва бъдещето.
Дори максималната мотивация и абсолютното съзнание не дава абсолютно шансове за оцеляване, тъй като възможното бедствие, свързани с neoborimymi природните сили или непредсказуеми процесите в духа на теорията на хаоса. Информираност и мотивация не позволява на хората да живеят вечно. Общият оцеляване на цивилизацията може да се измерва като произведение на информираността на мотивация, но в случай на земната цивилизация, ние би било жалко, един часа милиарди на максимално възможно. Очаква се, че когато са на хоризонта някои извънредни обстоятелства, мотивация може бързо растат.
Така че ние трябва да се справят с всички промени, засягащи мотивация и познания за глобалните рискове, като например Global Рискови фактори за втория вид.
Фактори, които повишават мотивиращите фактори:
1) Най-голямата катастрофа от всякакъв вид.
2) Публикации влияят на общественото мнение.
Факторите, които предизвикват отслабване на мотивацията:
1) дълги периоди на мир и просперитет.
2) Публикации, успокояващи хора.
3) погрешното неизпълнени прогнози.
Фактори, влияещи на информираност:
1) Броят на хората, участващи в дебата по този въпрос, и на техните професионални качества.
2) Продължителността на историята на дебата и информация, прозрачност.
3) Razrabotannost методология.
4) мотивацията да развият съзнание.
Фактори, които отслабена съзнание: 1) Загубата на учени или прекъсване традиция в случай на бедствие на умерена тежест.
2) Разпространението на объркване и / или идеологически разделения.
От това, което ние можем да заключим, че нашето невежество и nemotivirovannost за предотвратяване на глобалната катастрофа може да бъде много по-сериозен фактор, отколкото рисковете, породени от всяко физическо източник на риск.

Глава 22. Фактори, влияещи върху степента на напредък
Глобални рискове третия вид
Global Риск трети вид ние наричаме всякакви събития, които са забавени или ускорени крачки, или за промяна на реда на развитие sverhtehnology на Земята, и по този начин индиректно, но има решаващо влияние върху възможните сценарии на глобалната катастрофа.
Вие можете да намерите на следните взаимоотношения между бедствия и събития от различни скали и тяхното въздействие за развитието секвениране и технологии.
1. Всяка голяма авария или бедствие, може да забави развитието на технологиите. Така например, в икономическа криза, който е икономическото бедствие, което да спре работата по ускорители, които намаляват шансовете за създаване на «черна дупка», тъй като стимулатори - е много скъпо многогодишни проекти. И така се случи с руски ускорители, след разпадането на Съветския съюз. Намаление на за разпределение на парите за био-и AI проучвания, но те са засегнати в по-малка степен, защото те могат да се финансира от частни спонсори и много по-евтино.
2. Труден, но не и окончателната катастрофа ще спрат почти всички проучвания, дори ако броят на хората, оцелее.
3. Всяко произшествие умерено доведе до увеличаване на мерките за сигурност, както и намаляване на проекти в своята област. Така например, Чернобилската авария доведе до увеличаване на мерките за сигурност на реакторите, както и широко разпространената отхвърляне на строителството на нови реактори.
4. Военният конфликт ще доведе до надпревара във въоръжаването и увеличаване на броя на изследвания. Дестинации бъдещите изследвания ще бъдат избрани, като се вземат предвид мненията на някои основни специалисти. Така например, в Русия днес стартира програма в областта на нанотехнологиите. Това не се случи, ако тези, които правят решенията и техните съветници никога не са чували за нанотехнологиите. Ядрената програма на Съединените щати няма да се стартира, ако не и Айнщайновата известният F. писмо до президента Рузвелт. От друга страна, универсална AI като абсолютна оръжие сега се пренебрегват органи (доколкото е известно). Въпреки това, той не продължи завинаги ще бъде. След като властите разбират, че частни лаборатории имат силна AI могат да имат сили за глобалното бунт - Те priberut ръцете им. Съответно, proslyshav, че в една страна, властите са направили силна оферта AI, и други страни могат да направят това; отделните организации и големи фирми също могат да започнат да развиват своите проекти. Все пак, за унищожаване на информация свързаност можете да натиснете всички науката за изкуствения интелект отдавна.
5. Просто изобретение, дори не е много голям AI ще позволи драстично ускори напредъка в други области. В допълнение, всички фундаментални открития биха могли да променят баланса на властта.
Итак, некие события могут или сильно снизить уровень исследований в мире, в силу чего, например, более дешёвые проекты получат преимущество перед дорогими, или резко ускорить исследования. Точно обратното, за унищожаване на информация свързаност пуснати най-евтините проекти, въз основа на наличната информация от Интернет, и няма да спре скъпите проекти, продажба на готови детайли, като например създаването на кобалт superbomby.
Законите на Мур
Мур на право в тесния смисъл, се нарича експоненциално нарастване на броя на транзисторите в чипа. В най-широкия смисъл на това е писано експоненциално укрепването на различни технологии, с течение на времето. Бъдещето на Мур на право - ще функционират през XXI век, или действието му ще завърши в някакъв етап - може значително да повлияят върху историята на човешкото общество в XXI век и неговите рискове.
Всъщност, ускорение, което описва Закон на Мур не е показателен, и по-бързо расте (hyperbolically). Въпросът, който е бил многократно изследвана, например, статията Рей Kurtsvela «Резултати от Закона за ускоряване". Доказателство за това е, първо, че размерът на удвояване на броя на транзисторите в чипа постепенно, макар и не равномерно, повишава (който е redoubling период е намален). Ако екстраполират Закон на Мур в миналото, той ще започне имаха точка в средата на двадесети век, докато компонентите на електронни схеми, разработени в миналото. Смята се, че в началото на двадесети век, Закон на Мур (ако се екстраполира и развитието на електронните схеми тогава) са имали удвояване на времето за три години.
На второ място, не само увеличава броят на транзистори в чипа, но броят на компютрите в света нараства експоненциално. В резултат, общото разположение Компютърни мощност увеличава като експонат на експоната.
В третата, увеличаване на свързване на компютри един с друг, ги превърнете в един компютър. В резултат на това, ако в света от началото на 80 на са от порядъка на един милион компютри с процесор за megahertz, сега имаме един милиард компютри, за gigahertz честоти, свързани чрез Интернет. Това означава, че комбинираната Компютърни мощност за 25 години е нараснал не само един милион пъти количеството, но качествено неизмерим начин.
Тъй като подобен модел виждал не само на чипове, но твърдите дискове на компютрите, а четенето на ДНК и някои други технологии, то е ясно, че Мур закон не е свързан с всяка черта на производство на микрочипове, и универсална норма в разработването на нови технологии, които пише Kurtsvel.
В един момент имаше един вид аналог на закона на Мур в космоса. От първия сателит, преди да се качите на Луната се наблюдава експоненциално растеж успех, който дава основания за прогнози за полети към звездите от началото на XXI век. Въпреки това, вместо да пространството е достигнал ниво «насищане", и дори да се връщам по някои позиции. Това стана, защото пространството нараства експоненциално, докато uperlas в техните естествени граници, които имат възможност за химически ракети (и цена). Докато пространството се разви на реактивен двигател не еволюира. (Все пак има известен напредък: цената на частна американска ракета стартира сокол предложени в 7 милиона щатски долара, равни на стойността на няколко апартамента в центъра на Москва, докато организацията на ракетната индустрия и строителство на Baikonur във времето, са били изразходвани суми, които могат да бъдат измерени по текущи цени в стотици милиарди долара) в областта на полупроводници и няколко други технологии, беше около друг начин - Всеки успех в създаването им да се даде възможност бързо и евтино да се разработят нови версии, защото там е recursive Loop: нови «чипове» разработени чипове, но пространството е почти не е изразена. Това е най-важно. При производството на силиций чипове Закон на Мур също рано или късно трябва да достигнат определена физическа граница. Все пак, ако вземем Закон на Мур По-общо казано, това означава, че законът samouslozhneniya структури. Той може да се разглежда като samouslozhnenie Ангажиран квантовата скача от една област на показателен растеж в друга, всеки път, най-много по-бързо развитие показатели - от едноклетъчните до многоклетъчни, от тръби с транзистори електрони, от чип да - може би - квантови компютри. (Не цитирам тук пълната верига от ускоряване на фазата на развитие, като отбелязва само, че всяка конверсия даде ускорение на растеж на стойността на няколко пъти Вижте подробен преглед на ускоряване на цикъла "АД Панова и Kurtsvela.) Това означава, че събития като преминаване от един към друг показател, рязко (и очевидно не е имало конкурентни предимства да се движат на по-стръмни експоненциално развитие), е по-важно, отколкото дори експоненциално нарастване на тези преминавания. И всеки път, когато такива реализации, свързани с квантовия скок, с откриването на нов метод за оптимизация, нов начин за бързо «Duman» (с други думи, с открити бързи алгоритми «Изкуствен интелект", а не просто изброяване на решения). Например, преминаването на сексуална репродукция вероятно е за по-нататъшно развитие на откриването на по-бързия метод на избор и създаване на ефективни видове. Преходът към писане - по-мощен начин да се увеличат познанията за света, отколкото устно предаване на информация. Научен метод - по-мощен начин за изучаване на света, отколкото доверието на древните източници. Създаването на рисков капитал фирми, които се развиват и продажба на нови технологии - бърз начин от работата на индивидуален дизайн на офиси и самотни изобретатели. (Виж например: I. Azarov. Рисков капитал в САЩ електроника индустрия.).
Вероятно трябва да живеят за това как да създадат развитието на нови технологии в съвременното общество - че и поддържа сегашния темп на растеж на технологиите. Тя включва следните процеси:
1) Непрекъснато производство и патентоване на всички идеи.
2) Изграждане на отделни лаборатории за всяка идея, която има най-малко постен шанс за успех (фирмите за рисков капитал).
3) за постоянен обмен на информация между всички заинтересовани страни, както от обществени, търговски и чрез патенти и лицензи.
4) структурирано въвеждане на нови продукти. Култът на новостта.
5) Покупка «мозъка» - хората с уменията си - за конкретни проекти.
Системата процесите на иновация, както всички предишни такива, възникна спонтанно - това е, просто, като изберете между различни системи за оптимизация. Тя може да се предположи, че преходът към следващата система за оптимизация ще бъде свързана с движението, така да се каже, на нивото на мета-оптимизация, която е оптимизиране процеса на оптимизация. Очевидна особеност на съвременната система е, че тя се фокусира не около хората, изобретатели, както в XIX век - например, около Едисън и Тесла, за отпадъци шнеков производство и комерсиализацията на идеи, в който неповторимата индивидуалност на отделния вече не е от съществено значение. От стъблата на уязвимостта на съвременната «Законите на Мур", за икономическите шокове: че законът продължава да работи, има нужда от широка отпред на много компании, подкрепени от постоянен приток капитали. Следователно, в бъдеще модел на синтеза на Закона Мур (с други думи, ускоряване на развитието на законодателството), или чака за срив, или преминаването към по-висока скорост на етапа на развитие. Защото не можеш да накараш хората (освен ако те не променят своята природа), за да смените мобилния 10 пъти в годината, най-вероятно двигателя на следващия скок ще бъде непазарна (но конкурентен) механизми, като надпревара във въоръжаването.
Можем да заключим, че Мур закон е продукт на модерната икономика, поради това, икономическите рискове са рискови зони на Мур на закон, което означава - са глобален риск трети вид. «Мур Юридическата» в най-широкия смисъл, е много уязвима за целостта и единството на обществото. За да се гарантира, че огромната сума от технологията продължава да нараства експоненциално в крива, е необходимо да се едновременна работа на хилядите на лабораториите, че една силна икономика и по-добра информация свързаност. Съответно, дори и силно световната икономическа криза може да подкопае това. Един пример за този вид случай биха могли да бъдат разпадането на Съветския съюз, които науката е паднала - и паднал биха могли да бъдат още по-големи, ако не за наплив на идеи от Запада, търсенето на енергия, внос на компютри, интернет, пътуване в чужбина и подкрепа от Фонда Сорос. Ужасно е да си как се върнете обратно към науката, ако разпадането на Съветския съюз бе единствената държава в света и разорен.
То е ясно, че Мур закон могат да бъдат поддържани в рамките на няколко отделни суперсили, с пълен набор от ключови технологии, но е възможно някои от ключовите технологии са се превърнали в уникалната в света. И, разбира се, една малка страна, дори Европа, няма да бъде в състояние да поддържа темпото на научното развитие на сегашното равнище, оставайки сам. Следователно, ние трябва да са наясно с уязвимостта на Мур Законите на настоящия етап. Все пак, създаването AI, нано-и биотехнологиите драстично намаляване на размера на пространството, необходими за «производството на всички". Спирането на Мур Законът няма да кажа, завършващ всички изследвания. Развитието на някои видове биологични оръжия, AI, sverhbomb могат да продължат усилията на отделните лаборатории. Но без глобален обмен на информация, този процес значително забавя. Спирането Мур на закона да забавят или да направят невъзможно създаването на сложни високо-технологични продукти, като nanoroboty, лунни проучване и откриване на мозъка в компютъра, но вземане на относително прости проекти, за да продължите.
Глава 23. Защита на глобалните рискове
Общото понятие на предотвратими глобалните рискове
Очевидно, ако успеем да разберем, че има няколко прости, ясни и надеждни начини за справяне с глобалното катастрофа, ние значително ще се подобри безопасността им, както и редица глобални рискове ще престане да представляват заплаха за нас. Точно обратното, ако се окаже, че всички предложени мерки и средства за защита имат дефекти, които ги правят неефективни в най-добрия и най-лошото - опасен, ние трябва да измислям нещо радикално ново. Изглежда, че защитната система - на всеки етап от развитието на глобалния риск - би трябвало да изпълнява следните функции:
• Контрол.
• Анализ на информацията и действия.
• унищожаване на източника на заплаха.
Тази стратегия е работил добре и в контрашпионаж, борбата с тероризма и военните въпроси. Друга стратегия включва полета на източника на заплахата (от космически селища, бункери). Очевидно е, че тази втора стратегия е да бъдат приложени в случай на неуспех на първия (или едновременно с нея, само в случай).
Глобални рискове, се различават в степента на това как те могат да се предотврати. Така например, е действително да се забрани клас на опасни експерименти с ускорители, ако научната общност ще дойде до заключението, че тези опити създават някои риск. Като най-малко на брой големи ускорители, които се управляват доста открито, така че самите учени не желаят да бедствие, а не да го всички обезщетения, тя изглежда много просто да анулират експерименти. В действителност, тя се нуждае само общо разбиране на техните рискове. Това е най-предотвратими риск - рискът е, че:
1) е лесно да се предвиди
2) лесно да се постигне научен консенсус по тези предвидливост,
3) на този консенсус е достатъчно да се откажем от действието, което води до риск.
Откажете действия, които няма риск (например забрани сортиране на опасни технологии), то е лесно само при определени условия:
А) ако процесът създава опасен само човешки същества.
Б) ако тези процеси се създават по-малък брой добре познати места. (Как, например, физически експерименти върху огромни ускорители)
Б) ако хората не чакат обезщетения за всяко от тези процеси.
Д) Ако опасните процеси предвидима по отношение на момента на неговото начало и в процеса на развитие.
Д) Ако опасните обекти и процеси са лесно разпознаваеми. Това е, че лесно, бързо и със сигурност знаят, че започнах нещо опасно положение, и ние трябва да оценяваме степента на риска.
Б) ако имаме достатъчно време, защото на процеса за разработване и приемане на адекватни мерки.
Съответно рисковете, които са трудни за предотвратяване, се характеризира с факта, че:
1) те са трудни за предвиждане, е трудно да се предположи им потенциал. (Дори се предполага, че SETI може и да е риск, че е трудно.)
2) Дори и ако някой е наясно с този риск, той е изключително трудно да се убеди, че някой друг (примери: на трудностите в познаването AI и SETI като източник на риск, трудности доказателството на теоремата за края на света).
3) Дори и обществен консенсус, че тези рискове са наистина опасни, това не означава, че хората доброволно се откажем от този източник на риск. (Примери: ядрени оръжия.)
Последно, защото:
1) Източниците на риск достъпни за много хора, които тези хора - тя не е известна (може да се облича с регистър на всички ядрени физици, но не и хакер-samouchek).
2) Източниците на риск са неизвестни местоположение и / или лесно да се скриеш (biolaboratorAI).
3) Рисковете са установени извън рамките на дадено лице естествени фактори, или в резултат на взаимодействие на човешките действия и природни фактори.
4) Източник опасност не само рисковете обещания, но също и ползите, в частност, е оръжието.
5) Време на Спешна непредсказуеми, както и начина, по който ще се развиват.
6) опасната ситуация е трудно да се определи като такава, тя изисква много време и съдържа елемент на несигурност. (Например, че е трудно да се определи какъв вид на нови бактерии е опасно, тъй като е някой да не се заразят и все още не са достигнали такива размери, когато можете да разберете, че това е епидемия.)
7) опасен процес на бързо развиващ се от нас имат време да реагират адекватно на него.
Предотвратими определени рискове, но не бива да води до това, което те трябва да бъдат освободени от сметката, тъй като тя не означава непременно, че рискът ще бъде предотвратено. Например, опасността астероид е сред сравнително лесно предотвратими рискове, но истинската protivoasteroidnoy (и по-важното е, protivokometnoy) система за защита, ние не. И докато това не е, "предотвратими» заплаха остава чисто хипотетично, защото ние не знаем доколко ефективно и безопасно бъдеще ще бъдат защитени, независимо дали тя напълно, и ако някой се появява, кога.
Активни плоскости
Като средство за предотвратяване на глобалните рискове, да се създадат всички видове активен плоскости. Активни щит - е средство за контрол и въздействие върху източника на риска в целия свят. В действителност, това е аналогична на имунната система в целия свят. Най-очевиден пример е идеята за създаване на глобална система за противоракетна отбрана.
Активност дъските означава, че те могат да бъдат относително автономно отговаря на всички стимул, който попада под определението на заплахата. То е защитено с щит напълно покрива площ, това е земната повърхност. То е ясно, че автономна съвет е опасно неконтролирано поведение, и се управлява с абсолютно оръжие в ръцете на онези, които работят това. Както знаем от дискусиите за Олимпийските игри, дори и ако активното щит е изцяло отбранителна оръжие, той все още дава предимство на атаката за защитена част, защото тя не можеше да се опасява от възмездие.
Сравнение на активните табла с човешката имунна система като идеална форма на защита, коректно, защото имунната система nonideal. Тя предоставя статистическа оцеляването на видовете от факта, че някои видове са средно с доста дълъг. Но това не дава неограничени индивидуално оцеляване. Всеки има инфектирани заболявания през целия живот, както и много от тях са убити. За всяко лице, установено заболяване, което убива него. В допълнение, имунната система работи добре, когато знае точно патогенните микроорганизми. Ако тя не знае, че ще отнеме време, че е шоу, а друг път за имунната система, разработена да отговори. Същото нещо се случи с компютъра антивирусната, който също е активен щит: Докато те осигуряват устойчиво съществуване на всички компютри, като всеки компютър от време на време все още заразени с вируса, както и данни, той загубил. Освен това не антивирусни защити срещу новия вирус все още не се изпращат актуализации, но този път на нов вирус време, за да зарази определен брой компютри. Ако е имало заплаха от «слуз Грей", ние разбираме, че това е - "сива тиня", само след като се е разпространил. Въпреки това, съществуват имунната системи, работещи на принцип: всичко е забранено, това не е позволено, но те също така могат да заблудят, и те са по-склонни да avtoimmunnym реакции.
Накратко, имунната система е добра, само когато е налице силно се припокриват основната система. Ние все още имат потенциал за дублиране на земните условия на живот и пространство са изправени пред редица селища на политическите предизвикателства. В допълнение, всички имунни системи са фалшиви позитиви, които са в avtoimmunnyh заболявания - като диабет и алергии - които имат значителен принос за човешкото смъртност, по нареждане на големината сравни с участието на рак и инфекциозни болести. Ако имунната система е прекалено твърда, тя създава avtoimmunnye болест, но ако твърде меко - то липсва малко риск. Тъй като имунната система обхваща всички защитения обект, продукцията на своя пропуск представлява заплаха за всички сайтове (тук принципа на "опасностите от разпространението на унищожение"). Терористичните нападения върху имунната система, прави цялата система беззащитни. Така е СПИН, който е най-бързо разпространение на болестта, още повече че имунната система се бори, защото той е вътре в нея.
Широко дискутирани идеи BioSchita и NanoSchita. Тези групи включват пръскане намира на повърхността на Земята хиляди trillions на контролните устройства, които бързо могат да проверят всички агенти на риска и бързо да унищожат опасно. Това се отнася и за schitam-нататъшно засилване на контрола върху Интернет и светът мониторинг razveshivanie камери. Въпреки това, например на глобална система за противоракетна отбрана разглежда всички значителни проблеми, щитове:
1. Те са болезнено изостава на източника на заплаха във време, за да се развиват.
2. Те трябва да действат незабавно в рамките на Земята, без изключение. Какво точка заплахата, толкова по-висок трябва да бъде щит.
3. Те вече са причинени сериозни политически различия. В случай, че Съветът не покрива цялата повърхност на Земята, тя може да създаде ситуация на стратегически нестабилност.
4. Всеки съвет е създадена въз основа на по-напреднали технологии, които биха могли да представляват заплаха за тяхното ниво.
5. Щита може да бъде източник на глобалния риск при себе си, ако той започне нещо «avtoimmunnaya реакция", тоест, той ще унищожи това, което трябваше да се защити. Или ако управителния съвет ще бъдат изгубени, и ще се защитава срещу тяхното Силите. Или ако фалшив действие би било причина за войната.
6. Щита не може да бъде напълно надежден - това е, че успехът на неговата дейност е възможна природа. След това, в случай на продължаване световна заплаха, въпросът за неговата дупка - тя е само въпрос на време.
7. Журито трябва да имат централизирано управление, но автономията на терена за бързия отговор.
Така например, antiasteroidny съвет ще създаде много нови предизвикателства пред сигурността на хората. Първо, тя ще предостави технология за прецизно управление asteroids, които представляват малки въздействия могат да бъдат насочени към голямата маса на Земята, и тайно, в духа на kriptovoyny. Второ, самият щит може да се използва за нападение на Земята. Така например, ако е по-висока орбита ще Дръж 50 gigatons бомба, готова да Rush отбор навсякъде в Слънчевата система, няма да се чувстват по-сигурни. Третото движение на asteroids над милиарди години на добро синхронизиране и всяко нарушаване на този баланс може да доведе до същите астероид ще се превърне в постоянна заплаха, редовно преминаващи близо до Земята. Особено това ще бъде опасно, ако човечеството след намесата otkatitsya да predtehnologichesky ниво.
Имайте предвид, че всяко едно от опасните технологии могат да бъдат средство за предотвратяване на тяхното собствено:
• ракети отплесвам ракети през противоракетната отбрана.
• На местата на производство на ядрени оръжия поставя ядрени удари.
• AI контролира целия свят, който не е създал грешната AI.
• Biosensors не се разпространява биологични оръжия.
• Nanoschit защитава срещу nanorobotov.
Повечето дъски направи нещо точно обратното на това, за което са създадени. Така например, се счита (Bellona доклад на главата на IV.1. «Трима« пукнатини »ДНЯО»), че Договора за неразпространение лошо справяне с черния пазар, но добра работа с разпространението на «приятно Atom» (т. е. строителството във всички страни които желаят това, да изследователски ядрени реактори), които са с двойна употреба технологии. Силна врати, които защитават кокпита след атентатите на 11 септември, няма да позволи на терористите да се инфилтрира в кабината, но ако те направиха това ще има (за пример, тъй като пилотът сам - терористична), пътниците и Stewards потребители няма да могат да ги предотвратят. Ако има система за контрол на полет от земята, тя се появява възможност да се възползва от въздухоплавателните средства, използващи системата по радиото.
И накрая, всички съвети са предложени на базата на предположението, че имаме нещо като идеална система, които осъществяват надзор и контрол, от друга, по-съвършен. Така например, целостта милиция контролира несвършено общество. Ако полицията корумпирани, Департамента по свой контрол за сигурност, и така нататък. Очевидно е, че такава идеална система, в действителност не съществуват, тъй като системата за мониторинг и контрол обект, направени от един тест. Един може да представи многогодишен йерархична система дъските, но в този случай е налице риск от разделение между различните регулаторни системи. Накрая, всеки щит е невидима зона - той не може да контролира своите собствени мениджмънт център.
Съществуващите и бъдещите плоскости
Ето, аз до момента кратко, но доколкото е възможно по-пълен списък на табла, които вече имат или биха могли да се развиват в бъдеще.
1) глобална система за противоракетна отбрана. Той страда от политически и технологични проблеми, беше готов само в ембрионална фаза.
2) МААЕ. То работи, но правилно. Пропуснати няколко военните ядрени програми.
3) глобалната борба срещу наркотиците. Разположена в баланс със своите проблем - ограничени до известна степен, но не повече.
4) Системата за общо наблюдение на информацията, която може да се нарече «oruellovsky контрол» в чест antiutopAI «1984» година Оруел, където такава система е описана vividly. Система за контрол, за всяко лице, което използва видео чипове за идентифициране, проследяване на Интернет, за да преча на телефонни разговори. Технически, системата е постижимо, но в действителност тя е разгърната само няколко процента от това, което биха могли да бъдат, но тя е активно развита. То е вече стават явни и открито да обсъждат проблемите на системата, свързани с легитимността, международно, слепите зони хакери. На теория може да формира основата за всички други системи за контрол, както и евентуално контрол върху поведението на всички човешки същества достатъчно, така че да не се появяват опасни "био", "Нано и AI устройствата (и не взема вече готовия опасни устройства в околната среда).
5) "Разум контрол". Тази система включва имплантиране в мозъка контролиране на някои чипове (или вземане на мисли чрез анализ encephalogram - вече имат резултати по този път). Това може да не е толкова трудно, колкото изглежда, ако се намери група от клетки, които се очаква вътрешен диалог и емоционални състояния. Как нещо, като това вече е детектор на лъжата. Подобно устройство може да реши проблема, дори спонтанно престъпления, като например внезапно агресия. От друга страна, потенциалната злоупотреба с такава технология - неограничен. Ако използвате такава система ще се управлява от хора, това е грешно команда, за да унищожи цялото човечество. (Същият проблем възниква с предложените като мярка срещу терористите на полета система за контрол на самолети от земята, а тя ще се намали рискът от залавяне на един самолет, той ще създаде теоретична възможност в същото време да преча на контрол върху всички разположени във въздуха самолетите и изпълнявани със съдействието на масивните сгради овен или ядрени реактори.) И накрая, тя няма да даде абсолютна защита, защото може да крек, а също и поради факта, че някои бедствие не е зъл умисъл, а от необмисленост.
6) за борба с астероид защита. А за наблюдение на потенциално опасните обекти, но недостатъчни средства за откъсване не е било формално развита. (Но Дълбоко Влияние сонда през 2005 г. е била използвана за сблъсъка с кометата Tempel, оставяйки тялото comets образува кратер, и неговата траектория е малко по-различно.)
7) BioSchit. Борбата срещу биотероризъм в момента е на нивото на интелект и международните споразумения за контрол. Има препоръки за безопасно развитие на биотехнологията (вариращи от доброволни самостоятелно взети Asilomare 70-те години и довършителни книгата «Ръководство за biocontrol», обаче, редица от предложените ограничения, които все още не са били приети.)
8) NanoSchit. По предварителни дискусии. Има препоръки за безопасно проектиране, разработен от Центъра нанотехнологии отговорен.
9) AI-щит. Защита от създаване на враждебна AI. В Singulyariti институт в Калифорния (SIAI) се дискутират проблемите на сигурността за силна tselepolaganiya AI, това е проблем на неговия приятелски. Има препоръки за безопасно строителство.
10) Редовни полицията и службите за сигурност.
Можете също така да се опише последователността във времето листове за отговор в случай на опасна ситуация.
Първото ниво на защита е да се запази като съзнателен цивилизации, мирни, балансирано състояние и в подготовката за работа по превенция на риска на всички други равнища. На това ниво, важна за обмен на информация, отворени дискусии, публикувана в referiruemyh списания, набиране на средства, застъпничество, образование и инвестиции.
Втората е да насочи компютър контрол на хора и опасни системи, така че ситуацията на глобалните рискове като цяло не можеше да се случи. На това ниво, на МААЕ за действие, Global видео наблюдение и прихващане на Интернет комуникациите и др
Третият - в quelling опасността, създадена с помощта на ракети, и др antinanorobtov Това ниво, подобен загуба на УД системи за защита от оръжия за масово унищожение.
Четвърто - за да избяга от Земята или zakuporivanAI в бункерите (въпреки принципа на предпазливостта предполага, че ще започнат да го правят дори и в същото време като точка първа от дневния ред).
Да спасим света баланс на властта
Нови технологии биха могли да противоречат на военно-политически баланс в света, като една от страните безпрецедентни възможности. Ерик Drechsler описва проблема по следния начин: "В търсене на половината път, можем да опитаме да намерим баланса на властта, на основата на баланса на технологии. Това е вероятно да подобри положението, което запазва някои мярка за мирно съвместно съществуване в продължение на четири десетилетия. Но ключовата дума тук - "изглежда": идващи breakthroughs ще бъде твърде бързо и destabilizing към старите баланс може да продължи да съществува. В миналото, страната може да опита по технологични лаг от няколко години и все още поддържа военен груб баланс. Все пак, с бърза репликатор и напреднали AI, има забавяне от един ден биха могли да бъдат фатални ". С една дума, толкова по-бързо развиващата се технология, толкова по-малко вероятно те ще бъдат в баланс в различни страни, както и сили на ограничаване и контрол. Умишленото нарушаване на баланса също е опасно: опитът на една от страните изрично да вземе «изолирани» в армията sverhtehnology биха могли да задействат своите опоненти в агресия на «Атака с риск да загубят предимствата".
Възможно е системата за контрол върху глобалните рискове
Всяка защита на глобалния риск въз основа на система за глобално наблюдение и проверка. Какво е по-опасно, отколкото на риска и на повече места, то може да бъде, така че всички широко разпространен и ефективен трябва да бъде системата за контрол. Един пример на съвременна система за контрол на МААЕ. Щитове също може да бъде контролна система, или да ми го по-специално за структура. Но билбордове на място и може да работи автономно, тъй като имунната система и система за контрол включва събиране и предаване на данни в единен център.
Окончателната версия на глобален контрол ще бъде «oruellovskoe-членка", където всеки ъгъл ще се придържаме към камерата, или ще бъдат инсталирани чипове в мозъка на всяко човешко същество, да не споменавам компютри. Уви, по отношение на видеото вече е почти продаден опция. И в домовете, които могат да бъдат реализирани технически по всяко време - където имате интернет и компютри. Въпросът, отколкото при наблюдение, и в превод и в частност, анализът на тези данни. Без помощта AI трудно за нас, за да проверят цялата информация. Атрактивни поглед на взаимната отчетност и цивилен Виджиланте превърната като алтернатива на тоталитарната държава в борбата срещу тероризма, която чрез абсолютна прозрачност, всеки може да наблюдава всеки, но по отношение на потенциала си остава много неясни. Проблеми:
• За да бъде ефективна, подобна система за мониторинг трябва да покрива целия свят, без изключение. Не е възможно без някаква форма на единна правителство.
• Всяка система за контрол може да бъде подвеждаща - Е да наистина ефективна система за мониторинг трябва да се множество излишни.
• Малко гледам всичко необходимо да се анализира цялата тази информация в реално време, което е невъзможно без изкуствени или тоталитарни правителство. В допълнение, този съвет няма да бъде в състояние да контролира себе си, следователно, трябва да превъзмогне своята отчетност система, или на хора или на "вътрешната сигурност".
• Такава система би била в противоречие с възприятията на демокрацията и свободата, която възникна в европейската цивилизация, и да доведат до ожесточена съпротива на разпространението на тероризма. Такава система от общия контрол ще предизвика на изкушението да се прилагат не само срещу глобалния риск, но и срещу всякакъв вид «закона», в очакване случаи, използването на nepolitkorrektnoy слушат словото и нелицензирана музика.
• Тези, които трябва да има пълно и справедливо представяне на всички глобални рискове. Ако тя само ще биологични рискове, но не и създаването на изкуствени и опасни физични експерименти, системата ще малоценност. Много е трудно да се разграничат на опасни биологични експерименти от каса - във всички случаи, използван ДНК sequencer и експерименти при мишки. Без четене мислите на един учен не разбирам, че той е бил заченат. А случайно от опасни експерименти, системата не защитава.
• Тъй като подобна система би «доставени» навсякъде по света, тя може да се опрости функционирането на всички оръжия, които засяга всяко човешко същество. С други думи, изземване на правомощия върху общата система за контрол, ще дам власт над всички хора и ще е по-лесно да правя с всичко, включително и им навреди. Например, можете да изпратите мейл до някои медицина и дали всички го приели. Онези, които отказват да арестуват.
По този начин една система на общия контрол, изглежда най-очевиден начин да се противопоставят на глобалните рискове. Въпреки това, той съдържа редица клопка, която може да се трансформира в глобален рисков фактор. В допълнение, системата на общия контрол предполага тоталитарна държава, който е снабден със средства за производство, под формата на роботи, може да загубим нуждата от човешки същества като такива.
Съзнават спре технологичния прогрес
Повечето предложения за не-технически прогрес или начина на насилие, или от vzyvaniya на съвестта на учени с цел предотвратяване на глобалните рискове. Има различни варианти за това как да приложат тази спре и всички от тях, или не работят или съдържат клопки:
1. Лични отричането на развитието на новите технологии - почти нищо за последиците от тях. Винаги ще има други, които ще.
2. Възбуда, образованието, социалното действие или с тероризма като средство за принуждаване на хората да се откажем от развитието на опасни технологии - не работи. Както пише Yudkovski: Всяка стратегия, която изисква единодушното действия от всички хора, е обречена на провал.
3. Снемане на технологичните иновации на определена територия, например, една страна, не могат да спрат технологичния напредък в други страни. Още повече, ако се откажем от една отговорна страна, развитието на технологиите, на венец премине към по-безотговорно.
4. Светът споразумение. Така например, на МААЕ, ние знаем колко зле работи.
5. В завоевание на света със сила, които биха могли да регулират развитието на технологиите. Но в процеса на получаване на големи са шансовете за използване на оръжия «sudnogo на деня» от ядрени сили, в резултат на загуба на суверенитет. В допълнение, Drekslera думите: "Освен това, печели сила би самата основна технологична сила с огромна военна мощ и демонстрира готовност да го използвам. Може ли да вярвам в този случай такава сила, че потискат собствените им напредък? »(« Машини творчество ».)
6. Мирното обединение на народите в лицето на заплахата, както на ООН, възниква в годините на Фашизъм и делегираните им правомощия да спрат напредъка в тези страни, които не искате да се присъедините към тази асоциация. Това е може би най-добрият вариант, който обединява достойнството на всички предишни и смекчаване на техните слабости. Но това би било възможно, само ако общият става явна заплаха.
7. Ник Bostrom предполагат, че концепцията за технологично развитие на диференциала, когато проекти, които повишават нашата сигурност, стимулирани и ускорени, а потенциално опасни проекти изкуствено забавяне. Така, контролиране на скоростта на развитие на различните области на знанието, ще получите по-сигурни технологии, комбинирането на атака и защита.
Средства превантивен удар
Малко да разполагат със система от общия контрол - те трябва да имат възможност да се предотврати риска. Там обикновено е последна мярка считат стачка-ядрени ракети сили в точков източник на риск.
Ето, там е с любопитство в разрез с програми за изграждане на бункери за оцеляване - ако такъв бункер в тайна и ще бъде непобедим, би било трудно да се унищожи. Нещо повече, те трябва да съдържат напълно оборудвани лаборатории и научни работници в случай на бедствие. Поради това е възможно, че «sverhoruzhie» ще бъдат създадени в бункер (например в Съветския съюз, създадени подземна атомна централа да продължи производството на ядрени оръжия в случай на ядрена война провлечен.) Хората, които вече са на имунната бункери, могат да бъдат по-склонни да се създаде психологическа sverhoruzhiya влияние върху повърхността. Следователно, не бункерите ще представляват заплаха за човешкото оцеляване, средства за превантивна стачка ще унищожи всички бункери, които биха могли да бъдат използвани за оцеляването на човека след известен бедствие. Все пак удар към една точка в пространството, не се прилага за системна криза, нито срещу някои заплаха информация. Компютърен вирус не се лекува с ядрено стачка. Как да се отървем от хората на закрепване към sverhnarkotiku. След това нападение е възможно толкова дълго, колкото на риска не е подал оставка от точката. Ако една рецепта supervirusa хит в интернет, а не обратно си улов. Вече, модерната военна машина е безсилна срещу интернет заплахи, като например терористични мрежи, като дава метастази в целия свят. По същия начин в бъдеще компютърни вируси не е само заплаха за информацията на диска: тя може да направи компютърно управлявани фабрики по света и invisibly се направят някои техните физически носители (т.е. под формата на микроскопични роботи или софтуер отметки в конвенционалните продукти), а чрез тях отново, за да напусне мрежата (например, се свържете към радиото).
Накрая, той удари (или дори възможност) ще се създаде ситуация на стратегически нестабилност. Например, сега удариш балистични ракети с конвенционална бойна глава на ракета с терористите може да доведе до активиране предупреждение за ракетно нападение, вероятния противник и водят до война.
Накрая, шок отнема време. Този път трябва да бъде по-малко време за откриване на развитието на заплаха до момента на нейното преминаване в необратим етап (например, ако сте «Грей слуз» важно да се унищожи нея по-рано тя е била в състояние да възпроизвеждат в милиарди копия и разпространението в рамките на Земята). Сега е моментът на откриване на стачка всяка точка на Земята е по-малко от 2 часа и може да бъде намален до минута чрез спътник оръжия. (Но, за вземане на решения др.) Ако от решението точка за писане код, опасен вирус преди да започнат да се провеждат само 15 минути, след това тази скорост ще е недостатъчно. И това очевидно не е достатъчно бързо, ако в някое място започна пръскане на опасни nanorobotov от въздуха.
Ефективността на удара в точка принципно ще се промени след основаването на космически колонии (най-малко чисто автоматични - Има също така да успява да се превърне в колония в «рак» - това е вероятно да няма ограничения самостоятелно и разпространението на «токсини": Опасни nanorobotov, sverhbomb и други неща, но това е пространството самостоятелно проучване чрез използване на роботи местни суровини, най-обещаващите). Защото, докато сигнал за опасност ще мине, да речем, на спътник на Юпитер до Земята, и след това премине от Земята пристигат битката «Военноморски» (тоест, ракети с ядрени бойни глави и да живее nanorobotami) заповед (за да изгори всичко), тя ще бъде твърде късно. Разбира се, можете да запазите «Военноморски» всеки спътник в орбита на планетата или астероид, който е в състояние самостоятелно автоматични колонии, но ако бунт случва точно в флотата? Тогава трябва флот, който контролира други флотове, и лети между спътниците на планетите. И после друг междупланетен флот да контролират тях. Накратко, ситуацията не изглежда стабилния стратегически - това е над определено ниво на системите за контрол започват да се намесва един с друг. Вероятно невъзможността да се контролира отдалечено колония води до факта, че печеливши цивилизации в близост до майка планетата - това е друго решение на Ферми парадокс.
Премахване на източниците на риск от значително разстояние от Земята
Теоретически, може да премахне източници на риск от Земята, особено по отношение опасни физични експерименти. Проблеми, свързани с този подход:
• като са били в ръцете на техническите средства, за да създаде мощен експерименталната инсталация е далеч от Земята, ние ще бъдем в състояние да достави най-бързо резултатите от експерименти отзад.
• Той няма да може да спре някои хора от подобни експерименти на Земята, особено ако те са прости.
• Това не ни пречат за създаването на опасните тежки AI, тъй като може да разпространение информация.
• дори и от орбита на Плутон, могат да бъдат опасни експерименти, което ще се отрази на Земята.
• трудно да се знае предварително какъв вид експерименти трябва да извършват «на орбита на Плутон".
• Без технически възможности да даде огромна сума на оборудване за орбита на Плутон през следващите десетилетия, дори още повече че без използването на опасни технологии под формата на самостоятелно роботи.
Създаването на самостоятелни населени места в отдалечените кътчета на Земята
Създаването на тези населени места, както и умения за оцеляване в дивата природа, е малко вероятно да помогне в случай на истински глобален катаклизъм, защото тя трябва да засяга цялата повърхност на Земята (ако това е един вид ирационални агент), или намирането на всички хора (ако е разумно агент). Независими сетълмент и уязвими за първия и втория - освен ако не е тайна военна база, но след това тя отива, а по реда «бункери".
Когато става дума за оцеляване, след един много голям, но не и окончателната катастрофа, трябва да се припомнят опит prodrazverstki и колективни ферми в Русия - град на сила доминира селото, и избира своя излишък. В случай на системна криза, основната опасност да бъдат от други хора. Не без причина във фикция романа «Метро 2033» монета е основният патрон на Калашников нападение пушка. И докато на касетите ще бъдат повече от селяни ще бъде по-изгодно да крада, да не растат. То също е възможно да се завърши разпадането на човешката природа в духа на Maugli. Въпреки това е малко вероятно, че по този начин поне някои от членовете на вида Хомо сапиенс да отидем наистина глобална катастрофа.
Създаване на профил на глобалните рискове и да увеличи общественото разбиране на въпросите, свързани със
Публикуването на книги и статии по глобалните рискове, е довело до увеличаване на информираността в обществото и по-точен списък на глобалните рискове. Интердисциплинарния подход ви позволява да се сравняват различни рискове и да се вземат предвид техните сложни взаимодействия. На сложността на този подход:
• Не е ясно към кого е адресиран към всички този вид текстове.
• Терористите, двоен страни и редовна армия може да се идеи за създаване на глобален риск от публикуваните текстове, които ще доведат до по-голямо увеличение на риска от съдържанието им попречи.
• неправилно и преждевременната инвестиция може да доведе до чувство на безсилие в справянето с риск - точно когато борбата е действително необходимо.
Домове и бункери
Всички видове укрития и бункери могат да увеличат шансовете за оцеляване в случай на глобална катастрофа, но положението с тях не е лесно. Индивидуални самостоятелно убежище може да има десетки години, но това, което те са автономни и дългосрочен план, повече усилия трябва да ги подготви предварително. Приютите трябва да гарантира способността на човечеството да продължи сам. Следователно, те трябва да съдържа не само достатъчно на брой хора, способни на възпроизвеждане, но също така и предлагането технологии, които ще оцелеят и да възпроизвежда на територията, което е планирано да obzhivat след убежище. Колко трудно ще бъде замърсена, толкова по-голямо ниво на технологиите, необходими за надеждно оцеляване.
Много голям бункер ще могат да продължат в рамките на технологичното развитие и след бедствие. Въпреки това, в този случай тя би уязвими за същите рискове, тъй като всички наземни цивилизация - тя може да се появи за местни терористи, AI, nanoroboty, течове на вода и т.н. Ако бункера няма да можем да продължим с развитието на технологиите сами по себе си тя е доста обречени на деградация.
Освен това, бункера може или «civilizational», това е да се пазят по-голямата част от културните и технологичните постижения на цивилизацията, или "вид", който е само спаси човешки живот. Преди «дълги» (който се изчислява на по-дълготраен престой) силози ще са изправени пред проблема за образованието и възпитанието на децата и рискове деградация. Бункер може или живеят в рамките на средствата, натрупани в бедствие, или да участват в нейното собствено производство. В този случай, тя ще бъде само подземна цивилизация на планетата заразен.
Какво е по-бункер, изграден на модерни технологии. автономен культурно и технически, тем больше там должно жить людей (но в будущем это будет не так: бункер на основе продвинутых нанотехнологий может быть даже вовсе безлюдным, – только с замороженными человеческими эмбрионами). За да се осигури просто възпроизводство чрез обучение в основните човешки професии изискват хиляди души. Тези хора трябва да бъдат подбрани и поставени в бункера преди окончателното катастрофата, за предпочитане по текуща база. Въпреки това е малко вероятно, че хиляди психически и физически превъзходни хора ще искат да седи в бункера «само в случай". В този случай, те може да са в бункер в две или три смени и да получават заплата за това. (А в Русия започва експеримент «Марс 500", при които 6 души ще бъдат напълно самостоятелни - за вода, храна, въздух - пространството на 500 дни. Това е може би най-добрия резултат, че ние сега имаме. В началото на 1990 г. е във САЩ е и проект «Биосферен-2", в което хората трябваше да оцелее две години до пълно самоуправление достатъчност под купола в пустинята. Проектът приключиха частична недостатъчност, както и нивото на кислород в системата стана спад, поради непредвидими размножаване на микроорганизми и насекоми.) V Като допълнителен риск за бункерите трябва да се отбележи, е широко известно за антарктически експедиции на психологията на малки групи, затворени в една и съща стая - а именно, нарастващата враждебност чувствителни полезен товар, която ограничава оцеляване.
Бункер може да бъде еднократна или един от многото. В първия случай тя е уязвима за различни шанс, а вторият може да има борба между различни силози за Останалата отвън ресурси. Или може би продължение на войната, ако катастрофата е причинена от войната. Бункер е вероятно да бъде, или метро, или море или пространство. В това пространство бункер може да се zaglublen в почвата на asteroids или на Луната. За космоса бункер, ще бъде трудно за използване на баланс на ресурсите на Земята. Щети могат да са напълно изолирани, и не позволявайте на "Тур", за външните враждебна среда.
Моделът на морски бункери може да бъде захранван с ядрени подводници, с високата си тайна, автономност, гъвкавост и устойчивост на негативните влияния. В допълнение, не може лесно да се охлажда в океана (проблема с охлаждането на подземни бункери не се ограничават лесен), с извлечение от вода, кислород и дори храна. В допълнение, вече са готови лодки и технически решения. Корабът е в състояние да withstanding шок и излъчващ принуждават. Въпреки това, със средствата на навигацията по автономните съвременни подводници е в най-добрия случай една година и нямат място за съхранение на запасите.
Сегашната космическа станция ISS може самостоятелно поддържа живота на някои хора през годините, въпреки че изправени пред проблеми, която води самостоятелна и адаптация. Ясно дали опасен агент, които могат да проникнат във всички пукнатини по места, разпръснати над такова кратко време.
Има разлика между газ и био-убежища, които могат да бъдат на повърхността, но разделени на множество секции за поддържане на карантина, и убежища, които са предназначени за подслон от малко Maly добър противник (включително и от други хора, които не са спечелени в убежище). В случай на bioopasnosti остров с трудно да карантинните служи за убежище, ако болестта не се прехвърлят от въздуха.
Щети могат да имат различни уязвимости. Така например, ако биологичната заплаха е най-малко убождане. Напълно автономно може само да бъде на високо-технологични бункер. Бункер необходима енергия и кислород. Енергията може да осигури система за ядрен реактор, но модерните автомобили е малко вероятно да има дълъг живот над 30-50 години. Щети не може да бъде универсална - тя трябва да включва защитата на определени видове, известни преди това заплахи - лъчения, биологични и т.н.
Колкото по-укрепени бункери, толкова по-малко бункерите да подготви човечеството, и че е трудно да се скрие бункер. Ако след няколко катастрофа остава на крайния брой на бункери, местонахождение е известно, средно ядрена война май почивка с човечеството чрез крайните брой удари срещу известни сайтове.
Какъв размер на резервоара, толкова по-малко такива бункери могат да бъдат изградени. Въпреки това, бункер е уязвими към случайното унищожаване или замърсяване. Следователно, броят на крайните бункери с известна вероятност от инфекция ясно определя максимално време за оцеляване на човечеството. Ако цистерните, свързани Търговски и други съществени борси, толкова по-вероятно разпространение на заболяването сред тях. Ако кошчета не са свързани, те ще израждам бързо. Колкото по-мощен и по-скъпи бункери, толкова по-трудно да се създаде незабележимо за вероятна противника, а по-скоро той ще бъде целта на атаката. В бункера-евтино, толкова по-малко, че е трайна.
Има случайни подслон - хора са преживели подземни мини подводници. Те ще страдат от липсата на централна власт и контрол над ресурсите. Хората, които нарушават озоновия ресурси в бункер, може да бъде въоръжен опити за почивка в друга лесно бункер. Също така, хората са преживели по случайност (или под заплаха от предстоящото бедствие) може нападение тези, които са заключени в бункера.
Силози, ще страдат от необходимостта да се споделят топлина, енергия, вода и въздух от външния свят. Колкото по-автономна бункери, толкова по-малко той може да съществува в пълна изолация. Разположена дълбоко в земята бункерите ще страдат от прегряване. Всички ядрени реактори и други сложни машини ще изисква външната охлаждане. Охлаждане вода ще бъдат чуждестранните demaskirovyvat тях, и са източници на енергия, без загуба на топлина - това е невъзможно, толкова много, така че в дълбочина и така е винаги висока температура. Нарастването на температурата, тъй като дълбоко в земята, ограничаване на дълбочината на бункери. (Геотермална осредняване наклон 30 градуса / км. Това означава, че цистерните с дълбочина от повече от 1 км не е възможно - или изискват големи охлаждащи системи на повърхността на златни мини в Южна Африка. Там могат да бъдат по-дълбоки бункери в леда на Антарктика.)
Какво е по-трайна, универсално и ефикасно бункери, по-ранната тя трябва да започнем да градим. Но в този случай, че е трудно да се прогнозират бъдещи рискове. Така например, в 1930 е изградена и много protivogazovyh бомба укрития, които са безполезни и уязвими за нападения с тежки взривни бомба. Ефективността на бункер, който би могъл да създаде цивилизация, в съответствие с технологично ниво на развитие на тази цивилизация. Но това означава, че тя притежава средства за унищожение. По този начин, още повече мощно, че се нуждае от бункера. Колкото по-автономна и сложни бункер (например, оборудван с изкуствен интелект, nanorobotami и биотехнологии), толкова по-лесно може да направи без хора, като започна с компютър цивилизация. Хора от различни бункери, ще се състезават за някой, който ще бъде първият на повърхността, и които, съответно, ще бъдат неговите собствени - така те ще бъдат изкушени да поеме повече замърсени земи.
Има автоматична robototizirovannye кошчета: в замразени човешки ембриони, съхранявани в някои изкуствени матката и чрез стотици или хиляди години започват да отглеждат. (Технологичен замразени ембриони, вече имат и работят върху изкуствена матка е забранено от съображения за bioethics, но по принцип такова устройство е на разположение.) Такива инсталации от ембрионите могат да бъдат изпратени до пътуването до други планети. Все пак, ако тези силози ще бъде възможно, земята е малко вероятно да остане празно - най-вероятно той ще бъде населена с роботи. Освен това, ако младият човек, отглеждани вълци, намира себе си вълк, тогава кой ще вземе човек повдигат от роботи?
Значи, идеята за оцеляване в бункери, съдържащи много клопки, което е стойност, и намаляване на вероятността за успех. Дългосрочни бункерите трябва да бъдат изградени в продължение на много години, но те могат да паднат през това време, защото ситуацията ще се промени и не знам какво е приготвил. То може да бъде, че са налице редица мощни бункери, които са били построени по време на Студената война. И модерна техническа способностите лъжи бункер малко 30 години на автономност, но това трябва да бъдат изградени десет години, и тя ще изисква милиарда долара в инвестиции.
Готов сам информацията, силози, които са, за да постигне възможно най-пострадалите потомците на нашите знания, технологии и постижения. Така например, в Норвегия, на Свалбард създаде резерв на проби от семена от зърнени култури до тези цели. Възможните варианти за запазване на генетичното разнообразие на хората, използвайки замразена сперма. Ще обсъдим резистентни на дългосрочно съхранение на цифрови носители като CD-ROM, който vytravlen текст, който може да се чете през увеличително стъкло. Тези знания биха могли да бъдат от решаващо значение за да не се повтарят нашите грешки.
Ускорен преселване в космоса
Налице е хипотезата, че човечество избяга, когато разделя на части, което би най-бързо уреждане на пространството отделно. Така например, известният физик С. Hocking agitiruet за създаване на резервни Земята да се избегнат рисковете за планетата. Ако предварително resettle няма ефект, извършени на едно място няма да могат да наваксат с цялото човечество. Уви, няма технологични предпоставки за ускорено решаване на човечеството в космоса: Имаме много неясна представа за това как да създадете zvezdolety и вероятно не могат да изградят тях без помощта на изкуствен интелект и robototizirovannogo производство. Затова, човечеството ще бъде в състояние да започнете да се пренесат космоса само веднъж преодолее всички рискове, свързани с изкуствен интелект и нанотехнологиите, и следователно пространство населени места не могат да бъдат защитени от тези рискове. Освен това, пространството селище в близост до мястото, в рамките на Слънчевата система ще бъде силно зависима от земната доставка и уязвими за атака конвенционални ракети. Дори ако човечеството ще бягат от Земята при скорост okolosvetovoy sverhbystryh zvezdoletah, тя все още не защитава него. Първо, защото информацията е все още разпространява бързо, със скоростта на светлината, и ако е враждебна AI, не може инфилтрат компютърни мрежи, дори и размахване zvezdolet. На второ място, без значение колко бързо zvezdolet, тя може да наваксат с по-светъл, по-бързо и съвършено (тъй като тя ще бъде създадена по-късно) безпилотни автомобила. Накрая, всеки zvezdolet вземат със себе си целия свят sverhtehnologAI всички човешки недостатъци и свързаните с тях проблеми.
«Всички като разход»
Тази позиция относно предотвратяване на глобалните рискове се основава на вяра в гъвкавост на вродени и ирационални концепции решаването на проблеми, тъй като те станат достъпни. Тя съдържа няколко изрични и мълчаливи допускания и логически грешки, в духа на «може би, proneset". В действителност, това състояние и държи на правителствата на различни страни, за да решим проблемите, само след като те станат явни. Ако артикулират това положение в духа на американските военно учение, то ще гласи: анализиране и предотвратяване на всички рискове, тъй като те станат достъпни, ще се създаде система за контрол на всеки конкретен риск, осигуряване на качествено и количествено надмощие над всеки източник на опасност на всеки етап от съществуването му.
Но сега в съвременната технологична ситуация, ние не можем да обмислят рисковете «тъй като те станат достъпни", защото не знаете къде да търсите, а защото рискове могат да бъдат актуализирани по-бързо, отколкото мислите за техния успех и се подготвят за тях. Ето защо се опитвам да разшири хоризонта на прогнозата, че хипотетично е възможно и технологии, които все още не са установени, но би могла лесно да бъде установена въз основа на съвременните тенденции.
Друг вариант - бъдещето картина, наречена «устойчиво развитие» (устойчиво развитие). Но това не е прогноза, както и проект. Тя се основава на предположението, че технологията е razovyutsya да ни помагат да се преодолее енергийния и други кризи, но тази технология не създава нови и рисковано невероятна възможност. Вероятността за такъв изход е малка.
Разграждането на цивилизацията в равновесно състояние
Някои се надяваха, че заплахата от глобални катастрофи rassosutsya себе си, тъй като човечеството, поради липса на ресурси или предишни бедствия, в различна степен, деградирали. Тази деградация е трудно, защото все още не е razvorovany всички останали запаси от цивилизацията, а не на отработеното всички оръжия, няма полза да се занимава с примитивно земеделие - е много по-лесни за окрадвам съседи. Конкуренция сред оцелелите общества неизбежно ще доведе до нов ръст на оръжия и технологии, както ако го ideologically или подтискан и неколкостотин години от цивилизацията ще се върнете към сегашното ниво, и по този начин повишаване на всичките им проблеми. Или, обратното, се влошава към още по-примитивни форми и vymret.
Предотвратяване на катастрофа с различен
Теоретически, следните примери за възможни взаимното неутрализиране на опасни технологии и бедствия:
1.Yadernaya война halts развитието на технологиите като цяло.
2.Totalny AI за предотвратяване на биотероризъм.
3.Bioterrorizm прави невъзможно да се развие AI
4.Yadernaya зимата за предотвратяване на глобалното затопляне.
Въпросът е, че голяма катастрофа прави невъзможно да се глобални, изхвърлянето на човечеството в продължение на няколко еволюционни стъпки назад. Това е възможно, ако ние влиза в един продължителен период на висок риск от големи бедствия, но едва ли ще се глобални бедствия. В известен смисъл, във втората половина на двадесети век, ние сме в този период. Все пак, това не е успешно предотвратени от нас да близък до времето преди създаването на много от глобалното унищожаване на универсална ляво, вероятно за десетилетия.
Това би било в известен смисъл, "доволни» теорема, които доказват, че глобална катастрофа не е възможно, защото тя няма да се движат много голямо бедствие. Въпреки това, тази теорема би било възможно чисто характер, както и някои опасни sverhtehnologAI може да се появи във всеки един момент, особено AI.
       Освен това нито една голяма авария (но малки в стаята обратно катастрофа) повишава информираността на хората за рисковете. Въпреки че има известен стереотип: очакването на повторение на същия риск.
Разширено еволюция на човека
Друга идея, която дава надежда за оцеляване принцип е идеята, че процесите kiborgizatsAI права ще отиде по-бързо от процеса на създаване на опасни оръжия. Така например, ако се замени по-голямата част от човешкото тяло, техните механични еквиваленти, тогава хората ще бъде имунизиран срещу действията на биологични оръжия. Зареждане на съзнанието в компютър би направило всяко лице, което не зависи от съдбата на тялото си, може би защото резервната информация, и тези компютри могат да бъдат размерите на прах и може да скрие астероид в пояса. В този случай, само за общо физическа унищожаване на Слънчевата система и нейните околности ще доведе до разрушаването на такива «sverhlyudey". Въпреки това, степента, до която такива устройства са точно хората, а не вид изкуствен интелект, трудно е да се каже. В допълнение, скрипт, въпреки че теоретично е възможно, но не толкова вероятно, за да може да разчита на него. Накрая, той може просто да има време на време, както и създаване на оръжия е много по-лесно, отколкото kiborgizatsiya права.
Друг момент е, че kiborgizatsiya отваря нови рискове, свързани с поражението на изкуствени части на човешкото тяло чрез компютърни вируси. Първото събитие от този вид е била извършена наскоро (в демонстрация на експерти по сигурност) нападение срещу стимулатор с управление на радио, през които той беше да reprogramme друга работа, която може потенциално да доведе до смъртта на пациент, ако експериментът се извършва на живот човешко същество . Бъдещето kiborgizirovanny хора ще съдържа хиляди дистанционно контролирани медицински изделия.
Възможните Ролята на международните организации в предотвратяването на глобална катастрофа
Ние не знаем ясно кой трябва да участва в предотвратяването на глобална катастрофа. Лошо, може би, има много организации и отделни лица, желаещи да постави този - които се противопоставиха да се превърне в спасител на света? (Все пак, няколко години светът не беше един човек, който да работи точно по темата за предотвратяване на глобална катастрофа като интердисциплинарен проблем и ще получават заплата за това.) Регистрационните различни «функционални жанрове» организации, които биха могли да бъдат отговорни за предотвратяване на риска от глобално бедствие.
1) "Обединените нации". Ръководителите на правителствата по света заедно, за да решат как да се справят с рисковете. Значи сега борещ се със затопляне. Но всичко може да не се съглася. Като резултат, най-слаб и компромис. Членки не са готови да прехвърлят своята власт на ООН.
2) "свят правителство". Проблемът е много възможност за нейното формиране. Процесът на създаване на един свят изпълнен с правителството е война, която сама създава глобален риск. В допълнение, правителството не могат да бъдат неутрални. От гледна точка на някои групи глас ще интересите на други групи. Той ще, или слаб, или тоталитарни. Тоталитарната правителството ще създаде устойчивост, борбата със съпротивата е изпълнен със застрашителен нападения и създава нови глобални рискове.
3) специалните служби, които тайно се противопоставят на глобалните рискове. Тъй като борбата с тероризма. Проблеми: тайна, води до загуба на информация. Специална конкуренция. Възможно е объркването на националните и общочовешките интереси - както на специалната им държавния служи, а не хора като цяло. Специалните служби, поради неговите особености не са заточени в големите измерения интегрираната дългосрочна визия проблеми и не може да се оцени, без участието на външни експерти, рисковете, които все още не са налични технологии.
4) Тайната група на частни лица. То може да бъде тайна, че някои частни организация би целта администратора на цялото човечество тона. Въпреки това, междинна стъпка - създаването на евентуално тайна, един свят правителство. Проблеми: Конкуренция спасителни служби (като нелегални организации могат да бъдат много, но методите и боядисване на света във всичките си сорта), необходимостта да се премине към етап «свят правителство". Отхвърляне на конспирацията в обществото и опозицията им от специалните служби. В резултат на смесване на лични и общи цели. Дори си мислех, че Бин Ладен е бил негов «световен халифат» ще спаси човечеството от mehanistichnogo егоист и Запада. Частни групи, за да създаде силен AI Можете също така да се разбере, че попадам в свои ръце абсолютно оръжие, и имат планове за приложението му за изземване на властта над света. Във всеки случай, тайно общество, твърде често се предполага, планирани етапа «бунт» - изрично или косвено определяне на силата и влиянието на целия свят, чрез проникване или директно снимане. И, разбира се, тук той се сблъсква с конкуренция от други общества, както и опозиционни социални и специалните служби. 5) Открита дискусия и самостоятелно в обществото. Някои автори, например, Д. Breen, считат, че алтернатива на тайните организации и държавни проекти, които да се предотврати глобалните рискове ще бъде самостоятелно, отговорни граждани, които биха довели до създаването на това, което на английски се нарича Взаимно отчетност - взаимната отчетност, когато контрола на Услугите, които могат да контролират тези, които контролират. Проблемът на този подход са очевидни: мощността на една компания не е голям, и няма единно глобално общество могат да се споразумеят - И ако тези мерки се предприемат само в една страна те не биха били ефективни. И за да е орган, към които тези дискусии влияние. В допълнение, тъй като дори и една малка група от хора в състояние тайно да представляват заплаха за прехраната, просто да следите съседите не е достатъчно. В момента се формира мрежа от открити обществени организации проучването на проблема с глобалното риска и финансиране на научните изследвания превенция - тя спасителна лодка фондация, Центъра за отговорно Нанотехнологии (CRN), Алиансът да спаси цивилизация, Singulyariti институт (SIAI). Повечето от тези организации са базирани в САЩ, с бюджет от по-малко от един милион долара всяка, че много малко, и те са финансирани от частни дарения. Съответно, резултатите от работата им за тази цел - само за публикуване на статии и обсъждане на възможности. В допълнение, Singulyariti институция, пряко ангажирани в разработването на приятелски AI. Тези организации обменят информация, ресурси и персонал. От друга страна, практически ефект на различни благотворителни фондации за едно общество, много малко. Много повече пари и внимание дадени средства, които са по-малко проблеми, отколкото за спасението на човечеството. В Русия, благотворителни фондации компрометирани или съмнителни имат връзки с мафията или с чужди специални служби. Най-добрият пример за влиянието на обществото при владетелите е четене книги владетели, въпреки че това не винаги да помогне. Президентът Кенеди за да се избегне война в Карибския басейн криза, тъй като тя в голяма степен взе голям интерес в този момент на книгата, Барбара Takman «август 1914» началото на Първата световна война, която показва как е започнала войната срещу желанията и интересите на страните. К. Sagana изследвания и Николай Moiseyev на ядрената зима избута, може би на Съветския съюз и Съединените щати за разоръжаване. Бъдещето председателския съвет, във всеки случай са в определена културна среда и са съставени от началото на идеи. Промени в средното ниво на разбиране, за създаване на информационна фон може да доведе до непряко владетели абсорбира някои идеи. Ведь не из воздуха возникла сейчас программа по нанотехнологиям в России! Някой някъде, за да се чете и мисли.
6) Да не се намесват със системата samonastroitsya. Може би, че борбата между различните «Спасител на света» ще бъде по-лошо от пълното бездействие. Въпреки това, една такава стратегия невъзможно да се приложат, защото тя изисква единодушното съгласие - които никога не се случва. Винаги ще има няколко saviors на мира, и те ще трябва да открият кой сред тях шефе.
Въпросът не е дори, че има организация, който може и иска да предотврати глобалните рискове, но към света изцяло делегирана я орган, който изглежда много по-малко вероятно. Положителен и много добър пример е, че човечеството е показал способността да се обединят в лицето на ясен и разбираем опасност във всички видове анти-фашистка и анти-терористичната коалиция и ефективно да работят до желаното тегло, обща и разбираема.
Безкрай на вселената и на въпроса за окончателност на човешкото изтребление
Това е материалистичното предположение за Вселената за неопределено време. Ако е така, можете да очаквате, че тя повдига или вече съществуват всички възможни светове. Включително, че безкрайно много светове, обитавани от един разумен живот, а това означава, че разузнаването във вселената няма да изчезне заедно с човека. Нещо повече, тя следва, че дори изчезване на човека, винаги, и някъде има мир, малко се различава от Земята, и там има вещество със същия генетичен код, както е при хората. От това следва, че хората никога не са били в състояние да изчезнат от Вселената, нито могат, например, да изчезнат от него, например, броят на 137 (тъй като, грубо казано, цялото genokod права могат да бъдат представени във вид на един много дълъг номер). Сред физическите теории, включващи множество светове, трябва да бъде концепцията Multversa Евърет (същността на които е да се предприемат интерпретация на квантовата механика, което предполага разделението на света, с всеки избор, а оттам и безкрайните разклонения опции за бъдещето), както и няколко други теории (например, cosmological хаотична инфлация). Научете повече за философската теория на cosmological инфлацията приложения видите Oluma, Vilenkina и Knoba «философски последици от инфлационен космология".
По-тежки последствия от тези теории е предположение, че се продават всички възможни варианти за бъдещето. В този случай, крайната глобалната катастрофа става невъзможно събитие, защото винаги ще има един свят, в който не се е случило. За първи път Евърет каза, че стигнаха до извода, че Multivers (т.е. сегашната действителност на всички възможни алтернативи квантовата) е лична безсмъртието за човека, защото за това какво причинява или убити, винаги ще има алтернатива вселена, в която той не е починал в тази момент. Прочут физик М. Tegmark се убедите в това идеята за психическо експеримент на квантовата самоубийство. Тогава идеята, разработена от Й. Higgo статия «Има ли безсмъртие mnogomirnaya интерпретация на квантовата механика". В моя коментар да превежда статии Higgo пиша, че истината на теорията на Multverse не е предпоставка за валидността на теорията на безсмъртието, свързани с плурализма на светове. Защото истината mnogomirnogo безсмъртие достатъчно, за да безкрайност вселената. Така че тази теория на безсмъртието mnogomirnom работи за nekvantovyh крайни автомати, защото в края на всяко вещество в безкрайната вселена съществува точно едно и също вещество, което ще бъде абсолютно същия живот, освен че няма да умре в последния момент. Но това не означава красиво и приятно безсмъртие, като алтернатива на смърт може да бъде сериозно наранен.
Точно същата логика може да се прилага за цялата цивилизация. Винаги ще има алтернативно бъдеще, в което човешката цивилизация не е изчезнал, и ако всички възможности за бъдещето съществуват, това означава безсмъртието на нашата цивилизация. Това обаче не означава, че имаме гарантирани просперитет. С други думи, ако е доказано, neunichtozhimost наблюдател, то следва, че трябва да има някаква подкрепа на своята цивилизация, но това е бункер с всички необходими и не е просперираща човечеството.
Предположението, че ние живеем в «Матрицата".
       Основи на научен анализ на проблема, да Ник Bostrom в неговата статия «говорим за симулация". Много религиозни концепции може да се направи naukoobraznymi, за налагане на предположението, че ние живеем в един симулиран свят може да има създадена вътрешна sverhkompyutera от някои sverhtsivilizatsAI. Опровергае факта, че ние живеем в Матрицата, това е невъзможно, но тя може да се окаже, ако в нашия свят имаше някои невероятни чудеса, които са несъвместими с всички физически закони (например в небето, няма да има надпис от supernovae).
Но има концепция, която може да стане глобална катастрофа, ако е домакин на тази симулация изведнъж го vyklyuchat (Bostrom). Можете да покаже, че в този случай, пускащи аргументи, които са описани в статията от Й. Higgo на mnogomirnom безсмъртие. А именно, че ние живеем в Матрицата, е възможно само ако броят на възможните симулации са много високи. Това прави възможно наличието на големи количества от един и същи симулации. Унищожаването на едно от копията няма да се отрази на хода на симулацията, както и изгарянето на копия от романа «Война и мир» не оказва влияние върху отношението на знака. (Това не е аргумент за душа, непрекъснатостта на съзнанието и други фактори nekopiruemyh не работи, защото обикновено се приема, че «идентичност» В симулация по всички възможни.)
Следователно, всяка заплаха от изчезване не е симулация. Въпреки това, ако все още живеят в симулация, собствениците на симулация май podkinut ни някакъв екологичен проблем, е малко вероятно, поне да ни поведение по време на криза. Например, виж как се държи цивилизация в случай на изригване sverhvulkanov. (И всички sverhtsivilizatsiya ще се интересуват от proschityvanAI различни версии на предишните му развитие, например, да се прецени честотата на случаите на цивилизации във вселената.) Възможно е да се смята, че екстремни събития ще бъде домакин все повече модели, особено при разработването може да спре напълно, а после там са глобални рискове. (А ние просто живеем в съседство с такова събитие, което в bayesovoy логика, го прави по-вероятно хипотези, че ние живеем в симулация.) С други думи, симулации са много по-вероятно ще се срещнат на ситуацията на глобалните риск. (По същия начин, по-често показват филмите експлозии, както ние ги виждам в реалността.) Така, това увеличава шанса да се изправи на ситуация, подобна на глобална катастрофа. При това, тъй като цялата глобална катастрофа в света на симулации е невъзможно, защото там винаги ще бъде симулация, където «главните герои да не умре", че е най-вероятният сценарий е оцеляването на шепа хора, след много голямо бедствие. На въпрос на спекулация на симулацията Bostrom, ние все още се върна повече.
Понякога се надява, че ако човечеството близо до прага на самостоятелно разрушаване на «добри чужденци", което е дълго зад нас, ако последва, ще ни спаси. Но това е не повече надежда, отколкото yagenenka, която изяде Лъвове, в очакването, че ще спаси хората, отдаване под наем на този документален филм.
В глобалната катастрофа и уред общество
Ако глобална катастрофа се случи, то ще унищожи всяко общество. Поради това, устройството на обществото е важно само във фазата на предотвратяването на рисковете. Можете да опитате да си представя, въпреки че този образ и ще бъде твърде утопично, една фирма, която по-добре в състояние да предотврати глобалната катастрофа:
1. Това е едно общество, което е една и само една контрола център с висока мощност и престиж. Все пак, трябва да има някаква обратна връзка, да не позволяват той да се превърне в самостоятелно поддържане и самоосигуряващи се обслужват диктатура. Това общество трябва да притежават такива самостоятелно регулиране, че тя не можеше да възникнат в случай на незабавно да се намерят всякакви опасни (по отношение на риска от глобално бедствие) поведение или явление. (Един пример за такова общество, биха могли да бъдат обединени команден кораб.)
2. Това е общество, което се опитва да оцелее в дългосрочен историческа перспектива (десетки и стотици години).
3. Огромното мнозинство от хора трябва да се реализира и приемам цел и устройството на това общество, това е «високи морални Стандарт". (Като се има предвид, че дори една малка група от терористите могат да нанасят непоправими щети в бъдеще, нивото на подкрепа трябва да бъде близка до 100%, което, разбира се, не е постижимо.)
4. Тази компания, начело с хора (или системи AI), е интелектуално подготвен правилно да се вземе под внимание рисковете, които могат да възникнат през следващите години и десетилетия. Съответно, в това общество, хората получават цялостна образование, като основна и широко разпространени, но не повърхностно виждане за света.
5. Това е общество, в което намалява до нула на броя на конфликтите, участниците могат да решат да използват оръжия sudnogo ден.
6. Това е едно общество, могат да упражняват пълен контрол на усилената работа на всички групи, които могат да представляват глобални рискове. Все пак, това не трябва да се контролирам, по някакъв начин, да станат инструмент за създаване на риск.
7. Това общество трябва да са готови да реагират бързо и ефективно да предприемат адекватни мерки за предотвратяване на опасността от всякакви глобален риск.
8. Това общество трябва да инвестира значителни средства в създаването на всички видове бункерите, пространство населени места и т.н. В действителност, това общество трябва да обмисли тяхното оцеляване като първостепенна задача.
9. Това общество трябва да бъдат реализирани за създаване на нови технологии в своите избрал правилния ред в специални места. Тя ще бъде готова да се откаже от още един много интересна технология, ако не можем да открием следи или дори мярка техните рискове.
10. Това общество трябва да има световна война, в противен случай рискът в процеса на възникването превъзхождат ползите от такова общество. При това, аз не се дискутира такъв модел общество, в смисъл на "демократичната", "маркетинг", "комунистически", "тоталитарна" и други - Мисля, че тези условия се отнасят към обществото двадесетия век, но не и XXI век. Но това е ясно, че съвременното общество е много далеч от всички тези параметри са в състояние оцеляването на обществото:
1. На земята не съществува общоприетите авторитетен център на власт, но има много желаещи да се борят за него. Обратна връзка във формата на избори и свобода на словото е твърде ефимерен действително да повлияят на решения, още повече това е така, в глобален мащаб. Едно глобално институции като ООН криза.
2. Повечето хора действат в собствените им интереси или интересите на техните екипи, дори ако тя е в думите на общия интерес. Хора много, и там е процентът на тези, които не се противопоставят, или дори се стреми към общата унищожение. Също така в рамките на обществото разпространяват конкурентни идеи-memy че взаимно изключващи се: всички видове национализъм, ислямизъм, анти, цинизъм. (По силата на цинизма, искам да кажа доста разпространено размер на вярата: всичко - лошо пари владее света, прави всичко само за себе си, не съществуват чудеса, бъдещето няма значение, "Хора havaet» и т.н.)
3. Съвременното общество в по-голяма степен, е настроен да се ползват в краткосрочен план, отколкото дългосрочното оцеляване.
4. Въз основа на предприетите действия на много лидери на модерната-членки, е трудно да повярвам, че е точно тези хора, които са фокусирани върху дългосрочното оцеляване на света. И това до голяма степен произтича от факта, че не съществува ясна и общата картина на рисковете. По-точно - е, че там не е пълна и overshadows по-важните рискове (а именно, че картината, когато asteroids плюс затопляне сърцето на основните рискове - но дори и след признаването на тези рискове, срещу тях не е достатъчно). Въпреки наличието на значителен брой хора, които могат и искат да се даде ясна представа за рисковете, нивото на шума на информация е такава, че те не можеха да чуят.
5. В днешното общество много опасен конфликт във връзка с големия брой държави, политически партии и религиозни и екстремистки групи. Трудно да се преброят дори всички тях.
6. Дори много добър контрол в някои страни bessmyslen до там е територия, не могат да се контрол. Докато има суверенни нации, пълен контрол Общо невъзможно. Но когато контрол, той веднага започва да се използва не само за справяне с глобалните рискове, но също така и за лични цели от тези групи, които извършват контрол, са - или поне се създава впечатлението, (войната в Ирак).
7. Докато обществото е разделено на отделни въоръжени състояние, бързото приемане на мерки, за да локализират заплахата не може да бъде (координация), или потенциално ядрена война.
8. В края на ерата «студено» войната изграждане на бункери за zaglohlo.
9. Съвременното общество не е наясно за оцеляване за своя основна цел, както и тези, които говори за него са маргинализирани.
10. Съвременната технология се развива спонтанно. Няма ясна представа за това кой, къде, как и защо се развива технологията - дори сравнително лесно obnaruzhimyh ядрената промишленост.
11. Въпреки, че Договорът за асоцииране е активна в Европа, останалата част от света все още не е готова, ако изобщо е възможно, мирно заедно. Доверието на много международни организации, от друга страна, намалява. (Все пак, ако нещо се случи, когато големи, но не и окончателната катастрофа, е възможно временно да се обединят в духа на "анти-терористичната коалиция".)
Също така е важно да се подчертае, че класическите тоталитарни общество не е панацея за глобални катастрофи. В действителност, на тоталитарния общество може бързо мобилизира ресурси и да се направят значителни загуби за постигане на целта. Но основният проблем на това общество - това е информационно непрозрачност, което води до намаляване на степента на готовност и ясно разбиране на събитията. Примери: Сталин на грешка в оценката на вероятността от възникването на огнище на война с Германия. Или слепота стара китайски общество срещу военната перспективите на барут и информационни технологии - на компаса и хартия, че има измислена.
В глобалната катастрофа и сегашната ситуация в света
От една страна, то може да изглежда, че ротацията на политическия живот в съвременния свят постепенно се фокусира около предотвратяването на глобална катастрофа дистанционно, възможните източници, които се считат за основно три: разполагането на противоракетната отбрана, глобалното затопляне и Иран за ядрената програма (и в по-малка степен от някои други, например, protivoasteroidnaya защита, енергийната сигурност и т.н.) Вярвам, че читателя е внимателно да прочетете текста на книгата, разбира, че въпреки че тези два въпроса са значителни и, в крайна сметка, може да увеличи шансовете на човешкото изтребление, всъщност, нашият свят е далеч от осведоменост за размера и дори видовете заплаха. Въпреки всички приказки, глобален катаклизъм не се възприема като нещо истинско, за разлика от 60-години, когато рискът от катастрофа директно означаваше необходимостта от подслон. Текущото състояние на удовлетвореност може да се likened само за приятен релакс, който се каже, че надделя в Пърл Харбър преди японски непокътнати. Освен това, тъй като глобално съзнание за рисковете, които попадат asteroids, изчерпването на ресурсите и риск на всички по-ядрена война, но тези теми, по някаква причина не са активни политически дебат.
Можете да обсъди два въпроса: Защо в списъка на бедствия (Иран, противоракетната отбрана и затопляне), и като общество е съставено в списъка на риска, който е разпознат. Но отговорът на двата въпроса едно: основния съдържанието на дискусиите относно заплахите за модерната цивилизация е точно, тъй като на дискусиите в духа на "и ще бъде момче?» Има ли или няма бомба Иран, както и дали то е опасно? Има хора да виня глобалното затопляне, както и дали то мач? В действителност, процесът на съставяне на списъка, и там е процес на политическа борба, който включва фактори като конкуренцията е най-убедителен и най-благоприятни предположения.
В света след глобалната катастрофа
Каквото беше амбициозно глобално катаклизмите, то е ясно, че цялата вселена, тя не умра (освен ако разпадането на Метастабилни вакуум, но дори и в този случай остават паралелни вдъхновена). Какво е разумен живот възникват там на друга планета, и повече такива места, толкова по-вероятно е, че животът ще бъде подобен на нашия. В този смисъл, крайната глобален катаклизъм не е възможно. Ако, обаче, дойде глобален катаклизъм, който е на Земята, тя е може би няколко възможности.
В съответствие с разпоредбите на синергия, критична точка означава, че има няколко, окончателно редица сценарии, сред които има необратими избор на посока. Тъй като повечето от тях, е било възможно сценария на глобални катастрофа, крайният брой на държавите, е много по-малко. В нашия случай следните опции:
1. Пълното унищожение на Земята и живот. Допълнителна еволюцията е възможно, въпреки че може би някои бактерии оцеля.
2. Хората умря, но биосферата като цяло оцелява, и развитието на други видове, продължава. Друг вариант - някои мутирали хора или маймуни, постепенно създаване на нов вид разумни.
3. «Грей тиня". Оцелели някои примитивни «nekrosfera» (терминът В. Lema на романа «непобедим") от nanorobotov. То може да бъде тяхната собствена еволюция. Опция - оцеляла самостоятелно фабрики за производство на големи роботи, но те не разполагат с тази AI.
4. «Postapokaliptichesy свят". Технологичната цивилизация е свит, а броят на хората, оцелели. Те са ангажирани в събирането и селското стопанство, човешки фактори заплаха за съществуването изчезна. (Но глобалното затопляне може да продължи по-рано да текат процеси и стане необратим.) Тъй като на този сценарий е възможно преминаването към други сценарии - нов технологична цивилизация или до окончателното изчезване.
5. Изключително силен изкуствен интелект е установила власт над света. Хората умряха или избута, за да отстрани на историята. В същото време - Внимание! - От гледна точка на хората, това може да изглежда като един свят на универсалната изобилие: всяка получат неограничен живот и виртуалния свят в пазариш. Въпреки това, разходите за забавление за хората, да бъдат минимални, както и ролята на хората в управлението на системата. Този процес - avtonomizatsAI състоянието на правата и намаляване на ролята на хората в нея - са вече в ход. Дори ако sverhintellekt възникнат в резултат на подобряването на физическите лица или на техни сливането, той вече няма да бъде мъж - поне от гледна точка на обикновените хора. Неговият нов сложността превъзхождат човешките си корени.
6. Положителния изход - за подробности виж следващата глава. Хората са създали суперсила AI, който управлява света, носи максимален капацитет от човешки същества и човешки ценности. Този сценарий е коварен, но съществени разлики със скрипт, който оставя хората само сферата на виртуалното развлечение и удоволствие. Разликата това - както между съня на любовта и истинската любов.
Почти всички от тези опции е attractor или streambed устойчиво развитие, т.е., след като минаваща критичната точка, той започва да привлича различни сценарии.
Свят без глобална катастрофа: най-реалистичен вариант предотврати глобалната катастрофа
Функция изисква «heppi Enda". Ако глобална катастрофа ще бъде абсолютно неизбежно, то не трябва да се напише и тази книга, защото единственото, което остави на хората в лицето на предстоящо бедствие - е да осигури «празника преди заразата". Но дори ако шансовете за бедствие са много високи, ние може значително да забави появата на нея, като намалява вероятността pogodovuyu си.
Аз (както и няколко други учени) Виж тези шансове в тази бързото развитие на изкуствения интелект, който е overtaking развитието на други рискове, но това развитие трябва да се outstripping растежа в нашето разбиране за възможностите и рисковете, много AI, и нашето разбиране за това как да определя правилно и безопасно задачата си, това е начинът да се създаде «приятелски» AI. И тогава на основата на приятелски All Inclusive "е да се създаде единна система на международни договори между всички страни, в които ПИ ще служи като автоматизирана система на управление. Планът предполага плавен и мирен преход към една наистина великолепна и сигурно бъдеще.
И въпреки че не мисля, че този план за лесно и безпроблемно изпълнява, или че това е наистина възможно, аз вярвам, че е по-добре, за които ние можем да търсят и какво можем да постигне. Същността на това, можете да поставите следващата говорим точки, първите две от които са необходими, и последното - много желателно:
1) Доброто познаване и способност за предотвратяване на рискове ще нарасне значително по-бързо от възможните рискове.
2) Необходимо е тези знания и управление няма да създаде нови рискове.
3) Той възниква мирно и painlessly за всички хора.

Глава 24. Непряко начини за оценка на вероятността от глобална катастрофа
Косвени методи се използват не на самия обект на обучение и различни косвени източници, като връзки, общи тенденции и тавана. Този въпрос се разглежда Bostrom статия «заплаха за съществуването". Има няколко начина този независима оценка.
Закон на Парето
Закон на Парето разглеждат GG Malinetskim прилага за различни бедствия в книгата «риск. Устойчиво развитие. Synergetics ". Същността му е, че честотата (по-точно, се класира в списъка) на бедствието, свързани с нейната скала е много проста практика:
       
Къде и - настройка, като стойността A = - 0,7 за случая на жертви на природни бедствия. Закон на Парето е емпиричен въпрос, и изглежда като права върху графиката logarithmic ъгъл, но пропорционално. Типичен пример на Закон на Парето е като казва: "С нарастващия размер на 1 точка земетресение възниква, 10 пъти по-малко". (Но една точка е равна магнитуд увеличаване на енергийната 32 пъти, и го нарече закон повторяемост Гутенберг-Рихтер. За високите енергийни параметър смени, и 1 точка на растежа в региона на 7/9 дава точки за намаляване на честотата от 20 пъти, което е, ако магнитуд 7 земетресение -7,9 Посочва се наблюдава 18 пъти в годината, на 8 точки - веднъж в годината, A 9-топка - на всеки 20 години.) Особеност на този закон е неговата гъвкавост за различни класове от явления, макар и настройката може да се различава. Все пак, ако броят на жертвите на природните бедствия в стойността на индикатора на степента не е -1, и - 0,7, значително utyazhelyaet опашката дистрибуция Ние сме в разпределението Чудех се колко често биха могли да бъдат във времето случай на бедствие, в който се очаква броят на жертвите надхвърли сегашните населението на Земята, това е, че ще е около 10 милиарда. Ако ние приемаме закона на Парето, с = - 1, че е десет пъти по-мощно събитие десет пъти по-малко, жертви на бедствието с 10 милиарда (което е гарантирано до припокриване на населението на Земята) ще бъде около 500 000 години. Този номер е от порядъка на път съществуването на вида Хомо сапиенс. С друга страна, ако се вземе = - 0,7 (което означава, че десет пъти по-мощни събитие настъпили само в 5 пъти по-малко, както и предположението, че природно бедствие, с броя на жертвите, повече от 100 000 души се появят на всеки 10 години ), Мащабът на бедствието за цялото човечество ще бъде само около 30 000 години. Този ред с магнитуд близо до момента, в който е изтекъл, тъй като вулканични изригвания тоба - 74000 година - когато човечеството е на прага на изчезване. Виждаме, че тежестта на опашката разпределение е силно зависима от големината и стойност. Но природните бедствия не представляват съществен риск в XXI век, с всякакви разумни стойности и.
Все пак много по най-лошия резултат ще получите, ако законът се прилага за войни и терористични актове. При това, Законът на Парето не взема под внимание показателен характер на развитието. В реални случаи за всеки клас от събития, ние разполагаме с горната граница на закона, приложим закона на Парето, например, приема, че няма земетресения с магнитуд по-голям от 9.5. Въпреки това, много много различни класове на събитията не е ограничен.
Повече мощност закона разпространението на бедствия и заплахата от изчезване на човечеството се вижда заглавието Робин Хансен «катастрофа, социални и човешки колапс изчезване". Той отбеляза, че важен фактор е и оцеляване на отделни вариант. Ако тези различия са големи, а след това да унищожи всички хора, до последно, много нужда от няколко поръчки с магнитуд по-тежка катастрофа, отколкото този, който разрушава само 99% от хората.
Хипотезата «Черната Царица»
Въз основа на данните paleontological Ван Valennom Открита е, че раждането на животни от изчезване е предмет на закона намалява експоненциално. «Тази форма на линиите за оцеляване в действителност означава, че средната вероятността от изчезване на някаква си остава постоянна през живота си". Тъй като през целия живот на отделните видове в рамките на вида Хомо е около един милион години, можем да очакваме същото живота и за хората в степента, в която ние сме нормални биологични видове. Следователно, хипотезата на Черно кралицата, не означава, значителен риск в XXI век.
От друга страна, в момента ние живеем в 6 големи измиране на живите организми, този път предизвикани от човешки фактори, които се характеризират със скорост на изчезване на 1000 над нормата. Ако сте съгласни, че хората - също един от видовете, тя намалява очакваното време на своето съществуване и след милион години хиляди.
Ферми Paradox
Друг косвен начин за оценка на вероятността на базата на Ферми парадокс. Парадокс на Ферми е следният въпрос: "Ако живота и ума са общи по характер, защо ние не виждате тяхното изразяване в космоса"? Теоретически, живота и ума може да създаде някъде за няколко милиарда години по-рано, отколкото на Земята. През това време, те биха могли да се разпространят стотици милиони години на светлината, най-малко през samoreplitsiruyuschihsya пространство probes (наречени probes фон Нойман). Този обем включва хиляди и може би милиони галактики. Пусни вълна samoreplitsiruyuschihsya междузвезден probes човечеството може да бъде през следващите 100 години. Това може да се mikroroboty за уреждане на планетата, като ракетите и ги изпраща на вселената на много по-ниски скорости на светлината - такива устройства, дори не са задължени да имат пълноправен универсална изкуствен интелект; това прави около aktinAI в океана, само малък мащаб. Този процес може да започне по случайност, просто в развитието на планетите лесно използване samoreplitsiruyuschihsya роботи. Такива mikroroboty ще се използват предимно на инвестиционния посредник въпрос на планетите им развъждане основания. Те ще действат законите на еволюцията и природни селекция, подобни на тези, които съществуват в животински свят.
Но ние не сме виждали такова mikrorobotov в слънчевата система, дори и само защото тя оцеля. Нещо повече, оцелява не само Земята, но и други твърди вещества - сателити на далечни планети на Слънчевата система. Ние също така не се спазват всички inoplanetnyh радио и няма и помен от astroinzhenernoy дейности.
Възможно е изтеглянето на четири (макар че офертата, и повече - виж книгата Стивън Webb «50 решения, Парадоксът Ферми", който се счита 50 различни опции, които обикновено са ограничени до няколко по-общи категории)):
1. Добър живот във вселената случва много рядко, по-малко, отколкото в сферата радиус от 100 милиона светлинно-години, за 5 милиарда години.
2. Ние вече са заобиколени от невидими за нас разумен живот, които по някакъв начин ни позволи да се развиват или симулирани условия на живота ни. (Това включва и възможността, че ние живеем в един напълно друг начин света.)
3. Wise живот умира, преди времето да се пуска по-малко елементарен «шок вълна на разума» на робота-репликатор, който е убит в неговия аналог XXI век.
4. Wise живее неподвижно отказват да разпространяват извън дома планетата. Това може да бъде доста разумно от негова страна, както и отдалечени населени места пространство не може да бъде контролирано, което означава, те могат да дойдат от заплахата от майчина оцеляването на цивилизацията. (Може би причината е в рамките на виртуалния свят, или той намира в паралелен свят. Въпреки това, опитът на живота на Земята показва, че достъпът до земята, не се спре разрастването на морето - живот прилага във всички посоки.)
Тъй като тези четири хипотези за bayesovoy логично да има равно право да получите допълнителна информация, ние можем да присвоите всеки един от тях субективно надеждността на 1 / 4. С други думи, Ферми парадокс с надеждността на 25% означава, че ние vymrem в XXI век. И докато субективна вероятност - че не е обективна вероятност, че ще имат, имаха пълна информация, нашата самота на космоса - това е обезпокоителен факт. (От друга страна, ако ние не сме сами, той също ще смущаващи, че в светлината на рисковете, които биха могли да доведат до евентуално противоречие с извънземни цивилизации. Но тя ни показва, че поне някои от цивилизацията да оцелее.)
Теорема на края на света - "страшният съд аргумент". Формула Трябва да
Друг косвен начин да се оцени вероятността от смърт на човечеството е специфичен и доста спорна приложение Теория на вероятностите, наречен съд аргумент (DA), или теорема за края на света. Аз съзнателно пропуснат огромна сума от аргументи и контра срещу тази теория и държавни тук само неговите заключения. В началото на 1980's, DA беше самостоятелно и в различни форми, открити няколко изследователи. Основната статия по тази тема са публикувани във водещи estestvennonauchnom вестник природата на хипотези. DA разчита на т. нар. постулат Коперник, който каза, че един обикновен наблюдател е вероятно при нормални обстоятелства - за нормална планета, че на една нормална звезда, по-нормален галактика. Този принцип е ефективно да прогнозира най-простите факти: той каза, че има малко сте родени в полунощ на 1 януари, или да е малко вероятно да живеят в Северен полюс. Въпреки че Copernican принцип изглежда очевидно, и почти кръгло в смисъл, че може да се изрази в математическа форма. Именно той позволява да се оцени вероятността, че наблюдателят е в необичайни обстоятелства. В частност, той може да се оцени вероятността от колко време ще продължи процеса, на базата на това колко време е продължила (за да наблюдават в случаен момент) - базира на предположението, че е малко вероятно, че наблюдател случайно уловена в самото начало или в самия край на процеса. Съществуват две основни форми на този математически прогноза - директен, който оценява вероятността от непосредствената, наречен "Трябва да формула, и косвени, лансирана Картър и Ж. Лесли, които се изчисляват bayesovy изменения на априори вероятностите. И двете от тези подходи веднага се опита да се прилага за изчисляване на очакваната продължителност на живота на човечеството. Обемът на дискусия по този въпрос на няколко десетки статии и много очевидни на пръв поглед опровержение не работи. Препоръчвам на читателите се обръщат към моите статии, преведени Н. Bostroma (един от които се съдържа в приложението към книгата), които търгуват с някои аргументи, както и вече споменатите книги от Й. Лесли и заглавие пещерата. Основният дебат около това дали да използва някой от последно време съществуването на съоръжението, за да предскаже бъдещето му съществуване от време, и ако е така, дали е било възможно да се използват тези данни, за да се предскаже бъдещето брой хора и време за «края на света". Въпреки това, в двата случая е, че получената оценка на бъдещите времето, човешкото съществуване неприятно.
Помислете Трябва първо формулата. Тя беше първата, публикувани в природата през 1993 година. В същността зад нея логика е, че ако ние виждаме някои дълготрайни събитие в случаен момент, то е вероятно, че сме изпаднали в Близкия период на неговото съществуване, и се очаква да пристигнат в района в непосредствена близост до началото или края. Намиране на формула да видя статия пещерата. Това е самата формула.
       

Когато T - годишна възраст към момента на нея наблюдение, T - очакваното време на своето съществуване, а F - повдигнат нивото на надеждност. Така например, ако F = 0.5, с вероятност от 50% на системата ще престане да съществува в периода от 1 / 3 до 3 от сегашния си възраст сега. Когато е = 0,95 система ще оцелее с вероятност от 95% от 0,0256 до 39 текущата възрасти.
Формула Трябва да се намери израз в човешката интуиция, когато, например, ние вярваме, че ако една къща prostoyal година, е малко вероятно той удари в рамките на няколко секунди. Този пример показва, че можем да направим възможни твърдения за уникално събитие, не знаеше нищо за действителното разпределение на вероятности. Повечето опити да се отхвърли Трябва въз основа на формула, която осигурява counterexample, в който се твърди, че тя не работи - но в тези случаи нарушили принципа, че обекта, наблюдавани при случаен момент. Например, ако вземете кърмачета или много стари кучета (както направи пещера), формулата Трябва няма да се предсказва очакваната продължителност на живота им, но млади хора или стари кучета не са хора или кучета, вписани в произволно време.) Формула Трябва да са били проверени от експеримента И даде правилните резултати за времето радиоактивно разпадане на атома неизвестен тип, както и за времето на Бродуей шоу. Ние сме etomV за бъдещето на човешката цивилизация Трябва да се прилага формулата на време и до ранга на раждане, тъй като населението е изместен неравномерно, а по-вероятно да бъде от висока гъстота на населението. (Все пак, ако се прилага до момента на появата, тя не получават невероятно: с вероятност от 50% на човечеството ще оцелее от 70 хиляди за 600 хиляди години.) Предполагат, че сме родени, направиха акт за наблюдение на нашата цивилизация в произволен момент. При това, ние научих, че всички от човешката история, то е само около 100 милиарда души. Това означава, че ние да се удари в средата на сегмента, а това означава, че то е много малко вероятно (с по-малко от 0,1% вероятност) общият брой на хората, ще бъде 100 trillion. Това означава, че шансът, че човечеството ще разпредели цялата галактика в продължение на много Миления, също е малък.
Но тя също така следва, че очаква, че ние живеем в последните milliarde роден души, което означава, че ние вероятно ще имат няколко стотици години преди края на света, като се има предвид очакваното население на Земята на 10 милиарда. За XXI век, вероятността за смърт на цивилизацията, на базата на формулата, трябва да се прилага за класиране на раждане, е 15-30%, в зависимост от броя на хората, които ще живеят в този момент. По ирония на съдбата, тази оценка ще съвпадне с предходната Едно, въз основа на Ферми парадокс. Разбира се, този проблем се нуждае от допълнителни изследвания.
Говорим за края на света Картър-Лесли
Лесли говори за няколко различни начина, отколкото Gott, използвайки bayesovu логика. Bayesovaya логика се основава на Бейс "формула, която връзки последващ вероятността от хипотезата на априори вероятността и вероятността за ново парче на информация, което е доказателство, че ние трябва да подкрепят тази хипотеза. (Аз препоръчвам това място да се позова на моите статии, преведени на Ник Bostrom на съд аргумент, защото не може да се опише тук всички въпроси в детайли.)
Лесли пише: Да има две хипотези за това как ще струва на всички хора от neandertaltsev за «края на света":
1-ва хипотеза: всички ще е 200 милиарда души. (Това е краят на света ще настъпи през следващите хилядолетие, тъй като всички Earthjustice е живял 100 милиарда.)
2-ра хипотеза: всички ще е 200 trillion. хора (т.е. хората zaselyat Galaktiku).
И нека предположим, че вероятността за всеки един от резултатите, равна на 50% от гледна точка на определен абстрактно пространство наблюдател. (В това, Лесли предполага, че ние живеем в един свят deterministic, това е, но вероятността е твърдо определя от характеристиките на нашата цивилизация, въпреки че ние не знаем.) Сега, ако прилагат Теорема на Бейс и модифицирате, че априори вероятността, като се има предвид факта, , че ще намерим себе си толкова рано, което е сред Топ 100 милиарда души, ще се смени на априори вероятността за хиляда пъти (разликата между милиарди и trillions). Има вероятност, че ние сме уловени в цивилизация, която е предназначена да умре относително по-рано, е 99,95%.
Илюстрираме този пример от живота. Смятайте, че в съседната стая седи човек, който с еднаква вероятност, или четете книга или статия. Книгата - 1000 страници, както и член 10 страници. В случаен момент да попитам този човек за какво страница номер, който той пише. Ако страницата представляват повече от 10, аз мога ясно да се заключи, че той е четене на книга, и номера на страницата, ако е по-малко от 10, тук имаме случай, когато те могат да кандидатстват Теорема на Бейс. Страница брой е по-малко от 10 да се появи в два случая:
А) мъж чете книга, но е в начален, вероятността за това - 1% от всички случаи, в които той е четене на книга.
Б) Човек чете статията, а тук това е паричната единица на вероятността от всички случаи, в които той пише статията.
С други думи, от 101 случаи, когато номера на страницата, могат да бъдат по-малко от 10, 100 дела, той ще бъде, защото хората, прочетете статията. Това означава, че вероятността, че той чете статията, след като получим повече информация за номера на страницата е била 99%.
Имуществото на мотивите е, че те рязко се увеличи, дори и много малък шанс за изтребление в XXI век. Така например, ако тя е равна на 1% от гледна точка на някои външни наблюдатели, за нас, след като сме открили себе си в света, преди това събитие, то може да бъде 99,9%. (Ако приемем, че галатичен цивилизацията ще е 200 trillion хора.)
От това следва, че независимо от сбит и трудно да разбере тези съображения, ние трябва да плащат еднакво внимание се опитва да доказва или опровергава мотиви Картър, Лесли, отколкото харчите за предотвратяване на ядрената война. Много учени се опитват да докажат или опровергава аргумента, Лесли Картър, и литература по темата е огромна. И въпреки че той достатъчно убедителен, мисля, че не се преструваш, че този аргумент е доказана окончателно. Препоръчвам всеки, който изглежда очевидна лъжа на горните съображения, отнесете се към литературата по тази тема в детайли различните аргументи и контра.
Разгледайте още няколко забележки, които работят за и против аргументите на Картър-Лесли. Основен недостатък на DA-Картър Лесли е, че бъдещото оцеляване зависи от това как ние избираме на броя на хората в «дълги» цивилизацията. Така например, когато вероятността от изчезване в XXI век на 1% и за в бъдеще, броят на хората в дългосрочен цивилизация от 200 trillion печалба на 1000 се случва отново, тоест, ние имаме 99,9 на сто от изчезване в XXI век. Ако използвате logarithmic мащаб, това дава «half» В 10 години. Все пак, ако вземете броя на хората в дългосрочен цивилизация от 200 trillion, това ще даде шанс на милиони от изчезване в XXI век, че има 2 ** 20 градуса, и Очаква «период polraspada» само 5 години възраст. Така че, това се оказва, че с избирането на произволна стойност на дълго време оцеляването на цивилизацията, ние можем да се произволно кратко време, се очаква недостиг на изчезване цивилизация. Въпреки това, нашата цивилизация е съществувала пред очите ни повече от 5 или 10 години.
За да поеме тази разлика, ние можем да се помни, че повече хора в дългосрочен цивилизация, толкова по-малко вероятно е в съответствие с формулата Трябва. С други думи, вероятността цивилизация vymret рано - високи. Въпреки това, очевидно мотиви Картър, Лесли допълнително увеличава тази вероятност. Трудно е да се каже дали правилно да се прилагат мотиви Картър, Лесли, заедно с формулата Трябва защото там може да се случи, че същата информация се вземат под внимание два пъти. Този проблем се нуждае от допълнителни изследвания.
Първоначалната логика Картър, Лесли съдържа редица други логически пробиви, които са били изготвяни от Bostrom в техните членове, както и основните тези, свързани с избора референтен клас, както и да се съмнявам, че извадката е наистина случайни. Размерът на дебат по тази тема е толкова голям и сложен, че ние сме тук само за кратко, очертани тези възражения.
Проблемът референтен клас е изборът на кой е, че трябва да предприемат хората, че тази логика. Ако се вземат хората вместо на животни, с мозъци, те ще бъдат хиляди trillions в миналото, и можем да очакваме същото число и в бъдеще. Виждам решение на проблема с референтен клас, който, в зависимост от това какво референтния клас ще изберете, събитието следва да бъдат в края на своето съществуване. Това е, всяка referenetnomu клас, отговаря «края на света". Така например, че в бъдеще ще бъде само на неколкостотин милиарда души, не е възпрепятстван какво бъдеще ще има още хиляди trillions същества на надарен с мозъка. Като резултат, ние получаваме много прост Заключение: Краят на съществуването на референтен клас е «съд» за референтен клас. (Ако това не означава край на съществуването на смъртта, и може да означава просто преминаването към друг клас: например, бебето расте и става предварително schoolers.)
Втората логическа грешка в мотивите Картър-Лесли е nonrandomness проба. Въпросът е, че ако бях роден преди двадесети век, аз никога не би научил от мотивите на Картър, както и Лесли, че никога няма да се чудя за нейната приложимост. С други думи, има ефекта на наблюдение селекцията - не всички наблюдатели еквивалент. Ето защо, в действителност, Лесли Картър мотиви могат да се прилагат само за онези наблюдатели, които знаят за него.
Но тя се влоши драстично шансовете ни за оцеляване, като се има предвид Da. В действителност, DA е известна само на 80-те години на ХХ век, който е на възраст 27 години. (Всъщност, в началото той е бил известен само на тесен кръг от хора. За тези 27 години може да бъде намален до 20 години.) Ако сте приели тези 27 години, и ги прилага Трябва формула, ще получите 50% вероятността от смърт в педя от От 9 до 81 години от сега, това означава, че около 50 на сто за XXI век. По ирония на съдбата, тази оценка не е много различен от предишните два.
Можете да направите мотиви и по други начини. Разгледайте период от време, през който са глобални рискове. В същото време като отправна точка ще вземе 1945, както и случайни наблюдения - Когато научих за възможността от ядрена война, като глобален риск - през 1980 година. (При текущо събитие тук, ние смятаме за периода от началото на периода на излагане на риск преди края му.) Така, по време на случайни наблюдения, че съществува риск за 35 години. Формулата дава Трябва интервал 50% шанс за реализиране на риска, от 12 до 105 години (от 1980). Фактът, че това събитие все още не е станало, което прави с определена промяна в оценката, но въпреки това, ние можем да кажем, че тези 50% са все още в сила за остатъка от периода на 90 години от 1980 до 2070 . С други думи, вероятността на завършващ на ситуацията в глобален риск е повече от 50% в XXI век. Пак приблизително същите резултати. Прекратяването може да бъде реализирането на риска, както и промяна в някои други рисково състояние, което е още да се каже всичко е невъзможно. Ако се вземе под внимание, че действителният риск от повишена плътност в периода от 1945 до 70-те години, тя съществено се отразява нашата оценка.
Непряко за оценка на вероятността от природни бедствия
Ако не се вземат под внимание наблюдение селекция ефекти, ние получаваме много добри шансове за vzhivanie в XXI век от всякакви естествени (не изкуствени) бедствия - от галатичен за геоложки мащаб, поради факта, че те не са били за живота на Земята и нашите видове, трябва да се много малка вероятност, че те настъпят в XXI век. Защото не природно бедствие, не се унищожават човешки предци през последните 4 милиарда години, можем да заключим, че нашите шансове на загуба на XXI век от природни бедствия в размер на по-малко от 1 от 40 милиона евро. (И като се има предвид високото човешкото оцеляване и адаптация, както и по-малко.) За съжаление, такива съображения фундаментално погрешно, тъй като те не отчитат ефекта maloochevidny наблюдение селекция.
Защото на този ефект очакваното бъдещо съществуване ще бъде по-малък от миналото (за подробности виж моята статия «Природни бедствия и Антропогенна принципа" и глава на куче-пазач за разплод в раздела за природни бедствия). Но едва ли допринасят за наблюдение на избор на повече от един ред. Въпреки това, за различни нива на природни катастрофи, имаме различни характерни периоди от време. Така например, животът на Земята е съществувал за 4 милиарда години и, като се има предвид това, което биха могли да бъдат още по-малка от 100 - 400 милиона години. (Наблюдателница избор тук е, че ние не знаем каква част от земната тип планети са убити в процеса на еволюцията, което предполага, че делът на пострадалите варира от 1 до 1000 до 1 към trillionu и получават оценка от 100-400 милиона години, период, половина.) Това е косвен оценка на вероятността zhizneunichtozhayuschey природен катаклизъм ще бъде от 1 до 4 000 000 за сто години. Това е пренебрежимо малка стойност на фона на други рискове. Що се отнася до времето на нашия вид, последните природни бедствия, застрашени него, беше много по-близо във времето, 74 000 години назад (вулкан тоба), и следователно имаме очакваното време на само 7 от 000 години, като се вземат под внимание максималния възможен ефект на наблюдение селекция. Мониторинг избор тук е, че ако хората са били много малко zhivuchim тип, който е изчезнал с честота веднъж на няколко хиляди години, ние не можеше да забележи, защото ние можем да наблюдават само клона на нашия вид, които са живели в разумен срок за формирането на цивилизацията, в които ще могат да задават въпроси. 7000 година ще бъдат в синхрон с оглед на огромните грешки при обосновката около 1% от изчезване в XXI век, в резултат на природни бедствия или присъща нестабилност на духа - което е максималната степен, в най-лошия случай. Ако не се вземат под внимание наблюдение селекция, шансовете на природните бедствия от всякакъв вид, което води до изчезване на човечеството, на базата на последния път там може да бъде изчислена като се използва формулата Трябва (използва се за времето на съществуването на Хомо сапиенс), и те ще бъдат от 1 до 1500 за 100 години, това е 0066 процента, което е много малко.
И накрая, съществува и трети вид бедствие, вероятността, че не можем косвено оценки за миналото време, а именно, времето, през което е имало писмена история, която е 5000 година стар. Ние спокойно мога да твърдят, че за 5000 година не се случи на всяка катастрофа, която може да разпуска писмена история. Той също е възможно, но малко вероятно наблюдение на избора, защото там са по-силни от природните и човешки фактори. Тази катастрофа, която може да прекъсне писмената история отпреди 3000 години, например, sverhvulkana изригване в Средиземно море, сега вече не е в състояние да направи това. Следователно, може спокойно мога да кажа, че природните бедствия, прекъсван писмена традиция (като тя е била в миналото, но не сега) има шанс за не повече от 1% в XXI век, вярва във формулата Трябва да (го прилагат към всички от момента на писане традиция). Както е писано в момента традиция е много по-силна, отколкото в миналото, че безопасно да се намали наполовина за оценка: до 0,5%. А дори такова бедствие, че прекъсва скрипт в миналото, не прекъсвам го сега и да не убие всички хора.
Накрая, влиянието на наблюдение и размножаване могат да възникнат във връзка с направени от човека бедствия, а именно световната опасност от ядрена война. (Предположението, че глобална ядрена война е унищожена човешката раса ще бъде негова otbrosila или така преди това писмено книги ще бъде невъзможно.) Влияние на избора за наблюдение тук е, че ние не знаем какви са шансовете на нашата цивилизация да оцелее през периода от 1945 до 2007, което е, по време на съществуването на ядрени оръжия. Може би, в девет от десет «паралелни светове» провали. Съответно, в резултат ние можем да подценяваме глобалната рискове. Ако интензивността на промените в броя на наблюдателите ще бъде много висока, тя щеше да «натиснат» считано от датата, на която сме открили себе си - това е, че ще е по-вероятно се оказали доста рано. Виж повече Bostrom изкуство и Tegmarka, които предлагат точни изчисления за катастрофи cosmological мащаб. Ако вероятността от риск от изчезване ще бъде 90% на година, тогава най-вероятно няма да са живели през 2007 г. и през 1946 година. Това, което съм все още жив през 2007 г., дава определена горна граница (с някои определено надеждност) в размер на изчезване (за исторически XX век). А именно: 5 години срок «half» могат да бъдат изтрити с вероятност от около 99,9 (защото 50 години са минали 10 цикъла от 5 години и 2 от 10 градуса е 1024. Това е, за 50 години би оцеляла само една хилядна част от планети .) Като правите това, вие можете по-надеждно достатъчно, за да се изключат периодите на «half» цивилизация по-малко от 50 години. Въпреки това, големите, ние не можем да изключите. Това разбира се не означава, че действителният период на «половин» е 50 години, обаче, ако принципът на предохранителните мерки, ние трябва да приемем, че това е така. Това half биха живели до нашите шансове XXAI век, приблизително 25%. (Това е прието, че нивото на заплаха остава непроменен след средата на ХХ век.)
       Чудех се колко често разпределение във времето, могат да бъдат случай на бедствие, в който се очаква броят на жертвите надхвърли сегашните населението на Земята, това е, че ще е около 10 милиарда. Ако ние приемаме закона на Парето, с = - 1, че е десет пъти по-мощно събитие десет пъти по-малко, жертви на бедствието с 10 милиарда (което е гарантирано до припокриване на населението на Земята) ще бъде около 500 000 години. Този номер е от порядъка на път съществуването на вида Хомо сапиенс. С друга страна, ако се вземе = - 0,7 (което означава, че десет пъти по-мощни събитие настъпили само в 5 пъти по-малко, както и предположението, че природно бедствие, с броя на жертвите, повече от 100 000 души се появят на всеки 10 години ), Мащабът на бедствието за цялото човечество ще бъде само около 30 000 години. Это близко по порядку величины тому времени, которое прошло с момента извержения вулкана Тоба – 74000 лет – когда человечество оказалось на грани вымирания. Мы видим, что тяжесть хвоста распределения сильно зависит от величины параметра а. Однако стихийные бедствия не создают значителен риск в XXI век, с всякакви разумни стойности и.
Все пак много по най-лошия резултат ще получите, ако законът се прилага за войни и терористични актове. При това, Законът на Парето не взема под внимание показателен характер на развитието. В реални случаи за всеки клас от събития, ние разполагаме с горната граница на закона, приложим закона на Парето, например, приема, че няма земетресения с магнитуд по-голям от 9.5. Въпреки това, много много различни класове на събитията не е ограничен.
Повече мощност закона разпространението на бедствия и заплахата от изчезване на човечеството се вижда заглавието Робин Хансен «катастрофа, социални и човешки колапс изчезване". Той отбеляза, че важен фактор е и оцеляване на отделни вариант. Ако тези различия са големи, а след това да унищожи всички хора, до последно, много нужда от няколко поръчки с магнитуд по-тежка катастрофа, отколкото този, който разрушава само 99% от хората.
Хипотезата «Черната Царица»
Въз основа на данните paleontological Ван Valennom Открита е, че раждането на животни от изчезване е предмет на закона намалява експоненциално. «Тази форма на линиите за оцеляване в действителност означава, че средната вероятността от изчезване на някаква си остава постоянна през живота си". Тъй като през целия живот на отделните видове в рамките на вида Хомо е около един милион години, можем да очакваме същото живота и за хората в степента, в която ние сме нормални биологични видове. Следователно, хипотезата на Черно кралицата, не означава, значителен риск в XXI век.
От друга страна, в момента ние живеем в 6 големи измиране на живите организми, този път предизвикани от човешки фактори, които се характеризират със скорост на изчезване на 1000 над нормата. Ако сте съгласни, че хората - също един от видовете, тя намалява очакваното време на своето съществуване и след милион години хиляди.
Ферми Paradox
Друг косвен начин за оценка на вероятността на базата на Ферми парадокс. Парадокс на Ферми е следният въпрос: "Ако живота и ума са общи по характер, защо ние не виждате тяхното изразяване в космоса"? Теоретически, живота и ума може да създаде някъде за няколко милиарда години по-рано, отколкото на Земята. През това време, те биха могли да се разпространят стотици милиони години на светлината, най-малко през samoreplitsiruyuschihsya пространство probes (наречени probes фон Нойман). Този обем включва хиляди и може би милиони галактики. Пусни вълна samoreplitsiruyuschihsya междузвезден probes човечеството може да бъде през следващите 100 години. Това може да се mikroroboty за уреждане на планетата, като ракетите и ги изпраща на вселената на много по-ниски скорости на светлината - такива устройства, дори не са задължени да имат пълноправен универсална изкуствен интелект; това прави около aktinAI в океана, само малък мащаб. Този процес може да започне по случайност, просто в развитието на планетите лесно използване samoreplitsiruyuschihsya роботи. Такива mikroroboty ще се използват предимно на инвестиционния посредник въпрос на планетите им развъждане основания. Те ще действат законите на еволюцията и природни селекция, подобни на тези, които съществуват в животински свят.
Но ние не сме виждали такова mikrorobotov в слънчевата система, дори и само защото тя оцеля. Нещо повече, оцелява не само Земята, но и други твърди вещества - сателити на далечни планети на Слънчевата система. Ние също така не се спазват всички inoplanetnyh радио и няма и помен от astroinzhenernoy дейности.
Възможно е изтеглянето на четири (макар че офертата, и повече - виж книгата Стивън Webb «50 решения, Парадоксът Ферми", който се счита 50 различни опции, които обикновено са ограничени до няколко по-общи категории)):
1. Добър живот във вселената случва много рядко, по-малко, отколкото в сферата радиус от 100 милиона светлинно-години, за 5 милиарда години.
2. Ние вече са заобиколени от невидими за нас разумен живот, които по някакъв начин ни позволи да се развиват или симулирани условия на живота ни. (Това включва и възможността, че ние живеем в един напълно друг начин света.)
3. Wise живот умира, преди времето да се пуска по-малко елементарен «шок вълна на разума» на робота-репликатор, който е убит в неговия аналог XXI век.
4. Wise живее неподвижно отказват да разпространяват извън дома планетата. Това може да бъде доста разумно от негова страна, както и отдалечени населени места пространство не може да бъде контролирано, което означава, те могат да дойдат от заплахата от майчина оцеляването на цивилизацията. (Може би причината е в рамките на виртуалния свят, или той намира в паралелен свят. Въпреки това, опитът на живота на Земята показва, че достъпът до земята, не се спре разрастването на морето - живот прилага във всички посоки.)
Тъй като тези четири хипотези за bayesovoy логично да има равно право да получите допълнителна информация, ние можем да присвоите всеки един от тях субективно надеждността на 1 / 4. С други думи, Ферми парадокс с надеждността на 25% означава, че ние vymrem в XXI век. И докато субективна вероятност - че не е обективна вероятност, че ще имат, имаха пълна информация, нашата самота на космоса - това е смущаващ факт. (От друга страна, ако ние не сме сами, той също ще смущаващи, че в светлината на рисковете, които биха могли да доведат до евентуално противоречие с извънземни цивилизации. Но тя ни показва, че поне някои от цивилизацията да оцелее.)
Теорема на края на света - "страшният съд аргумент". Формула Трябва да
Друг косвен начин да се оцени вероятността от смърт на човечеството е специфичен и доста спорна приложение Теория на вероятностите, наречен съд аргумент (DA), или теорема за края на света. Аз съзнателно пропуснат огромна сума от аргументи и контра срещу тази теория и държавни тук само неговите заключения. В началото на 1980's, DA беше самостоятелно и в различни форми, открити няколко изследователи. Основната статия по тази тема са публикувани във водещи estestvennonauchnom вестник природата на хипотези. DA разчита на т. нар. постулат Коперник, който каза, че един обикновен наблюдател е вероятно при нормални обстоятелства - за нормална планета, че на една нормална звезда, по-нормален галактика. Този принцип е ефективно да прогнозира най-простите факти: той каза, че има малко сте родени в полунощ на 1 януари, или да е малко вероятно да живеят в Северен полюс. Въпреки че Copernican принцип изглежда очевидно, и почти кръгло в смисъл, че може да се изрази в математическа форма. Именно той позволява да се оцени вероятността, че наблюдателят е в необичайни обстоятелства. В частност, той може да се оцени вероятността от колко време ще продължи процеса, на базата на това колко време е продължила (за да наблюдават в случаен момент) - базира на предположението, че е малко вероятно, че наблюдател случайно уловена в самото начало или в самия край на процеса. Съществуват две основни форми на този математически прогноза - директен, който оценява вероятността от непосредствената, наречен "Трябва да формула, и косвени, лансирана Картър и Ж. Лесли, които се изчисляват bayesovy изменения на априори вероятностите. И двете от тези подходи веднага се опита да се прилага за изчисляване на очакваната продължителност на живота на човечеството. Обемът на дискусия по този въпрос на няколко десетки статии и много очевидни на пръв поглед опровержение не работи. Препоръчвам на читателите се обръщат към моите статии, преведени Н. Bostrom (един от които се съдържа в приложението към книгата), които търгуват с някои аргументи, както и вече споменатите книги от Й. Лесли и заглавие пещерата. Основният дебат около това дали да използва някой от последно време съществуването на съоръжението, за да предскаже бъдещето му съществуване от време, и ако е така, дали е било възможно да се използват тези данни, за да се предскаже бъдещето брой хора и време за «края на света". Въпреки това, в двата случая е, че получената оценка на бъдещите времето, човешкото съществуване неприятно.
Помислете Трябва първо формулата. Тя беше първата, публикувани в природата през 1993 година. В същността зад нея логика е, че ако ние виждаме някои дълготрайни събитие в случаен момент, то е вероятно, че сме изпаднали в Близкия период на неговото съществуване, и се очаква да пристигнат в района в непосредствена близост до началото или края. Намиране на формула да видя статия пещерата. Това е самата формула.
       

Когато T - годишна възраст към момента на нея наблюдение, T - очакваното време на своето съществуване, а F - повдигнат нивото на надеждност. Така например, ако F = 0.5, с вероятност от 50% на системата ще престане да съществува в периода от 1 / 3 до 3 от сегашния си възраст сега. Когато е = 0,95 система ще оцелее с вероятност от 95% от 0,0256 до 39 текущата възрасти.
Формула Трябва да се намери израз в човешката интуиция, когато, например, ние вярваме, че ако една къща prostoyal година, е малко вероятно той удари в рамките на няколко секунди. Този пример показва, че можем да направим възможни твърдения за уникално събитие, не знаеше нищо за действителното разпределение на вероятности. Повечето опити да се отхвърли Трябва въз основа на формула, която осигурява counterexample, в който се твърди, че тя не работи - но в тези случаи нарушили принципа, че обекта, наблюдавани при случаен момент. Например, ако вземете кърмачета или много стари кучета (както направи пещера), формулата Трябва няма да се предсказва очакваната продължителност на живота им, но млади хора или стари кучета не са хора или кучета, вписани в произволно време.) Формула Трябва да са били проверени от експеримента И даде правилните резултати за времето, атомите на радиоактивно разпадане на неизвестен тип, както и за времето на Бродуей шоу. Изводи: Различните независими дискурс косвени методи за оценка на вероятността от смърт на цивилизацията на XXI век, десетки интерес. Това не бива да затихва нас в смисъл, че ако гарантира нас десетки процента оцеляване. Защото, като се има предвид несигурността на тези мотиви, този случай категорията «десетки интерес", която пое в началото означава риск от 1 до 100%.
Беседа за симулация
Ник Bostrom разработи следващата логична теорема, наречен говорим за симулация (то ние имаме споменати в контекста на рисковете от внезапно преустановяване «Матрицата" и принципно нови открития). Ето хода на своята логика:
Въз основа на сегашните тенденции в развитието на микроелектрониката, изглежда вероятно, че рано или късно хората ще се създаде самостоятелен изкуствен интелект. Нанотехнологии обещавам да се намали плътността на процесорите в трилиона единици на грам веществото (въглерод) - с капацитет от около 10 flops. Плюс нанотехнологиите ще помогне на свой ред находища на въглища в огромни компютър (като основните строителни материали за него, може би, да станат въглерод). Това отваря възможност за завъртане на цялата Земя «kompyutronium» - голяма изчислителна устройство. Силата на такива устройства се оценява на 10 цикъла в секунда. (Отговарящи за цел да направи един милион кубически километра материал в kompyutronium, която ще обхване цялата Земя в слой от 2 метра.) Използването на всички твърди тела в Слънчевата система ще осигури около 10 flops. Очевидно е, че това Компютърни власт може да създаде подробна симулация на човешкото минало. Тъй като се приема, че за симулиране на едно лице трябва да бъде не повече от 10 flops (Този брой се основава на броя и synapses неврони в мозъка, и как често те Switch), то това ще предостави възможност за симулиране, докато 10 души, или 10 цивилизации, като нашите, с нашите развитие скорост. Едва ли kompyutronium посветят всичките си ресурси за симулиране, но независимо от това, че тя ще разпредели милион към тези усилия, той все още ще бъде около 10 човешки цивилизации. Така че, дори и ако само един милиона от реалния цивилизация създава kompyutronium, създава kompyutronium на около 10 цивилизации, който е на всеки 10 представлява реална цивилизация виртуална. Той не е специфичен цифри, но ако това е реалистично предположения, много от симулирани цивилизации от много, много поръчки с магнитуд по-многобройни истински.
Оттук Ник Bostrom заключава, че непременно най-малко една от трите твърдение:
1) Никой не цивилизация в състояние да достигнат технологичното равнище е необходимо да се създаде kompyutroniuma.
2) или всички възможни kompyutronium няма абсолютно не се интересуват от неговото моделиране миналото.
3) или са вече вътре имитация на kompyutroniume.
Независимо от това, параграф 2, може да бъде изключено от обсъждане, тъй като са налице причини, поради които най-малко няколко kompyutroniumam ще се чудя какво точно обстоятелствата на тяхното възникване, но има такава универсална причина, която би могла да действа по всички възможни kompyutroniumy, които не им позволяват да си модел миналото. Причината за интереса в своето минало, могат да бъдат много, ще наименование за няколко - е изчисление на вероятността за поява, за да се прецени гъстотата на други sverhtsivilizatsy във вселената или за забавление на хората, или някои други същества.
Параграф 1 означава, че или симулиране kompyutronium и това е технически невъзможно, или че всички цивилизации умират преди да са спечелили възможност да създадете такава, не означава, необходимостта от изчезване на притежателите на тази цивилизация, която е в нашия случай, хората просто колапс технологичния напредък и понякога връщането назад. Но досега не звук мотивите за извършване на kompyutronium невъзможно. (Например, твърдението, че симулацията на съзнание не е възможно, защото съзнанието е считано де квантовата не работи възможно най-квантови компютри.) Не е вярно, че kompyutronium е възможно по принцип, защото хората са склонни да види мечтите не се разграничават от вътрешната от реалността (това е качествено simulyatsiey), и следователно, като се използва генетични манипулации, които могат нарасне supermozg вижда сънището непрестанно.
По този начин, доказа основателността на симулацията е най-остра алтернатива: "Или ще живеем в един свят, който е обречен да умре, или ще живеят в компютърна симулация".
Е, загубата на мира в тази логика не означава изчезване на всички хора - тя е само гарантираните kompyutronium преди да спрат напредъка ще бъде създадена. Гарантиране своите означава не само, че това се случва на Земята, но и на всички други възможни планети. С други думи, това означава, че там е много универсален закон, който предотвратява преобладаващото (в много, много поръчки с магнитуд) мнозинството от цивилизации създава kompyutronium. Може би това се случва само защото невъзможен kompyutronium, или защото симулация на човешкото съзнание, че не е възможно. Но може би това е така, защото цивилизацията не може да достигне нивото kompyutroniuma, както и с някои изправени пред труден за противоречията, както и насилствен или умира, или понякога връщането назад. Тези противоречия трябва да са универсални и не е обвързан само от, да речем, с ядрени оръжия, защото тогава цивилизация на планетата, което няма кора обогатен уран може да расте устойчиво. Пример за такива противоречия може да бъде универсална теория на хаоса, който прави системата над определено ниво на сложност фундаментално нестабилна.
Добре известни възражения към тези аргументи, базирани на факта, че симулацията на реалността не е задължително копие на това, което беше в миналото. (Вж. преглед възражения говорим за симулация Danily статия Medvedev «живо ли спекулации Ник Bostrom?»), И ако ние сме в света проектирани, тя не ни позволи да се правят изводи за това в реалния свят. Как, например, не може да чудовище на компютърна игра да предполагам за реалния свят вашите хора. Все пак, ние не знаем какво по света извън симулацията не пречи нас знаят, че ние все още са в симулация. Важно е да се прави разлика между два смисъла на думата «цвят» - компютърен модел, и как фактът, че този модел напомня някои историческо събитие от миналото. При това, ние можем да приемем, че най-симулации, които не са точно подобие на миналото, а голяма част от симулацията по принцип не е свързано с миналото на цивилизацията, които те след това създадени. А в литературата, повечето романи не е исторически романи и дори исторически романи, не са точно съвпада с миналото.
Ако ние сме вътре в симулация, ние заплашва същите рискове от смърт, което би могло да се случи в действителност, както и намесата на спонсорите на симулация, ние можем да podkinut някои «трудния проблем» или за нас, за да изследва някои екстремни режими, или просто за нашите porazvlechsya от това как ще забавляват, филми за гледане asteroids спада. Накрая, симулацията може да бъде просто изведнъж изключено. (За симулацията може да има ограничение на ресурсите, така че авторите симулации могат просто да не ни позволи да създадем сложни компютри, така че ще можете да изпълнявате своите симулации.)
Така че, ако сме в симулация, това само увеличава рисковете, висящи над нас, и създава нов - макар и шанс да изненада спасяването на спонсорите на симулацията.
Ако не застане в симулация, има голям шанс, че всяка цивилизация, защото бедствия не достигнат нивото на създаване kompyutroniuma, че ние може да постигне до края на XXI век. А това означава висока вероятност на някои глобален катаклизъм, че няма да ни позволи да достигнат това ниво.
Ако се държи Bayesovoy логика, трябва да се равнява атрибут вероятност независими хипотези. И тогава ние би трябвало да бъде приписана на хипотезата, че нашата цивилизация не е стигнал до нивото kompyutroniuma 50% вероятност (която всъщност е равносилно на твърдението, че тя чака за срив в XXI век). Тази оценка е в порядъка на прогнозите, че сме получили по друг начин.
Оказа се, че мотивите на симулация функционира по начин, че и нейната алтернатива влошават шансовете ни за оцеляване в XXI век, който е на нетните му принос е отрицателен, независимо от това как оценява шансовете на една от двете алтернативи. (Мое мнение е, че вероятността, че ние сме в симулация - повече от вероятно, че имаме реални цивилизация, която е предопределена да умре, и много поръчки с магнитуд.)
Интересното е един повтарящ се модел: алтернатива на SETI също има отрицателен нетен ефект - ако са наблизо, ние сме в опасност, ако не, ние също са в опасност, защото това означава, че някои фактори се предотврати тяхното разработване.
Интеграцията на различни косвени оценки
Всички обяви на косвените оценка извършва независимо от един на друг, докато за едно и също и да даде незадоволителни резултати, бе, че вероятността от изчезване на човека е висок. Въпреки това, тъй като те се отнасят до размислите на една и съща реалност, има желание да ги комбинирате в еднородна картина. Bostrom говорим за симулация, там е логично, разделени от края на дискурс на светлинно-Лесли Картър (които все още трябва да се свърже с формулата Трябва), и съответно е налице изкушението да «брака". Такъв опит се прави в работата на Стивън Aranosi «съд симулация Аргументът". Те, от своя страна, се свързват с интересни mnogomirnym bessmertiem в духа на Higgo и влиянието на наблюдението избора ефект.
Интересен опит на рода си, предприети в цитираната по-горе статия Knoba и Oluma «Философски cosmological стойност на инфлацията". В контраст, "Частен съд аргумент» В духа на Картър-Лесли, те правят «Вселенската съд аргумент". Именно, те показват, че от факта, че самото ни в ранен форма на човечеството, трябва да има висока вероятност, че много хора, които са в кратки цивилизации, по-съвкупност от всички лица във всички дългосрочни живели цивилизации в цялата вселена, или С други думи, броят на продължително цивилизации на живял много малко. Това пак означава, че шансовете на нашата цивилизация не оцеляват милиони години и не разреши галактика - е много голямо, но промените вероятно причините за изчезване: а именно, че скоро не се случва, защото на някои частни причини, отнасящи се само до земята, и поради всеобщ кауза, която да въздейства на всички планетни цивилизация. Ние трябва да бъдат засегнати, те пиша, а не конкретно астероид орбита, и че всички планетни системи, има толкова много asteroids, че това го прави малко вероятно оцеляването на цивилизацията, ние трябва да са заинтересовани, не защото някои специфични близката звезда ще се превърне в НЮ ЙОРК и т.н. Че леталитет на supernovae значително се подценява. Имайте предвид, че същото заключение, че много кратко цивилизации далеч превъзхожда много дълго-жив, трябва да има обсъждане на симулация Bostrom, ако е кратко цивилизации вземе симулация. Вярвам, че същността на тази интеграция трябва да бъде, че ще отидат в какви съображения погазват друг, който е кои са по-мощни в логически смисъл. (Възможно е, че бъдещите изследвания ще бъдат в състояние да даде по-точна картина на интеграция, и намаляване на всички отделни изчисления за формула.) Аз виждат тази договореност силата на речта (силно одобрение за премахване на слабите, отгоре). При това, не означава, че всички от тях истината.
А. Качествена теория на съзнанието, на основата на понятието за профили. Kvali - това е философски термин обозначаващ на качеството на всяко възприятие, например, "krasnost". Естеството и реалността на профилите са обект на интензивен дебат. Теории за профилите все още не съществува, има само няколко логически парадокси, свързани с. Но, очевидно, теорията на профилите може да бъде изключена от плурализма на светове и линейност от време. В резултат на тази теория, дали това е установено и доказано, би направило всяко неоторизирано следните съображения.
Б. Беседа за безсмъртие J. Higgo, въз основа на идеята за плурализма на светове. В този случай, там ще бъде винаги един свят, където съм аз, и част от земната цивилизация не са убити. Беседа за безсмъртие Higgo е много силна, защото тя не е използвана от всеки от края на света, нито от това дали сме в симулация или не. Безсмъртие на личните съд Higgo прави невъзможно. Нито собственикът на симулацията не могат да влияят върху мотиви Higgo, защото винаги ще има безкраен брой други симулации и реални светове, е абсолютно същото с тази в сегашния момент, но като го различно бъдеще. Но Higgo логика се основава на «самостоятелно вземане на проби предположението» - това е идеята, че аз бях един от копия на много от нейните копия - и на една и съща идея основани и всички последващи Дискусия - симулиране аргумент, формулата Трябва да поговорим за края на света Картър, Лесли. Всеки опит да се отхвърли за безсмъртието на Higgo, се основава на невъзможност за разглеждане себе си като едно от копията на много от техните копия в същото време отхвърлено всички тези съображения.
в. Беседа Bostrom за симулация. Той също така е работил по предположение на плурализма на светове, а последващото обсъждане не е взела под внимание този факт. Освен това, ако наистина са в симулация, ние не виждаме света по случаен момент, тъй като симулация, а се връзват с интересни исторически ера. Накрая на разговора в дух на DA изисква продължаване на номериране на хора и време, че в случай на множество симулации не работи. Ето защо, всяка форма на DA нищожна и недействителна, ако мотивите на симулацията е вярна. Беседа за симулация на засилено дискурс за края на света, Лесли Картър и формули, защото тя трябва да работи независимо от това колко повече ще се живее в нашата реалния свят. Нещо повече, тя е неясно понятие от броя на хората, и че в реалния свят, тъй като е ясно, дали ще се вземат под внимание бъдещите от хора от други симулации, като реалистична. Също така е ясно, дали всеки симулация да симулира целия свят от началото до края, или само определен сегмент от съществуването му само няколко души.
d. Трябва да формула. Формула Трябва уверено работа по отношение на събития, които не са свързани с промени в броя на наблюдателите, например, по отношение на радиоактивното разпадане, датата на събарянето на Берлинската стена, предсказване на продължителността на човешкия живот и др Но това прави много по-снизходителна оценка на бъдещето на човешкото съществуване, отколкото аргумент Картър, Лесли. Трябва да формула е по-прост и директен инструмент за оценка на бъдещето, отколкото логика Картър, Лесли. Ако само защото формулата трябва да се дава специфична цифрова оценка и мотивите Картър, Лесли дава само изменението на оригиналния вероятности. Освен това, формулата трябва да се прилага към всяко позоваване класове, както и за всеки клас, тя оценява в края на този клас. А разговор Лесли Картър, споменати обикновено е смъртта на наблюдател и да се адаптира към ситуации, когато наблюдателят не умре. Въпросът за това дали да се приложи изменението, мотиви, дадени от Картър-Лесли към оценките, издадени от формулата трябва да се изисква по-нататъшно проучване.
e. Аргументът на Картър-Лесли. Важен аргумент за Картър-Лесли (в неговата интерпретация Bostrom) е отсъствието на други цивилизации, различни от земното. Освен това, че е много трудно да се сетя за недвижими експеримент, който може да се тества, защото на тази логика. А умственото експеримент, е работил с някои натягането.
F. Парадокс на Ферми е също така в долната част на таблицата, тъй като мотивите на симулация ясно отменя неговото значение: симулиране плътност на цивилизации може да бъде всеки, както и риска от агресия, в зависимост от хрумване на собствениците на симулацията.
Всички каза тук, на косвени методи за оценка е на ръба между доказуем и хипотетични. Поради това, предлагам да не се вземат за даденост констатациите, но не ги отхвърлите. За съжаление, проучванията на косвеното начин за оценка на вероятността от глобална катастрофа биха могли да хвърлят светлина върху ни очаква бъдеще, но не даде ключовете за неговата промяна.
Глава 25. Най-вероятно сценарият на глобалната катастрофа
Сега ние можем да се опита да обобщи резултатите от анализа, представяща най-вероятният сценарий е глобална катастрофа. Това не е обективна оценка на недвижими вероятност, ние можем да се изчисли само от падането на asteroids, а субективна оценка, която е «най-добър предполагам» - най-доброто guesses. Очевидно е, че тази оценка ще бъдат боядисани на автора лични предпочитания, така че няма да екстрадира своите целта на точно vychislennuyu вероятностите. В зависимост от това, което изглежда да е нова информация, аз ще промени своята оценка.
В тази оценка, аз считам така вероятността от събития, както и тяхната близост до нас във времето. Ето защо, аз атрибут на малките вероятността nanotehnologicheskoy Грей слуз, който, въпреки че е технически възможно, но бе засенчена от по-ранната от рискове, свързани с биотехнологиите. По същия начин, създаването на ядрени оръжия sudnogo на деня, също изисква много години и икономически неприложима, тъй като вреди на тази величина-евтино и по-бързо ще предизвика чрез биологични оръжия.
Тези предположения са направени предлаганите заплахи, дори като се вземе предвид, че хората ще се опита да се противопостави на тях, както могат. Е, виждам, двете най-вероятните сценарии на глобалната катастрофа окончателно в XXI век, което води до пълното изчезване на човека:
1) "Внезапен сценарий, свързани с неограничен растеж на изкуствения интелект, който е враждебен на зачитане на човека цел.
2) Системата сценарий, в който водеща роля играят биологически оръжия и други продукти от биотехнологиите, но също така ще използва ядрени оръжия и mikroroboty. Той също ще играе роля разпространение sverhnarkotikov, замърсяването, изчерпването на ресурсите. Същността на сценария, че няма да се разрушава всеки един човешки фактор, както и вал много фактори извън всякаква възможност за оцеляване.
Най-вероятно време от двата сценария - годините 2020-2040. С други думи, аз вярвам, че ако тези сценарии са реализирани, има шансове за повече от 50% от тях срещат в определен период от време. Тази оценка идва от факта, че въз основа на сегашните тенденции, които едва ли и за двете технологии са узрели до 2020 г. или след 2040.
Сега опитай prointegrirovat всички възможни сценарии, като се вземат под внимание тяхното взаимно влияние, така че сумата е равна на 100% (това трябва да се разглежда тези цифри като моя предварителна оценка до най-близката цел). Оценка на общата вероятност за изчезване на хора в XXI век, според думите на сър Мартин Райс, 50%. Тогава изглежда убедителен след вероятността от изчезване:
• 15% - недружелюбен AI или AI елиминира борба на различни хора. Аз атрибут AI такава висока вероятност, защото AI притежава способността да намерите и засяга всички хора без изключение - в по-голяма степен, отколкото други фактори.
• 15% - системна криза, с множество биологични и ядрени оръжия.
• 14% - нещо неизвестно.
•% 1 - темпераментен глобалното затопляне и други възможности за природни бедствия, причинени от човешката дейност.
• 0,1% - природни бедствия,
• 0,9% - не успя физичните експерименти
• 1% - сива тиня - nanotehnologicheskaya бедствие
• 1% - атака чрез SETI
• 1% - ядрено оръжие sudnogo Ден
• 1% - други.
Останалите 50% са шансовете, че през XXI век, хората не vymrut. Те са видели, състоящ се от:
• 15% - Положителни технологични странност. Преходът към нов етап от еволюцията.
• 10% - негативни необичайност, в който хората оцеляват, но губят стойност. Опции: оцелелите в бункери, зоологическа градина, на безработни от телевизора. Мощността се прехвърля към AI и хост.
• 5% - Устойчиво развитие - човешката цивилизация се развива, без да скача в технологиите и без катастрофи. Той се предлага като най-добър традиционен futurology.
• 20% - Възстановяването на сцената postapoklipticheskogo света. Различни нива на деградация.
Сега разглежда евентуалното влияние върху стойностите на различни форми на теоремата за края на света. Формула Трябва да се вземат по отношение на броя на хората на Земята, не дава много големи шансове за изтребление на XXI век - в размер на десет процента, но значително ограничава възможностите на човечеството оцелее при следващото хилядолетие или по-дълъг.
Друг вариант мотиви, използвайки DA и формули Трябва да е рефлексивен приложение - и законността на такова използване е сериозно оспорена. А именно, ако формулата трябва да се прилага с моя ранг (т.е. броят на датата на присъединяването) в множеството на всички хора, които знаят формулата Трябва, или DA скоро ще бъдат напълно отричат всякакви шансове за оцеляване в XXI век са prizrachnymi. Това се дължи на факта, че един от най-екстремните и противоречиви решения на проблема с позоваване упражнения, които включват DA, е, че тя се прилага само за онези хора, които знаят за него - и решение на проблема с референтен клас предлагат дори самият пионерски DA Б. Картър, който първо съобщавана на прокурора по време на среща на Кралския дружество. Extremal на решението, че поради последната Много малко хора, които знаят DA (около десетки хиляди в момента), фактът, че аз разгледате сами толкова рано в множеството, заяви, според логиката на прокурора, тъй като ще бъде приблизително същия брой хора, които знаят за него. Тъй като броят на познания относно DA нелинейни непрекъснато нараства, след това няколко десетки години тя ще достигне милиони. Въпреки това, според логиката на прокурора, това е малко вероятно, след като открих себе си толкова рано в комплекта. Затова, каквото и се намесва в това, което много добре на прокурора да се постигне такава голяма величина. Това може или опровержение DA, или че просто няма да бъдат хора, които ще се интересуват от тях. Както много други опции за DA, тази опция може да бъде да се отхвърли, като подчерта, че аз не съм случаен наблюдател DA в случаен момент, а някои априори присъщите характеристики са довели до това, което ми се интересуват от различни хипотези неизпробван в ранните стадии на обсъждане.
Картър на мотивите, Лесли не директно оцени вероятността, и само отнема априори преценки. Въпреки това, приносът на тази промяна може да бъде толкова голямо, че дадена стойност на което по принцип за оценка на вероятността не е важно. Така например, Й. Лесли, следният пример за мотивите, Лесли Картър, в книгата си: априори вероятността от изчезване в близко бъдеще за 1%, а разликата между броя на човечеството, с «лош» и на «добри» сценарий хиляда пъти. Тогава тези априори 1% се обърна към него чрез формулата на Bayesian последващ 50%. Но, ако ние прилагаме същите предположения в нашия априори вероятността от 50%, а след това се възможността за прекратяване на функциите на 99,9%.
И накрая, третият вариант теореми края на света във формулировката Bostrom-Tegmarka адаптира себе си към по-малки естествени процеси, които не оказват значително влияние върху вероятността за природни бедствия в XXI век, както и ограничаване на степента на подценяване на честотата на картината, които все още дава възможност за понижаване на 0,1%. Най-лошото (но не задължително), A проява на наблюдението ще бъде считано за избор подценяване на вероятността от глобална ядрена война, която би намалил максимална честота на събитието от едно събитие всеки няколко десетилетия, докато едно събитие всеки няколко години. Всички същото горната граница - това не е много важна, така че тук не са толкова лоши. Така че, косвени начини за оценка на вероятността от глобална катастрофа, или потвърждаване на оценката на някои 50% в XXI век, или драстично увеличаване на 99% ¬ - но тези опции мотиви, в който тя рязко се увеличава, не са едно и също висок - 99% - степен на доказване. Следователно, ние можем да се обърнат към обобщената оценка «повече от 50%".
Много по-лесно да измислям сценариите на глобалната катастрофа, тъй като начините да се предотврати това. Това подсказва, че вероятността от глобална катастрофа е много висока. Междувременно, всички описани сценарии могат да бъдат реализирани в XXI век. Ник Bostrom оценява вероятността от глобална катастрофа като "не по-малко от 25%". Мартин Райс - с 30 на сто (за следващите 500 години). По мое субективно мнение, че е повече от 50%. В това отношение тя pogodovaya вероятността от повече от 1% и разраства. Пик на този ръст ще се появят през първата половина на XXI век. Поради това, много зависи от нас сега.
Все пак, за да предскаже конкретен сценарий, в момента не е реалистично, защото то зависи от много неизвестни и случайни фактори. Но нарастващият брой на публикациите по темата на глобални бедствия, съставени досиета за рисковете, след няколко години, тези идеи ще започнат да проникнат и правителствата на всички страни. Е, видяхме техния отбраната и разбират значението на нанотехнологиите възможността за създаване на «Грей слуз". Разбиране на сериозността на рисковете трябва да sploit всички хора по време на преходния период, така че те биха могли да се обединят в лицето на общите заплахи.
Анализ на риска глобален катаклизъм ни дава нова гледна точка върху историята. Сега ние можем да се оцени режими и политически фигури не от гледна точка на това, което те са правили добро за тяхната страна, но от гледна точка, което показва колко добре се предотврати глобалната катастрофа. От гледна точка на бъдещите жители XXAI век ще бъде важно не е начина, добри или лоши, ние живеем и как са се опитали да достигнат дори и в бъдещето.
Накрая, има смисъл да се говори за принципен катастрофата непредвидимостта на световното. Ние не знаем дали глобалната катастрофа, и ако е така, как и кога. Ако можехме да знаем това, «предварително podstelili едно". Изглежда, невежеството е невежество, което се всички на времето и причината за смъртта му (да не споменаваме, че ще бъде след смъртта), но лицето, което има най-малко една проба на други хора, които дават статистически модел, който и Какво е вероятно да се случи. И накрая, макар и хората не изглеждат особено обичам да мисля за смъртта, но от време на време, всеки си мисли за него и как тя взема под внимание в техните планове. Сценарии за една и съща човешка изчезване на практика избутано навън в полза на държавния бюджет в безсъзнание. Global катастрофа otgorozheny нас Pelenia като технически невежеството на нашето невежество за орбитата на недвижими asteroids и подобни на тях, както и психологически, свързани с нашата неспособност и нежелание да се предскажат и да анализирате. Нещо повече, глобалната катастрофа, разделени от нас и теоретични невежеството - ние не знаем, че тя е в състояние да изкуствен интелект и какви граници, а ние не знаем как да се използват различни версии на теореми за края на света, които предлагат различни възможности за оценка Време за оцеляването на човека .
Трябва да призная, че най-малко ниво на бедствието вече е станало: тъмнината envelops нас загадъчност засенчена ясен и разбираем свят предвидима миналото. Не и без причина, един от членовете на Ник Bostrom нарича: "Технологична революция: Етика и политика в тъмнината". Ние трябва да се съберат всички наши яснотата на ума да продължи пътя към бъдещето.

       

Част 2. Методология за анализ на глобалните рискове

Глава 1. Общи коментари. Грешка както интелектуално бедствие
Основната част от методологията за анализ представен откриване и отстраняване на евентуални грешки в дискусията по глобалните рискове или фактори, които водят до неточни оценки и после на грешен решения. Това е последвано от редица причини, препоръчителен характер за това как да анализира глобалните рискове.
Ние говорим за глобалните рискове са подложени на систематични грешки и отклонения, които влияят върху крайните изводи от тези обсъждания, и по този начин да ни сигурност. «Грешки» не е съвсем точна дума - на английски се нарича "когнитивни отклонения", който може да се преведе като "пристрастия" или "отклонения по време на дискусия", или кога да се използва точно психология термин, "когнитивни изкривявания". Когнитивна нарушенията са естествен особеност на човешкия ум, в които не съществува врява «виновни», който е от училище е свързано с разбирането ни за «грешки". Все пак е важно да се знае, че като познавателен изкривяване - физическо правата на собственост, създадено еволюционен път, всички са склонни към тях и може да ги намерите в неговото обсъждане. Основният начин за поправяне на когнитивни изкривявания - експеримента - не може да ни помогне в случай на глобалните рискове. Затова трябва да много по-отговорен подход към проблема errorfree мисля за тях. Важно е да запомните, че всички списъци на когнитивни изкривявания са предназначени да открият грешки в техните умове, отколкото да спечелят при спорове с други хора, тъй като във втория случай, тя само ще доведе до натрупване на грешки в своята система и затворени за нова информация.
Даже если вклад каждой из нескольких десятков возможных ошибок мал, вместе они могут отклонить вероятностную оценку того или иного сценария в разы и привести к неправильному приложению средств обеспечения безопасности. Не е трудно да се види ефектът от тези грешки - достатъчно, за да интервю няколко хора, които знаят, че същите факти, на човешката история, и искаме те да дадат силни прогноза за XXI век - и ще видите как окончателни заключения ще варира: Някои ще бъдат уверени, на неизбежността на изчерпване на петрола Други вярват в триумф на силата на вятъра, все още очакват глобална пандемия, някои ще отнеме възможността на ядрени оръжия огромни, други смятат, че тя е много малко вероятно. Автор глобален риск трябва да знам за тези клопки. Този раздел е опит да се изготви списък на тези грешки. Използването на работа на чуждестранни и руски изследователи, както и авторски права произведения. Основният текст на статия, Елиезер Yudkovskogo «Системните грешки в дискусията, потенциално засягат глобалната оценка на риска», посочени в колекцията «Рисковете от глобалната катастрофа". Този списък не замества член, който предвижда математически и психологически анализ на някои от когнитивните изкривявания тук. Въпреки това, много описания на грешки, са взети от други книги или открит от автора. Анализ на възможните грешки в дискусията по глобалните рискове е една стъпка към създаване на методология за работа с глобалния риск, и по този начин да се предотврати тях. Интересното е желанието на различни групи изследване на алтернативни сценарии за бъдещето, да се изготви списък на интелектуалната капани. Така например, наскоро една статия за "когнитивни отклонения", които засягат оценяването на теорията на «връх Hubert", който е изтощително петролни запаси.
Целта на тази работа - да се намали възможно най-когнитивни изкривявания в удобен и структурирано списък. Въпреки това, максималното внимание е отделено на пълнотата на списъка, а не доказателства за всеки отделен елемент.
Този списък не претендира за пълна, или, нито точността на класификация, а някои позиции могат да бъдат еднакви с другите, но каза, с други думи. Подробно обяснение на всяка една от възможните грешки в оценката на риска ще отнеме целия обем на статията. (Виж, например, моята статия «Природни бедствия и Антропогенна принцип", където в статията се обсъждат възможните причини за грешки в повече от 20 печатни страници.)
Все пак е важно да се помни, че грешките в дискусията, доколкото това е типично патологични самоуправление, както и да греши вериги от събития, които водят до реална бедствие. Това означава, че дори малки грешки, водещи до малко отклонение оценки са склонни да се ангажират един след друг, vzaimousilivayas, особено когато има положителни отзиви от тях.
Фалшиви заключение - този на интелектуална катастрофа. Не е трудно да се види пример за реални инциденти, като например повреден мотивите довели до пилотите на самолети бедствия, и дори да определи какви са грешките, направени в дискусиите. Можем да кажем, че почти всяка авария се случва поради човешка грешка. Тези грешки, подредени по хронологичен ред, както следва: след грешки в обсъждането на възможностите са грешки в проектирането, в «преди» обучение по пилотиране, в управлението на критични ситуации при преодоляването на последиците от аварията и анализ на нейните причини. Ние говорим за глобалните рискове са основно в рамките на първия етап, за да поговорим за възможностите и предварителна оценка на възможностите на различните рискове. Не е точка за изграждане на глобална стратегия за справяне с рисковете, пред идентифицираните приоритети. Съответно, в тази статия също включва грешки в първото място, на много ранен етап да се противопоставят на глобалните рискове. Въпреки това, те могат да покажат себе си и по-късно на сцената дизайн на механизми за защита и като конкретни действия. Въпреки това, текстът не се опитвайте да анализирате грешки в по-късните етапи на защита от глобална катастрофа, но цитиран няколко причини погрешни действия «оператори".
Друг въпрос е, когато такива грешки може да се случи. Някои от тези грешки се появят в процеса на дискусии в «мир", когато дружеството реши какво стои готов да рискувам. Други са напълно отразени в извънредни ситуации, където хората се виждат принудени бързо да се оцени риска и да вземат решения. Приблизително казано, предприети за акция на всички грешки на грешки «дизайн" и "пилотни". Грешки «Дизайн» извършени от големи групи от хора в продължение на много години, като пилотен грешка, извършени от един или малка група от хора в рамките на секунди или минути. Това може да е, общо казано, грешиш за глобална катастрофа, ако ситуацията ще се развива толкова бързо, че проектирането и управлението ще се развива в почти същия темп.
Там е и възможността, че някои описват грешките, които аз цитирам тук, може да бъде цел за моята недоразумение - че е твърде, да бъде наред. И няма съмнение, че този списък е изчерпателен. Ето защо, този списък трябва да се използва като ракетна площадка за критичен анализ на всяко глобално дискурс относно рисковете, а не като средство за повишаване на крайната диагноза.
В опасна илюзия е, че грешки в дискусията по глобалните рискове или малки, или лесно и obnaruzhimy прибира. Корените на тази илюзия в следните съображения: «След като самолетите летят, въпреки всички възможни грешки, и дори живота на Земята продължава, значението на тези малки грешки". Тази аналогия е невярно. Самолети летят, тъй като в хода на тяхното развитие, проектиране и тестване на хиляди счупени машини. И за всяка от инцидента бяха грешките на някой друг, че всеки път, когато разглеждат и като цяло не се случи. Ние не са хиляди планети, че ние може да се счупят за да видите как правилно да се справят с експлозивна комбинация от био "," Нано, ядрени и AI технологии. Ние не могат да използват факта, че Земята все още tsela за изводи за бъдещето (вж. моята статия «Природни бедствия и Антропогенна принцип"), защото те не могат да направят статистически заключения за един път. И, разбира се, особено след като бъдещето на технологията фундаментално променя живота на Земята. Така че ние се отрече обичайния начин за елиминиране на грешките - проверка. И все пак, тя е важна за всички нас в историята на човечеството е грешно. То може да е този, който има няколко когнитивни изкривявания и логически парадокси, които се случват само в обсъждането на глобалните рискове, и че ние все още не са намерени, но напълно се промени целият целия курс на мотиви. Също така, не искам да кажа, че всички учени признават всички грешки тук. Напротив, по-голямата част от тези грешки, вероятно ще очевиден за повечето изследователи - или да не изглежда правилно. Но има шанс, че някои грешки са пропуснати.
Терминът «когнитивни изкривявания» Искам да кажа тук е не само нарушение на логиката, но всеки интелигентен дизайн, които могат да повлияят на окончателните решения и да увеличат риска от глобалната катастрофа. Някои грешки, цитирани може да не доведе до сегашните обстоятелства, всяко въздействие, обаче, че е полезно да се има предвид.
Възможни грешки и когнитивни изкривявания са разделени в следните групи:
1. Грешки са възможни само на глобалните рискове поради своята специфичност.
2. Грешки са възможни и на оценка на риска по отношение на глобалните рискове.
3. Фактори, влияещи върху приемането на грешни решения, mgoguschie проявява в ситуации на глобалния риск.
4. Obschelogicheskie грешки, които биха могли да възникнат при обсъждането на глобалните рискове.
5. Специални грешки, които възникват в дискусиите относно опасността от неконтролираното развитие на изкуствения интелект (както и конкретни грешки в обсъждането на нано-, био-, и други технологии за пробив и опасни - включително ядрени технологии и астрономия.)

Глава 2. Грешки са възможни само при заплаха за съществуването на човечеството

1. Объркването около глобални катастрофи, а просто много голямо бедствие
Налице е тенденция да се обърка глобалната катастрофа, което води до изчезване на човечеството (известна на английски литературни, терминът «екзистенциални рискове") и всички други големи бедствия, които може да донесе огромни щети на изхвърлете цивилизация далеч назад и унищожи голяма част от човечеството. Мярката на глобални катастрофи е необратимо. В руски език, все още не е установен кратък срок за бедствие, което води до изчезване на човечеството. (Моисей ги повика civilizational рискове или катастрофи.) Наричам ги глобалната катастрофа. Налице е план-заем - екзистенциални рискове. (Повече за определянето на глобални катастрофи и тяхната специфика видите Ник Bostrom «заплахи за оцеляване. Сценарий за анализ на човешкото изтребление и други подобни опасности".) Разликата между двата вида бедствия - не в броя на убитите и тествани техните страдания, както и бъдещето на планетата след тях . Ако избягат поне едно племе от 100 души, след няколко хиляди години на Земята отново ще бъде в Щатите, градове и самолети, и мъртвите ще цивилизация в смисъл, възкресен в древните текстове. (От древните гърци ляво, според някои оценки, само 1 GB информация, и тяхното влияние върху културата е огромно.)
Пример за такива различия могат да бъдат катастрофа, в която изчезнал цялото човечество, и катастрофа, в която е изчезнал, всички, но някои хора, които след това да пресъздадете сред населението, тъй като Стария Завет Ной. От гледна точка на индивида, няма видима разлика между двете катастрофи. И в двете, той почти със сигурност ще умре, и всичко, което е ценно също убит. Но за човечеството като цяло е разликата в размер на разликата между живота и много тежко заболяване. Тази разлика е, че болестта може да бъде дълъг и болезнен, а след това довърши изцеление, и смъртта може да бъде лесно, миг, но непременно необратими.

2. Не е очевидно, рискът от подценяване
Глобални рискове са разделени на очевидни, а не очевидно. Не очевидни рискове в известен смисъл много по-опасно, поради техния обем е известно, тяхната вероятност, и във връзка с нищо не се прави. Някои рискове не е очевидно, известни само на тесен кръг специалисти, които са изразили диаметрално противоположните възгледи по оценка на реалността и вероятностите. Тези възгледи може да изглежда на външен наблюдател е еднакво валиден, принуждавайки го да избира между гледните точки на експерти, и въз основа на личните си предпочитания, или «да хвърлят монета". Но не и очевидни рискове, имат много реална заплаха и пред научната общност да реши окончателно своите възможности. Това води да обърнат внимание на тези области на знанието, по отношение на когото все още има много въпроси.
С разрастването на нашите познания за природата и влиянието на технологиите непрекъснато нарастващият брой на известни причините за възможните човешки изчезване. Освен това, този растеж се ускори. Затова е разумно да се очаква, че съществуват значителни рискове, на които ние знаем нищо. А-зле от тях на рисковете, които физически не могат да знаят, докато не sluchatsya.
Освен това, Очевидно риск е много по-лесно да се анализират. Налице е огромна сума на данни за демографията, военни способности и запаси от суровини, които могат да бъдат анализирани по-подробно и задълбочено. Този анализ може да скриват факта, че има и други рискове, на които имаме много малко е известно, и които не са подходящи за анализ в цифров вид, но и смъртоносен (например, проблеми с грешно програмиран AI).
Не е трудно да забележите, че по време на развитието на авария, като авиация, най-страшните последици от липсата на пилотите е точно това, което се случва (особено на грешки при оценяване на височината и тежестта на процеса). Точно обратното, когато такова разбиране е налице, на самолета е успял да спаси доста често невероятни условия. И докато ние последващ Причините за бедствието са очевидни, за много пилоти са били по това време не се ангажира очевидна.
3. Глобални рискове netozhdestvenny националната сигурност
Всяка страна харчи за национална сигурност повече пари, отколкото глобално. Въпреки това, глобални рискове са голяма заплаха за страната, отколкото национални - просто защото ако убият целия свят, страната с него. Тя често е тези действия, които да повишат сигурността на страната на този етап, намалява общата сигурност. Например, сигурността на страната увеличения - най-малко с оглед на неговото лидерство - когато тя се натрупва запаси от ядрени и биологични оръжия, но сигурността в света като резултат от надпревара във въоръжаването пада. Или, например, проблемът на Руската федерация е обезлюдяването, а за света - пренаселеност (както и за Москва). Друг пример: една американска фондация е осъществяването на проекта за превенция на глобалните рискове и терористични атаки срещу Америка. Но за нас е ясно, че първото и второ - не е едно и също нещо.
4. Грешка при проблеми, свързани psihologizatsiey
А поддръжник на стереотип съществува «края на света", преводач на апокалипсис - като бездомник общество, на отделния човек, се опитвам смешни изявления му да подобри своята социална значимост и да се компенсира, като по този начин, неговите недостатъци в областта на финансовите и личен живот. Независимо от истината, или лицемерие на тази интерпретация на психологическата мотивация на хората, то не влияе на степента на риска. Само точно изчисление може да се определи действителното тегло на риск. Психологически изследвания показват, че хората в състояние на депресия предостави по-точни прогнози на бъдещи събития, отколкото обикновените хора, ако не и за собствения им живот.
5. Идентификация на глобална катастрофа със смърт на всички хора, и обратното
Изтребление на човечеството не означава смърт на всички хора, и обратното. Лесно е да си сценарии, при които голяма част от човечеството умират на някои епидемии, но един избягат от острова за 200 години и възстановяване на човешкото население. Въпреки това, ако всички хора са болни мозъци вируса прехвърлена в състояние на съзерцателно блаженство, то би означавало края на цивилизацията, макар че огромното мнозинство от хората ще бъде, докато все още жив. Или ако - в някои фантастичен сценарий - чужденци спечеля Земята и хората космическа rasprodadut зоопарк. Нещо повече, всички живеещи в момента, хора, ако не е изобретил радикални средства, за да удължи живота, vymrut нагоре XXAI век, както сега е изчезнал хора, които са живели в XIX век. Но не виждам това като глобална катастрофа, тъй като запазена целостта на човешката раса. Това е глобална катастрофа, ще лишат нашето бъдеще.
6. Стереотип възприятие на катастрофи, създадени в резултат на медиите
Медии създава фалшив образ на глобална катастрофа в безсъзнание, може да окаже влияние върху оценката. Опитът smotreniya телевизионно отразяване на бедствия, е разработил стереотип, че краят на света, ние ще се показват на CNN. Все пак глобалната катастрофа ще засегне всички, и гледам покритие ще бъде там. Точно като шоуто.
В медиите редовно е била непропорционална покритие на рисковете. Така например, че е интересно да се сравни степента на увреждане от глобалното затопляне и птичи грип мутация в опасен вирус. Без това става в дебата, щях да кажа, че често се окаже, че реалните вреди непропорционална на своите покритие. Като хора, тенденцията за обучение в безсъзнание, и като цяло броят на обвиненията, които могат да вземат критично, е ограничено, тези идеи се създаде малко информация за всяко обсъждане на глобалните рискове (наравно с филми и научна фантастика).
7. Възможни грешки, свързани с факта, че глобалното catastrophe've никога не е бил с нас
А) Отхвърляне на сценарий като фантастика - но глобална катастрофа не може да бъде нищо друго освен «фантастично» събитието.
Б) за грешки, които могат да възникнат във връзка с neosoznavaniem факта, че няма събития не могат да бъдат идентифицирани като глобален катаклизъм, или предварително, или в процес - но само последващ. Може би никой няма да знае, че това е наистина глобална катастрофа. Бедствието ще бъдат глобални едва след смъртта на човека. (Все пак, сценарий за бавно изчезване хората могат да го разберат - или грешка в това отношение. Възможно пример за такъв сценарий е описан в романа Neydzhela Shyuta «На брега", където хората са бавно vymirayut от въздействието на радиоактивното заразяване.)
Б) Не логически операции «индукция» се говори за глобална катастрофа. Индукцията като логически метод е предположението, че ако някои твърдението е вярно, по време на 1,2, 3 ... N, че е вярно с N 1 (или всички N). Тя не разполага с абсолютна сигурност, логично, но дава добри резултати с много висока N и безпроблемното условия. Така например, всички физически закони са базирани на броя на крайните експерименти, това е, да доведе до индукция.
Индукцията като логически метод е приложимостта на границата. Тя не е в ситуация, когато бъдещето не е като миналото. С други думи, ние не можем, въз основа на това, че нещо не е винаги в миналото, казвайки, че това ще в бъдеще. Особено опасно за ползване индукция в дискусиите, като: време на катастрофата не е била в миналото, никога няма да бъде в бъдеще. (Но, индукция като логическа процедура се прилага за сигурност: За да се осигури безопасността на три периодично повтаряне на опасни събития - много значително, докато по отношение на доказване на модела - не.)
8. Когнитивни изкривявания, в това мислене по глобалните рискове, автоматично се включва прототип «спасител на мира»
В същото време се подценява опасността от конкуренция между различни групи от хора, защитаващи различни модели за спасяването на света. Накрая, всеки свят религията е спасението на цялото човечество, а останалата част, само пречат на нея. Така че борбата между Спасител на света могат да застраши живота на Земята. Можете да си спомня съветската ера анекдот: "Войната е не, но това ще е борбата за мир, че мирът камък на камък, да не остане".9. Underestimating глобален риск поради по-психологически механизми игнорират мисли за собствената си смърт
Хората не се тревожа за глобални рискове, защото те са толкова свикнали с неизбежност на своята смърт през следващото десетилетие и са се развили трайни психологически механизми за защита на тези мисли. Най-великият период на недвижими планиране (а не спекулативни фантазии) могат да се определят от дългосрочни инвестиции, недвижими хора. Актуален типичното отражение на това планиране се купуват домове в ипотеки, пенсионни спестявания и отглеждане на деца - крайният срок за тези проекти - 30 години, с редки изключения, но като цяло е по-малко от 20. Въпреки това, фактът, че такова планиране е действително ефективни, и хората, повечето от тях знаят, че животът е много по-непредсказуемо. Във всеки случай, всеки има събитие хоризонт, и какво се случва извън хоризонта за него е чисто спекулативен интерес - и защото повечето хора вярваха, че глобалните рискове, далеч от нас в продължение на много десетилетия.
10. Грешки, причинена от факта, че всеки, който се изследва глобалната катастрофа като цяло, да се разчита на мненията на експерти в различни области на познанието
Често установите, че има много мнения по всеки въпрос, който изглежда еднакво обосновано. Чехов пише: "Ако заболяването е поканен на много средства, то това е нелечимо". В резултат на това, изследовател на глобалните рискове, трябва да е експерт по право селекция и сравнение на експертни становища. Тъй като това не винаги е възможно, винаги има шанс да басейн неправилен подбор на експерти и неразбиране на резултатите.
11. Грешка, свързана с факта, че глобалните рискове като цяло, се плащат по-малко внимание, отколкото рисковете от катастрофа избрани сайтове
Глобални рискове трябва да бъдат оценявани по същия мащаб, рисковете от всички останали компоненти на цивилизацията сайтове. Например, няма смисъл относно вероятността от авария на самолет, едно на милион, ако всички цивилизация с много равнини, е по-малко надеждни.
12. Грешката е, че рискът е приемлив за един човек или проект се простира към всички човечеството
Идеи от този вид: "човечеството е шанс за една стотна процента за новите извънредни резултати» са недостатъци, тъй като и двете могат да говорят в същото време много изследователи и дизайнери, всяка с overstates безопасността на своя проект, тази сума може да бъде много висока риск.
13. Липсата на ясна представа за когото се обърна посочване на глобалните рискове
Да отидат на гражданите, които все още не мога да направя нищо за гражданската отговорност на учените, наличието на които все още трябва да докаже на правителствата на основните световни сили или на ООН, взети сами по себе си, или да комисионни и фонда конкретно насочени към предотвратяването на глобалното риск -- чиято способност за въздействие върху ситуацията е неизвестен. Разочароващи и липсата на системна отчетност за всички рискове - които всички ще са съгласни.
14. В особеност на теоретични и практически контекста на глобалните рискове
Издаването на глобалния риск е теоретичен, тъй като тези събития са все още не се е случило. И ние не искат да проверят всяка възможност по опитен път. Освен това, ние не можем да направим това, защото ние, учените не perezhivem глобалната катастрофа. Все пак, ние трябва да предприемат конкретни мерки, за да се гарантира, че това не се случи. При това, бихме могли да видим положителен резултат: а именно, че рискът не се случи, но е трудно да се установят причините, поради които това не се случи. Това е невъзможно да се каже защо не се наблюдава термоядрената война - защото това бе невъзможно, или защото сме невероятно щастливи, или е резултат от борбата за мир.
15. Погрешното поведение, свързани с преобладаващи еволюционни характеристики на човешкото поведение
Стратегията на личните оцеляване, inculcated в нас, в хода на еволюцията, предполага правило: всеки, който се голям риск, той улавя голяма площ, получава голяма власт в stae става алфа мъжки и, в крайна сметка, листата, може би по-поколението. Тези видове, които са готови да жертва хиляди от техните животни, изпраща ги в всяка възможна страна, достигнали най-малко един индивид ще получите нова земя. Очевидно е, че тази стратегия е смъртоносно за човечеството като цяло. Дори и ако човечеството е да рискувам с 1 на сто годишно, което означава почти гарантирана изчезване през вековете. Въпреки това, някои страни са рискували живота си неколкократно, като взема участие в опасни конфликти.
16. Погрешно схващане, че глобалните рискове, там е нещо далечно и не са свързани с близкото бъдеще
В действителност, вероятността да умре в глобална катастрофа за младия човек в сегашния исторически обстоятелства, може би по-високи от други причини от личен или група на смъртта. Много глобални рискови фактори вече са узрели, докато други могат да бъдат по-зрели, отколкото ние знаем за тази (Advanced био-и AI-проучване).
17. Legkomyslennoe, свързани с глобалните рискове, свързани с представяне на моментална смърт
Това произтича от погрешното схващане, че в случай на глобална катастрофа смъртните случаи е задължително да бъдат лесно и безболезнено, като изключихме светлина. Но в действителност, точно обратното, тя може да бъде болезнено и морално (осъзнаване на неговата вина и противоречие с смъртта на обичал такива), и физически. Например, един дълъг, но неизбежен изчезване на радиоактивно заразяване.
18. Схващането, че книги и статии по глобалните рискове биха могли значително да се променят ситуацията
Дори когато членовете на бордове на фирми, получаващи критично опасни решения са направени против - те не искаха. (Преди бедствието Chellendzhera беше човекът, който се противопоставя на старта, знаейки своята опасности.) Има вече не се очакват, че те ще слушате, или поне ще се четат декларации за онези, които се намират извън страната. (Тя може да бъде уместно да се припомни, тук законът Мърфи: "Каквото и да става, винаги ще има хора, които ще кажат, че той е бил наясно, че това ще се случи».)
19. Погрешно вярват, че глобалните рискове са неизбежни, или зависи от случайни, извън човешкия фактор, или зависи от далечни владетели, чието влияние не може да бъде
Напротив, движението на някои идеи в обществото, а именно, че глобалните рискове са възможни и трябва да направи усилие за предотвратяване на тях, можете да създадете фон, които косвено засягат всяко решение за вземане на механизмите. Нещо повече, сега идват в близост до мястото, където рисковете, зависи от нашите конкретни решения и действия.
20. Гордост изследовател
Класове анализ на глобалните рискове, може да причини лицето чувството, че тя прави най-важно дело във вселената, и така е sverhtsennoy личност. Това може да доведе в някои случаи да се гарантира, че ще бъде по-глухи към новите входящата информация. Околните хора лесно ще прочете това състояние на отделния изследовател, който би компромис предмета, който той прави. Също така, че не трябва да забравяме Паркинсон закон, че всеки се стреми да постигне нивото на тяхната некомпетентност. Глобално равнище е най-високата за всички области на знанието. Защита от това - е глобален риск неутрални, както и за дисекция на жаби.
21. Интуиция като източник на грешки в мисленето за глобалните рискове
Тъй като рисковете, свързани с глобалните събития, които никога не се наблюдава, те kontrintuitivny. Интуиция могат да бъдат полезни за раждане на нови хипотези, но не и като начин за преференции и доказателства. Вяра, по силата на своята интуиция по-благоприятни за ослепителен блясък неговите откровения. В допълнение, интуиция, като проява на загуба на съзнание, могат да бъдат под влиянието на neosoznavaemyh пристрастия, например, латентни нежеланието да видите разрушения и загуби - или обратното, има нужда да ги види, когато те не съществуват.
22. Научните изследвания на глобалните рискове, също изправен пред редица предизвикателства
Експериментът не е начин за установяване на истината за глобалните рискове, тъй като тест пилот - това е точно това, което искаме да избегнем. С оглед на невъзможността на експеримента не могат да бъдат обективно оценявани като грешка, засегнати оценката на глобалните рискове. Не може да има статистика за глобалните рискове. Основната концепция на "оборима» също така без значение на теорията на глобалните рискове.
23. Грешките, свързани с не-малко известни логично следствие е глобален риск
Само в случай на глобалните рискове, започне такава парадоксална логика логично, тъй като «теоремата на края на света» (Аргументът съд), както и мониторинг на ефекта от развъждане, но повечето хора не са известни, но значителна част от техните учени отхвърлят.
24. Методи за управление на икономически и други рискове, не са приложими към глобалните рискове
Те не могат да бъдат застраховани, са невъзможни да поставите залог: Никой и нищо не ще бъде изплатена, ако застрахователното събитие. И дори най-малката вероятност от тях неприемливо. Поради това, съществува също така и да плащат обучението си. Ако тези проучвания са проведени в рамките на една страна или култура, те могат да изпитват преминава от въпросите на човешкото оцеляване на въпросите на националната сигурност за Общността.
25. Трудности при определянето на глобалния риск във връзка с обекта неясни
Неопределеност се отнася както за начина за провеждане на границата на човечеството, и че тя се счита за «необратимо увреждане на неговото изграждане". «Гранична проблем» отношение на маймуни, примати, неродени деца, komatoznikov, престъпниците neandertaltsev, разумни изкуствен интелект и други възможни екстремни случаи. Важно е да запомните историческата изменчивост на тези граници - дори и след няколко сто години dikarya или служител не се счита за лице, дори и образовани хора, но сега вярвам, че китове и делфини като разумни същества. Беше изтребване neandertaltsev от тяхната гледна точка, на загубата на човечеството? Трябва ли, че е заменил разумни роботи? Не е ли по-добре да умра в враждебна zombirovaniya насилие религията? Не е дори в рамките на тези въпроси, както и че действията им, зависи от човешкия произвол, който води до факта, че една група от хора ще вземат «глобалната катастрофа», че други ще бъдат добре дошли. Това създава потенциална възможност за опасно противопоставяне.
2,26 погрешно схващане, че глобалните рискове, заплашват хората, също както хората в капана на Земята, и преселване в космоса автоматично отстраняване на проблема
Но мащабът на сила и енергия, които придобиват хората на Земята, се разраства по-бързо от темпа на разширяване пространството. Приблизително казано, това означава, че когато хората zaselyat слънчевата система, те ще са в състояние да унищожи оръжията си многократно. Ако една глобална катастрофа, ще бъдат придружавани от въоръжена борба в някакъв етап, че е лесно да станат обект на космически селища. Само премахването на кораб за скоростта, с която е невъзможно да наваксат, можете да очаквате да спаси бегълци. Все пак, ако кризата се корени в самата човешка природа, полетът е безполезна - Хората ще създаде опасни оръжия и кораби, както и космически колонии. И накрая, информация зараза, като например компютърни вируси и атаки AI, могат да се изпращат при скоростта на светлината.
27. Психологическа характеристика на човешкото възприятие на риска, наречен «презрение скалата»
Да спасим живота на едно дете милиона или сто милиарда милиарда повдига почти същия мотив сила, включително и тези, изрази желание да харчите пари. В резултат на това, по-голямата част от парите и комфорта, изразходвани за проекти, които защитават по-ниската част на живота.
28. Преувеличение прогностична стойност екстраполация
Потенциалът на погрешимостта надежда, че «кривата (напр. график за растеж) vyvezet". За някои хора, е религията на Мур правото да удвои броят на транзистори в процесорите на всеки две години. Уви, целият опит futurology заяви, че екстраполация криви годни само за краткосрочни прогнози. Още прилага futurology, което е борсови анализатори narabotan огромна машина анализ на поведението на криви, която често се поддавам на линейна екстраполация, както ако тези криви са независими живите организми. В частност, разбирането, че бързото развитие на кривата може да означава възможност за проследяване тенденцията завой, "отскок" или "Свещ". Въпреки това, дори и борсови анализатори криви не дава точни резултати, без «мазето» - анализ на реалната икономика. Особено от ефектите на обратната връзка между себе си и прогнози на бъдещи събития. Броят на грешки в futurology, на базата на екстраполация криви, е огромен. Започва с факта, че нивото на оборски тор в Лондон ще направи невъзможно придвижването в града, и до прогнозите за развитието на Марс в края на ХХ век в зората на пространството успех. По отношение на глобалните рискове има определени очаквания, че развитието на технологията сама ще ни отведе в «Златен век», когато глобалните рискове няма. Всъщност, има бъдеще се надява, че технологията на изкуствен интелект ще бъде основната много по-бързи и ефективни решения. Все пак, ако технологичния прогрес stalled, глобални рискове, няма да изчезне. 29. Погрешно схващане, че хората изобщо не искат да блокира и края на света
AP Nazaretian описва основните потребности на хората по-силни емоции и екстремни усещания, които ги насърчава да им нарушава скоростта профилите на машини, водите войни, като любовници, по-къси, намерете приключение. И не трябва да подценява скука. (Типичен пример за това - че биха могли да ограничат броя на пътнотранспортните произшествия чрез налагане на ограничения на скоростта физически машини така 50 км в час, но повечето шофьори няма да се споразумеят за това.) С оглед на това, хората винаги са «рационализира» тези ирационални техните потребности, обясняващи мнение реални причини.
30. Smutnost схващания за това какво е «вредни фактори» в различни сценарии на глобалните рискове
От детството, научих от вредните фактори на ядрени оръжия, са значително се различава от факторите на решението по молбата му - и всичко това разликата е очевидна. В областта на глобалните рискове supervirusy и AI в списъка, разделени със запетаи. Но вирус убива директно и AI сам не може да причини вреда - той може да управлява различни видове оръжия.
ПРИМЕР: ситуация, когато лицето, починал през войната, и ситуацията, когато той бе застрелян. Тези две групи се припокриват само частично. Ако лицето почина през войната, което означава много възможни причини за смъртта му, и не само, че той е бил застрелян. И обратно, ако човек починал от огнестрелни оръжия, това не означава, че той почина през войната: тя може да бъде и битови разпра, и самоубийство и злополука лов. Разбира се, на войната и изстрел - принадлежат към две различни класове на причините за смърт опасни ситуации и непосредствени причини. Въпреки това, глобален риск, че разделението провеждат по-неясно, и се фокусира предимно върху първичната причини, а не да възникнат ситуации.
31. «Шок бъдещето": Когнитивна които произтичат от различните възможни бъдещи хоризонти в представянето на различни хора
Идентифицира пет нива «Shoka бъдеще". Понятието пуснати futurologists Д. Тофлър. Тези нива се описват реални граници не е възможно, че ние все още не са известни, но психологически граници на възприемане, различен за различните хора. Всяко ниво на възможни бъдещи съвместими с техните глобални рискове - и как да се изправи срещу тях. Въпреки това, всички тези опции за бъдещето включват техните поддръжници на XXI век. Онези, които са напреднали много далеч в оценката на бъдещи шокове, може да подценяват традиционните опасност. Има бъдеще шокове следната класификация:
Шок 0-ти ниво - на нивото на конвенционални технологии, използвани днес в дома. (Нива на катастрофа: ядрената война, изчерпването на ресурсите.)
Шок 1-во ниво - на нивото на технология, предлагаща по-напредналите компютърни списания и изложби. (Биологично оръжие, както и използването на военни роботи.)
Шок 2-на ниво - технология, описани в класическата фантастика средата на двадесети век. (Отхвърляне на asteroids в земната инвазията на чужденци)
Шок 3то ниво - sverhtehnologAI, който се яви на хоризонта в края на двадесети век: нанотехнологиите (умен прах), AI, същият човек даунлоуд съзнанието в компютър, завърши преструктурирането на човешкото тяло. (Катастрофи: сива тиня, свръхчовешки AI, преработване всички земното вещество в роботи, supervirusy изменение на поведението на човека)
Шок 4-то ниво - понятието «singularities» - една хипотетична момент в бъдещето, свързани с нескончаем ускорение на човешкия напредък, един вид качествени промени, както и промяна на модела за развитие (риск: непредсказуеми). Виж глава «технологични необичайност» повече.
Рискът от грешки, свързани с шок от бъдещето, е, че всеки, моделиране на бъдещето, има различен хоризонт на възможното и невъзможно, определено си психологически комфорт, а не точни знания. В по-старите човек, трудно го приеме нов. Точно обратното, тя е възможна и ситуацията «ослепителен бъдеще", когато заплахата от невероятна катастрофа zatmyat в очите на обикновените хора рискове. При това, рисковете от тяхната глобална катастрофа са на всяко ниво.
В катастрофа на ядрената война по-интуитивно, отколкото psevdodruzhestvenny AI.
32. Схващането, че глобалната катастрофа ще бъде причинена от някой предизвика
Обикновено хората мислят за глобалните катастрофи, както единствен масово измиране, причинено от вирус или, или падане астероид или ядрена война. Но съществуват начини за самоконтрол опасни възможности, които представляват системен ефект. Така например, системата отслабена едно събитие може лесно да се хвърли върху други. Или, например, две бавно текущата заболявания свързани, може да предизвика бързо - като СПИН и туберкулоза в хора. Различни сценарии за конвергенция, например, нанотехнологиите улесни създаването на ядрени бомби, AI ще подпомогне създаването на нанотехнологиите, както и нанотехнологиите, вие ще знаете тайните на мозъка, които правят създаването AI. Сближаване на риска върви ръка за ръка с конвергенцията на основни технологии, наречена NBIC (нано-био-инфо-cogno), че е, нанотехнологии, биотехнологии, системи с изкуствен интелект и науката на ума и мозъка.
33. Underestimating системата на глобалния риск
Системните фактори - не са изолирани събития, като внезапна поява на supervirusa и някои свойства, които включват цялата система. Така например, противоречие между характера на съвременната цивилизация, основана на непрекъсната експанзия, и със сигурност всички ресурси. Това противоречие не е локализиран в която и да е място, а не чрез един определен ресурс или организация. Агенция за недвижими самостоятелно криза, която по всяко време да се заеме с нарастващия брой на членовете на Общността, но не зависи от поведението на всеки от тях и нямат център.
34. Тип повикване: "Ние трябва да воюва за мир»
Ако твърде много хора и организации ще множество некоординирани усилия в борбата за спасение на планетата, най-добрият, на ситуация, описана от известния израз «лебед, рак и щука".
35. Underestimating предварително събития като елементи на напредък глобална катастрофа
Ако в резултат на някои събития от вероятността за глобална катастрофа се е увеличил (с други думи, увеличава уязвимостта на човечеството към катастрофа), от самото събитие, може да се счита като част от глобална катастрофа. Например, ако една ядрена война оцелеят определени групи от хора, те - малки и лишен от технология - са много по-уязвими от всякакви други рискови фактори. Това повишава значението на тези фактори, които са обикновено по-нататък «глобално рискове". Така например падането на астероид, размера на Apofis (Apophis 99942, Земя flyby през 2029, диаметър около 400 метра) сам не може да унищожи човечеството, както и за атентата е само малко 800 megatonnes, което е сравнимо с експлозията на вулкана Санторини в Древна Гърция Разрушат остров Крит, а само 4 пъти по-силен от експлозията на вулкана Krakatau през 1883, оценен на 200 megatons на TNT еквивалент. Въпреки това, тъй като connectedness на съвременната цивилизация се е увеличил значително нараства и ролята на дистанционно - икономически и структурни ефекти - в различни катастрофи. Огромна вълна цунами капка Apofisa може да доведе до спиране на търговията с Пасифика и глобалната икономическа криза може да смени на военните - с ръст от необратими ефекти.
36. Когнитивна нарушенията, основани на идеята: "Това е твърде лошо, за да е истина»
Лицето е душевно, характерни за да се защитят от най-негативните сценарии, прехвърлянето им по-малко вероятно и дори отказва да мисли за тях. Например, не е трудно да си представя кола счупи, но е трудно за бъдещето останки от колата му. С други думи, вместо да се избягват определени събития, човек избягва да мисля за това събитие. То е ясно, че глобалната катастрофа, унищожават всичко, което ние ценим най-съвместими с «твърде лошо". А глобалната катастрофа по-лошо от смъртта, защото те включват я в сърцето си.
37. Когнитивна нарушенията, основани на идеята: "Това е твърде невероятно, за да е истина»
Имаме много исторически примери за това как нещо, което беше «невероятно", изведнъж стана възможно, а после нещо обичайно (самолети, атомни бомби, Интернет). Нещо повече, тя става смъртоносна. Трябва да се разделят на "невероятен" на физически невъзможно, но дори и на последния в бъдеще той може да бъде възможно.
38. Идеи за забавянето на създаването и разпространението на нови технологии, като начин да се противопоставят на глобалните рискове
Тази идея изглежда привлекателна, както обеща видими резултати в кратък срок, определен район. Но всяка група, която популяризира идеята, евентуално, ще загубим друга група, която тайно или явно продължава да се развива опасна, но ефективна технология.
39. схващането, че човешкото адаптивност е висока и продължава да расте безкрайно поради новите технологии
Това е вярно, но опасността е, че средствата за унищожаване на разположение на хората, които се подобри бързо, отколкото удовлетворение.
40. Неизпълнението на системата за самия модел
Докато ние не можем да изследват глобалното катастрофа експериментално, можем да очакваме, че благодарение на успеха на компютърни симулации, можем да получите някои модели в виртуалното пространство. Въпреки това, възможността за ограничен брой обстоятелства. Първо, ние все още не вземат под внимание неизвестни фактори - например местоположението на опасните comets или особени физически закони. Второ, такъв модел не може да бъде пълна, тъй като не включва симулации на това, което ние сме извършване на акт на моделиране. В противен случай, като безкрайно голям модел, както в случая на две огледала, които отразяват взаимно. Това е резултат от математически принципи: мнозина не могат да съдържат, в зависимост от самия елемент. Това е едно нещо - прогнозиране на бъдещето, а другият - прогноза на въздействието, което щеше да даде прогноза. Само модел с някои ogrubleniem може да бъде изчислена. Ако се разглежда бъдещото поведение на система с изкуствен интелект, тя не работи като модел трябва да съдържа и AI. И трето, нашите данни за света на моделиране и принципи трябва да бъдат абсолютно точни, който също е трудно да се достигне. Ние не можем да избера най-подходящия модел, а не експерименти. За да се предвиди възможността на глобалното затопляне, ние се нуждаем от правилния модел. За да разберете какъв е правилен модел, ние се нуждаем от експеримента. И този експеримент ще бъде надеждно само ако се появи в хода на глобалното затопляне, тъй като в противен случай само ще интерпретация, тогава е друг модел. 41. Неспазването да представи своята собствена смърт на човека
На неспособността на хората да представят своите собствени смърт води до подценяване на ситуациите, когато това може да се случи, защото ситуацията, самите Nonrepresentability - или представена само от гледна точка на външни наблюдатели, които оцеляха. Човекът не можеше да предвиди «нищо», който ще бъде в съответствие с атеистични концепции, след смъртта. Това overlapped нежеланието да приеме свои собствени смъртност. Поради това е по-лесно да предоставят глобална катастрофа по отношение на оцелял, като по този начин, което не глобални.
42. Подходът към живот в духа: "След като ние от наводнения»
В този модел на мислене на очакваните обезщетения, които трябва да бъдат получени в рамките на кратък период от време в бъдеще. Най-ясния пример е ситуацията, описана в поговорка, която ограничава полезността на съвпада с очакваната продължителност на живота. Но често, че е дори по-нисък от нея! Например, за да avtogonschika или наркоман, всички очакват стойността, която ще се получи тази вечер, и какво ще се случи напред - тя не е от значение. Имате нормалните хора очакват комунални услуги се простира на деца и внуци, което е заложено еволюционни, но prapraprapravnukov тя не се прилага. Следователно, налице е психологически хоризонт стойност, следвана от развитието на човека не се притеснявам за - най-малко, така че той е готов да извърши за тях, че всички отпадъци. Разбира се, това е оправдано от факта, че «те са там с всички razberutsya".
Нещо повече, идеята, че «нито веднъж не умра, но ще умре с мен цялото човечество» може да бъде по-привлекателна, отколкото идеята, че «да умра, докато други ще се насладите на живота". Част от СПИН пациенти, защо някои се опитва умишлено да зарази колкото е възможно повече хора.
43. Всяко етична позиция, че не се отнася до оцеляването на човешките същества като първостепенна цел по-важно от всеки друг гол
Тази позиция означава, че можете да риск оцеляването на човечеството по някаква друга цел. Ник Bostrom определи, че позицията чрез принципа на Maksipoka: "Увеличаване на вероятността на положителен изход, когато« положителен резултат »- каквато и да е резултатът, който не е смъртоносен глобалната катастрофа".
44. Религиозния свят видите и eschatological култове
Глобално изследване на риска предотвратени, че тази територия от векове запазена за религията. Следователно, всички дискусии на дисциплината струйка участъци, които не. Основната разлика eschatological култове - концентрацията на датата на събитията - и на "откровение" или пророчество като начин за откриване на него. (В духа на разпределени вярва, че Мая календар, и света с него, която приключва през 2012 г..) Тези култове често са социално деструктивни, насърчаване на хората да изоставят живота в «обречени» обществото, и поради това предизвика враждебност в обществото. (През 2007 г., привлече вниманието на медиите група sectarians, затворен в една пещера в очакване на края на света в Пенза регион.) Противно на научен анализ «датата на края на света» не е от съществено важна вероятността и риска механизми.
45. Несигурността на нови термини
Описване на заплахата от глобална катастрофа, ние използваме термина, чието значение все още не е ясна интерпретация, дори и само заради това, което те описват още не са възникнали събития и утвърдени технологии. Споделяне на някои от термините увеличава «игра» избори и води до недоразумение. Ако знаех, че на "изкуствен интелект", ние ще трябва да създадете. Това създава несигурност в основен смисъл на термина, преди AI ще бъде създадена.
Глава 3. Както когнитивните изкривявания, които могат да представляват никакъв риск, влияят върху оценката на глобалните рискове

1. Основната причина за човешка грешка е sverhuverennost
Sverhuverennost означава повишаване на доверието във верността на неговите картини светове, и неговата неспособност да се променят значително, когато нова информация. С други думи, sverhuverennost означава провал на човек, който да се предположи, че той е в момента грешки. Следователно, в известен смисъл sverhuverennost се отнася до грешки по отношение на естеството на грешките. Sverhuverennost закотвени от няколко психологически механизми, и вероятно трябваше еволюционна значимост. Затова го намерите в себе си и това е много трудно да се изкорени. Човекът, показващ голямо доверие, може да поиска повече власт в обществото. И, може би, устройството на човешкото мислене е в противоречие с идеята за многото бъдещи equiprobable: повече свикнали да мислят, че нещо или ядете, или не. Думата «бъдеще», използвани в единствено число, тъй като ако тя е една. Накрая, след като избор в тълкуването на една става филтър, че избира информация, така че тя потвърди идеята.
2. Прекалено внимание на бавно развиващ се процес и подценяване на Бърза
В бавен процес лесно да се анализира, и те натрупани повече данни. Въпреки това, системата лесно да се адаптират към промените бавно и често умират от бързо. Холокоста опасни ugasaniya. То е бавно изчезване прави системата уязвима за бързото бедствие. Развитието на нови технологии - нано, "био", AI, когнитивна наука - е бърз процес. Техните бързото развитие overshadows всички процеси, които ще покажат себе си след 2030. Все пак, това не означава, че ние не трябва да се откажем от анализа на светски забави промяната.
3. Възраст особено що се отнася до възприемането на глобалните рискове
Млади хора, с тенденция да подценяват глобалния риск, защото те са по-биологично предназначени да завладее нови пространства, а не върху сигурността. По-възрастните хора са склонни да придават достатъчно значение за сигурността, но е трудно да се приеме възможността за нова технология.
4. Дебатът не се роди истината за глобалните рискове
Обсъждане между хората обикновено води до поляризация на мненията. Човекът, който беше в началото на две хипотези, принадлежат на равна вероятност за намаляване на позицията си на една хипотеза, обратната хипотеза противник. По този начин тя намалява тяхното разбиране на възможното бъдеще. За повече информация вижте статията Yudkovski за оценка на риска.
5. Умения спорове вредни
Както казах в предговора, Yudkovski подчертава, че уменията на спорове вредни, тъй като тя позволява peresporit всеки противник, не е в vnikaya по същество на неговата позиция. Особено опасно да се използват всички в списъка на когнитивните изкривявания, за да обвини опонента си. Това може да доведе до интелектуалната слепота.
6. Смърт Пожелайте
Фройд предложи Tanatose, желание за смърт, която е на всички. Подобни идеи са били изразени от други учени. Това желание май несъзнателно влияние на човека от принуждавайки го да надценяват или подценяват рисковете, или се стремят за тях. Приема се, че всеки, който отхвърля идеята на живот 1000 година, е желанието за смърт. Това може несъзнателно бутате права да избере стратегии, които водят до глобални рискове.
7. Консервативни мислене, естествената селекция от най-устойчиви на Outlook
Гл Doukins, автор на книгата «егоист ген", смята всяка идея циркулира в обществото като репликатор състояние с различна скорост samorasprostraneniya и призовава такива предмети memam (meme). За да се предпазите тях, съвестта на човечеството е принудено да разработи уникална «имунната система", един от най-ефективните варианти, които е системата «Изхвърлете всички нови". Историята е прилично, че както е очевидно полезни нови идеи бяха отхвърлени, без явна причина за продължителен период от време. Така например, предложението за използване на азотен оксид за упойка при операция в края на XVAII век до началото на недвижими използване в 1840 почти 50 години, същото правило важи и за да си мият ръцете преди операциите. Но в тази възраст на промяната трябва да бъде много гъвкава и свободната мисъл за настаняване и взема на сериозно всички възможности за глобални рискове.
8. Откриването на грешки в мотивите за възможността на специално бедствие не е начин за засилване на сигурността
Има два вида мотиви - доказателство за системата за сигурност и доказателства за неговата опасност. Тези съображения неравномерно логично - в първия случай от всички възможни случаи, докато последният - най-малко един път. За да обори универсалната одобрение, просто counterexamples. Но отхвърлянето counterexamples едва ли не добавя валидност на общото одобрение.
Например: да се докаже, че опасността на някои въздухоплавателни средства, достатъчно да се посочи, че в някои експерименти, позлатяване материал показва склонност да се осъществи «умора". Въпреки това, за да докаже безопасността на самолетите, не е достатъчен, за да открие некоректна в тези експерименти за измерване на умора. Вместо това, тя трябва да докаже, че избраният материал е наистина издържи този вид товари.
С други думи, ако изпратя на всички интелектуални усилия, за да опровергае различните катастрофални сценарии не са еднакво внимание разплащателните им способности и грешки в системата за сигурност - общата безопасност на спад. Всички правила трябва да бъдат приложени за търсене на грешки в мотивите на този вид не е катастрофа - Тогава той допринася за сигурността. Проектът на сложни технически системи там е винаги в "техническа обосновка на безопасността", който описва «максимална проектна авария" и начини да се локализират. Истинското доказателство за безопасност е строго доказателство, че нещо не може да се случи при никакви обстоятелства, плюс - практическия опит на устройството по всички възможни начини за дълго време.
От гледна точка на науката, ние трябва да докаже съществуването на съоръжението, но по отношение на сигурността ¬ ¬ - за да докаже, че нещо не съществува. Митото на доказване лежи върху безопасността на въздухоплавателни средства, строител, а не на пътници. Следователно, изискването за разработчици на външни експерти: «докаже, че рискът е истина» - е вредно за общата сигурност.
9. Нито една от областите на научните изследвания в нови технологии не може да гарантира своята сигурност от само себе си
Тъй като всяка система има тенденция за самостоятелно, а говорим за опасностите, на новите технологии може да доведе до закриването на нови проекти. За пример, сайтът «Търговска Биотехнологии» jammed главно предмети, които противоречат на заплаха от биотероризъм, въпреки че по-късно той самият се отпечата да обори тях. Или същото в случай на реакторите. Поддръжниците на ядрени централи ще похарчи усилията им не бяха търсене на уязвимост в сигурността станции, както и споровете с околната среда и се опитва да докаже, че съществуващата структура е в безопасност - тя може да достигне опитва да затвори опоненти.
10. Погрешно схващане, че когато има проблем nazreet, тогава той може да започне да се подготвят
Най-сериозен проблем възниква. Колкото по-сериозен проблем, толкова по-голям си на енергия и - вероятно - бързото темпо на неговото развитие. И то здраво по-късно. В глобален катаклизъм - са мощни предизвикателства. Следователно, те могат да растат прекалено бързо за да имам време да се подготвят за тях в този процес. Освен това, че нямаме опит, който ще определи прекурсори на глобална катастрофа предварително. Така например, аварии развият внезапно.
11. Специфичните рискове са възприемани като по-опасно, отколкото е описано в общите условия
Например, "бунт на ядрената подводница" изглежда по-смущаваща от "големите морски бедствия." Yudkovski пише: «От гледна точка на теория на вероятностите, добавяйки повече подробности за историята го прави по-малко вероятно ... но от гледна точка на човешката психология добавянето на всеки нов детайл прави историята още по-надеждна".12. Схващането, че обмислянето на глобалните рискове - песимистичен
Това означаваше, че хората да мисля за «края на света", осъди - и по този начин отрече от своите идеи. Но по минно поле трябва да се реализират: за да танцувам на него с очите си затворени - това не е оптимистичен.
13. «Конспиративните теории» като пречка за научен анализ на глобалните рискове
Циркулира в обществото разнообразна «теории» (като нов хронология Фоменко) nabili oskominu. Нещо повече, повечето ако не всички от тях, лъжливо, и техния прогнози почти никога не се сбъдна. Често «теории» също прогнозират някои рискове. Но те са структурно различен от научния анализ на риска. Конспиративните теории обикновено се твърди, че заплашва човечеството е само един риск и този риск е специфично за даден момент във времето: например, "долар колапс през есента на 2007 г.". Обикновено авторът също знае рецептата, както и риска от бой. Докато правилното да се каже, че човечеството заплашва Каскада реакция на редица рискове, и не знам кога това ще се случи.
Каква е още по-лошо, отколкото ние предсказваме бъдещето, така че е опасно. Основната опасност от бъдещето - неговата непредвидимост. «Конспиративните теории» вредни за прогнозиране на бъдещето, поради намалената набор от бъдещите възможности. При това, те предполагат, sverhuverennost в техните предсказуем способности. Една добра прогноза за бъдещето не прогнозират конкретни факти, и описва пространството на възможните сценарии. И въз основа на това знание може да бъде фокусна точка за това пространство, както и опазването им.
Нещо повече, тези "прогноза" подкопава доверието на добрите идеи извършени, например, че една голяма терористична атака може да отслаби долара и доведат до верижна реакция катастрофата. И че Бин Ладен е също така разбират, и това може да разчитат на това. «Конспиративните теории» непременно предполага, че са налице някои те са с нас, за да направиш нещо, маската и т.н. Това подкопава от усещането за своята отговорност за това, което се случва в света, и последно, но не и по важност, отхвърля ролята на randomness като важен фактор при катастрофа процес. В допълнение, "Теория на конспирацията» успяхме да лапад един с друг, като космически способности. И не е теория на конспирацията не разпознава себе си като такива. Тези теории се разпространяват в обществото за memy, samokopiruyuschiesya информация единица.
Въпреки това, че самото принципа на компрометирани теории и повечето от тях лъжливо, да не кажа, че някои от тези теории, обаче, не може да е истина. «Дори ако не можеш да хванеш черна котка в черна стая - тя не означава, че то не съществува".
14. Грешките, свързани с объркване на краткосрочни, средносрочни и дългосрочни прогнози
Краткосрочна прогноза отчита текущото състояние на системата, Те включват по-голямата част от дискусии по политика. В средносрочен план се взема предвид капацитета на системата и текущите тенденции. Лонг смята само за развитие на възможностите. Изяснят тази следния пример:
Да приемем, че имаме кораб с барут, които моряците и дим рошава коса. Кратко може да е така: някои стоящи моряците по високите Безплатно пътуване, докато други спят, така че тази експлозия, няма да се случи. Но в средносрочен план, важна само за броя на барут и на броя на пушачите моряците, които определят риска от експлозия, тъй като рано или късно нещо пушач моряци ще бъде в грешното място. А dalnesrochnoy термин е само по броя на барут, много огън, нещо толкова там. По същия начин, заплахата от ядрена война. Когато се обсъжда неговата вероятност в следващите два месеца, е важно за нас с конкретни провеждането на света правомощия. Когато говорим за следващите пет години, срещу номера на ядрената и ракетната програми. Когато говорим за бъдещето за десетки години, е само по броя на narabotannogo плутоний.
В същото време в различни области на познанието времева скала краткосрочно прогнозиране могат да бъдат различни. Например, в мините за въглища 25 години - това е краткосрочна перспектива. И в производството на микропроцесори - 1 година.
15. Характеристики на човешките емоции на страх
Способност да се страхуват от права, в отговор на конкретен стимул в дадена ситуация. Доброто чувство на страх не е предназначена да оцени най-малка опасност. Това бе в руската поговорка: "До момента, няма гръм gryanet, човече, не кръст". От друга страна, страх да потискат мисли за възможните опасности. Така например, когато хората отказват да седят тестове, защото се опасява, че той ще намери нещо.
По отношение на глобалната катастрофа води до омагьосан кръг: за да се гарантира, че вероятността от looming глобалната катастрофа е станала универсално прието - трябва да gryanut «установени» - тоест, трябва да се случи някои случаи, ясно дефиниране, и евентуално оказване тя почти неизбежна.
16. Underestimating стойността на отдалечените събития (дисконтовата норма)
А естествените права на собственост е, че той отдава по-малко значение за събития, отдалечени в пространството и отдалечени във времето. Например, какво се е случило в древността от наводнения, унищожи милиони хора, би било равностойно на значимостта на съвременната катастрофа с хиляди жертви в далечна страна или огън в съседна къща с няколко жертви. Това е известно като «дисконтовата норма» - «ниво на отстъпките". Тази отстъпка се отнася до оценката на ползата и риска от бъдещи събития. Въпреки това, че е рационално, и ирационални. Рационално дисконтовата норма - се отлага, което прави икономически субект, предпочитайки да се, да речем, $ 100 днес, а от 105 година - и това намаление е бавно намаляване на функция на времето. Точно обратното, емоционална включва оценка на ситуацията, много бързо нивото на отстъпки, което намалява hyperbolically течение на времето. Това доведе до глобална катастрофа, разделени от години от сега, е почти нулева тегло.
17. Съзнателното нежелание да се знае неприятни факти
Това се проявява себе си в ситуация, където хората отложи пътуване до доктора да не знае една неприятна диагноза. Макар че намалява шансовете му за оцеляване в далечното бъдеще, но той победи в тих близко бъдеще - това е очевидно, тук също, нивото на отстъпки.
18. Ефектът от пренасочване на вниманието.
Колкото повече човек обръща внимание на една възможна причина глобалната катастрофа, толкова по-малко той плаща за други и в резултат на неговите знания, придобити известна промяна в неговите специалности. Затова, преоценка на единна глобална опасност води до подценяване на другите, а също и вредно.
19. Интернет като източник на възможни грешки
Интернет, като подчерта, RIS Сър Мартин, за да създадете Вестник «Аз съм днес", като изберете само онези сайтове, които поддържат първоначалната гледна точка на въпроса, които след това засилва се озове в позицията избрал, непрекъснато четене само неговите последователи. Да не споменавам факта, че интернет ниската надеждност на информацията, тъй като голяма част от добър надеждна информация се заплаща медии, например, една статия в Природа на 30 долара за член, и всеки е свободен да определя своите текстове в мрежата, създаване на висок шум Информация . Тя е по-сензационен материал се разпространява бързо, отколкото по-малко сензационно. С други думи, ако по-ранните печатни продукти, допринесоха за по-бързото разпространение на по-добра дума, в Интернет вече улеснява по-бързото разпространение на по-качествени, но повече nazoylivyh в своята реклама източници. От друга страна, Интернет ускорява достъпа до информация и ускорява своето търсене.
20. Убеждения
Твърд otrefleksirovat своите убеждения, защото те се възприемат като честни знанието или не е под юрисдикцията наложително, но лесно, като всяко суеверие повлияе на оценката на рисковете, други хора. Например, високите катастрофа в Турция ставката е свързана по-специално с принципа на «inshala» - всички на волята на Бог, защото съдбата на всички хора вече е писано в книгата на Аллах, че няма значение какво правите - в деня на смъртта ти вече е назначен. То може да се рискуват нищо. Сър Мартин Райс пише, че Рейгън е бил отговорен за управлението на околната среда религиозни фундаменталистки, Джеймс Ват, който повярва, че Апокалипсис е по-рано от изчерпване на нефт, дървен материал и да умре е глобалното затопляне, така че отпадъците ресурси - тя е почти нашия дълг. Много вярвания може да бъде по-изтънчен, okolonauchny или "научно", като вяра в правотата или грешно Айнщайн, опасността или безопасността на риска и т.н. убеждения не предполагат възможност за фалшификация. За идентифициране на вярата е полезно да попитам: "Независимо от мотивите, довели събитие или да се променят моите виждания по този въпрос?»
21. Уврежданията от страхове
Много хора имат вроден страхове - змии, височина, вода, болести. Не трудно да се предположи, че те ще надценявам събитието, подобни на тези страхове и да се подценяват тези, които са разлика. По оценка на риска могат да се появят пост-синдром, когато силна уплаха да си спомням и сега всички подобни неща стреснат. Точно обратното, силно желание да потискат страховете, в духа на казвайки: «Ако не, но чувството, че е възможно". Така например, хора с вродена squeamishness май прекалено висока оценка на риска от биологично оръжие и реална представа за рисковете да попаднат под астероид, а по-скоро хора, оцелели от пътнотранспортни произшествия, ще преувеличавате рисковете да попаднат под астероид, и подценява биологичните рискове.
22. Грешка, произтичащи от борбата не е само по себе си източника на риска, както и отчетените рискове
Недоволство е преместена а не от самия източник на риска, както и човекът, който каза, че в духа на източната правила: «Убий Gonzi, донесе лоши новини». Аз нееднократно са изправени грубо критика, насочена към моите «лични недостатъци", и обвиненията на "параноя", когато е поканен да обсъждат всякакви рискове.
23. Най-сложното при определянето на границите на собствените си познания
Аз не знам какво не знаеш. Това създава чувството, че знам всичко, защото аз знам какво знам. Това създава лъжливо усещане за всезнание, което води до слепота интелектуална и нежеланието да се приемат нова информация. А. Camus: "гений - е против, осъзнава своите граници". Но докато сме изцяло знам по света, ние можем да не изчерпва списъка на глобалните рискове.
24. Хумор като фактор на евентуални грешки
Йоке лице, което дава право законно да говори истината. Съответно, това създава очакване на тези, които слушат неочаквана новина, че това е шега. Така например, охрана посолства в Кения призова колега и заяви, че терористите карах до портата с пистолет, той не вярват и деактивира връзката, бомбата отживял. Тъй като ние не знаем в каква форма можем да постигнат глобална заплаха, ние можем да взема съобщение от нея, като шега. Може да се помни Рейгън на шега, че ядрена атака срещу Съветския съюз ще започне след 5 минути, каза той, за да се провери на микрофона преди речта, която води до доближаване на съветската армия в борбата готовност. 25. Паника
Hypertrophied реакция на стрес води до погрешни и опасни действия. Така например, човек може да скочи от прозореца по време на пожар, въпреки че огънят все още не са я постигнали. То е ясно, че има паника последици върху човешкото идея на стреса. Например, един човек в мирно време залепване ahimsy (The йога на neubienAI живите същества), по време на войната бе разработен план за атентата язовири в Германия до наводнения в града. Това е, че паниката може да бъде достатъчно дълъг, състояние, значително променя поведението. Но краткосрочни паника опасни, след като състоянието на глобалния риск да развият много бързо, за часове или дори минути и политическите решения ще трябва да бъдат взети през това време.
26. Сънливост и други природни фактори, нестабилността на човешкото съзнание, влияещи върху появата на грешки
Според една версия, Наполеон губи Waterloo, защото беше студено. Как можем да очакваме президентът ще вземе правилното решение, тъй като razbuzhennym средата на нощта? Те могат също така да добавите принципен човек, неспособност да се следват точно указанията, и крайниците дължина инструкции, които той може да разбере и приложи. Макар че това се отнася главно за човешка грешка, можете да подадете че временно облак съзнание и да повлияе на заключенията на автора на дизайна или инструкциите, което води да се каже, да грешка в чертеж.
27. Тенденцията на хората да се справят с рисковете, които са били в миналото
Така например, през 2004 г. беше цунами, а сега всички трябва да изградят система за предупреждение цунами. И следващия път няма да цунами. Въпреки това, с течение на времето, намалява тревожността на хората и ре-силно земетресение (но не aftershoka) - се увеличава.
28. Умора от очакваното бедствие
Актуален типичното грешка беше, че след известно бедствие се случи, всички започват да очакваме повторение в близко бъдеще, второ абсолютно еднакви, и след това очакване е в ход, направи това бедствие в «дълъг и не е вярно» . Това беше след атентатите на 11 септември. Първо, всички очакваха за многократно нападенията на небостъргачи, както и построяване на небостъргачи в света stalled. Сега, всички от забравени, и строителството на небостъргачи е шок темпове. Това е обратното на това, което в действителност бедствие на тази величина може да се появи и при честота на много години и затова тя е след един продължителен период от време им шанс за реално нараства. Умора от очакванията, изразени от бедствието и загуба на чувствителност на общественото предизвестие.
29. Експертни оценки не са основани на строга изчисления, не може да служи като мярка за недвижими вероятността
За разлика от ситуацията в състав пазари, където средната оценка от най-добрите специалисти прогнозират, използвани за бъдещи резултати, ние не можем да оцени и да изберете нашите експерти по глобалните рискове от гледна точка на броя на ugadannyh бедствия. Нещо повече, фактът, че процентът на оценка на глобалния риск е много висок - оцеляването на човечеството - тя не означава автоматично, че предвижданията са по-точни.
В експерименти върху прогнозата си намери следните статистически данни: "Само 73% от отговорите, които са направили предложения за 100:1 бяха истински (вместо 99,1%). Прецизност увеличен до 81% с честота до 1000:1 и 87% от 10.000:1. За въпроси, които пуснати 1.000.000:1, точността е бил 90%, това е най-подходящото ниво на доверие ще предизвика курсове 9:1. В резултат на това, теми, често се обърка, дори и с най-високи равнища на ставките. Нещо повече, те са склонни да направят много високи темпове. Повече от половината от своите акцизни ставки на повече от 50:1 ".
«Такива нива на грешки бяха открити и експерти. Hynes и Vanmarke (1976) интервюираните седем часа на световно известни geotechnics на височината на майката, което би довело до унищожаването на основите на глинени скали, и поиска да се оцени 50% доверителен интервал около тази оценка. Оказа се, че нито един от предложените разстояние не включват правилната височина ". Причината за тази грешка е «sverhuverennost експерти» - например, тъй като експерт се страхува от загуба на статута си като експерт, ако тя е твърде съмнение техните виждания.
30. Игнориране някоя от рискове поради своята незначителност по мнение на експерт
Дори ако някои теория наистина неразумно, трябва да прекарват време и усилия, за да я опровергае ясни и убедителни за всички начин на обществения дебат. В допълнение, слабото не означава неспособност. Пренебрежимо малък риск да бъде резултат от изследвания, а не причина да се откажем от изследването. В допълнение, те се нуждаят от правилното разбиране на нищожност. Например, ако вземем от 10 до оценка на вероятността от глобална катастрофа като малки (и това е CERN оцениха риска от катастрофа в новия ускорител), ако такова поведение опити всеки ден, там ще бъде 3% шанс от изчезване в рамките на 100 години или гарантирани изчезване в През годината 3000.
31. Underestimating или преоценка на възможностите ни за справяне с глобалните рискове
Ако се подценяват възможностите ни да се изправи срещу глобалния риск, затова ние няма да предприемат тези действия, които биха могли да ни спаси. Ако се надценяват възможностите ни да се изправи срещу тях, може да ни доведе до прекалено самодоволство.
32. Стокхолмския синдром
Това е ефектът на лоялността обичам или дори при взимане на похитителите. В известен смисъл, може да се «smertnichestve» - философия, която утвърждава човека смъртност и ограничените му живот от 100 години. Но ако смъртността права бе одобрен, вследствие стъпка, преди одобряването на смъртността на човечеството.
33. За грешката е неправилна подготовка
За конкретни пилотни грешка, оператори, мениджъри и политици често се сблъскват с концептуални грешки в техния подбор и обучение. Например, угаждане на тяхното доверие (в случая с известния египетски пилот, който по дефиниция не могат да бъдат сбъркани - и счупи самолета) и спестяванията на обучение. Научен анализ и разпространение на знания по глобалните рискове могат да се разглеждат като част от обучението за вземащите решения в бъдеще.
34. В групата на хората, може да отнеме най-лошото решение, тъй като всеки човек поотделно
В зависимост от структурата на групата, тя може да помогне или възпрепятстват доброто решения. Един добър пример - седалището или изследователски институти, лош пример - стадото, тълпата или страна в застой от гражданската война. Докато светът е обединена група от признат открито решение за предотвратяване на глобалните рискове, положението е доста близо до лош вариант.
35. Ограниченият брой на свободните регистрите на човешкия ум и модел на мислене, което отразява във всяка изречение: тема-обектно действие - като възможни източници на грешки
Това прави човек да се фокусира върху един аспект на проблема, нещо такова, независимо дали атаката на Б, като същевременно се намалява (потапяне под сянката на вниманието) други аспекти. Никой не може да обхване всички проблеми на света в съзнанието му, да се класира им от тяхната степен на риск и приоритет. То е малко вероятно, че тя може и организация.
36. Разногласията futurology в различните дисциплини, както ако тези процеси се появят, независимо
Има няколко варианта за мислене за бъдещето, и те са склонни странно не се пресичат, както ако това беше различни свята.
- Прогнози на «singularities". Суперкалкулатори, биотехнологиите, и nanoroboty.
- Прогнози на системни кризи в икономиката, геополитика и войни.
- В духа проекции на традиционните futurology върху демографията, ресурси затопляне.
Особен вид прогнози - голяма катастрофа: asteroids, supervulkany, sverhvspyshki слънцето, perepolyusovka магнитно поле, плюс религиозни скриптове и фантастични сценарии.
37. В ситуация, когато последвани от по-малък проблем да бъде много, но ние не можем да забележим това ( «Безпокойството не дойде")
В световен мащаб бедствия биха могли да възникнат в резултат на все по-голям мащаб веригата от събития, но първата от тези нежелани реакции може скривате нашето възприятие на следните рискове. Причини за това са:
1) вниманието ни към момента на инцидента напълно пренасочват. Така например, потегли малък инцидент, водачът започва да ходят около колата, и ето го vrezaetsya друг mchaschayasya машина.
2) въздействието на страстта.
3) Лице, което се ангажира още повече грешки в процеса на коригиране на плитко. Например, когато една малка промъкнем стреля по полицията да побегне.
4) Липсата на първия инцидент не се създава верига от очевидна причина и ефект, които биха могли да се окажат изведнъж в ъгъла.
5) Първият проблем е постепенно отслабва организма резистентност към по-бързи и резки промени. Така например, по птиците е изпълнен с пневмония, ако не се лекува.
6) недоразумение, че двете произшествия могат да бъдат причинени от някои neochevidnoy обща кауза. Така например, нещо се срива, хората отидоха да види - че, и след това се срути напълно.
7) В еуфория от първата за преодоляване на бедствието може да губи предпазливост. (Например, човек намира до оттегли от болницата рано, и той се присъедини към разминават.)
38. Ефектът на селективна грижи
Често хората мониторинг някои прогнози, като икономика, възниква въпросът: "Защо това трябва да бъде около колапс, не се разпада и се разпада?» Може би ние сме занимаващи се със специфичен проблем при оценка на риска. Забелязват пукнатини по фундамента, да кажем за себе си: "Е, това също е на ръба на колапс" и започва да търси други пукнатини. Разбира се, ние да ги намерите, и ние не им трудно да се свърже с мрежата теория. Но търсенето на пукнатини, сме спрели да погледнем в сградата. Вниманието ни става избирателно, ние искаме да се потвърди тяхната хипотеза.
Ние попада в порочен цикъл на селективно натрупване на информация само от едната страна на нестабилността на системата, игнориране на причините за неговото гъвкавост, както и други рискове, свързани с тази система. Над някои риск, в крайна сметка, също води до подценяване, тъй като обществото става имунизиран срещу негативните прогнози и губят доверие в експерти. Така например, на гарата предупреждение цунами в Хавай, е изправен пред дилема: дали да предупреди обществеността за опасност от цунами, следващия път, когато профилактика не вярва, и ако не бъдат възпрепятствани - може би това е, че този път цунамито ще бъде опасно. Тайландски предупреждения на служба през 2004 г., реши да не предупредят хората за цунами, боейки се плашат туристите.
39. Подсъзнание желание да бедствие
Търсенето експерт в областта на рисковете, да доказва правотата на делото им прогнози той несъзнателно желание да се гарантира, че е предсказал катастрофа случи. Това продължава неговото или преувеличавате на portents на доближава бедствие, или дори да прощавам събития, които биха могли да доведат до него. Хората могат също така искам да бедствия от скука или поради masochistic механизъм «негативно удоволствие".
40. Използването на риск, комуникация, за да привлече вниманието към себе си, vybivaniya пари и подобряване на тяхното социално положение
Този тип поведение може да се определи като "синдром на Skaramelly», - в чест на италианския измамник, отправящи като експерт по въпросите на сигурността. В много остри случаи на хора съчинявам някои рискове, тъй като знае, че обществото и медиите да реагират бързо. Това поведение е опасно, защото от общия контекст на най-грандиозното Издърпайте няколко рискове, отколкото по-малко опасни, но не толкова zavlekatelno рискове звучащ замъглено. В допълнение, общество, повдига пристрастяване към докладите за рисковете, както в приказката за момчето, което извикаха «вълк, Wolf!", Но не беше вълк. Когато вълкът дойде реалност, момчето не беше повярвал. Нещо повече, там е публична алергия към докладите относно рисковете и всички съобщения, които започнаха да се обясни от гледна точка на PR и разделяне на парите. 41. Ползвайки глобални тема на риска, като темата за развлечение медии
Разпределение на адреналин в критични ситуации, в свое удоволствие, и малка пункция може да бъде получена, като се потърси документално-katasrofu. Това означаваше, че говорим за рисковете, започва да се възприема като нещо сериозно, което няма връзка с реалността и лични проблеми, дори като нещо приятно и желателно.
42. В логическа грешка обобщение въз основа на художествената фантастика
Ние описваме Bostrom като «изкривяване в духа на« добри истории ". Редовната консумация на развлекателни продукти - филми, романи - подсъзнателно създава модел на риск nazrevaet заплашва интересно развитие, но след това zrelischno преодолее - и цялата игра е почти равни. Реалните рискове не са длъжни да се съобразят с този модел. Дори когато се опитваме да се избегне влиянието на произведения на изкуството, филм «терминатор» седи в нашето подсъзнание, създаване, например, погрешно мнение, че проблемите с изкуствен интелект - е задължително да се води война с роботи. Една форма на тази грешка е, че в романа фантазията на стабилен мир и нормално е да го добавят фантастична подробност, а след това анализира възможните последствия от това. Друг - че противниците са избрани равни по сила. Третият - че сключването на историята се счита за норма heppi край. Въпреки това, в предотвратяване на глобалните рискове, не може да има добър край - ако ние предотвратяване на всички рискове в XXI век, тя също така е необходимо да се направи в XXAI век, и така нататък.
43. Идеи за Изправени пред глобалните рискове през ум организации, свързани общата цел - благото на човечеството
Тази идея не е наред, защото, когато е налице «ние», там са «те». За всяка организация е независима група, динамика, насочена към укрепване и оцеляването на организацията. За всяка организация, е конкурент. Вътре в организацията управлява група родословни динамиката на племе, насърчаване на борбата за власт и упражнява други скрити цели. Резултатът може борбата помежду си saviors на човечеството.
44. Тайна, както и източник на грешки в управлението на риска
Изследване на сигурността поддържат в тайна, губят възможността да получат обратна връзка от потребителите на тази информация и, евентуално, могат да съдържат повече грешки, отколкото публични източници. Класификация на резултатите от някои проучвания и бедствия обезценява значението им в превенцията на следващото бедствие, защото на тези резултати, никой не знае.
45. Интелигентен монтаж на критика възпрепятства разкриването на опасни катастрофални сценарии
Sverhkritichnost предотвратява начална фаза на мозъчна атака, които са наети на брега на идеи. Тъй като сигурността е често застрашени от невероятния шанс, «тежки опашки", че е странно идеи могат да бъдат полезни. Корените на настройките могат да бъдат критични, че, например, че критиката може да поиска по-висок социален статус.
46. Грешен идеята, че сигурността може да се докаже нищо теоретично
Но единственият реален тест - практика. Десетки години на проблеми - най-добрият тест за реалността на сигурността. Историята познава много примери, където оборудване или проекти, на теория, имат висока сигурност, rushilis поради неочаквани сценарии. Така например, падането на самолета «Конкорд". Американският писател М. от Creighton романа «Джурасик Парк» otchekanil е както следва: "За да се заключи, че вашата система за сигурност ненадеждни и не може да при всички случаи да се осигури изолиране на стрелба от околната среда, аз не знам как е подредена» .
47. Underestimating на човешкия фактор
От 50 до 80% от злополуки възникне поради грешка на оператор, пилотите и други хора, ангажирани в пряка система за управление. Още по-значителен дял от катастрофални човешка грешка сметки за поддръжка, preflight препарати, и грешки в проектирането. Дори и ултра системата би могло да доведе до критично състояние поредица от команди. Един човек умен достатъчно, за да заобикалят всички защита от безумния и направете топки глупаво. Ето защо, ние не можем да отхвърли някои от сценариите на глобалната катастрофа, на предположението, че хората никога няма да го направят.
48. Грешен идеята, че можете да създадете система безупречно, многократно я проекта и проверка на изходния код
Но самите проверки правят редица нови бъгове, и, следователно, на определено ниво на грешката е стабилизирана. (Това ниво съответства приблизително на квадратен от броя на грешките - това е, че ако някой прави грешка за 1000, колко много той отказа да я провери не създава ясно забележим «код» повече от 1 000 000).
49. Статистиката като източник на възможни грешки
В самото естество на статистически данни, че е възможно да се ангажират грешки, съзнателно нарушаване и неверни тълкувания, свързани с факта, че тя не е единствена описание на фактите и синтез на множество описания. Проблемите са свързани статистика, в частност по пътя на пробата, различни методи за изчисляване на средната стойност, закръгляване, тълкуването на резултати и как техните визуални представителство за други хора.
50. Грешка свързана с тенденцията на хората поемат по-голяма внимание често или лесно достъпни факти vspominaniya
Всеки знае къде на Atomic Bomb спада на Хирошима, но малцина знаят къде и кога за първи записано грип в 1918 «испанец", unesshy 100 пъти повече живот. (Според една версия, 8 март 1918 г., близо до Канзас Сити, САЩ). Това означаваше, че някои рискове са надценени, и е вече в сила на други рискове подценява. Yudkovski в неговата статия за оценка на риска, го нарича когнитивен нарушенията, свързани със степента на достъпност на информацията.
51. Двойна грешка
Много от факторите, източниците на грешка може да доведе до преоценка на нашата способност да издържат на рисковете и до подценяване на риска фактори. Следователно, всяка грешка може да се случи два пъти.
52. Анализ на риска Глобални не е създаването на прогнозите
Прогнозата включва конкретна информация за времето и мястото. Но такива точни удари са много редки и скоро случайно. Нещо повече, прогноза и анализ на риска изискват различни отговори. Неуспешно предсказан компромис неговия предмет, както и хора, които им предоставя. Но някои хора дават много на прогнозите, надявайки се, че най-малко един попадат в целта и човек прославил. Например, един анализ на риска в авиационната промишленост, изисква подобряване на различните механизми на самолета, самолетна катастрофа на прогноза предполага, че хората се откажем от полета на ден.
53. Илюзията на познанието със задна дата
Понякога хората казват: "Аз знаех, че от самото начало» и затова много високо техните прогностични способности. В резултат на това, те очакват, че другите хора могат лесно да предполагам, че ние вече знаем. По отношение на глобалните рискове, ние не може да бъде всеки познаване на екс пост фактум. Но за много други конвенционални риск е. Това води до това, което изглежда ни, че глобалните рискове са толкова лесно да се оцени, тъй като имаме известни рискове. С други думи, в сила със задна дата на знания срещу глобалния риск води до подценяване. За повече информация вижте статията за грешка Yudkovski, който призовава това пристрастие «мерник пристрастия".
54. Действието на настройките на източниците на информация
Четене на литература, човек може да се превърне в канал за идеи, които тя поставя автора. Това му позволява shodu отхвърлят концепцията на други хора. Поради тази причина, той става сляп за нова информация, и неговата ефективност при анализ на риска пада. Чувство на собствената си прав, образование, умения точка на спора - всичко на което укрепва «глухота» права. Като глобална рискове - въпрос предимно теоретични (защото ние не искам да пилотен тест), теоретичната разлики тенденция е особено ярко.
55. Приемането процес за малки проекти голямо бедствие
       Така например, промяна на долара след няколко процента може да се тълкува като предвестник на глобалния срив на американската валута. Това води до преждевременно изказване в духа: "Ами, казах ти!» - Тогава, когато се окаже, незначителни промени, подкопава вярата, най-вече неговата собствена, по възможност от катастрофа и неговото предсказване.
56. Повече от просто обяснение за бедствие заместител на по-сложни
В по-усъвършенствана версия на установяване вземе години от анализа, например, затова често е случаят в анализа на самолети аварии. (Да не споменавам факта, че членовете се търси незабавно Фалшифицирани факти, ако тези факти означава тяхното наказателно и финансова отговорност.) Това е по-сложно обяснение за това, че не достига на широката общественост и остава, тъй като някои от информация за него. В по-късно е установено, че точно да се оцени на причините за инцидента, толкова по-дълго, че е невъзможно да се защитават срещу злополуки от този тип. Когато става дума за бърза, така че броят на чакащите за разбирателство може да бъде от решаващо значение.
57. Използването apokalipticheskih сценарии, за да привлече вниманието на своите проекти и да ги финансира
В действителност, тази форма на самоуправление разпространени, и това е особено преобладаващи сред ПСЕВДОНАУКА, който води до алергия към подобни изявления. Дори и 99,9% от хората измислям различни apokalipticheskie сценарий е явно не са наред, те се заеха хипотезата, вероятно трябва да вземат бележка, защото залогът в играта са твърде големи и неизвестни физическите реакции могат да застраши нас, преди те официално потвърждаване на науката. С други думи, общите разходи за тестване почти сигурно ще се фалшиви идеи по-малко от възможните щети, тъй като поне един ще се окаже вярна.
58. Желанието на хората да създават приемливо ниво на риск за тях
Всяко лице има снимка на нормалния риск. Така, например, водачите на по-чисти превозни средства предпочитат по-опасен стил на шофиране, smoothens, че цялостният ефект на безопасността колата. Каквото е било безопасно, хората, желаещи да се приведе до неговото стандарти на риск. Тъй като очакваната продължителност на живота на правата е от порядъка на 10 000-20 000 дни, като норма на риск 1 100 000 на ден (по негова интуитивно възприятие, или в духа на «всичко правя"), хората не много ще се променят своето очакваната продължителност живот. Въпреки това, по отношение на глобалните рискове, подобна нагласа би означавало 30% шанс от изчезване в рамките на следващите 100 години. Ако има отделна «Likhachev», с много по-високо ниво на риск.
59. Ефектът на «sverhuverennosti млади професионални»
Това произтича от шофьори и пилоти на някакъв етап, когато те престанат да се страхуват и да започнете да се чувствате, че е всичко, което мога. Повторно своите способности, те изпадат в инцидента. Човечеството като цяло може да бъде на сцената към sverhtehnologiyam. (Макар че ядрените технологии са вече добре изгори в Чернобил.)
60. Чувството за неуязвимост сред преживелите
Sverhuverennost млади професионални усложнява и от влиянието на наблюдението на отглеждане, което е, че, например, otvoevavshie определен период от време, без ранени войници започват да чувстват «неуязвимост", и все по укрепване на върховенството на риск. Същото може да се случи с цивилизацията - дългосрочна заплаха не се извършват ядрена война, толкова повече изглежда, че не е невъзможно, както и за по-рискови политики могат да бъдат извършени.
61. Преоценка собствени умения.
Тъй като глобален риск покрива всички области на познанието - от биологията на астрофизиката и от психология на политиката, тя трябва да получите адекватна картина ситуация, специалист трябва да излиза извън рамките на техните знания. Като професионалист чувствам удоволствие, хората могат да бъдат склонни към преувеличения техните способности. Това mesheat му да се консултира със специалист по съществени въпроси. Стереотип «спасител на мира» като самотен герой, който е способен на всичко, може да го предотврати skooperirovatsya с други изследователи и прави ценен принос. По същия начин, както и на орден «dzhedaev", тайно спасяването на света, може да бъде неточна и изцяло заети от развлекателното кино.
62. Грешка, свързани с концентрация върху мерките за предотвратяване на бедствия, вместо на мерки за предотвратяване, доколкото е възможно,
Така например, Yelloustounskom парк толкова успешно предотвратяване на пожари през годините, че в гората натрупани много сухи дървета, и като резултат от огромен огън, за да се справят с това е почти невъзможно. Yudkovski описва един пример от построяването на язовир на река в САЩ, което стана ясно, че въпреки че броят е намалял от наводнения щети от наводненията всеки отделен роза, и годишната стойност на щетите е по-висока отколкото преди язовири. Това се дължи на факта, че след изграждането на язовири, хората да се чувстват спокойствие, както и изграждането на по-скъпи сгради в по-ниските земи, така че при потопа случи, то причинени големи щети. 63. Умора изследовател
Ентусиазма на лица, движещи се вълни. Защото на този човек, който, например, започва да публикува бюлетин, може би загуба на ентусиазъм да започне производство на нейните по-малко, че от гледна точка на разумен наблюдател би означавало намаляване на интензитета на развитие в тази област. Междувременно, по-изследователи Global Риск неблагодарен - той никога няма да видят реализация на неговото пророчество, дори ако те са осъществени. И той никога няма да се уверите, че той действително успя нещо да се избягва. Само по филмите Спасител на света, получава своята благодарност към цялото човечество и любовта на красивата актриса. Да не забравяме, че Чърчил ред в изборите, веднага след войната, въпреки че той вярват, че заслужават повторно избиране. За да се избегне ефектът на «peregoraniya", в Съединените щати Военноморските сили по време на Втората световна война, използвани редовна ротация на по-високи - едно воюва за тази промяна, докато другите почиваха на брега. Yudkovski пише за това: никога не сме чули за героичните превантивни мерки.
64. Страхът от загуба на социален статус на учените
В нашето общество съществуват редица теми от интерес, че се възприема като симптом на някаква малоценност. Хората се интересуват от тези въпроси, автоматично се счита за (или дори притиснат в съответното «екологични ниши") на второ, луд, клоун и маргинализирани. И други изследователи дори може да се опита да избегне контакт с хората и четене своите изследвания. Kleymleniyu била темата UFOs, телепатия и други парапсихология, под въпрос за реалността на света. Въпреки това, че е важно да се отбележи, че ако поне едно съобщение за UFOs и наистина необясними, тя изисква промени цялата картина на света и не може да повлияе на въпроси на сигурността (и военните приемате тези доклади е много по-лошо от учени). Нещо повече, тези учени, които са изгубили своя статус, които показват интерес към UFOs и т.н., вече не са с него и с възможност да съобщават своите мисли пред съответните органи. Военни изследвания в тази област е толкова тайно, че не знае дали има такива изследвания изцяло, и вследствие на това, степента, в която хората могат да се вярва, говори от името на тези проучвания. С други думи, тайната е толкова encapsulates някаква изследователска организация, че той престава да съществува към външния свят като черна дупка, която не е произведена от неговите лъчи - особено, ако висшето ръководство на страната, знае нищо за него. (Типичен пример на германския канцлер А. Меркел, който отказва да обясни на хората, които излизат за пребиваване, докато тя не е абсолютно необходимо - това са служителите по сигурността.)
65. Брой на внимание, че обществото може да даде на рискове, разбира се
Затова е е преувеличение на определени рискове е не по-малко опасно от тишината, от друга страна, както и храни с размера на внимание (и ресурси), можете да похарчите за един анализ на по-опасни рискове. В допълнение, тя създава лъжливо спокойствие на лицето, на което Изглежда, че той е направил достатъчно за спасяването на Земята, например, колата му мейкъри алкохол.
66. Пренебрегване на икономиките
Изрази като «пари - това е просто книга», или «банкови депозити - е само нули в компютри» може да е отражение на широкоразпространеното мнение, че икономиката не е толкова важно, колкото, да кажем, война или някои по-грандиозно бедствие. Въпреки това, икономика - реалното формиране на структуриране на цялата човешка дейност. За да се разбере ролята на икономиката, е важно да се отбележи, че кризата от 1929 г., причинени щети на американските 2 пъти по-голяма от Втората световна война и разпадането на Съветския съюз не е настъпило в резултат на преки агресия, и в резултат на структурните и икономическа криза. Дори и изчезване на динозаврите и други големи extinctions не биолози връзка с космически бедствие, и промяна на условията за конкуренция между видовете.
Всички рискове са на стойност термини. Икономическото влияние на дори незначителни инциденти могат да бъдат от голяма стойност. Атентатите от 11 септември повредени американската икономика 100 милиарда долара, а вероятно и щети ще бъдат много по-висока, като се има предвид потенциала загуби от политиката за намаляване на лихвените проценти (от балон на пазара на недвижими имоти), както и trillions долара, изразходвани за войната в Ирак. Когато цената на разрушени сгради само за няколко милиарда долара. 7 писма с антракс е причинил щети в 1 милиарда щатски долара.
Така че, дори и малките злополуки могат да причинят масови повреди и загуба на стабилност на икономиката и разпадането на икономиката ще направи системата по-малко стабилно и по-уязвими към още по-големи катастрофи. Това може да доведе до положителна обратна връзка, което означава, samousilivayuschemusya катастрофални процес.
Тъй като глобализацията на икономиката, все по-голяма възможност за глобална системна криза. Разбира се, че е трудно да повярвам, че светът ще умре от факта, че няколко големи банки отидоха в несъстоятелност, но това може точно това, което започва като цяло ефекта на доминото изменчивост.
67. Грешките, свързани с преоценка или подценяване на моралните ценности на обществото и неговите елити
Една от версиите на разпадането на Римската империя - разграждането на нейните елити, бе, че хората, от които са наети владетели на всички нива да действат единствено в личните си краткосрочни интереси, с други думи, глупави и егоист (което може да се дължи на факта, че те използват вода от Аквадукт, водопровод с олово тръби, се отразява отрицателно на мозъка). Приема се, че ефективните действия в техните дългосрочни интереси съвпадат с интересите на обществото като цяло, което, общо казано, няма съмнение. Още една метафора е сравнението «морал", например, на войски - на способността на някои молекули на веществото, за да изникнат като една кристална (повече по тази тема, изтъкна Лев Толстой в «Война и мир").
От друга страна, спадът нрави да се оплаква древните римляни себе си, и така досега този процес беше предотвратено развитието на производителни сили на обществото. Коренът грешка тук биха могли да бъдат в конфликт на поколенията, а именно, че опитни и млади и стари оценявам грозно, а не вземане на възраст изменение и забравяш, че те самите са едни и същи.
Все пак, ако сегашната глобална опасност големи щети могат да бъдат причинени от малка група, да речем, терористи, които, като част от стратегията си има дълга и добре. Или на конфликт на две компании, всяка от които се движи в рамките на определени положителни стойности. И конфликти могат да бъдат около точни определения на тези идеали, например, е по-добре: демокрация или религия? И накрая, дори vysokomoralny лице може да унищожи света с грешка. Макар и малък морален човек ще бъде безопасна, тъй като ще изневери на своя мандат в затвора за кражба, и никога няма да получат достъп до изключително опасни технологии.
68. Грешка беше, че вместо да се разследва истината, или лицемерие на някои съобщения за рисковете, хората, желаещи да докажат, че идеята колкото е възможно повече хора
Някои от идеите лесно да се докаже, отколкото други. Това води до промяна в оценката на възможностите. Yudkovsky пише за нея във връзка със системни грешки, свързани със степента на достъпност на информацията. Колкото по-явни вид идея, толкова по-лесно е да се изясни, увлекателно разказана история филм. Така например, тя е по-лесно да се рекламират на заплахата от глобалното затопляне, отколкото върху изкуствения интелект, защото последните невидима. Освен това, хората са склонни да участват в процеса на доказване на масите, което води до уравнявам с тази идея, желанието да се направи е по-лесно и по-достъпни.
69. Тенденцията на хората да предлагат «прости" и "очевидни» решения на сложни ситуации - без да мисля
И тогава се задържи в защитата им и изпращането им от мотиви. Лицето, което е много трудно да «peredumat". Тук можете да помните Законите на Мърфи: "труден проблем е проста, явни и погрешно решение". Yudkovski екстензивно пише за важността на малките период от време между момента проблем възниква и моментът, когато хората направи окончателен избор в полза на един от отговорите, по време на което действително се случва мислене. Хората са психически peredumat трудно, защото това би означавало да се признае като ням, и може да прави грешки, и особено трудни peredumat ако положението вече е било обявено публично, и е бил предмет на спор.
70. Публично обсъждане на рисковете от различни изследвания могат да доведат до това, което учените биха скриване на рисковете, че техните проекти не са затворени
Yudkovski пише за този проблем, откровено признава, че тя не се вижда решение: «И ако властите налагат закона, в който дори най-малкият риск от оцеляване на човечеството достатъчно, за да затворите проект, или ако тя се превръща в норма де факто политика, която не Възможни изчисление не може да надхвърля стоки предложени веднъж, после не учен не повече риск, отколкото правят предположения ".
71. Грешка, свързани с неправилни съответствието на сила и сигурност
Емоционално, която смятаме, че тази технология попадне в добри, че е по-силно и безопасно, а лошите - че е слаба и опасна. Но в действителност, толкова повече някои пистолет, толкова повече тя може да повлияе на света "- така е опасен, толкова повече начини да се върне за унищожение. «Анализът, въз основа на достатъчно информация, е склонен да се направи оценка на технологията емоционално, оставяйки информация за предимствата тенденция за намаляване на рисковия», - пише Yudkovski. Разбира се по същия начин, че новите технологии са по-силни от старата технология - по друг начин не са търговски смисъл да създавате.
72. Преждевременно инвестиции
Ако в средата на XIX век, хората са осъзнах, че през ХХ век застрашени атомно оръжие, както и за предотвратяване на този риск ще се разпределят милиони, няма съмнение, че парите ще бъдат похарчени за други цели, и бъдещите поколения да се развиват алергии за такива проекти. Възможно пример: според някои доклади, от Съветския съюз през 80-те години получил неверни сведения, че САЩ по време на разработването на превозни средства и безпилотни самолети разгърнат своя голям програма, което води до устройства, като например «Пчела» - автоматичен въздушен разузнавателен тегло около тона, огромните разходи и ниска надеждност. В резултат на това, руските военни drones че е разочарован от времето, когато САЩ прие програма на действителното им места. Друг пример: до 1939 г., беше абсурдно да се бори срещу атомното оръжие, и след - Твърде късно.
73. Тенденцията на хората да се обърка техните очаквания за възможните резултати и най-добрите
«В действителност, тъй като се оказва, често prepodnosit резултати, по-лошо от най-очакваните най-лошите резултати», - пише Yudkovski, описващ в неговата статия, експеримент с ученици, когато те са били помолени да оценят най-вероятно и най-лошото време на доставка на степента работа. В резултат, средните момента на доставката степен произведение е по-лошо от най-лошия случай. Дори и ясно предупреждение, че хората са склонни да се ангажират такава оценка не е довело до това, което теми, които да коригират своите очаквания. Дори аз, макар и преведени статии и е добре запознат с необходимостта от изменения все още падна жертва на тази грешка, оценка на очакваното освобождаване на книга в печат. Именно, аз направих предложение, когато книгата отива, и тогава, помните, че действителността ще бъде по-зле от моите очаквания, аз добавя, че крайният срок от три месеца. Вече е ясно, че подценява необходимите изменения, и книгата ще бъде дори по-късно.
74. Апатия минувач
Глобални рискове, които не са някой, на лична отговорност, и изкушението да се говори в смисъл, че след един часа не прави нищо в това отношение, тогава защо трябва аз? Нещо повече, това състояние възниква несъзнателно, просто като рефлекс примерни група. Типичен пример: когато човек лежи на тротоара и минали едно множество, никой не му помогна. Но ако един човек на пътя в гората за да видите извършените права, той е вероятно да му помогна. Yudkovski този модел се посочва като важен фактор при евентуално подценяване на глобалните рискове.
75. Необходимостта от проекта
Концепцията за когнитивна психология, показваща желанието на правата възможно най-бързо да намерят отговор на въпроса смущаваща ( "нуждата от закриването» - както се нарича Kruglanski). Това желание води до факта, че хората предпочитат бърз и погрешно решение в дългосрочен търсене на правилния отговор. Докато ние не можем да търсите правилната стратегия с глобалния риск за неопределено време - ние сме ограничени във времето! - Трябва да мислиш два пъти, преди да идва всеки заключения.
76. Влиянието на власт и социални групи за натиск
Въпросът е обсъдено в книгата «Човекът и ситуацията". В частност, е добре известно, Milgrama експерименти, където участниците са принудени да бие все текущата на другите «теста» (всъщност podsadnyh патици, и никой от сегашните наистина не се подава), така че тези «научите», а темите, достигнали смъртоносния щам 400 волта, независимо от факта, че «жертвата» Накара ги да спрат. При това, въпреки че повечето хора вярваха, че те няма да правим, че в реалните експерименти направи 66% от пациентите. Причините на това поведение беше установено влияние орган, отдалечеността на жертвата и влиянието на подобно поведение група. Очевидно е, че същите фактори могат да работят срещу нас, когато ние отчитаме рисковете, свързани с някакъв фактор или технология. Ако неговите потенциални жертви са далеч от нас във времето и пространството, където е близка до нашите експертни идентичност в полза на технологията, и ако ние сме заобиколени от група хора, които са заемали противоположни мнения, всичко това ще се отрази на нашия избор. 77. Пропастта между точката и преразглеждане на научните изследвания сред «дърво и гори»
Анкета изследвания могат да предлагат системни сценария на глобални катастрофа, или да обсъдят последиците от някои нови открития, но не можа да каже как точно да направят нещо опасно. Точно обратното, приложни научни изследвания може да даде точна оценка на рисковете, да речем, един астероид, но не и цялостна оценка на риска от всички причини. Пропастта е ясно видима в областта на нанотехнологиите. Налице е стандартен преглед на проектни проучвания, които основно се фокусира върху това, което може и трябва да се направи, след това има движение от заявените цели за различните версии на неговото въплъщаване. И там са казуси от качествата на избраните материали. По отношение на представителите на бившата prikladniki «За дърветата не виждат гората", в смисъл на prikladnikov - първата «ангажирани verhoglyadstvom и фикция". Нещо повече, и двете обвинения, може да бъде отчасти вярно.
78. Грешка, свързани с интелектуалната проекция
Тази грешка възниква, когато ние несъзнателно качества теми владение на имотите, които реално съществуват само в нашите постъпки от тях. Пример за грешен вид мотиви: «AI ще бъде добре, така че не може да ме убие". Докато доброта - това е не самия имот AI, и нашата оценка на действията си срещу нас, и причинната връзка е обратното - ние наричаме AI «добра», защото той не ни убият. Yudkovski я определя като: «Това е специален случай на дълбоко, объркващо и много често грешките, които Д. Т. Jaynes нарече заблуда, свързани с умствени проекция (MIND проекция заблуда). Jaynes, A Bayesian специалист по теория на надеждността, която е определена «грешка, свързана с умствени проекция» като грешка, свързана с факта, че състоянието на объркване с познаване на свойствата на обекти. Така например фразата «мистериозен феномен» предполага, че mistichnost - тази особеност на явлението - но ако съм наясно за някои феномен, това е факт за моето състояние на ума, а не самото явление.) »
79. Схващането, че промяната трябва да бъде, как техните причини
Но мачът, който ред на огъня, който вече е извън. Желанието да се унищожи всяка система на държавата към хлебарките и микроорганизми, е писано, че системата е оптимизирана да се справят стане силен. И оня, който се бори с нея, трябваше да придобие качеството на техния враг, за да се действа с него на същата територия.
80. Пренебрегва основния принцип на медицината - "Да никакво зло!»
Друга формулировка на принципа: "Когато не знаеш какво да правиш - не прави нищо". Това е вековна опит, който каза, че neobdumannye действие ще донесе вреда, отколкото помощ. В една глобална катастрофа е точката, че техните опити да бързаме, можем да се предотврати тяхното съединение.
81. Объркването между обективни и субективни неприятели
Когато някой има за цел да пречи моите цели, той е мой враг цел (тигър, който иска да ядат козе; противника в една игра на шах; конкурент в бизнеса). Въпреки това сред хората става враг на всеки, който се стреми да унищожи мен лично. Това е свързано с кръвната вражда. Обърканост е, че целта врагове започват да изглеждат субективни. Така например, ако вие стоите в предната част на влака и mchaschimsya каже, че влакът иска да ме унищожи. Въпреки това сред хората е реалната ситуация и «субективна» враждебност, когато човек иска да унищожи друга, без никакви други за тази цел или стойност. По отношение на глобалните рискове, това означава, че хората, които могат да унищожат света, не лично за мен zly или ischadiya изглежда ада. Това може да бъде вярно, благородна, красиви хора, които извършват някои много малки и не е очевидна грешка.
82. Прогнози или мечтите на бедствие, в действителност, поради завист
А ясно, пример за това - доста форуми в интернет, където хората възмутен разпадането на Съветския съюз, се надява да види рухването на САЩ и на наемане на процеса. (Това не означава, че американската икономика няма проблем.) Един от вариантите, когато neosoznavaemye желанията могат да повлияят върху описанието на действителността.
83. Страхът от загуба на идентичността
Системата не иска да трансформира дълбоко, тъй като то вече не е това. Това е една причина, поради която борбата срещу глобализацията. Някой може да предпочитат смъртта на загуба на идентичност. Иначе казано, предпочитам глобална катастрофа преобразуване на света, в която той живее.
84. Разбираемо бедствие може да бъде привлекателна неизвестно бъдеще
Като цяло, Global катастрофа е по-лесно, отколкото да види бъдещето, като някои все още не са отворени технологии. (С други думи, тук функционира когнитивните изкривявания, свързани с наличието на информация). Neponyatnoe може да предизвика страх.
85. Неправилна употреба на философски правила «бръснач Okkama»
Ние не трябва да отсече сложните хипотези на основата на Шейвър Okkama. Самобръсначки Okkama може да се разглежда през призмата на bayesovoy логика. Тогава хипотезата, че изисква по-независими от предположения е по-малко вероятно. Например, хипотеза, основана на 10 независими предположения ще бъде само 1 на 1024 шанс на истината. Но това не е малко, ако това е хипотеза, което означава риск от изчезване на човечеството!
86. Горната граница на потенциална катастрофа се формира въз основа на минал опит
Ето какво пише Yudkovski във връзка с вече посочените язовири: "Наскоро опит наводнения биха могли да се определят границите на загуба, от която собствениците смятат, че трябва да се притеснявате за .... Когато диги и насипи са изградени, те намаляват честотата на наводненията такъв начин, може би чрез създаване на фалшиви чувство за сигурност, което води до намаляване предпазни мерки. Докато майките намалява честотата на наводненията, щети от наводнения, така всеки нараства, средната щета се повишава. Изглежда, че хората не ekstrapoliruyut с невероятна малки рискове относно възможността за по-сериозни рискове, точно обратното, минал опит на малки възприемат опасностите от установява горна граница за риска ".
87. Грешка свързана с неправилно движещи се закономерностите на една система към друга
А) неспазване на растежа в сложността на структурата като фактор намаляване на надеждността на системата. Ако растенията може да се отсече по-голямата част от способността му не е в ущърб на пълно възстановяване, е да убие животното, просто премахнете малка част от тялото. Това е, толкова по-сложна система, толкова повече уязвими точки. Тя трябва да се отбележи, че за степента на нарастване на глобализацията, свързаност и структурни наземна цивилизация расте.
Б) Намаляване на надеждността на системата, пропорционално на четвърта степен на енергийната плътност. Това емпирично обобщение (точното значение на власт процент може да варира в зависимост от различни фактори) могат да бъдат открити чрез сравняване на надеждност на самолети и ракети: със същия размер, количество и достоверността на ракети цена около десет милиона пъти по-малки - до голяма степен се дължи на факта, че плътността мощност на двигателите, няколко пъти повече, и редица други фактори. Подобни емпирично обобщение е вярно за статистика на тежките катастрофи на автомобили, в зависимост от скоростта. Тя трябва да се отбележи, че силата на човечеството непрекъснато се разраства.
88. В неясноти и многозначност декларации като източник на възможни грешки
От гледна точка на авторите Правилник за персонала на реактора в Чернобил наруши своите искания, но от гледна точка на персонал, използването на тази наредба, той е действал точно в съответствие с нейните изисквания. Правилата изискват от «подтисне реактор» - но разработчиците смятат, че това трябва да бъдат направени веднага, и оператори - че постепенно. Друг вариант - когато автопилота спасяване и да зададете действие, всяка от които поотделно щеше да спаси самолета, но те се припокриват и предизвикват холокоста (310 смъртни случая през 1994 г. в Сибир). Трудно да се постигне ясно разбиране на термините, когато не е пилотен опит, както и в случай на глобална катастрофа. 89. Отказът да обмислят сценарий, защото от своя «improbabilities»
Въпреки това, повечето инциденти възникне в резултат на това е невероятен шанс. Гибелта «Титаник», свързани с екзотични, можете да кажа, комбинация от 24 (!) Обстоятелства.
90. Преходът от самостоятелно измама
Съзнават измама на други лица, с цел да получат обезщетение, в нашия контекст - укрит рискове - може да бъде под формата на samogipnoza незабелязано. Самостоятелно заблуда може да бъде много по-устойчиви, отколкото илюзия или несъзнателно объркване. Друга версия на тази опасна samogipnoza - командват «мисля за това утре» (но утре никога не идва).
91. Преоценка собствените способности като цяло и в частност за оцеляване
       Само proillyustriruyu този цитат от статия Bostrom относно заплахите за оцеляване: "емпирични доказателства за вреда при оценката на рисковете, двусмислени. Ще се окаже, че страдат от системно пристрастия, когато ние отчитаме нашите собствени перспективите за риска като цяло. Някои данни показват, че хората са склонни да надценяват собствените си възможности и перспективи. Три четвърти от всички мотористи мисля, че те са по-точни шофьори от средната шофьор. Според едно проучване, почти половината от социолози смятат, че те принадлежат към най-добрите десет часа учени в тяхната сфера, както и 94% от социолози смятат, че те са по-добри в работата си, отколкото техните партньори от средното за страната. То показва също, че в изостанали хора са по-точни прогнози, отколкото нормални хора, с изключение на тези прогнози, които се отнасят до безизходност на положението им. Повечето хора мислят, че те вероятно са по-малко изложени на рискове, отколкото другите хора. Налице е широко разпространено убеждението, че обществото са склонни да надценяват вероятността често е покрита с пресата рискове (като катастрофи, убийства, отравяне на храна, и т.н.) и скорошно проучване показва, че обществеността надценявам много рискове за здравето по отношение на себе си. Друго скорошно изследване, обаче, подсказва, че наличната информация е в съответствие с предположението, че на обществеността рационалният оценка на риска (макар и с някои ограничения, дължащи се на потока, че усилията да се задържат в съзнанието на точна информация) ".
92. Търсенето на красиво бъдеще, препятства възприемането на риска
Това явление може да се види от революционери. Опитът на Великата Френска революция е успял да се научи, че революцията води до гражданската война, диктатурата и чуждестранни войни, но руски революционери началото на двадесетия век, забавляваха същите илюзии за своя френски партньори за 120 години преди тях, макар че в крайна сметка, са подобни резултат. И привърженици на радикалните развитие на съвременни технологии е един и същ вид пристрастия - това е убеждението, че новите технологии няма да доведе до нови видове оръжия, неговото прилагане и новите технологични катастрофи. Психологически то е, защото хората отхвърлят мисълта на рисковете, както пречките за по-добро бъдеще.
93. Филтри са възпрепятстване на потока от информация на гид
Информацията не съществува във вакуум, но в определена система. Стойността на информацията се определя от нейната система, новостта и общ капацитет да отговорим на него. Затова е важно да се изследва не само отчет за глобалните рискове, но и как те могат да се разпространяват в обществото. GG MalinetskAI в книгата «риск. Устойчиво развитие. Synergetics »пише:« Още една особеност информация в лицето на бедствие е, че влизат в системата за управление на данни, преминава през няколко филтъра. Първият от тези средства се използват при управлението методи на изследване и анализ на външната среда чрез прилагането на които вложените преди стигна до лидерството, елиминират. Този филтър обикновено е настроен на минало и настояще, а не за възможните промени в екстремни ситуации в бъдеще.
Вторият филтър е психологическата същност на която е в опозиция на ръководството на информацията поради своята стратегическа иновации.
Третият филтър на входящата информация е ръководството йерархия. Нова информация няма да бъде в състояние да оказват влияние върху формирането на реакция към промените, ако мениджърите не разполагат с достатъчно правомощия за официално признава валидността на тази информация.
Четвъртият филтъра е свързан с факта, че през последните години, информацията се разглежда като ценна стратегическа стока, която следва да се разглеждат внимателно и да не го преотстъпвайте на търсене. Подчертайте, че в бедствие, всяко забавяне при предаването на основна информация не само неморална, но също така престъпна ".
94. Любопитството може да бъде силен от страха от смъртта
Не е никаква информация за рисковете от глобалния полза. Така например, ако ние ще опасен експеримент, и като резултат оцелееш, ние разбираме, че този вид експеримент е безопасно. Но дали това познаване на риска, на които ние сме имали? Въпреки това, хората са склонни да рискуват живота си за познания или опит. Можете да си припомни, че жертвите са били в тълпата от любопитна засвидетелствалата storming на Белия дом през 93 години. И аз съм сигурен много хора, любопитно, какво би било «края на света". Някой биха могли да приемат опасни експерименти в по-голяма от любопитство.
95. Системата и правилата
Global катастрофа, както всяка нормална технологична авария, не може да бъде резултат на една фатална грешка, но в резултат на случайно съвпадение с летален изход на десетки незначителни грешки. За безпроблемното функциониране на системата трябва да се нарушават правилата позволяват подробно. И в един момент тези нарушения представляват подходящ начин - nepotushenny задник, необезпечени резервоара, опростената схема стартирания - и води до верига от събития, довели до катастрофа. Тогава се случва следното: "Аз трябваше да вземе участие в изследванията (или разглежда материал) произшествия и инциденти в промишлеността (неядрени). Като резултат трябва да се предположи следният Заключение: почти никога "важни" причини и по този начин "основният виновник" (имам предвид не на официалните заключения на Комисията и на фактите по случая). Обикновено това е, което аз наричам условно десет млади razgildyaystv. Всички тези малки razgildyaystva извършени в пълен изглед в продължение на много години, а защото индивидуално, всеки един от тях не могат да доведат до гроба последици, ефекта от вниманието, те не са съставени. Но когато те се появят по едно и също време, на едно място и с някои хора - това води до трагичен изход. Но когато събитието е публичността - и тогава обикновено се назначава главен стрелочник на принципа: "който не се скрие, аз не съм виновен."
96. Ефектът на «стрелочник»
Вместо за намиране на истинските причини за инцидента търсят маневрист, в резултат на което оригиналните причините, поради които не са разгледани, и това става възможно отново. По отношение на глобалната катастрофа, които могат да имат чувството, че вместо да се открие и отстрани цялата система модели, които водят до нея, ще се бори частни мероприятия. Цялата система закони, които водят до глобална катастрофа, са технологични постижения, основни невъзможност за пилотен тест, sverhuverennost хора и т.н., докато разпространението на генетичния код на даден вирус - частно проявление на тези модели.
97. Минимални възприемат риска
Съществува минимален риск възприема, това е, че ако вероятността на събитията е по-малка от определен праг, хора я възприемат като нулев. Той направи предположението, че това е така, защото хората вземат решения въз основа на не реална вероятност от възможните варианти за събитията от ПИ ", както и техните възприятия им е (PI). Така например, редица експерименти показват, че хората не възприемат вероятността е по-малко от 10 5, въпреки изключително високия потенциал щети. Че имаме обяснено по-горе, въз основа на предположението, че нивото на риск невидими че в контекста на риска от ежедневните хора.
98. Отхвърляне на нови идеи
Хората и учени често отхвърляне на нови идеи, защото това би означавало да се признае своя грешка. Динамиката на този процес obrisovana Kunom в неговата теория на научна обороти, и, за съжаление, дебатът за новите идеи често са нарисувани със същото поведение като борба за власт в stae на маймуни. Често предупреждение за новите рискове не са напълно доказани характер. Пример за такъв отказ, stoivshy милиони животи - дългосрочен отхвърляне на идеята унгарски лекар Ignatsa Филип Zemmelveysa (1818-1865), който твърдеше, че следродилната треска, свързана с факта, че лекарите не си мият ръцете след аутопсията.
99. Влиянието на емоционалните реакции на шок
Ние знаем, че бедствието предизвикаха поредица от психологическите преживявания, всеки от които влияе върху обективността на вземане на решения. В книгата «PsihogenAI при екстремни условия» казва: «... психологическа реакция при бедствия са разделени в четири фази: героизъм," меден месец ", чувство на неудовлетвореност и рехабилитация» с фазата на героизъм може да предхожда периода на отричане, паника, или парализа в първия katstrofy моменти.
Всеки един от тези етапи създава един вид пристрастия. Ако започнат глобална катастрофа, той ще бъде толкова отчаяни, които са причина за реакцията на отказ в духа на «не може да се", "това е грешка» и т.н. За пример, видео, след атентатите от 11 септември, мнозина възприемат като личен състав от новия холивудски филм . Тогава sverhreaktsAI етап, който може да създаде нови рискове заради безразсъдно поведение. Например, пилотите Вземане на патрул от 11 септември небе над Ню Йорк бяха уверени, че започна войната с руснаците. В същата насока и това беше изявление на президента Буш, че «ние обявява война» в същия ден. След това, на етапа на еуфория dulls усещането за опасност, въпреки че в действителност опасна ситуация, все още не се свърши. Мрак, в контраст, не е да се намали риска, оценка и упадъка на мотивация да се бие с него, евентуално свързани с размера на загубите и реализацията на неизбежност. Приемането доведе до катастрофа забравени, а рискът се приема за даденост. Това е, на този етап се случва и да намалят риска, както и намаляване на мотивацията да се преодолее това. Описанието се отнася до опита на бедствия, които започнала и приключила, като земетресения, и болнични острата мъка умира обичаше такива. Все пак глобалната катастрофа, не се прилага за тези събития - скоро, ако нейната обидно да се вижда, той изглежда все по нарастващото мъчен процес.
Важно е, че емоцията се отразява поведението на хората, независимо от това дали те искат това или не, дори ако те са запознати с това влияние, и искате да избегнете. Това действие се основава реклама. Освен това, ако ще започне глобална катастрофа, като универсална епидемията, а после почти всеки ще бъде близо до хората, които са умрели в резултат на нея, или са в повишен риск. С Холивуд филми обикновено са portrayed в духа на протагониста време, за да се опитам да запазите и освобождаване на любимото си момиче от отломки. Но тя и приказка, че това няма да стане. Всички хора, и Решение ръководители и изпълнители в случай на глобална катастрофа ще мисли не само за съдбата на планетата, но също така и за спестяване на техните обичаше такива (както и техните страни на произход, градове и други общности, към които те се отнасят), и следователно Изборът им ще бъде neoptimalen. Дори и ако те решат да жертва техните семейства и цялото се съсредоточи върху предотвратяването на бедствия, емоционалния стрес на такова решение ще навреди на обективността и ефективността. В действителност, те ще бъдат в състояние на остра мъка или шок. GG MalinetskAI пише: "Редица експерти по психология на риск се смята, че процента на мениджърите, които могат да действат адекватно в катастрофа, не повече от 0,5%". 100. Проблемите на селекцията
Тъй като всеки отделен въпрос, ние сме принудени да разчитат на мнението на повечето хора, компетентни в тази област, ние се нуждаем от ефективен начин за проверка на тези хора - или техните книги. Методи за подбор на експертите, обикновено са: Първо, въпрос на техните дрехи - индекс цитиране, хабилитация, местоположение, др Второ, те могат да разчитат на редица sbyvshihsya прогнози за да се определи вероятността от тяхната правилност. Третият начин е да не вярваш на никого, и проверете всички много грешно предположения. Накрая, Вие можете да изберете по колко хора те споделят своя вярвана - дали те вярват в нещо странно, пикови Hubberta, либерален модел на икономика и др - Това е ясно, че в този случай, ние не научат нищо ново, освен това, и затова разбира нашите селекция. Но е ясно, че всички методи на подбор включва неговите клопки. Например, за глобална катастрофа не може да бъде sbyvshihsya прогнози.
101. Вина и отговорност, както фактори в превенцията на риска
Нашите основания да се опитват да идентифицират характеристика на който е виновен в пътно произшествие. Виновност се основава на концепцията за свободната воля, здрав разум и евентуално наказание. Въпреки това, в случай на глобална катастрофа, тя престава да бъде безсмислена, тъй като няма да има разследване или наказание, нито да се възползват от страха от наказание или наказание. От друга страна, концентрирани върху намирането vinovatyh разсеяни от визията за изграждането на една цялостна картина бедствие. Всъщност, ние мислим, че ако ние определяме обвинявам и ги замени с по-добри изпълнители, следващия път няма да бедствие, но всички повлекана ще е добър урок и дисциплина на производството се увеличи. Ясно е обаче, че наказанието vinovatyh безполезни, когато става въпрос за глобална катастрофа. Може би тя ще бъде «да съди победителите» - тоест, хора, които позволиха на глобален риск, дори ако катастрофа като резултат не се случи. Важно е за привличане на хората, отговорни за поддържането на света, в която те живеят.
102. Underestimating сили на инерцията като фактор за устойчивостта на
В допълнение към общите опасения за сложността и обратна връзка механизми, които да направят системата устойчиви, можете да използвате формулата Трябва (виж глава косвени методи за оценка на риска), за да направи оценка на бъдещето на време системата за последен път от своето съществуване. Тя ви позволява да математически изрази факта, че ако, например, в автобуса не е била около един час, че е малко вероятно, че той ще дойде в най-близката минута. Това е минало времето, системата създава, така да се каже, "временен инерция". Когато се окаже, че една система е по-гъвкав, отколкото си мислех, въз основа на нашите теории, ще започне да се съмнява ни теории, която може да бъде вярна, но грешите в datable събития. По този начин, подценяване на резистентност води до подценяване на риска.
103. Становища, причинени на Outlook
Същността на грешка е предположението, че там са верни твърдения, не се дължи на идеология. Всички дискусия на рисковете от глобалната катастрофа, като място на платформата на някои научни, културни и исторически възглед, което за нас е толкова очевидно, че тя е прозрачна и е едва забележим. Въпреки това е възможно, че други култури и религии ще се говори за различни пристрастия и нашите дискусии ще бъде за него да ясен.
104. Борбата за научни приоритет
Така например, по отношение на глобалното затопляне е доста различна гледна точка, предложени от различни автори, с цел да затвърди своето предимство на тази идея: "планетарен катастрофа» с бул. "Ал. Гор, "градина катастрофа» в AV Karnauhova, "побягнал глобално затопляне» и в други чуждестранни литература. Това доведе до търсене за синоним не издаване на резултатите от друга. Освен това, че е важно да се отбележи, трудностите са изправени наука със сертификат за уникални събития, които имат по-крайните броя на наблюдателите (в духа на Френската академия на науките решения, които скалите падне от небето не могат.)

105. Грешка свързана със съзнателно в безсъзнание и нежеланието на хората да си признае вината и размера на бедствието
       И полученият началници на невярна информация за ситуацията. Умишлено - когато, например, военни скрива даден инцидент, че те не са наказани, желаещи да работят на тяхна собствена. Когато хората не причиняват firefighters, огънят само труп, докато не стане прекалено голям. Безсъзнание - когато хората вярват в това описание, което води до намаляване на мащаба на аварията и техните вина. В Чернобил организатор тестове Dyatlov повярва, че не реактор обемно и резервоар с вода охлаждане - и продължава да хвърля отбора в покоен реактора. Може би тази съпротива може да действа и изпраща във времето, принуждавайки хората да поемат отговорността за бъдещето глобална катастрофа.
106. Системните грешки, свързани с егоцентричен
Това е, че хората дам по-голямо влияние върху резултата от колективни действия, отколкото е в действителност. Понякога хората преувеличават отрицателното въздействие (мегаломания). Според Майкъл Anisimov, поради тази причина, че хората преувеличават значението на собствената си смърт и реална представа за смъртта на цялата цивилизация.
107. Системно грешки, произтичащи от наличието или липсата на явни причини за събития
Хората са склонни да търпят повече за събития, настъпили естествено (например, смърт от старост), отколкото на събитията, които са очевидни причини (от смърт от болестта), и особено - на събитията, свързани със злонамерени намерения (убийство). В случай на глобална опасност към момента не съществува съоръжение или на лицето, което можем да виня, че човешката цивилизация vymret. Майкъл Anisimov написа: «Както се вижда на хоризонта не е лошо човек да се бори с него, хората не изпитват такъв ентусиазъм, че те би, например, с опит, протестират срещу Буш".
107. В зависимост от реакцията курс стойности
На човека да страдат в резултат на внезапна заплаха, отколкото заплахата от един и същи сили, но постепенно се развиват. Ал Гор във филма си с глобалното затопляне, цитира опита с жаби. Ако хвърлят жаба в гореща вода, тя незабавно vyprygnet, но ако го сложите в буркан със студена вода и топлоенергия, тя ще седи там, докато готвя. По същия начин, жителите на Айлънд Великден толкова бавно svodili дървета, че всяко поколение проблемът не беше очевидна.


Глава 4. Obschelogicheskie грешки, които биха могли да възникнат при обсъждането на глобалните рискове
1. Объркване сред вероятно като мярка за вариабилност на обекта, както и степента на доверие, като мярка на информация за обекта
Първият се отнася до veroyatnostnomu процес, например, радиоактивно разпадане, а вторият на Незнайния процес - например, ugadyvaniyu карта. Въпреки това, глобални рискове се отнасят до събития, оценявайки, че ние трябва да се вероятността решения за процесите, които са едновременно възможно, и неизвестен. Тук ние започнем да говорим за степента на доверие в вероятностите. В този случай, вероятността и степента на доверие peremnozhayutsya.
2. Заместването анализ, анализ на целите
Така например, съображения, като например «терористи никога не искаше да използва биологични оръжия, защото то ще взриви и онези, чиито интереси се защитават". Целите могат да бъдат много трудни или просто да съдържа грешка.
3. Неправилна употреба на индуктивна логика от следните неща: много дълго време, нещо не се случи, тя няма да се случи за много дълго време
Това изявление ще сработи само ако ние веднъж видях нещо по произволно точка във времето и вероятността в този случай формулата Трябва да се описва. Тя ви дава шанс да завърши случайни събития от 50 на сто в периода от 1/3T да 3T, където T - възрастта на обекта по време на неговия случайно откритие. Но ако искаме да присъства един много дълъг процес, той очевидно е наближава своя край. Например, ако вземем случаен човек, той е вероятно да бъдат на средна възраст. Все пак, ако вземете случаен човек и после гледам за дълго време, ние ясно да се дълбок стар, който може да умре във всеки един момент. (За подробности, вижте моя статия «Природни бедствия и Антропогенна принцип».)
4. Мислене се дължи на желанието да се докажеш нещо
В зависимост от това дали този човек иска да докаже, той ще вземем всички аргументи, често несъзнателно. Друго име за този модел - "рационализация", селекция от псевдо-аргументи от някои ирационални първоначално одобрение.
5. В логическа грешка възниква, когато се опитват да докажат, какво да правя, само въз основа на описание на фактите
Ако първата и втората предпоставка inferences съдържа само факти, изходът може да бъде само фактите. Всеки дискурс на цели трябва да се основава на някои от стойностите, определени axiomatically. Но това значи произвол такива цели, и тяхното разбиране може да са различни за различните изследователи глобалните рискове, които могат да доведат до различни определения на бедствието и схващането, че то ще добива. В допълнение, всяка система от аксиоми позволява да формулира недоказуеми твърдения (както е показано в G;del Теорема за непълнота), и срещу dolzhenstvovany това лесно изпълнени: почти всяка система от основни ценности лесно ви позволява да се създадат противоречия в себе си, което е основното съдържание на редица литературни творби, където Героят трябва да направи избор между, да речем, любов към дома и семейството (което имаме нарича екзистенциални избор). Не е известно дали има последователна система от ценности, как ще изглеждат, както и дали то ще се приложи на практика. Въпреки това, работата по последователна система от ценности е важен, защото той ще трябва да се инвестира в бъдеще машините с изкуствен интелект.
6. Грешките, свързани с подмяна на анализ на риска, анализ на търговската мотивите на тези, които те казаха:
Можеш да говориш, както следва: ако човек изследва рисковете безплатно, той е бил безработен и маргинализирани, ако той иска да получите пари за това, паразит по обществени страхове, ако неговите преки задължения, тогава тя не може да се вярва, защото той е агент на държавните и zapudrivaet мозъка население. Това показва, че пряката връзка между парите и анализ на риска, не, въпреки че в някои случаи е възможно. Обяснението чрез опростяване нарича «reduktsionizmom" и може да обясни всичко.
7. Използването на така наречените «авторитетни познания»
«Авторитетни познания» е основният източник на информация за мир в Средновековието, когато търси истината от съчинения на Аристотел, а след това Търговско на емпиричен метод. Препратките към възгледите на велик народ не трябва да бъде достатъчна причина да се признае нещо безопасно. Само редовно повтаря изчисленията могат точка към него.
8. Неправилна употреба на идеята, че теорията трябва да бъде вярно, само ако е доказано,
       Ако се разгледат научния метод като начин за получаване на най-добрите налични знания, тази методология е вярна. Въпреки това, от гледна точка на сигурността изисква обратното подход: някои предложения трябва да бъдат смятани за опасни, докато тя не е отхвърлено. Например, един нов модел на самолет, се счита за опасно, освен ако не е доказано от теоретичните предвиждания и тестови полети при всички условия, че тя е безопасна, същият принцип е в основата на клинични изпитвания на нови лекарства. Не е ясно само как да се приложи принципът на falsifitsiruemosti срещу теориите на всички глобални катастрофи.
9. Възприемането на нова информация през призмата на старо
       В представите на хората, само една част от информацията, взета от външния свят, а останалите dostraivaet въз основа на тяхната памет, очаквания и асоциации. Уви, същото се отнася и за текстове, включително и тези на глобалните рискове. При четене отзиви от различни хора на същия текст, не е трудно да се уверите, че те взеха, че съвсем различен начин. То е малко вероятно, че това се дължи на факта, че някои хора са умни от другите принцип - скоро, тъй като те използват различни филтри на възприятие. Освен това, когато хората започнаха да се придържат към определена гледна точка, той се присъединява към публикацията и избира тези членове, че тя потвърждава. По този начин, той създал илюзията, че статистиката за това, потвърждаващи неговата цел, се разраства. Това допълнително засилва и неговите филтър, и неговата увереност в данните.
10. Една грешка в избора на неутрална позиция
Всеки накрая разбира, че той не е изцяло обективна, и неговата гледна точка има няколко пристрастия. За да се компенсират за това отклонение, то може да изберат неутрален източник на информация. Грешка е, че хората, които притежават противоположни мнения, отговаряща различни неутрална точка, всеки от които ще е близо до позицията на тези, които избрах него. Подобна грешка, че описаните по-горе, къде са резултатите от експерименти, в които участниците са били предупредени за евентуална грешка и направи поправка - и все пак все още недооценен. Може би промяната е трябвало да бъде приложена не само към основните параметри, но също така и към изменението само себе си.
11. Доверието като източник на грешки
Колкото повече хора съмнение неговата гледна точка, толкова повече промени в нея под влияние на нови факти, както и по-вероятно той ще слезем до по-достоверни знания. Ако хората са прекалено уверени в неговото становище, че е трудно да я променя. Ако той е прекалено izmenchiv, той не се доближава истината, и ходи в кръг. 12. Използването на напълно погрешна логика
Уви, може да има ситуация, когато хората в своята дискусия задължава грешки «във всеки ред". В този случай, той не можа да намери грешки, дори ако тя искаше. Това може да се повтори един или системна грешка, или плътността на различни бъгове, което прави невъзможно явен мотиви. Дори и сега, аз не знам със сигурност, не прави системни логически грешки в момента. Това може да настъпи по-често, отколкото си мислиш - анализ на научните текстове показва, че хората обикновено се ползват съкратено heuristics мотиви и трикове - и да не осъзнаваш това.
13. Смесване prednauki и ПСЕВДОНАУКА
Във време, когато хипотеза е в процес на формулиране, тя все още не е obrosla всяка научна апаратура и е по-скоро продукт на мозъчна атака на определена тема, може би, извършвани колективно от обмяна на мнения в печат. На този етап това е prednaukoy - но то има за цел да се превърне в част от науката, което е необходимо да преминават проверка и да бъдат приети или отхвърлени. ПСЕВДОНАУКА могат да симулират всички атрибути на научно - заглавия, връзки, математически апарат - независимо от това, нейната цел - да не търсене на надеждни знания, A подобие на доверие. Всички изявления, свързани с глобалните рискове са хипотези, че ние почти никога не можем да проверим. Но ние не трябва да ги отхвърлите в ранните стадии на бременността. С други думи, фаза на мозъчна атака и критична фаза от падащото аута не бива да се смесва - макар че и двете трябва да присъстват.
14. Грешка свързана с грешно определение на «универсален»
Издаването на универсалната реалност (т.е. generalizations) е основно в средновековната философия, и това е проблем, който наистина реални обекти. Има, например, птици, напълно, или има само изолирани случаи на птици, както и всички видове, рода и семейството на птици - не повече от конвенционалните artifice на човешките причина? Едно възможно отговорът е, че съществуват обективно нашата способност да се прави разлика между птиците и някои птици. Нещо повече, всяка птица също има това качество и затова има универсална цел. В дебат за рисковете от несигурност относно универсалната пълзене, както следва: свойствата на един предмет прехвърля в класа, както ако този клас беше целта. Тогава са налице съображения, като например «Америка иска ..." или "руски особен ...», Макар че тези понятия не е единен обект, и постави точна дефиниция на която се базира на наблюдател. Всяко устройство отровения дискусията за този вид смяна. С около изкуствения интелект е лесно да се ангажират такава грешка, защото не е ясно дали едно устройство или клас от обекти.
15. Твърденията за възможността за нещо и невъзможността neravnosilny
Приемане на невъзможност за много по-силен, защото се отнася до целия набор от потенциални цели, както и за истината одобрение на възможността на един обект. Затова, одобряването на невъзможност за нещо Лъжа е по-често. Ако някои събитие или комбинация от обстоятелства, е невъзможно, ние ще щети нашата сигурност. При определени обстоятелства, вероятно всички. Въпреки това, всяко обсъждане на бъдещи бедствия - тя винаги е дебат за възможностите.
16. Доказателствата, като източник на грешки
Правилно е винаги мотивите, въз основа на две предположения, две истински съдби. Въпреки това, един анализ на текстовете показва, че хората рядко се използват изцяло под формата на мотиви, но вместо това използва стенография, което очевидно се нарича само едно помещение и другите средства по подразбиране. Тиха обикновено очевидни - съдби, на пръв поглед толкова вярно и неоспоримо, че няма нужда да синхронизирате. Освен това, те често са толкова очевидни, че не е изяснен. Очевидно е, че тази ситуация причинява много грешки, защото доказателствата - не непременно истината, и че един очевидно не е очевидно за друг.
17. Underestimating своя грешен
Както всички, аз съм склонен да прави грешки, защото на ненадеждността като въпрос на принцип, на човешкия мозък, свързани с възможните естеството на работата му, както и непълнота на моите познания за света и умения елиминират грешки. Аз не знам 100%, защото достоверността на мозъка ми не е равно 100%. Мога да проверят своята надеждност, решаването на поредица от логически задачи средната сложност, след което намирането на бъгове. Но това обикновено не се направи и своята погрешимост изчислява интуитивно. Аналогично, хората обикновено не се измерват характерни заблуда на техните решения за бъдещето, макар че е възможно да се направи опит: за пример, за да напишете си прогноза и обществения живот от една година или пет години и след това сравняват.
18. Грешка свързана с идеята, че всяко събитие е една от причините
Истината е:
       а) е случайно събитие.
       б) Всеки случай, има много причини (стъклото падна, защото го възкреси от ръба, тъй като е направена от стъкло, защото силата на тежестта е голяма, тъй пода трудно, тъй като котката палав, защото рано или късно ще се случи ).
в) всеки има своите причини причина, че в резултат на това, което имаме в миналото rashodyascheesya дърво причини. В ума на човека е изцяло на дървесните неспособна да покрие причините и е принуден да се опрости. Но понятието «причина» нужда в общността, защото то е свързано с вина, наказание и свободата на волята. Така че тук «причинно» бе писано да се твърди, свободната човешка решение за извършване на престъпление. Е нужно да се каже, колко не са очевидни точки. (Основният въпрос е: Кой е виновен?)
И в строителството технология: тези, че е важно да се намери причината за инцидента. Това е нещо, което може да бъде премахната - така, че инциденти от този род не са били. (На основния въпрос: Какво трябва да направя?)
Понятието причиняват най-малко приложим за анализ на сложни уникални събития, като например човешкото поведение и историята. Пример за това - масата на сложни дискусии за причините на определени исторически събития. Ето защо мотивите по рода «предизвика глобална катастрофа ще бъде Х» - за да го леко, неадекватен.
19. Необходимостта от избор въз основа на вярата
Ако лидерът стане известна степен взаимно противоречиви мнения относно безопасността, той прави избор между просто да се вярва в една от тях - по причини, които не са свързани с логиката. Можете също така да си спомня термина "екзистенциални избор", когато човек трябва да направи избор neformalizuemoy ситуация. Така например, между любов и дълг.
20. Ефектът на първото и последно четене на книга
Редът поток на информация се отразява на оценката, и направи първата и последната пролет. Това е форма на заблуда, свързани с достъпността на информацията.
21. Преувеличение на компютърна симулация
Повечето от две разработени модели - времето и атомното атентата. И двете са в голямо доказателство, като се има предвид стотици тестове, които извършва Измененията на прогноза, и двамата редовно се дава грешки. Дори и най-точен модел продължава да бъде модел. Ето защо, ние не можем да разчитаме на силни компютърни симулации на уникални събития, което се отнася до глобалната катастрофа.
22. Доказателства по аналогия като източник на възможни грешки
Не само, че не може да има връзки уникален случай, че никога не е станало - даден необратими глобални катастрофа, но ние не знаем как да се правят такива връзки. Във всеки случай, може само да илюстрира аналогия. Може би това е полезно да се предприемат аналогия, когато говорим за реалността на заплаха, но не и когато - по сигурността.
23. Грешка, свързани с неточни екстраполация на експоненциално вероятност за използване на линейна функция
Вероятност функция на смъртта на цивилизацията - ако считат това за плавен процес от гледна точка на възможностите, които, разбира се, прав - може да се likened функция радиоактивното разпадане на атома, за който е известно, описва експоненциално. Така например, ако вероятността от смърт на цивилизацията на XXI век е равна на 50%, както се очаква, сър Мартин Райс в книгата «Нашите последния час", след това след 200 години шансът за оцеляване на цивилизацията ще бъде 25%, и хиляда години - само 0,1% -- като същевременно се запази еднакво на една и съща тенденция. Тя показва, че погрешно да се заключи, че след като шансовете за оцеляване по време на хилядолетието е 0,1%, за един век, тя ще бъде само десет пъти повече, т.е. 1%. Същата грешка по-малко ясни форма възниква, ако ние трябва да се екстраполират същите 50% за оцеляване 100 години от pogodovuyu вероятността от смърт. Линейни сближаване ще даде 0,5% за годината. Все пак точната стойност, изчислена по формула, е около 0,7%, което е 1,4 пъти по-висока от тази, позволява интуитивно линейни сближаване.
24. Санкт Петербург парадокс
Този парадокс е пряко свързана с глобалната катастрофа, тъй като тя показва, че са безкрайно обширна щети от много редки случаи носи повече тегло, отколкото всички други събития, но хората не са психически готови да я приемете. GG MalinetskAI описва този парадокс в книгата «риск. Устойчиво развитие. Synergetics »:« разгледаме следната игра. Хвърля монета, докато първият път не излизам от орел. Ако е необходимо н изстрели, наградата е 2N единици. Това е, победи 2,4,8, ... 2N ще настъпи с вероятност на 1 / 2, 1 / 4, 1 / 8, ... 1/2n. Очаквани печалби в тази игра е безкрайна:
       .
Задавани колко хора желаят да плащат за правото да влезе в такава игра. Иронията е, че повечето хора са склонни да платите за него не повече от 100, а понякога и 20 »
25. Разликата между опасности и рискове
Рискът за създаване на решения, и опасността - обстоятелства. Като основен източник на опасност от глобален катаклизъм е нова технология, това е решението за тяхното развитие и прилагане се определят това. Но ако технологията се развива спонтанно и несъзнателно, те са сходни с природни опасности.
26. Грешка беше, че ако вероятността на определени събития, не е изчисли, че почувствах нула
Докато принципът на предохранителните мерки биха били необходими, че ние за тези събития, приписан 100% вероятност. Все пак, това би довело до абсурдни заключения в дух: вероятността от чужденци на борда на непознат утре, така че ние трябва да се подготвят за него, както ако тя е равна на 100 на сто. В този случай можете да използвате косвени начини за оценка на вероятността, например, формулата трябва.
27. Пропускането, че системата за сигурност се определя от най-слабото си звено
Ако пространството е три странични врати, една от които отключва трите брави, две - две и третия - един, стаята е заключена в една ключалка. Как не се подобри двата най-твърди вратата, така че нищо не се е променила.
28. Отхвърляне на хипотези, без обсъждане
За отказване на някои хипотеза, че първо трябва да разгледа. Но често, тази поредица е нарушени. Хората отказват да разглежда всякакви извънредни предположение, тъй като те отхвърлят. Въпреки това, надеждно отхвърли някои предположения могат да бъдат, просто като се счита, я внимателно, и че тя трябва да бъде поне за известно време да се вземат на сериозно.
29. Не-изчислим
Някои от фундаментално значение за нас да обработи толкова сложно, че не могат да бъдат предвидени, тъй като те не-изчислим. Не-изчислим могат да имат различни причини.
• Тя може да бъде свързана с недосегаемост на (например, технологични странност, или, например, като теорема на Ферма е непонятно за кучето), който е свързан с принципа на качествени ограничен човешки мозък. (Това е нашето положение и предсказване поведението Superintellekta В AI.)
• Тя може да бъде свързана с квантовата процеси, които правят възможно само възможна прогноза, която се nedeterminirovannostyu системи (времето, в мозъка).
• Може да бъдат причинени от сложни системи, по силата на който всеки нов фактор променя напълно усещането на крайния резултат. Те включват: модели на глобалното затопляне, ядрена зима, глобалната икономика, модел на изчерпване на ресурсите. Четири миналото области на знанието, са комбинирани така, че всяка описва уникално събитие, което никога не е било в историята, която се е operezhayuschey модел.
• Nevychislimost може да бъде свързано с факта, че се подразбира нивото на компютрите като крайни, но толкова големи, че не мислим компютър няма да можем да се съобразят с нея за живота на вселената (а не-изчислим, използвани в криптографията). Този тип не-изчислим под формата на deterministic хаотична система. Nevychislimost също е свързано с факта, че въпреки че ние може да бъде наясно с правилната теория (сред много други), ние не можем да знаем каква е теорията е вярна. Това е теория, в допълнение към коректност, трябва ясно да се arguable за всички, а това не е един, също, по време, когато експерименталната проверка е невъзможно. В известен смисъл начин да се изчисли правилната теория, за да бъдем точни - на доверието в тях, е пазар, където или да направи пряк залог върху резултата, или цената на някои стоки, свързани с проектиране, например, цената на петрола. Независимо от това, пазарната цена теорията влияе много други фактори: спекулация, емоции или непазарни характера на обекта. (То няма смисъл да се застраховат срещу глобална катастрофа, защото няма и на кого ще плати за нея, и затова можем да кажем, че неговата застрахователна стойност е нула.)
• Друго типа на неспазване изчисли, свързани с възможност за извършване или samosbyvayuschihsya прогнози samootritsayuschih, което прави системата фундаментално нестабилна и непредсказуема.
• Nevychislimost, свързани с допускането им местоположение (самостоятелно вземане на проби предположение - вижте тази книга Н. Bostrom). Същността на това предположение е, че в някои ситуации съм видял себе си като представител на случаен набор от хора. Така например, по отношение на себе си като обикновен човек, мога да се заключи, че аз съм вероятно 1 / 12 имаше шанс роден през септември. Или със вероятността от, да речем, от 1 до 1000, да се роди джудже. Това понякога позволява предсказания за бъдещето: а именно, ако Русия 100 billionaires, шансовете, че ще се превърне в милиардер, са една до 1,5 млн. евро, при предположението, че този процент ще продължи. За не-го изчислим резултати, когато се опитам да се прилага презумпцията за тяхната позиция към собственото си знание. Така например, ако знам, че само 10% от futurologists дава право прогноза, трябва да се заключи, че шансовете на 90% от всичките си прогнози греша. Повечето хора не забележите това, понеже чрез sverhuverennosti и по-голяма оценка не разглежда себе си като един от многото представители, както и «елит» това множество, което увеличава способността за прогнози. Това е особено очевидно в хазартни игри и пазар, където хората не следват очевидно, че: "Повечето хора губят най-рулетка, следователно, аз най-вероятно ще загубиш".
• Подобна форма на не-изчислим информация, свързана с неутрален пазар. (Това е значителна-нататъшно опростяване на теорията на пазари и въпросите на информация стойности дават цифрите. Все пак, една по-подробна проверка не нарече проблем, но само усложнява от създаването на друг слой от не-изчислим - а именно невъзможността да се хванете средния човек пълен с познания, свързани с теорията прогнози, както и несигурност в това, което е в теорията прогнози вярно. Преглед на информация за пазарната стойност на така наречените «не търговски теорема".) Идеален пазар е в равновесие, в който половината от играчите повярваха, че стоките ще поскъпват, а половината -- тази цена. С други думи, за да спечели мача с нулева сума може да бъде по-умни, или просветен, отколкото повечето хора, човече. Но повечето хора не са по-интелигентни, отколкото всички, по дефиниция, макар и не можа да разбере, че поради психологически пристрастия. Например, цената на петрола е на ниво, което не дава ясни доказателства за всяко предположение за неизбежност на кризата върху изчерпването на петрола, нито поемането на неограничен петролни запаси. Като резултат от рационално играчът не получава никаква информация за сценария, за които тя е готова. Същата ситуация се отнася до спора: ако човек е избрал да се докаже на точката, ти обратното, и не знаят за неговия интелект, образование и информационни източници, както и нейната цел рейтинг, което означава, че шансовете от 50 до 50, че той е прав И не ти. Тъй като обективно да оцените разузнаването и съзнание е изключително трудно поради желанието си да надценявам, трябва да се съобразяват с тях, разположени в средата на спектъра.
• В съвременното общество, на мястото на вземане на всякакви опции за бъдещето на пазара индекси (например търговски квоти, съгласно Протокола от Киото за емисиите на въглероден двуокис, или залог на изборите, война и т.н., фючърси на времето), той носи допълнителен елемент от непредвидимостта по принцип всички дейности. Поради тази търговия, ние не можем да знаем със сигурност дали глобалното затопляне на климата, изчерпването на петрола, каква е реалната заплаха от птичи грип.
• Друга причина за не-изчислим - тайна. Ако успеем да се запълнят в тайна, че чрез различни «конспиративните теории» В духа на книгата Симънс «здрача в пустинята" на преувеличени оценки на резервите на Саудитска масло, после се пространство разнопосочни интерпретации. (Това е, за разлика от обичайния случай, че точността се увеличава с броя на измерванията е нов факт, само увеличава разрив между противоречиви тълкувания.) Никое лице на Земята не разполага с пълна класифицирана информация, защото различни организации, различни тайни.
В психологически аспект на проблема е, че хората говорят както ако е налице не-изчислим. С други думи, можете да намерите на произволен брой на мнения и дискусии за бъдещето, в което той е принципен и многостранни непредвидимостта не взема под внимание, както и ограниченията на човешката способност за надеждно говоря за това.
33. Мониторинг селекция
Мониторинг селекция - форма на грешка, защото когато начинът, по който експериментът работи, някои от неговите резултати по-видима, отколкото други. Например, ярка звезда в небето по-забележима, но това не означава, че всички най-ярките звезди. Специален случай на наблюдение подбор е тази, когато е различен изход събития гледа различен брой наблюдатели, както в случая на смърт на наблюдател в един от резултатите. Така например, войници, оцелели от няколко месеца от войната са склонни да надценяваме тяхната устойчивост - тоест, те са родени погрешно чувство на собствените му неуязвимост. Global бедствие очевидно принадлежат към групата на процесите. За повече информация вижте моя статия «Природни бедствия и Антропогенна принципа" и главата за непреки оценки на вероятността за глобална катастрофа в настоящата книга.
Глава 5. Специални грешки, които възникват в дискусиите относно опасността от неконтролираното развитие на изкуствения интелект
1. Обхватът на становища за безопасността на изкуствени средства не е истинско доказателство за безопасност
Компютърни специалисти изразиха различни мнения за причините, поради които, по тяхно виждане AI е безопасно. Тези твърдения се изключват взаимно и, следователно, голяма част от нея невярна. Ето защо, ние спокойно мога да ги приведат като примери за грешки, а не става в официални документи за лицемерие на всяка реч. Прекарах онлайн анкета сред разработчиците AI, за това, което е гаранция за безопасност AI, и получи следният вариант на становището, с приблизително равен брой на хората, обект становище. Така че, «AI е безопасно, защото":
1) Тъй като не е невъзможно AI.
2) Поради AI може да избере само тесен задача, като разпознава изображения.
3) Тъй като ние правим универсална AI, ние се въведе трите закона на роботиката Азимов.
4) Защото аз знам как да се използва изкуствен интелект в полза на народа.
5) Тъй AI ще имат свръхчовешки мъдрост, по дефиниция, и не иска да нарани хора.
6) Тъй AI не се нужда от хора, и ние можем да съществувам съвместно мирно един с друг.
7) Тъй като той ще бъде заключен в моя компютър, и ако нещо се обърка, аз изключен електроенергия.
8) AI, тъй като не може да бъде неговата воля.
9) AI не е възможно без свободна воля, следователно, ние трябва да му дам свободата.
10) Тъй AI не можеш да направиш нищо лошо.
11) AI могат да бъдат опасни, но най-вероятно всички ще струват.
12) Не, AI опасно, и всички ние сме обречени.
13) AI ще унищожи човечеството и то е това, ние трябва да се стремим, както и изкуствен интелект - е по-напреднала форма на еволюция.
По време на oporosa Оказа се, че тези възгледи са разпределени равномерно по-голяма или по-малко. Това означава, че размерът на информация за безопасността AI, който учените са AI като цяло, е нула.
2. Е сбъркал идеята, че можете да създадете система безупречно, многократно я проекта и проверка на изходния код
Samy проверките, извършени редица нови бъгове, и следователно в известна степен на грешка е стабилизирана. Същото важи и за tselepolaganiya системи, които, например, са законите. Ние не трябва да очаквате, че ще бъде в състояние да създаде кодекс за поведение на AI, nesoderzhaschy грешки.
3. Грешки критикуват AI Penrouzom
Р. Penrose в книгата «Новите разузнаване Крал» AI, че contends е невъзможно, тъй като в мозъка се появят Non-изчислим квантови процеси, които са необходими за творческо мислене и съзнание. Въз основа на това често се твърди, че опасните AI е невъзможно. Струва ми се, че това заключение не е изцяло вярна поради следните причини:
1. Квантова природа на съзнанието - това не е meynstrim наука. Ние не можем да се основава на сигурността на човечеството за unproven (макар и интересна) теория.
2. Това е невъзможно да се докаже невъзможността на нещо в характера на теория. (Няма възможност да се докаже, те може - например, фон Нойман доказа възможността за самостоятелно механизми.)
3. За AI става опасен, не е необходимо да притежавате нито познания, нито способността за иновации. Съвременни AI може да победи всеки човешки шахмат без да се използват всякакви съвест или интуиция. Това е интуиция - тя е само полезна характеристика, да намали скоростта през комбинации, но замества алгоритми. Достатъчно е да кажа, че опасните AI - това AI, който може да победи всеки човек в играта. Война и печелят пари - това е най-разнообразни игри.
4. Ако някои специални квантовата функции се изпълняват от неврони или mikrotrubkami, не е изключено от използването им като елементи на бъдещето на мощни AI - като външен coprocessor. Квантовата компютрите са една от опциите. В крайна сметка, силно AI може да бъде не като компютър, но като генетично модифицирани хора с neyroshuntom (който е свързан директно към компютъра ви). И най-лошото, ако намери клас проблеми, които са налични, но не и достъпен компютър е възможно директното използване на хора за изпълнението на тези задачи, всяка от хората няма да знаят как то ще бъде негово решение. Така например, работата сега spamerskie програма - питат хората към вашия сайт с «Klubnichka» разпознаваме цели в картина от друг сайт, и по този начин да получат достъп до този сайт. При това, хора използват сляпо, защото хората не знаят какъв е резултатът от които ще бъдат използвани на други места. Много по същия начин, държавата наема учени да разработят оръжия.
5. Голям брой важни задачи могат да бъдат решени свърши, който е чрез крайните броя на операциите. Така например, тя може да става на всички възможни комбинации от белези, водещи до текста на доказателството на теоремата. С други думи, там е алгоритъм за решаване на всеки проблем. Въпросът само в неговата оптимизация. Може би решението на предизвикателствата, пред които може да се отрази на съдбата на човечеството, вероятно доста повече, дори и ако са налице някои задачи, които няма да решава за живота на вселената.
6. Ако успеят да докажат, че съзнанието си имал квантовата природа, тя ще се отвори нов свят на възможности, и затова новите рискове.
4. Схващането, че на 3 законите на роботиката А. Azimov достатъчно, за да решим всички проблеми на сигурността AI
Нееднократно в различни проучвания показват, че законите на роботиката не гарантират безопасността AI в голяма степен:
1. Тези закони са тавтология, като една AI следва, че ще бъдат безопасни, защото той няма да причини вреда.
2. Те съдържат конфликта, който майсторски срещу самия него се Azimovym истории - Роботът често е конфликт между 1, 2 и 3 от закона и в резултат на извършване на опасен начин.
3. Тези закони се прилага за автономни роботи, отколкото AI, който не е свързан с един единствен механизъм.
4. Те се основават на интуитивно понятие «зло», което не е определено от тях, може да отнеме произволна форма. Например: да се живее е вредно, тъй като на смърт.
5. Тези закони са вероятно желае - това е, което ние искаме от AI, а не правило, което той може да управлява. Не е известно как точно за осъществяване на тези закони AI.
5. Заблуди, че напредъкът в софтуера липсва
Разбиване алгоритми за факторинг номера се подобри по-бързо от хардуера. Има напредък и в други области, но той бе по-измерят. В крайна сметка напредъкът на оборудване - тя също аванси нашето разбиране за това как да направят малките чипове.
6. Заблуди, че никой в света е «maloperspektivnoy» като тема AI
Знаем, че няколко фирми и хора, които активно работят за създаване на универсален AI - Numenta, Novamenta, SIAI, a2i2. По-подробен преглед на програмата за създаване AI, Глава AI от рискове. 7. Заблуди, че AI - са различни специфични приложения, като например технологията разпознава изображения
Случва се замества говорим точки. В тази книга, под «AI» се разбира точно изкуствен интелект. От факта, че някой циркулира своята форма под марката «AI", въпреки че те са в действителност не са, че не трябва да AI е невъзможно. На английски език литература разпределени мандат GAI - Обща ПИ - Изкуствен интелект всеобщи, който е предназначен да премахне тази неопределеност, също са насърчени да използват термина "изкуствен интелект".
8. Anthropomorphism
Несъзнателно, ние вчовечавам AI много различни начини, и това създава очаквания. За повече информация вижте статията Yudkovski в приложението. В частност, ние AI възприемат като обект, който е някъде е, има ясни граници, цели и др
9. Сбъркал представа за това какво е да изключите AI на властта да го спре
Това твърдение се основава на предположението, че програмист AI ще познаят, когато процесът се обърка - очевидно греши. Второто невярно предположение - местоположението AI. Третият - че AI няма да могат да защитават тяхната храна, или маска, или да uydya мрежа. Четвърто - че програмист не може да бъде в тайни споразумения с AI (и / или излъга тях).
10. Погрешно схващане, че дори и разпространение в Интернет, никога няма да могат да оказват влияние върху външния свят
Грешиш - по интернет, можете да печелите пари и за всяко действие във външния свят. В допълнение, възможно договор с хора, изнудване и директни механизми за контрол.
11. AI погрешно мнение, че те не могат да бъдат собствените си желания, така че никога няма да причинят вреда на човека
За AI спечелила, тя ще оставя някои задачи. В процеса на прилагането им, той може да продаде всеки под-цел. Тези под-цели могат да бъдат много опасни, ако те nesformulirovano правилна ограничения. Най-известният пример - няма AI, натоварени да докажат хипотезата, Риман, и за тази цел, той прави всички материали в Слънчевата система Компютърни устройство.
12. Сбъркал представа за това какво AI ще погълне пространството, оставяйки на Земята човек
Това е едно добро желание, но тя вече има горчив вкус на капитулация. Няма причина да мисля, че AI се изисква и това би в действителност това.
13. Погрешно схващане, че всеки е с изкуствен интелект, така че той има за цел X (Заместник-дясно), а това е добро
Разузнаване - инструмент, който може да бъде насочена към постигане на всяка цел. Хората се радват на силен интелект да достигне примитивни цели, които са характеристика на алфа-мъж стадо маймуни - поддържа конкуренцията, за да направи място на жени, се храни - и заради всичко това писмено поеми, Теореми, тъкат терени. Следователно, съществуването на разузнаването не означава, не единствена цел. (Мисля, че това е така, в движение от факти, за да dolzhenstvovaniyam, която съдържа винаги логическа грешка.) И много по-абстрактно гол (да се опознаем по света, например) не могат да бъдат конкретни ползи за всички хора, защото всичко зависи от пътя към реализирането на тази цел .
14. Погрешно схващане, че модерните компютри са много ограничени във възможностите си, така AI ще бъде само в далечното бъдеще - чрез десетки или стотици години
Тъй като ние не знаем какво AI, ние не знаем какво трябва да се изобрети да създадем това, и затова не могат да правят точни прогнози за времето. ПИ може да се случи утре - a2i2 Компанията планира да завърши своя проект през 2008 г., други проекти са насочени към 2011 г., сегашния темп на напредък в изграждането на мощни компютри са достатъчни, за да се създаде компютри, които са близки до производителността на нашия мозък, в идните години, и няма неизбежни причини за ръста на мощта на компютри, за да намали.
15. Погрешно схващане, че напредъкът в разбирането на мозъка е много бавно. Затова AI ще се работи много бавно
Но мудността на подготвителните процеси не означава medlennosti самия изборен процес. Yudkovski статия, ще намерите в приложението, refutes този пример на разликата между развитието на ядрени оръжия и скорост на процесите в бомба.
16. Сбъркал представа за това какво хората могат да направим X (Заместник-дясно), че никога няма да бъде в състояние да направят AI, AI и затова не представлява заплаха
«Х» да имат различни тълкувания на творчески прозрения, интуиция, бързи образи, сетивен опит, разбиране, любов. Въпреки това:
1. Ние не знаем какво може или не може да AI, които не са направили това.
2. ПИ могат да бъдат опасни, дори ако той не може да го направи X. Така например, той може да спечели в нашия шах на фондовата борса, или всяка друга игра от жизненоважно значение за нас.
3. Ако има нещо като предизвикателство, което може само да се справят с хора, AI май под наем или да се покори на хората да решат това. Така например, съвременното състояние наема учени, и дава на всяка част от задачата на проектиране, да речем, атомната бомба.
17. Ал погрешно схващане, че е невъзможно, защото той си мисли algorithmically, един човек - nealgoritmicheski
Изискването да се създаде algoritmichnosti AI не е необходимо. Генетични алгоритми, квантови компютри, имплантиране на неврони в чипове и рандомизирани методи изисква algoritmichnosti условно. Въпросът за това как той мисли, че хората са все още отворени. Напоследък успява да учат компютър, който да играе по-добър покер (Тексас халдейците - и се смята, че е покер игра, което е особено важно интуиция) и по-добър човек да играе пазара (модели). Това означава, че реални хора ще загубят пари, когато са изправени с компютри, на фондовата борса, или в онлайн турнири. Изглежда, че за тях въпросът за това дали компютърът съзнание, или калкулатор не е толкова важно, колкото това колко са загубени. Ако компютърът научава да разпознаят образи на външния свят, той също ще бъде в състояние ефективно да победят при спорове често посещавано място в гората, стрелба по цели, които да правят чертежи.
Лицето, което е угодно да мисля, че е по-добре (умен, ангажирани и т.н.) на компютъра, защото той имал интуиция. Но ако това е така, то трябва да бъдат лекувани с подозрение от тази идея, защото тя може да се дължи на емоции. Ние не можем да основава своите система за сигурност за одобрение, което ние сме доволни. Или може би ние подценявайте силата на алгоритми? Изведнъж има такъв алгоритъм, който е по-силно от моята интуиция?
18. Сбъркал представа за това какво AI ще бъде приблизително същата като умни хора
Налице е погрешно схващане, че AI ще има за човешките способности, и в бъдеще има общество, съставен от хора, и "робот". Въпреки това, много от човешкия мозък, вероятно е само една малка част от множеството на всички възможни умове. Затова е малко вероятно, че достигането на ниво на човека изкуствен интелект да спре това. Чрез увеличаване на своята скорост, заедно с хиляди други AI, добавяйки bezoshibochnost компютър и памет, ние можем хиляди пъти, за да се засили AI ниво на човека, а не фундаментални открития.
19. Сбъркал представа за това какво би AI равни права офицер със същите възможности и права
Ето объркана AI и отделна робот. В случай, че капацитетът му ще бъде безкрайно извън човека, на «равенство» те ще бъдат много, в ущърб на народа. Както във всяка равна конкуренция, той ще надигравам хора. В допълнение, те ще имат свои възприятия на собствения капитал.
20. Сбъркал представа какъв ще е много AI
Когато казваме «вирусът се разпространява по интернет", имаме предвид вирус, въпреки че той има много копия. Когато говорим за интернет, ще означава едно интернет. Когато ние говорим за състояние (вътре в нея), ние също да кажа една държава. Или AI ще бъде един, макар че той може да бъде много копия и прояви. Дори ако няколко вида AI, единствен сред тях ще бъде принципал. Така че скоро не са изправени пред множество от отделни звука машини, и на система за нечовешко съдържание; примери за такива системи са наука, държавата и в Интернет.
21. Различията в разбирането за това какво всъщност е интелигентен
Може да се даде правилното определение за разузнаването - е вече почти се създаде изкуствен интелект. От гледна точка на сигурността е да се предвиди опростена дефиниция: AI - тази машина е в състояние да печели във всяка човешка дейност (или най-малко една дейност, която е от жизненоважно значение за хората, но ще кажа от Службата на процесите - че има информационни дейности). Това е, ние AI дефинира чрез своята способност за решаване на практически, измерими цели. Ще оставя настрана въпроса за съзнание, свободна воля, творчество. Това определение е по принцип същата като предложената дефиниция Yudkovski AI като «мощен процес на оптимизация".
22. Сбъркал еднозначна идентификация AI с един единствен обект
Ал установили, че той (ефективно в процеса на оптимизация), но идеята, че е същността на които водят до тези действия, може да ни доведе до объркване. Така например, процесът на еволюция в смисъл darvinovskom генерира все по-ефективни решения. Въпреки това, този процес не е център, който повдига целта, или че могат да бъдат унищожени.
23. Сбъркал представа за това какво се крие AI в «черна кутия", за да стане безопасно
Ако сме поставени AI в «черна кутия» (което е напълно изолирано него) и след това получи резултатите от работата му, тогава има двустранна размяна на информация и «черна кутия» не е така. Ако ние не получим информация от «черна кутия», тази сума до това, което по принцип не е включена. Най-сложното тук е да се знае, че AI се появи да се разбере, че е време ние да я тури в «черна кутия". И накрая, AI може да Крек «черна кутия» от, например, радио-радиация или schityvaya текущи колебания в сила.
24. Грешен вид апел следния начин: "в Япония, вече има един проект за създаване AI в 80's, и той не успя, така че е невъзможно AI»
През 1880 са били на някои от самолетите, и те провали. След това, разпространението на мнение, че самолетът е невъзможно. Това е няколко неуспешни опити да negodnymi означава, не означава невъзможност за принцип. В допълнение, проектът не е умряло в Япония до края, а от друга, отглеждани-AI проекти, просто по-малко afishiruemye. Въпреки това, този ярък провал, засегнати както на доверието на обществото към такива проекти, както и тенденция на изследователите да обещават невероятни резултати.
25. Сбъркал представа какво трябва да въведете AI X (Заместник-дясно), и всичко ще се оправи
Екип «Н» може да бъде: «Обичам всички хора", "да не причиняват вреда на хората", "Чух само» и др Но ние не можем да проверим как точно AI има команда, докато не го изпълним. Когато изпълнявате, може да бъде твърде късно. 26. Недоразумение в дух: "Когато се постигне ефективност в прилагането AI, мислех, че за неговата безопасност»
Фалшиви. Проверете ефективността AI, можете да го изпълним по предизвикателни задачи, свързани с реалния свят. Ако AI излязоха от контрол, тогава мисля за гаранцията може да бъде твърде късно. Някои видове AI, не може да бъде съвместима със стандартната гаранция, например, на базата на генетични алгоритми. Поради това, мерките за сигурност трябва да бъдат интегрирани в AI от самото начало, те не могат да бъдат doveskom на него. И във всички други големи проекти разглеждане сигурност от самото начало.
27. Недоразумение в духа: "Малко вероятно, че нашият проект е да създаде AI ще бъде извън контрол»
В един свят на много по-AI проекта и малко познания за това как да се измерва вероятността от неконтролираното разпространение AI. Достатъчно е тя да загуби контрола на един проект. Освен това, когато един програмист използва силната AI за свои цели, от своя гледна точка, че не изглежда бунт, но от гледна точка на другите хора - е то.
28. Недоразумение в духа: "Ние не можем да не им пука какво прави, защото AI решаване на всички наши проблеми»
Сред поддръжниците на мощни AI отговаря на виждането, че някои бъдещи проблеми няма да бъдат решени, защото когато един мощен AI, той ще намери по-добро и по-точно решение на тези проблеми. Все пак, преди започването на мощни AI в реалния свят ние трябва да го попитам някои задачи, както и да артикулират правилно това, което искам и не искам да бъда добър да мисля за това предварително.
29. Netozhdestvennost възможности и намерения
Разглеждане на когнитивни изкривявания в духа на «гигант vatrushki» Yudkovski статия в тази книга. Същността му е, че ако AI може да се направи, това не означава, че той ще направи това. Ако AI могат да пекат гигант vatrushki, това не означава, че бъдещето свят ще се изпълни с гигантски vatrushkami. Това е, ние не бива да се бърка мотиви, и способността AI.
Глава 6. Специални грешки, свързани с дебат за рисковете от нанотехнологиите
1. Погрешно мнение, че нанотехнологиите не е възможно, тъй като е невъзможно да се установят механизми за най-близката Atom
Това не е така - има протеини, които са много различни механизми: клапани, ножици, мотори - и са важни и местоположението на всеки атом.
2. Сбъркал представа за това какво nanofabriki безопасни nanoassemblerov
Nanofabriki - това макроскопичния устройство, генериращи nanorazmerov устройство (например производство на чипове photolithography). Nanoassemblery - nanorazmerov устройството е в състояние да произвеждат копия на себе си. Използването може да се направи друг и обратното, тоест, тези устройства функционално изоморфен.
3. Погрешно мнение, че нанотехнологиите е толкова далече от нас в момента, в който те не могат да мисля
От практическото приложение на нанотехнологиите ни разделя само знания пропуски. Ако бяхме, можем да събират ДНК-веригата, който бе стартиран през клетката бактерии, ще направи дистанционно контролирани nanoassembler.
4. Заблуди в духа на "Нанотехнологии идват само за пране на пари»
Тъй като такова обяснение може да се приложи в нещо, той не обясни. Дори ако някой пере пари чрез използване на нанотехнологиите, това не означава, че nanoroboty невъзможно. Рухването на точкови Komov не означава, че не можете да печелите пари в Интернет.
5. Погрешно мнение, че нанотехнологиите е свързана само със суровини, материали и глоба nanotubes
Не всички мислим така, поддържана и развитие на nanorobotov. Временно между nanorobotami и nanomaterials е литография чип, който позволява vytravlivat всички механизми на силиций, включително движими части - технология на МЕМС (например, mikromayatniki за gyroscopes). Основното е постигнат Мур на Закона Именно чрез развитието на нанотехнологиите все повече точност, отпечатване на полупроводници.
6. Сбъркал представа за това какво nanoroboty ще бъде слабо от бактерии, тъй като бактериите са взели милиарди години, за да се адаптират към околната среда
То е не повече от вярно твърдението, че «самолетът ще бъдат безопасни за птиците, тъй като птиците са се разви в продължение на милиони години". Хората обикновено се постигне чувствате биологичен на един параметър (размер, бързина, скорост).
7. Погрешно схващане, че ако nanoroboty възможно, те биха създали природата
Природата не е на колело, но е възможно и ефективно. От друга страна е създало характера аналогова nanorobotov под формата на бактериите, които се посочи възможността за принципен сама самостоятелно микроскопични устройства.
8. Сбъркал представа за това какво nanoroboty няма да можете да възпроизвеждате в природна среда
Ако бактериите могат да възпроизвеждат в природата, тя може да nanoroboty - защото те могат да използват всички методи на разположение на бактерии.
9. Сбъркал представа за това какво nanorobotov в околната среда ще бъде лесно да се унищожи бомба
Да направиш това, което трябва да знаете точно къде са те. Ако те вече са infiltrated града, а след това ги взривяват би било невъзможно. Това не е борба с инфекциозните заболявания с помощта на бомби.
10. Сбъркал nanoroboty представа за това какво ще съдържа само няколко атома, е невъзможно или malofunktsionalno
Име «nanoboty» условно и не означава, че дължината nanobota ще бъде равна на няколко nanometers. То може да бъде с дължина от 1 микрометър и по-самостоятелно и в състояние да изпълнява множество функции. И тя е невидима. В този случай, тя ще съдържа милиарди или дори trillions атоми.
11. Сбъркал представа за това какво би било nanoroboty глупави и неефективна, тъй като те не биха могли да намерите на компютъра
Вътре всеки човешки клетки ДНК е около 500 мегабайта, който е ангажиран с милиони операции в секунда. Това е достатъчно, за да създадете доста силен компютър. Това ни показва постижима граница на плътността изчисления, макар и не непременно във nanorobotah той ще бъде използван ДНК компютрите. Nanoroboty ще могат да се присъединят в местната мрежа, увеличаване на неговата изчислителни мощности много пъти.
12. Д. Drechsler възможни възражения осъществимостта на нанотехнологиите
       След това докарам обширни цитат от Д. Drechsler, основател на идеята на nanorobotov, които подчертават името glavok: "Да не се правят на несигурността принципа на квантовата физика молекулни машини недостижим? Между другото, този принцип се посочва, че е невъзможно да се определи точното местоположение на частиците, по време на всеки период от време. Това ограничения какво може да направи молекулни машини, както и ограниченията, които могат да направим нещо друго. Независимо от това, изчисленията показват, че принципът на несигурността налага няколко значителни ограничения върху лекотата атомите биха могли да бъдат поставени на техните места, поне за тези цели, който очертава тук. Принцип на несигурността кара местонахождението на електроните доста неясни, а в действителност я определя самото vagueness на размера и структурата на атомите. Atom като цяло, обаче, е сравнително на място, което съответства на относително масивни ядро. Ако атомите не запази своята позиция в сравнително добро състояние, молекулите би не съществува. Квантовата механика не е длъжен да доказва този извод, тъй като молекулярен машини на клетката са доказали, че молекулните машини работа. Не предизвиквайте топлина вибрациите на молекулите на молекулните машини dysfunctional или твърде ненадеждни да ги използват? Топло колебания предизвика по-голям проблем, отколкото несигурността принцип. Въпреки това, съществуващите молекулни машини пряко докажат, че молекулните машини могат да работят в нормални температури. Въпреки колебанията на топлина, за механизмите на ДНК копиране в някои клетки прави по-малко от една грешка на 100 000 000 000 операции. За да се постигне такава точност, обаче, клетките употребявани автомобили (например ензим, ДНК-полимераза I), копие, които проверяват и коригират грешки. За събрание може да се наложи подобна възможност за проверка и коригиране на грешки, ако те са за издаване на надеждни резултати. Ще лъчение да унищожат молекулната машини и ги правят негодни за употреба? Високо енергийни лъчения може да се счупят химически облигации и унищожат молекулната машини. Живи клетки още веднъж показват, че съществуват решения: те работят през годините, ремонт и замяна на повредената част от радиация. Въпреки това, защото всяка машина е малка, тя представлява една малка цел за лъчения и радиационната рядко попада в нея. Въпреки това, ако системата nanomashin трябва да бъдат надеждни, то трябва да издържи определен размерът на щетите и повредени части трябва да бъдат редовно chinitsya или заменено. Този подход за надеждност е много познат на разработчиците на самолети и космически кораби. Еволюция не успя да направи асемблер. Да не каза, дали тя е, че те са или невъзможно или безсмислено? В отговор на предишните въпроси, в страна, ние имаме по-вече работа молекулни машини на клетките. Те са прости и мощно доказателство, че законите на природата позволяват малки групи от атоми, да се държим като контролирани машини, които могат да изградят други nanomashiny. Въпреки това, въпреки факта, че те наподобяват едно ribosomy, асемблер ще се различава от нищо, което е в клетки, въпреки че те са нормални движения на молекули и реакции, това, което правя, ще има нови резултати. Така например, не клетка не произвежда Diamond същност. Доказателство предпроектни асемблер и други nanomashin може да изглежда разумна, но защо не чакаме и да видим дали те могат да се развиват? Нетните любопитство изглежда достатъчна причина да се проучат възможностите открити нанотехнологии, но има силни причини. Нанотехнологии обхване света в рамките на десет до петдесет години, който е в рамките на времева рамка живота на нашите собствени или членове на нашето семейство. По-значително, за сключване на следващата глава предполагат, че политиката на "чака-виж" би било твърде скъпо: тя ще струва милиони живота, а вероятно и живота на Земята ".
13. Нашата тенденция да се очакват огромни резултати само от Голямата причина за
Drechsler илюстрира тази заблуда counterexamples следното: "SKUCHNY обстоятелство: Броят на електрическите ключове може да бъде включен и изключване на всеки друг. Тези ключове могат да бъдат направени много малки и консумиращи малко енергия. Амбициозни резултат на това: ако комбинирате правилно, тези ключове форма компютри, техника информация революция ... Чувство отегчен обстоятелство: мухъл и бактерии се конкурират за храна, а някои мухъл научи да разпределя отрови, които убиват бактериите. Амбициозни резултат: пеницилин, победа в продължение на много бактериални заболявания и спестяване на милиони животи ".
14. Погрешно схващане, че подробности ще бъдат nanomashin щеки заедно, защото на квантовата, Ван дер Waals сили и други
Но протеините в живите клетки, да не стърчи заедно. Предложените варианти за Drekslerom нанотехнологиите с механични роботи от almazoida с zubchikami и колела - не е единствения. Има междинни варианти psevdobiologichesim устройство.
15. Сбъркал представа за това какво активна nanotehnologichesky щит, както и на имунната система ще бъде добра защита срещу вредните nanorobotov
Никой не на имунната система, в действителност, а не в живите организми, не вирус в компютрите, не е абсолютно достоверна. В допълнение, има avtoimmunnye заболяване. Виж повече глава «активни щитове".
16. Сбъркал представа за това какво Drechsler - мечтател, но това нанотехнологиите е в нещо друго
Трябва да отговарят на одобрение от професионалисти в областта на нанотехнологиите, че nanoroboty Drechsler - това е фантазия, но това нанотехнологиите са подробно описани измерване на някои много добре параметрите на малки структури. Но реалността е, че тези изследвания са на различни нива. Изследвания Drekslera принадлежат към «проект» равнище. Точно както тя принадлежеше идеята да се направи атомна бомба в съответния курс. Така че това ниво на гората, а не дървета. Ерик Drechsler - не само ясновидец Advanced нанотехнологиите, свързани с производството и молекулна nanorobotami. Можете също така обаждане Р. Freitas център и други служители, отговорни нанотехнологиите. Глава 7. Констатации от анализа на когнитивни изкривявания в оценяването на глобалните рискове
Големината на влиянието на грешките в дебат по глобални рискове могат да бъдат измерени чрез сравняване на гледните точки на различни експерти, учени и политици относно възможността за евентуална глобална катастрофа и нейните възможни причини. Лесно е да се уверите, че разпръскването на мненията е огромна. Някои смятат кумулативния риск незначителен, а други вярват в неизбежността на човешката изчезване. Като възможни причини се нарича най-различни технологии и сценарии, с различни експерти предлагат на своите набори от възможните сценарии и множество невъзможни сценарии.
То е ясно, че корените на разпръскването на мненията - в най-различни движения на мисълта, които, при липса на някакви видими референтна точка, е склонни към различни отклонения и когнитивни изкривявания. Тъй като ние не можем да намерим отправна точка за глобални рискове в експеримента, е желателно това отправна точка беше открит дебат относно методологията на изследването на глобалните рискове въз основа на които може да бъде единна и всеобщо възприети картина на глобалните рискове.
Глава 8. Възможни правила за сравнително добра оценка на глобалните рискове
1. Принципа на предпазливостта
Това означава подготовка за най-лошия случай реалистичен сценарий във всички ситуации на несигурност. Ако вземе реалистичен сценарий, който не противоречат на известните закони на физиката и има вероятност точно измерими над определен праг. Това е в съответствие с принципа на консервативната инженерна оценка. Въпреки това, е необходимо да се ирационални, тоест, не трябва да преувеличавате ситуацията. Един от формулировката на предпазното принципът звучи така: "принципа на предпазливостта е морално и политически принцип, който гласи, че ако някои действия или политика може да доведе до тежки и необратими щети на обществото, в отсъствието на научно съгласие, че вредата не ще тежестта на доказателствата престъпници с тези, предлагаща тези действия ".
2. Принципът на съмнение
Принципът на съмнение, изисква се даде възможност за всяко грешно идеи. Но съмненията не трябва да доведе до нестабилност на мисълта, слепи доверие власт, липсата на становище и несигурност в него, ако се докаже.
3. Открита дискусия
Важно е да се запази открита дискусия по всички видове рискове. Това означава, че разглеждането на всички възражения, като истински достатъчно време да се оцени него преди неговата решимост да отхвърлят. Да не се хабя никакви възражения да отидете и подкрепа на наличието на опоненти.
4. Самоуправление
Непрекъснато анализ на техните констатации за евентуални грешки на всички списъци.
5. Независими повторно изчисляване
Това включва независима изчисляване на различни хора, както и сравнение на преки и косвени оценки.
6. Непряко оценка на грешките
Ние можем да се оцени степента на подценяване на глобалната катастрофа, проверка на степента, в която хората подценяват рисковете са сходни - това е уникален рисковете от бедствия. Например, космически кораб «мястото» са изчислени на един инцидент повече от 1000 полети, но първият инцидент настъпил на 25-тия полет. Това е първоначална оценка от 1 до 25 ще бъде по-точна. Ядрени съоръжения са построени да направи този инцидент и след милион години, но аварията в Чернобил се наблюдава около 000 гари, след 10-годишна употреба (този брой се получава от умножаването на броя на гарите до точката на средното време на операцията, и изисква уточнението). И така, в първия случай на реална съпротива е 40 пъти по-зле от проекта прогноза, а втората - 100 пъти по-зле. Следователно, ние можем да заключим, че в случай на уникалния комплекс, хора подценяват риска за десетки пъти.

       

Заключение. Перспективите за предотвратяване на глобалната катастрофа
Човечеството не е обречена на изчезване. И дори когато шансовете ни са малки, безкрайно голямо бъдеще е, че за него да се бие. Определено положителен факт е, че пауза на леда - в 2000 г. на значително се увеличава броят на публикации по общи и глобални катастрофи започна общото разбиране на проблема. Очаква се, че през идните десетилетия, проблемът за глобалното риск ще бъде универсално приета, и хора, поета разбиране на важността на тези въпроси ще бъде в сила. Може би това няма да стане плавно и след болезнените удари, както и 11 септември всяка от които ще се подобри четимостта на литературата по глобалните рискове и podhlestnet дебат. В допълнение към това се надяваме, че усилията на отделни лица и групи от заинтересовани граждани, ще допринесе за реализацията на такива далновидни стратегия, като разликата развитието на технологиите. Именно, развитието на приятелски AI ще бъде бързо, отколкото, например, изтеглете съзнание в компютъра, която трябва да получат огромни правомощия, но ще бъде неудържим. Важно е също, че една силна AI дойде по-рано от появяват силни нанотехнологиите - отново за да бъде в състояние да ги контролираме.
Може би ние ще трябва да се приемат за период от свръхпредлагане и дори тоталитарния контрол над човешката дейност в момент, когато рискът е по-дълъг, както и разбиране на конкретните заплахи - е минимален. През този период няма да разбере какво знание е наистина знание за масово унищожение, като - безвреден играчка.
То може да бъде, че ние просто късмет и няма риск не осъществявам. От друга страна, възможно е, че ние сме по-малко късмет, а поредица от големи бедствия otbrosit цивилизация в нейното развитие е далеч назад, но съществуват хора и да намерите мъдър подход към изпълнението на технологичния напредък. То може да бъде, че на този път ние имаме труден избор: да остане завинаги в средновековната равнище, отколкото на компютри и полет до звездите, или на риск и се опита да стане нещо голямо. Въпреки всички рискове, този втори вариант ми изглежда по-привлекателна, тъй като затворена на Земята, човечеството е обречено рано или късно до изчезване от природни причини.
Там е и нарастващата усилия за изграждане на домове от различни видове: в Норвегия построи склад за семена, в случай на глобална катастрофа. Въпреки, че в магазина не е спаси хората, които хвалят самият намерение да инвестират пари и ресурси в реални проекти, влиянието на което е възможно само през вековете. Активно обсъдиха проект за създаване на подобен подслон на Луната, който дори нарече «резервни диск за цивилизацията". В това светилище да продължи, не само всички знания на хората, но също така и замразени човешки ембриони с надеждата, че някой (извънземни?) И след възстановяването им на живот.
Въпреки това, в тази книга се опитах да покажа, че неподходящи действия за предотвратяване на катастрофи могат да бъдат не по-малко опасно, отколкото самата катастрофа. Ето защо, в момента, основните усилия трябва да се съсредоточат не върху конкретни проекти, а не дори и за насърчаване на «зелени» начин на живот, и да се повиши разбирането за същността на възможните рискове за формирането на научен консенсус, че е действително опасно и какво ниво на риск приемливи. При това, такава дискусия не може да бъде за неопределено време, както и в някои по-абстрактни области, както когато сме поемате риска «сън» Недвижими предстоящото бедствие. Това означава, че ние сме ограничени във времето.
Литература


1. Blair Bruce G. The Logic of Accidental Nuclear War. Brookings Institution Press, 1993.
2. Bostrom N. and Tegmark M. How Unlikely is a Doomsday Catastrophe? // Nature, Vol. 438, No. 7069, C. 754, 2005. (Русский перевод: Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа Судного дня? http://www.proza.ru/2007/04/11-348 )
3. Bostrom N. Antropic principle in science and philosophy. L., 2003.
4. Bostrom N. Are You Living In a Computer Simulation?. // Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243-255., http://www.simulation-argument.com/, (Русский сокращённый перевод: http://alt-future.narod.ru/Future/bostrom3.htm )
5. Bostrom, N. and M. Cirkovic eds. Global Catastrophic Risks. Oxford University Press. 2008.
6. Bostrom, N. Existential Risks: Analyzing Human Extinction Scenarios. // Journal of Evolution and Technology, 9. 2001. (Русский перевод: Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и связанных опасностей. Пер. с англ.: http://www.proza.ru/2007/04/04-210)
7. Bostrom, N. How Long Before Superintelligence? // International Journal of Futures Studies, 2. 1998. URL: http://www.nickbostrom.com/superintelligence.html.
8. Bostrom, N. Observer-relative chances in anthropic reasoning? // Erkenntnis, 52, 93-108. 2000. URL: http://www.anthropic-principle.com/preprints.html.
9. Bostrom, N. The Doomsday Argument is Alive and Kicking. // Mind, 108 (431), 539-550. 1999. URL: 10. Bostrom, N. The Doomsday argument, Adam & Eve, UN++, and Quantum Joe. // Synthese, 127(3), 359-387. 2001. URL: http://www.anthropic-principle.com.
11. Cirkovic Milan M., Richard Cathcart. Geo-engineering Gone Awry: A New Partial Solution of Fermi's Paradox. // Journal of the British Interplanetary Society, vol. 57, pp. 209-215, 2004.
12. Cirkoviс Milan M. The Anthropic Principle And The Duration Of The Cosmological Past. // Astronomical and Astrophysical Transactions, Vol. 23, No. 6, pp. 567–597, 2004.
13. Collar J.I. Biological Effects of Stellar Collapse Neutrinos. // Phys.Rev.Lett. 76, 1996, 999-1002 URL:http://arxiv.org/abs/astro-ph/9505028
14. Dar, A. et al. Will relativistic heavy-ion colliders destroy our planet? // Physics Letters, B 470, 142-148. 1999.
15. Dawes, R.M. Rational Choice in an Uncertain World. San Diego, CA: Harcourt, Brace, Jovanovich, 1988.
16. Diamond Jared. Collapse: How Societies Choose to Fail or Succeed. Viking Adult, 2004.
17. Drexler, K.E. Dialog on Dangers. Foresight Background 2, Rev. 1. 1988. URL: http://www.foresight.org/Updates/Background3.html.
18. Drexler, K.E. Engines of Creation: The Coming Era of Nanotechnology. London: Forth Estate. 1985. URL: http://www.foresight.org/EOC/index.html.
19. Fetherstonhaugh, D., Slovic, P., Johnson, S. and Friedrich, J. Insensitivity to the value of human life: A study of psychophysical numbing. // Journal of Risk and Uncertainty, 14: 238-300. 1997.
20. Foresight Institute. Foresight Guidelines on Molecular Nanotechnology, Version 3.7. 2000. URL: http://www.foresight.org/guidelines/current.html.
21. Forrest, D. Regulating Nanotechnology Development. 1989. URL: http://www.foresight.org/NanoRev/Forrest1989.html.
22. Freitas (Jr.), R.A. A Self-Reproducing Interstellar Probe. // J. Brit. Interplanet. Soc., 33, 251-264. 1980.
23. Freitas (Jr.), R.A. Some Limits to Global Ecophagy by Biovorous Nanoreplicators, with Public Policy Recommendations. Zyvex preprint, April 2000. URL: http://www.foresight.org/NanoRev/Ecophagy.html. (Русский перевод: Р.Фрейтас. Проблема серой слизи. http://www.proza.ru/2007/11/07/59)
24. Gehrels Neil, Claude M. Laird, Charles H. Jackman, John K. Cannizzo, Barbara J. Mattson, Wan Chen. Ozone Depletion from Nearby Supernovae. // The Astrophysical Journal, March 10, vol. 585. 2003.
25. Gold, R.E. SHIELD: A Comprehensive Earth Protection System. A Phase I Report on the NASA Institute for Advanced Concepts, May 28, 1999.
26. Gott J. R. AII. Implications of the Copernican principle for our future prospects. // Nature, 363, 315–319, 1993.
27. Gubrud, M. Nanotechnology and International Security, Fifth Foresight Conference on Molecular Nanotechnology. 2000. URL:
28. Hanson R. Catastrophe, Social Collapse, and Human Extinction // Global Catastrophic Risks, ed. Nick Bostrom. 2008. http://hanson.gmu.edu/collapse.pdf
29. Hanson, R. Burning the Cosmic Commons: Evolutionary Strategies for Interstellar Colonization. Working paper. 1998. URL: http://hanson.gmu.edu/workingpapers.html.
30. Hanson, R. et al. A Critical Discussion of Vinge's Singularity Concept. // Extropy Online. 1998. URL: http://www.extropy.org/eo/articles/vi.html.
31. Hanson, R. What If Uploads Come First: The crack of a future dawn. // Extropy, 6(2). 1994. URL: http://hanson.gmu.edu/uploads.html.
32. http://www.acceleratingfuture.com/michael/blog/?p=539
33. http://www.proza.ru/2007/05/14-31
34. Jackson, R.J. et al. Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox. 2001. Journal of Virology, 73, 1479-1491.
35. Joy, B. Why the future doesn't need us. // Wired, 8.04. 2000. URL: http://www.wired.com/wired/archive/8.04/joy_pr.html.
36. Kahneman, D. and Tversky, A. eds. Choices, Values, and Frames. Cambridge, U.K.: Cambridge University Press, 2000.
37. Kahneman, D., Slovic, P., and Tversky, A., eds. Judgment under uncertainty: Heuristics and biases. NY, Cambridge University Press, 1982.
38. Knight, L.U. The Voluntary Human Extinction Movement. 2001. URL: http://www.vhemt.org/.
39. Knobe Joshua, Ken D. Olum and Alexander Vilenkin. Philosophical Implications of Inflationary Cosmology. // British Journal for the Philosophy of Science Volume 57, Number 1, March 2006, pp. 47-67(21)
40. Kruglanski A. W. Lay Epistemics and Human Knowledge: Cognitive and Motivational Bases. 1989.
41. Kurzweil, R. The Age of Spiritual Machines: When computers exceed human intelligence. NY, Viking. 1999.
42. Leslie J. The End of the World: The Science and Ethics of Human Extinction. 1996.
43. Leslie, J. Risking the World's End. Bulletin of the Canadian Nuclear Society, May, 10-15. 1989.
44. Mason C. The 2030 Spike: Countdown to Global Catastrophe. 2003.
45. Melott, B. Lieberman, C. Laird, L. Martin, M. Medvedev, B. Thomas. Did a gamma-ray burst initiate the late Ordovician mass extinction? // arxiv.org/abs/astro-ph/0309415, (Русский перевод: Гамма-лучи могли вызвать на Земле ледниковый период. http://www.membrana.ru/articles/global/2003/09/25/200500.html
46. Merkle, R.. The Molecular Repair of the Brain. Cryonics, 15 (1 and 2). 1994.
47. Michael Foote, James S. Crampton, Alan G. Beu, Bruce A. Marshall, Roger A. Cooper, Phillip A. Maxwell, Iain Matcham. Rise and Fall of Species Occupancy in Cenozoic Fossil Mollusks // Science. V. 318. P. 1131–1134. 2007.
48. Milgrom Paul, Nancy Stokey. Information, trade and common knowledge. // Journal of Economic Theory, Volume 26:1, pp. 17-27. 1982.
49. Moravec, H. Mind Children: The Future of Robot and Human Intelligence, 1988.
50. Moravec, H. Robot: Mere Machine to Transcendent Mind. New York: Oxford University Press. 1999.
51. Moravec, H. When will computer hardware match the human brain? // Journal of Transhumanism, 1. 1998. URL: http://www.transhumanist.com/volume1/moravec.htm.
52. Morgan, M.G. Categorizing Risks for Risk Ranking. // Risk Analysis, 20(1), 49-58. 2000.
53. Neil Gehrels, Claude M. Laird, Charles H. Jackman, John K. Cannizzo, Barbara J. Mattson, Wan Chen. Ozone Depletion from Nearby Supernovae. // Astrophysical Journal 585: 1169–1176. Retrieved on 2007-02-01. http://xxx.lanl.gov/abs/astro-ph/0211361
54. Nowak, R. Disaster in the making. // New Scientist, 13 January 2001. 2001. URL:
55. Perrow, Charles. Normal Accidents: Living with High-Risk Technologies. Princeton University Press. 1999.
56. Posner Richard A. Catastrophe: Risk and Response. Oxford University Press, 2004.
57. Powell, C. 20 Ways the World Could End. Discover, 21(10). 2000. URL: http://www.discover.com/oct_00/featworld.html.
58. Raffensberger C, Tickner J (eds.) Protecting Public Health and the Environment: Implementing the Precautionary Principle. Island Press, Washington, DC, 1999.
59. Robock, Alan, Luke Oman, и Georgiy L. Stenchikov: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences. // J. Geophys. Res., 112, D13107, doi:2006JD008235. 2007. (Русский перевод:  )
60. Roland Jon. Nuclear Winter and Other Scenarios, 1984. рукопись. http://www.pynthan.com/vri/nwaos.htm
61. Ross, M. & Sicoly, F. Egocentric biases in availability and attribution. // Journal of Personality and Social Psychology 37, 322-336. 1979.
62. Shute, N. On the Beach. Ballentine Books. 1989.
63. Simmons Matthew R. Twilight in the Desert: The Coming Saudi Oil Shock and the World Economy. NY, 2005.
64. Sir Martin Rees. Our final hour. NY, 2003.
65. Stevenson David. A Modest Proposal: Mission to Earth’s Core. // Nature 423, 239-240 2003.
66. Svenson, O. Are we less risky and more skillful that our fellow drivers? Acta Psychologica, 47, 143-148. 1981.
67. Taleb, N. The Black Swan: Why Don't We Learn that We Don't Learn? NY, Random House, 2005.
68. Tegmark M. The interpretation of quantum mechanics: many worlds or many words? // Fortschr. Phys. 46, 855-862. 1998 http://arxiv.org/pdf/quant-ph/9709032
69. Tickner, J. et al. The Precautionary Principle. 2000. URL: http://www.biotech-info.net/handbook.pdf.
70. Turner, M.S., & Wilczek, F. Is our vacuum metastable? Nature, August 12, 633-634. 1982.
71. Vinge, V. The Coming Technological Singularity. Whole Earth Review, Winter issue. 1993.
72. Ward, P. D., Brownlee, D. Rare Earth: Why Complex Life Is Uncommon in the Universe. NY, 2000.
73. Warwick, K. March of the Machines. London: Century. 1997.
74. Whitby, B. et al. How to Avoid a Robot Takeover: Political and Ethical Choices in the Design and Introduction of Intelligent Artifacts. Presented at AISB-00 Symposium on Artificial Intelligence, Ethics an (Quasi-) Human Rights. 2000. 75. Yudkowsky E. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, - UK, Oxford University Press, to appear 2008. (Русский перевод: Е.Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/2007/03/22-285)
76. Yudkowsky E. Cognitive biases potentially affecting judgment of global risks. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, - UK, Oxford University Press, to appear 2008 (Русский перевод: Е.Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/2007/03/08-62 )
77. Yudkowsky, E. Creating Friendly AI 1.0. 2001. URL: http://www.singinst.org/upload/CFAI.html.
78. Абрамян Е.А. Долго ли осталось нам жить? Судьба цивилизации: Анализ обстановки в мире и перспектив будущего. М., Терика, 2006.
79. Азимов А. Выбор катастроф. М., Амфора, 2002.
80. Александровский Г. Бегство от умирающего Солнца. // Наука и жизнь, №08, 2001. http://nauka.relis.ru/05/0108/05108042.htm
81. Александровский Ю.А. и др. Психогении в экстремальных условиях. Москва, Медицина, 1991.
82. Анисимов А. Развитие стратегических сил Китая и проблема адекватности ситуации внешней политики США // Россия XX. № 4. № 5. 2002. http://ecc.ru/XXI/RUS_21/ARXIV/2002/anisimov_2002_4.htm
83. Анисичкин В. О взрывах планет. //. Труды V Забабахинских чтений, Снежинск. 1998.
84. Архипов А.В. Археологический аспект исследований Луны // Астрономический вестник. 1994. Т.28. N4-5.- С.211-214. см. http://www.arracis.com.ua/moon/m312.html
85. Бестужев-Лада И. Человечество обречено на вымирание, Московский комсомолец, май, 2006.
86. Биндеман И. Тайная жизнь супервулканов. // В мире науки. N 10. 200
87. Бобылов Ю. Генетическая бомба. Тайные сценарии биотерроризма. Белые Альвы, 2006.
88. Брин Д. Сингулярность и кошмары. Nanotechnology Perceptions: A Review of Ultraprecision Engineering and Nanotechnology, Volume 2, No. 1, March 27 2006.
89. Будыко М.М., Ранов А.Б., Яншин В. История атмосферы. Л., 1985
90. Воробьёв, Ю.Л, Малинецкий Г.Г., Махутов H.A. Управление риском и устойчивое развитие. Человеческое измерение. // Общественные Науки и Современность, 2000, № 6.
91. Владимиров В.А., Малинецкий Г.Г., Потапов А.Б. и др. Управление риском. Риск, устойчивое развитие, синергетика. М., Наука, 2000
92. Геворкян С.Г., Геворкян И.С. Преднамеренные антропогенные экологические катастрофы. // Эволюция, , №3. 2006.
93. Данилов-Данильян В.И., Лосев К.С., Рейф И.Е. Перед главным вызовом цивилизации. Взгляд из России.
94. Докинз Р. Эгоистичный ген. М., Мир, 1993.
95. Дробышевский Э.М. Опасность взрыва Каллисто и приоритетность космических миссий // Журнал технической физики, том 69, вып. 9. 1999.
96. Дядин Ю. А., Гущин А. Л. Газовые гидраты и климат Земли. // Соросовский Образовательный Журнал, N3, 1998.
97. Ергин Дэниел. Добыча. Всемирная история борьбы за нефть, деньги и власть. М. 2003.
98. Еськов К.Ю. История Земли и жизни на ней. М., НЦ ЭНАС, 2004.
99. Израэль Ю.А. Экологические последствия возможной ядерной войны. // Метеорология и гидрология, 1983, №10.
100. Капица С., Курдюмов С., Малинецкий Г., Синергетика и прогнозы будущего. М., 2001.
101. Карнаухов А.В. К вопросу об устойчивости химического баланса атмосферы и теплового баланса Земли. // Биофизика, том 39, вып. 1. 1994.
102. Карпан Н.. Атомной энергетике не отмыться от Чернобыля. // Зеркало недели. №13 (592) 8-14 апреля 2006 http://pripyat.com/ru/publications/2006/04/08/750.html
103. Корнилова. Т.В. Многомерность фактора субъективного риска (в вербальных ситуациях принятия решений) // Психологический журнал, №6. 1998.
104. Корнилова. Т.В. Мотивация и интуиция в регуляции вербальных прогнозов при принятии решений // Психологический журнал, №2 2006. (Совместно с О.В. Степаносовой).
105. Корнилова. Т.В. Психология риска и принятия решений (учебное пособие). М., Аспект Пресс, 2003.
106. Красилов В.А. Модель биосферных кризисов. // Экосистемные перестройки и эволюция биосферы. Вып. 4. М.: Издание Палеонтологического института, 2001. С. 9-16. http://macroevolution.narod.ru/krmodelcrisis.htm
107. Куркина Е.С. Конец режимов с обострением. Коллапс цивилизации. Доклад. http://spkurdyumov.narod.ru/kurkinaes.htm
108. Лем С. О невозможности прогнозирования. Собрание сочинений, т.10. М., "Текст", 1995.
109. Лем С. Сумма технологий, 1963.
110. Лем С. Фантастика и футурология, 1970.
111. МакМаллин Р. Практикум по когнитивной терапии: Пер. с англ. СПб., Речь, 2001.
112. Марков А.В. Возвращение черной королевы, или закон роста средней продолжительности существования родов в процессе эволюции. // Журн. Общей Биологии, 2000. Т.61. № 4. С. 357-369. http://macroevolution.narod.ru/redqueen.htm.
113. Медведев Данила. Конвергенция технологий как фактор эволюции. http://www.transhumanism-russia.ru/content/view/317/116/ // в сб. Диалоги о будущем. М., 2008.
114. Медоуз Д.и др. Пределы роста, 1972.
115. Моисеев Н. Судьба цивилизации. М., Путь разума, 1998
116. Назаретян А.П. Цивилизационные кризисы в контексте Универсальной истории. М., 2001.
117. Онищенко Г. Биотерроризм, ВАН, т. 73, № 3, 2003
118. Оруэлл Дж. 1984. L. 1948.
119. Панов А.Д. Кризис планетарного цикла Универсальной истории и возможная роль программы SETI в посткризисном развитии. // Вселенная, пространство, время. № 2, 2004. http://lnfm1.sai.msu.ru/SETI/koi/articles/krizis.html
120. Пенроуз Р. Новый ум короля. О компьютерах, мышлении и законах физики. М., УРСС, 2005.
121. Платонов А. В. Восприятие риска в ситуациях, требующих принятия решения. // Доклад на конференции «Lomonosov», МГУ, 1996.
122. Росс Л., Нисбетт Р. Человек и ситуация: Уроки социальной психологии. Аспект Пресс, М., 1999. 
123. Сорос Дж. Кризис мирового капитализма. Открытое общество в опасности. Пер. с англ. М., ИНФРА-М, 1999.
124. Сорохтин О.Г., Ушаков С.А. Развитие Земли. М., Изд-во МГУ, 2002.
125. Сывороткин В.Л.. Экологические аспекты дегазации Земли. - Диссертация на соискание степени доктора геологических наук, М., 2001.
126. Тофлер, Э. Шок будущего. М., АСТ, 2002.
127. Турчин А.В. О возможных причинах недооценки рисков гибели человеческой цивилизации // Проблемы управления рисками и безопасностью: Труды Института системного анализа Российской академии наук: Т. 31. М., КомКнига, 2007.
128. Турчин А.В. Природные катастрофы и антропный принцип. // Проблемы управления рисками и безопасностью: Труды Института системного анализа Российской академии наук: Т. 31. М., КомКнига, 2007.
129. Фон Нейман, Дж. Теория самовоспроизводящихся автоматов. М., Мир, 1971.
130. Фукуяма Ф. Наше постчеловеческое будущее. Последствия биотехнологической революции, 2002.
131. Хаин В. Е. Разгадка, возможно, близка. О причинах великих вымираний и обновлений органического мира. // Природа, № 6. 2004.
132. Чирков Ю. Ожившие химеры. М., 1989.
133. Шафмейстер Х. Молекулярный конструктор. // В мире науки, №9, 2007.
134. Шкловский И.С. Звёзды. Их рождение, жизнь и смерть. М., Наука, 1984.
135. Юдина А. Новые творцы. Игры, в которые играют боги. // Популярная механика, №06. 2005. http://www.popmech.ru/part/print.php?articleid=259&rubricid=3