Алексей Турчин.

Война и еще 25 сценариев конца света

(страница 1 из 23)

скачать книгу бесплатно

 -------
| bookZ.ru collection
|-------
|  Алексей Турчин
|
|  Война и еще 25 сценариев конца света
 -------

   Все, что имеет начало, имеет и конец, и человеческая история (как и ваша жизнь) – не исключение. Идеи о конце света не новы, но сегодня они становятся как никогда ранее реальными.
   Книга Алексея Турчина – это актуальный обзор последних научных наработок в этой области, описывающих, как и когда закончится существование человеческой цивилизации. От астероидов до ядерной войны – всему, что может уничтожить человечество, будь то природный катаклизм или рукотворная катастрофа, нашлось место в книге. Некоторые риски, такие как кометно-астероидная опасность, вам известны давно, другие, например глобальное потепление, лишь несколько лет, а про риск физических экспериментов на ускорителе под названием Большой адронный коллайдер все услышали прошлым летом в связи с его близким запуском. Другие угрозы катастроф и по сей день ясны лишь узкому кругу специалистов. Среди них – глобальные супернаркотики, супервулканы и космические угрозы вроде гамма-вспышек. Одна из проблем, на которые указывает автор, в том, что общество внимательно относится к «раскрученным» угрозам с хорошим пиаром (и, добавлю, с солидной голливудской поддержкой), а не к вероятным и наиболее опасным.
   Важность книги в эти дни необычайно велика по двум причинам. Во-первых, катастрофа человечества – вопрос, безусловно достойный нашего с вами внимания. Во-вторых, разработка многих новых технологий, способных вызвать глобальные риски, уже идет.
   Например, миссия к центру Земли с помощью зонда, предложенного Стивенсоном, грозит совершить невозможное – расколоть земной шар ко всем чертям.
   При этом другой планеты у нас с вами пока нет. Проекты ядерных ракет, гигантских орбитальных станций и поселений на Луне пока остаются лишь проектами. Поэтому и спасаться от планетарных катастроф нам негде.
   Понимание того, сколь велики, реальны и близки риски конца света, должно заставить вас задуматься – как будете спасаться лично вы? Нам нужны индивидуальные планы спасения, нужны и глобальные, общепланетарные планы, разработанные и утвержденные на самом высоком уровне. Нужны и планы эвакуации, стрелочками показывающие, куда мы побежим в случае катастрофы – в подводные города или на орбитальные станции.
   Для этого создается новая научная область – изучение глобальных рисков. Это научная дисциплина новой волны – междисциплинарная и сложная для классификации. История, социология, математика, психология, геология, астрофизика и новые научные области сведены здесь воедино.
   В книге Турчина рассказано обо всех известных на сегодня видах глобальных рисков, которые могут уничтожить человечество.
Впрочем, одной книги вам вряд ли хватит, чтобы составить свой личный план спасения.
   Эта книга потребует недюжинной подготовки и силы характера, без которых лавина технологических угроз может сбить вас с ног Если такое случится с вами, не пугайтесь и доверьтесь автору. Понять, что такое «транскранальная магнитная стимуляция», «сильный искусственный интеллект» или «нанофабрика», поможет поиск в Яндексе. Ваш «уровень шока будущего», а значит и вашу выживаемость, можно легко поднять с единички хотя бы до 2–3.
   Если справиться с нехваткой ликбеза и необходимостью делать перерывы для переваривания материала, то к последней странице перед вами встанет вопрос о решениях. На этот случай дам несколько советов.
   Первое. Будьте готовы к радикальным изменениям уже в ближайшем будущем. Даже если мы сумеем избежать всех катастроф, остается «технологическая сингулярность» – конец человеческой истории и начало новой эпохи. Она неизбежна. К ней нам готовиться еще важнее, чем к падению 100-километрового астероида, потому что есть шанс выжить. Не прекращайте изучение будущего в общем и проблемы глобальных рисков в частности.
   Второе. Уделите достаточно сил изучению теории вероятности, типичных когнитивных ошибок, стратегий эффективного мышления. Усиливайте свой интеллект с помощью новых алгоритмов и психологических практик, специализированных компьютерных программ.
   Третье. Сформируйте свой собственный план на будущее, даже если его первая версия и не имеет шансов оказаться правильной.
   Четвертое. Несмотря ни на что, начинайте постепенно менять мир, чтобы выжить в нем. Автор этой книги тоже не всегда был авторитетным экспертом в области глобальных рисков, как и все, когда-то он начинал с нуля, испуганно пытаясь осмыслить мир вокруг себя и разобраться в проблемах, казавшихся не по зубам. Но однажды он решил что-то сделать, и у него получилось. Надеюсь, получится и у вас!

   Данила Медведев,
   кандидат экономических наук,
   футуролог, эксперт Российского фонда развития высоких технологий


   Мы не знаем наверняка, возможен ли конец света – глобальная катастрофа, способная уничтожить человечество. Свои выводы относительно этого мы делаем на основании собственных суждений, которые вольно или невольно могут не отражать истинного положения вещей уже в силу того, что наше представление о мире неполно, а наш подход к изучению проблем зачастую не вполне объективен. Нам удобно верить в то, что никакая наша деятельность или бездеятельность наблюдаемого равновесия мира необратимо не нарушит, и поэтому истинность наших суждений и высказываний не кажется нам вещью предельно важной. В результате мы пренебрегаем риском, забывая о его цене и заблуждаясь относительно того, что глобальная катастрофа – вопрос послезавтрашнего дня. В определенном смысле «послезавтра» уже наступает, и примеров, показывающих, насколько наш разум к этому готов, уже вполне достаточно.
   В 2008 году в центре внимания общественности оказались гипотетические риски, связанные с запуском Большого адронного коллайдера (БАК, или LHC), расположенного на границе Франции и Швейцарии. Причиной тому, возможно, стали выступления ряда ученых, высказавших опасения, что в результате экспериментов, которые будут проводиться на новой установке, может возникнуть черная дыра, которая уничтожит Землю. Чтобы развеять эти опасения, были сделаны оценки безопасности экспериментов, которые показали, что риск катастрофы бесконечно мал. То есть оказалось, что безопасность всей планеты и выживание человечества были поставлены в зависимость от истинности выдвинутых доказательств.
   Итак, каким же именно образом была доказана безопасность экспериментов на БАК?
   Основные риски, связанные с ними, состоят в том, что в установке могут возникнуть некие гипотетические частицы, которые так или иначе будут способны захватывать частицы обычной материи и поглощать их или трансформировать в подобные себе. В основном речь идет о двух гипотетических частицах – микроскопических черных дырах и стрейнджлетах (страпельках). (Помимо них рассматривались еще два класса возможных опасных объектов – магнитные монополи и пузыри «истинного вакуума».)
   Сразу отметим, что полнота этого списка опасных объектов ничем не доказана. То есть, хотя и есть достаточные основания полагать, что все они либо безопасны, либо невозможны, это не значит, что нет какого-то пятого класса частиц, о которых мы можем ничего не знать до тех пор, пока их не откроем.
   Почему же эти частицы невозможны?
   Потому что их существования не допускает стандартная модель, принятая современной физикой. Однако коллайдер построен именно для того, чтобы исследовать границы применимости стандартной модели и найти возможные ее расширения. Здесь возникает логический парадокс: безопасность коллайдера доказывается через то, что мы знаем, тогда как цель запуска БАК – проникнуть в неведомое. Можно сказать так: чтобы полностью исследовать некую систему, нужно ее разобрать, то есть разрушить. Для познания человеческой анатомии потребовалась патологоанатомия. Соответственно окончательное познание тайн Вселенной потребует ее разрушения.
   Хотя стандартная модель и не допускает возникновения микроскопических черных дыр в недавно достроенном коллайдере (так как для этого просто не хватит энергии), некоторые расширения этой модели предполагают наличие дополнительных измерений и делают возникновение таких черных дыр возможным со скоростью порядка одной штуки в секунду. С точки зрения современной физики эти микроскопические черные дыры должны немедленно разрушаться Хокинговским излучением – то есть они будут излучать быстрее, чем будут способны притягивать материю.
   Правда, с самим Хокинговским излучением есть небольшая проблема: хотя его концепция выглядит теоретически убедительной, у нее нет никаких экспериментальных доказательств. (Поскольку чем больше черная дыра, тем меньше она излучает «по Хокингу», при этом у наблюдаемых, причем косвенно, космических черных дыр это излучение ничтожно мало и не может быть зафиксировано.)
   А что если излучение не сработает?
   Предполагается, что даже если микроскопическая черная дыра возникнет в БАК и даже если она не разрушится Хокинговским излучением, она будет настолько малой массы и размеров, что будет намного меньше размеров атома, и ее гравитационное поле тоже будет простираться на расстояния, меньшие размеров ядра атома. Таким образом, такая черная дыра будет очень мало способна к каким-либо реакциям. Она может свободно летать среди вещества, никак с ним не взаимодействуя.
   Вместе с тем существует теория, согласно которой в процессе формирования такая микроскопическая черная дыра приобретет электрический заряд или магнитный момент и в силу этого все же начнет гораздо быстрее притягивать к себе электрически заряженные ядра атомов и электроны. По мере роста ее массы ее способность поглощать материю тоже будет расти, и не известно, по какому закону – степенному или экспоненциальному.
   Небольшим утешением может быть то, что процесс начального роста микроскопической черной дыры может быть крайне медленным. (Можно, например, предположить, что катастрофа с микроскопической черной дырой уже произошла при работе предыдущих ускорителей (например, RHIC) и мы пока не наблюдаем ее проявлений, так как она пока еще не выросла.)
   То есть черная дыра может возникнуть на коллайдере БАК, и никто этого не заметит. Она погрузится в центр Земли, где начнет очень медленно, но с растущей скоростью набирать массу. По некоторым предположениям, это потребует миллионов и миллиардов лет, прежде чем станет заметным – а значит, не угрожает безопасности человечества. Однако, как показано в статье Benjamin Koch, Marcus Bleicher Horst Stb'cker. Exclusion of black hole disaster scenarios at the LHC (http://arxiv.org/PS_cache/arxiv/pdf/0807/0807.3349v1.pdf), в случае, если наша Вселенная имеет одно скрытое измерение, время поглощения Земли составит 27 лет, а если два – то десять тысяч триллионов лет. (Понятно, что только первый сценарий заслуживает внимания.) 27 лет – это, конечно, не те несколько секунд, за которые поглощается Земля на известном видеоролике, выложенном на YouTube.
   Отметим, однако, что человечество погибнет гораздо раньше, чем произойдет полное поглощение Земли черной дырой. Поскольку примерно половина массы при поглощении вещества черными дырами переходит в энергию излучения (за счет этого светят квазары), то процесс поглощения планеты будет сопровождаться ее разогревом. То есть вначале, например, из-под земли начнут вырываться потоки раскаленных газов в виде мощнейших вулканических извержений, которые сделают атмосферу непригодной для дыхания.
   Итак, микроскопическая черная дыра может быть опасной, только если ряд теоретических предположений окажется истинным. Понятно, что это маловероятно, хотя каким образом применять понятие вероятности к тем или иным свойствам законов Вселенной, не вполне ясно.
   Однако это еще не все: кроме теоретического способа обоснования безопасности коллайдера существует еще один – основанный на эмпирических свидетельствах.
   Эмпирические «заверения в безопасности» строятся на том факте, что энергии космических лучей, которые непрерывно бомбардируют атмосферу Земли, гораздо выше энергий, которые будут достигаться в коллайдере. А раз Земля до сих пор существует, то, значит, и установка безопасна. Более продвинутые версии доказательств используют тот факт, что существуют Луна, нейтронные звезды и белые карлики, несмотря на их непрерывную бомбардировку космическими лучами.
   То есть любые эмпирические доказательства безопасности основываются на определенных аналогиях, при том что БАК – сооружение уникальное. Например, говорится о том, что происходящее в коллайдере аналогично тому, что уже триллион триллионов раз происходило на Земле и во Вселенной без каких-либо негативных последствий. Действительно, нет сомнений в том, что случились триллионы столкновений атмосферы Земли с космическими лучами – однако то, что этот процесс ПОЛНОСТЬЮ аналогичен тому, что происходит в коллайдере, это лишь предположение. (Подробно возражения относительно «аналогичности» процессов приводятся в главе «Физические эксперименты», при этом следует подчеркнуть, что наличие возражений само по себе вовсе не означает, что катастрофа с коллайдером неизбежна или что я в ней уверен.)
   Нельзя сказать, что сомнения относительно безопасности коллайдера замалчивались – в течение последних лет вышло несколько статей, в которых обосновывается невозможность катастрофы с черными дырами. При этом, однако, общее свойство этих статей состоит в том, что они появились ПОСЛЕ того, как решение о строительстве коллайдера было принято, десятки тысяч физиков были наняты на работу и миллиарды долларов были потрачены. То есть цель этих статей – не исследовать вопрос о том, каковы реальные шансы катастрофы, а успокоить публику и обеспечить продолжение исследований. (Этим данные статьи отличаются, например, от рассекреченного недавно отчета LA-602 о рисках термоядерной детонации атмосферы, который был представлен перед первыми испытаниями атомной бомбы в США в 1945 году Комптоном, цель которого состояла в исследовании вопроса, а не в успокоении публики.)
   Другими словами, гораздо честнее было бы использовать в качестве обоснований рисков не публикации 2007–2008 годов, приуроченные к завершению работ по строительству коллайдера, а публикации 1999 года, на основании которых принимались решения о строительстве. Отметим, что наихудшая оценка риска в публикациях 1999 года, как сообщает Э. Кент в статье «Критический обзор оценок рисков глобальных катастроф», была 1 к 5000.
   Кстати, вопрос о том, какой риск катастрофы с коллайдером является приемлемым, заслуживает отдельного рассмотрения.
   К 2004 году наиболее твердая оценка риска, выведенная из эмпирических астрофизических наблюдений, показывала шансы получить катастрофу 1 к 50 миллионам. Очевидно, что эта оценка была принята в качестве достаточной, так как строительство было продолжено. Однако математическое ожидание числа жертв, то есть произведение числа погибших – 6 миллиардов на вероятность события составляет в данном случае 120 человек. Ни один другой научный проект с таким ожидаемым числом возможных жертв никогда бы не был допущен к реализации. Например, при захоронении радиоактивных отходов в Великобритании допустимым принимается ожидаемое число жертв только в 0,00001 человека в год. Отметим, что здесь учитывается только гибель ныне живущих людей. Однако вымирание человечества означало бы и невозможность рождения всех последующих поколений людей, то есть число неродившихся людей могло бы составлять тысячи триллионов. В этом случае математическое ожидание числа жертв также возросло бы на несколько порядков. Наконец, гибель Земли означала бы и гибель всей информации, накопленной человечеством.
   Другим способом оценки рисков является так называемый астероидный тест. Утверждается, что если риск, создаваемый коллайдером, меньше, чем риск человеческого вымирания в результате падения огромного астероида (примерно в 1 к 100 миллионам в год), то риском первого можно пренебречь. Однако сам риск падения такого астероида является неприемлемым – ведь ради его предотвращения затеваются специальные программы. То есть принятие астероидного теста равносильно утверждению о том, что нет разницы, погибнут ли в авиакатастрофе 300 человек или 301 человек.
   Третий способ оценки рисков связан с анализом затрат и рисков, выраженных в денежной форме. Сделать это пытается, например, американский судья и популяризатор науки Р. Познер в своей книге «Катастрофа: риск и реакция».
   Сумма выгод, которые мы ожидаем получить от ускорителя, примерно равна его стоимости (если бы она была значительно – скажем, в десять раз – больше, то строительство ускорителей было бы крайне выгодным бизнесом, и многие бы им занимались). Хотя огромная выгода возможна, например, в случае невероятного ценного открытия, вероятность этой выгоды не оценивается как большая.
   Стоимость ускорителя составляет около 10 миллиардов долларов. С другой стороны, можно оценить человеческую жизнь. (Американские страховые компании оценивают год жизни здорового человека в 50 000 долларов.) Отсюда и из разных других оценок получается, что цена человеческой жизни в развитом обществе составляет порядка 5 миллионов долларов. Тогда цена всего человечества примерно равна 3x10 -------
| bookZ.ru collection
|-------
|  
 -------


долларов. В этом случае приемлемым оказывается риск менее чем 1 к 3 миллионам. Однако если учитывать цену неродившихся поколений, то потребуются гораздо более строгие границы риска. Кроме того, выгодополучатели и объекты риска не совпадают. Выгоду от работы ускорителя получат в первую очередь ученые и, кроме того, люди, интересующиеся наукой, тогда как большинством жертв возможной катастрофы будут люди, которые вообще никогда об ускорителе не слышали.
   Впрочем, неготовность вовремя анализировать риски и искать истину, а не утешение – лишь часть проблемы. Если бы в XXI веке только проведение экспериментов на БАК порождало риск глобальной катастрофы, все было бы довольно просто. На самом деле явлений и процессов, несущих угрозу безопасности человечества, гораздо больше. Из уже разворачивающихся событий такого рода можно, например, отметить обещание компании Google создать к 2011 году искусственный интеллект (ИИ), а также развивающийся на мировых рынках кризис (начавшийся с кризиса американской ипотеки) или рост цен на нефть. При этом следует помнить о том, что не все риски сегодня нам известны: чем шире познания о мире и совершеннее технологии, тем шире и список возможных угроз.
   Итак, задача, которую мы попытаемся решить в рамках этой книги, – изучение границ нашего знания в отношении рисков глобальной катастрофы, которая может привести к полному вымиранию человечества. Очевидно, зная эти границы, мы легче сможем ответить на вопрос о том, возможна ли вообще такая катастрофа, и если да, то когда, с какой вероятностью, отчего и как ее предотвратить. И даже если ее вероятность в ближайшее столетие равна нулю, мы должны знать это наверняка – результат в данном случае должен быть хорошо обоснован.
   В любом случае знать результат нам очень важно. Возьму на себя смелость заявить, что вопрос выживания человеческой цивилизации является важнейшим из тех, которые могут перед ней встать. Уже был период, когда он начал осознаваться как весьма актуальный – в годы холодной войны, – но впоследствии интерес к нему угас и маргинализировался. Отчасти это связано с психологическим феноменом утомления, отчасти – с мыслями о бесполезности публичных усилий. Сегодня трудно представить массовые демонстрации с требованиями запрета опасных биотехнологий, опытов на ускорителях, разработок нанотехнологического оружия.
   Так или иначе, сценарии и риски вымирания человечества оказались практически вытесненными в область бессознательного. На то есть свои причины: глобальные катастрофы заслонены от нас как пеленой «технического» незнания (вроде незнания реальных орбит астероидов и тому подобного), так и психологической защитой (по существу скрывающей нашу неспособность и нежелание предсказывать и анализировать нечто ужасное). Более того, глобальные катастрофы отделены от нас и теоретическим незнанием – нам неведомо, возможен ли искусственный интеллект, и в каких пределах, и как правильно применять разные версии теоремы о конце света, которые дают совершенно разные вероятностные оценки времени существования человечества.
   Исследование рисков глобальной катастрофы парадоксальным образом оказывается и исследованием природы непредсказуемости, поскольку вопрос о рисках такой катастрофы поднимает множество гносеологических проблем. В первую очередь речь идет об эффекте наблюдательной селекции и принципиальной невозможности и нежелательности решающего эксперимента в области глобальных катастроф.
   Следует отметить, что глобальная катастрофа труднопредсказуема по определению. Во-первых, потому что мы не знаем всех вариантов, которые могут выпасть. Во-вторых, нам очень трудно определить их вероятность. В-третьих, некому будет проверить результат. В-четвертых, мы не знаем, когда бросят «монету» и бросят ли ее вообще. Это незнание похоже на то незнание, которое есть у каждого человека о времени и причине его смерти (не говоря уже о том, что будет после смерти). Но у человека есть хотя бы опыт других людей, который дает статистическую модель того, что и с какой вероятностью может произойти.
   Другими словами, есть реальность – и есть мир человеческих ожиданий. До определенного момента они совпадают, создавая опасную иллюзию, что наша модель мира и есть мир. В какой-то момент они настолько расходятся, что мы сталкиваемся лоб в лоб с тем, что для нас раньше не существовало. Человек не знает, что с ним будет через 15 минут, но претендует на то, чтобы планировать будущее. Свет нашего знания всегда ограничен. Конец света – это столкновение несовершенства нашего знания с тьмой непостижимого. Следовательно, задачу, которую призвана решать гносеология катастроф, можно сформулировать и так: изучение общих закономерностей того, каким образом неправильное знание приводит к катастрофе. Ведь именно в ситуации глобальной катастрофы разрыв между знаниями и будущей реальностью наиболее велик.


   Попытки предсказания будущего – прекрасный материал для исследования природы человеческих заблуждений, и наоборот, данные экспериментальной психологии позволяют нам оценить, насколько ограничены мы в предсказании будущего.
   Нет смысла пытаться заглядывать в будущее, не исследовав границы своего возможного знания о нем. Эти границы обозначат горизонт нашей способности к прогнозу. Существует более ста возможных ошибок, которые могут совершить люди, пытаясь предсказать будущие катастрофы. Но вместо того чтобы перечислять их, мы постараемся исследовать их вероятные корни, то есть причины человеческой склонности к ошибкам.
   Основной корень возможных ошибок состоит в том, что человек «не предназначен» для оценки рисков глобальных катастроф. Не предназначены для этого ни его мозг, ни обычный взгляд на мир, ни созданный человеком научный метод. Рассмотрим поочередно каждый из этих трех источников неправильных представлений о сущности и вероятности глобальных катастроф.


скачать книгу бесплатно

страницы: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

Поделиться ссылкой на выделенное