banner banner banner
Хронологии. Современные пророки. Т. 6
Хронологии. Современные пророки. Т. 6
Оценить:
Рейтинг: 0

Полная версия:

Хронологии. Современные пророки. Т. 6

скачать книгу бесплатно


Фотокамеры, которые могут фиксировать события и объекты так быстро и с такими подробностями, что они полностью меняют наше представление о научных записях.

Вычислительные машины Лейбница и Беббиджа были уникальны.

Не могло быть и речи об их массовом производстве.

Даже если бы фараон знал, как построить автомобиль, то такой автомобиль разбился бы и был утрачен в одну из первых поездок.

Сегодняшний уровень массовой продукции позволяет поставить производство таких записей на новой основе, когда оно будет достаточно дешевым и доступным.

2. Прогресс в области фотографии, кинематографии и телевидения.

Сухая фотография. Факсимильная передача. Сканирование. Микрофильмирование. Сжатие данных.

Если прогресс в этой области будет продолжаться теми же темпами, то в ближайшие годы мы получим микрофильм Британской энциклопедии, который будет стоить пятак, а процесс его пересылки будет стоит копейку.

3. Образ исследователя будущего – его руки свободны, и он не связан с определенным рабочим местом. В процессе своих передвижений он фотографирует и комментирует увиденное.

К этим фотографиям и записям автоматически добавляется время и связывает между собой два эти потока записей. Если он попадает в поле, то его записи доступны ему по радио.

4. Математик – прежде всего человек, который приучен применять логику символов в широком плане.

5. Ученый – не единственный человек, который работает с данными и исследует мир, используя логические процессы. Всякий раз, когда используются логические процессы, возникает возможности для машины. Формальная логика в качестве инструмента при обучении студентов. Принятие решений, выбор возможностей, прием на работу, покупки, взаимоотношения между продавцом и покупателем.

6. Различие, между тем как устроено хранение данных через индексирование и дробление на подклассы и тем как мыслит человек.

Наш мозг оперирует данными через ассоциации, создавая паутину из цепочек, в которые вовлечены клетки головного мозга. «

(а вот собственно и его прогноз о «нашем времени», когда у каждого у нас есть дома ПК! -автор)

«Представим будущее возможное устройство – назовем его "memex" – которое помогает человеку хранить все его книжки, все его записи и все его коммуникации с другими людьми

Устройство выглядит как обычный стол, на котором клавиатура, кнопки и рычажки. Небольшая часть стола занята данными в виде микрофильмов, остальная часть – рабочий механизм.

Книги всех типов, картинки, газеты могут быть немедленно получены и включены в систему.

На верху устройства находится прозрачный валик, куда попадают записи, фотографии, меморандумы и прочие документы.

Эта система использует индексирование – если человек хочет получить доступ к книге – он набирает необходимый код на клавиатуре и нужная книга или страница возникает перед ним на экране мемекса.

7. Когда пользователь строит ассоциативную цепочку между двумя документами, то он записывает название цепочки в книгу кодов.

Сохраненные цепочки могут быть доступны пользователю в любое время. Они образуют совершенно новую книгу, которая хранится внутри мемекса и может быть вызвана из его памяти и через много лет.

8. Возникают совершенно новые формы энциклопедий, которые содержат цепочки документов.

Эти цепочки облегчают работу специалистов в области физиологии, химии, истории и других дисциплин.

Возникает новая профессия проходчиков виртуальных троп (trail blazers), людей, которые находят удовольствие в создании и построении полезных путей сквозь массу обычных данных.

Возможно, душе человеческой будет легче летать, если мы облегчим процедуру сохранения прошлого и позволим более полно анализировать проблемы настоящего. Человек построил столь сложную цивилизацию, что он нуждается в механизмах обработки данных, которые уже не вмещаются в его ограниченную память. Его экскурсии в прошлое и настоящее станут значительно приятнее, если он получит возможность забывать некоторые вещи, будучи уверен, что он в дальнейшем легко сможет восстановить свои записи.»

(Конспект и перевод работы "As we may think"сделал Евгений Патаракиhttps://web.archive.org/web/20061230230027/http://uic.nnov.ru/pustyn/lib/vbush.ru.html)

Ну а теперь прейдем к сегодняшним оценкам В. Буша! Никто из современных ученных не оспаривает ни его открытий ни точность большей части сделанных им прогнозов Будущего! Тут стоит только мысленно встать и снять перед ним шляпу в знак почтения и благодарности!

Но, как и бывает иногда с «большими гениями» они в некоторых вопросах все же совершают и свои ошибки! Так было и с В.Бушем, ибо не все предсказания прекрасно оправдывались. Например, он считал, что компьютер, эквивалентный по мощности человеческому мозгу, будет иметь размер небоскреба и потреблять мощность, равную мощности Ниагарского водопада!

Его предсказания относительно теоретического предела плотности интегральных микросхем, высказанные в 1970 г., были опровергнуты буквально через пять лет.

Эти и другие ошибочные прогнозы дали основания для появления жаргонного слова vannevar, которое обозначает «неудачное предсказание».

Майкл Вассар (родился 4 февраля 1979) – футуролог, активист, предприниматель и президент Института Сингулярности. Он имеет степени магистра и бакалавра в области биохимии. Как президент Института Сингулярности, он развивает научно-исследовательский потенциал института и увеличивает его роль в качестве форума для обсуждения перспектив, преимуществ и недостатков искусственного интеллекта.

Он выступает за безопасное развитие новых технологий на благо человечества. Майкл Вассар также отвечает за организацию Саммита Сингулярности.

Он занимал различные должности в Aon, Корпусе мира, а также в Национальном Институте Стандартов и Технологий.

Он является основателем и главным управляющим SirGroovy.com, фирмы, занимающейся лицензированием онлайн музыки.

Институт Сингулярности

Институт анализирует и предлагает решения проблем, возникающих перед человечеством. Осознав последние ошибки в науках о человеке, они пытаются уничтожить предубеждения в стандартной футурологии и филантропии.

Институт проводит ежегодный Саммит Сингулярности для координации и обучению последним научным достижениям ученых и других заинтересованных лиц, а также для поддержки их оригинальных научных исследований по темам, начиная от человеческой рациональности и когнитивного усовершенствования, заканчивая основополагающими исследованиями в области искусственного интеллект

Справка: Сингулярность (от лат. singularis «единственный, особенный»)

Сингулярность в философии – единичность существа, события, явления

Математическая сингулярность (особенность) – точка, в которой математическая функция стремится к бесконечности или имеет какие-либо иные нерегулярности поведения.

Гравитационная сингулярность (сингулярность пространства-времени) – область пространства-времени, через которую невозможно гладко продолжить входящую в неё геодезическую линию.

Космологическая сингулярность – состояние Вселенной в начальный момент Большого взрыва, характеризующееся бесконечной плотностью и температурой вещества.

Технологическая сингулярность – предполагаемый некоторыми исследователями короткий период чрезвычайно быстрого технологического прогресса, или точка во времени, с которой машины начинают совершенствовать сами себя, без помощи кого-либо

Machine Intelligence Research Institute (MIRI; ранее – Singularity Institute и Singularity Institute for Artificial Intelligence) – некоммерческая организация, основной целью которой является создание безопасного искусственного интеллекта, а также изучение потенциальных опасностей и возможностей, которые могут появиться при создании ИИ.

Организация поддерживает идеи, первоначально выдвинутые Ирвингом Гудом и Вернором Винджем, касательно «интеллектуального взрыва» или сингулярности, и идеи Елиезера Юдковски о создании дружественного ИИ.

Юдковски исследует в Институте сингулярности в США проблемы глобального риска, которые может создать будущий сверхчеловеческий ИИ, если его не запрограммировать на дружественность к человеку.

С 2007 по 2010 год одним из директоров организации был изобретатель и футуролог Рей Курцвейл. В штате консультантов организации – оксфордский философ Ник Бостром, геронтолог Обри ди Грей, соучредитель PayPal Питер Тиль, и сооснователь Foresight Nanotech Institute Кристина Пэтерсон.

Организация имеет представительства в США и Канаде.

Первым проектом SIAI (Singularity Institute for Artificial Intelligence) стал «аннотационный язык программирования» (annotative programming language) Flare, разработка которого началась в июле 2001 года. Язык разрабатывался для создания с помощью него зерна ИИ. Менее чем через год проект был закрыт.

В 2002 году на сайте SIAI публикуется препринт главы «Уровни организации общего интеллекта» из книги «Реальный ИИ: Новые подходы к искусственному общему интеллекту» (под редакцией Бен Герцель и Cassio Pennachin). Позже, в этом же году, SIAI опубликовал две основные главы введения – «Что есть сингулярность» и «Почему следует работать над приближением сингулярности».

В 2003 году представитель организации Майкл Anissimov выступил с докладом на международной конференции Transvision 2003, проходившей в Йельском университете.

В 2004 году SIAI был создан сайт AsimovLaws.com, созданный для обсуждения этики ИИ в контексте проблем, затронутых в фильме «Я, Робот», выпущенном лишь два дня спустя. В начале следующего года главный офис Института переезжает из Атланты в Силиконовую долину.

В феврале 2006 года Институт формирует фонд в размере 200 тыс. долл.

Основная часть фонда (100 тыс. долл.) была получена от соучредителя Paypal Питера Тиля. В мае 2006 года на стэнфордском саммите сингулярности принято решение о расширении штата сотрудников Института.

Институт, вместе с KurzweilAI.net и Центром по изучению языка и информации, спонсирует Стэнфордский саммит сингулярности. Директор Института, Питер Тиль, выступает в качестве ведущего саммита.

Саммит собрал порядка 1300 специалистов.

Среди участников саммита были Рей Курцвейл, Ник Бостром, Кори Доктороу, Эрик Дрекслер, Дуглас Хофштадтер, Steve Jurvetson (англ.), Bill McKibben (англ.), Макс Мор (англ.), Джон Смарт (англ.), Себастьян Трун и Елизер Юдковски.

В 2007 году аналогичный саммит прошёл во Дворце Театра Искусств, Сан-Франциско. Третий саммит сингулярности состоялся 5 октября 2008 года в Сан-Хосе.

Институт финансирует проект Open Cognition Framework (OpenCog), целью которого является предоставление «исследователям и разработчикам программного обеспечения общей платформы для построения программ с элементами искусственного интеллекта».

В 2013 году организация сменила название на Machine Intelligence Research Institute.

Исследования и Прогнозы

Machine Intelligence Research Institute изучает стратегические вопросы, связанные с ИИ, например, что мы можем (и не можем) предсказать о будущей технологии ИИ? Как мы можем улучшить наши способности к прогнозированию? Какие вмешательства, доступные сегодня, кажутся наиболее полезными, учитывая то, что мы мало знаем?

Начиная с 2014 года MIRI финансирует работу по прогнозированию через независимый проект AI Impacts. AI Impacts изучает исторические примеры прерывистых технологических изменений и разработал новые меры относительной вычислительной мощности человека и компьютерного оборудования.

Интерес исследователей MIRI к прерывистому искусственному интеллекту связан с аргументом И. Дж. Гуда о том, что достаточно продвинутые системы ИИ в конечном итоге превзойдут людей в задачах разработки программного обеспечения, что приведет к созданию цикла обратной связи все более способных систем ИИ:

Пусть ультраинтеллектуальная машина определяется как машина, которая может намного превосходить все интеллектуальные действия любого человека, насколько это возможно.

Поскольку конструкция машин является одной из этих интеллектуальных задач, ультраинтеллектуальная машина могла бы разрабатывать еще лучшие машины; Тогда бесспорно был бы «взрыв разведки», и разум человека остался бы далеко позади. Таким образом, первая ультраинтеллектуальная машина является последним изобретением, которое человек должен когда-либо делать, при условии, что машина достаточно послушна, чтобы рассказать нам, как держать ее под контролем.

Писатели, такие как Бостром, используют термин суперинтеллекция вместо ультраинтеллектуала Гуда.

Следуя Вернору Винджу, идея Гуда о взрыве интеллекта стала связана с идеей «технологической сингулярности». Бостром и исследователи из MIRI выразили скептицизм по поводу взглядов сторонников сингулярности, таких как Рэй Курцвейл, что суперинтеллекция «находится за углом».

Исследователи MIRI выступают за раннюю работу по обеспечению безопасности в качестве меры предосторожности, утверждая, что прошлые предсказания прогресса ИИ не были надежными.

Степень надежности и толерантность к ошибкам в ИИ

Документ о приоритетах исследований Института Будущего Жизни (FLI) гласит:

Математические инструменты, такие как формальная логика, вероятность и теория принятия решений, дали значительное представление об основах рассуждений и принятия решений.

Однако в основе рассуждений и решений по-прежнему остается множество открытых проблем. Решения этих проблем могут сделать поведение очень способных систем намного более надежными и предсказуемыми. Примеры исследований в этой области включают рассуждения и решения в рамках ограниченных вычислительных ресурсов ? la Horvitz and Russell, как учитывать корреляции между поведением AI-систем и поведением их окружения, агентов, как агенты, встроенные в их среду, или других детерминированных вычислений. Эти темы могут выиграть от совместного рассмотрения, поскольку они кажутся глубоко связанными

Стандартные процедуры принятия решения недостаточно точно определены (например, в отношении контрфактов), для того, чтобы быть оформленными как алгоритмы. Исследователь Machine Intelligence Research Institute Бенья Палленштейн и тогдашний исследователь Нейт Соареш пишут, что теория причинно-следственных решений «неустойчива при отражении» в том смысле, что рациональный агент, следующий за теорией причинно-следственных решений, «правильно идентифицирует, что агент должен изменить себя, чтобы прекратить использовать теорию причинно-следственных решений для принятия решений".

Исследователи идентифицируют «логические теории принятия решений» как альтернативы, которые лучше выполняют общие задачи принятия решений.

Если система ИИ выбирает действия, которые наилучшим образом позволяют ей выполнить задание, то избегать условий, которые препятствуют тому, чтобы система продолжала выполнять задачу, является естественным подцелем (и, наоборот, поиск безусловных ситуаций иногда является полезной эвристикой).

Однако это может стать проблематичным, если мы хотим перераспределить


Вы ознакомились с фрагментом книги.
Для бесплатного чтения открыта только часть текста.
Приобретайте полный текст книги у нашего партнера:
Полная версия книги
(всего 1 форматов)