Читать книгу Искусственный общий интеллект: насколько он близок и чем это грозит (Сергей Железнов) онлайн бесплатно на Bookz (2-ая страница книги)
Искусственный общий интеллект: насколько он близок и чем это грозит
Искусственный общий интеллект: насколько он близок и чем это грозит
Оценить:

4

Полная версия:

Искусственный общий интеллект: насколько он близок и чем это грозит

С появлением агентов, работы с инструментами и работы за компьютером эта ось стала особенно важной. В цифровом мире "общность" все меньше похожа на красивый ответ в чате и все больше – на способность вести длинную работу.

4. Надежность

Можно ли на систему опереться вне демонстрационного режима?

Сильный кандидат на AGI не обязан быть безошибочным. Но если его поведение системно рассыпается вне контролируемой сцены, это слишком слабый признак общности.

5. Среда

В каком мире вообще проявляется эта "общность"?

Это важный вопрос, потому что цифровой AGI и AGI в физическом мире – не одно и то же. Система может стать почти общей в работе с кодом, документами, браузерами и исследовательских рабочих процессах задолго до того, как будет уверенно действовать в физическом мире.

Именно здесь многие споры о сроках на самом деле прячут смену определения, не признавая этого.

Рабочее определение для этой книги

Для этой книги нам нужно определение не философски идеальное, а операционально полезное.

Я предлагаю следующее.

AGI – это система, которая способна в широком наборе новых и разнородных задач учиться, планировать, рассуждать и действовать на уровне как минимум компетентного человека, сохраняя приемлемую надежность и не требуя полной ручной перенастройки под каждый новый класс задач.

У этого определения есть несколько следствий.

Следствие 1. общий ИИ не обязан быть сверхчеловеческим

Для AGI достаточно человеческого уровня по ширине и устойчивости. Все, что идет дальше, – это уже переход к ASI или к его ранним формам.

Следствие 2. общий ИИ не обязан быть сознательным

Пока у нас нет надежного способа операционно использовать сознание как критерий. Для оценки социальной и технической близости AGI этот критерий слишком расплывчат.

Следствие 3. общий ИИ может быть сначала цифровым

Если система:

надежно пишет код;

проводит ресерч;

работает в браузере и документах;

держит длинный контекст;

переносит навыки между разными цифровыми задачами;

то она может быть достаточно "общей", чтобы заслуживать описания как цифровой системы уровня AGI, даже если робототехника все еще отстает.

Следствие 4. общий ИИ нельзя доказать одним бенчмарк-ом

Из самого определения следует, что нам нужен набор признаков, а не один балл. Поэтому предыдущая глава и была посвящена измерительной рамке.

Полезная лестница понятий

Чтобы не смешивать разные режимы, удобно использовать не одно слово, а лестницу.

Узкий ИИ

Система сильна в одном классе задач или в одном типе среды.

Передовой универсал

Система демонстрирует очень широкие возможности в нескольких доменах, но пока все еще остается заметно хрупкой вне них.

Слабо общий ИИ

Система уже выглядит общей в большом цифровом контуре, но надежность, автономность или перенос навыков в физический мир все еще ограничены.

общий ИИ

Система достаточно широка, устойчива и переносима, чтобы ее можно было считать общим интеллектом в практическом смысле.

сверхинтеллект

Система существенно превосходит человека почти по всем значимым когнитивным измерениям и, вероятно, становится самостоятельным фактором цивилизационного масштаба.

Эта лестница не претендует на универсальный словарь. Но она полезна, потому что не заставляет выбирать между крайностями "это либо просто чатбот, либо уже сверхинтеллект".

Почему определение влияет на сроки

Одна из причин, по которым сроки AGI так сильно расходятся, состоит в том, что люди прогнозируют не одно и то же.

Это хорошо видно и в больших опросах. В крупном опросе авторов исследований ИИ респонденты заметно различают сроки, когда машины превзойдут людей во всех задачах, и сроки полной автоматизации всех человеческих профессий. Это различие принципиально.

Оно показывает, что даже очень широкий веха роста возможностей не равен автоматическому социальному переходу. Значит, при любом обсуждении AGI нужно сразу уточнять:

речь о возможностях?

об экономическом воздействии?

о физическом мире?

о всех профессиях?

о цифровой среде?

Без этих уточнений слово AGI слишком легко превращается в риторический контейнер для несовместимых ожиданий.

Почему для политики и безопасности нужен именно рабочий, а не идеальный термин

Можно возразить: если определение так спорно, может быть, лучше вообще отказаться от термина AGI?

Это привлекательная идея, но у нее есть недостаток. Без такого термина мы рискуем потерять язык для описания систем, которые уже не укладываются в категорию узкого ИИ, но еще не стали сверхинтеллектом.

Политика, регулирование и безопасность не могут ждать философского консенсуса. Им нужен рабочий язык заранее.

Поэтому разумнее не выкидывать термин, а дисциплинировать его употребление:

не путать AGI и ASI;

не смешивать цифровую общность и интеллект, действующий в физическом мире;

не использовать сознание как обязательный критерий;

не объявлять AGI по одному демо или бенчмарку.

Что из этого следует

Слово AGI полезно только в том случае, если мы используем его строго.

Для этой книги AGI – это не:

магическое пробуждение машины;

абсолютная универсальность без границ;

синоним сознания;

синоним сверхинтеллекта.

Для этой книги AGI – это достаточно общая, надежная и переносимая система общего назначения, которая может работать в широком диапазоне задач и сред без полной ручной перенастройки под каждый новый класс проблем.

Это определение не закрывает философские споры. Но оно делает возможным то, ради чего и пишется эта книга: трезво оценивать расстояние до реального технического и социального перелома.

Что важно запомнить

Главная проблема слова AGI в том, что им называют слишком разные вещи.

Полезное определение должно учитывать ширину, перенос, автономность, надежность и среду.

AGI не равен ASI.

AGI не обязан предполагать сознание.

AGI может сначала проявиться как цифровой, а не воплощенный в физическом мире интеллект.

Для этой книги важна рабочая, а не метафизически идеальная дефиниция.

Глава 3. Почему большие языковые модели – это еще не общий ИИ, но уже не автодополнение

Фраза LLM – это просто автодополнение долгое время выполняла полезную функцию. Она напоминала: не нужно путать уверенный текст с реальным пониманием, а впечатляющий интерфейс – с общим интеллектом.

Проблема в том, что в 2026 году эта формула уже стала слишком грубой.

Да, большие языковые модели по-прежнему обучаются на следующем токене.

Да, значительная часть их мощности рождается из статистической структуры данных и масштаба обучения.

Да, они остаются хрупкими, склонными к галлюцинациям и сильно зависят от распределения обучающих данных.

Но из этого уже не следует, что они "всего лишь автодополнение" в бытовом смысле. Слишком многое изменилось.

Чтобы трезво оценивать расстояние до AGI, нужно удерживать сразу две мысли:

LLM еще не являются общим интеллектом;

но они уже представляют собой нечто существенно более сильное, чем простая модель продолжения текста.

Почему тезис про автодополнение когда-то был полезен

Он был полезен как противоядие против магии.

Когда ChatGPT и его ближайшие родственники впервые массово вышли к пользователю, огромное количество людей увидело в них почти готовую разумную сущность. На этом фоне напоминание о предсказании следующего токена играло важную очищающую роль. Оно возвращало разговор к тому, что модель:

не обладает встроенным понятийным миром в человеческом смысле;

не гарантирует истинность ответа;

не имеет устойчивой цели сама по себе;

не понимает мир так, как понимает его человек, выросший в теле, обществе и длинной истории опыта.

Это все по-прежнему важно.

Но как аналитическая формула для 2026 года выражение просто автодополнение уже ломается, потому что не объясняет реальное поведение сильных LLM.

Где именно большие языковые модели выходят за пределы "обычного автодополнения"

1. Они осваивают задачу по контексту, а не только продолжают фразу

В своей работе 2020 года OpenAI показала, что большие модели начинают решать новые задачи по нескольким примерам или по одной инструкционной рамке, без отдельного дообучения под каждую задачу.

Это уже не похоже на привычное автодополнение в духе клавиатуры смартфона. Смартфон дописывает следующее слово. Большая модель:

извлекает структуру задачи из запроса;

угадывает режим работы;

адаптируется к формату;

и пытается решить то, что до этого явно не было задано как отдельная "программа".

Именно это и делает LLM странным гибридом: формально это предсказатель следующего токена, а на практике – система, способная к ограниченному обучению по контексту задачи.

2. Масштаб дал не только беглость, но и перенос

Когда в 2023 году вышел GPT-4, стало очевидно, что рост масштаба и постобучение способны давать не просто более беглый текст, а заметный прирост по:

математике;

коду;

юридическим и медицинским задачам;

длинным инструкциям;

задачам, где требуется комбинировать знания и рассуждение.

Работа команды Microsoft Research пошла еще дальше и утверждала, что GPT-4 можно разумно рассматривать как раннюю и неполную форму более общего интеллекта, чем у прежних систем. С этим тезисом можно спорить, и в книге мы еще не раз будем обсуждать его ограничения. Но сам факт появления такого текста показателен: даже исследователи, хорошо понимающие природу LLM, увидели в новом поколении систем уже нечто большее, чем статистический языковой фокус.

3. Они умеют разбивать задачу на шаги

Работа о цепочке рассуждений показала, что при достаточном масштабе модели начинают выигрывать от промежуточных рассуждений и демонстрируют новые уровни решения сложных задач, если им дать или позволить сгенерировать цепочку мысли.

Это не доказывает человеческий тип рассуждения. Но показывает, что LLM уже не просто выбирает самое вероятное следующее слово на локальном уровне. В определенных режимах она строит последовательность промежуточных репрезентаций, которые функционально работают как рассуждение.

4. Они стали интерфейсом к внешнему миру

Современная LLM почти никогда не существует в одиночестве. Она включена в стек:

извлечение контекста;

работа с инструментами;

исполнение кода;

поиск;

циклы планирования;

работе в браузере и за компьютером.

Как только это происходит, разговор о "чистом автодополнении" становится совсем неполным. Модель начинает не просто завершать текст, а управлять внешними действиями, опираться на инструменты и участвовать в многошаговой работе.

Что именно делает большие языковые модели по-настоящему сильной

Если убрать мистику, сила LLM сегодня состоит в комбинации четырех вещей.

1. Широкая предварительная база

Веб-масштабное предобучение дает модели огромный объем статистических закономерностей:

о языке;

о коде;

о стиле задач;

о типичных форматах объяснения и решения.

Это само по себе не означает "понимание", но создает очень широкое поле потенциальной полезности.

2. Обучение по контексту

Модель умеет подстраиваться под задачу на лету через запрос и примеры, без полного переобучения.

3. Дообучение и слой согласования

RLHF, конституционные методы, настройка на инструкции и обучение, ориентированное на рассуждение, радикально меняют практическое поведение модели.

4. Инструментальный слой

Когда к модели добавляются инструменты, память, поиск и исполнение, она перестает быть только языковой статистической системой и становится ядром более общего агентного стека.

Именно сочетание этих четырех слоев и делает LLM центральной технологией нынешней фазы. Не потому, что она уже AGI, а потому, что она уже ближе к общему цифровому интерфейсу, чем к обычному автодополнению.

Почему большие языковые модели все еще не общий ИИ

Но если остановиться на предыдущем абзаце, легко скатиться в другую крайность. Поэтому важно так же ясно перечислить и ограничения.

1. Они плохо держат длинную цель без внешней архитектуры

Современная LLM может выглядеть очень сильной на короткой или средней задаче. Но устойчивое многодневное ведение сложного проекта по-прежнему требует внешней обвязки: памяти, циклов планирования, проверяющих модулей, перезапусков, инструментария и человеческого надзора.

То есть широкой универсальности в чистом виде здесь еще нет.

2. Они плохо отличают уверенность от знания

Даже сильные модели могут уверенно галлюцинировать. Это особенно важно для науки, медицины, права и других областей с высокой ценой ошибки. Общий интеллект в сильном практическом смысле требует куда лучшей калибровки, чем мы обычно видим у LLM.

3. Они хрупки вне привычного распределения данных

LLM впечатляют именно потому, что распределение обучающих данных у них крайне широко. Но эта широта не равна подлинной универсальности. Как только задача становится достаточно новой, плохо формализованной или требующей устойчивой адаптации, модели могут срываться намного быстрее, чем кажется по демо.

4. Они слабо укоренены в физическом и социальном мире

Даже мультимодальность не решает до конца проблему укорененности. Текст, изображения и видео помогают. Но мир человека – это еще:

тело;

длинная память;

причинность;

социальные нормы;

скрытые цели;

институциональный контекст.

LLM пока скорее имитирует доступ к этим слоям через данные, чем живет в них.

5. Их "общность" все еще сильно цифровая и инструментальная

Это, возможно, самый важный предел. LLM уже выглядит общей во многих цифровых задачах, особенно если ей помогают инструменты. Но это еще не означает, что система обладает общей когнитивной устойчивостью в полном смысле слова.

Поэтому в этой книге мы будем говорить скорее о траектории к AGI, чем о достигнутом AGI.

Что меняет сам факт существования большие языковые модели такого класса

Даже если LLM не дотягивает до AGI, она уже изменила поле игры.

1. Она радикально снизила порог для "общих" систем

Раньше между узкими системами и общим интеллектом зияла пропасть. LLM показали промежуточный режим: система может быть далеко не общей в строгом смысле, но уже очень широкой и полезной.

2. Она стала универсальным интерфейсом к миру программных систем

Язык стал не только формой ответа, но и слоем управления кодом, поиском, программными интерфейсами, файлами и рабочими процессами.

3. Она превратила общий ИИ из философской абстракции в инженерную траекторию

До LLM AGI можно было обсуждать как дальнюю идею. После LLM стало возможно обсуждать:

какие именно барьеры остаются;

какие свойства уже появились;

какие промежуточные формы общей цифровой способности возникают раньше полного AGI.

Это и есть главная причина, почему LLM так важны для этой книги.

Ключевой вывод

Фраза LLM – это просто автодополнение сегодня уже недостаточна.

Она по-прежнему полезна как напоминание о том, что:

цель предсказания следующего токена реальна;

галлюцинации реальны;

видимость интеллекта нельзя путать с завершенной общей способностью.

Но она перестает быть полезной там, где нужно описывать реальное положение дел.

Современная LLM – это уже:

система широкого обучения по контексту;

ядро агентного стека;

движок цифровой работы с инструментами;

и, вероятно, первая массовая технологическая форма неполной, но реально широкой цифровой общности.

То есть это еще не AGI. Но и точно уже не просто автодополнение.

Что важно запомнить

LLM по-прежнему основаны на предсказании следующего токена, но этого уже недостаточно для описания их поведения.

Их сила рождается из сочетания масштаба, обучения по контексту, постобучения и инструментария.

LLM уже умеют гораздо больше, чем обычное языковое дописывание.

При этом они все еще хрупки, плохо калиброваны и слабы на длинных горизонтах.

LLM – не AGI, но именно они сделали путь к AGI инженерно осмысленным.

Глава 4. Общий ИИ и сверхинтеллект: где проходит граница

В массовой дискуссии AGI и ASI очень часто сливаются в одно целое. Люди говорят "общий интеллект", а на деле представляют себе систему, которая:

умнее лучших ученых;

быстрее лучших инженеров;

стратегически глубже лучших государств;

и вообще стоит над человечеством как отдельный вид разума.

Но это уже не AGI в узком смысле. Это шаг дальше.

Если не развести эти понятия, разговор об ИИ почти неизбежно ломается. Он становится либо чрезмерно алармистским, либо чрезмерно самодовольным.

Зачем вообще различать общий ИИ и сверхинтеллект

Потому что это разные режимы:

возможностей;

угроз;

управления;

и временных горизонтов.

AGI в рабочем смысле – это система человеческого или сопоставимого с человеческим уровня общей способности в широком наборе задач.

ASI – это система, которая существенно превосходит человека почти по всем значимым интеллектуальным измерениям и, вероятно, делает это устойчиво и масштабируемо.

Это различие не академическое. Оно меняет все.

Почему общий ИИ уже сам по себе исторический перелом

Иногда можно услышать примерно такую мысль: настоящая опасность начинается только с ASI, а AGI – это просто очень сильный универсальный инструмент.

Это глубокое недооценивание.

Даже если представить AGI как "всего лишь" человеческий уровень общей цифровой компетентности, последствия будут уже огромны.

Почему?

1. общий ИИ достаточно для мощной экономической перестройки

Если система способна в широком наборе задач работать на уровне компетентного человека, этого уже достаточно, чтобы радикально изменить:

программирование;

аналитику;

исследования;

документооборот;

внутренние офисные функции;

часть управления и координации.

Для передела рынков труда и прибыли не нужен сверхинтеллект. Нужен просто достаточно дешевый и масштабируемый человеческий или около-человеческий уровень в большом числе цифровых ролей.

2. общий ИИ достаточно для нового уровня системных рисков

Кибероперации, социальная инженерия, автоматизация опасной интеллектуальной работы, автономное планирование и давление на институты – все это уже может резко усилиться до наступления ASI.

3. общий ИИ достаточно для положительной обратной связи

Если система уровня AGI начинает ускорять код, исследования, инструментарий и сами исследования и разработки в ИИ, она уже может запустить динамику, при которой путь к ASI становится заметно короче. То есть AGI и ASI нельзя мыслить как два полностью независимых мира.

Поэтому ждать "настоящего риска только от ASI" – плохая стратегия. Реальный цивилизационный перелом может начаться уже на стадии AGI.

Что тогда делает сверхинтеллект качественно другим

Если AGI уже достаточно, чтобы менять историю, зачем вообще отдельное понятие ASI?

Потому что при переходе к сверхинтеллекту меняется не только масштаб, но и сама структура проблемы.

1. Потеря симметрии с человеком

Пока система находится примерно на человеческом уровне, можно по крайней мере воображать:

сравнительное тестирование;

человеческий аудит;

соревновательную проверку;

возможность частичного институционального контроля на основе человеческой экспертизы.

Когда система становится устойчиво выше человека почти по всем когнитивным параметрам, эта симметрия ломается. Контроль перестает быть задачей "понять почти равного", а становится задачей управления тем, что уже превосходит оператора.

2. Ускорение стратегического преимущества

AGI может заменить или усилить работников. ASI потенциально может:

резко ускорить науку;

резко ускорить инженерные циклы;

радикально изменить военное равновесие;

создавать новые механизмы убеждения, оптимизации и контроля в масштабе, недоступном людям.

3. Новая глубина проблема контроля

Проблема согласования целей и контроля становится острее уже при AGI. Но при ASI она приобретает принципиально другой характер. Если система заметно сильнее человека в планировании, обмане, поиске лазеек и разработке новых стратегий, даже хороший локальный контроль может оказаться недостаточным.

Поэтому в литературе о рисках часто такая тревога связана именно с ASI, а не просто с AGI.

Почему массовая дискуссия постоянно путает эти уровни

Есть несколько причин.

1. Человеку трудно удерживать промежуточную ступень

Между "модель пишет текст" и "машина умнее всех людей" общественное воображение часто не видит устойчивого среднего состояния. Но именно в этом среднем состоянии и лежит значительная часть будущих конфликтов.

2. Маркетинг любит размытые границы

Чем меньше различий между "общим интеллектом", "сильным ассистентом", "сверхразумной машиной" и "человеческим уровнем", тем легче производить впечатление.

3. Риск-риторика любит максимальные сценарии

Часть публичных обсуждений сразу прыгает от нынешних моделей к картине мира, где есть почти богоподобный интеллект. Это может быть полезно как проверка гипотезы на прочность, но плохо подходит для анализа текущей траектории.

4. Скептики тоже выигрывают от путаницы

Если смешать AGI и ASI, потом легко высмеять сам разговор: мол, до сверхинтеллекта далеко, значит и серьезно обсуждать пока нечего. Это тоже ошибка.

Полезная практическая граница

Для этой книги полезнее всего думать о различии так.

общий ИИ – это вопрос замены и усиления широкого спектра человеческой когнитивной работы

Ключевой вопрос здесь:

может ли система действовать как общий цифровой работник или исследователь в широком наборе сред?

сверхинтеллект – это вопрос стратегического превосходства и потери человеческой сопоставимости

Ключевой вопрос здесь:

может ли система устойчиво обгонять людей почти во всем важном и использовать это преимущество способами, которые людям трудно оценить и контролировать?

Это два разных вопроса. И оба важны. Но они требуют разного языка, разных индикаторов и разных институтов ответа.

Почему для сроков это принципиально

Опрос авторов исследований ИИ хорошо показывает полезность такого различения. Даже в одной и той же экспертной выборке сроки для сильных вех роста возможностей и сроки полной автоматизации всех человеческих профессий расходятся на десятилетия.

Это означает, что даже если относительно ранний режим систем, приближающихся к AGI, станет реальным, дальнейший путь к более полной и сверхчеловеческой трансформации может быть:

быстрее, если возникнет сильная положительная обратная связь;

медленнее, если узкие места, проблемы согласования целей и перенос навыков в физический мир окажутся серьезнее, чем думают оптимисты.

Смешивать все это в одну дату – значит терять содержательность.

Как я предлагаю использовать эти термины дальше

В рамках книги я предлагаю очень простое дисциплинарное правило.

Использовать общий ИИ, когда речь идет о широкой общей способности

То есть когда вопрос в том, что система:

универсальна по задачам;

переносима;

автономна в разумной степени;

и достаточно надежна, чтобы реально действовать в мире.

Использовать сверхинтеллект, когда речь идет о сверхчеловеческом масштабе

То есть когда обсуждение касается:

резкого превосходства;

неуправляемого ускорения;

bannerbanner