
Полная версия:
Искусственный общий интеллект: насколько он близок и чем это грозит

Сергей Железнов
Искусственный общий интеллект: насколько он близок и чем это грозит
Пролог
Март 2026: момент, когда модели вышли из окна чата
Если через несколько лет придется назвать короткий отрезок времени, когда разговор об AGI окончательно вышел из режима интеллектуальной экзотики и стал разговором о рабочей среде, инфраструктуре и риске, то таким отрезком вполне может оказаться промежуток между 2 февраля и 5 марта 2026 года.
Не потому, что в эти недели кто-то предъявил готовый AGI. Не потому, что одна компания внезапно решила старый философский спор. А потому, что именно в этот месяц стало особенно трудно делать вид, будто передовые модели по-прежнему остаются просто очень хорошими собеседниками.
На наших глазах они начали закрепляться в другой роли: не той, что отвечает в окне чата, а той, что работает за компьютером.
2 февраля 2026 года OpenAI представила приложение Codex, которое компания описывает как центр управления агентами: интерфейс для управления несколькими агентами сразу, параллельной работы и длинных задач, которые могут идти часами, днями и даже неделями. Сам по себе этот сдвиг уже показателен. Еще недавно базовой единицей взаимодействия с ИИ была одна сессия, один запрос, одно окно. Теперь ставка делается на оркестрацию нескольких веток работы, на делегирование, на длинный цикл исполнения.
3 февраля 2026 года Apple объявила, что Xcode 26.3 поддерживает агентное программирование и позволяет использовать в среде разработки агентов вроде Anthropic Claude Agent и OpenAI Codex. Это уже не просто красивая интеграция. Когда один из главных мировых инструментов разработки встраивает агентное программирование в основной рабочий контур, это означает, что идея вышла из режима лабораторного эксперимента. Она стала кандидатом на новый нормальный способ работы.
Через два дня, 5 февраля 2026 года, OpenAI выпустила GPT-5.3-Codex, назвав его самой сильной на тот момент агентной моделью для программирования. В анонсе модель описывается уже не как узкий механизм автодополнения, а как система для долгих задач, сочетающих исследование, работу с инструментами и исполнение. Важно и то, как компания говорит о собственной внутренней практике: ранние версии модели, по словам OpenAI, использовались для отладки обучения, диагностики развертываний и анализа оценок. Даже если читать эти утверждения осторожно и не забывать о маркетинговом слое, направление движения ясно: модели начинают участвовать не только в пользовательской работе, но и в создании, проверке и сопровождении самих ИИ-систем.
В тот же день Anthropic вывела Claude Opus 4.6, позиционируя его как модель для профессиональной разработки ПО, сложных агентных процессов и корпоративных задач с высокой ценой ошибки. Это важно не потому, что еще одна компания объявила свой продукт самым сильным. Важнее другое: несколько ведущих игроков почти одновременно пришли к одной и той же ставке. Следующий рубеж конкуренции лежит не в том, чтобы модель звучала умнее в диалоге, а в том, чтобы она могла дольше, надежнее и самостоятельнее работать в реальных вычислительных и офисных средах.
17 февраля 2026 года Anthropic представила Claude Sonnet 4.6, уже открыто связывая прогресс не только с программированием, но и с работой за компьютером, агентным планированием, длинным контекстом и работой в средах вроде браузера, офисных приложений и редакторов кода. Компания прямо пишет, что пользователи видят в ряде задач возможности человеческого уровня, например при навигации по сложной таблице или заполнении многошаговой веб-формы. Эти заявления нельзя принимать как доказательство AGI. Их и не нужно так читать. Важно другое: сами сценарии, которые еще недавно были поводом для исследовательской демонстрации, стали предметом открытой продуктовой конкуренции.
В этот же день Alibaba выпустила Qwen3.5, описав модель как шаг к нативным мультимодальным агентам. Этот релиз важен по другой причине. Он показывает, что к 2026 году разговор об AGI уже нельзя честно вести как историю нескольких американских лабораторий. Китай больше нельзя описывать как внешнего наблюдателя или запаздывающего догоняющего. Он стал самостоятельным игроком на переднем крае, особенно там, где важны модели с открытыми весами, инфраструктурная эффективность и быстрая диффузия моделей среди разработчиков.
Эту линию хорошо видно и по DeepSeek. На публичном сайте компании в марте 2026 года DeepSeek-V3.2 описывается как модель рассуждения, изначально рассчитанная на агентную работу, а в документации релиза отдельно подчеркиваются мышление в связке с инструментами и масштабный синтез агентных данных. Другими словами, на первый план выходит уже не просто языковая беглость и даже не абстрактная способность к рассуждению, а умение модели мыслить в связке с инструментами, интерфейсами, окружением и длинной цепочкой промежуточных состояний.
Наконец, 5 марта 2026 года OpenAI выпустила GPT-5.4, объединив в одной системе рассуждение, программирование и агентные рабочие процессы для профессиональной работы. Один такой релиз еще можно было бы считать частью привычного цикла анонсов. Но когда за месяц складывается слишком последовательная картина – OpenAI, Anthropic, Apple, Alibaba, DeepSeek, общий сдвиг в сторону работы за компьютером, агентного программирования и рабочих агентных систем, – становится трудно считать это просто маркетинговым шумом. Перед нами не случайность, а структурный поворот.
И именно здесь особенно важно не перепутать ускорение с завершением пути.
Если читать только пресс-релизы и победные посты компаний, легко решить, что AGI уже почти у порога. Но независимые данные рисуют более трезвую картину. В 2025 году исследователи из METR предложили один из самых полезных способов смотреть на реальный прогресс: измерять не впечатляющие единичные ответы, а длину задач, которые модель способна завершить с приемлемой вероятностью. Их вывод одновременно впечатляет и отрезвляет. Горизонт задач у лучших систем растет очень быстро. Но между задачами на минуты и задачи на многие часы по-прежнему лежит жесткий разрыв надежности.
Поэтому вопрос этой книги нельзя формулировать грубо: Есть уже AGI или нет? Такой вопрос слишком примитивен и почти бесполезен. Намного полезнее другой вопрос: по каким признакам можно оценивать дистанцию до AGI, не поддаваясь ни хайпу, ни самоуспокоению?
Это и есть центральная задача книги.
Нас будет интересовать не то, какая компания выиграла неделю новостей. Нас будет интересовать, что именно должно произойти, чтобы разговор об AGI стал не метафорой, а точным описанием новой технической реальности. Для этого придется жестко развести несколько вещей, которые публичная дискуссия почти всегда смешивает:
языковую впечатляющесть и устойчивую автономную способность;
бенчмарк-лидерство и работу в реальном мире;
работа за компьютером и общий интеллект;
умение писать код и умение вести длинные исследовательские или организационные процессы;
рост возможностей и рост управляемости;
AGI и ASI.
Эта книга исходит из простой, но неудобной позиции. Мы не знаем, насколько близок AGI. Но мы уже знаем достаточно, чтобы перестать говорить о нем как о фантастике. Технологическая база для следующего скачка уже собирается на наших глазах: модели рассуждения, длинный контекст, инструменты, агенты, мультимодальность, работа за компьютером, робототехнические интерфейсы, ускорение инфраструктурной гонки и новая геополитика вычислений, энергии и цепочек поставок.
Вот почему тему AGI больше нельзя отдавать ни футурологам, ни маркетологам. Она стала вопросом инженерии, экономики, безопасности и государственного масштаба.
Если передовая модель умеет не просто отвечать, а планировать, искать, читать документацию, менять код, открывать интерфейсы, пользоваться инструментами, удерживать длинный контекст и постепенно приближаться к цели, то главный спор идет уже не о том, "умная" ли она. Главный спор идет о другом: какой именно барьер остается между такими системами и тем, что разумно назвать общим интеллектом.
Этот барьер может оказаться больше, чем кажется из коротких демо. Возможно, модели все еще слишком хрупки, слишком зависимы от среды, слишком ненадежны на длинных горизонтах, слишком легко сбиваются, слишком плохо держат собственные цели и слишком легко поддаются внешним воздействиям. Но возможно и другое: часть этих барьеров уже не фундаментальна, а инженерна. А инженерные барьеры плохи тем, что однажды они просто перестают быть барьерами.
Поэтому главный вопрос этой книги будет не верите ли вы в AGI. Главный вопрос будет другим: какие сигналы действительно означают приближение AGI, какие только имитируют его, и чем для общества будет стоить ошибка в обе стороны.
Ошибка в сторону паники опасна. Ошибка в сторону недооценки может оказаться исторически дороже.
Глава 1. После чатбота: почему вопрос об общем ИИ снова серьезен
Еще совсем недавно спор об AGI можно было отодвинуть без большого интеллектуального ущерба. Да, отдельные исследователи, предприниматели и инвесторы говорили о нем громко, но для большинства наблюдателей эта тема оставалась смесью философии, научной фантастики и привычно ранних обещаний.
В 2026 году такая дистанция уже не работает.
Не потому, что AGI доказан. Не потому, что какая-то компания уже предъявила систему, которую можно без натяжки объявить общим интеллектом. И даже не потому, что индустрия внезапно перестала преувеличивать. Разговор стал серьезным по другой причине: изменился сам статус вопроса.
Теперь AGI – это не одна дерзкая гипотеза, а точка пересечения сразу нескольких наблюдаемых сдвигов:
передовые модели перестали быть только текстовыми собеседниками;
рассуждение, длинный контекст и работа с инструментами вошли в основной продуктовый стек;
агентные системы вышли из исследовательских демо в рабочие контуры;
Китай и экосистема моделей с открытыми весами стали самостоятельными источниками ускорения;
рынок труда, инфраструктура и политика уже начали подстраиваться под новую траекторию.
Именно эта сходимость и делает вопрос об AGI серьезным.
Серьезным – не значит решенным
Здесь особенно важна дисциплина. Как только в технологической сфере появляется новый класс впечатляющих возможностей, почти сразу возникает ложная бинарность. Либо это уже и есть будущее, либо это все еще игрушка. Оба ответа удобны. И оба почти всегда неверны.
С AGI сейчас происходит ровно то же самое.
На одном краю находятся люди, которые читают каждый новый релиз как почти доказанное приближение общего интеллекта. На другом – те, кто по инерции продолжают относиться к теме как к вечному горизонту, который всегда можно отодвинуть еще на десять лет. Реальность уже сложнее обеих позиций.
Если смотреть на 2025–2026 годы без истерики и без самоуспокоения, видно следующее: передовые системы пока не демонстрируют полноценный общий интеллект, но они уже выглядят как системы общего цифрового назначения в достаточно широком контуре. Они умеют писать и исправлять код, искать и синтезировать источники, пользоваться инструментами, работать в средах разработки и браузере, выполнять многошаговые рабочие процессы, удерживать длинный контекст и действовать через агентные циклы.
Это еще не AGI. Но это уже и не просто умное автодополнение.
Почему именно сейчас разговор стал другим
Чтобы понять, почему тема вышла из разряда маргинальных, нужно смотреть не на одну модель и не на один громкий анонс, а на общую траекторию.
1. Интерфейс перестал маскировать сущность
Первые месяцы эпохи ChatGPT создали важную, но обманчивую картину. Казалось, что главное событие – это новый интерфейс: ИИ наконец-то научился разговаривать с человеком естественным языком. Это действительно было важным переломом, но какое-то время именно интерфейс скрывал более глубокую суть перемен.
Поворот произошел тогда, когда модели начали не только отвечать, но и действовать.
OpenAI в феврале 2026 года представила приложение Codex как систему управления несколькими агентами сразу. Apple через день встроила агентное программирование прямо в Xcode 26.3, фактически признав, что ИИ-агенты уже достаточно полезны для основного рабочего контура разработчиков. Anthropic и Google в это же время усиливали линии работы за компьютером, рассуждения на длинном контексте и агентного планирования.
Этот переход – от ответа к действию – и сделал разговор об AGI серьезнее. Цифровой интеллект начинает менять мир не тогда, когда красиво говорит, а тогда, когда начинает выполнять работу.
2. Несколько независимых линий прогресса сошлись одновременно
Нынешний момент нельзя объяснить только одной осью.
Если бы модели стали лучше только в чат-диалоге, можно было бы говорить об удачной, но узкой интерфейсной технологии. Если бы вырос только контекст, но не работа с инструментами, это был бы другой частный скачок. Если бы улучшилось только программирование, но не рассуждение, – еще один.
Но в 2025–2026 годах мы видим одновременно:
модели рассуждения;
длинный контекст;
мультимодальность;
работа за компьютером;
агентные циклы;
диффузия моделей с открытыми весами;
быстрый рост вычислительной инфраструктуры.
Каждая из этих линий по отдельности еще не ведет к AGI. Но вместе они образуют структуру, слишком похожую на путь к более общим системам, чтобы ее можно было игнорировать.
3. Вопрос вышел за пределы лабораторий
Еще один сильный признак – изменение круга институтов, которые вовлечены в тему.
Когда AGI был преимущественно спекулятивным словом, о нем спорили главным образом лаборатории, футурологи, философы сознания и инвесторы. Сейчас последствия передового ИИ обсуждают уже совсем другие акторы:
энергетические агентства;
регуляторы;
международные экономические организации;
органы национальной безопасности;
корпоративные ИТ-директора и технические директора;
рынок труда и образовательные системы.
Это не техническое доказательство близости AGI. Но это сильный признак того, что реальный мир уже перестраивается под гипотезу о его приближении.
Почему это не просто повторение старого хайпа вокруг ИИ
Скептик вправе возразить: у ИИ уже были периоды чрезмерного оптимизма, и нынешняя волна тоже может оказаться одним из таких циклов. Это возражение нельзя просто отмахнуть. История ИИ действительно полна ложных рассветов, и дальше в книге мы подробно разберем, почему поле так часто ошибалось в собственных прогнозах.
Но нынешняя ситуация все же отличается по нескольким параметрам.
1. Масштаб внедрения
Предыдущие волны ИИ часто оставались внутри лабораторий, государственных программ или относительно узких корпоративных сегментов. Нынешняя волна уже встроена:
в массовый пользовательский софт;
в офисные и инженерные рабочие процессы;
в разработку программного обеспечения;
в маркетинг, аналитику, поиск, поддержку и обучение.
Технология, которая уже меняет повседневные рабочие процессы сотен миллионов людей, находится в другом статусе, чем технология, живущая в демонстрационных комнатах.
2. Экономика и капитал
Нынешний передний край ИИ опирается на огромный слой капитальных затрат, инфраструктурного строительства и промышленной координации. Это не похоже на короткий всплеск, который держится только на обещаниях. Даже если часть ожиданий окажется завышенной, сам масштаб вовлеченных ресурсов показывает, что речь идет не о локальной моде, а о системном технологическом сдвиге.
3. Многополярность переднего края
Еще одна разница в том, что гонка перестала быть историей одной компании или одной страны. Помимо OpenAI, очень сильные траектории есть у Anthropic, Google DeepMind, xAI, а также у китайского блока – прежде всего Alibaba/Qwen и DeepSeek.
Многополярность сама по себе ускоряет прогресс. Разные игроки пробуют разные архитектурные, продуктовые и стратегические подходы к безопасности, а рынок быстрее распространяет удачные решения. Это делает разговор об AGI серьезнее по простой причине: у мировой системы меньше шансов добровольно сбросить скорость.
Что именно стало предметом нового беспокойства
Серьезность вопроса об AGI сегодня связана не с одним страхом и не с одной надеждой. В нем сошлись сразу несколько разных линий.
Экономическая линия
Если агентные системы становятся достаточно сильными в коде, анализе, исследованиях и административных задачах, они начинают менять природу интеллектуальной работы. Это означает давление на младшие и часть средних ролей, рост продуктивности у сильных специалистов и концентрацию выигрыша у платформ, облачной инфраструктуры и капитала.
Политическая линия
Чем больше ИИ зависит от вычислений, энергии, упаковки чипов и цепочек поставок, тем сильнее он становится вопросом промышленной и государственной мощности. В этот момент AGI перестает быть темой только для тех-компаний и становится частью геополитики.
Риск-линия
По мере роста возможностей растут и потенциальные классы вреда:
киберриски;
злоупотребления в биологии;
агентное рассогласование;
проблемы контроля над все более автономными системами.
Даже если AGI еще не достигнут, сама траектория к нему уже порождает достаточно мощные промежуточные риски, чтобы вопрос нельзя было откладывать.
Но почему именно общий ИИ, а не просто "сильный ИИ"?
Это правильное возражение. Слово AGI перегружено, спорно и слишком легко превращается в миф. Возникает соблазн вообще отказаться от него и говорить только о сильном ИИ или очень мощных моделях.
Но полностью отказаться от этого слова тоже нельзя.
Проблема в том, что выражения вроде сильная модель или продвинутый помощник уже плохо захватывают происходящее. Они не описывают переход от узких систем к системам общего цифрового назначения, которые постепенно закрывают все больше признаков общего интеллекта в разных средах и ролях.
Поэтому слово AGI остается полезным не как магическая метка, а как название траектории. Мы наблюдаем движение не просто к более сильным чатботам, а к системам, которые шаг за шагом становятся общими, агентными и все более значимыми для реального мира.
Именно в этом смысле вопрос об AGI снова серьезен.
Главный вывод главы
На март 2026 года было бы неверно говорить: AGI уже здесь. Но столь же неверно делать вид, что об этом еще рано думать.
Точнее так:
тема AGI перестала быть пустой спекуляцией, потому что технологическая траектория уже породила слишком много независимых, проверяемых и экономически значимых признаков движения к более общим системам.
Серьезность вопроса определяется не одним чудом, а несколькими совпавшими обстоятельствами:
модели стали действовать, а не только говорить;
рассуждение, инструменты и агенты вошли в основной стек;
модели с открытыми весами и китайский передний край ускорили диффузию;
рынок труда и инфраструктура уже реагируют;
а риски управления системами больше нельзя считать чисто гипотетическими.
Дальше в книге нас будет интересовать уже не вопрос верите ли вы в AGI, а более точный вопрос: по каким признакам можно отличить реальное приближение AGI от очередной волны впечатления.
Что важно запомнить
В 2026 году вопрос об AGI серьезен не потому, что AGI доказан, а потому, что изменилась сама траектория передового ИИ.
Главный сдвиг – переход моделей от ответа к действию.
Серьезность темы создается сходимостью нескольких линий: рассуждения, агентов, работы с инструментами, длинного контекста, открытой диффузии и промышленного наращивания инфраструктуры.
Вопрос уже вышел за пределы лабораторий и стал экономической, инфраструктурной и политической темой.
Это еще не доказательство AGI, но уже и не спекуляция на пустом месте.
Глава 2. Что мы вообще называем общим ИИ
Одна из причин, по которым спор об AGI так быстро скатывается в шум, заключается в очень простой вещи: люди используют одно и то же слово для обозначения разных объектов.
Для одних AGI – это машина, которая умеет делать почти все, что умеет человек.
Для других – система, которая может решать широкий круг задач лучше среднего профессионала.
Для третьих – уже почти синоним сознательной машины.
Для четвертых – просто маркетинговый ярлык для очень сильной модели.
Если не развести эти значения в начале, весь дальнейший разговор будет путаться.
Почему с определением так трудно
Проблема начинается с самого слова интеллект.
Шейн Легг и Маркус Хаттер еще в 2007 году писали, что никто толком не знает, что такое интеллект, особенно когда речь идет о системах, радикально отличных от человека. Их попытка дать формальное определение машинного интеллекта была важна именно потому, что она показала масштаб проблемы: как только мы переходим от повседневного употребления слова к строгой формулировке, оказывается, что в дело вмешиваются:
среда;
объем доступного опыта;
способность к обучению;
ширина задач;
эффективность освоения новых задач.
Франсуа Шолле в 2019 году усилил эту мысль еще жестче. Он предложил понимать интеллект не как сумму навыков, а как эффективность приобретения навыков в новых задачах при ограниченном опыте. Это полезный поворот, потому что он сразу выбивает из разговора одну популярную ловушку: систему нельзя считать общей только потому, что она демонстрирует много уже накопленных умений.
Именно отсюда возникает главная трудность с AGI. Нам нужно определить не просто "очень сильную систему", а систему, которая:
работает в широком наборе задач;
переносит навыки в новые условия;
не требует полного переобучения под каждую новую цель;
может действовать в среде, а не только отвечать на вопросы;
и делает все это с приемлемой надежностью.
Бесполезные определения общий ИИ
Прежде чем предложить рабочую рамку, полезно назвать формулировки, которые звучат красиво, но аналитически мало помогают.
1. "общий ИИ – это все, что умнее человека"
Это слишком широкая формула. Она не различает:
общность и сверхинтеллект;
узкое превосходство и широкую универсальность;
интеллект как способность действовать и интеллект как абстрактную мощность.
Если так определять AGI, мы очень быстро смешаем его с ASI и потеряем полезность термина.
2. "общий ИИ – это система, которая умеет абсолютно все"
Это определение слишком жесткое. Если понимать его буквально, AGI окажется недостижимым или почти пустым понятием. Любая реальная система будет иметь ограничения, специализацию и границы доменов. Но это не значит, что она не может быть достаточно общей, чтобы радикально изменить экономику и безопасность.
3. "общий ИИ – это сознательная машина"
Это определение хуже всего подходит для практического анализа. Вопрос о сознании сложен сам по себе, а для оценки технологической траектории он почти всегда создает больше тумана, чем ясности. Машина может быть очень опасной, очень полезной и очень общей по функциям, оставаясь при этом бездоказательно несознательной.
4. "общий ИИ – это просто очень хороший большие языковые модели"
Это удобное маркетинговое сокращение, но аналитически оно никуда не годится. LLM может быть компонентом пути к AGI, основой для агентного стека или даже ранней формой цифровой общности. Но сам по себе ярлык "сильная языковая модель" не решает вопроса об общем интеллекте.
Полезные оси определения
Вместо одного магического определения разумнее смотреть на несколько осей сразу.
1. Ширина
Насколько система работает в разных типах задач?
Не только в математике, коде или написании текста, а в широком диапазоне:
рассуждение;
планирование;
инструментальные действия;
анализ;
интерактивные среды;
частично новые задачи.
2. Перенос
Насколько хорошо система переносит навыки на незнакомые условия?
Это одна из центральных мыслей Шолле: навык на одном наборе задач – не то же самое, что интеллект как способность осваивать новое.
3. Автономность
Насколько система способна не просто выдавать ответы, а удерживать цель и двигаться к ней через последовательность шагов?

