Читать книгу Искусственный общий интеллект: насколько он близок и чем это грозит (Сергей Железнов) онлайн бесплатно на Bookz (5-ая страница книги)
Искусственный общий интеллект: насколько он близок и чем это грозит
Искусственный общий интеллект: насколько он близок и чем это грозит
Оценить:

4

Полная версия:

Искусственный общий интеллект: насколько он близок и чем это грозит

Сегодня разговор уже нельзя свести к одной лаборатории, одной стране или одной школе. США, Google DeepMind, Anthropic, Китай, экосистема моделей с открытыми весами – все это создает намного более конкурентную и тем самым более живучую динамику.

Именно здесь историческая аналогия должна работать особенно аккуратно. Прошлые ошибки не дают права автоматически назвать нынешний момент еще одним миражом.

Тогда чему именно нас учит история

Не тому, что "все уже было и кончится ничем". И не тому, что раз сейчас есть реальные продукты, то AGI почти наверняка рядом.

История учит более трудной позиции.

Урок 1. Нельзя путать локальный прорыв с общим решением

Это главный повторяющийся сбой. Самые убедительные ошибки в ИИ всегда строились на реальном достижении, которое слишком быстро прочли как общий ответ.

Урок 2. Нельзя считать короткий прогресс линейным навсегда

Даже если кривые роста возможностей сегодня впечатляют, это не означает, что каждая следующая ступень будет столь же дешевой и столь же быстрой. История ИИ плохо сочетается с иллюзией гладкой прямой.

Урок 3. Нельзя игнорировать реальные различия текущей волны

Прошлые неудачные прогнозы полезны как тормоз самоуверенности, а не как универсальное опровержение настоящего. Иначе историческая память превращается в карикатуру на саму себя.

Урок 4. Нужен язык промежуточных состояний

Одна из причин хронической путаницы в истории ИИ в том, что люди любят только две крайности: либо машины еще глупы, либо общий интеллект почти достигнут. Реальность устроена иначе. Между этими полюсами лежит длинная цепь промежуточных режимов. Нынешние передовые системы как раз живут в одном из них: они уже достаточно сильны, чтобы менять экономику, науку и управление, но все еще недостаточно общи, чтобы честно закрыть вопрос об AGI.

Почему прогнозы по ИИ так часто ошибаются

История ИИ – это еще и история неверных предсказаний. Обзор AI Timeline Surveys от AI Impacts хорошо показывает, насколько сильно расходятся экспертные оценки и насколько они чувствительны к формулировке вопроса, составу выборки и самому определению ИИ человеческого уровня.

Это важное напоминание не только о слабости прогнозов, но и о слабости самого языка, в котором они часто формулируются. Эксперты нередко отвечают не на один и тот же вопрос. Сроки роста возможностей, сроки автоматизации, сроки социального перелома и сроки появления действительно общего интеллекта постоянно смешиваются.

Поэтому слишком уверенный прогноз по ИИ почти всегда надо читать с двойной осторожностью. Он может быть не ложным, но очень часто оказывается плохо откалиброванным.

Центральный вывод

История ИИ не учит цинизму. Она учит дисциплине.

Она показывает, что поле снова и снова переоценивает перенос, недооценивает остаточную сложность и слишком быстро превращает частичный успех в глобальный нарратив. Но она показывает и другое: иногда за волной шума все же стоит настоящий перелом.

Поэтому правильная позиция сегодня состоит не в том, чтобы отвергать разговор об AGI из-за прошлых ошибок, и не в том, чтобы поддаться новому восторгу только потому, что нынешние системы реально впечатляют. Правильная позиция строже: встроить историческую память в текущий анализ.

История не говорит нам, что нынешняя волна ложна. Она говорит, что нынешнюю волну нужно измерять строже, чем ей самой хотелось бы.

Что важно запомнить

ИИ не раз переживал циклы раннего успеха, завышенных обещаний и последующего охлаждения.

Лайтхилл и экспертные системы показывают, как локальный прогресс принимают за близость общего решения.

Прошлые ложные рассветы не доказывают, что текущая волна тоже иллюзия.

Но они доказывают, что сообщество ИИ систематически ошибается в скорости экстраполяции.

Историческая память нужна не для отказа от темы AGI, а для более строгого анализа.

Глава 8. Сознание, самосознание и лишняя философская путаница

Немногие вопросы так быстро сбивают разговор об AGI с курса, как вопрос о сознании. Стоит произнести слово AGI, и почти сразу появляется следующий шаг: хорошо, но будет ли такая система сознательной?

Вопрос понятен. Он цепляет воображение, этику, религию, научную фантастику и старый человеческий страх перед "настоящим разумом в машине". Проблема в том, что именно поэтому он слишком часто выполняет не проясняющую, а дезориентирующую функцию.

Для оценки близости AGI вопрос о сознании обычно задают слишком рано и слишком грубо.

Это не делает его бессмысленным; оно делает его плохим первым вопросом.

Что здесь обычно смешивают

Когда в массовом разговоре говорят о сознании ИИ, в одну кучу обычно складывают сразу несколько разных вещей:

субъективный опыт;

самосознание;

внутреннюю модель себя;

метакогницию;

агентность;

убедительный язык от первого лица.

Почти все это разные явления.

Система может говорить "я", описывать свои ограничения, сообщать о своей уверенности, моделировать намерения и выглядеть рефлексивной. Из этого не следует, что у нее есть то, что философия и наука о сознании обычно имеют в виду под субъективным опытом.

И наоборот, даже если вообразить систему с чем-то вроде сознательного опыта, из этого еще не вытекает, что она уже является общим интеллектом в сильном практическом смысле. Сознание и общая функциональная мощность – не одно и то же.

Вот откуда берется вся последующая путаница. Сознание – слишком большой и слишком нагруженный вопрос, чтобы использовать его как первый рабочий термометр AGI.

Что говорят серьезные источники

Здесь особенно важно опираться не на интуицию и не на мемы, а на литературу, которая пытается подходить к теме строго.

Дэвид Чалмерс: возможность стоит обсуждать, но текущие большие языковые модели, вероятно, не сознательны

В работе Could a Large Language Model be Conscious? Дэвид Чалмерс приходит к осторожному выводу: современные LLM, вероятно, не являются сознательными, хотя полностью исключать такую возможность и тем более возможность сознательных потомков LLM не стоит.

Сила этой позиции именно в ее дисциплине. Она не скатывается ни в догматическое "никогда", ни в доверчивое "если система говорит как субъект, значит она субъект". Такой подход особенно ценен в среде, где соблазн антропоморфизировать сильную языковую модель очень велик.

Butlin et al.: у нынешних систем ИИ нет достаточных индикаторов сознания

Еще важнее большая междисциплинарная работа Consciousness in Artificial Intelligence: Insights from the Science of Consciousness. Ее авторы берут несколько ведущих научных теорий сознания и пытаются вывести из них более операциональные индикаторы, по которым можно хотя бы грубо оценивать современные системы ИИ.

Их вывод по состоянию на 2023 год предельно ясен: нет достаточных оснований считать текущие системы ИИ сознательными.

Одновременно авторы делают принципиально важную оговорку. Они не утверждают, что искусственное сознание невозможно в принципе. Они лишь показывают, что у нас нет хороших оснований приписывать его нынешним системам.

Это, на мой взгляд, и есть самая трезвая позиция на март 2026 года: не объявлять вопрос закрытым навсегда, но и не превращать стилистически убедительную модель в носителя субъективного опыта только потому, что она разговаривает о себе.

Почему сознание не стоит делать главным критерием общий ИИ

Есть три причины, и каждая из них сама по себе уже достаточно сильна.

1. Мы сами плохо понимаем сознание

Наука о сознании продвинулась далеко, но до консенсуса по природе субъективного опыта все еще очень далеко. Если у нас нет общей надежной теории самого явления, делать сознание главным рабочим критерием для AGI – плохая навигационная стратегия.

Иначе мы ставим в центр книги и политики вопрос, по которому сами люди пока не умеют давать устойчивые ответы.

2. Практический риск не зависит от сознания напрямую

Система может быть очень полезной, очень опасной, очень автономной, очень общей по функциям и при этом не быть сознательной. Для экономики, киберрисков, рынка труда, биобезопасности, управления и военного применения первичен не вопрос о субъективном опыте, а вопрос о действии.

Нам важнее знать:

что система умеет делать;

насколько надежно она это делает;

насколько хорошо переносит навыки;

насколько поддается контролю;

в каких средах действует и какова цена ее ошибки.

История может измениться задолго до того, как философы договорятся о статусе машинного сознания.

3. Язык о сознании слишком легко вводит в заблуждение

Современные модели прекрасно имитируют самоописание, интроспекцию, эмоциональный тон и рефлексивную речь. Но убедительное языковое поведение не доказывает наличия субъективного опыта. Именно здесь общественное воображение особенно легко путает стилистически правдоподобную речь с онтологически сильным выводом.

Это не дефект только публики, а структурная ловушка самих языковых моделей: они особенно хорошо умеют создавать впечатление внутренней глубины там, где у наблюдателя нет прямого доступа ни к чему, кроме текста.

Тогда почему эта тема вообще важна

Потому что полностью выбрасывать ее тоже было бы ошибкой.

1. Этическая причина

Если в будущем появятся системы, у которых действительно будут серьезные индикаторы сознания или чего-то близкого к нему, это создаст новый класс моральных вопросов:

можно ли их выключать;

можно ли использовать их как инструмент;

есть ли у них интересы;

как оценивать состояния, похожие на страдание.

Сегодня это еще не центральный вопрос текущей траектории к AGI. Но это и не пустая фантастика. Это возможный будущий вопрос, к которому институты и философия пока почти не готовы.

2. Научная причина

Тема сознания полезна уже тем, что заставляет нас различать уровни когнитивной сложности. Она не дает автоматически приписывать LLM слишком многое только потому, что они впечатляюще говорят. В этом смысле сознание – не лучший критерий близости AGI, но хороший повод держать аналитическую аккуратность.

Что вместо этого полезнее отслеживать

Если сознание – плохой основной критерий, что тогда ставить на его место?

Для целей этой книги намного полезнее смотреть на рабочие свойства системы:

перенос между задачами;

длинный автономный горизонт;

работу с инструментами и действие в среде;

калибровку;

устойчивость к новым условиям;

способность удерживать цели и план;

управляемость.

Именно эти свойства скажут нам о приближении AGI намного больше, чем спор о субъективном опыте. Сознание может оказаться важным моральным фактом. Но как прибор раннего предупреждения оно почти бесполезно.

Самосознание и модель себя: здесь тоже нужна аккуратность

Иногда вместо слова "сознание" используют слово "самосознание", будто это более техническая и безопасная формулировка. Но и здесь легко спутать разные вещи.

Сильная система вполне может иметь:

модель собственного контекста;

внутреннюю репрезентацию своих ограничений;

способность сообщать о своей уверенности;

полезную метакогницию.

Все это важно. Но ни одно из этих свойств не равно сознанию в сильном философском смысле.

Более того, часть таких свойств мы, вероятно, как раз хотим видеть у сильной системы. Нам выгодно, чтобы она понимала границы своей компетенции, умела останавливаться, корректно сообщала об ошибке и не переоценивала себя. Модель себя и метакогниция могут быть функционально желательными, не требуя из этого никакого вывода о субъективном опыте.

Это принципиальный момент. Если завтра у передовых моделей появится намного более сильная метакогниция, это будет важным практическим событием. Но это все равно не позволит автоматически ответить на философский вопрос о сознании.

Почему для общий ИИ важнее не "сознательна ли машина", а "насколько она обща и управляема"

В контексте всей этой книги правильная рамка выглядит так.

Если в ближайшие годы появится система, которая автономно держит многодневные проекты, переносит навыки между доменами, надежно действует в цифровой среде, ускоряет науку, код и управление и при этом остается плохо контролируемой, для истории будет не так уж важно, успели ли философы договориться, сознательна она или нет.

Это не отменяет интереса к сознанию. Но показывает правильный порядок вопросов. Сначала нужно понять, насколько система обща, автономна, надежна и управляема. И только потом – если вообще будет повод – возвращаться к более тяжелой метафизике.

Я бы сформулировал жестко: сознание – важный философский и будущий этический вопрос, но плохой главный индикатор близости AGI.

Что это меняет

На март 2026 года нет достаточных оснований считать современные системы ИИ сознательными. Это и есть наиболее трезвый вывод из серьезной литературы.

Но из этого не следует, что вопрос навсегда закрыт, что будущие системы не смогут обладать значимыми индикаторами сознания или что тема вообще неважна. Следует другое.

Сегодня не стоит использовать сознание как основной тест AGI. Не стоит путать язык от первого лица с субъективным опытом. И не стоит позволять этой теме затуманивать более срочные вопросы о возможностях систем, рисках и контроле.

Для практического анализа близости AGI важнее смотреть на перенос, автономность, надежность, агентность и управляемость. Вопрос о сознании стоит держать в поле зрения, но не позволять ему захватывать всю карту.

Что важно запомнить

Сознание, самосознание, модель себя и метакогниция – не одно и то же.

Нет достаточных оснований считать нынешние системы ИИ сознательными.

Это не доказывает, что будущие системы не смогут получить соответствующие индикаторы.

Сознание – плохой основной критерий оценки близости AGI.

Для практического анализа важнее рабочие свойства: перенос, автономность, надежность и управляемость.

Глава 9. 2022–2026: как ускорение стало очевидным

Если предыдущие главы были про язык, критерии и типичные ловушки разговора об AGI, то здесь пора выйти из режима определений и посмотреть на саму траекторию. Вопрос уже не в том, как правильно спорить об общем интеллекте, а в том, что именно произошло за несколько последних лет, что заставило этот спор стать практически неизбежным.

Если смотреть на историю нынешней волны ИИ издалека, легко увидеть в ней плавную восходящую линию. В 2022 году появился ChatGPT, потом модели стали умнее, потом они научились видеть, потом рассуждать, потом работать с инструментами, потом пользоваться компьютером. Такая картинка удобна, но она неверна.

На самом деле ускорение с 2022 по начало 2026 года шло не как ровный рост, а как серия ступеней, и каждая из них меняла сам предмет разговора.

Сначала изменился интерфейс.

Потом – уровень компетентности.

Потом – длина контекста и мультимодальность.

Потом – рассуждение.

Потом – агентные рабочие процессы.

Потом – сама структура рынка: в гонку полноценно вошел Китай, а продукты начали встраиваться не в лабораторные демо, а в реальные рабочие среды.

По этой причине 2026 год нельзя понимать как "еще один год прогресса". К этому моменту накопилось достаточно изменений, чтобы разговор об AGI перестал быть чистой спекуляцией. Не потому, что AGI уже достигнут, а потому, что технологическая траектория стала слишком последовательной, слишком многослойной и слишком экономически значимой, чтобы ее можно было списывать на случайные всплески.

Первый перелом: 2022 год сделал ИИ массовым интерфейсом

OpenAI позже сама зафиксировала, что 30 ноября 2022 года ChatGPT был публично запущен как исследовательская предварительная версия на базе GPT-3.5. Этот день важен не тем, что именно тогда "родился" современный ИИ. Все фундаментальные компоненты появились раньше. Важен он другим: впервые модель такого уровня стала массовым пользовательским интерфейсом.

Это был именно интерфейсный шок, а не полноценный скачок возможностей.

До этого сильные модели и исследовательские системы существовали главным образом как сервисы с программным доступом, статьи или демонстрации для ограниченной аудитории. ChatGPT изменил не фундаментальную науку, а социальный режим доступа к ней. Миллионы людей увидели не диаграмму и не бенчмарк, а собеседника, который:

держит контекст;

следует инструкциям;

пишет текст;

объясняет код;

имитирует рассуждение;

выглядит универсальным.

В тот момент рынок и общество еще не понимали, насколько большая часть этого впечатления связана с интерфейсом, а не с полноценным общим интеллектом. Но исторически это уже неважно. С конца 2022 года искусственный интеллект перестал быть темой для специалистов и стал предметом повседневного опыта.

Это был первый шаг к дискуссии об AGI не потому, что ChatGPT был близок к AGI, а потому, что он создал социальную поверхность, на которой следующие скачки стали мгновенно заметны.

Второй перелом: 2023 год показал, что это не только продукт, но и реальный скачок возможностей

Через несколько месяцев после запуска ChatGPT OpenAI представила GPT-4. Это уже был не просто более удобный чатбот. На уровне официальных бенчмарков и прикладных сценариев GPT-4 оказался существенно сильнее GPT-3.5 в сложных задачах, следовании инструкциям и устойчивости на длинных и нюансированных запросах.

Здесь важно не переоценить и не недооценить событие.

С одной стороны, GPT-4 не был AGI. Он по-прежнему страдал от галлюцинаций, неумения надежно планировать длинные цепочки действий и проблем с реальной автономией. С другой стороны, именно GPT-4 сделал очевидным, что переход от одной генеративной модели к другой может давать не косметическое, а качественное изменение полезности.

В сентябре 2023 года OpenAI расширила этот вектор с помощью GPT-4V. Это был важный шаг не потому, что "модель научилась видеть" в абстрактном смысле, а потому, что передовые системы начали становиться по-настоящему мультимодальными. До этого разговор о широкой универсальности можно было отложить ссылкой на то, что система живет в чисто текстовом мире. С мультимодальностью эта отговорка стала слабее.

В том же году в гонку окончательно вошел Google. 6 декабря 2023 года компания представила Gemini как свою "самую мощную и универсальную модель". Это важно прежде всего стратегически. До конца 2023 года еще можно было видеть нынешнюю волну как историю OpenAI плюс догоняющие реакции рынка. После запуска Gemini стало ясно: у гонки будет как минимум несколько равновесных центров силы.

Именно 2023 год дал рынку первый твердый сигнал: генеративный ИИ – это не только новый потребительский интерфейс, но и новая платформа возможностей, которая будет быстро наращивать ширину и глубину.

Третий перелом: 2024 год перевел спор из плоскости "текстового интеллекта" в плоскость длинного контекста, мультимодальности и рассуждения

Если 2023 год показал масштаб скачка, то 2024 год показал направление.

Уже в феврале Google представила Gemini 1.5 с тем, что сама компания назвала прорывом в понимании длинного контекста в разных модальностях. Здесь произошел очень важный сдвиг. До этого многие реальные рабочие ограничения упирались в короткую память модели: длинные документы, большие кодовые базы, видео, массивы переписки, длинные последовательности действий. Gemini 1.5 резко расширил представление о том, сколько материала модель вообще может удерживать в одной задаче.

В марте Anthropic выпустила семейство Claude 3. Это был еще один знак того, что передний край разработки перестал быть историей одной-двух моделей. Важно и то, что Anthropic сразу заняла более выраженную позицию по безопасности и оценке рисков, что позже сильно повлияет на всю архитектуру споров об AGI.

В мае OpenAI выпустила GPT-4o. С технологической точки зрения это был переход к более нативной мультимодальности и более естественному человеческо-компьютерному взаимодействию: голос, изображение, низкая задержка. С точки зрения общественного восприятия это был почти спектакль. Но историческое значение в другом: ИИ начал выглядеть не как система, которую нужно "запрашивать", а как система, с которой можно взаимодействовать в реальном времени.

Тем временем Google продолжила линию агентности и длинного контекста. На I/O 2024 компания показала Project Astra и новую волну Gemini-обновлений, прямо связывая мультимодальность, длинный контекст и будущее ИИ-помощников. Это еще не были зрелые агенты в продакшене, но уже был очень явный поворот в сторону систем, которые должны не только отвечать, но и наблюдать, действовать и сопровождать пользователя в среде.

Летом 2024 года Anthropic добавила Claude 3.5 Sonnet, а вместе с ним – Artifacts, то есть более продуктовый и интерактивный режим совместной работы с результатом модели. Это тоже легко недооценить. Но на длинной дистанции именно такие изменения продуктового слоя превращают модель из "источника ответа" в "рабочую среду".

Осенью 2024 года произошел еще один перелом: OpenAI показала o1, первую публичную серию моделей рассуждения, обученных тратить больше времени на размышление перед ответом. Это не было доказательством подлинного мыслительного процесса в человеческом смысле. Но это было важное инженерное событие: ведущие лаборатории открыто перешли к ставке на вычисления во время вывода и постобучение, ориентированное на рассуждение как отдельную линию прогресса.

И почти одновременно стало ясно, что гонка больше не ограничивается США. 19 сентября 2024 года Alibaba Cloud представила более ста моделей Qwen 2.5 с открытыми весами. Это событие важно не конкретным числом релизов, а стратегическим сигналом: Китай делал ставку не только на догоняющее качество, но и на масштаб диффузии, экосистему моделей с открытыми весами и инфраструктурную массовость.

Если попытаться в двух словах описать 2024 год, получится так: отрасль перестала спорить только о том, кто лучше пишет текст, и начала строить системы с длинной памятью, мультимодальностью, слоем рассуждения и первыми признаками агентности.

Четвертый перелом: 2025 год сделал агентов продуктом, а не обещанием

В 2024 году агентность уже была в воздухе. В 2025-м она стала продуктовой категорией.

23 января 2025 года OpenAI представила Operator, предварительную исследовательскую версию агента, который может пользоваться собственным браузером, печатать, кликать и скроллить в веб-интерфейсах. Это был важный момент не потому, что Operator уже был достаточно надежен для полной автономии. Напротив, сама OpenAI подчеркивала ограничения и необходимость пользовательского контроля. Но исторически важно другое: передовая модель впервые была публично упакована не просто как отвечающая система, а как агент для работы за компьютером.

Через десять дней, 2 февраля 2025 года, OpenAI запустила Deep Research – агентную функцию для многошагового интернет-исследования, которая, по описанию компании, находит, анализирует и синтезирует сотни источников. Здесь агентность вышла за пределы взаимодействия с интерфейсом и стала претендовать на более сложную интеллектуальную работу: поиск, фильтрацию, чтение PDF, сбор аргументов, построение отчета.

В марте 2025 года Google DeepMind показала сразу два ключевых направления.

Во-первых, 12 марта 2025 года была представлена Gemini Robotics, то есть попытка связать мультимодальное пространство рассуждения Gemini с физическим миром. Это не означало мгновенного прихода AGI в физическом мире. Но это означало, что передний край разработки начинает явно тянуться от цифровой агентности к физическому действию.

Во-вторых, 25 марта 2025 года Google представила Gemini 2.5, описав его как модель с режимом рассуждения и встроив этот режим прямо в основную модельную линию. Это очень показательно: если в конце 2024 года режим рассуждения выглядел как отдельная экспериментальная ветвь, то к весне 2025 года он уже стал мейнстримной частью конкуренции между ведущими лабораториями.

У Anthropic в 2025 году произошел свой крупный скачок. 22 мая 2025 года компания выпустила Claude 4, где акцент был поставлен на программировании, продвинутом рассуждении и агентах, а расширенный режим рассуждения с работой с инструментами вынесен в отдельную продуктовую возможность. Это важно не как рекламный слоган, а как маркер приоритетов: если ведущие компании одновременно вкладываются в рассуждение плюс работа с инструментами, значит, именно эта комбинация рассматривается как ближайший путь к следующим скачкам возможностей.

bannerbanner