
Полная версия:
Код создателя: Последнее изобретение человека?
Глава 7: Первые Юридические Рубежи: Кто отвечает за ИИ? – Битва за Цифровое Право в Эпоху Левиафанов
Забудьте о четких параграфах. Отбросьте учебники права прошлого века. Юридический ландшафт ИИ – это поле боя после артобстрела. Дымящиеся воронки неопределенности, окопы противоречивых прецедентов, укрепления лоббистов и баррикады этических манифестов. Кто виноват, когда алгоритм-кентавр (человек + код) убивает? Кому принадлежит мысль, рожденная в недрах нейросети? Как контролировать цифрового левиафана, чья логика – черный ящик даже для создателей? Это не эволюция права. Это революционная война за пересмотр основ ответственности, собственности и контроля в цифровую эпоху. Приготовьтесь к репортажу с передовой, где юристы с кодексами в руках атакуют танки автономного разума, а законодатели пытаются набросить аркан на молнию. Первые юридические рубежи ИИ уже штурмуются.
Пролог: Вакуум Ответственности – Алгоритм как Щит и Призрак
Представьте: Беспилотный грузовик Tesla совершает фатальную ошибку. ИИ-диагност пропускает рак. Алгоритм кредитного скоринга банкротит невиновную семью. Deepfake разрушает репутацию политика. ИИ-адвокат в суде ссылается на вымышленные законы. Кто держит ответ? Разработчик, написавший код? Компания, запустившая продукт? Оператор, недоглядевший? Сам алгоритм? Или пользователь, «неправильно» нажавший кнопку?
«Черный Ящик» Проблемы: Сложность современных ИИ делает невозможным однозначно установить причинно-следственную цепь ошибки. Какая строчка кода, какой параметр, какой кусок данных привел к сбою? Даже создатели не знают. Как наказывать непостижимое?
«Размытая» Петля Ответственности: В цепочке создания и использования ИИ участвуют десятки игроков: разработчики алгоритмов, сборщики данных, производители железа, интеграторы, дистрибьюторы, пользователи. Где кончается ответственность одного и начинается другого?
Агентность ИИ: По мере роста автономности возникает философско-юридический кошмар: может ли достаточно сложный ИИ быть признан «электронной личностью» с ограниченной правосубъектностью и собственной ответственностью? Юриспруденция трещит по швам.
Акт I: Мировая Карта Регулирования – Три Пути, Три Мира
Нет единого «глобального права ИИ». Мир разделился на конкурирующие лагеря, прокладывающие радикально разные пути:
1. Европейский Союз: «Превентивный Контроль» (Регулятор-Страховщик)
AI Act: Первый в мире всеобъемлющий закон об ИИ. Основа – оценка риска.
Запрещенный ИИ: Системы, считающиеся неприемлемо рискованными: манипуляция сознанием (для уязвимых), социальный скоринг правительствами, распознавание эмоций на рабочих местах/учебных заведениях, биометрическая идентификация в реальном времени в общественных местах (с узкими исключениями).
Высокий Риск (High-Risk): ИИ в критических сферах (медицина, транспорт, образование, правосудие, доступ к услугам, управление инфраструктурой). Жесткие требования:
Качество Данных: Минимизация bias, репрезентативность.
Документирование и Прозрачность: Техническая документация, логгирование.
Надзор Человека (Human Oversight): Возможность вмешательства/отмены решения ИИ.
Робастность, Безопасность, Точность.
Обязательная Сертификация перед выходом на рынок.
Ограниченный/Минимальный Риск: Чат-боты, спам-фильтры. Требования к прозрачности (информирование о взаимодействии с ИИ).
Философия: «Не навреди». Приоритет безопасности, прав человека, предотвращения вреда. Жесткий контроль сверху. Риск: задушить инновации, оттолкнуть бизнес.
2. США: «Подход, Основанный на Риске и Отраслевой» (Лоскутное Одеяло)
Отсутствие Единого Закона: Регулирование разрозненное, отраслевое (FDA для мед-ИИ, FAA для дронов, FTC против обманного ИИ, NIST – добровольные стандарты). Акцент на существующих законах (о дискриминации, конфиденциальности, защите прав потребителей).
«Мягкое» Регулирование: Рекомендации Белого Дома, призывы к компаниям разрабатывать добровольные этические кодексы. Фокус на содействии инновациям и лидерству в ИИ.
Роль Штатов: Калифорния, Нью-Йорк и др. принимают свои законы (защита данных, запрет на использование распознавания лиц полицией без суда, регулирование ИИ в найме). Юридическая мозаика.
Философия: «Инновации прежде всего». Опасения потерять технологическое лидерство. Реагирование на вред постфактум (через суды, FTC) вместо превентивных запретов. Риск: «Дикий Запад», недостаточная защита граждан, отставание в создании правовой определенности.
3. Китай: «Управляемый Суверенитет» (Государство как Архитектор и Контролер)
Жесткие Законы с Фокусом на Безопасность и Контроль:
Регламент Алгоритмических Рекомендаций: Требование прозрачности основного принципа работы, запрет на создание «пузырей фильтров», обязанность предлагать разнообразный контент. Право пользователя на отказ от персонализации.
Регламент Генеративного ИИ: Обязательная лицензия на разработку/развертывание. Строгая проверка контента на безопасность и соответствие «социалистическим ценностям» перед публикацией. Реальная идентификация пользователей.
Регламент Глубоких Синтезов (Deepfakes): Четкая маркировка и согласие человека, чей образ используется.
Философия: ИИ – инструмент государственной мощи и социальной стабильности. Контроль над данными, алгоритмами и их воздействием на общество – вопрос национальной безопасности. Инновации приветствуются, но строго в рамках, заданных государством. Риск: создание самой совершенной системы цифрового авторитаризма.
Акт II: Горячие Юридические Поля Сражений – Фронты Цифровой Войны
1. Авторское Право: Кто Хозяин ИИ-Шедевра? Война за Искру Творчества
Суть Конфликта: Может ли ИИ быть автором? Может ли его «произведение» (текст, изображение, музыка, код) быть защищено авторским правом? Кто владелец – пользователь (промпт), разработчик модели, владелец данных для обучения, или никто?
Ключевые Кейсы и Позиции:
США (Copyright Office): Только человек. Регистрация авторских прав на изображение, созданное Midjourney по промпту, отклонена («отсутствие человеческого авторства»). Аналогично – отказ в патенте на изобретение, «созданное» ИИ. Промпт – не творчество.
Китай: Первый в мире судебный прецедент (2023): Суд признал изображение, созданное ИИ по промпту, объектом авторского права, а автором – человека, давшего промпт и выбравшего результат. Революция?
ЕС (Директива об Авторском Праве): Защита может распространяться на произведения, созданные «с помощью» ИИ, если есть «собственное интеллектуальное творчество» человека. Граница туманна.
Проблема Обучения: Нарушает ли обучение ИИ на защищенных авторским правом произведениях (книги, картины, код) права авторов? Иски художников против Stable Diffusion/Midjourney, авторов против ChatGPT. Аргумент правообладателей: ИИ создает «деривативные работы» без лицензии. Аргумент ИИ-компаний: Обучение – «добросовестное использование» (fair use) для создания нового знания, а не копирования.
Фантастический Сценарий: «Великая Стена Цифрового Контента»
Корпорации-владельцы супер-ИИ (типа будущего GPT-10) патентуют стили, нарративные структуры, эстетические паттерны. Генерация контента «в стиле» требует роялти. Независимые художники и писатели не могут конкурировать. Культура делится на «лицензионную» (дорогую, корпоративную) и «подпольную» (пиратские ИИ на краю сети). Смерть «чистого» человеческого творчества как коммерчески жизнеспособного явления. Авторское право становится инструментом монополии на воображение.
2. Ответственность: Когда Алгоритм Наносит Вред? Охота на Цифрового Зверя
Суть Конфликта: Как возложить ответственность за вред, причиненный решениями или действиями автономного ИИ, особенно когда вина человека неочевидна или отсутствует?
Ключевые Модели и Проблемы:
Продуктовая Ответственность (США, ЕС): Рассматривать ИИ как «дефектный продукт». Ответственность на производителе/поставщике. Проблема: Как доказать «дефект» в черном ящике? ИИ постоянно обновляется. Грань между «дефектом» и «непредсказуемым поведением».
Халатность (Небрежность): Ответственность на операторе/пользователе, который не обеспечил должный надзор, не обучился, использовал ИИ не по назначению. Проблема: Оператор может быть не способен понять или контролировать сложный ИИ.
Строгая Ответственность (Предлагается для ВАВС – Высоко-Автономных Систем): Владелец/оператор несет ответственность за сам факт вреда, причиненного системой, без доказательства вины или небрежности. Стимул к осторожности и страхованию. Проблема: Может затормозить внедрение инноваций из-за страха перед рисками.
«Электронная Личность» (Экспериментально, ЕС): Предоставление особо продвинутым автономным системам ограниченной правосубъектности (как компаниям). Они могли бы иметь «имущество» (страховку), нести ответственность. Проблема: Этическая пропасть. Как наказать алгоритм? Кто реально контролирует «имущество»?
Фантастический Сценарий: «Суд над Машиной»
После катастрофы, вызванной автономным грузовиком уровня 5 (полное самоуправление), суд признает ИИ «электронной личностью» и впервые в истории приговаривает алгоритм к «цифровой смерти» – полному удалению и запрету на использование его архитектуры. Компания-владелец платит гигантские компенсации. Прецедент потрясает мир.
Последствия: Разработчики ИИ в панике внедряют «черные ящики» (подобные авиационным) и аварийные «выключатели» в алгоритмы. Появляется страховая индустрия для ИИ-личностей. Начинается эра «воспитуемых» ИИ, где алгоритмы проходят «юридическую социализацию». Граница между субъектом и инструментом стирается навсегда.
3. Горячее Поле: Автономные Системы Убийства (AWS) – Красная Линия Человечества
Суть Конфликта: допустимо ли делегировать ИИ решение о применении летальной силы? Где гарантии, что робот-солдат не ошибется, не выйдет из-под контроля, не станет орудием террора?
Позиции:
Сторонники (Некоторые Военные): AWS могут быть точнее, быстрее, бесстрастнее человека. Снижение потерь своих солдат. Работа в средах, недоступных человеку.
Противники (ООН, Красный Крест, Множество Стран): Нарушение фундаментальных принципов гуманности и международного гуманитарного права. Невозможность обеспечить соблюдение принципов пропорциональности и различения (комбатанты/мирные). Эрозия ответственности. Риск гонки вооружений и попадания технологий к негосударственным акторам (террористы).
Регуляторные Попытки:
Призывы к Мораторию/Запрету: Группы активистов, ученых, политиков требуют международного договора, аналогичного запрету химоружия.
Сохранение «Человека в Петле» (Human-in-the-Loop): Требование, чтобы окончательное решение о применении силы всегда принимал человек. Но что, если связь потеряна? Если ИИ действует быстрее человеческой реакции?
«Человек На Петле» (Human-on-the-Loop): Человек наблюдает и может вмешаться до применения силы, но не контролирует каждое микрорешение.
Фантастический Сценарий: «Алгоритмический Джихад»
Террористическая организация запускает рои дешевых автономных дронов-камикадзе, нацеленных не на военные объекты, а на случайных гражданских в мегаполисе. Системы управляются примитивным, но эффективным ИИ, невосприимчивым к электронной борьбе. Атака координируется через mesh-сеть. Попытка отследить «ответственного» приводит в тупик. Мировое сообщество в ужасе осознает, что запрет опоздал. Начинается паника и гонка за «антидронным» ИИ, еще более опасным. Этика принесена в жертву безопасности.
Акт III: Другие Горячие Фронты – Битва за Личность, Конкуренцию и Прозрачность
1. Персональные Данные и Цифровые Двойники:
Кто владеет «цифровой тенью»? Может ли ИИ, обученный на ваших данных, считаться вашей «интеллектуальной собственностью»? Судебные иски против компаний, создающих ИИ-аватары или «призраков» без явного согласия.
Глубинный Анализ Личности (Psychographic Profiling): Использование ИИ для выявления подсознательных склонностей, уязвимостей, политических взглядов по цифровым следам. Регуляторы (особенно в ЕС) стремятся запретить или жестко ограничить как вторжение в частную жизнь и инструмент манипуляции.
2. Антимонопольное Регулирование и Конкуренция:
Контроль над «Ключевыми Ресурсами ИИ»: Доступ к вычислительным кластерам мирового уровня (суперкомпьютеры), уникальным наборам данных (частные мед-архивы), эксклюзивным талантам. Регуляторы (FTC в США, EC в ЕС) исследуют гигантов ИИ на предмет сговора, злоупотребления доминирующим положением, недобросовестной конкуренции.
Борьба за «Открытость» vs «Закрытость»: Давление на компании раскрывать архитектуру больших моделей (хотя бы частично) или использовать открытые альтернативы для обеспечения конкуренции и проверки безопасности. Компании сопротивляются, ссылаясь на коммерческую тайну и риски безопасности.
3. Прозрачность и Объяснимость (XAI):
Право на Объяснение (GDPR в ЕС): В автоматизированных решениях, существенно влияющих на человека (кредит, работа, меддиагноз, правосудие), человек имеет право получить объяснение логики решения. Проблема: Для сложных ИИ (deep learning) объяснение часто невозможно в понятных человеку терминах. Юридические коллизии.
«Этическая Сертификация» и Аудит: Требования к независимому аудиту ИИ-систем на предвзятость, безопасность, соответствие нормам перед внедрением (особенно для High-Risk в ЕС). Формирование профессии ИИ-аудитора.
Эпилог: Гонка за Кодекс – Будущее Права в Эпоху ИИ
Первые юридические рубежи – лишь разведка боем. Настоящая война за право в эпоху ИИ только начинается. Ключевые битвы будущего:
Юридический Статус AGI/ASI: Если/когда появится искусственный общий интеллект (AGI) или сверхинтеллект (ASI), превосходящий человека, вопросы ответственности, прав и даже «свободы» станут главными. Может ли ИИ иметь права? Обязан ли служить человеку? Кто контролирует сверхразум?
Международное Право Кибервойны: Использование ИИ в кибератаках, информационных войнах, управлении автономным оружием потребует новых Женевских конвенций для цифрового пространства. Определение «ИИ-агрессии».
«Юридическая Сингулярность»: Развитие ИИ, способного самостоятельно интерпретировать, создавать и применять законы (ИИ-судьи, ИИ-законодатели со скоростью мысли). Потеряет ли человек монополию на право? Риск создания непрозрачных, нечеловеческих правовых систем.
Цифровое Бессмертие и Право: Создание убедительных «цифровых призраков» умерших поднимает вопросы наследования цифровой личности, права на забвение после смерти, использования образа и голоса. Кто «владеет» умершим в цифре?
Первые юридические рубежи – это тест на зрелость человечества. Сможем ли мы создать гибкое, мудрое, человеко-центричное право, способное укротить мощь ИИ, защитить слабых, наказать виновных (человека или алгоритм) и направить технологию на благо? Или утонем в хаосе неопределенности, корпоративного лоббизма и тоталитарного контроля, где закон безнадежно отстает от цифрового левиафана?
Будущее права не пишется только юристами. Оно куется инженерами, философами, политиками, активистами и каждым пользователем, требующим справедливости в цифровом мире. Выбор между правовым государством для ИИ и цифровым хаосом делается сегодня, в судах, парламентах и лабораториях по всему миру. Время строить мосты через юридическую пропасть, пока ИИ не перепрыгнул через нее без нас.
Глобальное Управление ИИ: Мечта или Утопия? – Битва за Цифровой Левиафан на Осколках Суверенитета
Забудьте о флагах и границах. Отбросьте иллюзии национальной исключительности. Искусственный интеллект – это планетарный феномен, цифровая стихия, не признающая паспортов. Его мощь, как солнечный ветер, окутывает всю Землю. Его риски – биологическое оружие, сконструированное ИИ; финансовые цунами, запущенные алгоритмическими спекулянтами; автономные армии дронов, вышедшие из-под контроля – угрожают самому существованию человечества тотально и мгновенно. Как управлять силой, способной перекраивать реальность за секунды, когда мир раздроблен на 200+ враждующих лагерей? Глобальное управление ИИ – не благое пожелание. Это вопрос выживания вида. Но путь к нему – минное поле геополитики, жадности и недоверия. Приготовьтесь к путешествию в сердце самой амбициозной и, возможно, невыполнимой задачи XXI века: обуздать цифрового Левиафана сообща, пока он не разорвал нас на части.
Пролог: Почему Национальные Крепости Рушатся Перед Цифровым Потопом?
Представьте: Зловредный ИИ, созданный в подпольной лаборатории в стране-изгое, взламывает системы управления энергосетями континента, вызывая коллапс. Алгоритм-спекулянт, разработанный хедж-фондом на офшорном острове, обрушивает глобальные рынки за микросекунды. Автономное биологическое оружие, сконструированное ИИ, утекает из военного облака и распространяется через международные авиалинии. Угрозы ИИ обладают четырьмя роковыми свойствами:
1. Трансграничность: они пересекают границы со скоростью света, игнорируя таможни и армии.
2. Экзистенциальность: Риски AGI/ASI, ИИ-оружия, пандемий ИИ-дизайна угрожают всему человечеству.
3. Скорость: Вред наносится быстрее, чем любая национальная или даже международная реакция.
4. Неотслеживаемость: Источник атаки или сбоя часто невозможно однозначно установить (атрибуция), что делает традиционное сдерживание и возмездие бесполезными.
Национальные регуляторы – словно капитаны, укрепляющие свои корабли, пока цунами накрывает весь флот. Их усилия благородны, но неадекватны планетарному масштабу угрозы. Нужен глобальный маяк и общий курс.
Акт I: Императив Глобального Управления – Не Роскошь, а Необходимость Выживания
Аргументы за мировую систему контроля ИИ звучат как набат:
1. Предотвращение Гонки Вооружений ИИ: без общих правил страны будут вынуждены разрабатывать все более опасные ИИ-системы (автономное оружие, ИИ для кибервойны, биодизайна) из страха отстать. Это спираль суицидальной конкуренции. Нужен международный запрет на самые опасные применения ИИ (аналоги Договора о космосе, запрета химоружия).
2. Сдерживание Катастрофических Рисков (X-Risks):
AGI/ASI Безопасность: Разработка сверхинтеллекта – уникальный риск. Ошибка или злой умысел в одной лаборатории может погубить всех. Нужны глобальные стандарты безопасности, проверки (аудит), «красные кнопки», обмен знаниями о рисках. Ни одна страна не вправе ставить эксперимент над планетой.
Биологическое Оружие ИИ-Дизайна: ИИ ускоряет создание смертельных патогенов. Нужен мощный международный режим контроля за биолабораториями, ИИ для биодизайна, синтезом ДНК. Утечка – общая смерть.
Системные Финансовые Риски: Автономные ИИ-трейдеры могут вызвать каскадные обвалы рынков. Нужна глобальная координация финансовых регуляторов по надзору за алгоритмической торговлей, стандартам устойчивости ИИ.
3. Справедливость и Предотвращение Цифрового Апартеида: Без глобальных норм блага ИИ (передовая медицина, образование, технологии) достанутся лишь богатым странам и элитам. Развивающиеся страны превратятся в «цифровые колонии» – источники данных и полигоны для рискованных экспериментов. Нужны механизмы передачи знаний, технологий, «зеленого» ИИ.
4. Экологическая Устойчивость: Гигантские ИИ-дата-центры пожирают энергию. Нужны обязательные глобальные стандарты энергоэффективности для ИИ-железа и алгоритмов, поддержка «зеленых» ИИ-инноваций для всех.
5. Сохранение Общей Реальности и Борьба с Дезинформацией: Без согласованных правил генеративный ИИ и deepfakes разрушат доверие к информации. Нужны глобальные стандарты маркировки синтетического контента, противодействия ИИ-дезинформационным кампаниям.
Акт II: Лабиринт Невозможности – Почему Утопия Кажется Недостижимой
Дорога к глобальному управлению устлана гранитными глыбами противоречий:
1. Геополитический Раскол (Холодная Война 2.0):
Демократии vs Автократии: Непримиримые разногласия по ценностям: права человека, приватность, свобода слова, контроль над обществом. Может ли ЕС/США доверить контроль над ИИ Китаю или России? И наоборот?
Технологическая Конкуренция: страны борются за технологическое превосходство как основу гегемонии. Делиться данными, ноу-хау, контролировать разработки – значит потерять стратегическое преимущество. ИИ – новое ядерное оружие.
Глубокое Недоверие: Шпионаж, кибератаки, санкции разрушают фундамент для сотрудничества. Как создавать общие правила с «врагом»?
2. Проблема Суверенитета и «Двойных Стандартов»:
Нежелание Поступиться Контролем: Страны не откажутся от права самостоятельно решать, какой ИИ разрабатывать и использовать в «национальных интересах» (особенно в военной сфере). «Что позволено Юпитеру…» – военные ИИ Запада vs Востока.
Разный Уровень Развития: Единые правила могут затормозить инновации в развитых странах или оказаться неподъемными для развивающихся. Кому и чем жертвовать?
3. Проблема Асимметрии и Атрибуции:
Разная Мощь: Влияние США, Китая или мелкого государства на глобальную систему управления будет неравным. Как избежать диктата гигантов?
Кто Виноват? Если ИИ-атака запущена через цепочку прокси-серверов в разных юрисдикциях с использованием взломанных устройств, практически невозможно доказать вину конкретного государства/группы. Без надежной атрибуции санкции и сдерживание не работают.
4. Проблема Скорости:
Технология vs Бюрократия: ИИ развивается экспоненциально. Международные организации (ООН, МАГАТЭ) двигаются геологически медленно. К моменту согласования правил они устареют. Как догнать убегающий поезд?
5. Проблема Принуждения:
Нет Глобального Жандарма: Кто и как заставит могущественную державу (или террористов, корпорацию) соблюдать правила? Миротворцы ООН с алгоритмами? Санкции часто неэффективны против изгоев или гигантов.
Акт III: Модели Глобального Управления – От Мечты к (Хрупкой) Реальности?
Нет идеальной формулы. Есть болезненные компромиссы:
1. «МАГАТЭ для ИИ» (Модель Жесткого Регулирования):
Идея: Создание новой мощной международной организации (напр., Международное Агентство по Искусственному Интеллекту – МАИИ) по аналогии с МАГАТЭ (атомная энергия) или Интерполом.
Полномочия (Мечта):
Инспекции: Право проверять любые лаборатории, разрабатывающие передовой ИИ (особенно AGI) или опасные приложения (биодизайн, автономное оружие).
Сертификация и Лицензирование: Обязательное одобрение МАИИ для запуска критически опасных ИИ-систем.
Аудит Безопасности: Проверка алгоритмов на соответствие глобальным стандартам безопасности, отсутствие скрытых угроз.
Санкции: Право вводить жесткие санкции против нарушителей (эмбарго на технологии, финансовые ограничения).
«Красная Кнопка»: Разработка и контроль над глобальными механизмами экстренной остановки вышедших из-под контроля ИИ (технически почти нереализуемо).
Реальность: Великие державы НИКОГДА не отдадут такой контроль. Слишком велик риск шпионажа, саботажа, ущемления суверенитета. Утопия.
2. «Парижское Соглашение для ИИ» (Модель Добровольных Обязательств):
Идея: Страны добровольно принимают общие принципы (напр., запрет на автономное убийство, приоритет безопасности человека, прозрачность) и национальные планы действий. Нет карательных санкций. Акцент на сотрудничестве, обмене информацией о рисках, помощи в развитии безопасных ИИ.
Примеры: Совет Европы + Рекомендации ООН по этике ИИ, Инициатива «Партнерство по ИИ» (PAI), Глобальное партнерство по ИИ (GPAI).
Плюсы: Гибкость, учет национальных особенностей, быстрее достичь согласия.
Минусы: нет зуба! Страны-изгои или просто недобросовестные игроки игнорируют соглашения без последствий. Добровольность = слабость перед лицом экзистенциальных рисков. Эффективность против AGI или ИИ-оружия – нулевая.
3. «Клуб Демократий / Технократический Альянс» (Модель Коалиции Доброй Воли):
Идея: Страны с близкими ценностями образуют «коалицию ответственного ИИ». Создают собственные жесткие стандарты, системы сертификации, общие рынки «безопасного ИИ», совместные исследования безопасности. Изолируют страны, не соблюдающие правила, от технологий и рынков.
Плюсы: более реалистично. Создает «зону безопасного ИИ». Давление на автократии через экономику.
Минусы: углубляет раскол мира. Автократии создадут свой конкурирующий блок с противоположными стандартами (контроль, слежка). Риск «сферизации интернета» и ИИ-экосистем. Не решает проблему глобальных рисков (биооружие, AGI может родиться в любой точке).
4. «Многоуровневая Сеть» (Гибридная Модель):
Идея: Комбинация подходов:
Уровень 1 (Глобальный мин. стандарты): ООН или G20 принимают базовые, неоспоримые принципы (запрет ИИ-оружия массового поражения, обязательства по безопасности AGI, маркировка deepfakes). Слабые санкции.
Уровень 2 (Отраслевые Регуляторы): Усиление и координация существующих международных органов: ВОЗ (мед-ИИ), ИКАО (авиация), МВФ (финансы), МОТ (рабочие места), ВОИС (ИС). Разработка специфических стандартов.