
Полная версия:
Искусственный интеллект

Клуб 4CIO
Искусственный интеллект
Искусственный интеллект
Термины и определения
В английском языке термин Intelligence не имеет антропоморфной окраски, которую он имеет в традиционном русском переводе. Intelligence означает «умение рассуждать разумно», а вовсе не антропоморфный «интеллект»; для антропоморфного русскоязычного «интеллекта» имеется английский аналог “intellect”. Ложный налёт антропоморфности, или “антропоморфный эффект”, осложняет четкое понимание свойств и области применимости искусственного интеллекта. Имеется принципиальная разница между физическими параметрами искусственного интеллекта и мозга человека. Например, Azure AI потребляет порядка 10-12 МВт электроэнергии и занимает огромный машинный зал, в то время как мозг потребляет в среднем 20 Вт и занимает 1300 куб. см. пространства.
Приведем некоторые варианты определений термина Искусственный интеллект (ИИ; англ. Artificial Intelligence, AI). Определения разбиты на две группы – с антропоморфным эффектом и без. Определения без антропоморфного эффекта являются строгими. Определения с антропоморфным эффектом являются не строгими и в той или иной степени могут иметь манипулятивный характер.
Строгие определения
Искусственный интеллект – это процесс и результат процесса автоматизации построения алгоритмов и их отображения на архитектуру ЭВМ в виде программы.
Г.И. Марчук. Методы вычислительной математики
Искусственный интеллект – это аппроксимация функции отображения одного множества в другое. При этом функция отображения, первое и второе множества существуют до момента обучения алгоритма аппроксимации функции. Математическим обоснованием существования сходимости и устойчивости таких аппроксимаций для конечномерных множеств является теорема А.Н. Тихонова о неподвижных точках отображения на упорядоченных ограниченных множествах. Задача построения аппроксимации функции отображения бесконечного множества на конечное относится к категории некорректных задач, решение у которой либо отсутствует, либо множественно, либо неустойчиво.
А.И. Аветисян. Академик, Директор ИСП РАН
Не строгие определения
Искусственный интеллект – свойство интеллектуальных систем выполнять творческие функции, которые традиционно считаются прерогативой человека.
Википедия
Искусственный интеллект – это область компьютерных наук, которая занимается созданием интеллектуальных машин и программ, способных выполнять задачи, традиционно ассоциируемые с человеческим интеллектом, такие как распознавание образов, обработка естественного языка, принятие решений и обучение. ИИ включает в себя широкий спектр подходов, включая машинное обучение, нейронные сети, экспертные системы и многое другое. Цель ИИ – создание систем, которые могут адаптироваться к новым ситуациям, учиться на опыте и принимать решения без прямого вмешательства человека.
Большая языковая модель GigaChat
Термин «искусственный интеллект» представляет множество дисциплин в области программного обеспечения, логики, вычислений и философии, цель которых – создание компьютеров, способных выполнять функции, ранее свойственные только человеку. В качестве примера таких функций можно назвать восприятие значения, написанного или произнесенного, обучение, распознавание мимики и так далее. Направление развития искусственного интеллекта имеет долгую историю. Такие ранние технологические прорывы, как оптическое распознавание символов, теперь являются обыденным явлением.
HPE
Искусственный интеллект позволяет компьютерам обучаться на собственном опыте, адаптироваться к задаваемым параметрам и выполнять те задачи, которые раньше были под силу только человеку. В большинстве случаев реализации ИИ – от компьютерных шахматистов до беспилотных автомобилей – крайне важна возможность глубокого обучения и обработки естественного языка. Благодаря этим технологиям компьютеры можно «научить» выполнению определенных задач с помощью обработки большого объема данных и выявления в них закономерностей.
SAS
История ИИ
История искусственного интеллекта начинает отсчет с древних времен, когда философы размышляли, как можно искусственно механизировать человеческое мышление и управлять им с помощью разумных «нечеловеческих» машин. Мыслительные процессы, которые подогревали интерес к ИИ, зародились, когда классические философы, математики и логики рассмотрели возможность манипулирования символами (механически), что в конечном итоге привело к изобретению программируемого цифрового компьютера, компьютера Атанасова-Берри (ABC) в 1940-х годах. Это конкретное изобретение вдохновило ученых на продвижение идеи создания «электронного мозга» или существа с искусственным интеллектом.
Математик Алан Тьюринг среди прочего предложил тест, который измерял способность машины воспроизводить человеческие действия в степени, неотличимой от человеческого поведения. Позднее в том же десятилетии область исследований ИИ была основана во время летней конференции в Дартмутском колледже в середине 1950-х годов, где Джон Маккарти, ученый-компьютерщик и когнитивист, ввел термин «искусственный интеллект».
Начиная с середины XX века многие ученые, программисты, логики и теоретики способствовали укреплению современного понимания искусственного интеллекта в целом. С каждым новым десятилетием появлялись инновации и открытия, которые меняли фундаментальные знания людей в области искусственного интеллекта и того, как исторические достижения превратили ИИ из недостижимой фантазии в осязаемую реальность для нынешнего и будущих поколений.
1940-1960: Рождение ИИ на волне кибернетики
Период между 1940 и 1960 годами был отмечен сочетанием технологических достижений (ускорителем которых стала Вторая мировая война) и желанием понять, как объединить работу машин и органических существ. Для Норберта Винера, пионера в области кибернетики, целью было объединить математическую теорию, электронику и автоматизацию в «единую теорию управления и коммуникации, как в животных, так и в машинах». Незадолго до этого первая математическая и компьютерная модель биологического нейрона (формального нейрона) была разработана Уорреном Маккалоком и Уолтером Питтсом еще в 1943 году.
В начале 1950 года Джон фон Нейман и Алан Тьюринг еще не создали термин ИИ, но были отцами-основателями лежащей в его основе технологии: они перешли от компьютеров в десятичной логике XIX века (которая, таким образом, имела дело со значениями от 0 до 9) к машине с двоичной логикой (которая полагается на булеву алгебру, имея дело с цепочками из 0 или 1). Таким образом, два исследователя формализовали архитектуру наших современных компьютеров и продемонстрировали, что это – универсальная машина, способная выполнять то, что запрограммировано.
Тьюринг, с другой стороны, впервые поднял вопрос о возможном интеллекте машины в своей знаменитой статье 1950 года «Вычислительные машины и интеллект» и описал «игру в имитацию», где человек должен иметь возможность различать в диалоге телетайпа, разговаривает ли он с человеком или с машиной. Какой бы противоречивой ни была эта статья («тест Тьюринга»), ее часто будут цитировать как источник вопросов о границе между человеком и машиной.
Термин «ИИ» можно отнести к Джону Маккарти из Массачусетского технологического института, который Марвин Мински (Университет Карнеги-Меллона) определяет как создание компьютерных программ, способных выполнять задачи, которые в настоящее время более удовлетворительно выполняются людьми, потому что требуют умственных процессов высокого уровня, таких как перцептивное обучение, организация памяти и критическое мышление.
Статья 1963 года Рида К. Лолора, члена Калифорнийской коллегии адвокатов «Что могут делать компьютеры: анализ и прогнозирование судебных решений» отмечает, что популярность технологий ИИ снизилась. Герберт Саймон, экономист и социолог, в 1957 году предсказал, что ИИ сумеет победить человека в шахматах в следующие 10 лет, но затем ИИ вступил в первую «зиму». Видение Саймона подтвердилось… 30 лет спустя.
В 1968 году В. Н. Вапником и А. Я. Червоненкисом, сотрудниками Института проблем управления им. Трапезникова, было опубликовано доказательство фундаментального результата – условий равномерной сходимости частот к вероятностям по классу событий. Аналогичные условия были получены для равномерной сходимости средних к математическим ожиданиям по семейству случайных величин. В настоящее время эти результаты широко известны во всём мире, а понятие размерности Вапника-Червоненкиса (VC-dimension) прочно вошло в международный научный лексикон.
1970-1980: Повышение интереса к ИИ
В 1968 году Стэнли Кубрик снял фильм «Космическая одиссея 2001 года», в котором компьютер HAL 9000 суммирует в себе всё многообразие этических вопросов, поставленных ИИ: будет ли он представлять собой высокий уровень сложности, благо для человечества, или опасность? Воздействие фильма, естественно, не было научным, но оно способствовало популяризации темы ИИ, так же, как и влияние писателя-фантаст Филип К. Дик, который никогда не переставал задаваться вопросом: испытают ли однажды машины эмоции.
Именно с появлением первых микропроцессоров в конце 1970 года тема ИИ снова «взлетела». Наступил золотой век экспертных систем. Новый путь движения вперед был фактически открыт в 1965 году в Массачусетском технологическом институте с помощью системы DENDRAL (экспертная система, специализирующаяся на молекулярной химии) и в 1972 году в Стэнфордском университете на основе системы MYCIN (система, специализирующаяся на диагностике болезней крови и лекарствах, отпускаемых по рецепту). Эти системы были основаны на «машине вывода», которая была запрограммирована как «логическое зеркало» человеческого рассуждения. Вводя данные, «движок» внутри системы давал ответы высокого уровня экспертности и знаний. В конце 1980-х – начале 1990-х годов повальное увлечение ИИ снова прекратилось.
На практике программирование таких знаний потребовало больших усилий, и при программировании большого числа правил (200, 300 и более) возникал эффект «черного ящика»: было непонятно, как именно рассуждала машина. Таким образом, разработка таких алгоритмов, их сопровождение и доработка, эксплуатация экспертных систем, стали чрезвычайно проблематичными. Кроме того, решаемые ими задачи также решались многими другими менее сложными и менее дорогими способами, что было очень важно с точки зрения практической применимости. Как следствие, в 1990-е годы термин «искусственный интеллект» стал почти «табу», и в университетский язык даже вошли более скромные его вариации, такие как «продвинутые вычисления».
В 1971 г. В. Н. Вапник и А. Я. Червоненкис обосновали сходимость методов обучения, основанных на минимизации эмпирического риска, что дает возможность получить оценку скорости сходимости алгоритмов машинного обучения. В частности, к таким алгоритмам относятся методы построения кусочно-линейных решающих правил, минимизирующих число ошибок на материале обучения. Поскольку одним из формальных средств, реализующих такие кусочно-линейные правила, являются нейронные сети, то эта теория использовалась во всём мире для анализа работы нейронных сетей. Разработанные В. Н. Вапником и А. Я. Червоненкисом методы решения этой задачи получили название методов структурной минимизации риска. В настоящее время они широко применяются в задачах распознавания образов, восстановления регрессионных зависимостей и при решении обратных задач физики, статистики и других научных дисциплин.
В 1974 году А. И. Галушкиным и одновременно и независимо от него Полом Дж. Вербосом был впервые описан метод обратного распространения ошибки (англ. backpropagation), ставшим одним из ключевых инструментов машинного обучения. Это – итеративный градиентный алгоритм, который используется при обновлении весов многослойного перцептрона с целью минимизации ошибки и получения желаемого выхода (результата расчета). Однако существенное развитие этот метод получил лишь в 1986 году благодаря совместным усилиям Дэвида И. Румельхарта, Дж. Е. Хинтона и Рональда Дж. Вильямса, а также независимо и одновременно С.И. Барцевым и В.А. Охониным (Красноярская научная группа).
1990-2000: Время кропотливой работы
В 1990-х годах был достигнут значительный прогресс в области ИИ и машинного обучения. Важным достижением стало дальнейшее развитие алгоритмов обратного распространения ошибки, которые позволили эффективно обучать многослойные нейронные сети. Это значительно улучшило их возможности в распознавании образов и обработке естественного языка.
Были разработаны: алгоритм опорных векторов (SVM), глубокие нейронные сети (DNN), сверточные нейронные сети (CNN) и рекуррентные нейронные сети (RNN). Эти методы позволили значительно улучшить способности ИИ в распознавании образов, обработке естественного языка и принятии решений на основе больших объемов данных. CNN стали основой для современных систем компьютерного зрения, позволяя эффективно распознавать и классифицировать изображения. RNN, в свою очередь, позволили обрабатывать последовательные данные, такие как текст или речь. Это позволило значительно улучшить возможности компьютерного зрения и расширить его применение в различных областях, таких как медицина, транспорт, безопасность и промышленность.
Были разработаны методы обучения без учителя, которые позволили машинам обучаться на основе данных без явного предоставления правильных ответов. Это открыло новые возможности для анализа больших объемов данных, где разметка данных может быть сложной или невозможной задачей.
Робототехника стала более доступной и распространенной, что привело к созданию более совершенных и автономных роботов. Это стало возможным благодаря развитию алгоритмов управления, датчиков и исполнительных механизмов. Автономные роботы начали использоваться в различных областях, таких как производство, логистика, сельское хозяйство и обслуживание.
Продолжалось развитие экспертных систем, которые стали более сложными и способными решать более сложные задачи. Экспертные системы используют знания экспертов для решения проблем в определённой области. Развитие экспертных систем позволило автоматизировать процесс принятия решений в различных областях, таких как медицина, юриспруденция, финансы и производство.
Интернет получил в исследовательской среде более широкое распространение, что позволило исследователям и разработчикам обмениваться идеями и данными. Это способствовало быстрому прогрессу в области ИИ и машинного обучения. В 1997 году произошло значимое событие: шахматный движок Deep Blue, разработанный IBM, одержал победу над чемпионом мира по шахматам Гарри Каспаровым. Это событие привлекло внимание общественности к растущим способностям ИИ.
2000-2010: Эпоха социальных сетей
В период с 2000 по 2010 годы в области ИИ отмечается новый расцвет, основанный на концепции BIG DATA («больших данных»), базирующейся на резком росте вычислительных мощностей, необходимых для вычислений, а также значительных научных достижениях. Перечислим наиболее значимые из них:
Появление новых алгоритмов машинного обучения. В 2000-х годах были разработаны и усовершенствованы такие алгоритмы, как градиентный спуск, стохастический градиентный спуск и алгоритмы оптимизации.
В это десятилетие активно развивается глубокое обучение, его практическое применение становится более распространенным. Это привело к значительному прогрессу в области распознавания образов, обработки естественного языка и других областях.
Значительно усовершенствованы сверточные нейронные сети (CNN), которые стали основой для многих современных систем компьютерного зрения. Кроме того, были значительно усовершенствованы рекуррентные нейронные сети (RNN), которые позволили эффективно обрабатывать данные, поступающие на обработку в виде последовательности, например текст и речь.
Началось активное исследование и разработка генеративных моделей, таких как генеративно-состязательные сети (GANs), которые позволяют создавать новые изображения, звуки и тексты, имитирующие реальные данные.
Произошел значительный прогресс в области обработки естественного языка (NLP), включая разработку алгоритмов машинного перевода, чат-ботов и систем распознавания речи.
Активно развивалась робототехника, были созданы более сложные и автономные роботы, способные выполнять различные задачи в различных средах.
Продолжили развиваться экспертные системы, их применение стало более широким, включая использование в медицине, юриспруденции и других областях.
Облачные вычисления стали более доступными и распространенными, что позволило исследователям и разработчикам использовать большие объемы вычислительных ресурсов для обучения и тестирования ИИ-моделей.
Было создано множество открытых источников данных и библиотек алгоритмов, что облегчило доступ к данным и инструментам для исследователей и разработчиков.
2010-2020: Эпоха больших данных и бум ИИ
В период с 2010 по 2020 год в области ИИ произошли значительные события, которые оказали существенное влияние на развитие ИИ, приведшие в результате к новому буму ИИ.
Отметим ключевые события этого периода:
Глубокое обучение стало доминирующим подходом в машинном обучении, что привело к значительному прогрессу в распознавании образов, обработке естественного языка и других областях.
В 2012 году Google X (поисковая лаборатория Google) научила ИИ распознавать изображения кошек на видео. Для решения этой задачи было использовано более 16000 процессоров.
В 2016 году AlphaGo победила чемпиона Европы (Фан Хуэй) и чемпиона мира (Ли Седоль) в игре Го.
Появление трансформеров. Архитектура трансформеров, представленная в 2017 году, привнесла революционные изменения в область обработки естественного языка и генерации текста, что стало прообразом современных языковых моделей, таких как BERT и GPT.
Активное развитие получило мультимодальное обучение, позволяющее объединять информацию из разных модальностей, таких как текст, изображения и видео, для улучшения качества обучения моделей.
Доступ к огромным объемам данных. Например, чтобы иметь возможность использовать алгоритмы классификации изображений и распознавания кошек, ранее требовалось проводить долгий ручной отбор образцов самостоятельно. Сегодня простой поиск в Google в доли секунды может выдать миллионы результатов, которые можно и пользовать как обучающую выборку.
Активное развитие графических процессоров (GPU) для ускорения расчета алгоритмов обучения. Этот процесс итеративен, и до 2010 года обработка всей выборки могла занимать несколько недель. Вычислительная мощность видеокарт (способная выполнять более тысячи миллиардов транзакций в секунду) позволила добиться значительного прогресса при ограниченных финансовых затратах (менее 1000 евро на одну видеокарту).
2020-е: Эпоха генеративного ИИ
Генеративный ИИ (GenAI) – это популярная в 2020-х годах область исследований, которая занимается автоматизированным созданием нового контента, такого как тексты, изображения, видео и аудио, на основе открытых данных и запросов пользователей. Эта технология позволяет автоматизировать задачи по созданию контента на основе компиляции и смешения определенных пользователем аспектов накопленных знаний, и создавать реалистичные изображения, музыкальные композиции и, в отдельных случаях, научные открытия.
Развитие генеративного ИИ началось в конце 1990-х годов, активизировалось в 2010-х годах, но 2020-е годы стали настоящим прорывом. Это произошло в связи с развитием генеративно-состязательных сетей (GAN – Generative Adversarial Network) и появлением больших языковых моделей, таких как ChatGPT, в 2023 году. Эти модели позволяют генерировать тексты такого высокого качества, что часто его довольно сложно отличить от текста, написанного журналистом.
Одним из ключевых людей, стоящих за развитием генеративного ИИ, был Ян Гудфеллоу, канадский исследователь, известный своими работами в области глубокого обучения и генеративных моделей. Ян Гудфеллоу работал в различных организациях и компаниях, включая Google Brain, OpenAI и Microsoft Research. Он внёс значительный вклад в развитие генеративного ИИ, особенно в области генеративных состязательных сетей (GANs) и трансформеров.
Основные свойства генеративного ИИ:
Генерация. Это способность создавать новые данные, такие как изображения, текст или аудио, на основе смешения отдельных аспектов в существующих данных.
Анализ. Это способность анализировать и интерпретировать большие объёмы данных, находить закономерности и делать выводы.
Обучение. Это способность обучаться на основе малого количества примеров, улучшать свои результаты и адаптироваться к новым условиям.
Автоматизация. Это способность автоматизировать рутинные задачи, такие как обработка данных, суммаризация текстов и др.
Удобство получения информации. Это способность отвечать на текстовые вопросы пользователя по всему корпусу накопленных в процессе обучения ИИ знаний.
Основные сценарии использования генеративного ИИ на текущий момент:
Создание контента. Это генерация изображений, видео, музыки и текстов для маркетинга, развлечений и искусства.
Распознавание образов. Это анализ и классификация изображений, видео и аудио для медицинской диагностики, безопасности и распознавания лиц.
Машинный перевод. Это перевод текстов на разные языки с высокой точностью и качеством перевода.
Персонализация. Это адаптация продуктов и услуг под индивидуальные потребности и предпочтения пользователей – конкретных физических лиц.
Негативной стороной достигнутого прогресса в области создания реалистичного, но при этом искусственно сгенерированного контента стали так называемые «deep fake». Слово Deepfake – комбинация термина Deep learning (глубокое обучение) и слова Fake (фейк). Как следует из комбинации, дипфейки создаются с использованием технологии ИИ на основе методов машинного обучения. Выделяют три основных категории дипфейков: видео и изображения, голос, тексты. Обычный неподготовленный человек с высокой степенью вероятности не сможет отличить их от оригиналов. Это явилось серьезным вызовом для новой дисциплины – киберкриминалистики.
Хотя, по сути, дипфейки являются «фальшивкой» (часто в литературе используется более мягкий термин – синтетические медиа или синтетический контент), последствия от их применения и их влияние на общество, граждан и бизнес могут быть вполне реальными. Необходимо понимать, что далеко не все авторы дипфейков используют их со злым умыслом. Но в случае такого умысла они должны сталкиваться с неотвратимыми юридическими последствиями.
Эпоха генеративного ИИ открывает широкие возможности для творчества, исследований, образования и бизнеса. Однако, эта технология также вызывает опасения общественности относительно этических аспектов и возможного негативного воздействия не только на рынок труда, но и на вектор развития человечества.
Нейросети внедряются во всех отраслях экономики беспрецедентными темпами, Различных отраслевых приложений на базе нейросетей насчитывается уже десятки тысяч.
В области медицины и биологии GenAI может ускорить разработку лекарств, проверяя и создавая молекулы для новых лекарственных форм, а также реализовать концепции персонализированного медицинского обслуживания. В области создания контента GenAI может автоматизировать задачи, сэкономить время и деньги, а также создавать индивидуальные маркетинговые материалы. GenAI можно использовать для разработки чат-ботов для обслуживания клиентов, извлечения знаний из баз данных для сотрудников. Для промышленности на основе GenAI ведется разработка дизайна продуктов, проектирование изделий, создание цифровых двойников.
В сфере транспорта GenAI играет решающую роль при реализации технологий автономного и беспилотного вождения, а также создания интеллектуальных транспортных систем. На основе GenAI строятся поисковые системы, системы рекомендаций, таргетированная реклама, виртуальные помощники, автоматический перевод с одного языка на другой, системы распознавания лиц и многое другое.
Благодаря моделям на основе ИИ начинает быстрее развиваться наука. В 2023-2024 гг. были разработаны сотни приложений, например Synbot – модель в сфере химии для автоматического синтеза органических молекул, модель AlphaDev, которая делает алгоритмическую сортировку более эффективной, модель GNoME (Graph Networks for Materials Exploration) от Google DeepMind позволяет проводить моделирование свойств материалов, например искать стабильные формы кристаллических соединений для отрасли микроэлектроники и провела анализ более 2.2 млн новых кристаллов.



