Читать книгу Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу (Нума Дхамани) онлайн бесплатно на Bookz
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу
Оценить:

4

Полная версия:

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу

Нума Дхамани, Мэгги Энглер

Генеративный искусственный интеллект

Как ИИ меняет нашу жизнь и работу

Нума посвящает эту книгу своим родителям Назарали и Надье, а также своему брату Нихалю

Мэгги посвящает эту книгу своему мужу Джо

Numa Dhamani, Maggie Engler

INTRODUCTION TO GENERATIVE AI

© Eksmo Publishing House 2025. Authorized translation of the English edition

© 2024 Manning Publications. This translation is published and sold by permission of Manning Publications, the owner of all rights to publish and sell the same.

© Жевлакова Е. В., перевод на руский язык, 2025

© Оформление. ООО «Издательство «Эксмо», 2026

Предисловие

Вы замечали, что все вокруг твердят, насколько хорош теперь ИИ? Люди бросаются модными терминами вроде «генеративный искусственный интеллект», «большая языковая модель» (LLM), «диалоговый агент» и тому подобное. Почему так происходит? Откуда это все взялось? Из-за чего так много определений? Разве они все не обозначают одно и то же? О чем-таки же все говорят? Что ж, у меня есть книга, которая нужна вам сейчас.

Как Нума, так и Мэгги имеют опыт работы в области моральных принципов. Они входят в состав «Института этики», аналитической группы и профессионального объединения специалистов, которые занимаются тем, что стараются понять, как и почему в интернете случаются нехорошие вещи, а также разрабатывают средства смягчения их последствий и ищут способы создать более здоровую среду онлайн. На протяжении своих карьер Нума и Мэгги разбирались во взаимодействиях в сети (сначала между людьми, а теперь между людьми и роботами) и фундаментальных законах того, что творится внутри этих невообразимо сложных систем, набитых личностями, пытающимися их сломать. Как оказалось, манера мышления авторов весьма хорошо подходит и для изучения того, как человечество будет использовать технологию генеративного ИИ, а также злоупотреблять ею. Через посредство «Института этики» Нума и Мэгги помогали нам просвещать и народные массы, и власть имущих о том, как функционирует интернет. Они входят в состав растущего движения технарей, которые разъясняют обществу, что же на самом деле происходит в мире, где все социальное общение ведется онлайн. Важность их занятия возрастает по мере того, как люди проводят все больше времени в сети.

Появление данной книги меня воодушевляет. Я верю, что она станет частью новой волны произведений и исследований (предварительно назовем все это «наукой об этичности»), авторы которых работали в соцсетях, стремясь разобраться в информационных экосистемах, образуемых нашим поведением и отношениями между нами в интернете. Подобный метод мышления применим не только к социальным медиа и приложениям для знакомств или игр: с его помощью можно самыми разными способами уяснять суть и людей, и сведений. Чтобы читать эту книгу, вам не нужно ни быть фанатом статистики, ни выдавать себя за него, ни становиться им. Точно так же вам не придется смотреть на ИИ как на ящик, в котором сидит непостижимый волшебный робот. Нума и Мэгги устраивают для нас экскурсию по системам генеративного искусственного интеллекта, обеспечивая возможность рассуждать о них и принимать взвешенные решения, касающиеся их. Отталкиваясь от такой стартовой колодки, авторы ведут нас в дальнее странствие, где, опираясь на понимание этого новомодного ИИ и свои знания, доставшиеся тяжким трудом в окопах борьбы за этичность, распутывают вопрос о том, как генеративный ИИ повлияет на общество. Мы узнаем, как изменятся экономика и сами наши разговоры, а также факторы, побуждающие нас к плохому поведению и распространению дезинформации.

Книга Нумы и Мэгги вышла в самый подходящий момент. Нам не обойтись без подобного руководства, в котором сложные концепции объясняются доступным языком. И хотя я уверен, что не все предсказания авторов сбудутся с точностью до буквы, вы, несомненно, не только погрузитесь в источник по-настоящему ценной информации о том, как в наше время действует генеративный ИИ, но и ознакомитесь с образом мыслей, отточенным за годы упорной работы на поприще сетевой этики. Прочтите эту книгу.

Шахар Массачи,

один из основателей и генеральный директор «Института этики»

Вступление

По иронии судьбы, нас двоих свели безумные теории заговоров из интернета: мы встретились, когда проектировали системы обработки естественного языка, призванные оценивать и анализировать наполнение экстремистских ресурсов в сети. Когда в общественное сознание по всему миру вошли такие концепции, как LLM и другие модели генеративного ИИ, мы осознали, что наша область деятельности необратимо преобразится. Еще никогда люди не могли так дешево создавать и распространять информационные материалы, и в то же время еще никогда не возникало столь острой необходимости в классификации этих материалов в огромных масштабах.

В ходе работы над книгой мы получили весьма запоминающийся отзыв такого содержания: «Авторам следует прояснить свою позицию в отношении генеративного ИИ. Они за него или против?» Читатель, мы, к сожалению, не в силах втиснуть наши соображения по данному поводу в одно слово. Вместо этого мы постарались отразить на следующих страницах все тонкости возможных последствий развития и применения генеративного ИИ. Чтобы решить эту задачу, мы сначала постепенно разъясняем вам, каким способом и на каких данных обучаются LLM, а также рассматриваем алгоритмы, вносящие вклад в их конечный продукт – текст, практически неотличимый от тех, что пишут люди.

Выдаваемые ими материалы (а равно те, что создаются генеративными моделями иных типов) имеют целый ряд применений, как благотворных, так и вредоносных. Ни одна из предыдущих систем не обладала подобными возможностями, однако за великолепными результатами генеративного ИИ на бенчмарках вроде прохождения типовых тестов порой скрываются их вопиющие недостатки, в том числе предвзятость, галлюцинации и формирование небезопасного контента. Помимо того, из-за их продукции встают серьезные вопросы о законных правах на контент, моральных принципах взаимодействия людей с ИИ, экономических параметрах работы при поддержке ИИ и очень многом другом.

Хотя мы попытались очертить наши позиции в данной книге, ссылаясь на научные статьи и примеры практического использования, у нас нет ни малейших иллюзий по поводу решения упомянутых проблем. Остается еще немало вопросов, и для ответа на них нужно запустить цикличный процесс, в который будут вовлечены все слои общества. Соответственно, мы надеемся, что эта книга побудит новичков, увлеченных персон и опытных профессионалов принять участие в публичном обсуждении темы генеративного ИИ. На этом поприще до сих пор звучит слишком мало голосов, что оборачивается дискуссиями в узком кругу, на которых не принимают в расчет точки зрения обособленных групп (маргиналов), наемных рабочих, творческих личностей и деятелей культуры, а также бессчетного множества других социальных категорий, на которые влияет искусственный интеллект. Просвещенный народ – наше главное орудие для постройки желаемого будущего в аспекте генеративного ИИ. Мы рассчитываем, что вы присоединитесь к нашим усилиям по созданию мира, где ИИ помогает людям, а не заменяет их, и ключевой ценностью остаются человеческие ощущения и переживания.

Благодарности

Мы хотели бы выразить сердечную признательность Шахару Массачи, чье обстоятельное предисловие заставляет задуматься и задает тон всей книге. Нас вдохновляют ваша увлеченность и приверженность работе в области этики, а этот проект стал еще более содержательным благодаря вашему вкладу.

Кроме того, данная книга не увидела бы свет, если бы не помощь и поддержка множества наших отзывчивых друзей и коллег. Не расставляя их в каком-то определенном порядке, мы благодарим Дэвида Салливана, Эрин Маколиф, Наталью Битюкову, доктора Дэниела Роджерса, Эдгара Маркевичюса, Сэма Планка, Дерека Слейтера, доктора Стива Крамера, Райана Уильямса, Брайана Джонса, доктора Фаиза Дживани, Рида Кока, Уитни Нельсон, Рахима Макани, Элис Хансбергер, Карана Лалу, Ребекку Руппель, Майкла Уортона, доктора Атиша Агарвалу, Рона Грина, доктора Кеннета Р. Флейшмана и Стивена Штрауса. Все эти люди предоставили нам ценные отзывы и разнообразные точки зрения, которые существенно повлияли на идеи, изложенные в тексте.

Далее нам хотелось бы выразить признательность сотрудникам Manning, трудившимся над книгой. Мы особенно благодарны редактору-консультанту по аудитории Ребекке Джонсон, которая направляла нас от начала до конца, высказывала замечания и пожелания, а также координировала все движущиеся части издательского механизма, и редактору по контрактам Энди Уолдрону – за то, что он изначально поверил в наш проект. Кроме того, мы отмечаем усилия научного редактора Мариса Секара и всех рецензентов, читавших черновой текст на разных стадиях и дававших подробные отзывы: Алена Куньо, Альберта Лардисабаля, Амита Башнака, Арслана Габдулхакова, Бенедикта Стеммлера, Бруно Сонниньо, Чау Гиана, Дэна Шейха, Эли Хини, Ганеша Сваминатана, Джеффа Рекиту, Джереми Чена, Джона Маккормака, Джона Уильямса, Кита Кима, Лоренса Джильо, Мартина Цыгана, Мэри-Энн Тайгесен, Максима Волгина, Наджиба Арифа, Ондржея Крайчека, Павла Силистеану, Равшана Джа, Ричарда Мейнсена, Ритобрата Гхош, Руи Лью, Сивы Ди, Шрирама Махарле, Штефана Туральски, Сумита Пала, Тони Холдройда, Видье Виная, Уолтера Александра Мате Лопеса, Вэй Ло и Юрия Клеймана. После ваших дополнений книга стала настолько полезной для читателей, насколько вообще возможно.

Наконец, мы хотим поблагодарить вас, наш читатель. Спасибо, что взяли нашу книгу с полки или приобрели ее в сети. Спасибо, что решили почитать о разнообразных последствиях внедрения технологии генеративного ИИ и поразмыслить, как соразмерять инновации с ответственностью. Спасибо, что участвуете в публичном обсуждении генеративного ИИ и побуждаете других поступать так же. Спасибо, что доносите до своих коллег и друзей идеи или уроки, извлеченные из нашего текста и иных источников. Спасибо, что помогаете нам построить общество, которое знает о генеративном искусственном интеллекте и осмотрительно относится к нему.

Об этой книге

Когда ChatGPT стал доступным 30 ноября 2022 года, он не только поразил воображение миллионов пользователей, но и побудил многоопытных экспертов по технологиям указать на недостатки этого диалогового агента и призвать к осторожности. В данной книге мы рассматриваем генеративный искусственный интеллект высокого уровня, уделяя особое внимание большим языковым моделям (LLM). Мы обсуждаем прорыв в области генеративных моделей, то, как они работают, а также риски, связанные с этой технологией. Кроме того, мы углубленно изучаем более обширные последствия данной инновации в этическом, социальном и легальном аспектах. Наконец, мы рекомендуем наилучшие методики добросовестного обучения и применения LLM, основанные на нашем совместном опыте создания надежных технологий, средств защиты данных и частной жизни. На страницах книги мы ищем тонкий многофакторный баланс между использованием колоссального потенциала генеративного ИИ и необходимостью в наличии ответственных систем искусственного интеллекта [1].

Кому следует прочесть эту книгу

Наш текст предназначен для всех, кто интересуется технологией генеративного ИИ и желает выяснить, как стать добросовестным участником процесса нововведений в данной области. Хотя наличие базовых знаний о машинном обучении и обработке естественного языка поможет вам, для чтения оно не требуется. В книге нет ни кода, ни математики – она задумывалась как доступный источник сведений для тех, кто хочет разобраться в рисках и возможностях, связанных с LLM, а также в особенностях социальной, экономической и легальной сфер, в рамках которых действуют такие модели. Мы не углубляемся в вопросы разработки и применения LLM, тем более что в издательстве Manning вышло несколько более «технических» работ на данную тему, и вы можете обратиться к ним.

Мы надеемся, что из нашей книги будут черпать сведения не только профессионалы в области машинного обучения, но и рядовые читатели. Каждый из нас способен сыграть ту или иную роль в деле снижения рисков, исходящих от генеративных моделей, одновременно наслаждаясь плодами технологического прогресса и получая от него выгоду.

Как структурирована эта книга (общая схема)

На последующих страницах мы часто приводим термины «диалоговый агент», «чат-бот», «виртуальный собеседник» или «диалоговая система» как взаимозаменяемые понятия, которыми обозначается некая система ИИ, основанная на той или иной большой языковой модели (если не указано иного) и обученная вести беседы с пользователями.

Вот краткое описание того, что ждет вас в каждой из глав:

В главе 1 даются вводные сведения о больших языковых моделях. Мы приводим общую информацию о том, как LLM заняли столь преобладающее положение среди моделей обработки естественного языка, об их применении и пределах их возможностей. Также в ней кратко рассматриваются примечательные диалоговые LLM, выпущенные в конце 2022 – начале 2023 годов.

В главе 2 мы углубленно разбираем способы обучения LLM. Здесь обсуждается, каким образом факторы, неразрывно связанные с тренировкой больших языковых моделей, наделяют их как уникальными способностями, так и потенциальными уязвимостями.

Глава 3 посвящена средствам борьбы с изъянами систем, которые возникают из-за обучающих данных. Здесь приводятся стратегии противодействия генерации небезопасного контента, а также затрагиваются соображения о конфиденциальности данных и соответствующие нормативные требования.

В главе 4 разбираются методы создания синтетических медиа и проистекающие отсюда риски и возможности. Кроме того, здесь дополнительно обрисовываются правовые нормы, относящиеся к интеллектуальной собственности и нарушениям авторских прав.

Из главы 5 вы узнаете о нескольких типах ненадлежащего применения LLM, как злонамеренного, так и неумышленного. Также здесь даются рекомендации о том, как препятствовать подобным действиям, сочетая технические системы и обучение пользователей.

В главе 6 освещается применение LLM в личных, профессиональных и образовательных целях. Помимо того, здесь рассматриваются методы выявления машинно-сгенерированных материалов и осмысляется, какие перемены данная технология может привнести в экономику и педагогику.

В главе 7 вы найдете примеры того, как LLM задействуют в качестве социальных чат-ботов, чья основная задача состоит в налаживании дружеских связей с пользователями. Здесь обсуждаются возможные риски для межчеловеческих взаимоотношений и предоставляются советы для людей, общающихся с виртуальными собеседниками.

Глава 8 посвящена разбору описанных ранее опасностей и возможностей, которые несут в себе большие языковые модели. Также здесь перебрасываются мостики между различными концепциями, определяются области дальнейшего развития LLM, анализируются нормы законов, касающихся ИИ, и предлагаются маршруты в лучшее, более равноправное будущее.

Глава 9 служит чем-то вроде приложения – в ней основной текст дополняется ценными материалами на смежные темы. Здесь затрагиваются общий искусственный интеллект (artificial general intelligence, AGI), потенциальная способность ИИ чувствовать, сообщество разработчиков открытого ПО и влияние LLM на окружающую среду.

Данную книгу надлежит читать по порядку, так как последующие главы опираются на идеи, рассмотренные в предыдущих. Тематически она завершается в главе 8, тогда как в главе 9 обсуждаются вопросы, которые прилегают к концепциям, ранее изложенным в тексте.

Дискуссионный форум liveBook

Приобретая это издание, вы получаете бесплатный доступ на liveBook, платформу издательства Manning для онлайн-чтения. Эксклюзивные возможности этого дискуссионного форума позволяют вам добавлять комментарии как к книге в целом, так и к конкретным разделам или параграфам. Так вы сумеете с легкостью делать заметки для себя, задавать технические вопросы или отвечать на них, а также получать помощь от автора и других пользователей. Чтобы войти на форум, перейдите по ссылке https://livebook.manning.com/book/introduction-to-generative-ai/. Больше сведений о площадках Manning и правилах поведения на них ищите по адресу https://livebook.manning.com/discussion.

Мы в Manning обязуемся предоставлять нашим клиентам платформу, на которой читатели смогут плодотворно общаться как между собой, так и с авторами. При этом авторы не обязаны уделять таким беседам какое-то определенное время, то есть их участие в деятельности форума полностью добровольно (и не оплачивается). Чтобы они не утратили интерес, попробуйте удерживать их какими-нибудь хитроумными вопросами! Доступ к форуму и архивам предыдущих дискуссий будет поддерживаться на сайте издательства до тех пор, пока книга имеется в продаже.

Онлайн-ресурсы

На случай, если вы заинтересованы в том, чтобы более подробно узнать о каких-либо конкретных идеях или концепциях, представленных в данной книге, мы упоминаем в тексте ряд научных исследований, произведений и статей. Надеемся, что эти дополнительные материалы окажутся для вас ценными.

Об авторах

Инженер и исследователь Нума Дхамани трудится там, где пересекаются общество и технологии. Будучи экспертом в обработке естественного языка, она также владеет всесторонними знаниями об операциях влияния, безопасности и конфиденциальности. Нума разрабатывала системы машинного обучения как для компаний из списка Fortune 500 [2] и социальных сетей, так и для стартапов и некоммерческих организаций. Она консультировала различные фирмы и структуры, занимала должность научного руководителя в экспериментальных программах Министерства обороны США и сотрудничала со множеством международных журналов, публикующих рецензируемые статьи. Кроме того, она участвует в выработке политики в отношении технологий, поддерживая аналитические центры и некоммерческие организации своими данными и усилиями по контролю ИИ. О ее работе по противодействию дезинформации сообщалось в нескольких СМИ, включая New York Times и Washington Post. Нума увлеченно вносит свой вклад в построение более здоровой онлайн-экосистемы и продвижение ответственного ИИ, а также призывает к прозрачности и подотчетности в технологической сфере. Она владеет учеными степенями в областях физики и химии, полученными в Техасском университете в Остине.



Инженер и исследователь Мэгги Энглер в настоящее время занимается безопасностью LLM. Основное внимание она уделяет проблеме злоупотреблений в онлайн-экосистеме, изучая их с применением аналитики данных и машинного обучения. Мэгги владеет экспертными знаниями в областях защиты информации и обеспечения «безопасности и доверия» пользователей. Она создавала системы машинного обучения для обнаружения вредоносных программ и попыток мошенничества, модерирования платформ и оценки рисков. Кроме того, Мэгги консультировала стартапы и некоммерческие организации по вопросам конфиденциальности и информационной инфраструктуры, а также проводила предварительный технический анализ для венчурных компаний. Будучи идейным наставником и популяризатором науки, она трудится внештатным преподавателем в Школе информатики при Техасском университете в Остине. Мэгги глубоко вовлечена в выработку политики в отношении технологий и сотрудничает с группами гражданского общества, которые выступают за ответственный подход к ИИ и управлению данными. Она владеет степенями бакалавра и магистра электротехники, полученными в Стэнфордском университете.

Об иллюстрации на обложке

На обложке книги размещена картина «Няня» (La nourrice) из книги Луи Кюрмера, выпущенной в 1841 году. Каждая иллюстрация в ней тщательно прорисована и раскрашена от руки.

В те дни можно было с легкостью определить, где живет человек, какое у него ремесло или положение в жизни, просто взглянув на его одежду. Издательство Manning восхваляет изобретательность и инициативность компьютерного бизнеса, выбирая для своих книг обложки, основанные на богатом разнообразии региональных нравов многовековой давности, воскресающих на картинах из подобных коллекций.

1

Большие языковые модели: вся мощь ИИ

Темы этой главы

• Знакомство с большими языковыми моделями (LLM)

• Принцип работы трансформеров

• Области применения LLM, их ограничения и риски

• Обзор передовых диалоговых LLM

Компания OpenAI из Сан-Франциско 30 ноября 2022 года написала в X (Twitter): «Попробуйте пообщаться с ChatGPT – нашей новой системой искусственного интеллекта, оптимизированной для диалога. Ваши отзывы помогут нам улучшить ее»1. Чат-бот ChatGPT, с которым пользователи могут взаимодействовать через веб-интерфейс, компания представила как небольшое обновление уже существующих моделей OpenAI, доступных через API [3]. Однако именно благодаря запуску веб-приложения у любого желающего внезапно появилась возможность общаться с ChatGPT, просить его написать стих или код, посоветовать фильмы или планы тренировок, обобщить или объяснить фрагменты текста. Многие ответы выглядели как волшебство. ChatGPT взбудоражил мир технологий, и за считаные дни у него появился один миллион пользователей, а через два месяца после запуска – 100 миллионов. По некоторым показателям это самый быстрорастущий интернет-сервис за всю историю2.

С момента запуска ChatGPT смог поразить воображение миллионов пользователей и одновременно вызвать опасение у опытных специалистов по поводу недостатков диалоговых моделей. ChatGPT и аналогичные модели относятся к классу больших языковых моделей (LLM), которые навсегда изменили область обработки естественного языка (natural language processing, NLP) и позволили достичь новых результатов в таких задачах, как ответы на вопросы, обобщение текста и генерация текста. Уже существуют прогнозы, что LLM изменят то, как мы учим, творим, работаем и общаемся. Люди почти всех профессий будут как минимум использовать такие модели, а возможно даже, принимать участие в их развитии. Таким образом, люди, которые смогут освоить LLM для получения нужных результатов – при этом избегая распространенных ловушек, о которых мы еще поговорим, – смогут возглавить тренд развития генеративного ИИ.

Конец ознакомительного фрагмента.

Текст предоставлен ООО «Литрес».

Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.

Примечания

1

Ответственный искусственный интеллект (ответственный ИИ) – это подход, предполагающий разработку, оценку и развертывание систем ИИ с соблюдением принципов безопасности, надежности и этики (источник: https://learn.microsoft.com/ru-ru/azure/machine-learning/concept-responsible-ai? view=azureml-api‐2). – Прим. ред.

2

Fortune 500 – список пятисот крупнейших компаний США по размеру выручки, ежегодно составляемый журналом Fortune.

3

«Доступных через API» означает, что такие системы не имеют визуального пользовательского интерфейса и работать с ними можно, только используя какой-либо из языков программирования. – Прим. науч. ред.

Вы ознакомились с фрагментом книги.

Для бесплатного чтения открыта только часть текста.

Приобретайте полный текст книги у нашего партнера:


Полная версия книги

Всего 10 форматов

bannerbanner