
Полная версия:
Анатомия господства: запад, капитализм и конструирование реальности
Таким образом, цифровой колониализм представляет собой современную форму имперской эксплуатации, где данные становятся новым ресурсом, а технологическое превосходство – инструментом установления и поддержания глобальной гегемонии. Борьба за "цифровой суверенитет", за право контролировать собственные данные и технологическое развитие, становится одной из ключевых задач для стран глобального Юга в XXI веке.
2 ИИ: алгоритмическая дискриминация.Искусственный интеллект (ИИ) стремительно проникает во все новые сферы нашей жизни, от систем распознавания лиц и беспилотных автомобилей до алгоритмов, принимающих решения в кредитовании, найме на работу, медицине и даже правосудии. Сторонники ИИ видят в нем инструмент для повышения эффективности, объективности и решения сложных проблем, недоступных человеческому разуму. Однако растущее применение ИИ выявляет и его темную сторону – потенциал для кодификации и усиления существующих социальных предрассудков и дискриминационных практик через так называемую "алгоритмическую дискриминацию". Вместо того чтобы быть нейтральным и объективным, ИИ может незаметно воспроизводить и даже усугублять неравенство, заложенное в данных, на которых он обучается, и в логике, по которой он функционирует.
Проблема алгоритмической дискриминации возникает из нескольких источников. Во-первых, системы ИИ обучаются на больших массивах данных, которые отражают существующие в обществе предубеждения и исторические несправедливости. Если данные, используемые для обучения, содержат, например, гендерные или расовые стереотипы (например, если в прошлом на определенные должности чаще принимали мужчин или представителей определенной расы, или если определенные группы населения чаще подвергались полицейскому контролю), то алгоритм, обученный на этих данных, неизбежно усвоит эти предрассудки и будет воспроизводить их в своих решениях. Он может научиться ассоциировать определенные характеристики (пол, расу, возраст, место жительства) с определенными исходами, даже если эти ассоциации являются результатом исторической дискриминации, а не объективных факторов.
Во-вторых, сами разработчики ИИ, будучи людьми со своими собственными (часто неосознанными) предубеждениями, могут вносить их в архитектуру алгоритмов или в процесс отбора и разметки данных. Недостаточное разнообразие в командах разработчиков ИИ (например, преобладание мужчин или представителей одной культуры) также может приводить к тому, что системы будут лучше работать для одних групп населения и хуже – для других.
В-третьих, непрозрачность многих алгоритмов ИИ ("черный ящик") затрудняет выявление и исправление дискриминационных практик. Часто бывает сложно понять, на основании каких именно факторов алгоритм принял то или иное решение, что делает невозможным его оспаривание или коррекцию. Это особенно опасно в таких критически важных сферах, как правосудие (где алгоритмы могут использоваться для оценки риска рецидива) или медицина (где они могут влиять на диагностику или распределение ресурсов).
Примеры алгоритмической дискриминации уже многочисленны. Системы распознавания лиц хуже работают с лицами женщин и людей с темным цветом кожи. Алгоритмы, используемые для отбора резюме, могут отдавать предпочтение кандидатам-мужчинам или выпускникам определенных вузов. Кредитные скоринговые системы могут отказывать в кредитах жителям определенных районов или представителям определенных этнических групп, даже если их кредитоспособность не вызывает сомнений. Алгоритмы, используемые в социальных сетях для модерации контента, могут непропорционально часто удалять посты или блокировать аккаунты представителей маргинализированных групп.
Последствия такой алгоритмической дискриминации могут быть очень серьезными. Она не только закрепляет и усиливает существующее неравенство, но и придает ему видимость научной объективности и беспристрастности ("компьютер не ошибается"). Это затрудняет борьбу с дискриминацией и может привести к созданию "цифрового апартеида", где доступ к возможностям и ресурсам определяется невидимыми и неконтролируемыми алгоритмами.
Решение проблемы алгоритмической дискриминации требует комплексного подхода, включающего повышение качества и репрезентативности данных, используемых для обучения ИИ, разработку методов выявления и устранения предвзятости в алгоритмах, обеспечение прозрачности и подотчетности систем ИИ, а также привлечение широкого круга экспертов и общественности к обсуждению этических и социальных последствий их применения. Важно также развивать критическое мышление и цифровую грамотность, чтобы люди могли понимать, как работают алгоритмы и как они могут влиять на их жизнь, и не принимать их решения на веру. Иначе ИИ, вместо того чтобы стать инструментом прогресса, рискует превратиться в еще один механизм углубления разделения и несправедливости в нашем мире.
3 Соцсети: фабрики согласия.Социальные сети, такие как VK, TikTok и другие, возникли с обещанием демократизировать общение, предоставить голос каждому, укрепить социальные связи и способствовать свободному обмену информацией и идеями. Они быстро превратились в неотъемлемую часть повседневной жизни миллиардов людей, став основной площадкой для общения, получения новостей, самовыражения и даже политической мобилизации. Однако, за этой привлекательной витриной глобальной деревни, где каждый может быть услышан, скрывается более сложная и тревожная реальность: социальные сети, принадлежащие преимущественно крупным технологическим корпорациям, все чаще функционируют как мощные "фабрики согласия", формирующие общественное мнение, направляющие поведение пользователей и служащие интересам своих владельцев и их партнеров, а не идеалам свободной и открытой дискуссии.
Ключевую роль в этом процессе играют алгоритмы персонализации, которые определяют, какой контент пользователи видят в своих лентах. Эти алгоритмы анализируют предыдущее поведение пользователя (лайки, комментарии, просмотры, подписки) и показывают ему преимущественно то, что, по их мнению, будет ему интересно и вызовет его вовлеченность , поскольку именно вовлеченность является главной метрикой, которую стремятся максимизировать платформы для увеличения времени, проводимого пользователями на сайте, и, соответственно, доходов от рекламы.
Это приводит к созданию так называемых "пузырей фильтров" или "эхо-камер", где пользователи оказываются окружены информацией и мнениями, подтверждающими их уже существующие убеждения, и изолированы от альтернативных точек зрения. Внутри таких пузырей легко распространяются дезинформация, фейковые новости и пропаганда, поскольку критическое осмысление затруднено отсутствием контр-аргументов и преобладанием единомышленников. Это способствует поляризации общества, усилению радикализма и снижению способности к конструктивному диалогу.
Механизмы виральности, заложенные в архитектуру соцсетей, также играют важную роль. Контент, вызывающий сильные эмоции (гнев, возмущение, страх, восторг), имеет больше шансов быстро распространиться, независимо от его правдивости или объективности. Это создает благодатную почву для манипуляций, как коммерческих, так и политических. Политические акторы, как внутренние, так и внешние, могут использовать соцсети для проведения кампаний влияния, распространения пропаганды, дискредитации оппонентов или вмешательства в выборы, используя ботофермы, фейковые аккаунты и таргетированную рекламу.
Модерация контента, осуществляемая платформами (часто с помощью тех же ИИ-алгоритмов), также является предметом озабоченности. Правила сообщества и решения о том, какой контент удалять или ограничивать, разрабатываются и применяются непрозрачно, часто с двойными стандартами, и могут быть использованы для цензуры неугодных мнений или подавления голосов, критикующих доминирующие нарративы или интересы корпораций и государств, с которыми они сотрудничают.
Система монетизации через таргетированную рекламу превращает пользователей в товар, чьи данные и внимание продаются рекламодателям. Это не только нарушает приватность, но и создает мощные стимулы для сбора все большего количества персональных данных и для удержания пользователей на платформе как можно дольше, даже если это достигается за счет демонстрации им спорного, кликбейтного или вызывающего зависимость контента.
Культура инфлюенсеров, процветающая в соцсетях, также способствует формированию определенных потребительских паттернов и ценностных ориентаций, часто связанных с демонстративным потреблением, культом успеха и внешней привлекательности, что соответствует интересам корпораций, производящих эти товары и услуги.
Таким образом, социальные сети, будучи изначально задуманы как платформы для свободного общения, во многом превратились в инструменты формирования "управляемого согласия". Они создают иллюзию выбора и разнообразия мнений, но на деле направляют внимание и поведение пользователей в русло, выгодное их владельцам и рекламодателям, способствуя конформизму, поляризации и распространению манипулятивного контента. Осознание этих механизмов и развитие навыков критического медиапотребления становятся необходимыми условиями для сохранения интеллектуальной автономии в эпоху цифровых фабрик согласия.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «Литрес».
Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.
Вы ознакомились с фрагментом книги.
Для бесплатного чтения открыта только часть текста.
Приобретайте полный текст книги у нашего партнера:
Полная версия книги
Всего 10 форматов