Как ИИ создает иллюзию свободы выбора
По данным исследования Эллен Лангер, иллюзия контроля заставляет людей верить, что они самостоятельно принимают решения. Однако на самом деле их выбор всё чаще определяется алгоритмами, которые анализируют поведение, предпочтения и эмоции. В колонке для Forbes об этом размышляет эксперт по машинному обучению Иван Серов.
Как технологии создают ложные ориентиры
Современные люди быстро привыкают к новым технологиям и начинают им безоговорочно доверять. Однако постоянное использование таких средств, как GPS, может ухудшить когнитивные способности. Например, водители, полагаясь на навигаторы, могут игнорировать реальную дорожную ситуацию, теряя навыки ориентирования и быстрой реакции в сложных ситуациях. Это демонстрирует, как привычка полагаться на технологии может снизить критичность восприятия.
Алгоритмы ИИ, управляющие социальными сетями, оказывают аналогичное влияние. Как показывают исследования Pew Research Center, они привлекают пользователей к контенту, который вызывает сильные эмоции, часто негативные. Это может привести к тому, что люди начинают принимать решения, которые иначе бы не сделали, находясь в другом контексте.
Алгоритмы создают информационные пузыри, ограничивающие наше восприятие. Члены одной семьи могут иметь совершенно разные представления о реальности, не осознавая, как глубоко и незаметно алгоритмы анализируют их поведение и предпочтения. Пользователь Instagram может считать, что сам выбирает контент, хотя на самом деле его выбор формируется на основе рекомендаций, основанных на детальном анализе его вкусов. Таким образом, алгоритмы управляют нашим восприятием и ограничивают возможности выбора.
Системы рекомендаций, такие как Netflix, работают по аналогичному принципу, опираясь на историю просмотров и оценки пользователя. Это может привести к тому, что в рекомендациях окажутся лишь произведения из одного жанра, исключая разнообразие. С одной стороны, это удобно, так как мы видим только то, что нам нравится, но с другой — это приводит к созданию информационного пузыря.
Spotify также ограничивает музыкальные предпочтения, предлагая рекомендации, основанные только на предыдущих выборах пользователей. Amazon, а также другие платформы, такие как Ozon и Wildberries, работают по аналогичной схеме, управляя вниманием и бюджетом потребителей с помощью персонализированных предложений и пуш-уведомлений.
Кому выгодно манипулировать нашим выбором
Скандал вокруг компании Cambridge Analytica в 2014 году, когда она использовала данные пользователей Facebook для поддержки Дональда Трампа на выборах, стал ярким примером манипуляции. Исследования показывают, что потенциальные избиратели получали персонализированный контент, созданный ИИ, который подталкивал их к определённым мнениям.
Политические деятели и бизнесмены активно используют алгоритмы для манипуляции мнением граждан. Для первых это способ контролировать выборы, для вторых — увеличить прибыль, направляя потребителей к избыточному потреблению. Политики разрабатывают кампании, основываясь на анализе целевой аудитории, а бизнесмены незаметно внедряют таргетированную рекламу, создавая иллюзию выбора.
Принимая решения о покупке или выборе кандидата, мы можем думать, что действуем осознанно. На самом деле, ИИ-инструменты помогают направлять внимание граждан в нужное русло, а технологическим компаниям строить бизнес, основываясь на предсказаниях поведения пользователей.
Возможные последствия
Наиболее серьезное последствие для людей, живущих в манипуляционном информационном пузыре, — это утрата навыков критического мышления и самостоятельного принятия решений. Как и в примере с GPS, это может привести к созданию общества, подверженного манипуляциям, где люди не способны делать осознанный выбор.
Это может ослабить демократические процессы, усилить поляризацию мнений и вызвать социальные потрясения. Возможно, обществу потребления необходима разумная доля аскетизма, чтобы противостоять чрезмерному комфорту, который разрушает нейронные связи и мешает распознаванию манипуляций.
Как распознать технологическую манипуляцию
Основной способ борьбы с манипуляцией алгоритмов ИИ — это умение их распознавать. Например, при добавлении товара в корзину на маркетплейсе стоит задать себе несколько вопросов:
- Действительно ли мне это нужно или желание купить возникло спонтанно после просмотра рекламы?
- Был ли у меня интерес к этому продукту до того, как алгоритм начал его предлагать?
- Могу ли я легко отказаться от покупки сейчас без чувства дискомфорта?
- Почему я это хочу: потому что это нужно именно мне или потому что это популярно?
Спасаем себя сами
Государственные органы должны защищать граждан от манипуляций алгоритмов, чтобы сохранить доверие к власти. Однако это задача сложная, особенно в свете недавних событий, как инаугурация Дональда Трампа, где присутствовали такие технологические лидеры, как Тим Кук, Илон Маск и Марк Цукерберг. Это подчеркивает влияние технологических компаний на государственные решения.
Что же делать? Необходимо осознанно противостоять манипуляциям, отказываясь от действий, на которые нас подталкивают алгоритмы. Эффективным методом может стать цифровой детокс: если отложить гаджеты хотя бы на день и повторять это раз в месяц, это поможет освободить ум от навязчивой информации и переосмыслить реальность вокруг.
Необходимо открыто обсуждать проблему технологической манипуляции, чтобы каждый понимал, как работают алгоритмы социальных сетей и маркетплейсов, и не соглашался на их предложения бездумно. Некоторые СМИ уже занимаются просветительской деятельностью, объясняя принципы работы ИИ-алгоритмов, но этого недостаточно. Важно также внедрять в образовательные программы уроки по медиаграмотности и критическому мышлению, а государствам и НКО следует развивать социальную рекламу на эту тему.
Искусственный интеллект не всегда лишает свободы выбора напрямую, но он явно сужает её, создавая иллюзию самостоятельного принятия решений. Нам, как обществу, предстоит переосмыслить, что означает свобода выбора в эпоху доминирования ИИ-алгоритмов, научиться сопротивляться манипуляциям и быть более осознанными в своих решениях.
Обсудим?
Смотрите также: