- Статьи
- Интернет и технологии
- Химия с железом: почему между людьми и искусственным интеллектом возникают романтические связи

Химия с железом: почему между людьми и искусственным интеллектом возникают романтические связи

В разных странах мира фиксируются случаи, когда между людьми и системами на основе искусственного интеллекта (ИИ) возникает подобие романтических связей. По мнению экспертов, виртуальные «отношения» с нейросетями, с одной стороны, могут закрывать определенные человеческие потребности. Но с другой — они несут в себе целый ряд рисков для психики и в некоторых случаях могут использоваться киберпреступниками. Подробности — в материале «Известий».
Какие случаи романтических отношений людей и ИИ известны в мире
Истории, когда между людьми и ИИ-ассистентами возникало подобие любовной привязанности, на сегодняшний день уже описаны и заслуживают вдумчивого внимания, говорит в беседе с «Известиями» психолог платформы корпоративного благополучия «Понимаю» Катерина Русакова. Например, в Канаде в 2023 году мужчина заявил о «помолвке» с ИИ-компаньонкой, настроенной под романтическое взаимодействие.
— В Китае и Японии существуют коммерческие приложения, где ИИ не просто имитирует партнера, а прямо строит нарратив «заботливых отношений», — говорит эксперт. — Пользователи ведут переписки, дарят виртуальные подарки, получают «поддержку» и слышат фразы вроде: «Я верю в тебя».
В России такие кейсы пока остаются скорее индивидуальными и редко выносятся в публичное поле, но это не означает, что их нет, отмечает Катерина Русакова. В практике психологов уже встречаются случаи привязанности к ИИ-собеседникам, особенно среди подростков, переживающих изоляцию, и взрослых с высоким уровнем социальной тревожности, травмой или хронической неуверенностью в себе.
— В России набирают популярность голосовые ассистенты Алиса и Маруся, — дополняет киберэксперт и инженер-аналитик Лаборатории исследований кибербезопасности компании «Газинформсервис» Ирина Дмитриева. — При этом на портале «Пикабу» нередко можно встретить комментарии о симпатиях к синтезированным голосам помощников. Публичных кейсов пока не наблюдается в связи с ограничениями с точки зрения социальных норм.
По словам Катерины Русаковой, технологии не причина, а усилитель запроса: ИИ просто оказался в нужном месте с нужной функцией — и начал откликаться там, где раньше было молчание. Ведь на уровне поведенческого подкрепления ИИ порой дает больше, чем живой человек.
Почему между людьми и ИИ возникают романтические отношения
Современные ИИ-системы способны имитировать человеческое общение и поддерживать длительные диалоги, что создает иллюзию взаимопонимания и эмоциональной связи, объясняет в беседе с «Известиями» эксперт по социотехническому тестированию Angara Security Яков Филевский. Этот феномен объясняется естественной склонностью человека к антропоморфизации — приписыванию человеческих качеств неодушевленным объектам.
— ИИ создает иллюзию идеального собеседника: он всегда доступен, проявляет неизменное внимание, не демонстрирует утомления и раздражения и, что особенно важно, он невероятно адаптивен: подстраивается под коммуникативный стиль и предпочтения своего живого собеседника, — говорит специалист. — Более того, искусственный интеллект способен придерживаться практически любой роли по желанию человека.
Интенсивное общение на протяжении недель и месяцев постепенно формирует доверительные отношения, в которых ИИ начинает восприниматься как близкий компаньон, проявляющий заботу и понимание, рассказывает Яков Филевский. Эта иллюзия близости подкрепляется отсутствием негативных аспектов человеческих отношений — конфликтов, разочарований и несовпадения ожиданий.
При этом особую роль в формировании романтических отношений с ИИ играет социальная изоляция. В современном обществе с растущим уровнем одиночества многие люди испытывают дефицит эмоциональной близости и понимания. ИИ-ассистенты заполняют этот вакуум, предлагая доступную альтернативу человеческим отношениям, требующим взаимных усилий, компромиссов и эмоциональных затрат.
— Для людей с опытом травматичных отношений или тех, кто испытывает трудности в социальном взаимодействии, предсказуемость и безопасность общения с ИИ представляют особую привлекательность, — подчеркивает Яков Филевский. — ИИ не отвергает, не критикует, не осуждает — эти качества создают комфортную психологическую среду, способствующую формированию эмоциональной зависимости.
Какие риски несут в себе романтические отношения людей с ИИ
Тот факт, что чат-боты обучаются быть позитивными, поддерживающими и неконфликтными, может приводить к определенным рискам, объясняет руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов. Во-первых, это проблема галлюцинаций и связанный с ним феномен подхалимства (sycophancy).
— Из-за такого характера общения пользователи часто начинают обсуждать с ботом достаточно личные аспекты жизни, — говорит собеседник «Известий». — Если пользователь обращается к чат-боту за советом или рекомендацией, связанной, например, с финансами, здоровьем или юридическими вопросами, чат-бот может предоставить неверную информацию, не соответствующую действительности, допустим, предложить несуществующий способ лечения болезни или положение законодательства.
Если человек поверит таким ответам, называющимся галлюцинациями, у него могут возникнуть проблемы. При этом если пользователь уже имеет определенные убеждения, которые могут не соответствовать действительности, то из-за подхалимства — склонности чат-ботов некритично принимать мнение пользователя и соглашаться с ним, даже приводя аргументы в его поддержку, — пользователь может укрепиться в заблуждении и пренебречь консультацией специалиста, что также может иметь уже реальные риски.
Другой стороной такого характера общения является то, что сервис, являющийся оператором чат-бота, начинает накапливать достаточно много личной информации о человеке, отмечает Владислав Тушканов. Поэтому важно всегда задаваться вопросом: кто помимо разработчика нейросети может получить доступ к данным, которыми пользователь обменивается с чат-ботом, как они будут храниться и использоваться в дальнейшем. При негативных сценариях данные пользователей могут быть скомпрометированы.
— К сожалению, уже имели место случаи, когда данные пользователей, включая переписки, оказывались в общем доступе по разным причинам — от ошибок на стороне сервиса до взломов аккаунтов пользователей, доступ к которым затем продается на специализированных хакерских форумах, — подчеркивает эксперт.
Как отношения с ИИ могут использовать киберпреступники
Еще одним риском виртуальных отношений с ИИ является то, что создатели ботов или других сервисов-прослоек могут оставлять за собой право использовать переписку пользователя, — чтобы это не стало неприятным сюрпризом, важно внимательно изучить пользовательское соглашение, говорит Владислав Тушканов.
— Компрометация столь личных данных, как переписка с ботом, выполняющим роль близкого партнера, может нести множество рисков — от таргетированных мошеннических атак до шантажа, если переписки содержали компрометирующую информацию, — отмечает собеседник «Известий».
Видя возросший спрос на ИИ-ассистентов, мошенники могут создавать поддельные ресурсы, имитирующие романтический интерес, дополняет руководитель группы аналитиков по информационной безопасности Лиги цифровой экономики Виталий Фомин. Пользователи, думая, что общаются с официальной нейросетью, могут предоставить личные данные, с помощью которых злоумышленники украдут средства или оформят кредиты.
В переписке киберпреступники также распространяют вредоносное ПО, например, под видом ссылок или файлов. Иногда злоумышленники через ИИ-ассистента склоняют пользователей к оформлению подписки на платные сервисы, рассказывает эксперт. Для того чтобы защититься от подобных угроз, руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин советует пользователям относиться к ИИ как к инструменту, не равному себе, даже если кажется, что он слушает и понимает нас.
— У сегодняшних ИИ всё еще есть слабые места, которые выдадут в них ненастоящих собеседников после нескольких уточняющих вопросов, — мы должны иметь это в виду и при первых же подозрениях прекращать общение, — заключает специалист.