Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Лавров предостерег Европу от разговора с Россией на языке превосходства
Мир
СМИ узнали о попытках компаний из США добиться исключений в пошлинах Трампа
Мир
Трамп пообещал сделать США сильнее и богаче
Мир
СМИ узнали о готовящемся визите Макрона в Великобританию
Мир
В Кремле заявили об отсутствии команды Путина по продлению пасхального перемирия
Общество
Многодетные мамы доставили Благодатный огонь из Москвы в Белгородскую область
Мир
В Италии и Греции прошли утренние пасхальные службы
Мир
Трамп в пасхальном поздравлении раскритиковал Байдена за миграционную политику
Общество
Верующие прошли крестным ходом во Владивостоке и Хабаровске в Пасху
Мир
Глава Южной Кореи отказался сопротивляться пошлинам Трампа
Мир
Папа римский появился на публике на праздновании Пасхи в Ватикане
Происшествия
Два ребенка и женщина пострадали при атаке дрона ВСУ в Белгородской области
Мир
Экс-депутат АдГ выразила обеспокоенность возможной поставкой ракет Украине
Мир
В Нижегородской области из-за пала сухостоя сгорели шесть зданий
Происшествия
В пасхальное перемирие ВСУ нанесли удар по Донецку
Общество
Исследование выявило самые популярные пасхальные рецепты у россиян
Общество
Заслуженная артистка РФ Елизавета Зима скончалась в возрасте 79 лет
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

В разных странах мира фиксируются случаи, когда между людьми и системами на основе искусственного интеллекта (ИИ) возникает подобие романтических связей. По мнению экспертов, виртуальные «отношения» с нейросетями, с одной стороны, могут закрывать определенные человеческие потребности. Но с другой — они несут в себе целый ряд рисков для психики и в некоторых случаях могут использоваться киберпреступниками. Подробности — в материале «Известий».

Какие случаи романтических отношений людей и ИИ известны в мире

Истории, когда между людьми и ИИ-ассистентами возникало подобие любовной привязанности, на сегодняшний день уже описаны и заслуживают вдумчивого внимания, говорит в беседе с «Известиями» психолог платформы корпоративного благополучия «Понимаю» Катерина Русакова. Например, в Канаде в 2023 году мужчина заявил о «помолвке» с ИИ-компаньонкой, настроенной под романтическое взаимодействие.

В Китае и Японии существуют коммерческие приложения, где ИИ не просто имитирует партнера, а прямо строит нарратив «заботливых отношений», — говорит эксперт. — Пользователи ведут переписки, дарят виртуальные подарки, получают «поддержку» и слышат фразы вроде: «Я верю в тебя».

Телефон
Фото: ТАСС/Arne Immanuel Bänsch

В России такие кейсы пока остаются скорее индивидуальными и редко выносятся в публичное поле, но это не означает, что их нет, отмечает Катерина Русакова. В практике психологов уже встречаются случаи привязанности к ИИ-собеседникам, особенно среди подростков, переживающих изоляцию, и взрослых с высоким уровнем социальной тревожности, травмой или хронической неуверенностью в себе.

— В России набирают популярность голосовые ассистенты Алиса и Маруся, — дополняет киберэксперт и инженер-аналитик Лаборатории исследований кибербезопасности компании «Газинформсервис» Ирина Дмитриева. — При этом на портале «Пикабу» нередко можно встретить комментарии о симпатиях к синтезированным голосам помощников. Публичных кейсов пока не наблюдается в связи с ограничениями с точки зрения социальных норм.

Девушка с телефоном
Фото: ТАСС/Михаил Синицын

По словам Катерины Русаковой, технологии не причина, а усилитель запроса: ИИ просто оказался в нужном месте с нужной функцией — и начал откликаться там, где раньше было молчание. Ведь на уровне поведенческого подкрепления ИИ порой дает больше, чем живой человек.

Почему между людьми и ИИ возникают романтические отношения

Современные ИИ-системы способны имитировать человеческое общение и поддерживать длительные диалоги, что создает иллюзию взаимопонимания и эмоциональной связи, объясняет в беседе с «Известиями» эксперт по социотехническому тестированию Angara Security Яков Филевский. Этот феномен объясняется естественной склонностью человека к антропоморфизации — приписыванию человеческих качеств неодушевленным объектам.

ИИ
Фото: Global Look Press/Cfoto

ИИ создает иллюзию идеального собеседника: он всегда доступен, проявляет неизменное внимание, не демонстрирует утомления и раздражения и, что особенно важно, он невероятно адаптивен: подстраивается под коммуникативный стиль и предпочтения своего живого собеседника, — говорит специалист. — Более того, искусственный интеллект способен придерживаться практически любой роли по желанию человека.

Интенсивное общение на протяжении недель и месяцев постепенно формирует доверительные отношения, в которых ИИ начинает восприниматься как близкий компаньон, проявляющий заботу и понимание, рассказывает Яков Филевский. Эта иллюзия близости подкрепляется отсутствием негативных аспектов человеческих отношений — конфликтов, разочарований и несовпадения ожиданий.

При этом особую роль в формировании романтических отношений с ИИ играет социальная изоляция. В современном обществе с растущим уровнем одиночества многие люди испытывают дефицит эмоциональной близости и понимания. ИИ-ассистенты заполняют этот вакуум, предлагая доступную альтернативу человеческим отношениям, требующим взаимных усилий, компромиссов и эмоциональных затрат.

Девочка с телефоном
Фото: Global Look Press/IMAGO

Для людей с опытом травматичных отношений или тех, кто испытывает трудности в социальном взаимодействии, предсказуемость и безопасность общения с ИИ представляют особую привлекательность, — подчеркивает Яков Филевский. — ИИ не отвергает, не критикует, не осуждает — эти качества создают комфортную психологическую среду, способствующую формированию эмоциональной зависимости.

Какие риски несут в себе романтические отношения людей с ИИ

Тот факт, что чат-боты обучаются быть позитивными, поддерживающими и неконфликтными, может приводить к определенным рискам, объясняет руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов. Во-первых, это проблема галлюцинаций и связанный с ним феномен подхалимства (sycophancy).

— Из-за такого характера общения пользователи часто начинают обсуждать с ботом достаточно личные аспекты жизни, — говорит собеседник «Известий». — Если пользователь обращается к чат-боту за советом или рекомендацией, связанной, например, с финансами, здоровьем или юридическими вопросами, чат-бот может предоставить неверную информацию, не соответствующую действительности, допустим, предложить несуществующий способ лечения болезни или положение законодательства.

Робот
Фото: Global Look Press/Axel Heimken

Если человек поверит таким ответам, называющимся галлюцинациями, у него могут возникнуть проблемы. При этом если пользователь уже имеет определенные убеждения, которые могут не соответствовать действительности, то из-за подхалимства — склонности чат-ботов некритично принимать мнение пользователя и соглашаться с ним, даже приводя аргументы в его поддержку, — пользователь может укрепиться в заблуждении и пренебречь консультацией специалиста, что также может иметь уже реальные риски.

Другой стороной такого характера общения является то, что сервис, являющийся оператором чат-бота, начинает накапливать достаточно много личной информации о человеке, отмечает Владислав Тушканов. Поэтому важно всегда задаваться вопросом: кто помимо разработчика нейросети может получить доступ к данным, которыми пользователь обменивается с чат-ботом, как они будут храниться и использоваться в дальнейшем. При негативных сценариях данные пользователей могут быть скомпрометированы.

ИИ
Фото: Global Look Press/Oliver Berg

К сожалению, уже имели место случаи, когда данные пользователей, включая переписки, оказывались в общем доступе по разным причинам — от ошибок на стороне сервиса до взломов аккаунтов пользователей, доступ к которым затем продается на специализированных хакерских форумах, — подчеркивает эксперт.

Как отношения с ИИ могут использовать киберпреступники

Еще одним риском виртуальных отношений с ИИ является то, что создатели ботов или других сервисов-прослоек могут оставлять за собой право использовать переписку пользователя, — чтобы это не стало неприятным сюрпризом, важно внимательно изучить пользовательское соглашение, говорит Владислав Тушканов.

Компрометация столь личных данных, как переписка с ботом, выполняющим роль близкого партнера, может нести множество рисков — от таргетированных мошеннических атак до шантажа, если переписки содержали компрометирующую информацию, — отмечает собеседник «Известий».

Видя возросший спрос на ИИ-ассистентов, мошенники могут создавать поддельные ресурсы, имитирующие романтический интерес, дополняет руководитель группы аналитиков по информационной безопасности Лиги цифровой экономики Виталий Фомин. Пользователи, думая, что общаются с официальной нейросетью, могут предоставить личные данные, с помощью которых злоумышленники украдут средства или оформят кредиты.

Чат-бот
Фото: РИА Новости/Владимир Астапкович

В переписке киберпреступники также распространяют вредоносное ПО, например, под видом ссылок или файлов. Иногда злоумышленники через ИИ-ассистента склоняют пользователей к оформлению подписки на платные сервисы, рассказывает эксперт. Для того чтобы защититься от подобных угроз, руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин советует пользователям относиться к ИИ как к инструменту, не равному себе, даже если кажется, что он слушает и понимает нас.

— У сегодняшних ИИ всё еще есть слабые места, которые выдадут в них ненастоящих собеседников после нескольких уточняющих вопросов, — мы должны иметь это в виду и при первых же подозрениях прекращать общение, — заключает специалист.

Читайте также
Прямой эфир