Перейти к основному содержанию
Реклама
Прямой эфир
Общество
Против экс-замглавы Минобороны Иванова могут возбудить еще три дела
Спорт
Сергей Ковалев одержал победу над Артуром Манном и завершил карьеру
Армия
Минобороны сообщило об уничтожении двух БПЛА над Белгородской и Курской областями
Мир
СМИ узнали о разработанном США плане мониторинга прекращения огня
Мир
Госдеп не стал связывать сделку с Украиной по ископаемым с возможным перемирием
Мир
Politico сообщила о планах главы аппарата Пентагона покинуть свой пост
Наука и техника
В Китае запустили шесть спутников Shiyan-27 для исследования космоса
Мир
В США заявили о готовности признать Крым российским
Общество
Студенты притворялись иностранками и выманивали деньги на сайтах знакомств
Спорт
РФС пожизненно дисквалифицировал Мерзлюка и Симбаева за договорной матч 2024 года
Мир
В Эквадоре в результате стрельбы на петушиных боях погибло 11 человек
Мир
Туристов из РФ выгнали с пляжа в ОАЭ за отдых в купальниках
Общество
РФ денонсировала договор со странами Скандинавии о сотрудничестве в Баренцевом море
Армия
Минобороны показало кадры боевой работы расчетов БПЛА тульских десантников
Мир
Трамп опроверг «конкретное количество дней» для ясности в сделке по Украине
Общество
В Новосибирске осуждены шесть организаторов незаконных азартных игр
Спорт
Южноафриканский бегун смог побить рекорд Усэйна Болта
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Россиян будут информировать об общении с роботом, а не с живыми сотрудниками контакт-центров компаний и банков. Это предусматривает законопроект о регулировании искусственного интеллекта (ИИ), с которым ознакомились «Известия». Бизнес злоупотребляет применением ИИ — граждане, не осознающие, что общаются с роботом, не могут оперативно решить свои проблемы и становятся жертвами мошенников, отмечают эксперты. Взаимодействие с искусственным разумом без понимания, что робот технически не может ответить на все вопросы, может привести к непоправимым последствиям, добавляют они.

Как россияне узнают о том, что говорят с роботами

Российские компании и госструктуры должны будут указывать, что общаются с гражданами по телефону или через интернет с помощью ИИ — если такие технологии применяются в их контакт-центрах. Это следует из законопроекта «О регулировании систем искусственного интеллекта», подготовленного рабочей группой, в которую входят депутаты Госдумы, представители бизнеса и деловых ассоциаций. С документом ознакомились «Известия».

Государственная дума
Фото: ИЗВЕСТИЯ/Павел Волков

Если клиент или пользователь услуг общается с их поставщиком по телефону, ему следует предоставить возможность взаимодействия с оператором — человеком, а если через чат-бот в интернете — должно быть указание на автоматизированный характер формирования ответов и сообщений, говорится в документе. В любом случае следует обозначить порядок направления претензий и обращений в структуру, применяющую ИИ.

Сегодня ИИ активно используется в call-центрах, чат-ботах, сервисах поддержки, но далеко не всегда пользователи осознают, что общаются не с человеком. В условиях, когда технологии становятся всё более реалистичными, вопрос честного уведомления выходит на первый план — как с этической, так и с правовой точки зрения, — сказал «Известиям» член комитета Госдумы по информационной политике, информационным технологиям и связи Антон Немкин.

наушники
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Такое информирование поможет минимизировать риски манипуляций, особенно в чувствительных сферах — например, при финансовом консультировании, обслуживании уязвимых категорий граждан или предоставлении медицинской информации, отметил он. Пользователь должен понимать, когда он получает автоматизированный ответ, чтобы адекватно оценивать его значимость, точность и возможные ограничения. Кроме того, наличие функции переключения на живого специалиста по запросу усиливает контроль со стороны клиента и снижает риск недопонимания, объяснил депутат.

Это особенно актуально в борьбе с мошенничеством. Под видом ИИ-сервисов могут действовать злоумышленники, стремящиеся ввести человека в заблуждение, выманить личные данные или провести фишинговую атаку, считает Антон Немкин.

Телефон
Фото: ИЗВЕСТИЯ/Константин Кокошкин

Очевидно, что требования к «телефонному» ИИ создаются «на вырост» — сейчас, как правило, человек довольно быстро распознает, что общается с роботом, отметил директор Института исследований интернета Карен Казарян. Но с перепиской в интернете вопрос стоит остро — человек сутками может «стучаться» в чат-бот на базе ИИ и не понимать, что это робот, который не может реагировать на нестандартные ситуации и решать специфические проблемы, добавил он.

— Законопроект, о котором идет речь, подготовили коллеги из Госдумы. Мы планируем подключаться к его обсуждению. Говорить о деталях документа пока преждевременно. Отметим только, что любая технология должна применяться исключительно с соблюдением прав и интересов граждан, — сказали «Известиям» в Минцифры.

Чем опасно общение с искусственным интеллектом

Информировать о звонках и интернет-переписке с участием ИИ необходимо — в ряде случаев это может оказаться вопросом жизни и смерти, уверен руководитель проекта Content-Review Сергей Половников. Чат-бот или автоответчик на базе нейросети не всегда может решить проблему человека в нестандартной ситуации или решить ее вообще, указывает он.

Телефон
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

При этом в поддержку часто обращаются люди в состоянии стресса и просто не могут разобраться, с роботом или человеком общаются, особенно это касается пожилых россиян, продолжает эксперт. Неверное решение, подсказанное «человекообразным» помощником, способно оказаться фатальным — например, если пенсионер перевел деньги мошенникам. Пациент может оказаться не в состоянии правильно сформулировать запрос к ИИ своей страховой компании — так, чтобы получить на него ответ: тут последствия могут оказаться непоправимыми, приводит он примеры.

Крупные коммерческие организации, в первую очередь банки, маркетплейсы, операторы связи злоупотребляют ИИ при взаимодействии с клиентами, утверждает председатель коллегии адвокатов «Сулим и партнеры» Ольга Сулим.

— В ряде случаев они вовсе отказываются от call-центров и переводят всё общение с клиентами на голосовых помощников (ботов), а это, во-первых, не способствует оперативному решению проблем клиентов. Это актуально, например, в случаях с кредитными организациями, когда человек может стать жертвой мошенников и у него возникнет необходимость блокировки платежных средств, ограничения доступа в личный кабинет или запрета на совершение определенных действий, — пояснила она.

Call-центр
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

Общение с голосовыми ботами, имеющими ограниченный функционал, может вести к нарушению прав потребителя, добавила эксперт. По неофициальной статистике, наиболее распространенной командой для голосовых помощников на протяжении нескольких лет остается фраза «соединить с оператором», а положительные оценки взаимодействия с ними — это редкость, что в целом отражает уровень неудовлетворения людей от общения с автоматизированными системами в целях разрешения возникших вопросов, рассказала она.

Компании всё чаще стали подключать нейросети в систему поддержки пользователей и зацикливать всю платформу на ИИ, чтобы сэкономить на операторах, добавил гендиректор группы компаний ST IT, эксперт рынка TechNet НТИ Антон Аверьянов. Это приводит к тому, что пользователи не могут достучаться до консультанта и получить поддержку от искусственного интеллекта в ряде случаев, утверждает он.

— Были случаи, когда ИИ давал неправильные рекомендации, которым следовал человек. Также нужно обязательно указывать, какая система ИИ применяется, потому что если дело касается какой-то системы поддержки, человек может передавать в нее свои персональные данные. А если это так, то они не должны уходить за границу, — добавил эксперт.

телефон
Фото: ИЗВЕСТИЯ/Дмитрий Коротаев

Пользователь может полагать, что взаимодействует с реальным человеком, вести себя с ним как с человеком, в том числе провокационно: например, манипулируя давлением на жалость или просто действуя иррационально, указывает эксперт центра компетенций НТИ «Технологии машинного обучения и когнитивные технологии» на базе ИТМО Александр Бухановский. Сложная генеративная система ИИ может отреагировать по-своему, как это делает человек в силу особенностей эмоционального интеллекта, утверждает он. Пользователь, сможет «спровоцировать» ИИ на неадекватную (в его понимании) реакцию: в лучшем случае это вызовет разочарование, в худшем — может быть воспринято как оскорбление, рассказал эксперт.

— Попытки регулирования контента, который создают системы искусственного интеллекта, — от текстов и изображений до голосовых роботов и видео категории deep fake — предпринимаются во многих странах мира. За этими действиями стоит базовый страх человека перед роботом/алгоритмом — что он не поймет запрос, ошибется, навредит и т.п. Во многом это связано с новизной технологий ИИ. При этом в бюро переводов мало у кого возникают сомнения в том, что переводчик наделает ошибок в переводе, равно как и при визите в нотариальную контору никто не сомневается в способности нотариуса правильно составить доверенность, — отметил партнер ComNews Research Леонид Коник.

клавиатура
Фото: ИЗВЕСТИЯ/Эдуард Корниенко

В силу того, что человек еще не прожил с роботами и алгоритмами длинную жизнь, разумно предупреждать его о факте столкновения с ИИ — в частности, при входящих звонках и иных случаях дистанционного взаимодействия, считает он. Это снимет тревожность и ускорит осознание человеком мысли о том, что во многих случаях системы ИИ удобнее и быстрее, чем другой человек, полагает эксперт.

По словам Леонида Коника, схожие инициативы развиваются сейчас и в других странах. Например, в Евросоюзе действует закон об искусственном интеллекте, который призван остановить распространение дезинформации и предписывает создателям генеративных моделей ИИ вводить соответствующие уведомления.

Читайте также
Прямой эфир