Искажения не принимаются: в РФ законодательно определят дипфейк
В российском правовом поле появится официальное понятие «дипфейк». Законопроект об этом планируют внести в нижнюю палату в осеннюю сессию, сообщили «Известиям» в комитете Госдумы по информполитике. Такой шаг должен помочь в борьбе с мошенничеством — сегодня, в частности, с помощью нейросетей уже заменяются лица на видео и фото. Эксперты предупреждают, что даже специалистам сложно отличить достоверную картинку от ложной, и компании уже ведут исследования по противостоянию дипфейкам. Однако пока технология остается слишком трудозатратной для использования в мошеннических схемах, и она все еще уступает традиционным способам обмана, добавили они.
Нейроопасность
Сейчас всё чаще используются нейросети для создания так называемых дипфейков — контента с реалистичной подменой фото, видео и аудиоматериалов, сказал «Известиям» глава комитета Госдумы по информационной политике, информационным технологиям и связи Александр Хинштейн. Он добавил, что отличить их от достоверного изображения становится всё труднее. По словам депутата, на базе комитета совместно с Роскомнадзором и экспертным сообществом уже разрабатывается законопроект, который, впрочем, пока к предметному обсуждению еще не готов. «Известия» направили запрос в ведомство.
— Главная задача законопроекта, которую, надеемся, удастся решить, — это дать правовое определение явлению под названием «дипфейки», которые сегодня стали уже не уникальными, — сказал Александр Хинштейн.
По его словам, отдельного закона для них сегодня не требуется, инициатива будет предполагать изменение в уже действующее законодательство. Зампред комитета Олег Матвейчев объяснил: сегодня люди всё чаще стали использовать нейросеть в первую очередь для развлечения, поместив фото в интересные декорации, чтобы увидеть себя или близких в новом образе. Однако в течение 3–5 лет этот механизм разрастется, и к его использованию примкнут мошенники. Использовать программу в недобросовестных целях будут не только они. К примеру, учащиеся уже начали писать выпускные дипломы с помощью нейросети, напомнил Олег Матвейчев.
— Сейчас это просто игрушки. Но когда люди будут, к примеру, загружать в программу свои голоса, то мошенники потом смогут звонить их близким с имитацией их же голоса. Или даже сама нейросеть будет вести разговор. То есть вам, к примеру, позвонит ваш родственник, вы его прекрасно узнаете, он будет так же шутить, использовать те же слова-паразиты. Вы его не отличите. А потом он скажет — пришли мне 20 тыс. рублей срочно, — пояснил «Известиям» депутат.
Политик также прогнозирует риски дискредитации: злоумышленники могут использовать фотографии человека, «приписав» ему на видео получение взятки, или просто добавить его изображение на публикацию откровенного характера. По его словам, предполагается не только дать правовое определение такому явлению, но и продумать регуляторные механизмы: как отслеживать, кто ответственен, потому что «на нейросеть нельзя подать в суд», добавил он. На фоне актуальности проблемы документ готовится ко внесению в Госдуму уже в осеннюю сессию в этом году, уточнил парламентарий.
Ранее «Известия» уже писали о подобной инициативе, тогда фракция ЛДПР предлагала ввести уголовное наказание за дипфейки при финансовом мошенничестве с помощью подмены голоса или изображения человека. 4 июня стало известно, что в правительстве РФ не поддержали законопроект, сославшись на то, что незаконное распространение персональных данных гражданина, включая применение искусственного интеллекта, подпадает под действие ст. 137 УК РФ («Нарушение неприкосновенности частной жизни»).
Реальность угрозы
Подобные сети состоят из двух частей: пока одна из них генерирует поступившие материалы от пользователя, вторая отсеивает не похожие на исходные данные части загруженного контента, пояснил специалист в области обработки данных Дмитрий Каплун. В результате это приводит к достаточно качественным изображениям: потому что объекты не добавлялись друг на друга по отдельности, а были созданы вместе единой картинкой на основе представленных данных. Более того, сегодня используются сильные вычислительные мощности, которые также позволяют успешно генерировать контент, начиная от звуков и заканчивая правдоподобным видео.
— Даже специалистам очень тяжело отличить достоверный кадр от дипфейка. Одним из способов остается их «недостаток» — плохая передача отражения, к примеру, в зеркалах, окнах или даже в зрачке глаза. Они автоматически «идеализируют картинку», даже убирая красные глаза, а в реальных фотографиях это всё есть. Еще можно по количественным критериям оценить, если обработать соответствующим образом фотографии, то получится посчитать их метрики, и тогда мы увидим разницу, однако скоро и их число перестанет отличаться. Это трудоемкий процесс, — пояснил «Известиям» Дмитрий Каплун.
Подобная технология остается достаточно дорогостоящей и трудозатратной и пока что уступает более простым способам мошенничества, считает старший исследователь данных «Лаборатории Касперского» Дмитрий Аникин. Впрочем, технология непрерывно развивается и уже добилась неплохих результатов в аудиоформате данных, добавил он.
— Существует несколько точек зрения на будущее дипфейков. По оптимистичному прогнозу, эта технология так и останется слишком трудозатратной для использования в мошеннических схемах, а люди повысят свою скептичность и будут замечать такие подделки. С другой стороны, есть риск, что технология станет проще благодаря попаданию в свободный доступ, что может привести к ее широкому использованию, в том числе и в плохих целях: вымогательство, кража, промышленный шпионаж, — рассказал «Известиям» эксперт.
В настоящий момент уже ведутся исследования по противостоянию такой технологии, и с помощью применения искусственного интеллекта обучаются модели, способные определить подобные подделки, добавил Дмитрий Аникин. Однако сегодня в первую очередь необходимо повышать осведомленность людей о новых потенциальных способах мошенничества, считает он.