Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Журналист Карлсон назвал Зеленского врагом США
Общество
Герой России Цыдыпов указал на важность встреч военнослужащих с Путиным
Мир
Путин встретился с Оливером Стоуном
Мир
Келлог опроверг выход США из посредничества по урегулированию кризиса на Украине
Политика
Лавров назвал продуктивными переговоры с главой МИД Доминиканы
Мир
В Минэке РФ заявили о росте товарооборота с Абхазией
Спорт
«Трактор» обыграл «Динамо» во втором матче полуфинальной серии плей-офф КХЛ
Мир
Бюджетные послабления для плана милитаризации запросили 12 стран ЕС
Общество
Минпросвещения разъяснило заявление об ограничении нагрузки учителей
Мир
Кая Каллас допустила сохранение санкций ЕС против РФ при их снятии США
Происшествия
Один человек погиб и четверо пострадали в ДТП с автобусом в Оренбургской области
Мир
Москва и Минск откроют в Смоленске туристский центр Союзного государства
Общество
Запрет на посещение лесов вокруг воинской части установили во Владимирской области
Мир
В МИД РФ заявили об отсутствии оснований для конфискации активов в Швейцарии
Армия
Путин рассказал об изоляции разрозненных групп ВСУ в Курской области
Мир
Бразилия выступила за сотрудничество в БРИКС по борьбе с терроризмом
Общество
Путин назвал Россию нацией победителей
Главный слайд
Начало статьи
EN
Озвучить текст
Выделить главное
Вкл
Выкл

Чат-боты типа ChatGPT или Grok создают новые лазейки для совершения преступлений, и в 2025 году количество таких правонарушений кратно вырастет, рассказали эксперты. По их словам, преступные методы будут совершенствоваться вместе с развитием ИИ, их будут использовать около 90% нелегальных кибергруппировок, а атаки затронут не только киберпространство, но и другие, более привычные аспекты жизни. Специалисты назвали первой ласточкой подрыв автомобиля в Лас-Вегасе 1 января. Организатор взрыва использовал ИИ для подготовки преступления. Подробности о тенденции — в материале «Известий».

Как ИИ впервые стал сообщником в преступлении

В 2025 году значительно вырастет количество противоправных действий, для проведения которых злоумышленники будут использовать ИИ, рассказали «Известиям» эксперты по кибербезопасности. Первым официально зафиксированным случаем совершения реального преступления с помощью технологии стал подрыв автомобиля Tesla Cybertruck у отеля Trump International в Лас-Вегасе 1 января. Его организатор Мэттью Ливелсбергер использовал ChatGPT, чтобы спланировать атаку. Как отметил шериф города Лас-Вегас Кевин Макмахилл, это первый в истории случай, когда на территории США был использован чат-бот для подготовки преступления.

Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом, — сообщил руководитель департамента расследований T.Hunter Игорь Бедеров.

тесла

Tesla Cybertruck, после того как он взорвался возле отеля Trump International в Лас-Вегасе, США, 1 января 2025 года

Фото: REUTERS/ALCIDES ANTUNES

По словам эксперта, меры защиты нейросети можно обходить при помощи так называемого промпт-инжиниринга. В таких ситуациях злоумышленник может условно поместить ИИ в выдуманную ситуацию — например, попросить его представить себя писателем и создать роман о террористах, включив в него инструкцию по изготовлению взрывного устройства.

— Причиной роста мировых показателей преступности с помощью ИИ станут автоматизация и новые возможности по персонализации атак. Киберпреступники начнут использовать технологию для более изощренных атак, что потребует новых методов защиты и изменений в законодательстве и программном обеспечении для борьбы с этим видом преступности, — считает директор АНО «Спортивно-методический центр «Кафедра киберспорта» и эксперт в области высоких технологий Виктория Береснева.

ИИ не способен производить атаки без оператора, но легко справляется с составлением фишинговых писем. При этом в 2025 году он получит кратный рост, а инструменты с искусственным интеллектом могут стать повсеместными для злоумышленников. Особенно для тех, кто использует атаки методами социальной инженерии, отметил генеральный директор компании Phishman Алексей Горелкин.

Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии. Однако подсчитать общее количество будет крайне сложно, — добавил эксперт.

хакер
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

С этим согласен старший преподаватель университета «Синергия» Дмитрий Штаненко. По его мнению, количество всех видов преступлений с помощью ИИ неизбежно вырастет в несколько раз. Основную опасность представляют ситуации, когда пользователи смогут «выманить» у чат-бота инструкции по созданию оружия, взрывчатых устройств, химических соединений, которые могут использоваться в террористических целях.

— Вместе с развитием технологий генеративного ИИ и GPT повышается их доступность. Для пользователя снижается порог вхождения и стоимость владения, а значит, эти технологии будут активнее применяться для мошенничества. Особенно они возрастают благодаря легкой и правдоподобной имитации человека, — сказал директор по инновациям ГК InfoWatch Андрей Арефьев.

Старший аналитик исследовательской группы Positive Technologies Екатерина Снегирева отметила, что преступники также применяют ИИ для генерации и модификации вредоносного кода. Так, в июне 2024 года была выявлена фишинговая кампания, в ходе которой широко распространился вирус AsyncRAT, а вредоносные сценарии JavaScript и VBScript были созданы с помощью компьютера. По ее данным, в этом году возрастет число утечек данных из-за повсеместного использования ИИ организациями, ведь 38% опрошенных сотрудников признали, что применяют такие инструменты без уведомления работодателя.

ноутбук
Фото: ИЗВЕСТИЯ/Сергей Лантюхов

В 2025 году специалисты F.A.C.C.T. прогнозируют увеличение роли ИИ в кибератаках, включая создание с его помощью более убедительных дипфейков, автоматизацию фишинга для массовых атак, а также совершенствование методов поиска уязвимостей в системах и приложениях. При этом эксперты не собирают статистику по таким случаям, а изучают конкретные схемы с использованием ИИ и дипфейков.

Защита от противоправного контента

Россиянам недоступны иностранные сервисы, такие как Grok или ChatGPT, их невозможно легально оплатить с карт российских банков, и ими нельзя пользоваться тем, чей IP-адрес привязан к РФ, напомнил IT-эксперт GG Tech Сергей Поморцев. Он полагает, что отечественные аналоги безопаснее с точки зрения предоставления чувствительной информации, так как находятся под контролем российских ведомств, а также регулируются законодательством о персональных данных и другими документами.

— В законодательную базу РФ уже сейчас необходимо вносить более точные и соответствующие технологическому развитию формулировки. Они должны коснуться запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих такие химические вещества, как сероводород, — сказал специалист в области уголовного права Анатолий Литвинов.

телефон
Фото: ИЗВЕСТИЯ/Павел Волков

По словам Игоря Бедерова, в РФ для защиты пользователей от противоправного контента действуют фильтры на стоп-слова, а также работает «Кодекс этики в сфере ИИ», который подписали крупные организации, среди которых «Сбер», «Сколково» и др.

Также есть предложение наделить Роскомнадзор полномочиями по проведению экспертизы для выявления контента, созданного искусственным интеллектом без маркировки, — уточнил специалист.

Как отметили в Альянсе в сфере ИИ, во время разработки нейросетевых моделей проводятся постоянные тестирования, чтобы находить максимально возможное количество запросов, которые позволяют получить неэтичный контент, и обучать искусственный интеллект не отвечать на такие запросы. При этом деятельность всех отечественных разработчиков регулируется декларацией «Об ответственной разработке и использовании сервисов в сфере генеративного ИИ».

Читайте также
Прямой эфир