Количество дел об использовании ИИ в судах выросло на 40%
Мошенники прибегают к дипфейкам, а автолюбители оспаривают неправильные штрафы
14.03.2025
| Известия
Число дел в российских судах, в которых фигурируют правонарушения с использованием искусственного интеллекта или его ошибки, выросло почти в полтора раза за последние четыре года, сообщают эксперты. Злоумышленники при помощи ИИ подделывают чужой контент, обманывают жертв, используя дипфейки, синтезируют голоса родственников жертвы и берут кредиты в банках. А граждане пытаются оспаривать решения властей и кредитных организаций, принятых с помощью ИИ, жалуясь на ошибки чат-ботов и неверно начисленные автоматизированными системами штрафы.
Как мошенники используют ИИ
За последние четыре года число дел, в которых фигурируют правонарушения с использованием искусственного интеллекта, выросло на 39%, сообщили «Известиям» в исследовательском центре «Аналитика. Бизнес. Право». В 2021 году число таких дел составляло всего 112, а к 2024 году их количество выросло до 292. Рост в прошлом году по сравнению с 2023-м рост составил 20,1%.
Лидерами по количеству рассмотренных дел стали Москва и Московская область. На втором и третьем местах: Санкт-Петербург и Свердловская область. Далее следуют Новосибирск и Краснодар.
В целом пока количество дел в статистике правонарушений невелико, но их может быть гораздо больше, рассказала «Известиям» автор исследования и директор центра Венера Шайдуллина.
— Законодательное регулирование ИИ только формируется, поэтому многие споры могут просто не называть искусственный интеллект как способ совершения преступлений, — сказала она. — Актуальная статистика, вероятно, показывает лишь верхушку айсберга, так как многие случаи использования ИИ в противоправных целях могут оставаться невыявленными или квалифицироваться без упоминания его роли.
Эксперт пояснила, что методология исследования учитывала дела, где искусственный интеллект упоминается в судебных актах. И множество киберпреступлений и правонарушений сейчас квалифицируются как традиционные составы дел о мошенничестве или, к примеру, краже.
Какие схемы используют мошенники
По словам экспертов, часто совершаются мошеннические действия с использованием аудио- и видеофейков, имитирующие доверенного собеседника. Например, летом 2024 года мошенники создали дипфейк мэра Москвы Сергея Собянина. И с его помощью пытались обмануть руководителей московских театров.
С этим согласился и руководитель направления по развитию стратегии информационной безопасности IT-интегратора «Телеком биржа» Александр Блезнеков.
— Мошенники используют нейросети даже не для новых схем обмана, а для того, чтобы проапгрейдить старые. Например, используют LLM для написания большого числа разных фишинговых писем, — сказал он. — ИИ позволяет быстро сформировать убедительное сообщение, чтобы условный сотрудник организации кликнул на ссылку или открыл файл.
Менее заметны, но гораздо более успешны нейросети в подборе паролей и в поиске уязвимостей. Уровень развития технологий искусственного интеллекта таков, что уже сейчас ИИ может заменить специалиста по кибербезопасности средней руки, отметил директор по продуктам Servicepipe Михаил Хлебунов.
«И если можно сформировать скрипт или комплект скриптов для тестирования уязвимостей, например, выявления ошибок в коде, то точно так же возможно искать слабые места и для атаки. Несколько лет назад всплеск простеньких атак приходился на период школьных каникул, а сейчас в руках юных дарований появился инструмент для более быстрого выявления уязвимостей в системах и проверки их на прочность».
Михаил Хлебунов
Директор по продуктам Servicepipe
Один из наиболее опасных видов мошенничества — использование дипфейков и фейковых новостей, отмечают эксперты.
В се потому, что такие фальшивые новости выглядят очень убедительно благодаря использованию фотографий известных людей и якобы достоверной информации, которая на самом деле не соответствует действительности.
ИИ позволяет создать и точную копию голоса любого человека, основываясь на нескольких образцах его речи. Этот метод особенно опасен при телефонном мошенничестве, когда злоумышленники имитируют голоса близких людей жертвы, чтобы убедить ее передать конфиденциальную информацию или совершить определенные действия.
Если мошенники подошли к вопросу серьезно, то распознать их можно только по нехарактерному поведению говорящего, добавил Александр Блезнеков.
— А номер можно подменить с помощью специальной программы и он на телефоне будет определяться как знакомый, можно создать и похожий аккаунт мессенджера, — сказал он.
Также ИИ всё чаще применяется для взлома систем безопасности, автоматизированных атак на банковские счета и персональные данные, напомнила управляющий партнер аналитического агентства «ВМТ Консалт» Екатерина Косарева.
— Расследование таких преступлений осложнено несколькими факторами. Во-первых, техническая сложность — следователям требуется глубокое понимание алгоритмов машинного обучения, — отметила эксперт. — Во-вторых, проблема с идентификацией виновных — алгоритмы могут действовать автономно, а преступники часто используют подменные серверы и анонимные сети. В-третьих, вопрос доказательств — суду нужно разбираться, как именно работал ИИ и был ли умысел у оператора.
Еще одна серьезная проблема по мнению экспертов — кибератаки, направленные на сбор и обработку больших объемов личных данных пользователей. Компании прилагают значительные усилия для защиты персональных данных своих клиентов, но хакеры продолжают находить способы обойти эти меры, нередко прибегая к помощи ИИ-алгоритмов.
Примером могут служить целевые атаки на организации и учебные заведения с низким уровнем защищенности персональных данных, в результате которых похищается информация о клиентах или студентах. Эта информация впоследствии может быть использована для мошеннических операций, таких как кража идентичности или вымогательство.
К 2030-му году доля дел по защите прав на интеллектуальную собственность возрастет до 45–50%, полагают аналитики. Число административных правонарушений может достичь 25–30% за счет расширения автоматизированных систем контроля.
Доля уголовных дел вырастет до 15–18% из-за роста киберпреступности, прогнозируют авторы исследования. Сегодня она составляет 12% от общего числа дел.

Известия
Информационный портал газеты Известия