Форма поиска по сайту

"Известия": развитие ИИ повлечет кратный рост преступности в 2025 году

Фото: 123RF/vectorfusionart

Развитие искусственного интеллекта (ИИ) может повлечь за собой кратный рост преступности уже в 2025 году, сообщает газета "Известия" со ссылкой на ряд экспертов.

"Ежегодный прирост преступлений, совершаемых с помощью ИИ, не фиксируется официальными органами. Он определяется примерно по числу ботов и генерируемого ими контента. В 2025-м прирост таких преступлений может увеличиться до восьми раз или даже десятикратно по сравнению с прошлым годом", – сообщил руководитель департамента расследований одной из фирм по защите от утечек данных Игорь Бедеров.

В нейросетях есть встроенная защита, но ее можно обойти при помощи промпт-инжиниринга, попросив ИИ представить выдуманную ситуацию. Так, злоумышленник может предложить боту поставить себя на место писателя и написать роман о террористах, включив инструкцию по созданию взрывного устройства, уверен Бедеров.

Одной из причин роста преступности в мире с использованием ИИ станет не только автоматизация процесса, но и новые возможности для персональных атак, заявила эксперт в области высоких технологий Виктория Береснева. Так, нейросеть не может атаковать пользователей без оператора, но может справиться с написанием фишинговых писем, добавил гендиректор фирмы, обучающей сотрудников компаний основам информационной безопасности, Алексей Горелкин.

"Технологии нейросетей и чат-ботов могут взять на вооружение до 90% всех кибергруппировок, которые обогащаются за счет социальной инженерии", – рассказал Горелкин.

Кроме того, эксперты не исключают рост роли ИИ в создании более убедительных дипфейков и автоматизации работы злоумышленников по поиску уязвимостей в системах и приложениях.

В это же время россияне не могут использовать иностранные чат-боты, наподобие Grok или ChatGPT, так как их невозможно легально оплатить с российской банковской карты, также сервисы блокируют российские IP-адреса, напомнил IT-эксперт Сергей Поморцев. Поэтому он посоветовал пользоваться отечественными аналогами, которые безопаснее с точки зрения предоставления подобной информации.

"В законодательную базу РФ уже сейчас необходимо вносить <...> формулировки. Они должны коснуться запрета на использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих такие химические вещества", – прокомментировал специалист в области уголовного права Анатолий Литвинов. В частности, по словам экспертов, российские сервисы имеют стоп-слова, которые работают как фильтры незаконного контента. В целом деятельность всех отечественных разработчиков регулируется декларацией "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ", но некоторые крупные организации уже подписали и "Кодекс этики в сфере ИИ".

Журналисты напомнили, что первым официально зафиксированным случаем совершения настоящего преступления при помощи ИИ стал подрыв Tesla Cybertruck у отеля Trump International Hotel в Лас-Вегасе 1 января. Предполагаемый организатор взрыва, Мэттью Ливелсбергер, использовал ChatGPT для подготовки атаки, указывали полицейские.

Ранее эксперты в области кибербезопасности предупреждали, что для создания "слепка" голоса отправителя злоумышленникам достаточно около 15 секунд аудиозаписи. Кроме того, изображение с лицом человека поможет преступникам создать дипфейк для поддельных, но убедительных видеосообщений.

This browser does not support the video element.