Развитие систем искусственного интеллекта стремительно отражается и на ландшафте киберугроз; 2025 год ознаменовал собой переход от теоретических разговоров о «кибер-ИИ» к реальным примерам его боевого применения. С одной стороны, киберпреступники начали активно использовать генеративные модели и большие языковые модели (LLM) для усиления атак. Появились первые образцы вредоносного ПО, созданного (частично или полностью) с помощью ИИ. Так, специалисты обнаружили вредоносы нового типа, получившие названия PromptLock и LAMEHUG. PromptLock позиционируется как один из первых вымогателей, генерирующих вредоносные нагрузки на лету с помощью нейросети: это делает его более непредсказуемым для традиционных антивирусов, поскольку каждый экземпляр шифровальщика может отличаться. А вредонос LAMEHUG, согласно имеющимся данным, был замечен в арсенале известной хакерской группировки и представляет собой LLM-вирус, способный менять свой код и поведение в зависимости от окружающей среды, что затрудняет его обнаружение классическими сигнатурными методами. По сути, кибератаки вступают в фазу, когда ИИ применяется для обхода защитных механизмов: генерация фишинговых писем на безупречно грамотном языке, подделка голоса или изображения для социальной инженерии, автоматический подбор эксплойтов, оркестрация целой хакерской кампании — все это уже не фантастика, а повседневность. В дарквебе появляются ассистенты для хакеров — боты, которые могут написать скрипт или найти уязвимость по запросу. Примеры вроде PromptLock демонстрируют, что впереди эра самоприспосабливающегося вредоносного ПО, создаваемого не людьми, а алгоритмами.
С другой стороны, искусственный интеллект стал мощным инструментом и для защитников; 2025 год принес множество новинок на рынке кибербезопасности с приставкой «AI». Почти каждый производитель включил в свои продукты модули машинного обучения: от поведенческого анализа трафика до интеллектуальных помощников для аналитиков. Современные системы мониторинга (SIEM/SOC) теперь используют ИИ, чтобы обнаруживать аномалии в потоках событий, быстро выявляя подозрительные отклонения, которые раньше могли затеряться в шуме. Появились решения, где большая языковая модель встроена в инструментарий безопасности: она может автоматически расследовать инцидент, суммируя тысячи логов в человекопонятный отчет, или давать советы оператору, как реагировать на ту или иную угрозу. Например, некоторые компании представили ИИ-ассистентов для центров мониторинга, которые по запросу на естественном языке («Что произошло этой ночью в сети отдела разработки?») выдают сводку ключевых событий и потенциальных инцидентов. Это помогает ускорить реагирование и требует меньше ручного труда. Также ИИ используется для проактивной работы — автоматических пентестов и поиска уязвимостей (алгоритмы сами пытаются взломать систему, указывая на слабые места), для моделирования действий злоумышленника (так называемые атаки с помощью цифровых двойников) и даже для того, чтобы научить персонал распознавать фальшивые письма и звонки, сгенерированные нейросетью.
Однако важно отметить, что бурное внедрение ИИ в киберпространстве выявило и ряд ограничений и проблем. Во-первых, качество современных ИИ-моделей при всей их мощи далеко не безупречно: они склонны к ошибкам, могут галлюцинировать (генерировать правдоподобную, но ложную информацию) и их трудно полностью контролировать. Это создает риски при промышленном применении; например, алгоритм, помогающий фильтровать угрозы, может пропустить нестандартную атаку или наоборот выдать множество ложных срабатываний, если столкнется с ситуацией вне пределов обучающих данных. Во-вторых, широкое распространение ИИ-инструментов поставило вопрос регулирования на международном уровне. США в 2025 году ввели ряд запретов и ограничений на экспорт передовых ИИ-технологий и вычислительных чипов для них в ряд стран (в первую очередь в Китай и другие потенциально недружественные государства, включая и Россию). Под санкциями оказались высокопроизводительные графические процессоры и комплексы, необходимые для обучения больших моделей, а также сами алгоритмы, которые американские власти сочли критически важными. Эта политика технологического протекционизма направлена на то, чтобы не допустить попадания самых совершенных ИИ-разработок в руки противников, будь то иностранные армии или кибергруппировки. В результате глобально может возникнуть дисбаланс: у одних стран и компаний будет доступ к передовому ИИ для защиты, у других — нет, что потенциально повысит уязвимость менее развитых в цифровом плане государств. На прошедшей в ноябре конференции AI Journey была высказана мысль, что в России должен быть ограничен доступ к недоверенным (читай «зарубежным») моделям и обучающим выборкам ИИ, что может означать, что в 2026 году будет заблокирован доступ к Hugging Face, Kaggle и другим популярным ресурсам для ИИ-специалистов.
Кроме того, применению ИИ в кибербезопасности мешает и дефицит данных: для обучения эффективных моделей нужны огромные массивы актуальной информации об атаках, которые не всегда доступны (компании не спешат делиться инцидентами) либо очень быстро устаревают из-за постоянной эволюции тактик хакеров. Наконец, возникает этическая дилемма: как отличить «хороший» ИИ от «плохого»? Ведь та же модель, которая помогает ловить злоумышленников, может быть перепрофилирована ими для атаки. В 2026 году эта гонка искусственных интеллектов по обе стороны баррикад лишь ускорится. Вероятно, появятся первые нормативные акты, пытающиеся ограничить вооружение ИИ (например, запретят открыто публиковать исходные коды продвинутых киберинструментов на основе ИИ). Крупные IT-корпорации будут совершенствовать средства обнаружения ИИ-угроз (например, инструменты для выявления текста или кода, сгенерированного машиной). Вместе с тем можно ожидать и новых прорывных атак, где автономные агенты-хакеры под управлением нейросети будут противостоять автономным же охранникам-алгоритмам. Мир кибербезопасности вступает в эпоху, когда скорость и интеллект машин станут решающим фактором, а человеку отводится роль стратега и судьи, направляющего ИИ в нужное русло.