Финансовый сектор России в 2026 году отвечает на рост каскадных и экосистемных кибератак переходом к модели киберустойчивости — способности сохранять и быстро восстанавливать критически важные процессы даже при реализованных киберугрозах. В то же время ИИ, с одной стороны, способствует ускорению обнаружения и реагирования на инциденты, с другой — создает дополнительные риски. К такому выводу пришли авторы совместного исследования Positive Technologies и Ассоциации ФинТех.
Positive Technologies и Ассоциация ФинТех (АФТ) при участии специалистов по информационной безопасности банковского сектора подготовили исследование «Тренды кибербезопасности финансовой отрасли в 2026 году». Исследование показало, что в последнее время значительно растет число каскадных комбинированных атак на экосистемы организаций. Злоумышленники все чаще атакуют не головные офисы банков, а их менее защищенных партнеров — ИТ-подрядчиков и дочерние организации. Поэтому компании переходят к централизованной модели информационной безопасности: внедрению единых стандартов для всех участников экосистемы, созданию корпоративных центров киберустойчивости.
При этом в условиях растущего числа киберугроз участники рынка все больше отдают предпочтение измеримой модели, в которой важно не просто наличие средств защиты, а их реальная эффективность и способность снижать ущерб. Чтобы измерить эффективность защиты, оценить реальную устойчивость инфраструктуры и работу SOC, организации выбирают разные способы: проведение кибериспытаний, пентестов и киберучений, выход на площадки багбаунти. Результаты подобных проверок позволяют определить возможные векторы атак и посчитать такие показатели, как time to attack (TTA) и time to response (TTR).
Искусственный интеллект при этом стал в некотором роде противоречивым трендом. Технологии искусственного интеллекта повышают эффективность как атакующих, так и защитников. С одной стороны, ИИ становится ключевым фактором киберустойчивости и драйвером трансформации кибербезопасности. Использование искусственного интеллекта для защиты способствует автоматизации обнаружения и блокировки подозрительной активности, снижает нагрузку на команды кибербезопасности и повышает скорость реагирования на инциденты. С другой стороны, ИИ стал драйвером появления новых классов рисков. Применение искусственного интеллекта значительно расширило ландшафт киберугроз: злоумышленники получили возможность быстро автоматизировать и масштабировать атаки. Кроме этого, существует проблема «теневого ИИ» (shadow AI) внутри организаций. Сотрудники массово используют внешние ИИ-сервисы без согласования с ИТ-отделами, выгружая туда чувствительные данные.




