Positive Technologies
Новости

Positive Technologies: хакеры способны использовать ИИ более чем в половине техник кибератак

Positive Technologies опубликовала подробный отчет о возможностях и перспективах применения хакерами технологий искусственного интеллекта. По прогнозам экспертов компании, в будущем киберпреступники смогут использовать ИИ во всех тактиках из матрицы MITRE ATT&CK1, а также в 59% ее техник.

Исследователи отмечают, что раньше ИИ использовался злоумышленниками лишь в 5% всех техник MITRE ATT&CK, а еще в 17% была доказана возможность его применения. Однако в будущем эти числа могут существенно увеличиться из-за распространения легальных инструментов с ИИ. Эксперты напоминают, что в течение года после выхода ChatGPT4 количество фишинговых атак выросло на 1265%, и ожидают, что ИИ продолжит усиливать арсенал киберпреступников.

Аналитики считают, что в условиях интенсивного развития таких технологий, разработчики языковых моделей не всегда уделяют достаточное внимание защите LLM2 от генерации вредоносного текста, кода или инструкций, что может повлечь за собой всплеск киберпреступной активности. Так, например, хакеры уже используют ИИ для создания скриптов и проверки кода при подготовке ВПО. Кроме того, обращение к большим языковым моделям помогает начинающим киберпреступникам, которые не обладают серьезными навыками и ресурсами, ускорить подготовку к атаке и упростить ее проведение. Этот аспект также влияет на рост числа инцидентов с применением ИИ. Например, злоумышленник может уточнить, не упустил ли он чего-то в своем плане проведения атаки, или изучить различные подходы к реализации определенного шага.

Среди других факторов, которые влияют на более активное применение искусственного интеллекта в атаках, эксперты выделяют слабую защищенность развивающихся стран, где даже несовершенные инструменты с такими технологиями могут успешно использоваться. Кроме того, в этом направлении киберпреступников подталкивает сама гонка вооружений атакующих и защитников.

«Высокий потенциал искусственного интеллекта в кибератаках не повод для паники. Нужно реалистично смотреть в будущее, изучать возможности новых технологий и системно заниматься обеспечением результативной кибербезопасности. Логичная контрмера атакующему ИИ — более эффективный ИИ в защите, который поможет преодолеть нехватку специалистов для защиты от кибератак через автоматизацию многих процессов. В ответ на растущую активность злоумышленников, появился автопилот MaxPatrol O2, способный обнаружи...

Роман Резников
Роман РезниковАналитик исследовательской группы департамента аналитики Positive Technologies

Эксперты отмечают, что с помощью ИИ уже можно автоматически генерировать фрагменты вредоносного кода, фишинговые сообщения и дипфейки, автоматизировать отдельные этапы кибератак, в том числе управление ботнетом. Однако развить и создать новые инструменты с искусственным интеллектом для автоматизации и масштабирования кибератак смогут только опытные злоумышленники. В ближайшем будущем аналитики ожидают появления отдельных модулей для решения конкретных задач в уже известных сценариях атак. С течением времени киберпреступные инструменты и модули с ИИ будут объединяться в кластеры для автоматизации этапов атаки, пока не смогут покрыть большую их часть. Если злоумышленникам удастся автоматизировать проведение атак на выбранную цель, следующим шагом может стать расширение «полномочий» искусственного интеллекта — самостоятельный поиск целей.

Для обеспечения личной и корпоративной кибербезопасности в таких условиях эксперты Positive Technologies рекомендуют придерживаться общих правил, а также призывают обращать особое внимание на процессы управления уязвимостями и принимать участие в программах багбаунти. Специалисты отмечают, что автоматизация эксплуатации уязвимостей с помощью машинного обучения позволит киберпреступникам быстрее и чаще атаковать организации. Поэтому необходимо оперативно закрывать найденные бреши, особенно в случае наличия общедоступных эксплойтов. В свою очередь, чтобы быть на шаг впереди злоумышленников, вендоры добавляют технологии машинного обучения в свои продукты: например, чтобы присваивать определенную оценку риска событиям ИБ и обнаруживать целенаправленные кибератаки (в том числе те, в которых эксплуатируются уязвимости нулевого дня), в MaxPatrol SIEM используется компонент Behavioral Anomaly Detection (BAD). Кроме того, технологии ИИ применяются для точного определения атак класса shell upload в PT Application Firewall, для умного поиска информации по активам и создания распространенных текстовых запросов — в MaxPatrol VM, для создания пользовательских правил профилирования и обнаружения приложений в шифрованном трафике — в PT NAD, для качественного детекта неизвестного и аномального вредоносного ПО — в PT Sandbox.

  1. Матрица MITRE ATT&CK — это база знаний, которую разработала и поддерживает корпорация MITRE на основе анализа реальных APT-атак. Матрица описывает тактики и техники, с помощью которых злоумышленники атакуют корпоративную инфраструктуру.
  2. Большие языковые модели (англ. large language model, LLM) — это системы машинного обучения, способные обрабатывать информацию на естественном языке с помощью искусственных нейронных сетей.