Positive Technologies опубликовала подробный отчет о возможностях и перспективах применения хакерами технологий искусственного интеллекта. По прогнозам экспертов компании, в будущем киберпреступники смогут использовать ИИ во всех тактиках из матрицы MITRE ATT&CK1, а также в 59% ее техник.
Исследователи отмечают, что раньше ИИ использовался злоумышленниками лишь в 5% всех техник MITRE ATT&CK, а еще в 17% была доказана возможность его применения. Однако в будущем эти числа могут существенно увеличиться из-за распространения легальных инструментов с ИИ. Эксперты напоминают, что в течение года после выхода ChatGPT4 количество фишинговых атак выросло на 1265%, и ожидают, что ИИ продолжит усиливать арсенал киберпреступников.
Аналитики считают, что в условиях интенсивного развития таких технологий, разработчики языковых моделей не всегда уделяют достаточное внимание защите LLM2 от генерации вредоносного текста, кода или инструкций, что может повлечь за собой всплеск киберпреступной активности. Так, например, хакеры уже используют ИИ для создания скриптов и проверки кода при подготовке ВПО. Кроме того, обращение к большим языковым моделям помогает начинающим киберпреступникам, которые не обладают серьезными навыками и ресурсами, ускорить подготовку к атаке и упростить ее проведение. Этот аспект также влияет на рост числа инцидентов с применением ИИ. Например, злоумышленник может уточнить, не упустил ли он чего-то в своем плане проведения атаки, или изучить различные подходы к реализации определенного шага.
Среди других факторов, которые влияют на более активное применение искусственного интеллекта в атаках, эксперты выделяют слабую защищенность развивающихся стран, где даже несовершенные инструменты с такими технологиями могут успешно использоваться. Кроме того, в этом направлении киберпреступников подталкивает сама гонка вооружений атакующих и защитников.