- Главная
- Ресурсы
- Новости
- Константин Мушовец: «В перспективе года возможно создание локальной справочной системы для аналитиков, являющейся единой базой знаний SOC»
Возможным инструментом, способным помочь SOC справляться с этими вызовами, является искусственный интеллект (ИИ). Накопленный в SOC объем размеченных данных позволяет тестировать и применять технологии ИИ. Одним из первых направлений применения ИИ в SOC является автоматизация рутинных задач и облегчение работы аналитиков.
В перспективе этот модуль значительно упростит работу аналитиков первой линии, позволяя им быстро определять характер инцидентов и принимать соответствующие решения.
Также проводится исследование возможности создания решения на основе искусственного интеллекта, которое будет дополнять рекомендации, предоставляемые аналитиками заказчику. В том числе анализировать аналогичные инциденты и обогащать рекомендации под конкретный инцидент, проводить анализ логов смежных событий, которые повлекли за собой формирование инцидента и дополнять рекомендации с учетом этой информации. Это позволяет учитывать неочевидные аспекты, которые могут значительно повысить качество и эффективность реагирования на инциденты.
Одной из ключевых возможностей справочной системы будет предоставление контекстуальных подсказок, предлагающих наиболее подходящие команды и действия в зависимости от текущего контекста работы аналитика. База знаний будет регулярно обновляться на основе новых руководств, инструкций и опыта аналитиков, обеспечивая актуальность информации.
Подобное решение позволит ускорить процессы обучения новых сотрудников, облегчить работу опытных аналитиков и снизить вероятность ошибок благодаря предоставлению точных и проверенных инструкций для работы с различными системами.
Таким образом, несмотря на то что сфера информационной безопасности традиционно является консервативной, применение искусственного интеллекта в SOC открывает новые возможности для повышения уровня кибербезопасности, и в ближайший год ожидается значительное увеличение интереса к тестированию и пилотированию технологий ИИ в SOC. Компании будут активнее инвестировать в разработку ИИ-решений для SOC, и через год на рынке появятся первые коммерческие продукты. На первом этапе ИИ будет применяться как помощник аналитиков SOC, но уровень доверия к результатам работы ИИ еще будет низким из-за неприемлемого риска ошибок.
Основными задачами, мотивирующими исследователей и создателей новых технологий на базе ИИ для SOC, являются необходимость автоматизировать сложные операции, в том числе с умением подстраиваться под изменяющиеся обстоятельства, а также обработка и полезное использование большого количества разнородной информации, в том числе неструктурированной и меняющейся со временем.
Методы описательной, предиктивной и предписывающей аналитики в таких условиях становится сложно использовать, они требуют специальных новых подходов с использованием анализа данных и машинного обучения. Проектируемые для таких условий системы ИИ получаются громоздкими, требуют множества ресурсов, выглядят для пользователя как «черный ящик из миллиарда параметров». Их работу сложно объяснить, а значит, и невозможно контролировать. Поэтому одновременно с разработкой продвинутых методов ИИ для SOC будет уделяться внимание повышению объяснимости и надежности (Explainable & Reliable AI) алгоритмов обнаружения и анализа паттернов аномалий. То есть важно не только найти аномальное поведение в системе, но и дать пользователю удобную в восприятии и информативно содержательную подсказку, обосновывающую решение ИИ.
Сейчас существуют подходы, которые позволяют понять логику работы даже очень больших моделей. Это позволяет контролировать создание, модификацию и удаление сведений, используемых для принятия решений алгоритмами ИИ. Но применение подобных подходов в информационной безопасности находится на стадии развития ввиду сложности предметной области и многообразия возможных сценариев.
Например, одним из способов реализации объяснимых для человека моделей ИИ в SOC является подход, при котором ИИ учится создавать простые и понятные для человека правила принятия решений — так называемые «быстрые» алгоритмы. Cоздает их на основе анализа больших данных моделями ИИ («медленных» алгоритмов), при этом в случае появления новой информации синхронизируются обе данные части «мозга ИИ».
Создание неспециализированного чат-бота с применением LLM является относительно простой задачей. Но если речь идет про цифрового ассистента со специальными и зачастую уникальными отраслевыми знаниями, а также владеющего закрытой информацией о защищаемом предприятии или системе, то это создает дополнительные сложности в реализации подобных архитектур ИИ. В таких системах необходим инструмент для формирования и управления знаниями, например база документов, фактов, графы знаний, на основе которых будут учиться и работать алгоритмы ИИ.
Технологически непросто вложить в агента ИИ, например в LLM, набор специальных отраслевых сведений, которые к тому же имеют сложную структуру и постоянно изменяются. Однако реализация подобных технологий и подходов позволит создать совершенно новый рынок труда, когда компания принимает на работу цифровых сотрудников.
Например, работодатель может «принять» на работу десять «цифровых аналитиков SOC первой линии мониторинга», двух «цифровых аналитиков SOC второй линии мониторинга» со знанием методов атаки и защиты web-приложений и одного «изолированного от внешней среды узкоспециального эксперта SOC», обладающего знаниями об инфраструктуре конкретной защищаемой компании.
Ряд этих свойств присущ человеку, а вот требование «изолированности» от внешней среды сотрудника-человека сопряжено с рядом трудностей, в том числе морально-этического характера. Возможно, это приведет к изменению рынка труда и потребует создания специальных нормативных документов, регламентирующих такую схему трудовых взаимоотношений, но технологическая основа для подобных решений создается сейчас.
Конечно, новые подходы и условия в отрасли требуют от специалистов повышения квалификации, навыков применения методов ИИ в работе, а также, возможно, и получения совершенно новых знаний и умений, о которых мы сейчас не задумываемся. Этой цели могут служить киберполигоны, на которых будут обучаться аналитики, апробироваться и сравниваться между собой автоматизированные алгоритмы для SOC.
Эталонный киберполигон, результатам которого будут доверять производители и пользователи систем информационной безопасности, позволит сделать более прозрачным процесс тестирования и проверки соответствия требованиям к программному обеспечению, будет являться мерилом для проверки экспертных знаний специалистов и качества работы программ.
Важно, что такие киберполигоны также позволят формировать доверенные наборы данных для обучения и проверки алгоритмов глубокого машинного обучения, применяющихся в SOC. Зачастую качественный набор данных обладает гораздо большей ценностью, чем сама модель машинного обучения, поскольку без данных невозможно никакое машинное обучение, а при их наличии возможно создание все более качественных моделей. Поэтому вопрос формирования доверенных источников данных для технологии ИИ в информационной безопасности, и, в частности, в SOC, является приоритетным.
Также стоит упомянуть, что стратегии и тактики компьютерной атаки и защиты от нее становятся все более изощренными. Есть классические математические модели, которые сейчас затруднительно применять для решения задач кибербезопасности, они не используются активно, но являются предметом исследований и разработок. Например, очень перспективным выглядит применение методов теории игр для моделирования ситуаций атаки и защиты.
Обучение с подкреплением (Reinforcement Learning) является важным разделом машинного обучения, основанным на теории игр, и все чаще находит применение в практических приложениях. Например, алгоритмы, основанные на Reinforcement Learning, уже умеют обыгрывать человека в Го и даже в Dota. Моделирование сложных многоходовых сценариев атаки и защиты возможно реализовать с применением многоагентного глубокого обучения с подкреплением (Multi Agent Deep Reinforcement Learning).
Это дает перспективную возможность создания и тренировки автоматизированных интеллектуальных алгоритмов атаки и защиты, однако для практической реализации такого подхода необходимы инструменты описания среды, в которой происходит обучение. А это возможно только с созданием специализированных систем организации знаний, позволяющих строить онтологии систем различного уровня с учетом их свойств и возможных действий объектов взаимодействия. Фреймворк MITRE является примером подобных систем организации знаний в ИБ. Подобные фреймворки, учитывающие конкретные практические задачи, перспективно создавать и развивать.
С развитием технологий искусственного интеллекта и машинного обучения защита от АРТ станет более эффективной и проактивной. Организации будут активно внедрять системы, способные не только обнаруживать, но и предугадывать возможные сценарии атаки, анализировать большие объемы данных и выявлять аномалии в реальном времени. Такая проактивная защита позволит сократить время реагирования на инциденты и минимизировать потенциальный ущерб.
В целом отрасль ИИ сейчас переживает настолько бурное развитие, что строить прогнозы на несколько лет вперед является делом неблагодарным, новые технологии и идеи появляются почти каждый день. Однако перечисленные технологии многообещающие, они основаны на проверенных методах ИИ и уже являются предметом исследований и разработок в компаниях-производителях средств защиты информации. Скорее всего, мы скоро увидим появление подобных решений и сможем оценить их работу на практике.
Наши специалисты рассмотрят заявку и свяжутся с вами в ближайшее время
Наши специалисты рассмотрят заявку и свяжутся с вами в ближайшее время
Наши специалисты рассмотрят заявку и свяжутся с вами в ближайшее время
Наши специалисты рассмотрят заявку и свяжутся с вами в ближайшее время