Машинное обучение является мощным инструментом. Однако, статистические подходы, которые заложены в его основу по умолчанию приводят к наличию различных уязвимостей и дефектов, которые могут приводить к некорректному функционированию системы в реальных условиях. Решениям подобных проблем занимается направление доверенного машинного обучения. Важно не только изучать дефекты, уязвимости и устранять их в лабораторных условиях, но и уметь автоматизировать этот процесс в реальных крупных проектах разработки. Большие продуктовые команды разработчиков ML/ИИ систем имеют сжатые сроки разработки, проводят разработку с задействованием MLOps и DevOps решений, необходимо предоставлять удобные инструменты для автоматического тестирования разрабатываемых моделей и систем на безопасность специфичную для ML. 

Данное направление посвящено разработке инструментов для практического обеспечения доверия в ИИ/ML системах. Задачи направления включают задачи реализации и поддержке методов доверенного ИИ, оптимизация процессов тестирования, обеспечение совместимости продукта с различными MLOps решениями, разработка модулей аналитики и мониторинга поверх автоматизированных CI/CD тестов безопасности при разработке ML/ИИ систем.

Кому подойдет:
  • 2–3 курс: для тех, кто хочет познакомиться с инженерными аспектами разработки доверенных моделей ИИ, модернизируя научные наработки из уровня единичного лабораторного эксперимента в большую работающую систему;
  • 6 курс/аспирантура: для тех, кто имеет опыт работы с ИИ, доверенным ИИ и заинтересован в разработке инструментов для сертификации моделей, интеграции защитных механизмов и расширяя принципы разработки безопасного ПО спецификой разработки ML/ИИ систем.
Основные направления работы:
  • Реализация, тестирование и встраивание новых методов доверенного ИИ в систему автоматизированных проверок;
  • Разработка архитектуры и инструментов для автоматизированного тестирования и сертификации моделей;
  • Оптимизация процессов проверки и вычислений в распределенных и масштабируемых средах;
  • Разработка модулей аналитики и мониторинга поверх автоматизированных CI/CD тестов безопасности при разработке ML/ИИ систем.
Темы для дипломных работ:
  • Автоматизация проверки устойчивости моделей ИИ в распределённых пайплайнах MLOps;
  • Снижение вычислительной нагрузки проверок приватности через интеллектуальное прогнозирование утечек;
  • Автоматическая идентификация критических точек уязвимости модели к отравлению данных.
Темы для кандидатских работ:
  • Прогнозирование деградации метрик доверия моделей при непрерывном обновлении данных посредством дообучения;
  • Оптимизация проверки моделей на устойчивость с использованием повторно обучаемых критических сценариев;
  • Автоматизированная генерация рекомендаций по улучшению доверия модели на основе анализа ошибок и градиентов.

Используемые в работе технологий/библиотек:
PyTorch, Jax, TensorFlow, MLFlow, ClearML, Hydra, CI/CD инструменты, распределенные среды обучения, фреймворки Центра доверенного ИИ ИСП РАН.

Актуальность и более подробное введение в тематику направления:
Машинное обучение стало стандартным инструментом при решении задач в финансах, промышленности, медицине, логистике и государственном управлении. При этом большинство моделей строятся на статистических предпосылках и эмпирической оптимизации, что приводит к системным ограничениям. Модели уязвимы к атакам уклонения и отравлению данных, могут допускать утечки приватной информации, демонстрируют нестабильность при сдвиге распределений и не обладают формальными гарантиями корректного поведения вне обучающей выборки.

В академических исследованиях эти проблемы активно изучаются. Однако в промышленной практике возникает дополнительный уровень сложности: модели разрабатываются в рамках MLOps/DevOps-процессов, проходят через CI/CD-пайплайны, обучаются в распределённых средах и регулярно обновляются. В этих условиях проверки устойчивости, приватности и других аспектов доверия должны быть автоматизированы, масштабируемы и воспроизводимы. Существующие методы доверенного ИИ в большинстве случаев не интегрированы в такие процессы и применяются как разовые эксперименты, а не как системный элемент инфраструктуры разработки.

Ключевая задача направления устранение разрыва между методами доверенного ИИ из статей и требованиями индустриальной разработки. Речь идет не только об анализе уязвимостей, но о создании архитектур и инструментов, которые обеспечивают регулярную и автоматизированную проверку моделей на всех этапах жизненного цикла: от обучения до эксплуатации.

Работа группы сосредоточена на нескольких взаимосвязанных векторах. Во-первых, это интеграция методов доверенного ИИ в автоматизированные пайплайны. Требуется формализация проверок устойчивости и приватности таким образом, чтобы они могли выполняться при каждом обновлении модели и корректно встраиваться в существующие MLOps-стеки. Во-вторых, разрабатываются архитектуры масштабируемого тестирования и сертификации моделей, поддерживающие распределенные вычислительные среды и кластерное обучение. Это включает проектирование интерфейсов, унификацию сценариев проверки и разработку рекомендаций безопасной, доверенной разработки.

Отдельный вектор работ связан с уменьшением стоимости проверок. Методы устойчивого обучения, дифференциальной приватности, комплексные проверки на безопасность могут требовать множество повторных обучений, что существенно увеличивают вычислительную нагрузку и стоимость таких проверок. В рамках исследований изучаются подходы интеллектуального кэширования вычислений, повторного использования промежуточных результатов и адаптации защитных алгоритмов для алгоритмического ускорения проверок. 

Еще один вектор работы это системы аналитики. При выявлении несоответствия разработанной модели требованиям доверия и безопасности требуется не только сообщить о наличии проблемы, но и предоставить расширенный аналитический отчет о выявленных проблемах, а также сформировать перечень рекомендаций для их устранения.  

Для того, чтобы все это было возможным важен научный фундамент, который позволяет непротиворечиво сочетать различные методы обеспечения всестороннего доверия, этим занимается направление “Синергия и математическое моделирование доверия”.