Машинное обучение является мощным инструментом. Однако, статистические подходы, которые заложены в его основу по умолчанию приводят к наличию различных уязвимостей и дефектов, которые могут приводить к некорректному функционированию системы в реальных условиях. Решениям подобных проблем занимается направление доверенного машинного обучения. На данный момент классический подход состоит в изолированном рассмотрении каждой из проблем.  

Это направление посвящено изучению способов одновременного обеспечения нескольких аспектов доверия в ИИ-системах: безопасности, защищенности, приватности, интерпретируемости, этичности и др. Аспекты доверия взаимосвязаны и могут усиливать или ослаблять друг друга. Исследования направлены на выявление оптимальных комбинаций методов доверия, экспериментальную оценку синергий и диссинергий, а также построение математических моделей достижимых комбинаций.

Кому подойдет:
  • Тем, кого интересуют междисциплинарные исследования и кто хочет получить опыт на стыке теории и практики ИИ;
  • Тем, кто хочет решать фундаментальные задачи, необходимые для внедрения ИИ в критическую инфраструктуру (медицину, финансы, промышленность и др.);
  • Тем, кто ищет баланс между теоретической и прикладной составляющими исследований.
Основные направления работы:
НаправленияОписание
1.Экспериментальное изучение синергии и дисинергии аспектов доверия● Создание бенчмарков и стандартных сценариев проверки комбинаций методов доверия;
● Выявление скрытых уязвимостей при совместном применении методов.
2.Математическое исследование конфликтов и достижимых комбинаций доверия● Формализация многопараметрической оптимизации доверия;
● Моделирование границ достижимости различных аспектов доверия.
Примеры тем для дипломных работ

Экспериментальное направление:

  • Исследование различных стратегий распределения приватного бюджета между слоями нейронных сетей.
  • Динамический анализ приватности модели с учетом изменения конфиденциальности данных в процессе обучения и дообучения.
  • Разработка методов сниженной детализации интерпретации, уменьшающих степень утечки приватной информации без потери пользовательской информативности.

Математическое направление:

  • Математическая модель компромисса между точностью и приватностью в методах дифференциальной приватности.
  • Разработка функции потерь, позволяющая обучить модель со свойством выявления данных вне обучающей выборки.
  • Анализ достижимости одновременного выполнения более двух аспектов доверия в простых нейронных сетях (линейные слои, малые размерности).
Примеры тем для кандидатских работ

Экспериментальное направление:

  • Разработка оптимальной стратегии распределения бюджета приватности для модели ML с длительным жизненным циклом.
  • Одновременное противодействие атакам отравления и уклонения.
  • Разработка методов обучения интерпретируемых моделей, не приводящих к повышению уязвимости к атакам уклонения.

Математическое направление:

  • Математическая теория конфликтов аспектов доверия в ИИ-системах.
  • Многопараметрическая оптимизация нейронных сетей при многокомпонентной функции потери.
  • Модели и методы количественной оценки совместимости аспектов доверия.

Используемые в работе технологий/библиотек:
PyTorch, Torchvision, PyTorch Geometric, Scikit-learn, NumPy, Matplotlib, ONNX, ART, фреймворки Центра доверенного ИИ ИСП РАН.

Актуальность и более подробное введение в тематику направления:
Сегодня ИИ используется во многих сферах: медицина, финансы, промышленность, беспилотные устройства. Даже простая модель на PyTorch может принимать решения, которые влияют на здоровье человека или безопасность машин. Поэтому важно, чтобы модели были:

  • Корректны — не давали неожиданных ошибок из-за естественных процессов во время эксплуатации систем;
  • Защищенными — не поддавались злонамеренным атакам;
  • Приватными — не раскрывали персональные данные;
  • Интерпретируемыми — чтобы специалисты могли понять, почему модель приняла то или иное решение;
  • Этичными — чтобы решения модели не были предвзятыми или дискриминирующими.

В научной среде классический подход в доверенном ИИ традиционно рассматривают каждый аспект доверия изолированно. Фиксируется узкая постановка задачи и решается в выбранных ограничениях. Ключевая проблема в том, что для реальной системы необходимо, чтобы система ИИ удовлетворяла сразу большой группе аспектов доверенного ИИ. 

Самым простым решением является простое совмещение методов обеспечения каждого аспекта при разработке в рамках единого процесса разработки системы, но на практике оказывается, что улучшение одного аспекта доверия иногда снижает другой. Например, объяснимость модели может сделать её более уязвимой к атакам. 

В этом направлении исследуется и формируется научный фундамент того, как сочетать и обеспечивать сразу несколько аспектов одновременно. Это требует как эмпирических исследований по выявлению противоречий, так и формировании математических теории для формализации конфликтов.

После эмпирической и математической формализации конфликта следующая задача это разработка новых методов и методик доверенного ИИ, которые являются основой для создании автоматизированных систем тестирования и разработки доверенных систем ИИ, которой занимается направление “Разработка инструментов и оптимизация проверок моделей ИИ”