Машинное обучение опирается на предположение, что распределение данных, на которых будет работать модель, похоже на то, что использовалось при обучении. Даже если получится соблюсти это предположение изначально, нет гарантий, что ваша модель прослужит долго. Данные динамичны, их распределения постоянно меняются, особенно если говорить о данных из интернет-медиа. Поэтому встают задачи, связанные с развитием методов детекции изменений и предсказания деградации моделей (особенно интересны постановки задач с существенно запозданием получения меток или существенным ограничением бюджета разметки), поддержания моделей в актуальном состоянии, а также разработки инфраструктуры, автоматизирующей процессы мониторинга и обновления моделей.

Современные большие модели обладают zero/few-shot capabilites, следовательно являются мощным инструментом для получения грязной разметки, дистилляции и контроля малых моделей. Большой пласт запланированных исследовательских задач на 2025 и 2026 год связан с использованием LLM в задачах непрерывного обучения для Information Extraction и других задач обработки естественного языка.

Кроме этого группа обладает компетенциями в доверенном ИИ и проводит исследования по разработке высокопереносимых методов атак на foundational модели компьютерного зрения и Visual Transformer-ы.

Командой ведутся исследования по:

  1. непрерывному обучению (lifelong/continuous learning);
  2. обнаружению аномалий и изменений в распределениях данных (out of distribution detection);
  3. выбору примеров для тестирования (test set volume optimization);
  4. применению LLM к решению и контролю решения задач IE;
  5. вопросам безопасности и доверия к большим моделям для CV.

Также ведется разработка своего MLOps решения, поддерживающего все эпаты жизненного цикла и описанные сценарии функционирования моделей в нестационарной среде.