Posts by Collection

research

О лаборатории нейросетевых технологий и ИИ

Published:

Машинное обучение как часть направления искусственного интеллекта является одним из наиболее перспективных и динамично развивающихся областей исследований, результаты которого уже сегодня демонстрируют эффективность в самых различных прикладных областях: в медицине, биологии, робототехнике, в обработке больших объемов данных, в создании автономных систем и устройств, в распознавании речи, поисковых системах и т.д.

Интерпретация моделей выживаемости

Published:

Завершен первый цикл работ по разработке новых методов интерпретации моделей машинного обучения для анализа выживаемости (survival analysis), который случайно начался в январе этого года (хотя ничего случайного не бывает).

Модели внимания (attention mechanism) на случайных лесах и градиентном бустинге

Published:

Модель внимания можно рассматривать как инструмент, с помощью которого нейронная сеть может автоматически определять относительную важность признаков или примеров, взвешивать их для повышения точности классификации или регрессии. Многие приложения механизма внимания сосредоточены на обработке естественного языка (NLP), в области компьютерного зрения. Модели внимания считаются важным компонентом нейронных архитектур. В то же время, когда возникает необходимость обрабатывать табличные данные, с нейронными сетями могут конкурировать такие модели как случайный лес (СЛ) и градиентный бустинг. Поэтому были разработаны новые модели случайного леса на основе механизма внимания (ABRF – Attention-Based Random Forests), которые можно рассматривать как эффективную альтернативу нейронным сетям в ряде приложений, где используются табличные данные. Основная идея предлагаемых моделей ABRF состоит в том, чтобы определенным образом присвоить веса деревьям решений, примерам и признакам. Веса внимания в ABRF имеют обучаемые параметры и зависят от того, насколько далеко пример, попадающий в лист, находится от примеров, которые попали в тот же лист. Результирующее предсказание ABRF вычисляется как взвешенная сумма предсказаний, полученных с помощью деревьев решений. Идею моделей внимания можно рассмотреть с точки зрения известной модели регрессии Надарая-Уотсона. Наша идея с точки зрения исходного механизма внимания состоит в том, чтобы рассматривать каждое предсказание дерева решений как значение (value), среднее значение примеров, попавших в соответствующий лист из обучающей выборки, как ключ (key), тестовый пример как запрос (query). По сути, мы комбинируем ядерную регрессионную модель Надарая-Уотсона и СЛ. В зависимости от способа определения весов и способа их обучения мы предлагаем различные модификации моделей ABRF. Одна из основных, ε-ABRF, предполагает, что веса внимания обучаются с использованием известной модели ε-засорения Хьюбера. Обучение весов внимания осуществляется решением задачи квадратичного или линейного программирования. Другая модификация, ε-σ-ABRF, расширяет набор обучаемых параметров весов внимания. Для этой модели используется метод градиентного спуска для обучения весов внимания. Реализованы идеи, лежащие в основе ABRF к модели градиентного бустинга (GBM), что привело к совершенно новой модели градиентного бустинга на основе внимания, названный AGBoost. Еще одним обобщением ABRF, Att-RSF, является применение модели внимания к случайному лесу выживаемости. Случайный лес выживаемости обучается на цензурированных данных, когда для одних объектов интересующее нас событие, например смерть пациента, наблюдается и известно время его наступления, а для других событий не наблюдается и известен только момент времени того, что событие еще не наступило. Эти и другие модификации ABRF приведены в следующих работах:

  1. Utkin L.V., Konstantinov A.V. Attention-based random forest and contamination model // Neural Networks. vol. 154, pp. 346–359, 2022. DOI: 10.1016/j.neunet.2022.07.029
  2. Utkin L. and Konstantinov A. Random Survival Forests Incorporated by the Nadaraya-Watson Regression // Informatics and Automation, vol. 21(5), 851-880, 2022. DOI: 10.15622/ia.21.5.1
  3. Utkin L.V., Ageev A.Y., Konstantinov A.V., Muliukha V.A. Improved Anomaly Detection by Using the Attention-Based Isolation Forest // Algorithms. 2023; 16(1):19. DOI: 10.3390/a16010019
  4. Konstantinov A.V., Utkin L.V., Kirpichenko S.R., Kozlov B.V., Ageev A.Y. Random Forests with Attentive Nodes // Procedia Computer Science, vol. 212, pp. 454-463, 2022. DOI: 10.1016/j.procs.2022.11.029
  5. Konstantinov A., Utkin L. and Kirpichenko S., AGBoost: Attention-based Modification of Gradient Boosting Machine // 2022 31st Conference of Open Innovations Association (FRUCT), 2022, pp. 96-101, DOI: 10.23919/FRUCT54823.2022.9770928

teaching

Машинное обучение

Лекции по курсу, СПбПУ, 2015

  1. Общее введение.
  2. Введение.
  3. Наивный байесовский классификатор и метод ближайших соседей.
  4. Метод опорных векторов.
  5. Деревья решений.
  6. Нейронные сети.
  7. Методы обучения без учителя.
  8. Композиционные методы машинного обучения.
  9. Регрессионные модели.
  10. Автокодеры.
  11. Передача обучения и адаптация данных (Transfer Learning).
  12. Визуализация данных с использованием tSNE.
  13. Обучение с подкреплением.
  14. Порождающие модели: вариационный автокодер.
  15. Порождающие модели: GAN.
  16. Порождающие модели: Диффузионные модели.
  17. Глубокое обучение: Cверточные сети.
  18. Глубокое обучение: Архитектуры сверточных сетей.
  19. Сеть Хопфилда, ограниченная машина Больцмана, рекуррентная нейронная сеть.
  20. Сегментация изображений.
  21. Детекция изображений.
  22. Обучение на одном примере (One-shot learning).
  23. Функции потерь и показатели качества моделей.
  24. Неопределенность и калибровка.
  25. Объяснительный интеллект (Explainable AI).
  26. 7 приемов для более эффективного обучения нейронных сетей.
  27. Деформирующий автокодер и распутывание (Disentangling).
  28. Distillation and Batch Normalization.
  29. Модели внимания и трансформеры.
  30. Графовые нейронные сети.