Описание
Машинное обучение [2022]
МГУ (Высшая Школа Управления и Инноваций филиал МГУ имени М. В. Ломоносова)
Цель программы – ознакомить слушателей с основами машинного обучения.
По результатам программы слушатели будут обладать:
1. Знанием принципов машинного обучения
2. Способностью проводить самостоятельный подбор классификаторов под конкретную задачу.
3. Знанием механизмов линейной и логистической регрессий.
4. Знанием методов машинного обучения без учителя.
5. Способностью разработать собственную модель машинного обучения под конкретную прикладную задачу.
В результате освоения дисциплины обучающийся должен:
1. Знать: принципы построения векторных признаков, решающих правил и классификации, нейронных сетей;
2. Уметь: выбирать подходящий классификатор в зависимости от решаемой задачи, выбирать набор признаков для классификации и проводить предварительную обработку данных, применять алгоритмы машинного обучения и построения классификатора по выборке;
3. Владеть: навыками выбора, построения, обучения и использования основных классификаторов и моделей машинного обучения при решении прикладных задач
Раздел 1 – Введение. Примеры задач. Логические методы: решающие деревья и решающие леса.
- Логические методы: классификация объектов на основе простых правил.
- Интерпретация и реализация.
- Объединение в композицию.
- Решающие деревья.
- Случайный лес.
Раздел 2 – Метрические методы классификации. Линейные методы, стохастический градиент.
- Метрические методы.
- Классификация на основе сходства.
- Расстояние между объектами.
- Метрика.
- Метод k ближайших соседей.
- Обобщение на задачи регрессии с помощью ядерного сглаживания.
- Линейные модели.
- Масштабируемость.
- Применимость к большим данным Метод стохастического градиента.
- Применимость для настойки линейных классификаторов.
- Понятие регуляризации.
- Особенности работы с линейными методами.
- Метрики качества классификации
Раздел 3 – Метод опорных векторов (SVM). Логистическая регрессия. Метрики качества классификации.
- Линейные модели.
- Масштабируемость.
- Применимость к большим данным Метод стохастического градиента.
- Применимость для настойки линейных классификаторов.
- Понятие регуляризации.
- Особенности работы с линейными методами.
Раздел 4 – Линейная регрессия. Понижение размерности, метод главных компонент.
- Линейные модели для регрессии.
- Их связь с сингулярным разложением матрицы “объекты-признаки”.
- Уменьшении количества признаков.
- Подходы к отбору признаков.
- Метод главных компонент.
- Методы понижения размерности.
Раздел 5 – Композиции алгоритмов, градиентный бустинг. Нейронные сети.
- Объединение моделей в композицию.
- Взаимное исправление ошибок моделей.
- Основные понятия и постановки задач, связанные с композициями.
- Градиентный бустинг.
- Нейронные сети.
- Поиск нелинейных разделяющих поверхностей.
- Многослойные нейронные сети и их настройка с помощью метода обратного распространения ошибки.
- Глубокие нейронные сети: их архитектурах и особенности.
Раздел 6 – Кластеризация и визуализация.
- Задачи обучения без учителя.
- Поиск структуры в данных.
- Задача кластеризации как задача поиска групп схожих объектов.
- Задача визуализации как задача отображения объектов в двух- или трехмерное пространство.
Раздел 7 – Прикладные задачи анализа данных: постановки и методы решения.
Отзывы
Отзывов пока нет.