Если вы хотите повысить вероятность пройти отбор в компанию, можете совмещать ML-тренировки с тренировками по алгоритмам.
Задачи машинного обучения в очевидных и неочевидных местах. Формальная постановка задачи обучения с учителем. Основные понятия в машинном обучении.
Скалярное произведение, метрика, линейные пространства. Метод ближайших соседей.
Линейная регрессия. Аналитическое и градиентное решения. Неустойчивость решения. Теорема Гаусса-Маркова.
Ограничения на вектор параметров.
L1 и L2 регуляризация, их влияние
на решение.
Линейные механизмы классификации. Отступ. Логистическая функция потерь. Hinge loss.
Правдоподобие, метод максимального правдоподобия.
Логистическая регрессия и бернуллиевская случайная величина.
Процедура построения деревьев регрессии и классификации. Жадный алгоритм. Информационные критерии.
Бутстрап, бэггинг. «Мудрость толпы». Случайный лес.
Особые свойства решающих деревьев.
Информация дополняется
Интуитивное объяснение механизма бустинга.
Градиентный бустинг. Ограниченя на базовые алгоритмы и функции потерь.
Различия в применении различных методов ансамблирования: бустинга и бэггинга.
Основы Deep Learning. Нейронные сети как развитие «классических» моделей машинного обучения.
Построение моделей с учетом свойств данных. Инвариантность, эквивариантность.
Информация дополняется
Методы оценки значимости признаков. Permutation importance. LIME. Shap values.
Задачи обучения без учителя: кластеризации, снижения размерности.
Бонусная встреча, описание появится позже.
Информация дополняется
Информация дополняется
Онлайн-награждение участников
Электронные сертификаты участникам отправим 12 декабря — в день онлайн-награждения.
Если вы не нашли себя в списке, но уверены, что должны там быть, заполните эту же форму.
Напишите, если остались вопросы: intern@yandex-team.ru