Содержание Показать
Основы машинного обучения
Какие основные задачи ML (машинного обучения) ты знаешь?
Какие основные типы задач машинного обучения существуют (с учителем, без учителя, с подкреплением)?
Основные типы задач машинного обучения делятся на три большие категории:
- Обучение с учителем (Supervised Learning) Самый распространённый тип. Есть размеченные данные: каждому объекту соответствует правильный ответ (метка, target).Основные подтипы задач:
- Классификация (Classification) Предсказываем категорию / класс / метку Примеры: спам / не спам, кошка / собака / птица, болен / здоров, 0–9 (цифры), churn / не churn Метрики: accuracy, precision, recall, F1, ROC-AUC, PR-AUC, logloss
- Регрессия (Regression) Предсказываем непрерывную величину Примеры: цена квартиры, температура завтра, объём продаж, рейтинг фильма Метрики: MAE, MSE, RMSE, MAPE, R²
- Обучение без учителя (Unsupervised Learning) Меток нет вообще. Алгоритм ищет структуру в данных самостоятельно.Основные подтипы задач:
- Кластеризация (Clustering) Группировка похожих объектов Примеры: сегментация клиентов, тематическое моделирование, поиск похожих изображений Популярные алгоритмы: K-Means, DBSCAN, HDBSCAN, Agglomerative, Gaussian Mixture Models Метрики качества (внутренние): Silhouette, Davies-Bouldin, Calinski-Harabasz
- Снижение размерности (Dimensionality Reduction) Уменьшение количества признаков с сохранением важной информации Примеры: визуализация данных, ускорение обучения, удаление шума Алгоритмы: PCA, t-SNE, UMAP, Autoencoders, LDA
- Обнаружение аномалий (Anomaly / Outlier Detection) Поиск необычных, редких объектов Примеры: мошенничество, поломки оборудования, дефекты на производстве Алгоритмы: Isolation Forest, One-Class SVM, Autoencoders, LOF
- Поиск ассоциативных правил (Association Rules) Пример: анализ рынка (market basket analysis) → «если купили хлеб и масло → часто берут молоко»
- Обучение с подкреплением (Reinforcement Learning) Агент учится, взаимодействуя со средой через действия и получая награду / штраф.Ключевые понятия:
- Agent, Environment, State, Action, Reward
- Policy (стратегия), Value function, Q-function
- Игры (Go, шахматы, Dota 2, StarCraft)
- Управление роботами
- Оптимизация рекламы (рекомендательные системы с RL)
- Автономное вождение
- Персонализированные рекомендации в реальном времени
- Q-Learning, SARSA
- Deep Q-Network (DQN)
- Policy Gradient методы (REINFORCE, PPO, A2C/A3C)
- Actor-Critic
- RLHF (Reinforcement Learning from Human Feedback) — сейчас очень актуально (ChatGPT, LLaMA и др.)
Краткая таблица для запоминания:
| Тип обучения | Есть метки? | Цель | Примеры задач |
|---|---|---|---|
| С учителем | Да | Предсказывать метку по признакам | Классификация, регрессия |
| Без учителя | Нет | Найти структуру / закономерности | Кластеризация, снижение размерности, аномалии |
| С подкреплением | Нет (есть награда) | Научиться принимать решения | Игры, роботы, управление, RLHF |
помощник