45:57
Введение в линейную регрессию: основные понятия, одномерная модель. Метод наименьших квадратов (МНК)
SENATOROV | Математический спецназ | Математика
38:05
Теорема Гаусса-Маркова. Несмещенные оценки. Простая линейная регрессия.Метод наименьших квадратов
35:29
Постановка задачи машинного обучения.эмпирический риск.Функционал потерь.Простая Линейная регрессия.
41:18
Функция потерь.Гомоскедастичность.Гетероскедастичность.Производная и антиградиент.Линейная регрессия
43:34
Градиент. Функция потерь. Сравнение МАЕ и MSE. Функция знака. Машинное обучение. Линейная регрессия.
41:36
Одномерная линейная регрессия. Производная. Функция потерь. МНК. Градиентный спуск.Машинное обучение
41:47
Линейная регрессия и функция потерь на python.Критерий остановы.Гиперпараметры.Скорость обучения.
41:13
Алгоритм градиентного спуска.Создание модели линейной регрессии на python.Машинное обучение.
43:37
Линейная регрессия на python, функция потерь МАЕ.Алгоритм градиентного спуска(Субградиент)Математика
42:53
стохастический градиентный спуск(SGD).Псевдообратная матрица Мура-Пенроуза.Линейная регрессия.Python
44:02
Преимущества и недостатки MAE и MSE. Критерий применения. Линейная регрессия на python
28:39
Нормальное уравнение.Псевдообратная матрица Мура-Пенроуза.Линейная регрессия.Python
38:15
Ч1.Scikit-learn Machine Learning in Python. Линейная регрессия на питон. Функция потерь MSE #python
1:02:32
Ч2. Scikit-learn Machine Learning in Python. Линейная регрессия на питон. Функция потерь MSE #python