Второе занятие на курсе «Нейронные сети и их применение в научных исследованиях» для восьмого потока обучения.
Преподаватель: Любовь Антюфриева
Дата:
00:00 Заставка
00:31 Линейные модели
01:06 Линейная регрессия
01:35 Модель и её параметры
02:58 Функция потерь
04:29 Поиск локального минимума
05:24 Метод наименьших квадратов
07:06 Метрики регрессии
09:15 Модель линейной регрессии из библиотеки Sklearn
11:03 Метод градиентного спуска
11:51 Градиент
14:50 Идея градиентного спуска
20:50 Выбор скорости обучения
23:33 Единый подход к учету смещения
26:09 Необходимость нормализации
33:26 Cтохастический градиентный спуск
36:52 Условия применимости линейной регрессии
37:23 Квартет Энскомбе (Anscombe’s quartet)
40:08 Анализ остатков
44:17 Проблема корреляции признаков
48:05 Регуляризация
52:52 Линейная классификация
53:06 Постановка задачи
55:04 Переход к вероятностям
59:19 Многоклассовая классификация
01:09:25 Cross-Entropy loss
01:14:21 Метод опорных векторов (SVM)
01:15:20 1D классификация
01:16:20 Многомерная классификация
01:21:14 Обобщенные линейные модели
01:21:28 Полиномиальная модель
01:22:42 Kernel SVM
01:28:59 Наивный Байесовский классификатор
01:29:27 Пример на табличных данных
01:34:25 Практические особенности работы с линейными моделями
01:35:02 Нормализация данных
01:39:12 Борьба с переобучением
Материалы лекции:
Открыть в Colab:
Открыть в HTML-формате: