#8. Стохастический градиентный спуск SGD и алгоритм SAG | Машинное обучение

Суть стохастических алгоритмов при оптимизации эмпирического риска. Рассматривается классический алгоритм Stochastic Gradient Descent (SGD, Роббинса-Монро) и Stochastic Average Gradient (SAG). Инфо-сайт: Телеграм-канал: Градиентный алгоритм:
Back to Top