Одним из ключевых этапов обучения нейронной сети является применение алгоритма обратного распространения ошибки, или backpropagation. Целью этого алгоритма является поиск градиента ошибки по всем обучаемым параметрам нашей модели. Без понимания того, как он работает, нам будет тяжело написать свой собственный алгоритм обучения нейросети. Давайте разбираться.
В этом видео мы самостоятельно выведем все необходимые формулы для реализации алгоритма обучения нейронной сети с нуля. Для обучения нейросети можно использовать градиентный спуск, а для его работы нам потребуется градиент функции потерь по всем параметрам модели (весам нейросети).
В основе метода обратного распространения ошибки лежит цепное правило (chain rule) из матанализа. Еще это называют правило дифференцирования сложной функции:
В некоторых случаях нам потребуется правило дифференцирования сложной функции нескольких переменных:
Меня зовут Дмитрий Коробченко, и на моём канале будет много чего интересного, так что подписывайтесь и нажимайте на колокольчик, чтобы ничего не пропустить:
#Нейросети #ГлубокоеОбучение #ДмитрийКоробченко #НейронныеСети #МашинноеОбучение #ИскусственныйИнтеллект #ОбратноеРаспространениеОшибки #Backprop #Градиент
4 views
1378
375
1 month ago 00:21:00 1
Известные ДЕТИ певцы - ЧТО с ними СТАЛО?! Обратная сторона ПОПУЛЯРНОСТИ!
1 month ago 00:04:27 1
Рассказ Дмитрия Бориса о своём рабстве в Дагестане | Движение Альтернатива
1 month ago 00:19:46 1
Откуда взялись Кадыровы? История войн и преступлений России.
2 months ago 00:24:27 1
Как свести человека с ума. Как защититься от психологического насилия. Газлайтинг.
2 months ago 00:26:52 1
Как разгоняли панику в Украине. Безумная операция российских спецслужб
2 months ago 01:01:53 1
Как открыть груминг-салон самостоятельно: секреты от опытных грумеров 🐕 Салон для животных с нуля
2 months ago 00:00:55 1
Что готовят РФ под видом СССР 2.0? #ссср #жириновский #симпсоны #возрождениессср