[Algorithmic Simplicity] MAMBA from Scratch: Neural Nets Better and Faster than Transformers
🎯 Загружено автоматически через бота:
🚫 Оригинал видео:
📺 Данное видео принадлежит каналу «Algorithmic Simplicity» (@algorithmicsimplicity). Оно представлено в нашем сообществе исключительно в информационных, научных, образовательных или культурных целях. Наше сообщество не утверждает никаких прав на данное видео. Пожалуйста, поддержите автора, посетив его оригинальный канал.
✉️ Если у вас есть претензии к авторским правам на данное видео, пожалуйста, свяжитесь с нами по почте support@, и мы немедленно удалим его.
📃 Оригинальное описание:
Mamba is a new neural network architecture that came out this year, and it performs better than transformers at language modelling! This is probably the most exciting development in AI since 2017. In this video I explain how to derive Mamba from the perspective of linear RNNs. And don’t worry, there’s no state space model theory needed!
Mamba paper:
Linear RNN paper:
#mamba
#deeplearning
#largelanguagemodels
Intro
Recurrent Neural Networks
Linear Recurrent Neural Networks
Parallelizing Linear RNNs
Vanishing and Exploding Gradients
Stable initialization
State Space Models
Mamba
The High Performance Memory Trick
The Mamba Drama
1 view
10
2
1 day ago 00:31:50 1
[Algorithmic Simplicity] MAMBA from Scratch: Neural Nets Better and Faster than Transformers
1 month ago 00:04:07 10
NeilPryde Windsurfing 2013 Sail Collection
3 months ago 00:10:57 1
Crypto Mining | Crypto Mining Passive Income | Tips to Crypto Mining 🔥 BlockDAG Keynote 2