Уязвимость к состязательным атакам и недостаточная интерпретируемость нейронных сетей ограничивают их внедрение в продакшн. Некоторые статьи показывают, что с помощью explainable AI («объяснимого» ИИ, XAI) можно не только отлаживать модели, но и противостоять атакам. Доклад состоит из обзора работ по состязательным атакам и XAI.
UralSeminars, 29 июля в 18:00 (по Екатеринбургу, GMT 5), в 16:00 (по Москве, GMT 3). Тема семинара “Explainable AI”. Спикер: Константин Архипенко, Институт системного программирования РАН, Москва
Ссылка на TG сообщества:
Трансляция на Youtube:
Сайт проекта:
5 views
5
0
4 weeks ago 00:30:38 1
Collective West hopes RUSSIAN economy will overheat and CRASH
1 month ago 00:19:04 1
Sweden Is Out of Control: Flooding Scandinavia With Crime | @VisualPolitikEN
1 month ago 00:13:29 1
🔥 NEW Ideogram CANVAS Update! — All Features Explained in Detail 🤯
1 month ago 00:11:41 1
Create Studio Pro Review ✅ Create Studio Pro Demo And 🎁 Create Studio Pro Bonus 🎁👇
1 month ago 00:15:26 1
How does the Soyuz Spacecraft work?
1 month ago 01:10:46 1
Israel, Iran and the Middle East Proxy Wars Explained - Colonel Richard Kemp