Острожно, DEEPFAKE Генеративные нейросети открыли бесчисленные возможности для инноваций
Острожно, DEEPFAKE
Генеративные нейросети открыли бесчисленные возможности для инноваций, но также стали инструментом для сложных мошенничеств.
DeepMind, подразделение Google, представило шокирующую статистику о том, как чаще всего злоупотребляют генеративным ИИ.
На первом месте — подделка личности (Impersonation):
Создание фальшивых личностей или создание убедительных дипфейков стало основной угрозой. Мошенники используют ИИ, чтобы убедительно изображать реальных людей и обманывать своих жертв.
2-4 места:
Следом идут различные мошеннические схемы, такие как создание фейковых личностей (Sockpuppeting), фальсификация и создание фальшивых учёток.
Эти способы использования ИИ также направлены на обман и манипуляцию, делая их крайне опасными в цифровом мире.
Вот некоторые из самых ярких примеров злоупотребления ИИ:
Фальшивые переговоры с министром
В 2019 году несколько европейских политиков были обмануты дипфейк-видео, в котором их убедили, что они ведут переговоры с несуществующим министром. Этот убедительный видеозвонок использовался для получения конфиденциальной информации.
Фальшивое выступление Барака Обамы
В 2018 году исследователи создали дипфейк-видео с бывшим президентом США Бараком Обамой, произносящим речь, которой он никогда не говорил.
Это видео было создано в рамках демонстрации угроз, связанных с технологией дипфейков.
Фальшивый телефонный звонок CEO
В марте 2019 года мошенники использовали ИИ, чтобы имитировать голос босса генерального директора одной немецкой компании, обманув его на перевод более $240,000 фальшивому поставщику.
Мошенничество с криптовалютой
В 2021 году мошенники использовали дипфейк-видео с Илоном Маском для продвижения мошеннических криптовалютных схем, что привело к значительным финансовым потерям.
Так 42-летний житель Германии Себастьян стал жертвой криптомошенников, которые действовали от имени Илона Маска.
Ожидая получить взамен удвоенную сумму, он перевел $560 тысяч в биткоинах.
Видео с Нэнси Пелоси
В мае 2019 года дипфейк-видео с Нэнси Пелоси, спикером палаты представителей США, стало вирусным, где она, якобы, запиналась на официальном мероприятии.
Видео было распространено известными личностями, включая Руди Джулиани, и собрало миллионы просмотров, распространяя дезинформацию.
Какие выводы?
Эти примеры подчеркивают растущую угрозу злоупотребления ИИ, особенно в сложных мошеннических схемах.
Хотя ИИ имеет потенциал для революции в индустриях, важно оставаться бдительными в отношении его темных сторон
220 views
78
13
4 months ago 00:00:10 220
Острожно, DEEPFAKE Генеративные нейросети открыли бесчисленные возможности для инноваций
8 months ago 00:01:28 1
#лайфхак Рабочий Deepfake на Google Colab в 1 клик
8 months ago 00:01:37 1
Всё, что нужно знать о мошенниках. DeepFake подделать лицо. Нейросеть и дипфейк вашего лица!
9 months ago 00:00:45 8.8K
ПОРВАЛ ПОПОЛАМ. Осторожно на переезде. 777 ЕКХ. Погоня, авария и Mickhael Jackson and Lady Gaga
10 months ago 00:11:52 121
Тру-киберкрайм, злой ИИ и паёк из водорослей | BirdsBuild дайджест #10
1 year ago 00:04:32 264
Осторожно, нейросеть! 8 признаков использования нейросети мошенниками
2 years ago 00:01:51 1.5K
Deepfake технологии поражают, и в последнее время.. пугают, из-за своей доступности и точности
Внимательно смотрите на его лицо
3 years ago 00:30:08 1
Москва лучше Сеула/Корейский гадкий утенок - Prince Lemon
4 years ago 00:00:43 17
Путин с Уолл-стрит/Putin of Wall Street/DeepFake Putin DiCaprio
4 years ago 00:01:39 49
Путин: Лицо со шрамом|Аль Капоне|DeepFake Tom Hardy Putin