
© Лилия Шарловская

Мошенники активно применяют технологии искусственного интеллекта для создания поддельного контента, который используется для выманивания денег или персональных данных.
Как сообщила ТАСС официальный представитель МВД РФ Ирина Волк, генеративные нейросети позволяют злоумышленникам создавать убедительные текстовые, визуальные и аудиовизуальные материалы. Эти материалы жертвы воспринимают как подлинные сообщения от доверенных лиц — родственников, сотрудников банков, госслужащих или публичных фигур.
Используя синтезированные голоса или видеозаписи, преступники побуждают пользователей к переводам средств или раскрытию конфиденциальной информации. В качестве примера Волк привела случай, когда злоумышленник, получив доступ к чужому аккаунту в иностранном мессенджере, отправил с него голосовое сообщение, сгенерированное нейросетью. Сообщение, звучавшее голосом владельца аккаунта, содержало просьбу о срочной помощи и переводе 35 000 рублей через систему быстрых платежей. Получатель, решив, что обращается его родная сестра, выполнил просьбу, и деньги ушли мошенникам.
Ранее россиян предупредили о новой схеме обмана под предлогом капремонта.
Ваша надежная лента новостей — МК в MAX.