Мошенники начали использовать нейросети
Преступники стараются приспособить каждую новинку к своей пользе и не смогли пройти мимо нейросетей. С их помощью они создают ложные доказательства и придают веса своим разводам.
С помощью генеративных сетей аферисты фабрикуют изображения, голосовые сообщения и целые видеоролики. У аферистов наиболее востребованы дипфейки — это видеоролики, в которых лицо спикера заменено на другое. Термин образован слиянием двух частей: английского fake в значении подделки и deep learning как глубокое обучение нейросети.
Первый нашумевший дипфейк — убедительно выполненный мошенниками видеоролик с выступлением фальшивого Илона Маска. Обычные пользователи соцсетей не мог опознать в нём подделку.
Эксперты отдела исследования данных «Лаборатории Касперского» отметили, что потенциальные жертвы интернет-мошенников уже слабо верят обычным картинкам, поэтому аферисты переключаются на видеоролики-дипфейки. Часто они подпирают целую архитектуру обмана: в таком случае видео используют в профилях соцсетей, ссылки с которых ведут на основной сайт мошенников.
Злоумышленники также используют ChatGPT в схемах развода для личного обогащения ещё одним способом. Они создают интернет-ресурсы, которые предлагают свободно скачать ChatGPT из любой страны, да ещё получить при этом 50 USD в качестве оплаты участия в тренировке и развитии нейросети. На деле вместо обещанного пользователь получает троянский вирус. И ещё передаёт мошенникам свои личные и платёжные данные, внося их в анкету ради получения обещанных денег.
ЧИТАЙТЕ ТАКЖЕ: В РФ УЖЕСТОЧАТ НАКАЗАНИЕ ДЛЯ ОРГАНИЗАТОРОВ ФИНАНСОВЫХ ПИРАМИД
ЧИТАЙТЕ ТАКЖЕ: КНДР ОПЛАЧИВАЕТ ПОЛОВИНУ РАКЕТНОЙ ПРОГРАММЫ КРАДЕНОЙ КРИПТОВАЛЮТОЙ