Мошенники начали использовать голоса своих жертв, чтобы вымогать деньги

Преступники взяли на вооружение искусственный интеллект (ИИ) и начали генерировать голоса своих жертв, чтобы вымогать деньги у их знакомых. О новой мошеннической схеме читайте в материале NUR.KZ.

Мошенники часто используют взломанные аккаунты в социальных сетях и мессенджерах, чтобы через них обманывать людей и красть их деньги. Обычно они обходятся простыми сообщениями, которые рассылают контактам жертв с просьбой прислать деньги на указанную карту.

Однако с развитием искусственного интеллекта методы аферистов сильно усложнились. Как рассказали журналисты РБК, в России были зафиксированы случаи, когда мошенники с помощью ИИ генерировали голоса своих жертв и просили деньги уже с помощью аудиосообщений, разосланных их контактам.

Чтобы получить достоверный голос другого человека, злоумышленники взламывают его аккаунт в мессенджере, скачивают голосовые сообщения, загружают их в нейросеть, которая впоследствии реалистично воспроизводит голосом жертвы целые предложения.

Между тем жителям Казахстана, которые также активно пользуются мессенджерами и соцсетями, стоит сохранять бдительность и с подозрением относиться к сообщениям от знакомых с просьбой отправить деньги, даже если они голосовые.

Перед тем, как это сделать, лучше удостовериться, что это действительно знакомый контакт, которому необходима денежная помощь, например, позвонив ему и поговорив вживую.

Напомним, в 2023 году в стране было зарегистрировано 44,8 тыс. случаев мошенничества. Среди выявленных преступников были даже несовершеннолетние дети.