Мошенники могут синтезировать голос того или иного человека и использовать его для преступлений. Об этом рассказал в беседе с радио Sputnik эксперт по информационной безопасности Алексей Лукацкий.
Как отметил специалист, современные технологии позволяют создать «звуковой двойник» с помощью хорошо обученной нейросети. При определенных условиях сгенерированный двойником голос может звучать, словно действительно принадлежит определенному человеку.
«Отличить алгоритмическую речь от реальной будет достаточно сложно. И мы действительно можем подумать, что звонит наш родственник или какой-то близкий человек», - рассказал Алексей Лукацкий.
Мошенники могут добыть образцы голоса из разных источников – например, записать телефонные переговоры или даже просто забрать звук из видео, которое потенциальная жертва самостоятельно разместила в социальной сети.
Чтобы обезопасить себя от мошенничества с использованием «двойника», следует настороженно относиться к любым действиям, связанным с какой-либо оплатой либо озвучиванием логинов, паролей и пин-кодов. При малейшем подозрении следует самостоятельно перезвонить человеку, в голосе которого вы подозреваете «звукового двойника».
© ОАО «ТРК ВС РФ «ЗВЕЗДА»