GOLPE: Inteligência artificial pode clonar voz para pedir PIX

São usados áudios para clonar seu tom de voz e pedir dinheiro em seu nome. Aprenda a identificar quando o pedido na verdade se trata de um golpe.

A tecnologia desenvolve-se com uma rapidez impressionante, prova disto é o pouco tempo em que o ChatGPT se popularizou, em apenas alguns meses após o seu lançamento. Ao mesmo tempo em que esse desenvolvimento acelerado pode trazer benefícios, ele também inspira cuidados com relação ao mau uso da inteligência artificial para clonar a voz e pedir pix, por exemplo.

Não é segredo para ninguém que os criminosos estão aplicando golpes cada vez mais sofisticados e aprimorados, e a tecnologia acaba virando uma facilitadora para isto. Como a inteligência artificial consegue realizar ações de forma semelhante ao que os humanos fazem, os golpistas estão usando estes dispositivos para clonar a voz das pessoas e enganar seus conhecidos.

A princípio pode parecer o enredo de um filme futurístico ou de uma série de ficção científica, mas se trata da realidade que estamos vivenciando. O golpe chegou a ser relatado por um influenciador digital que foi vítima da ação criminosa com o uso da tecnologia, para entender o caso e saber como se proteger, confira as próximas informações.

GOLPE: Inteligência artificial pode clona voz para pedir PIX
Confira as dicas para evitar ser vítima do novo golpe. Crédito: @jeanedeoliveirafotografia / pronatec.pro.br

Inteligência artificial utilizada para clonar voz

O influenciador digital Dario Centurione, do Almanaque SOS, relatou em suas redes sociais que foi vítima do golpe. Ele explicou que conversou com especialistas em comunicação e segurança na web para entender como é possível usar a inteligência artificial para clonar a voz de alguém e se passar por essa pessoa.

A explicação é que as vozes de pessoas famosas e que estão com maior frequência na internet, como é o caso do influenciador que posta vídeos no TikTok, estão mais vulneráveis a este tipo de golpe. O criminoso pega um vídeo com o áudio da voz da pessoa, faz o download e utiliza ferramentas para manipular o áudio e simular determinadas vozes.

A inteligência artificial consegue fazer exatamente isso, recriar vozes e imagens de pessoas na internet. Dessa forma, com a captação das vozes, os golpistas escrevem a frase que desejam para regravar com a entonação da voz clonada e criar áudios falsos. Os áudios criados são enviados para pessoas conhecidas, como parentes e amigos, que acreditam se tratar da vítima.

De acordo com Dario, entraram em contato com o pai dele pedindo para fazer um pix de R$ 600. O pai fez a transferência na mesma hora por acreditar que a voz era do filho.

Veja também: CUIDADO! Novo GOLPE que está circulando no Facebook é muito CONVINCENTE, veja como se proteger

Aprenda a se proteger

Como o golpe recria a entonação e a voz muito parecida com a da pessoa que você conhece, fica difícil imaginar que se trata de uma farsa. Mas segundo Dario dá para tentar evitar com uma dica que é bastante útil, ele sugere a criação de uma senha de segurança que só você, seus amigos e familiares saibam.

Assim, caso alguém entre em contato pedindo dinheiro emprestado no seu nome, eles devem perguntar a palavra de segurança para confirmar que realmente é você. Outra forma de confirmação é através de ligação ou chamada de vídeo. Na dúvida, sempre desconfie de pedidos urgentes e inesperados, pois são a principal tática dos golpistas para conseguir o dinheiro rapidamente.

Veja também: Como saber se um site é confiável? Veja dicas para EVITAR cair em golpes na internet