Page Nav

HIDE

Grid

GRID_STYLE

Hover Effects

TRUE

Gradient Skin

{fbt_classic_header}


 

Últimos Artigos:

latest

Ads Place


 

Você pode confiar em seus ouvidos? Golpes de voz de IA abalam EUA

Autoridades dos EUA alertam que fraudadores estão usando ferramentas convincentes de clonagem de voz por IA para enganar as pessoas. (Chris ...


Autoridades dos EUA alertam que fraudadores estão usando ferramentas convincentes de clonagem de voz por IA para enganar as pessoas. (Chris Delmas)

A voz no telefone parecia assustadoramente real - uma mãe americana ouviu sua filha soluçando antes que um homem assumisse o controle e exigisse um resgate. Mas a menina era um clone de IA e o sequestro era falso.

O maior perigo da Inteligência Artificial, dizem os especialistas, é sua capacidade de demolir as fronteiras entre realidade e ficção, entregando aos cibercriminosos uma tecnologia barata e eficaz para propagar desinformação.

Em uma nova geração de golpes que abalou as autoridades dos EUA, os fraudadores estão usando ferramentas de clonagem de voz de IA surpreendentemente convincentes - amplamente disponíveis online - para roubar pessoas se passando por membros da família.

"Me ajude, mãe, por favor, me ajude", Jennifer DeStefano, uma mãe do Arizona, ouviu uma voz dizendo do outro lado da linha.

DeStefano estava "100%" convencida de que era sua filha de 15 anos em profunda angústia enquanto estava fora em uma viagem de esqui.

"Nunca foi uma questão de quem é isso? Era completamente a voz dela... era a maneira como ela teria chorado", disse DeStefano a uma emissora de televisão local em abril.

"Nunca duvidei por um segundo que era ela."

O golpista que assumiu a ligação, que veio de um número desconhecido de DeStefano, exigiu até US$ 1 milhão.

O artifício alimentado por IA acabou em poucos minutos quando DeStefano estabeleceu contato com sua filha. Mas o caso aterrorizante, agora sob investigação policial, ressaltou o potencial de os cibercriminosos usarem indevidamente clones de IA.

- Golpe dos avós -

"A clonagem de voz por IA, agora quase indistinguível da fala humana, permite que agentes de ameaças como golpistas extraiam informações e fundos das vítimas de forma mais eficaz", disse à AFP Wasim Khaled, presidente-executivo da Blackbird.AI.

Uma simples pesquisa na internet produz uma ampla gama de aplicativos, muitos disponíveis gratuitamente, para criar vozes de IA com uma pequena amostra - às vezes apenas alguns segundos - da voz real de uma pessoa que pode ser facilmente roubada do conteúdo postado online.

"Com uma pequena amostra de áudio, um clone de voz de IA pode ser usado para deixar mensagens de voz e textos de voz. Ele pode até ser usado como um trocador de voz ao vivo em chamadas telefônicas", disse Khaled.

"Os golpistas podem empregar diferentes sotaques, gêneros ou até imitar os padrões de fala de entes queridos. [A tecnologia] permite a criação de deep fakes convincentes."

Em uma pesquisa global com 7.000 pessoas de nove países, incluindo os Estados Unidos, uma em cada quatro pessoas disse ter experimentado um golpe de clonagem de voz de IA ou conhecer alguém que tinha.

Setenta por cento dos entrevistados disseram não estar confiantes de que poderiam "dizer a diferença entre uma voz clonada e a coisa real", disse a pesquisa, publicada no mês passado pelo McAfee Labs, com sede nos EUA.

Autoridades americanas alertaram para um aumento no que é popularmente conhecido como o "golpe dos avós" - em que um impostor se passa por um neto que precisa urgentemente de dinheiro em uma situação angustiante.

"Você recebe uma ligação. Há uma voz em pânico na linha. É seu neto. Ele diz que está com problemas profundos —-ele destruiu o carro e foi parar na cadeia. Mas você pode ajudar enviando dinheiro", disse a Comissão Federal de Comércio dos EUA em um aviso em março.

"Parece com ele. Como poderia ser um golpe? Clonagem de voz, é assim."

Nos comentários abaixo do alerta da FTC havia vários depoimentos de idosos que haviam sido enganados dessa forma.

- 'Mal-intencionado' -

Isso também espelha a experiência de Eddie, um jovem de 19 anos em Chicago cujo avô recebeu uma ligação de alguém que soava como ele, alegando que precisava de dinheiro após um acidente de carro.

A artimanha, relatada pela McAfee Labs, foi tão convincente que seu avô começou a juntar dinheiro com urgência e até cogitou re-hipotecar sua casa, antes que a mentira fosse descoberta.

"Porque agora é fácil gerar clones de voz altamente realistas... quase qualquer pessoa com qualquer presença online é vulnerável a um ataque", disse à AFP Hany Farid, professora da Escola de Informação da UC Berkeley.

"Esses golpes estão ganhando força e se espalhando."

No início deste ano, a startup de IA ElevenLabs admitiu que sua ferramenta de clonagem de voz poderia ser usada indevidamente para "fins maliciosos" depois que usuários postaram um áudio deepfake supostamente envolvendo a atriz Emma Watson lendo a biografia "Mein Kampf", de Adolf Hitler.

"Estamos nos aproximando rapidamente do ponto em que você não pode confiar nas coisas que vê na internet", disse à AFP Gal Tal-Hochberg, diretora de tecnologia da empresa de capital de risco Team8.

"Vamos precisar de novas tecnologias para saber se a pessoa com quem você acha que está falando é realmente a pessoa com quem você está falando", disse ele.

BUR-AC/ARP

Ads Place