Atualmente, golpes de deepfake em áudio – técnica para manipulação de conteúdo audiovisual baseada na tecnologia de Inteligência Artificial – estão crescendo assustadoramente e cada vez mais sendo aplicado por golpistas.
Os hackers usam o “aprendizado da máquina” para clonar e simular a voz de uma pessoa, combinando essa cópia falsa da voz com técnicas de engenharia social (manipulação psicológica), a fim de convencer suas vítimas a executar certas ações, como fazer depósitos em dinheiro ou pedir informações confidenciais, por exemplo.
O áudio abaixo faz parte de uma dessas tentativas de golpe, foi uma mensagem de voz enviada a um funcionário de uma empresa de tecnologia, onde uma voz semelhante ao CEO da empresa pede “assistência imediata para finalizar um negócio urgente”.
Confira:
A qualidade realmente é ruim, em uma hipótese da pessoa em questão ter cobertura de telefone com mal sinal ou um microfone danificado, a voz ainda assim soa robótica. Mas é aceitável, em alguma outra ocasião qualquer pessoa poderia ignorar a qualidade do áudio e cair no golpe.
“Definitivamente parece humano. Eles marcaram essa caixa na medida em que: soa mais robótico ou mais humano? Eu diria que é mais humano ”, disse Rob Volkert, pesquisador do NISOS, empresa especializada em consultoria de segurança. “Mas não parece suficiente o CEO”.
Esses ataques serão muito mais comuns, conforme as ferramentas deepfake se tornam cada vez mais acessíveis.
Para criar um clone de voz é preciso ter gravações de seu alvo. Quando mais dados tiver acesso, maior será a qualidade do áudio e o fake resultante do clone.
Com tempo e dados suficientes, os deepfakes de áudio de alta qualidade serão muito mais convincentes.
Golpes de Deepfake são comuns
O exemplo mais conhecido e relatado pela primeira vez de um golpe de deepfake em áudio ocorreu em 2019, onde o executivo-chefe de uma empresa de energia do Reino Unido foi induzido a enviar € 220.000 (R$ 1.345.616,50) a um fornecedor húngaro depois de receber uma ligação supostamente do CEO de sua empresa.
Como evitar?
Especialistas dizem que há uma maneira fácil de não cair nesse golpe, como Patrick Traynor, da Faculdade de Engenharia Herbert Wertheim, tudo que você precisa fazer é desligar o telefone e ligar para a pessoa de volta:
“Desligue e ligue de volta”, diz Patrick Traynor, da Faculdade de Engenharia Herbert Wertheim. “A menos que seja um ator estatal que possa redirecionar chamadas telefônicas ou um grupo de hackers muito, muito sofisticado, é provável que seja a melhor maneira de descobrir se você estava conversando com quem pensou que era”.
VIA The Verge
Leia Mais