Portugal
Burlas com vozes de familiares? Aprenda a não cair nesta nova armadilha
Imagem: depositphotos.com
Com o avanço da Inteligência Artificial (IA), já é possível reproduzir com assombrosa precisão a voz de um familiar ou amigo a partir de apenas alguns segundos de áudio.
Este fenómeno tem dado origem a um novo tipo de burla: os burlões conseguem criar deepfakes de voz credíveis, induzindo as vítimas a cederem dinheiro ou informações pessoais ao ouvirem pedidos de ajuda supostamente urgentes.
PUBLICIDADE
Apesar de convincente, esta tecnologia tem uma limitação crucial: a IA consegue copiar a voz, mas não as memórias partilhadas entre as pessoas. É aqui que entra o Teste das 5 Palavras, segundo o Leak, uma técnica simples e eficaz para validar se a chamada é legítima.
- Pergunta fechada com 5 palavras-chave: Peça à pessoa detalhes que só o familiar verdadeiro saberia.
- Pede detalhe de contexto: Se a resposta for simples, pergunte algo adicional para confirmar que se trata de uma memória partilhada.
- Confirmação noutro canal: Nunca confie apenas na voz. Solicite uma palavra-passe combinada previamente por WhatsApp ou outro canal seguro.
Os burlões usam sempre gatilhos emocionais para pressionar e enganar: “Não dá para falar, caiu-me o telemóvel”, “Preciso já de dinheiro, é urgente” e “Não digas a ninguém, é um segredo.”
Qualquer combinação de urgência e segredo deve ser considerada sinal de alerta máximo.
Por isto, nunca dê códigos ou dados bancários por chamada. Valide sempre noutro canal (WhatsApp, vídeo chamada, SMS), configure uma palavra-passe de família para emergências e se a pessoa real estiver em perigo, entenderá perfeitamente a necessidade de validação.
Com estas medidas simples, é possível blindar-se contra burlas sofisticadas que exploram emoções e confiança, transformando a inteligência artificial numa ameaça potencial em vez de um perigo real.
PUBLICIDADE
PUBLICIDADE