Portugal

Burlas com vozes de familiares? Aprenda a não cair nesta nova armadilha

NOTÍCIAS DE COIMBRA | 3 minutos atrás em 06-11-2025

Imagem: depositphotos.com

Com o avanço da Inteligência Artificial (IA), já é possível reproduzir com assombrosa precisão a voz de um familiar ou amigo a partir de apenas alguns segundos de áudio.

PUBLICIDADE

publicidade

Este fenómeno tem dado origem a um novo tipo de burla: os burlões conseguem criar deepfakes de voz credíveis, induzindo as vítimas a cederem dinheiro ou informações pessoais ao ouvirem pedidos de ajuda supostamente urgentes.

PUBLICIDADE

Apesar de convincente, esta tecnologia tem uma limitação crucial: a IA consegue copiar a voz, mas não as memórias partilhadas entre as pessoas. É aqui que entra o Teste das 5 Palavras, segundo o Leak, uma técnica simples e eficaz para validar se a chamada é legítima.

  1. Pergunta fechada com 5 palavras-chave: Peça à pessoa detalhes que só o familiar verdadeiro saberia.
  2. Pede detalhe de contexto: Se a resposta for simples, pergunte algo adicional para confirmar que se trata de uma memória partilhada.
  3. Confirmação noutro canal: Nunca confie apenas na voz. Solicite uma palavra-passe combinada previamente por WhatsApp ou outro canal seguro.

Os burlões usam sempre gatilhos emocionais para pressionar e enganar: “Não dá para falar, caiu-me o telemóvel”, “Preciso já de dinheiro, é urgente” e “Não digas a ninguém, é um segredo.”

Qualquer combinação de urgência e segredo deve ser considerada sinal de alerta máximo.

Por isto, nunca dê códigos ou dados bancários por chamada. Valide sempre noutro canal (WhatsApp, vídeo chamada, SMS), configure uma palavra-passe de família para emergências e se a pessoa real estiver em perigo, entenderá perfeitamente a necessidade de validação.

Com estas medidas simples, é possível blindar-se contra burlas sofisticadas que exploram emoções e confiança, transformando a inteligência artificial numa ameaça potencial em vez de um perigo real.

PUBLICIDADE

PUBLICIDADE