9 de maio de 2025

Os recentes ataques de ransomware contra a M&S, a Co-op e a Harrods revelam um padrão familiar: os invasores não dependem mais da invasão das redes da empresa - eles geralmente se conectam por meio do helpdesk. Conforme identificado pelo Gartner, a recuperação de contas devido a senhas esquecidas ou credenciais perdidas é a parte mais arriscada do ciclo de vida do gerenciamento de identidades. Assim como a violação do violação do MGM Resorts em 2023que resultou em perdas de US$ 100 milhões, esses incidentes mostram como os processos de recuperação de contas são vulneráveis a ataques de engenharia social.

A anatomia de um ataque de engenharia social

Anatomia de um ataque de engenharia social infográfico 2 e1746800300358

Como a IA torna os ataques de engenharia social mais fáceis

A IA está transformando o crime cibernético em uma operação de baixa qualificação e alta escala, automatizando o phishing, desenvolvendo deepfakes e permitindo que o malware se adapte mais rapidamente do que as defesas podem responder. Essas tecnologias não apenas reduzem o esforço exigido pelos invasores, mas também aumentam significativamente sua velocidade, precisão e alcance.

  • Identificação do alvo: Ferramentas com tecnologia de IA extraem e analisam grandes volumes de dados públicos, desde perfis do LinkedIn até bancos de dados violados, para criar perfis de alvos detalhados. O processamento de linguagem natural ajuda a identificar funções de trabalho, relacionamentos e padrões de comunicação para criar iscas de phishing altamente confiáveis ou tentativas de personificação.
  • Recheio de credenciais: A IA acelera as tentativas de login de força bruta priorizando as senhas comumente reutilizadas e ajustando as estratégias em tempo real. Em 2024, Microsoft relatou 7.000 ataques de senha por segundo. Pesquisas demonstraram que a IA pode decifrar mais de 50% das senhas fracas em menos de um minuto.
  • Representação: Modelos de aprendizagem profunda são usados para criar áudio e vídeo deepfake realistas, imitando vozes e movimentos faciais com alta precisão. Isso permite que os invasores se façam passar por funcionários de forma convincente em chamadas de suporte ao vivo, reuniões por vídeo ou até mesmo em mensagens de correio de voz.
  • Ataques de fadiga do MFA: Os scripts de IA gerenciam tentativas repetidas de notificação por push, programando-as durante momentos prováveis de distração (por exemplo, intervalos para almoço ou fim do dia). Alguns invasores até combinam isso com deepfakes de voz que se fazem passar por suporte de TI, pedindo aos usuários que aceitem a solicitação.

Esses métodos aprimorados por IA estão se mostrando eficazes. Em 2024, 42% das organizações relataram ataques bem-sucedidos de phishing, vishing, deepfake ou outros ataques de engenharia social (Perspectiva da segurança cibernética global 2025Fórum Econômico Mundial).

O problema central: segredos compartilhados sempre serão compartilhados

À medida que a IA acelera os recursos dos agentes de ameaças, a autenticação organizacional ainda se baseia em conhecimento fraco e métodos baseados em posse, senhas, códigos SMS e aplicativos de autenticação. Essas credenciais compartilháveis são facilmente arrancadas das vítimas e compartilhadas por telefone.

O problema principal é confiar no que alguém sabe ou dizem vez de verificar quem ela é. A força de trabalho mudou mais rapidamente do que a maioria das arquiteturas de segurança. O acesso remoto, o BYOD e os ambientes que priorizam a nuvem tornaram obsoleta a autenticação tradicional baseada em perímetro.

O Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido recomendou que as organizações reavaliem a forma como os helpdesks de TI autenticam os usuários, principalmente quando lidam com contas privilegiadas. Embora os especialistas em segurança cibernética defendam mais camadas de segurança para evitar ataques futuros, como palavras de código compartilhadas com o help desk, se essas camadas consistirem em segredos compartilháveis, elas estarão vulneráveis.

A biometria facial é resistente a phishing

A biometria facial com detecção de vivacidade oferece uma mudança fundamental na verificação e autenticação da força de trabalho.

  • Não é um segredo - seu rosto não pode ser compartilhado ou roubado.
  • Ele confirma a identidade - não apenas se você sabe um código ou pode acessar um dispositivo, mas quem você é.
  • Ele verifica a presença genuína - um recurso essencial no mundo remoto de hoje.

Mesmo que um invasor convença alguém a se autenticar, ele só conseguirá uma selfie. A forte detecção de vivacidade baseada na nuvem garante que imagens e vídeos - mesmo falsos de alta qualidade - não possam ser usados para contornar os fluxos de trabalho de autenticação e está sempre evoluindo para atenuar novos ataques baseados em IA.

A biometria facial é a única maneira de conectar as atividades do usuário a um ser humano real e vivo. À medida que as organizações se esforçam para não usar senhas e implementar arquiteturas Zero Trust, esse é um recurso essencial para reduzir os riscos e manter a força de trabalho segura.

Proteja seu processo de recuperação de conta

À medida que a IA acelera a escala e a sofisticação da engenharia social, a necessidade de autenticação de alta segurança e resistente a phishing nunca foi tão clara. A biometria facial com detecção de vivacidade oferece uma maneira segura de verificar a identidade - não apenas as credenciais - no ponto de maior risco.

Se a sua organização estiver reavaliando como os usuários são verificados durante as chamadas de suporte, especialmente para acesso privilegiado, este é o momento de agir.

Não deixe que seu helpdesk se torne seu elo mais fraco. Fale conosco hoje mesmo sobre a implementação da autenticação biométrica que resiste a ataques de engenharia social, bombardeio de MFA e deepfakes sofisticados.