Agentes de IA vão acelerar roubo de credenciais e ataques de engenharia social até 2027

A evolução dos ataques impulsionados por inteligência artificial exige novas estratégias de autenticação e defesa no âmbito da cibersegurança

Agentes de IA vão acelerar roubo de credenciais e ataques de engenharia social até 2027

Os agentes de Inteligência Artificial (IA) vão reduzir em 50% o tempo necessário para explorar vulnerabilidades das contas de utilizadores até 2027, segundo um relatório da Gartner. A pesquisa alerta que os atacantes estão a automatizar o roubo de credenciais e a comprometer canais de autenticação, aproveitando credenciais fracas obtidas através de violações de dados, phishing e malware.

De acordo com Jeremy D’Hoinne, vice-presidente analista da Gartner, os criminosos utilizam bots para efetuar tentativas massivas de login, explorando a reutilização de credenciais em diferentes serviços. Com os avanços da IA, os Account Takeover tornar-se-ão mais sofisticados, incluindo engenharia social baseada em deepfake e automação total do abuso de credenciais. Para mitigar a ameaça, prevê-se um aumento na adoção de soluções de deteção e monitorização de interações com agentes de IA em aplicações web, API e canais de voz.

A crescente sofisticação dos ataques exige que as empresas abandonem métodos tradicionais de autenticação. Akif Khan, vice-presidente analista da Gartner, recomenda a adoção de autenticação multifator resistente a phishing e, sempre que possível, a substituição de senhas por credenciais de múltiplos dispositivos. A educação dos utilizadores sobre estas opções será fundamental para reduzir a exposição a ataques.

Além do account takeover, a engenharia social assistida por IA representa uma ameaça crescente, com as previsões da Gartner a indicar que, até 2028, 40% dos ataques de engenharia social vão ter como alvo não apenas executivos, mas também colaboradores em geral. Táticas como deepfake de áudio e vídeo são cada vez mais utilizadas para enganar funcionários e induzir perdas financeiras substanciais.

Dado o aumento das ameaças, as empresas vão ter de adaptar os seus processos para resistir a ataques que utilizam realidade falsificada. Manuel Acosta, analista diretor sénior da Gartner, destaca que a deteção de deepfakes ainda se encontra numa fase inicial e que a melhor defesa passa por treinar os funcionários para reconhecerem estas novas táticas de engenharia social.

Tags

NOTÍCIAS RELACIONADAS

RECOMENDADO PELOS LEITORES

REVISTA DIGITAL

IT INSIGHT Nº 54 Março 2025

IT INSIGHT Nº 54 Março 2025

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.