A evolução dos ataques impulsionados por inteligência artificial exige novas estratégias de autenticação e defesa no âmbito da cibersegurança
Os agentes de Inteligência Artificial (IA) vão reduzir em 50% o tempo necessário para explorar vulnerabilidades das contas de utilizadores até 2027, segundo um relatório da Gartner. A pesquisa alerta que os atacantes estão a automatizar o roubo de credenciais e a comprometer canais de autenticação, aproveitando credenciais fracas obtidas através de violações de dados, phishing e malware. De acordo com Jeremy D’Hoinne, vice-presidente analista da Gartner, os criminosos utilizam bots para efetuar tentativas massivas de login, explorando a reutilização de credenciais em diferentes serviços. Com os avanços da IA, os Account Takeover tornar-se-ão mais sofisticados, incluindo engenharia social baseada em deepfake e automação total do abuso de credenciais. Para mitigar a ameaça, prevê-se um aumento na adoção de soluções de deteção e monitorização de interações com agentes de IA em aplicações web, API e canais de voz. A crescente sofisticação dos ataques exige que as empresas abandonem métodos tradicionais de autenticação. Akif Khan, vice-presidente analista da Gartner, recomenda a adoção de autenticação multifator resistente a phishing e, sempre que possível, a substituição de senhas por credenciais de múltiplos dispositivos. A educação dos utilizadores sobre estas opções será fundamental para reduzir a exposição a ataques. Além do account takeover, a engenharia social assistida por IA representa uma ameaça crescente, com as previsões da Gartner a indicar que, até 2028, 40% dos ataques de engenharia social vão ter como alvo não apenas executivos, mas também colaboradores em geral. Táticas como deepfake de áudio e vídeo são cada vez mais utilizadas para enganar funcionários e induzir perdas financeiras substanciais. Dado o aumento das ameaças, as empresas vão ter de adaptar os seus processos para resistir a ataques que utilizam realidade falsificada. Manuel Acosta, analista diretor sénior da Gartner, destaca que a deteção de deepfakes ainda se encontra numa fase inicial e que a melhor defesa passa por treinar os funcionários para reconhecerem estas novas táticas de engenharia social. |