Estudo revela que mais de um terço das informações de negócio sensíveis colocados em aplicações de inteligência artificial generativa são dados pessoais regulados
A Netskope publicou um novo estudo que indica que os dados regulamentados, ou seja, dados que as organizações têm o dever legal de proteger, representam mais de um terço dos dados confidenciais partilhados com aplicações de Inteligência Artificial (IA) generativa, o que apresenta um potencial risco para as empresas. O novo estudo do Netskope Threat Labs revela que três quartos das empresas inquiridas bloqueiam, agora, completamente pelo menos uma aplicação de IA generativa, o que reflete o desejo dos líderes de tecnologia empresarial de limitar o risco de exfiltração de dados confidenciais. No entanto, com menos de metade das organizações a aplicar controlos centrados em dados para evitar que as informações sensíveis sejam partilhadas em consultas de entrada, a maioria está atrasada na adoção de soluções avançadas de prevenção contra perda de dados (DLP) necessárias para permitir a utilização em segurança de IA generativa. Utilizando conjuntos de dados globais, os investigadores descobriram que 96% das empresas estão agora a utilizar IA generativa, um número que triplicou nos últimos 12 meses. Em média, as empresas utilizam quase dez aplicações de IA generativa, em comparação com três no ano passado, com 1% das principais empresas a utilizar agora uma média de 80 aplicações, um aumento significativo em relação aos 14 anteriormente registados. Com o aumento desta utilização, as empresas experimentaram um aumento no código-fonte proprietário dentro de aplicações de IA generativa, responsável por 46% de todas as violações documentadas da política de dados. Estas mudanças complicam a forma como as empresas controlam os riscos, criando a necessidade de um esforço de DLP mais robusto. Há sinais positivos de gestão proativa de riscos nas nuances dos controlos de segurança e perda de dados que as organizações estão a aplicar. Diz o relatório que 65% das empresas implementam coaching de utilizadores em tempo real para ajudar a orientar as interações dos utilizadores com as aplicações de IA generativa. De acordo com o estudo, o coaching eficaz do utilizador desempenhou um papel crucial na mitigação dos riscos de dados, levando 57% dos utilizadores a alterar as suas ações após receberem alertas de coaching. “A proteção da IA generativa precisa de mais investimento e maior atenção, uma vez que a sua utilização permeia as empresas sem sinais de que irá desacelerar em breve”, explicou, em comunicado, James Robinson, Chief Information Security Officer da Netskope. “As empresas devem reconhecer que os resultados da IA generativa podem expor inadvertidamente informações confidenciais, propagar informações incorretas ou até mesmo introduzir conteúdo malicioso. Isso exige uma abordagem robusta de gestão de riscos para proteger dados, reputação e continuidade dos negócios”. |