Seus funcionários alimentam o ChatGPT com dados sigilosos, e proibir não vai resolver o dilema que muitas empresas enfrentam hoje: como manter a segurança dos dados sem sufocar a inovação. De acordo com o recente relatório da Netskope sobre Cloud e Ameaças, a média mensal de incidentes de violações de políticas de dados causadas pela inteligência artificial generativa nas empresas é de 223. Este número impressionante destaca a crescente preocupação com a segurança dos dados corporativos.
Seus funcionários alimentam o ChatGPT com dados sigilosos, e proibir não vai resolver o desafio
O aumento vertiginoso do uso de inteligência artificial no Brasil, onde a adoção empresarial saltou de 20% para 51% em um ano, contribuiu para um fenômeno conhecido como shadow AI. Esse termo se refere à prática de funcionários utilizando ferramentas externas, como o ChatGPT, para otimizar tarefas internas. O problema surge quando esses dados sensíveis saem do ambiente seguro da empresa sem o devido controle.
Entenda melhor como esse fenômeno impacta as organizações, especialmente quando as ferramentas internas são lentas e não oferecem os mesmos resultados que as soluções externas mais ágeis. A tentação de usar o ChatGPT reside na sua capacidade de entregar respostas rápidas e impressionantes.
Proibir não resolve: é preciso entender a raiz do problema
Embora a proibição seja uma resposta instintiva para muitos gestores de TI, a realidade é que esta abordagem frequentemente falha. Um estudo da Cisco descobriu que 27% das empresas tentaram banir completamente as ferramentas de IA generativa. Mesmo assim, 48% dos funcionários dessas empresas admitiram ter usado informações não públicas nessas plataformas.
Para resolver essa questão, é fundamental que as empresas ofereçam uma alternativa robusta e eficaz que atenda às necessidades dos funcionários sem comprometer a segurança dos dados. Isso significa investir em soluções internas que sejam tão eficazes quanto as ferramentas externas e, ao mesmo tempo, garantir a conformidade com as políticas de segurança.
Descubra como alternativas internas podem ser desenvolvidas para melhorar a segurança de dados e a eficiência operacional.
Seus funcionários alimentam o ChatGPT com dados sigilosos, e proibir não vai resolver: o caminho para a solução
Para reduzir o uso não autorizado de ferramentas externas, as empresas precisam adotar uma abordagem mais estratégica. É essencial implementar plataformas de segurança de rede que possam rastrear o uso de aplicações de IA generativa e oferecer orientação em tempo real aos funcionários, redirecionando-os para ferramentas aprovadas.
Estudos recentes mostraram que a adoção controlada de IA, com ferramentas aprovadas e arquitetura segura, pode reduzir o uso não autorizado em até 89%. Quando os funcionários têm acesso a uma IA interna que é mais precisa e segura, não há motivo para buscar alternativas externas. O problema de shadow AI é, em essência, um desafio de governança que se manifesta como um risco tecnológico e regulatório.
Para mais insights sobre como implantar soluções seguras e eficazes, confira também nossas análises sobre oportunidades de inovação no mercado de trabalho.
Em suma, a verdadeira questão que os líderes empresariais devem responder é se suas organizações estão fornecendo as ferramentas necessárias para que os funcionários realizem suas tarefas de forma eficaz e segura. Enquanto a resposta for negativa, os incidentes de segurança continuarão a ocorrer, invisíveis para a maioria das organizações.
Entre no VAGAS E CURSOS - PORTAL VAGAS no WhatsApp e receba tudo em primeira mão!

