Não há dúvidas de que a inteligência artificial chegou com tudo. Ferramentas como o ChatGPT estão mudando a forma como as equipes trabalham, colaboram e encontram soluções rápidas para problemas complexos. De acordo com uma pesquisa realizada pela Ipsos e o Google com 21 mil pessoas em 21 países, em 2024 o Brasil ficou acima da média global no uso de IA: 54% dos brasileiros relataram que utilizaram a tecnologia, enquanto a média global ficou em 48%.
Diante desses dados, está claro que os colaboradores estão cada vez mais expostos a novas tecnologias que prometem agilidade e eficiência. E quem pode culpá-los por querer explorar esses recursos para aprimorar o trabalho? A questão é que, na ânsia por resultados rápidos, muitos ignoram as diretrizes básicas de segurança da informação.
Se por um lado a produtividade pode disparar a partir do seu uso, o controle sobre informações sensíveis que são compartilhadas com as ferramentas de IA se torna cada vez mais difícil. Imagine a seguinte situação: um colaborador decide testar uma nova IA para automatizar um relatório interno. Parece inofensivo, certo? Só que, nesse processo, ele pode compartilhar dados críticos que nunca deveriam sair do ambiente corporativo e trazer diversos prejuízos para os negócios.
Segundo estudo da Surfshark, um terço das dez maiores empresas de IA compartilham dados dos usuários sem que eles tenham noção exata de como essas informações são usadas. Um levantamento da IBM aponta ainda que cerca de 95% das violações de dados são causadas por erro humano. E, visto que há um uso cada vez mais frequente de ferramentas que operam em nuvem, a exposição se torna ainda mais evidente.
Porém, o principal problema é que muitas empresas ainda não estabeleceram regras claras sobre o uso dessas ferramentas. Além disso, para piorar, não sabem o quanto de informação está sendo dividida inadvertidamente e de que forma isso pode comprometer a segurança dos dados.
Então, como evitar o vazamento de informações sensíveis? É importante entender que o controle sobre elas deve ser prioridade máxima em qualquer companhia que deseja proteger seu patrimônio digital. Portanto, é essencial estabelecer políticas claras de uso de IA: os colaboradores precisam entender o que é permitido ou não. Para ajudar nessa missão, as empresas podem criar um guia de boas práticas que mostre como alinhar o uso dessas ferramentas com a segurança corporativa.
Além disso, é fundamental treinar e educar as equipes continuamente, visto que segurança de dados não é um tema que se resolve com uma única conversa. Também é possível implementar o monitoramento e auditorias regulares, ainda mais pensando que as ferramentas que rastreiam o uso de IA e os dados compartilhados podem ajudar a identificar comportamentos de risco antes que se tornem um problema real.
Para ser ainda mais cautelosa, a empresa deve adotar o princípio do menor privilégio, ou seja, limitar o acesso às informações apenas para aqueles que realmente precisam delas. Apesar de simples, esse movimento reduz significativamente as chances de vazamentos acidentais. Vale lembrar: a tecnologia deve ser aliada, não inimiga. E, quanto mais sofisticada for, mais cuidado é necessário para garantir que o controle sobre informações sensíveis não se perca.
Autor:
Paulo Lima é CEO da Skymail, empresa destaque em serviços de e-mail corporativo, cloud computing e segurança digital