Para advogada especialista em proteção de dados, é possível tirar proveito das vantagens da tecnologia sem expor dados e informações sensíveis a riscos de vazamento
O ChatGPT já é, para empresas de todos os tamanhos, uma
ferramenta valiosa para automatizar tarefas, otimizar a comunicação, capacitar
pessoas e reduzir custos. Compartilhar informações com esse assistente virtual
inteligente, entretanto, pode render riscos para a segurança da
organização.
O exemplo mais recente aconteceu no início do mês de abril, quando funcionários
da Samsung usaram o ChatGPT para lidar com informações sigilosas, provocando
pelo menos três vazamentos sérios de dados sensíveis da empresa. A
transferência de elementos do código-fonte da companhia e gravações de reuniões
internas com o ChatGPT deram à OpenAI acesso a informações que ninguém não
autorizado deveria ter.
O episódio da Samsung mostra que há lições a serem aprendidas sobre como evitar
que essas ferramentas se tornem uma ameaça real à segurança dos dados. A
especialista em proteção de dados Ana Carolina Teles, advogada do escritório
Assis e Mendes, propõe cinco medidas para que as empresas possam aproveitar os
benefícios da tecnologia sem colocar em risco suas informações sigilosas.
Treine os funcionários
Os funcionários são a primeira linha de defesa contra ameaças à segurança dos
dados de uma empresa. Portanto, é fundamental que eles sejam treinados sobre
práticas de segurança da informação, incluindo o uso seguro de assistentes virtuais,
bots e modelos de IA. Isso inclui a conscientização sobre a importância de não
compartilhar informações confidenciais com essas ferramentas (anonimizá-las,
pelo menos), a necessidade de usar senhas fortes e alterá-las regularmente, e a
importância de manter o software e os sistemas atualizados.
2) Implemente políticas claras sobre o uso dessas tecnologias
As empresas devem ter políticas claras sobre o uso de assistentes virtuais,
bots e modelos de IA, incluindo quem pode usá-los, para que finalidades e quais
informações podem ser compartilhadas com essas ferramentas. Além disso, é
importante monitorar rigorosamente o cumprimento dessas políticas para garantir
que elas estejam sendo seguidas corretamente.
3) Considere limitar o acesso a algumas ferramentas
Algumas ferramentas de assistentes virtuais, bots e modelos de IA podem ter
amplos acessos sobre informações extremamente confidenciais, como códigos-fonte
ou dados financeiros. Nesses casos, pode ser necessário limitar ou bloquear
completamente o acesso a essas ferramentas para garantir a segurança dos dados.
4) Conheça as plataformas antes de implementá-las
Antes de implementar uma nova plataforma, é importante entender como ela
funciona e quais são seus recursos de segurança. Isso inclui a avaliação das
políticas de privacidade e segurança da plataforma, bem como a implementação de
controles e salvaguardas apropriados para proteger os dados da empresa.
5) Seja um líder atento aos novos riscos
Os líderes precisam estar atentos aos novos riscos à medida que essas
tecnologias evoluem e se integram mais profundamente ao fluxo de trabalho. Isso
inclui a avaliação contínua das políticas de segurança da empresa, a
identificação de novas ameaças à segurança dos dados e a implementação de
medidas de segurança adequadas para proteger a empresa contra essas ameaças.
Nenhum comentário:
Postar um comentário