Das salas de reunião às janelas de chat, a inteligência artificial passou a ser uma ferramenta integrada à rotina das empresas brasileiras. Uma pesquisa realizada pela Associação Brasileira de Recursos Humanos, e divulgada em outubro passado, apontou que ao menos 79% dos profissionais no país já utilizam ferramentas de IA em suas tarefas diárias, mas apenas 23,7% afirmam que suas empresas têm políticas claras sobre o tema.
Esse
descompasso mostra que enquanto as organizações correm para adotar inovações de
IA, a governança da informação nem sempre acompanha o ritmo. No Brasil, essa
lacuna se traduz em desafios práticos que afetam diretamente a qualidade dos
dados, a conformidade legal e a confiança nas decisões automatizadas. Em um
momento em que regulações ganham forma – a União Europeia aprovou o AI Act e o
Brasil discute seu Marco Legal da IA (PL 2338/2023) – as empresas brasileiras
precisam equilibrar a euforia da transformação digital com controles robustos.
Dados “sujos” e desatualizados: quando a IA aprende
errado
Para a IA entregar valor real, a qualidade e organização dos dados são fundamentais. Porém, muitas empresas brasileiras ainda enfrentam um cenário de dados caótico: informações espalhadas em silos, duplicadas, inconsistentes e sem padronização ou qualquer governança. Modelos de IA treinados sobre essa base fragmentada absorvem vieses e erros, comprometendo a confiabilidade das previsões.
O perigo é que decisões automatizadas equivocadas – por exemplo, na análise de crédito ou em recomendações ao cliente – podem escapar ao radar até causarem prejuízos tangíveis. Sem governança de dados, os Data Lakes viram “pântanos” de informações de baixa qualidade, e a IA, em vez de ativo estratégico, vira fonte de risco técnico e reputacional.
Além
disso, dados não classificados por sensibilidade podem acabar alimentando
modelos inadvertidamente. Sem saber exatamente que tipo de dado está sendo
usado, uma empresa pode, por exemplo, treinar um algoritmo de atendimento ao
cliente com informações desatualizadas ou incompletas, resultando em respostas
imprecisas, ou – pior – incorporar dados pessoais sensíveis sem as devidas
salvaguardas, violando legislações como a LGPD. Dados desgovernados
“contaminam” a inteligência artificial, criando um efeito cascata de decisões
mal-informadas e potenciais conflitos éticos. Esse cenário torna evidente que
IA confiável só nasce de dados confiáveis – e confiabilidade exige
classificação, atualização e qualidade contínua, pilares da boa governança de
informação.
Ausência de políticas e inventário: terreno fértil para
a Shadow AI
Outro
ponto crítico é a falta de políticas corporativas formais e de um inventário
abrangente de dados. Na prática, isso significa que muitas empresas não
sabem exatamente quais dados possuem, onde eles estão ou como são utilizados
pelos algoritmos. Um estudo setorial realizado pela Miti – Markets
Innovation & Technology Institute, e divulgado há pouco mais de um mês
mostrou que apenas 27% das empresas brasileiras possuem políticas formais de
governança de IA, revelando que a grande maioria opera sem regras claras para
uso da tecnologia.
Da mesma forma, levantamento da IBM indica que 87% das organizações no Brasil não têm nenhuma política de governança de IA em vigor. Sem um catálogo de dados bem definido e políticas de uso, projetos de IA acabam se desenvolvendo no escuro: dados são aproveitados sem rastreabilidade de origem ou verificação de atualidade, e decisões importantes podem estar sendo tomadas com base em informações desconhecidas pela própria TI.
Essa ausência de diretrizes abre caminho para o fenômeno da “Shadow AI” – a infiltração silenciosa de inteligência artificial fora dos radares oficiais. Colaboradores, movidos pela urgência ou entusiasmo, passam a utilizar ferramentas de IA sem autorização ou supervisão da TI.
Um analista pode, por exemplo, inserir dados confidenciais de clientes em um chatbot público para gerar um relatório, ou um gerente pode alimentar uma planilha de planejamento estratégico em uma plataforma de IA generativa na nuvem, tudo à revelia de políticas internas. Esse uso desorganizado é mais comum do que se imagina: embora 40% das empresas afirmem oferecer ferramentas oficiais de IA, 90% dos funcionários já utilizam a tecnologia de forma não estruturada, segundo pesquisa da MIT Tech Review Brasil.
A
Shadow AI expõe as empresas a vazamentos de dados, falhas de compliance e
decisões tomadas fora do escopo corporativo. Um simples upload de dados
sigilosos em um serviço de IA na nuvem pode comprometer segredos comerciais ou
violações regulatórias, sem que a liderança sequer tome conhecimento imediato.
Sem políticas e inventário de dados, a IA avança de forma desordenada, e os
gestores perdem a visibilidade sobre quem usa o quê, com quais dados e para
qual finalidade.
Decisões sem rastreabilidade: auditabilidade em xeque
Conforme a IA ganha papel em decisões de negócio – da concessão de crédito à triagem de currículos – surge uma nova dificuldade: auditar e explicar essas decisões automatizadas. Muitos algoritmos de aprendizado de máquina funcionam como verdadeiras caixas-pretas, das quais saem recomendações ou predições sem que fique claro aos humanos o porquê.
Nas empresas brasileiras, a capacidade de rastrear e inspecionar o funcionamento interno dos modelos ainda é incipiente. Mesmo entre as organizações que já adotam alguma governança de IA, apenas 34% realizam auditorias regulares para detectar uso não autorizado ou comportamentos anômalos em algoritmos. Ou seja, em muitos casos as decisões tomadas pela IA ocorrem sem registro acessível do processo: não há logs detalhados, nem documentação suficiente para reconstruir quais dados de entrada levaram àquela saída.
Decisões
automatizadas sem auditoria dificultam identificar se um modelo está, por
exemplo, discriminando certos clientes ou recomendando ações com base em dados
equivocados. Quando um resultado controverso aparece – como a recusa de crédito
a um perfil que teoricamente seria elegível – a empresa pode se ver de mãos
atadas para explicar os critérios que o algoritmo utilizou, o que é
problemático tanto internamente quanto perante órgãos reguladores.
Agilidade versus controle: o falso dilema estratégico
Diante de todos esses desafios, muitos executivos de TI se veem num dilema: como impor controle e governança sem sufocar a agilidade que a IA promete entregar? Num mercado competitivo, a pressão por inovar rapidamente é real – qualquer atraso na adoção de uma tecnologia pode significar perda de vantagem. Isso leva alguns a enxergarem a governança como sinônimo de burocracia ou freio à inovação.
Contudo, essa é uma percepção equivocada, que os dados e os especialistas vêm desmentindo. Governança efetiva não diminui a velocidade da inovação; pelo contrário, reduz fricções e riscos, tornando o avanço mais seguro e sustentável. De fato, as empresas que crescem mais rápido com IA são justamente as que tratam governança como alicerce da inovação, e não como obstáculo.
O equilíbrio entre rapidez e controle, portanto, não é apenas possível – é necessário. O diferencial competitivo da próxima década estará em adotar IA com velocidade, mas sobretudo com responsabilidade. Agir rápido demais ignorando governança pode render ganhos imediatos, porém com riscos latentes que cedo ou tarde cobram seu preço (seja em multas, perda de reputação ou até na necessidade de refazer projetos inteiros após incidentes).
Por
outro lado, incorporar frameworks de governança desde o início permite escalar
a inteligência artificial de modo consistente, sem surpresas desagradáveis no
caminho. Isso envolve desde políticas de acesso e autenticação robustas,
segregação de ambientes, até registro detalhado de logs e monitoramento
contínuo de modelos – práticas que algumas organizações pioneiras já adotam
para assegurar que a IA atue como um ativo de negócio, e não como uma fonte de
insegurança.
Inon Neves - vice-presidente da Access
Access
https://accesscorp.com
Nenhum comentário:
Postar um comentário