Das salas de reunião às janelas de chat, a inteligência
artificial passou a ser uma ferramenta integrada à rotina das empresas
brasileiras. Uma pesquisa realizada pela Associação Brasileira de Recursos
Humanos, e divulgada em outubro passado, apontou que ao menos 79% dos
profissionais no país já utilizam ferramentas de IA em suas tarefas diárias,
mas apenas 23,7% afirmam que suas empresas têm políticas claras sobre o tema.
Esse descompasso mostra que enquanto as organizações
correm para adotar inovações de IA, a governança da informação nem sempre
acompanha o ritmo. No Brasil, essa lacuna se traduz em desafios práticos que
afetam diretamente a qualidade dos dados, a conformidade legal e a confiança
nas decisões automatizadas. Em um momento em que regulações ganham forma – a
União Europeia aprovou o AI Act e o Brasil discute seu Marco Legal da IA (PL
2338/2023) – as empresas brasileiras precisam equilibrar a euforia da
transformação digital com controles robustos.
Dados “sujos” e desatualizados: quando a IA aprende errado
Para a IA entregar valor real, a qualidade e organização
dos dados são fundamentais. Porém, muitas empresas brasileiras ainda enfrentam
um cenário de dados caótico: informações espalhadas em silos, duplicadas,
inconsistentes e sem padronização ou qualquer governança. Modelos de IA
treinados sobre essa base fragmentada absorvem vieses e erros, comprometendo a
confiabilidade das previsões.
O perigo é que decisões automatizadas equivocadas – por
exemplo, na análise de crédito ou em recomendações ao cliente – podem escapar
ao radar até causarem prejuízos tangíveis. Sem governança de dados, os Data
Lakes viram “pântanos” de informações de baixa qualidade, e a IA, em vez de
ativo estratégico, vira fonte de risco técnico e reputacional.
Além disso, dados não classificados por sensibilidade
podem acabar alimentando modelos inadvertidamente. Sem saber exatamente que
tipo de dado está sendo usado, uma empresa pode, por exemplo, treinar um
algoritmo de atendimento ao cliente com informações desatualizadas ou
incompletas, resultando em respostas imprecisas, ou – pior – incorporar dados pessoais
sensíveis sem as devidas salvaguardas, violando legislações como a LGPD. Dados
desgovernados “contaminam” a inteligência artificial, criando um efeito cascata
de decisões mal-informadas e potenciais conflitos éticos. Esse cenário torna
evidente que IA confiável só nasce de dados confiáveis – e confiabilidade exige
classificação, atualização e qualidade contínua, pilares da boa governança de
informação.
Ausência de políticas e inventário: terreno fértil para a
Shadow AI
Outro ponto crítico é a falta de políticas corporativas
formais e de um inventário abrangente de dados. Na prática, isso significa que
muitas empresas não sabem exatamente quais dados possuem, onde eles estão
ou como são utilizados pelos algoritmos. Um estudo setorial realizado
pela Miti – Markets Innovation & Technology Institute, e divulgado há
pouco mais de um mês mostrou que apenas 27% das empresas brasileiras possuem
políticas formais de governança de IA, revelando que a grande maioria opera sem
regras claras para uso da tecnologia.
Da mesma forma, levantamento da IBM indica que 87% das
organizações no Brasil não têm nenhuma política de governança de IA em vigor.
Sem um catálogo de dados bem definido e políticas de uso, projetos de IA acabam
se desenvolvendo no escuro: dados são aproveitados sem rastreabilidade de
origem ou verificação de atualidade, e decisões importantes podem estar sendo
tomadas com base em informações desconhecidas pela própria TI.
Essa ausência de diretrizes abre caminho para o fenômeno da
“Shadow AI” – a infiltração silenciosa de inteligência artificial fora dos
radares oficiais. Colaboradores, movidos pela urgência ou entusiasmo, passam a
utilizar ferramentas de IA sem autorização ou supervisão da TI.
Um analista pode, por exemplo, inserir dados confidenciais
de clientes em um chatbot público para gerar um relatório, ou um gerente pode
alimentar uma planilha de planejamento estratégico em uma plataforma de IA
generativa na nuvem, tudo à revelia de políticas internas. Esse uso desorganizado
é mais comum do que se imagina: embora 40% das empresas afirmem oferecer
ferramentas oficiais de IA, 90% dos funcionários já utilizam a tecnologia de
forma não estruturada, segundo pesquisa da MIT Tech Review Brasil.
A Shadow AI expõe as empresas a vazamentos de dados,
falhas de compliance e decisões tomadas fora do escopo corporativo. Um simples
upload de dados sigilosos em um serviço de IA na nuvem pode comprometer
segredos comerciais ou violações regulatórias, sem que a liderança sequer tome
conhecimento imediato. Sem políticas e inventário de dados, a IA avança de
forma desordenada, e os gestores perdem a visibilidade sobre quem usa o quê,
com quais dados e para qual finalidade.
Decisões sem rastreabilidade: auditabilidade em xeque
Conforme a IA ganha papel em decisões de negócio – da
concessão de crédito à triagem de currículos – surge uma nova dificuldade:
auditar e explicar essas decisões automatizadas. Muitos algoritmos de
aprendizado de máquina funcionam como verdadeiras caixas-pretas, das quais saem
recomendações ou predições sem que fique claro aos humanos o porquê.
Nas empresas brasileiras, a capacidade de rastrear e
inspecionar o funcionamento interno dos modelos ainda é incipiente. Mesmo entre
as organizações que já adotam alguma governança de IA, apenas 34% realizam
auditorias regulares para detectar uso não autorizado ou comportamentos
anômalos em algoritmos. Ou seja, em muitos casos as decisões tomadas pela IA
ocorrem sem registro acessível do processo: não há logs detalhados, nem documentação
suficiente para reconstruir quais dados de entrada levaram àquela saída.
Decisões automatizadas sem auditoria dificultam
identificar se um modelo está, por exemplo, discriminando certos clientes ou
recomendando ações com base em dados equivocados. Quando um resultado
controverso aparece – como a recusa de crédito a um perfil que teoricamente
seria elegível – a empresa pode se ver de mãos atadas para explicar os
critérios que o algoritmo utilizou, o que é problemático tanto internamente
quanto perante órgãos reguladores.
Agilidade versus controle: o falso dilema estratégico
Diante de todos esses desafios, muitos executivos de TI se
veem num dilema: como impor controle e governança sem sufocar a agilidade que a
IA promete entregar? Num mercado competitivo, a pressão por inovar rapidamente
é real – qualquer atraso na adoção de uma tecnologia pode significar perda de
vantagem. Isso leva alguns a enxergarem a governança como sinônimo de
burocracia ou freio à inovação.
Contudo, essa é uma percepção equivocada, que os dados e
os especialistas vêm desmentindo. Governança efetiva não diminui a velocidade
da inovação; pelo contrário, reduz fricções e riscos, tornando o avanço mais
seguro e sustentável. De fato, as empresas que crescem mais rápido com IA são justamente
as que tratam governança como alicerce da inovação, e não como obstáculo.
O equilíbrio entre rapidez e controle, portanto, não é
apenas possível – é necessário. O diferencial competitivo da próxima década
estará em adotar IA com velocidade, mas sobretudo com responsabilidade. Agir
rápido demais ignorando governança pode render ganhos imediatos, porém com
riscos latentes que cedo ou tarde cobram seu preço (seja em multas, perda de
reputação ou até na necessidade de refazer projetos inteiros após incidentes).
Por outro lado, incorporar frameworks de governança desde
o início permite escalar a inteligência artificial de modo consistente, sem
surpresas desagradáveis no caminho. Isso envolve desde políticas de acesso e
autenticação robustas, segregação de ambientes, até registro detalhado de logs
e monitoramento contínuo de modelos – práticas que algumas organizações
pioneiras já adotam para assegurar que a IA atue como um ativo de negócio, e
não como uma fonte de insegurança.
Access
https://accesscorp.com
Nenhum comentário:
Postar um comentário