Não há dúvidas – 2025 parece marcar a entrada na era dourada da inteligência artificial (IA). Os investimentos mais robustos das empresas em IA e GenAI estão gerando ganhos genuínos em produtividade e crescimento de receita. A pergunta que ecoa é: como garantir que a galinha dos ovos de ouro, no caso a IA, continue em atividade?
Em 2025, acredito em um cenário em que as empresas - motivadas pelas razões certas e capacitadas pelas ferramentas adequadas -, alcançarão resultados confiáveis e replicáveis com IA e GenAI ao operacionalizar essas tecnologias e demonstrar sua confiabilidade. Aqui estão minhas previsões para IA e GenAI para este ano:
As empresas
perceberão que nem toda IA é generativa
À medida que a era dourada da IA se consolida, as empresas levarão mais a sério a maximização do valor comercial de seus investimentos nessa tecnologia. Ao analisar os problemas que desejam resolver, aplicarão sua experiência e aprendizados em IA para determinar quais oportunidades são melhor atendidas por GenAI e quais são mais adequadas para técnicas tradicionais de IA e aprendizado de máquina interpretável. De fato, mais de 80% de todos os sistemas de IA em produção atualmente não são de IA generativa.
Portanto, mesmo que as organizações
tenham agora um conjunto variado de capacidades de IA, elas não devem tentar
apertar um parafuso com um martelo. Escolher as ferramentas certas de IA exige
cientistas de dados que compreendam criticamente os requisitos operacionais e
de negócios e possam avaliar os pontos fortes e fracos da IA tradicional ou
GenAI. Processos com o olhar e criticidade humana serão fundamentais para
avaliar se um problema empresarial requer tomada de decisão determinística,
aprendizado de máquina interpretável, auditoria ou outros requisitos de
implementação. Escolher corretamente entre IA tradicional e GenAI será
essencial para investimentos bem-sucedidos.
Tornar a IA
operacional é um desafio – mas ficará mais fácil
"Operacionalização" não é exatamente uma palavra fácil de dizer, mas esse conceito, que significa "transformar ideias conceituais abstratas em observações mensuráveis", pode ser sistematicamente alcançado quando sistemas de IA e GenAI são implementados de forma repetível e mensurável – por meio de uma combinação otimizada de pessoas, processos e tecnologia.
Muitas empresas não sabem como
operacionalizar a IA ou por onde começar. Desenvolvi cinco princípios para a
operacionalização da IA, que sempre formam a estrutura de qualquer
implementação. Aqui está a versão resumida:
1. Comece com uma equipe
de classe mundial: A implantação de IA precisa ser estratégica e entregue por
profissionais experientes em ciência de dados que não apenas possuam
credenciais acadêmicas, mas também experiência prática para aplicar IA na
solução de problemas empresariais complexos.
2. Desenvolva IA para
atender ao setor ou necessidade específica: Além da equipe de
ciência de dados, toda a organização deve focar no uso de IA para resolver
problemas empresariais de alto valor. Isso inclui quantificar a necessidade de
negócios e, muitas vezes, criar novos algoritmos para abordá-la.
3. Crie algoritmos de IA
para uma implantação eficiente de software: A implantação
bem-sucedida de IA exige que cientistas de IA e aprendizado de máquina
participem do design do software, fornecendo requisitos e compreendendo as
restrições aplicadas aos algoritmos.
4. Ofereça execução de
baixa latência e alto desempenho: Recursos de computação em nuvem bem
arquitetados podem operacionalizar sistemas de decisão baseados em IA para
atender as necessidades empresariais. O desempenho em tempo real requer um
entendimento cuidadoso de todo o fluxo de dados, desde pré-processamento até análise
em tempo real e armazenamento eficiente.
5. Busque
incansavelmente a IA Responsável: Para que a IA gere valor para os
negócios, ela deve ser ética, explicável e auditável. Esses são os
conceitos-chave da IA Responsável, um conjunto de princípios e práticas que
garantem resultados de alto impacto dentro de limites éticos e legais.
A responsabilidade
e a explicabilidade são centrais para a IA Responsável e podem ser alcançadas
com tecnologia blockchain imutável para codificar cada aspecto do
desenvolvimento de modelos de IA. O mesmo blockchain de governança da IA pode
ser usado para definir métricas operacionais e monitorar a IA em produção,
permitindo que seu valor vá além do laboratório de ciência de dados.
O crescimento
de casos de uso específicos para domínios de dados com GenAI
As empresas que
levam a sério o uso de modelos de linguagem de grande escala (LLMs) e outras
técnicas generativas de maneira responsável e orientada por valor o farão com
base na IA Responsável – que começa com a gestão eficaz dos próprios dados. Já
defendi essa visão há algum tempo e fico satisfeito em ver que pesquisadores do
MIT e McKinsey & Co. a confirmaram empiricamente, afirmando na Harvard
Business Review: “Para as empresas usarem bem a IA, precisam de dados precisos,
pertinentes e bem organizados.”
Em 2025, os
programas de GenAI serão baseados em dados ativamente curados e relevantes para
domínios empresariais específicos. As empresas selecionarão e limparão os dados
que seus LLMs devem aprender e removerão grandes quantidades de dados
irrelevantes. Esse é um primeiro passo para o uso responsável e a obtenção de
valor comercial – afinal, um LLM é apenas um reflexo dos dados nos quais foi
treinado.
Empresas
criarão seus próprios modelos de linguagem
Além disso,
veremos cada vez mais empresas desenvolvendo seus próprios pequenos modelos de
linguagem (SLMs). Surgirão modelos de linguagem focados (FLMs), projetados para
mitigar o problema das "alucinações" dos LLMs, com um conjunto
específico de dados e âncoras de conhecimento para garantir respostas precisas
e confiáveis.
O uso generalizado
de FLMs também trará outro benefício: redução do impacto ambiental da GenAI.
De acordo com estimativas do setor, uma única consulta no ChatGPT consome entre
10 e 50 vezes mais energia do que uma pesquisa no Google. O Relatório
da Economia Digital das Nações Unidas estima que os data
centers da Google, Amazon, Meta, Apple e Microsoft (GAMAM) consumiram mais de 90 TWh
de energia – mais do que países inteiros, como Finlândia, Bélgica, Chile ou
Suíça. À medida que as empresas buscam maneiras de atingir metas de
sustentabilidade além da compra de créditos de carbono, os FLMs podem ser uma
alternativa eficaz para reduzir o consumo energético da GenAI.
Pontuações
de confiança da IA facilitarão o uso da GenAI
As pontuações de
confiança da IA, associadas aos FLMs, permitirão o uso seguro da GenAI. Essa
métrica independente e baseada em riscos ajudará a operacionalizar a GenAI em
grande escala com precisão mensurável.
Essas pontuações
de confiança da IA refletem três aspectos:
1. A probabilidade de
que os dados de contexto chave usados para treinar o FLM sejam realmente
utilizados na resposta.
2. O nível de confiança
do modelo na resposta, baseado em relevância estatística.
3. O alinhamento da
resposta com fatos reais e não apenas com dados probabilísticos.
Olhando
para frente e para trás
Estou animado para
ver como essas previsões para IA e GenAI se concretizam na Era Dourada da IA.
Olhando para trás, minhas previsões para 2024 se mostraram corretas:
·
IA auditável tornou a responsabilidade
um diferencial competitivo.
·
Modelos menores e focados ganharam
espaço.
·
A intervenção humana voltou a ser
valorizada.
O que 2025 nos
reserva? Mal posso esperar para descobrir.
Scott Zoldi - CAO da FICO
Nenhum comentário:
Postar um comentário