Pesquisar no Blog

quarta-feira, 11 de março de 2026

OpenClaw e a nova geração de agentes de IA: autonomia operacional, risco expandido


Lançado há poucos meses, o OpenClaw está longe de ser “mais um chatbot” – trata-se de um agente autônomo capaz de executar ações diretas nos sistemas corporativos, um salto que já redefine protocolos de cibersegurança. Se por um lado o OpenClaw promete ganhos de produtividade ininterrupta, por outro força os líderes de TI a revisarem suas defesas digitais agora que a inteligência artificial atua por conta própria. A adoção estratégica desses agentes – em curso no mundo todo – abre oportunidades competitivas, mas exige vigilância constante para que a segurança caminhe no mesmo passo da inovação. 

Um diferencial importante é que esses agentes aprendem e se adaptam conforme operam. Ao contrário das automações tradicionais (RPA) que seguem regras rígidas, os agentes de IA combinam aprendizado de máquina e modelo de linguagem para ajustar suas ações de acordo com o contexto. Eles mantêm memória das interações e resultados anteriores (persistência), refinando estratégias com o tempo. 

Na prática, isso significa que uma tarefa bem-sucedida hoje informará a abordagem do agente amanhã. Grandes fornecedoras de tecnologia já oferecem ferramentas para criação de agentes corporativos: a IBM, por exemplo, lançou o WatsonX Orchestrate, propondo um “colaborador digital” capaz de integrar aplicativos empresariais e automatizar tarefas de RH ou vendas. 

Startups também correm nesse espaço com soluções de assistentes autônomos especializados, enquanto comunidades open-source criam agentes customizáveis para qualquer um testar. O sucesso meteórico do OpenClaw – que em poucos meses atraiu dezenas de milhares de usuários e desenvolvedores buscando seu “Jarvis” pessoal – reforça que há apetite tanto de mercado quanto de mão de obra qualificada para tornar agentes uma realidade cotidiana.

 

Persistência, autonomia e integração tecnológica

Por trás do entusiasmo, é importante compreender como esses agentes de IA operam na prática. Em geral, são sistemas construídos sobre modelos avançados de IA (como os modelos de linguagem GPT-4, Claude, etc.) combinados com frameworks de software capazes de conectar a IA a ferramentas e APIs diversas. Um agente autônomo possui componentes adicionais: memória de longo prazo, módulos de tomada de decisão e conectores para executar ações. 

A persistência é um fator-chave – o agente mantém estado e contexto entre interações. Isso quer dizer que ele lembra objetivos definidos, informações fornecidas anteriormente e resultados já alcançados, evitando ter que “reaprender” a cada nova tarefa. Essa memória persistente pode ser armazenada em bancos de dados ou mesmo em arquivos estruturados (no caso do OpenClaw por exemplo, utiliza-se um repositório local em Markdown para guardar histórico e contexto). 

Graças a isso, o agente pode trabalhar de forma contínua: monitora eventos, aguarda condições e retoma fluxos conforme necessário, sem perder o fio condutor.

A autonomia na tomada de decisão é o que distingue esses agentes de softwares tradicionais. Eles são programados para perseguir um objetivo ou resolver um problema e, para isso, geram dinamicamente planos de ação, dividindo objetivos em subtarefas quando necessário. Utilizando o poder de raciocínio fornecido pelos modelos de IA, um agente consegue avaliar diferentes estratégias e escolher a mais adequada com base nos dados disponíveis e nas orientações de alto nível dadas pelos desenvolvedores. 

Enquanto um script comum seguiria sempre o mesmo caminho pré-definido, o agente autônomo pode mudar de rota se detectar um obstáculo ou uma oportunidade melhor, replanejando suas ações “em tempo real”. Esse comportamento orientado a objetivos e adaptável é o que permite, por exemplo, que um agente ajustado para suporte ao cliente identifique a emoção em uma mensagem e altere o tom ou escale o caso, em vez de dar uma resposta padrão. 

Finalmente, a interação com sistemas internos e ferramentas externas via APIs completa o ciclo que torna esses agentes tão poderosos. Em essência, eles atuam como uma cola inteligente entre diferentes plataformas: conseguem chamar APIs de sistemas corporativos, ler e escrever em arquivos, acionar serviços na nuvem ou aplicativos locais. O OpenClaw exemplifica essa capacidade ao executar comandos de sistema, controlar navegadores web, enviar mensagens em múltiplos canais de chat e até acessar sensores como câmeras e GPS quando autorizado. 

Se algo pode ser automatizado via software, um agente de IA bem projetado pode orquestrar – seja reservar uma sala de reunião no Outlook, atualizar um registro no Salesforce ou despachar um alerta no Slack. Essa integração multi-ferramentas é essencial para que agentes atuem em fluxos operacionais completos, servindo de ponte entre departamentos e quebrando silos de informação. Em vez de cada equipe configurar suas próprias macros ou bots isolados, o agente autônomo centraliza a inteligência e circula pelas interfaces de cada sistema, aplicando políticas e lógica de negócio de forma consistente. 

Desenvolvedores podem definir limites de atuação, e implementar mecanismos de aprovação para certas ações de alto impacto. Em muitos casos, os agentes operam em ambientes isolados dentro da infraestrutura da empresa, garantindo que mesmo um comportamento imprevisto não causará danos irreversíveis. Ainda assim, como veremos adiante, essa nova autonomia traz desafios de governança e monitoramento bem diferentes do que conhecíamos na TI tradicional.

 

Riscos de segurança

Como toda tecnologia disruptiva, os agentes de IA autônomos carregam não apenas oportunidades, mas também novos riscos de segurança e questões de governança. Se mal geridos, esses “colaboradores digitais” podem ganhar acessos excessivos, tomar decisões inadequadas ou mesmo ser alvo de ataques sofisticados – criando vulnerabilidades difíceis de rastrear. Executivos e líderes de TI começam a se perguntar: até onde podemos confiar numa inteligência artificial que age sozinha, e como supervisioná-la sem sufocar seu potencial? 

Um dos riscos mais imediatos é a possibilidade de ações indevidas ou maliciosas passarem despercebidas. Como o agente opera em alta velocidade e sem intervenção humana direta, erros do modelo de IA ou instruções manipuladas por terceiros podem levar a consequências graves. 

Imagine um agente designado para priorizar e responder e-mails recebidos pela empresa. Se um criminoso cibernético insere um comando escondido em meio a um texto aparentemente inofensivo, esse agente pode ser enganado a executar uma tarefa perigosa – por exemplo, reenviar informações confidenciais ao invasor, acreditando estar apenas obedecendo a uma solicitação legítima. Nesse cenário, o agente não é intrinsecamente maligno, mas foi manipulado sem perceber. E o pior: como não há um humano tomando a ação diretamente, esse tipo de incidente não deixa rastros claros, dificultando a detecção do vazamento. 

Casos assim revelam uma nova classe de ameaça, em que as tradicionais assinaturas de ataque podem falhar – afinal, o “ataque” foi transformado em uma ação interna legítima aos olhos dos sistemas. 

Além disso, há o fato de que modelos de IA às vezes alucinam ou cometem erros. Em um chatbot, uma resposta errada pode ser apenas um inconveniente, mas em um agente autônomo, uma conclusão equivocada pode acionar uma cadeia de eventos indesejados.

Por exemplo, um agente encarregado da gestão de estoque poderia interpretar erroneamente uma tendência de vendas e fazer um pedido grande demais de matéria-prima, gerando custo desnecessário. Sem um olhar humano crítico revisando cada decisão, aumenta-se o potencial de danos a partir de erros sutis. 

Outro problema é o do acesso privilegiado desgovernado. Para serem úteis, agentes frequentemente precisam de credenciais para acessar contas, bancos de dados e sistemas internos. Se essas credenciais não forem gerenciadas com rigor, o agente pode acabar tendo muito mais permissão do que o necessário – e qualquer brecha na sua segurança significa que um invasor poderia explorar essas credenciais. Um agente comprometido poderia, em tese, executar milhares de ações maliciosas por minuto, algo inviável para um invasor humano comum. 

A adoção segura dessa tecnologia exige três pilares fundamentais: arquitetura segura, governança robusta e observabilidade contínua. A simples implementação dos agentes não basta – é essencial construir uma base técnica e organizacional que assegure operações confiáveis e alinhadas às metas estratégicas do negócio. 

A arquitetura precisa ser pensada desde o início para conter comportamentos imprevistos: isso inclui ambientes isolados, permissões granulares e limites bem definidos de atuação. Já a governança envolve criar diretrizes claras, integrar os agentes às estruturas de risco e compliance e gerenciar suas identidades com o mesmo rigor aplicado a usuários humanos. É nesse eixo que entram a definição de escopos, a supervisão ativa das decisões automatizadas e a adequação às normas regulatórias emergentes. 

Por fim, a observabilidade garante visibilidade contínua sobre o que os agentes estão fazendo, com que frequência e com base em quais critérios. Monitoramento em tempo real, trilhas de auditoria completas e métricas de confiança dos modelos são elementos centrais para prevenir abusos, diagnosticar falhas e permitir aprendizado constante. 

Estamos na aurora da era da IA agêntica, e empresas ágeis em adotar esses agentes podem ganhar vantagem em produtividade e qualidade de serviço. Os riscos são reais, mas, como frequentemente ocorre em tecnologia, o maior risco pode ser ficar para trás. Com arquitetura segura, governança sólida e observabilidade constante – os agentes de IA autônomos podem se tornar aliados confiáveis na estratégia corporativa, liberando o talento humano para focar no que realmente importa: criatividade, inovação e decisões estratégicas.


Heber Lopes - Head de Produtos e Marketing da Faiston

Reforma tributária: 61% dos contadores ainda não mapearam impacto em clientes


Freepik

O resultado, trazido por levantamento da Omie, é mais preocupante para empresas do Simples, que têm até setembro para decidir se permanecem nesse regime tributário ou mudam para o híbrido 

 

Pesquisa realizada pela Omie, plataforma de gestão (ERP) para pequenas e médias empresas, mostra que 61% dos contadores ainda não iniciaram o mapeamento da carteira de clientes para analisar demonstrações contábeis e orientar decisões futuras diante da reforma tributária do consumo. 

Para empresários do Simples Nacional, o dado é particularmente preocupante, pois eles precisam de um diagnóstico antecipado até setembro para decidir se permanecem nesse regime tributário ou mudam para o híbrido, em que os novos CBS e IBS serão recolhidos separadamente com intuito de gerar valores maiores de créditos aos adquirentes de produtos e serviços.

Realizada para detectar o posicionamento de contadores diante das novas oportunidades de negócios geradas pela reforma tributária, a 2ª Sondagem do Setor Contábil envolveu 633 empresas contábeis, sendo grande parte com carteira entre 50 e 300 clientes.

Felipe Beraldi, economista da Omie, atribui o resultado ao fato de a reforma ter começado de forma discreta do ponto de vista operacional, não atingindo as empresas do Simples, desobrigadas neste ano de testes de destacarem os novos tributos nos documentos fiscais.

“Provavelmente, empreendedores e contadores vão se movimentar conforme o avanço do cronograma, mas isso não é o ideal, pois muitas análises vão depender de dados e de tempo para que as melhores decisões sejam tomadas”, analisa.

O economista cita o resultado de outra pesquisa recente, desta vez feita com 500 empreendedores e gestores de pequenas e médias empresas, que reforça a tese da demora por parte de contadores em iniciarem o mapeamento de suas carteiras de clientes.

Esse levantamento mostrou que só 25% dos empreendedores foram procurados por suas empresas contábeis para tratar da reforma tributária.


Protagonismo

Daniel Coêlho, presidente da Fenacon, vê com preocupação a demora na análise contábil das empresas. Na sua visão, o novo sistema já começa a produzir efeitos na fase de transição.

“A reforma tributária não é um ajuste pontual no sistema. Ela altera a espinha dorsal da tributação sobre o consumo no Brasil, com impacto direto na estrutura de custos, na margem das empresas, na formação de preço e na competitividade.”

Coêlho destaca que é compreensível que haja cautela diante das regulamentações ainda em construção, mas os contadores não podem esperar a última norma ser publicada. “É preciso que assumam a liderança técnica, o protagonismo e planejamento antecipado, pois o mercado não vai esperar.” 


Sinal de alerta

Para o presidente do Sescon-SP, Antonio Carlos dos Santos, o dado acendeu um importante sinal de alerta, pois este ano será essencial para a preparação, testes e ajustes necessários junto aos clientes.

“O mapeamento é o ponto zero para que as empresas de contabilidade compreendam, com antecedência, quem tende a ser mais impactado pela chegada do IBS e da CBS, especialmente diante da nova lógica de creditamento financeiro, que pode afetar diretamente o fluxo de caixa das empresas."

Na sua avaliação, a reforma tributária abre uma das maiores agendas de atuação consultiva vistas para a contabilidade brasileira. Há oportunidades nas áreas de diagnósticos de impacto por cliente e por segmento, simulações comparativas entre o modelo atual e o futuro, revisão de enquadramentos tributários, reestruturação de preços e contratos, planejamento da transição e adequação de sistemas e processos.

“A própria fase de testes de 2026 já evidenciou outro campo relevante de atuação: o desafio operacional das empresas com sistemas, cadastros, parametrizações, integrações com ERPs e cumprimento das novas obrigações acessórias”, diz o presidente do Sescon-SP.

“A convivência entre o modelo atual e o novo exige acompanhamento próximo e suporte técnico contínuo, ampliando ainda mais o espaço para a contabilidade atuar de forma estratégica.”


Adaptação de sistemas

Se o mapeamento da carteira de clientes ainda não é uma prioridade para os contadores, o mesmo não se pode dizer sobre a tecnologia para atender às novas regras impostas pela reforma tributária. 

De acordo com a pesquisa, 97% dos entrevistados pretendem intensificar a recomendação de ERPs. Mas a adesão ainda é baixa entre pequenas e médias empresas, segundo levantamento do Sebrae: apenas 47% do segmento utilizam sistema de gestão.

Para Felipe Beraldi, há uma percepção entre os contadores de que seus clientes ainda são muito analógicos. E essa questão da tecnologia, ressalta, é um ponto inicial importante, já que o trabalho de consultoria exigido pela reforma tributária será muito mais fácil e certeiro nas empresas que usam sistemas de gestão.

“Os pequenos empreendedores que enxergarem a tecnologia apenas como um custo ficarão muito atrás do fisco, que já investiu R$ 1,6 bilhão nos sistemas da reforma tributária”, conclui.


Estratégias para contadores diante da reforma tributária

- Mapeamento da carteira de clientes: dê prioridade aos segmentos mais expostos às mudanças para identificar riscos e oportunidades com antecedência. Esse movimento acelera a tomada de decisão e posiciona a empresa contábil como parceira ativa no processo;

- Propostas de valor: defina o que o cliente receberá: relatórios de impacto, cenários comparativos e orientações práticas para cada etapa da transição. Quando a oferta é objetiva, o cliente entende o valor e avança com mais segurança;

- Estruturação de propostas e serviços: transforme o mapeamento em um processo contínuo para toda a carteira, com etapas padronizadas, revisões recorrentes e visão integrada da jornada dos clientes.

  

Silvia Pimentel
https://www.dcomercio.com.br/publicacao/s/reforma-tributaria-61-dos-contadores-ainda-nao-mapearam-impacto-em-clientes



Brasil tem alta de 37% em ciberataques enquanto cenário global segue próximo de recorde

Pesquisadores da Check Point Software revelam que os ciberataques globais permaneceram próximos de níveis recordes em fevereiro de 2026, mantendo forte pressão sobre redes em todo o mundo, enquanto persiste a exposição de dados associada à IA generativa

 

Os pesquisadores da Check Point Research (CPR), a divisão de Inteligência de Ameaças da Check Point Software, divulgaram o Relatório de Estatísticas Globais de Inteligência de Ameaças referentes a fevereiro de 2026, revelando que organizações em todo o mundo enfrentaram uma média de 2.086 ataques cibernéticos por semana. O número representa um aumento de 9,6% em comparação com fevereiro de 2025, permanecendo praticamente estável em relação a janeiro de 2026 (0,2% de variação). 

No Brasil, foram registrados em média 3.736 ataques cibernéticos semanais por organização, o que representa um aumento de 37% em relação ao mesmo período do ano anterior. 

Os dados indicam que a pressão cibernética global permanece em níveis historicamente elevados. Embora a atividade de ransomware tenha diminuído em relação ao ano anterior, em razão de uma campanha atípica registrada no início de 2025, o volume total de ataques continua próximo de patamares recordes. 

O cenário é impulsionado por ataques automatizados persistentes, pela expansão das infraestruturas digitais e pela maior exposição de dados associada ao uso disseminado de ferramentas de inteligência artificial (IA) generativa. 

“Os resultados de fevereiro reforçam que o risco cibernético deixou de ser episódico e passou a ser contínuo”, afirma Omer Dembinsky, gerente de Pesquisa de Dados da Check Point Research. “Mesmo quando a atividade de ransomware oscila, os atacantes mantêm pressão constante em diferentes setores e regiões. Ao mesmo tempo, o uso não gerenciado de IA generativa segue introduzindo novos riscos de exposição de dados. A abordagem de prevenção em primeiro lugar, com proteção em tempo real impulsionada por IA, continua sendo a forma mais eficaz de interromper ataques antes que causem danos operacionais ou financeiros.”

 

IA generativa amplia riscos de exposição de dados 

A rápida adoção de ferramentas de IA generativa nas empresas continua criando caminhos de alto risco para vazamento de dados. Durante o mês passado, um em cada 31 prompts enviados a partir de redes corporativas apresentou alto risco de exposição de dados sensíveis, impactando 88% das organizações que utilizam regularmente ferramentas de IA generativa. Outros 16% dos prompts continham informações potencialmente sensíveis, incluindo documentos internos, credenciais, dados de clientes e conteúdos proprietários. 

As organizações utilizaram, em média, 11 ferramentas diferentes de IA generativa em fevereiro, muitas das quais provavelmente não são gerenciadas e operam fora de estruturas formais de governança. Enquanto isso, o usuário corporativo médio gerou 62 prompts de IA generativa por mês, evidenciando o quanto fluxos de trabalho baseados em IA estão integrados às operações diárias, muitas vezes sem visibilidade ou controles suficientes.

 

Volumes de ataques concentram-se em economias em rápida digitalização 

O setor de educação permaneceu como o mais atacado globalmente, com instituições registrando 4.749 ataques semanais por organização (+7% ano a ano). As entidades governamentais vieram em seguida, com 2.714 ataques semanais (+2% YoY). Já o setor de telecomunicações ficou em terceiro lugar, com 2.699 ataques por semana (+6% YoY), refletindo o direcionamento contínuo de ataques contra infraestruturas de conectividade e ecossistemas habilitados por 5G. 

No Brasil, o setor público (governo) ocupou a primeira posição, seguido por serviços financeiros, enquanto o setor de educação aparece em terceiro lugar. 

Em termos regionais, a América Latina voltou a registrar o maior volume de ataques, com 3.123 ataques por organização por semana em fevereiro de 2026, além do maior crescimento global ano a ano (+20%). A região APAC apareceu em seguida, com 3.040 ataques por semana (+3% YoY), enquanto a África registrou 2.993 ataques (+7% YoY). 

A Europa apresentou aumento de 11% em relação ao ano anterior; e a América do Norte registrou crescimento de 9%, confirmando que mercados maduros continuam enfrentando pressão cibernética elevada e crescente, ao lado de economias digitais emergentes.

 

Cenário de ransomware: Brasil no Top 5 

O ransomware permaneceu como uma das ameaças cibernéticas mais disruptivas em fevereiro, com 629 ataques divulgados publicamente, o que representa uma queda de 32% em comparação com fevereiro de 2025. Essa redução é atribuída, em grande parte, a uma campanha de ransomware excepcionalmente grande conduzida pelo grupo Clop no mesmo período do ano passado. Quando esse evento atípico é excluído da comparação, a atividade de ransomware permanece amplamente consistente ano a ano. 

A América do Norte respondeu por 57% de todos os incidentes de ransomware relatados, seguida pela Europa (17%) e pela APAC (17%), confirmando que os atacantes continuam priorizando regiões com infraestrutura digital densa e alvos econômicos de alto valor.

 

 Vítimas de ransomware por região 

A análise por país destaca uma forte concentração da atividade de ransomware nos Estados Unidos representando 51% das vítimas globais de ransomware, seguidos por Canadá (6%), Reino Unido (2,7%), Alemanha (2,5%) e Brasil (2,4%). Embora a atividade permaneça fortemente concentrada na América do Norte, os países mais impactados estão distribuídos em vários continentes, evidenciando o alcance global das operações de ransomware. 

Entre os setores, o de serviços empresariais foi o mais impactado (37%), seguido por bens e serviços de consumo (13%) e manufatura industrial (9%), áreas nas quais a interrupção operacional oferece maior poder de pressão para extorsão. 

Os principais grupos de ransomware em fevereiro deste ano foram Qilin (15%), Clop (13%) e The Gentlemen (11%), responsáveis coletivamente por uma parcela significativa das divulgações públicas de vítimas. No total, 49 grupos diferentes de ransomware impactaram publicamente organizações em todo o mundo durante o mês, evidenciando a escala e a fragmentação do ecossistema de ransomware. 

Para mais detalhes sobre o relatório de ameaças cibernéticas de fevereiro de 2026, visite o blog da Check Point Research.

 

Pesquisadores criam índice para avaliar saúde do solo em manguezais

Manguezal replantado na foz do rio Cocó (CE)
(
foto: Gabriel Nóbrega
Departamento de Ciências do Solo da Universidade Federal do Ceará
Ferramenta pode apoiar gestores na definição de prioridades de conservação desses ecossistemas, chamados de “floresta de carbono azul”; Brasil tem a segunda maior área de mangue do planeta, atrás apenas da Indonésia 

 

 Pesquisadores brasileiros desenvolveram um índice capaz de medir a saúde do solo de manguezais em diferentes estágios. Aplicado em áreas degradadas, restauradas e preservadas, o índice revelou que manguezais saudáveis, incluindo os recuperados, provêm serviços ecossistêmicos próximos de sua capacidade máxima, enquanto os desmatados mantêm apenas uma pequena parte desse potencial.

O Índice de Saúde do Solo (ISS) varia em uma escala de 0 (pior) a 1 (melhor) e está descrito em artigo publicado na revista Scientific Reports. Ao traduzir processos complexos em uma métrica simples, a ferramenta pode apoiar gestores na definição de prioridades de conservação e restauração.

O ISS foi construído a partir de um conjunto de variáveis que, de forma integrada, representam os principais processos físicos, químicos e biológicos responsáveis pelo funcionamento do solo no contexto em que ele está inserido.

O índice incorpora atributos ligados à dinâmica do carbono (como textura do solo, teor de carbono orgânico e ferro pseudototal), à fixação de substâncias contaminantes (especialmente diferentes formas de minerais de ferro) e à ciclagem de nutrientes (incluindo indicadores biológicos baseados nas atividades enzimáticas de microrganismos do solo). Em conjunto, essas variáveis viabilizam o estado funcional do solo e sua capacidade de sustentar serviços ecossistêmicos.

Com a busca por soluções baseadas na natureza para enfrentar a crise climática, os manguezais são uma alternativa para gerar ganhos ambientais e sociais. Além de importantes sumidouros e estocadores de carbono, sustentam a pesca e ajudam a conter a erosão costeira, entre outros serviços.

Ainda assim, estimativas indicam que entre 30% e 50% dos manguezais do mundo tenham sido perdidos nos últimos 50 anos, processo que pode ser acelerado pelas mudanças climáticas, com o aumento do nível do mar e maior frequência de eventos extremos, além de desmatamento e expansão urbana.

O Brasil tem a segunda maior área de mangue do planeta – cerca de 1,4 milhão de hectares ao longo da faixa costeira, ficando atrás apenas da Indonésia – e o mais extenso trecho contínuo, localizado entre o Amapá e o Maranhão. Uma ampla biodiversidade, com mais de 770 espécies de fauna e flora, confere a essas áreas destaque para a pesca.


Resultados

Ao ser aplicado no estuário do rio Cocó, no Estado do Ceará, o ISS mostrou condições contrastantes do local, com recuperação em áreas restauradas e suas implicações para os serviços ecossistêmicos. De acordo com os resultados, os manguezais maduros apresentaram os maiores valores de ISS (0,99 ± 0,03), enquanto os locais degradados, os menores (0,25 ± 0,01).

As regiões replantadas há nove e 13 anos tiveram valores intermediários (0,37 ± 0,01 e 0,52 ± 0,02, respectivamente), com um melhor desempenho das mais antigas, indicando assim uma recuperação gradual.

“A pesquisa buscou traduzir em números alguns aspectos importantes relacionados à saúde de solos dos manguezais e à provisão de seus serviços ecossistêmicos, tais como sequestro de carbono, imobilização de contaminantes e ciclagem de nutrientes. Montamos a escala de 0 a 1 para acompanhar o restabelecimento ecossistêmico frente ao processo de recuperação”, explica à Agência FAPESP a gestora ambiental Laís Coutinho Zayas Jimenez. “Meu sonho agora é usar o índice de saúde do solo em uma aplicação prática. Mostrar aos meus pares, os gestores, que é possível analisar se o manguezal que passou por recuperação está produzindo plenamente ou não os serviços ecossistêmicos e em quanto tempo isso acontece.”

O artigo é resultado de sua tese de doutorado no Programa de Pós-Graduação em Solos e Nutrição de Plantas da Escola Superior de Agricultura Luiz de Queiroz, da Universidade de São Paulo (Esalq-USP), desenvolvida sob a orientação de Tiago Osório Ferreira, e com o apoio da FAPESP.

Atualmente, Jimenez é chefe do setor de manguezais na Diretoria de Biodiversidade da Fundação Florestal e lidera um projeto inédito cujo objetivo é medir o estoque de carbono dos manguezais paulistas e detectar a presença de elementos tóxicos, como metais pesados, em seus solos.

O trabalho está sendo desenvolvido em parceria com o Centro de Estudos de Carbono em Agricultura Tropical (CCARBON), um Centro de Pesquisa, Inovação e Difusão (CEPID) da FAPESP sediado na Esalq-USP.

A Fundação Florestal é um órgão da Secretaria do Meio Ambiente, Infraestrutura e Logística de São Paulo (Semil) responsável pelas Unidades de Conservação do Estado. Das mais de cem unidades, pelo menos 16 delas têm manguezal.

“Mesmo que o restabelecimento das funções do manguezal seja rápido, isso não pode ser usado como argumento para não proteger esse ambiente da degradação. Observada a retomada de alguns serviços ecossistêmicos, entre eles sequestro de carbono e ciclagem de nutrientes, outros, como a contenção de erosão costeira, demoram mais”, ressalta Jimenez.


“Carbono azul”

Os mangues são chamados de “florestas de carbono azul” por sua característica de absorver grandes quantidades de CO da atmosfera e armazenar carbono orgânico no solo por décadas, mais eficientes do que florestas tropicais (leia mais em: agencia.fapesp.br/55382). No entanto, as mudanças no uso da terra e a poluição ameaçam cada vez mais os solos de manguezais, comprometendo sua funcionalidade.

Segundo a iniciativa global Mangrove Breakthrough, que tem o objetivo de restaurar e conservar 15 milhões de hectares de manguezais em escala global até 2030, esses ecossistemas armazenam o equivalente a mais de 22 gigatoneladas de CO2. A perda de apenas 1% dos manguezais remanescentes poderia levar ao correspondente a emissões anuais de 50 milhões de automóveis.

“Como o estudo foi desenvolvido em uma área de recuperação, os resultados desmistificam a ideia de que o ecossistema é resiliente frente a intervenções antrópicas. Mostramos que pode ser degradado em uma velocidade muito rápida. Mas a boa notícia é que o sistema também se recupera rapidamente, desde que a restauração seja feita de maneira assistida e elaborada, respeitando as condições locais do ambiente em que ele está inserido. Assim é possível obter novamente as funções do ecossistema e sua capacidade de prover serviços”, avalia o professor Hermano Melo Queiroz, do Departamento de Geografia da Faculdade de Filosofia, Letras e Ciências Humanas (FFLCH) da USP.

Queiroz é um dos autores correspondentes do artigo, juntamente com Ferreira, que também é diretor de disseminação e pesquisador do CCARBON. Participam ainda do grupo o professor Maurício Roberto Cherubin, diretor de pesquisa do centro e especialista em saúde dos solos, e Francisco Ruiz.

“Nessa pesquisa, um dos objetivos era traduzir a informação de processos biogeoquímicos muito específicos para uso de gestores ambientais. O índice, ao mostrar que os estoques de carbono retornam para áreas de mangue restauradas, traz uma mensagem muito importante no cenário de combate às mudanças climáticas”, diz Ferreira, que pesquisa há mais de 25 anos áreas de manguezais e contribuiu para a criação de um banco de dados com informações de toda a costa brasileira.

Ferreira coordena o projeto “BlueShore – Florestas de Carbono Azul para mitigação de mudanças climáticas offshore”, desenvolvido no âmbito do Centro de Pesquisa para Inovação em Gases de Efeito Estufa (RCGI), um Centro de Pesquisa Aplicada (CPA) constituído com apoio da FAPESP, da Shell e participação de outras empresas, com sede na Escola Politécnica da Universidade de São Paulo (Poli-USP).


Aberto e mutável

Os pesquisadores destacam que entre os diferenciais do ISS está a possibilidade de incluir informações específicas de cada ecossistema e do ambiente em que está inserido para diferentes regiões do país. É possível, por exemplo, inserir dados de serviços ecossistêmicos – sequestro de carbono e imobilização de contaminantes – e geoquímicos, como a quantidade de fósforo.

“Quanto maior a quantidade de fósforo, mais benéfico é para o ecossistema. Só que, no caso dos manguezais, dependendo do contexto em que ele está inserido, o excesso de fósforo pode representar um problema de contaminação ou de eutrofização”, afirma Queiroz.

A eutrofização provoca a proliferação exagerada de algas e cianobactérias na área de mangue, que causam o bloqueio da luz solar e o consumo do oxigênio, resultando em mau odor e morte de peixes, com perda da biodiversidade aquática e deterioração da qualidade da água.

Agora, os cientistas dizem que o próximo passo é entender que tipo de carbono está “retornando” para esses solos, se é mais ou menos estável, com maior ou menor duração.

Além disso, o estudo inspirou um novo projeto – “Desvendando a saúde do solo de manguezais brasileiros”, financiado pela FAPESP, que aplicará uma metodologia semelhante em diferentes regiões do país.

Combinando análises de solo, sensoriamento remoto e modelagem espacial, a proposta é mapear a saúde dos solos de manguezais e seu potencial de sequestro de carbono. A iniciativa pretende gerar o primeiro mapa em larga escala da saúde do solo de manguezais no Brasil.

O artigo Tracking mangrove restoration using a biogeochemical soil health index and ecosystem service indicators pode ser lido em: nature.com/articles/s41598-025-30909-2.

 

Luciana Constantino

Agência FAPESP
https://agencia.fapesp.br/pesquisadores-criam-indice-para-avaliar-saude-do-solo-em-manguezais/57318


A inteligência artificial não é o desafio. A adaptação humana é

No esporte, evolução nunca foi opcional. Mudanças em regras, equipamentos e estratégias fazem parte da dinâmica competitiva. A história do esporte é, essencialmente, a história da adaptação humana. Com a inteligência artificial, a lógica é idêntica.

Assim como um novo equipamento não transforma um atleta despreparado em campeão, a IA não converte organizações em referências de performance. Sem ética, transparência e preparo mental, corremos o risco de utilizar uma tecnologia poderosa sem a maturidade necessária para extrair seu valor. No esporte, desempenho não pode ser conquistado às custas da integridade. No mundo corporativo, o princípio deveria ser o mesmo.

Ao longo de minha trajetória como esportista, CEO e empreendedor, acompanho de perto os dois lados dessa transformação. Atuando junto a algumas das maiores organizações dos setores financeiro, saúde, varejo e indústria, observo como a IA pode atuar como uma alavanca estratégica de crescimento e como uma fonte relevante de riscos operacionais e culturais.

Essa dinâmica já aparece em estudos globais. Relatórios da McKinsey & Company indicam que o maior obstáculo para captura de valor com IA não está na tecnologia, mas na preparação organizacional, na liderança e na capacidade humana de integração estratégica.

No esporte, toda vantagem tecnológica exige preparo humano. No ciclismo, por exemplo, uma bicicleta aerodinâmica não compensa falta de condicionamento. Equipamentos amplificam capacidade — não criam competência. Isso vale para métricas avançadas ou qualquer inovação técnica: sem treino, disciplina e estratégia, tecnologia vira apenas expectativa frustrada.

No ambiente corporativo, a IA exerce o mesmo papel. Empresas que adotaram IA sem preparo frequentemente enfrentaram desalinhamentos, decisões inconsistentes e tensões internas. Em contraste, organizações que investiram em capacitação testemunharam ganhos reais em produtividade e eficiência.

A IA se comporta de maneira semelhante ao surf. Uma prancha em mar calmo oferece estabilidade. Em mar agitado, porém, o mesmo equipamento pode ampliar horizontes ou provocar quedas abruptas. O resultado depende menos da prancha e mais da leitura do ambiente, do preparo técnico e da capacidade de ajuste contínuo do atleta.

Ainda assim, o debate público permanece excessivamente concentrado na potência das máquinas. O verdadeiro desafio é outro. A agenda do Fórum Econômico Mundial reforça que as competências críticas para o futuro do trabalho não são exclusivamente técnicas, mas habilidades humanas como pensamento analítico, criatividade, resiliência e aprendizado contínuo.

Ao mesmo tempo em que amplia capacidades, a IA introduz riscos silenciosos, como a obsolescência cognitiva. No esporte, músculos não exigidos atrofiam. Capacidades não treinadas deterioram. Na interação com sistemas inteligentes, observa-se dinâmica semelhante. Não se trata apenas de memória ou cálculo, mas da capacidade de questionar, interpretar ambiguidades e sustentar pensamento crítico em contextos complexos.

Outro fenômeno emergente é a chamada poluição de realidade. No esporte, excesso de estímulo sem recuperação compromete desempenho. No ambiente informacional contemporâneo, a produção massiva de conteúdo sintético começa a produzir efeito análogo. Quando tudo pode ser perfeitamente simulado, o próprio conceito de “real” torna-se instável, gerando ruído, fadiga cognitiva e erosão de confiança.

Há ainda impactos menos visíveis. Sistemas de IA, treinados com dados históricos, tendem a reproduzir padrões do passado. No esporte, estratégias ultrapassadas não sustentam competitividade. Na cultura, padrões históricos podem ser amplificados sob aparência de neutralidade algorítmica. Gradualmente, decisões e narrativas passam a responder mais ao algoritmo do que à experiência humana.

Nesse cenário, emerge uma competência decisiva: mentalidade de crescimento. No esporte, evolução depende de ajuste contínuo, sobrecarga progressiva e tolerância ao desconforto. Na carreira, a dinâmica é idêntica. Profissionais e organizações que prosperarão não serão os que resistirem à transformação, mas os que desenvolverem capacidade de adaptação.

No fim, a corrida não será contra as máquinas. Será contra a própria resistência humana à evolução. Porque, em última instância, a inteligência artificial não representa apenas uma revolução tecnológica. Representa o ambiente mais exigente já imposto à cognição humana. E, como em qualquer competição, prosperarão aqueles que compreenderem uma verdade fundamental: adaptação não é reação eventual. É disciplina permanente. 

 

Cesar Cotait Kara José - Head Global da unidade de negócios de Financial Services da Exadel. É autor dos livros “Atleta Corporativo” e “Pilares do Sucesso”, obras dedicadas à liderança, desenvolvimento profissional e alta performance.



Posts mais acessados