Com avanço de ferramentas como o Veo 3, da Google DeepMind, especialistas alertam para riscos de manipulação, desinformação e necessidade urgente de regulamentação
A inteligência artificial deu um salto expressivo nos últimos
meses, especialmente com o lançamento do Veo 3 pela Google DeepMind em maio de
2025. A ferramenta é capaz de gerar vídeos com qualidade cinematográfica, falas
sincronizadas, efeitos sonoros e trilhas musicais, tornando quase impossível
distinguir entre uma gravação real e um conteúdo artificial. Esse avanço,
embora amplie as possibilidades de uso criativo e educacional, também acende um
sinal de alerta sobre os impactos éticos e sociais da tecnologia.
Para Marino Catarino, professor de Inteligência Artificial da
Faculdade ESEG, do Grupo Etapa, estamos entrando em uma era em que as imagens
não são mais confiáveis por padrão. “Durante décadas, conseguimos distinguir
facilmente uma imagem real de uma criação digital. Mas a nova geração de
ferramentas de IA, como o Veo 3, desafia esse limite. Agora, vemos vídeos que
parecem absolutamente reais — com movimentos naturais, sons convincentes e
falas perfeitamente sincronizadas —, mas que foram totalmente gerados por
inteligência artificial”, afirma o especialista.
O principal risco, segundo Catarino, está na manipulação de fatos
e na criação de conteúdos falsos com aparência legítima, o que pode influenciar
opiniões públicas, deslegitimar pessoas e até criar identidades fictícias. “Se
um vídeo mostrar uma pessoa pública fazendo algo polêmico, como saber se é real
ou fabricado? O risco de manipulação, criação de notícias falsas, de crimes
inventados ou até mesmo de identidades fictícias é gigantesco”, completa.
O uso dessas ferramentas também altera a dinâmica da confiança nas
mídias digitais. Em um ambiente em que vídeos têm sido considerados uma das
formas mais confiáveis de prova visual, a introdução de deepfakes sofisticados
compromete a própria ideia de evidência. “A única defesa possível, por
enquanto, é a verificação em fontes confiáveis, algo difícil em um cenário de
hiperconectividade e consumo acelerado”, pontua Catarino.
Além disso, o impacto não se limita ao noticiário ou ao debate
político. Setores como o jurídico, o educacional e até o entretenimento
precisarão rever seus protocolos e práticas diante dessa nova realidade.
“Precisamos urgentemente de regulamentações que exijam a identificação clara de
conteúdos artificiais. Caso contrário, corremos o risco de viver em uma
realidade distorcida, onde não sabemos mais em que acreditar”, alerta o
professor.
O tema reacende o debate sobre ética e responsabilidade no uso de
inteligência artificial, especialmente no que diz respeito à transparência das
informações e à proteção da sociedade contra abusos. Entidades internacionais
como a ONU e a União Europeia já vêm discutindo diretrizes para o uso seguro
dessas tecnologias, mas os avanços são lentos diante da velocidade com que a
inovação chega ao mercado.
Enquanto isso, especialistas recomendam cautela e senso crítico ao
consumir conteúdos audiovisuais, especialmente aqueles com aparência muito
realista, mas sem fonte confiável. Em um mundo onde os olhos já não bastam para
validar a verdade, o papel da educação digital e da regulamentação torna-se
cada vez mais central.
Nenhum comentário:
Postar um comentário