Jurista do CEUB analisa decisão aprovada pelo TSE, que prevê punição ao candidato por uso inadequado de Inteligência Artificial
Na última terça-feira (27), o Tribunal Superior Eleitoral (TSE) aprovou novas regras para as eleições municipais de 2024, incluindo medidas sobre o uso de Inteligência Artificial (IA) nas campanhas. As regras exigem a identificação de conteúdos manipulados por IA, limitam o uso de chatbots e avatares na comunicação da campanha e proíbem o uso de deepfake. Carolina Jatobá, professora de Direito Digital do Centro Universitário de Brasília (CEUB) explica que a relação entre tecnologia e democracia sempre foi complexa, mas com o avanço da inteligência artificial (IA) e sua capacidade de criar deepfakes, essa relação atingiu um novo patamar de desafios.
De acordo com a jurista, as deepfakes, vídeos manipulados para parecerem autênticos, apresentam uma ameaça significativa ao processo democrático, permitindo a disseminação de desinformação de maneira convincente e de difícil detecção. Segundo Carolina, historicamente, as eleições foram moldadas por uma série de fatores, desde debates públicos até escândalos de corrupção. No entanto, com o surgimento das deepfakes, uma nova variável entrou em jogo.
“Um exemplo marcante é a suposta hesitação do ex-presidente Fernando Henrique Cardoso em responder sobre a existência de Deus durante uma entrevista, o que supostamente custou sua eleição para Jânio Quadros. Embora o impacto preciso dessa declaração na eleição seja difícil de quantificar, é inegável que as deepfakes introduzem uma nova dinâmica, na qual a verdade pode ser manipulada de maneira convincente sem o conhecimento ou consentimento dos candidatos”, rememora a especialista.
Parafraseando Churchill "a democracia é a pior forma de governo, à exceção de todas as demais", a professora de Direito do CEUB afirma que é difícil imaginar que ele antecipasse os desafios que as deepfakes representariam para a democracia moderna. Ela frisa que, em vez de promover um debate inclusivo e informado, a disseminação de deepfakes alimenta a polarização e mina a confiança no processo democrático. À medida que as pessoas são expostas a informações falsas que parecem genuínas, torna-se cada vez mais difícil distinguir entre fato e ficção.
Segundo Carolina Jatobá, um dos aspectos mais
preocupantes das deepfakes é a rapidez com que podem se espalhar e influenciar
as percepções do eleitorado. Ao contrário dos escândalos tradicionais, nos
quais os fatos podem ser contestados e esclarecidos ao longo do tempo, a
advogada menciona que as deepfakes têm o potencial de causar danos irreparáveis
antes mesmo que a falsidade seja exposta. “Esta capacidade de manipular a
verdade em tempo real representa um desafio significativo para os defensores da
democracia”, destaca.
Para Jatobá, uma abordagem mais promissora pode ser colocar a responsabilidade nas próprias plataformas de mídia social. Exigir que essas plataformas informem os usuários sobre o uso de IA em vídeos pode capacitar o eleitorado a discernir entre conteúdo autêntico e deepfakes. Além disso, as plataformas poderiam ser responsabilizadas por permitir a disseminação de deepfakes sem verificar sua autenticidade.
“No entanto, mesmo essa abordagem tem limitações.”
A docente crê que a contrainteligência artificial perfeita só pode ser
oferecida por aqueles que criam a tecnologia, e até que isso aconteça, o
público deve permanecer vigilante e crítico em relação ao conteúdo que
consome. “Em última análise, a defesa da democracia contra as deepfakes
exigirá uma abordagem multifacetada que envolva governos, empresas de
tecnologia e indivíduos em todo o mundo”, arremata.
Nenhum comentário:
Postar um comentário