Pesquisar no Blog

quinta-feira, 16 de abril de 2026

Quem responde quando a Inteligência Artificial erra na saúde?

 

Uma reportagem recente do New York Times trouxe à tona um movimento que tende a se intensificar nos próximos anos: grandes empresas de tecnologia estão desenvolvendo ferramentas capazes de analisar prontuários médicos, resultados de exames e até dados coletados por dispositivos móveis. A promessa é sedutora: centralizar informações de saúde que hoje são dispersas, facilitar o acesso do usuário aos próprios dados e, em última análise, melhorar a tomada de decisões. 

É inegável que se trata de um avanço tecnológico relevante. Mas, na prática, o cenário é mais sensível — e mais arriscado — do que parece. Dados de saúde não são informações comuns. São classificados como dados sensíveis, pois dizem respeito à intimidade mais profunda do indivíduo. Sua centralização em plataformas digitais, embora eficiente, pode se transformar em ponto crítico de vulnerabilidade, altamente atrativo para ataques cibernéticos. 

Mas o problema não é apenas técnico. É jurídico. Há registros de que sistemas de inteligência artificial já falharam na identificação de emergências clínicas ou sugeriram orientações inadequadas. Diante disso, surge uma pergunta inevitável: quem responde quando a tecnologia erra? 

Essa discussão ainda é incipiente, mas já se tornou essencial. Nas relações de consumo mediadas por tecnologia, a responsabilidade tende a se diluir entre desenvolvedores, plataformas e eventuais prestadores de serviço. Para o usuário, no entanto, o risco é concreto — e imediato. 

Há ainda outro ponto crítico: o consentimento. Em teoria, o compartilhamento desses dados depende de autorização livre, informada e inequívoca. Na prática, o que se vê é a repetição de um padrão já conhecido: termos de uso extensos, linguagem técnica e uma evidente assimetria informacional entre empresas e consumidores. 

No Brasil, a Lei Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime mais rigoroso para o tratamento de dados sensíveis, incluindo os de saúde. Ainda assim, a eficácia dessa proteção depende não apenas da norma, mas de sua aplicação concreta diante de tecnologias em rápida evolução. 

O Código de Defesa do Consumidor estabelece a responsabilidade objetiva e solidária dos fornecedores. Contudo, essa lógica pressupõe relações de consumo relativamente identificáveis, em que seja possível delimitar com clareza a cadeia de fornecimento e os pontos de controle. O desafio colocado pela inteligência artificial reside justamente no fato de que decisões são tomadas por sistemas opacos e integrados a múltiplos agentes, muitas vezes sem que seja possível identificar, com precisão, onde ocorreu a falha.

O debate, portanto, não é sobre impedir a inovação, mas sobre a definição clara de seus limites. A incorporação da inteligência artificial à saúde é, ao que tudo indica, inevitável. O que ainda está em aberto é o modelo de responsabilização que acompanhará esse avanço e, principalmente, o grau de proteção que será efetivamente garantido ao consumidor. A tecnologia continua prometendo respostas rápidas e decisões mais eficientes. O direito, por sua vez, precisa garantir que, quando algo der errado, também exista uma resposta clara.

 

Fonte: Stefano Ribeiro Ferri - Especialista em Direito do Consumidor. Relator da 6ªTurma do Tribunal de Ética da OAB/SP e membro da Comissão de Direito Civil da OAB - Campinas. Formado em direito pela Fundação Armando Alvares Penteado (FAAP).

 

Nenhum comentário:

Postar um comentário

Posts mais acessados