Uma reportagem
recente do New York Times trouxe à tona um movimento que tende a se
intensificar nos próximos anos: grandes empresas de tecnologia estão
desenvolvendo ferramentas capazes de analisar prontuários médicos, resultados
de exames e até dados coletados por dispositivos móveis. A promessa é sedutora:
centralizar informações de saúde que hoje são dispersas, facilitar o acesso do
usuário aos próprios dados e, em última análise, melhorar a tomada de decisões.
É inegável que se
trata de um avanço tecnológico relevante. Mas, na prática, o cenário é mais
sensível — e mais arriscado — do que parece. Dados de saúde não são informações
comuns. São classificados como dados sensíveis, pois dizem respeito à
intimidade mais profunda do indivíduo. Sua centralização em plataformas
digitais, embora eficiente, pode se transformar em ponto crítico de
vulnerabilidade, altamente atrativo para ataques cibernéticos.
Mas o problema não
é apenas técnico. É jurídico. Há registros de que sistemas de inteligência
artificial já falharam na identificação de emergências clínicas ou sugeriram
orientações inadequadas. Diante disso, surge uma pergunta inevitável: quem
responde quando a tecnologia erra?
Essa discussão
ainda é incipiente, mas já se tornou essencial. Nas relações de consumo
mediadas por tecnologia, a responsabilidade tende a se diluir entre
desenvolvedores, plataformas e eventuais prestadores de serviço. Para o
usuário, no entanto, o risco é concreto — e imediato.
Há ainda outro
ponto crítico: o consentimento. Em teoria, o compartilhamento desses dados
depende de autorização livre, informada e inequívoca. Na prática, o que se vê é
a repetição de um padrão já conhecido: termos de uso extensos, linguagem
técnica e uma evidente assimetria informacional entre empresas e consumidores.
No Brasil, a Lei
Geral de Proteção de Dados Pessoais (LGPD) estabelece um regime mais rigoroso para
o tratamento de dados sensíveis, incluindo os de saúde. Ainda assim, a eficácia
dessa proteção depende não apenas da norma, mas de sua aplicação concreta
diante de tecnologias em rápida evolução.
O Código de Defesa do Consumidor estabelece a responsabilidade objetiva e solidária dos fornecedores. Contudo, essa lógica pressupõe relações de consumo relativamente identificáveis, em que seja possível delimitar com clareza a cadeia de fornecimento e os pontos de controle. O desafio colocado pela inteligência artificial reside justamente no fato de que decisões são tomadas por sistemas opacos e integrados a múltiplos agentes, muitas vezes sem que seja possível identificar, com precisão, onde ocorreu a falha.
O debate, portanto, não é sobre impedir a inovação, mas sobre a definição clara de seus limites. A incorporação da inteligência artificial à saúde é, ao que tudo indica, inevitável. O que ainda está em aberto é o modelo de responsabilização que acompanhará esse avanço e, principalmente, o grau de proteção que será efetivamente garantido ao consumidor. A tecnologia continua prometendo respostas rápidas e decisões mais eficientes. O direito, por sua vez, precisa garantir que, quando algo der errado, também exista uma resposta clara.
Fonte:
Stefano Ribeiro Ferri - Especialista em Direito do Consumidor. Relator da
6ªTurma do Tribunal de Ética da OAB/SP e membro da Comissão de Direito Civil da
OAB - Campinas. Formado em direito pela Fundação Armando Alvares Penteado
(FAAP).
Nenhum comentário:
Postar um comentário