Inteligência Artificial é a simulação da inteligência humana por máquinas. Os sistemas de IA são tecnologias baseadas em softwares que usam certas abordagens orientadas por dados para resolver problemas específicos. O que todos os sistemas de IA têm em comum é que eles reconhecem padrões em enormes quantidades de dados.
Ressalta-se que a inteligência artificial já está muito presente na vida
de todos, com diversos aplicativos que facilitam nosso cotidiano na vida
pessoal e profissional e é, sem dúvida, importante para o futuro da Medicina,
em todos as suas áreas: clínica, laboratorial e cirúrgica.
Na prática, é usada em lojas online, no controle de estoques de empresas, em ferramentas de reconhecimento facial, em sistemas de prevenção de fraudes e na análise de padrões de comportamento de consumidores, em exames e cirurgias médicas, entre outras aplicações para as quais sequer a sociedade atenta. Fato é: a inteligência artificial já está presente - ou à espreita – em todos os setores.
Essencial, porém, separar a aplicação da IA no setor da saúde do uso em outras áreas. Mas, por quê? Em razão de que a saúde (e a vida) é o bem mais precioso de todos: as pessoas (de forma geral) estão em uma posição vulnerável quando precisam de cuidados de saúde; houve um aumento exponencial quanto a coleta de dados de saúde, em especial em tempos de epidemia; e, o mais grave, os dados de saúde estão historicamente repletos de preconceitos.
Deve-se lembrar que milhões de dados são fundamentais para o desenvolvimento dessas tecnologias de aprendizagem da máquina, mas devem ser representativos da população para garantir que todos possam se beneficiar. Grupos minoritários têm sua representação prejudicada no conjunto de dados usado para se desenvolver algoritmos de inteligência artificial; assim, quando se trata de políticas públicas de saúde, precisa ser observada essa realidade, uma vez que a tecnologia deve ter como pilar a equidade social, com a diminuição das desigualdades.
No Brasil, a IA já é muito utilizada para medicina diagnóstica no Brasil, muitos hospitais já possuem projetos para treinar as máquinas para interpretar imagens, por exemplo, e assim conseguir multiplicar e acelerar os resultados. Também vem sendo utilizada em serviços de pronto-atendimento, com alguns scores que são feitos através de perguntas que são respondidas por médicos, enfermeiros e pacientes e que geram resultados formulados por esses padrões de questões. Tratamentos contra alguns tipos de câncer também já estão em curso no país com o auxílio da inteligência artificial.
Na saúde, conforme apontou um artigo no jornal The Lancet, em maio de 2019, a IA pode ser aplicada na proteção, por exemplo, analisando padrões de dados para vigilância quase em tempo real e detecção de doenças, com a utilização de pesquisas feitas pelos usuários no Google e informações de GPS para indicar restaurantes que estejam provocando a transmissão de doenças. Também poderá ser utilizada na promoção à saúde, ao se oferecer aconselhamento direcionado e personalizado com base no perfil de risco pessoal e padrões comportamentais, de forma gerar modelos de risco de doenças cardiovasculares; além claro, de ser possível aumentar a eficiência dos serviços de saúde .
Se tantos dados são usados e se a IA apresenta tantas aplicações e implicações, se faz necessário uma regulamentação para seu uso ético e seguro para todos.
Na Europa, em 2021, foi lançado pelo Parlamento Europeu um documento que se propõe a ser um Ato de regulamentação para o uso da Inteligência Artificial (Artificial Intelligence Act) . Chama atenção, em seus “considerandos”, o reconhecimento de que a forma como as tecnologias influenciam na sociedade dependerá de como são concebidas, sendo, portanto, essencial , que haja uma preocupação em definir uma abordagem regulamentar para se não ficar a mercê de outros países, em especial EUA (Estados Unidos) e China, já que “determinadas utilizações da IA podem representar riscos individuais e para a sociedade, que podem pôr em perigo os direitos fundamentais, pelo que devem ser tratados pelos decisores políticos, permitindo, assim, que a IA se torne efetivamente um instrumento ao serviço das pessoas e da sociedade, em prol do bem comum e do interesse geral...”.
Nos EUA, que estão bastante avançados em pesquisas para o uso de IA, não há uma lei federal que regulamente o tema, subsistindo, porém, diretrizes éticas emitidas pelo Federal Trade Commission (órgão responsável pela proteção de consumidores e da concorrência no país). No entanto, o país estuda debate o tema em torno do texto denominado “AI Bill of Rights”.
Desta forma, o Brasil também avança no sentido de buscar um marco legal para a IA. O Congresso Nacional aprovou o PL 21/2020 no final do ano passado na Câmara dos Deputados. O texto estabelece princípios, direitos e deveres para o uso de inteligência artificial e está sendo analisado, atualmente, no Senado Federal, que criou uma comissão de juristas para debatê-lo. Também foi criada a Estratégia Brasileira de Inteligência Artificial, formada por membros do Ministério da Ciência, Tecnologia e Inovações e outros órgãos de governo, além de representantes de associações setoriais e da sociedade civil. É essencial a participação ativa de médicos e profissionais de saúde nas diretrizes do projeto, pois conhecem as aplicações, os potenciais riscos e benefícios da IA aplicada à saúde.
O que se pretende com a normatização é que o chamado marco legal da Inteligência Artificial não ultrapasse e viole os direitos dos cidadãos. A discussão do tema é fundamental para dar maior transparência, equidade e também para direcionar a participação do Estado e da população na definição do arcabouço jurídico sobre o tema.
O PL 21/2020 define princípios para a IA, como o da não discriminação, da finalidade benéfica e da centralidade da tecnologia a benefício do ser humano. O texto traz ainda fundamentos ao desenvolvimento e aplicação da tecnologia, como estímulo a autorregulação, a livre manifestação de pensamento, a livre expressão e a proteção de dados pessoais.
O texto aprovado aponta diretrizes para atuação da União, dos Estados, do Distrito Federal e dos municípios em relação ao uso e fomento dos sistemas de inteligência artificial no Brasil. Entre elas, destacam-se o dever de estimular a criação de mecanismos de governança transparente e colaborativa com a participação de representantes de vários setores; promover a cooperação internacional e a negociação de tratados, acordos e padrões técnicos globais que facilitem a “conversa” (interoperabilidade) entre os sistemas e a harmonização da legislação a esse respeito; bem como estimular a adoção de instrumentos regulatórios que promovam a inovação.
Ainda, de acordo com o texto, os softwares de inteligência artificial devem ser construídos respeitando princípios como a dignidade humana, a proteção de dados pessoais, a não discriminação, a transparência e a segurança dos usuários, embora não haja detalhes sobre como estes princípios serão garantidos.
O referido projeto de lei aponta que o responsável, em havendo dano a alguém, seria o “agente de inteligência artificial”: aquele que participa do desenvolvimento e implantação; assim como aquele que participar da fase de monitoramento e operação do sistema de inteligência artificial.
Fato é que a máquina aprende a identificar padrões colocados pela sociedade, por exemplo, a AI de reconhecimento facial costuma ser manchete com história sobre reconhecimento facial de forma discriminatória e preocupações com a privacidade. Mas essa IA também causou grandes preocupações ao tentar reconhecer pessoas negras. Em 2015, os usuários descobriram que o Google Fotos classificava alguns negros como gorilas. Em 2018, uma pesquisa da ACLU mostrou que o software de identificação facial Rekognition, da Amazon, identificou 28 membros do Congresso dos EUA como suspeitos da polícia, com falsos positivos afetando desproporcionalmente pessoas negras. Outro incidente envolveu o software Face ID, da Apple, identificando incorretamente duas mulheres chinesas diferentes como a mesma pessoa. Como resultado, uma delas conseguia desbloquear o iPhone X da outra.
Existem duas razões principais pelas quais o aprendizado de máquina resulta em consequências não intencionais: dados e pessoas. Se os dados usados para ensinar a máquina são limitados, tendenciosos ou de baixa qualidade, o resultado será uma IA com viés limitado ou diferente do escopo para o qual seria empregada. De outro lado, ainda que programadores tenham dados de qualidade, os usuários podem mudar o escopo inicial. Os desenvolvedores não conseguem supor todas as possibilidades de uso de determinado software, bem como o que as pessoas podem fazer com aquela tecnologia. Por isso é necessário estabelecer limites para o uso da tecnologia e responsabilidade quando do mau uso.
Portanto, o desafio no Brasil (e no mundo) será o de regulamentar a
utilização desses sistemas para evitar que essa facilitação para a sociedade e
tecnologia para o enriquecimento das empresas transforme-se em judicialização a
partir de problemas criados para o usuário, por falta de diretrizes claras de
responsabilidades dos atores públicos e privados.
Sandra Franco - consultora jurídica especializada em Direito Médico e da Saúde, doutoranda em Saúde Pública, MBA-FGV em Gestão de Serviços em Saúde, diretora jurídica da Abcis, consultora jurídica da ABORLCCF, especialista em Telemedicina e Proteção de Dados, fundadora e ex-presidente da Comissão de Direito Médico e da Saúde da OAB de São José dos Campos (SP) entre 2013 e 2018.
Nenhum comentário:
Postar um comentário