Nos últimos anos, a utilização pelas empresas de aplicações de inteligência artificial (IA) vem crescendo de forma contínua, apesar do avanço na utilização das técnicas de IA a adoção generalizada está evoluindo de forma desigual em empresas de diferentes setores. As duas principais barreiras são a falta de talentos e a escassez de dados realmente produtivos.
Em geral, quando se veem frente a novos desafios tecnológicos para os
quais não dispõem de pessoal qualificado, nem de metodologias de trabalho
apropriadas, as organizações contratam empresas especialistas na nova
tecnologia. No caso de IA é necessário ter acesso a dados produtivos reais das
companhias, o que gera um empecilho na contratação de terceiros e,
consequentemente, dificulta a implementação de soluções avançadas com esta
tecnologia.
A falta de garantia de privacidade das informações é outra barreira
significativa na implementação de IA nos processos internos e em migrações de
soluções para cloud SaaS, assim como no momento da utilização (inferência), por
requerer o envio dos dados para um serviço externo. Estas são barreiras reais
que precisam ser levadas em consideração no dia a dia das companhias para
evitar ameaças reais de quebra da privacidade e de cibersegurança.
Os centros de pesquisa de IA estão apostando em técnicas para garantir
a privacidade das informações no desenvolvimento e utilização de modelos de machine
learning, tendo como duas alternativas mais relevantes:
- Aprendizado distribuído (Distributed
Learning) – cujo objetivo é conseguir treinar
modelos compartilhados entre diversas plataformas (servidores, celulares
etc.), sem precisar compartilhar ou movimentar dados. Cada plataforma
realiza um treinamento parcial com seus dados, posteriormente o modelo
resultante é compartilhado pelos participantes sem risco de quebra da
privacidade dos dados, de modo que todos os participantes possam se
beneficiar do aprendizado em conjunto. As estratégias para isto são federated
learning e split learning. O principal ponto fraco destas
técnicas relaciona-se com a complexidade das arquiteturas do processo de
avaliação dos resultados dos treinamentos.
- Encriptação homeomórfica (Homomorphic
Encryption) - é um tipo de encriptação que permite
realizar treinamento e inferência de modelos sobre o dado encriptado,
mantendo como propriedade que o modelo resultado do treinamento é válido
sobre os dados e que o resultado da inferência também é válido. Como
qualquer encriptação, o principal ponto fraco é que exige capacidade de
computação e requer o uso de modelos de machine learning
compatíveis com a encriptação homeomórfica.
Com a evolução e generalização destas técnicas, o compartilhamento de
informações de forma segura pode multiplicar os produtos e os serviços
inclusive a potencialização de novos marketplaces de dados e de modelos,
beneficiando a todos os participantes. Como já demostrado no contexto médico,
com a utilização de métodos de aprendizado distribuído é possível ajudar
diferentes hospitais a construírem soluções de machine learning
colaborativas a partir de tecnologias de aprendizado.
Em paralelo, o open banking
está crescendo, com diversos graus de implementação, sendo o Reino Unido o país
mais evoluído, cuja normativa está em vigor desde janeiro de 2018. No Brasil, a
normativa já foi publicada e a primeira fase inicia no 30 de novembro, mas se
for tomado o Reino Unido como referência, a tendência é que a maior barreira
para adotar soluções de open banking será a desconfiança dos usuários em
relação ao uso que pode ser feito de seus dados financeiros. Essas normativas,
entre outros aspectos, regulam como os procedimentos das instituições financeiras,
quando os clientes pedirem para acessar seus dados nas soluções de open
banking, sendo que cada ecossistema poderá estabelecer seus próprios protocolos
e plataformas tecnológicas. O fato é que no Brasil as normas deverão estar em
conformidade com a Lei Geral de Proteção de Dados (LGPD) e pela Lei do Sigilo Bancário nº.105/2001,
ainda que a LGPD ainda não esteja em vigor se adotou a base legal do
consentimento, para tratar os dados dos usuários.
Tecnologias como o aprendizado distribuído e a encriptação
criptografada, que garantem a privacidade, podem acelerar a adoção do open
banking, porque suas aplicações têm uma forte relação com a monetização dos
dados financeiros dos clientes. Estas tecnologias terão como principais
finalidades: centralizar a operação de diversas ferramentas mobile de
diferentes bancos, que a partir do comportamento das pessoas podem automatizar
transferências, investimentos e outras ações financeiras para oferecer
alternativas financeiras cada vez mais personalizadas aos consumidores.
Diante deste contexto é relevante considerar também a utilização de
blockchain para compartilhar os dados, já que sua construção garante
privacidade, com velocidade de processamento, na realização de transações
instantâneas e viabilizar contratos inteligentes. Portanto, a democratização no
acesso aos dados deve passar pelas tecnologias nas quais as instruções do
contrato são executadas, sem dúvida, está no DNA delas permitir a criação de
plataformas seguras, com potencial para criação de novas oportunidades, com
novos produtos e serviços, que agreguem valor aos consumidores, seja como
clientes, pacientes ou cidadãos.
Portanto, para incrementar a adoção de soluções de inteligência
artificial é preciso começar imediatamente a mudar a cultura empresarial,
entender como IA pode efetivamente mudar os diferentes modelos de negócios,
treinar pessoas e atender às exigências da LGPD e de outras regulamentações
referentes à privacidade. Esta tecnologia pode revolucionar o mercado, porém
ainda é usada apenas em questões operacionais pontuais, precisamos nos unir
para colocar todo seu potencial em prática.
Luis Quiles Ardila - diretor de Data Science da everis Brasil
Nenhum comentário:
Postar um comentário