Especialistas em tecnologia preveem que a taxa de adoção
de inteligência artificial (IA) e aprendizado de máquina vai disparar nos
próximos dois anos. Essas tecnologias avançadas gerarão ganhos de negócios sem
precedentes, mas, ao longo do caminho, os líderes corporativos precisarão lidar
rapidamente com uma miscelânea de novos dilemas éticos. Isso inclui tudo, desde
viés algorítmico de IA e problemas de privacidade de dados até questões de segurança
pública de máquinas autônomas executadas com IA.
Como a tecnologia da IA e suas funções de uso estão
mudando muito rapidamente, os executivos terão dificuldade em se manter à
frente dessas preocupações éticas sem algum tipo de roteiro. A fim de orientar
tanto o pensamento profundo quanto a rápida tomada de decisões sobre
tecnologias de IA emergentes, as organizações devem considerar o
desenvolvimento de uma estrutura interna de ética de IA.
Esse quadro não será capaz de dar conta de todas as
exigências que uma empresa encontrará em sua jornada para aumentar a adoção da
IA, mas pode lançar as bases para futuras discussões executivas. Com uma
estrutura em mãos, eles poderão planejar com confiança um caminho sensato que
se alinhe com a cultura, a tolerância ao risco e os objetivos de negócios da
empresa.
A boa notícia é que os executivos não precisarão criar
uma estrutura de ética em IA do nada. Muitos pensadores inteligentes no mundo
da IA têm ponderado sobre questões de ética há algum tempo e publicaram uma
série de diretrizes fundamentais que uma organização pode usar para elaborar um
quadro que faça sentido para seus negócios. A seguir, estão cinco dos melhores
recursos para que líderes de tecnologia e ética possam começar essa jornada.
Instituto Future of Life
Desenvolvido em conjunto com a conferência Asilomar 2017,
essa lista de princípios tem sido universalmente citada como ponto de
referência por todos os outros quadros de ética e padrões de IA introduzidos
desde a sua publicação. Assinado por mais de 1.200 pesquisadores de IA e
robótica e mais de 2.500 outros dignitários técnicos, incluindo Stephen
Hawking, Elon Musk e Ray Kurzweil, esse recurso é uma lista simples de
princípios fundamentais que devem guiar líderes empresariais, formuladores de
políticas governamentais e tecnólogos, à medida que progredimos com o avanço da
IA.
IAPP
Esse documento prático é leitura obrigatória para
executivos de empresas que tentam lidar com questões de ética em IA. Ele
oferece uma explicação concisa das preocupações éticas em jogo nos usos
aplicados de IA e Big Data, bem como as consequências de ignorar essas
questões. Oferece também um resumo das ferramentas disponíveis para organizações
que buscam não apenas desenvolver estruturas internas, mas também
operacionalizar políticas de ética de dados. Ele ajuda os líderes de ética em
IA a considerarem as preocupações específicas do setor, as nuances
organizacionais e até mesmo as diferenças departamentais na criação de um
framework que seja tão flexível quanto holístico.
“Várias estruturas de ética de dados devem ter recursos
comuns para garantir um padrão ético de práticas de dados uniformemente alto.
No entanto essas estruturas serão mais eficazes se forem flexíveis o suficiente
para serem adaptadas a cada empresa e organização específica, ajustando o
tamanho, os recursos, a área de assunto e o impacto nas questões dos dados”,
diz trecho do documento.
IEEE
Desde 2016, o IEEE tem assumido a liderança na
organização de discursos entre pensadores, técnicos, líderes empresariais e
especialistas em políticas públicas sobre o projeto ético de sistemas autônomos
e inteligentes. Como parte desse trabalho, a iniciativa global sobre a ética de
sistemas autônomos e inteligentes do IEEE publicou o Ethically Aligned
Design, uma verdadeira bíblia para abordar “valores e atenções, bem como
implementações” desses sistemas. Esse volume digital de quase 300 páginas
oferece uma tonelada de valor aos executivos que embarcam na jornada de
desenvolvimento de uma estrutura interna.
Além disso, a iniciativa global da IEEE lidera o esforço
nos grupos de trabalho de padrões IEEE P7000, que oferecem processos de
orientação de modelos para abordar preocupações éticas durante o projeto do
sistema, privacidade de dados, viés algorítmico e outros tópicos importantes na
ética da IA.
Ong Epic (Electronic
Private Information Center)
Introduzidas em outubro de 2018, essas diretrizes foram
escritas para serem “incorporadas a padrões éticos, adotadas em leis nacionais
e acordos internacionais, e incorporadas ao projeto de sistemas”. É um
documento voltado para os direitos humanos com ênfase em transparência,
imparcialidade, precisão e qualidade dos dados, além de exigir do governo a
restrição de perfis secretos ou da classificação dos cidadãos.
“Nossa preocupação é com os sistemas que impactam os
direitos das pessoas. Acima de tudo, esses sistemas não devem causar danos”,
escrevem seus criadores.
Conselho da União Europeia
Elaborado por um grupo independente de consultores de
ética em IA e ajustado com o uso de mais de 500 comentários durante um período
de feedback de cinco meses, esse é um dos quadros públicos mais recentes e mais
abrangentes sobre a ética da IA até hoje. Não é um documento de política
oficial ou regulamento da Comissão Europeia, mas sim um conjunto de sugestões
destinadas a orientar o discurso público sobre a IA confiável.
Essas diretrizes visam ajudar os projetistas e usuários
de IA a escolherem sistemas que sejam legais, éticos e robustos, com sete
princípios que estabelecem o que é necessário para criar uma IA confiável:
·
agência e supervisão humana: incluindo direitos fundamentais, ação e
supervisão humanos;
·
robustez e segurança técnica: incluindo resiliência a ataques e
segurança, plano de retorno e segurança geral, precisão, confiabilidade e
reprodutibilidade;
·
privacidade e governança de dados: incluindo respeito pela privacidade,
qualidade e integridade dos dados e acesso aos dados;
·
transparência: incluindo rastreabilidade, explicabilidade e comunicação;
·
diversidade, não discriminação e justiça: incluindo a prevenção de
preconceitos, acessibilidade e design universal, e a participação de
stakeholders;
·
bem-estar social e ambiental: incluindo sustentabilidade e respeito pelo
meio ambiente, impacto social, sociedade e democracia;
·
responsabilidade: incluindo auditabilidade, minimização e relato de
impacto negativo, compensações e reparação.
Marcello Pinsdorf - country manager da BlackBerry Cylance
no Brasil. Formado em Engenharia Eletrônica pela Escola de Engenharia de Mauá e
com MBA em TI pela Faculdade Getúlio Vargas, o executivo tem como seu principal
desafio ampliar a presença da empresa no país, levando a segurança da informação
baseada em inteligência artificial a todas as empresas brasileiras.
BlackBerry Limited
www.BlackBerry.com e siga @BlackBerry.
Cylance
Nenhum comentário:
Postar um comentário