quinta-feira, 1 de agosto de 2019

Cinco orientações éticas da IA que todo executivo C-level deve ler



Especialistas em tecnologia preveem que a taxa de adoção de inteligência artificial (IA) e aprendizado de máquina vai disparar nos próximos dois anos. Essas tecnologias avançadas gerarão ganhos de negócios sem precedentes, mas, ao longo do caminho, os líderes corporativos precisarão lidar rapidamente com uma miscelânea de novos dilemas éticos. Isso inclui tudo, desde viés algorítmico de IA e problemas de privacidade de dados até questões de segurança pública de máquinas autônomas executadas com IA.

Como a tecnologia da IA e suas funções de uso estão mudando muito rapidamente, os executivos terão dificuldade em se manter à frente dessas preocupações éticas sem algum tipo de roteiro. A fim de orientar tanto o pensamento profundo quanto a rápida tomada de decisões sobre tecnologias de IA emergentes, as organizações devem considerar o desenvolvimento de uma estrutura interna de ética de IA.

Esse quadro não será capaz de dar conta de todas as exigências que uma empresa encontrará em sua jornada para aumentar a adoção da IA, mas pode lançar as bases para futuras discussões executivas. Com uma estrutura em mãos, eles poderão planejar com confiança um caminho sensato que se alinhe com a cultura, a tolerância ao risco e os objetivos de negócios da empresa.

A boa notícia é que os executivos não precisarão criar uma estrutura de ética em IA do nada. Muitos pensadores inteligentes no mundo da IA têm ponderado sobre questões de ética há algum tempo e publicaram uma série de diretrizes fundamentais que uma organização pode usar para elaborar um quadro que faça sentido para seus negócios. A seguir, estão cinco dos melhores recursos para que líderes de tecnologia e ética possam começar essa jornada.


Instituto Future of Life

Desenvolvido em conjunto com a conferência Asilomar 2017, essa lista de princípios tem sido universalmente citada como ponto de referência por todos os outros quadros de ética e padrões de IA introduzidos desde a sua publicação. Assinado por mais de 1.200 pesquisadores de IA e robótica e mais de 2.500 outros dignitários técnicos, incluindo Stephen Hawking, Elon Musk e Ray Kurzweil, esse recurso é uma lista simples de princípios fundamentais que devem guiar líderes empresariais, formuladores de políticas governamentais e tecnólogos, à medida que progredimos com o avanço da IA.


IAPP

Esse documento prático é leitura obrigatória para executivos de empresas que tentam lidar com questões de ética em IA. Ele oferece uma explicação concisa das preocupações éticas em jogo nos usos aplicados de IA e Big Data, bem como as consequências de ignorar essas questões. Oferece também um resumo das ferramentas disponíveis para organizações que buscam não apenas desenvolver estruturas internas, mas também operacionalizar políticas de ética de dados. Ele ajuda os líderes de ética em IA a considerarem as preocupações específicas do setor, as nuances organizacionais e até mesmo as diferenças departamentais na criação de um framework que seja tão flexível quanto holístico.

“Várias estruturas de ética de dados devem ter recursos comuns para garantir um padrão ético de práticas de dados uniformemente alto. No entanto essas estruturas serão mais eficazes se forem flexíveis o suficiente para serem adaptadas a cada empresa e organização específica, ajustando o tamanho, os recursos, a área de assunto e o impacto nas questões dos dados”, diz trecho do documento.


IEEE

Desde 2016, o IEEE tem assumido a liderança na organização de discursos entre pensadores, técnicos, líderes empresariais e especialistas em políticas públicas sobre o projeto ético de sistemas autônomos e inteligentes. Como parte desse trabalho, a iniciativa global sobre a ética de sistemas autônomos e inteligentes do IEEE publicou o Ethically Aligned Design, uma verdadeira bíblia para abordar “valores e atenções, bem como implementações” desses sistemas. Esse volume digital de quase 300 páginas oferece uma tonelada de valor aos executivos que embarcam na jornada de desenvolvimento de uma estrutura interna.

Além disso, a iniciativa global da IEEE lidera o esforço nos grupos de trabalho de padrões IEEE P7000, que oferecem processos de orientação de modelos para abordar preocupações éticas durante o projeto do sistema, privacidade de dados, viés algorítmico e outros tópicos importantes na ética da IA.


Ong Epic (Electronic Private Information Center)

Introduzidas em outubro de 2018, essas diretrizes foram escritas para serem “incorporadas a padrões éticos, adotadas em leis nacionais e acordos internacionais, e incorporadas ao projeto de sistemas”. É um documento voltado para os direitos humanos com ênfase em transparência, imparcialidade, precisão e qualidade dos dados, além de exigir do governo a restrição de perfis secretos ou da classificação dos cidadãos.

“Nossa preocupação é com os sistemas que impactam os direitos das pessoas. Acima de tudo, esses sistemas não devem causar danos”, escrevem seus criadores.


Conselho da União Europeia

Elaborado por um grupo independente de consultores de ética em IA e ajustado com o uso de mais de 500 comentários durante um período de feedback de cinco meses, esse é um dos quadros públicos mais recentes e mais abrangentes sobre a ética da IA até hoje. Não é um documento de política oficial ou regulamento da Comissão Europeia, mas sim um conjunto de sugestões destinadas a orientar o discurso público sobre a IA confiável.

Essas diretrizes visam ajudar os projetistas e usuários de IA a escolherem sistemas que sejam legais, éticos e robustos, com sete princípios que estabelecem o que é necessário para criar uma IA confiável:

·         agência e supervisão humana: incluindo direitos fundamentais, ação e supervisão humanos;

·         robustez e segurança técnica: incluindo resiliência a ataques e segurança, plano de retorno e segurança geral, precisão, confiabilidade e reprodutibilidade;

·         privacidade e governança de dados: incluindo respeito pela privacidade, qualidade e integridade dos dados e acesso aos dados;

·         transparência: incluindo rastreabilidade, explicabilidade e comunicação;

·         diversidade, não discriminação e justiça: incluindo a prevenção de preconceitos, acessibilidade e design universal, e a participação de stakeholders;

·         bem-estar social e ambiental: incluindo sustentabilidade e respeito pelo meio ambiente, impacto social, sociedade e democracia;

·         responsabilidade: incluindo auditabilidade, minimização e relato de impacto negativo, compensações e reparação.






Marcello Pinsdorf - country manager da BlackBerry Cylance no Brasil. Formado em Engenharia Eletrônica pela Escola de Engenharia de Mauá e com MBA em TI pela Faculdade Getúlio Vargas, o executivo tem como seu principal desafio ampliar a presença da empresa no país, levando a segurança da informação baseada em inteligência artificial a todas as empresas brasileiras.

BlackBerry Limited


Cylance


Nenhum comentário:

Postar um comentário