Pesquisar no Blog

quarta-feira, 24 de julho de 2019

Pesquisa Capgemini: ética proativa em IA para ganhar confiança e lealdade das pessoas


Consumidores, funcionários e cidadãos recompensarão empresas que mostrem proativamente que seus sistemas de Inteligência Artificial são éticos, justos e transparentes

Paris – O uso ético da IA ​​(Inteligência Artificial) está se tornando fundamental para conquistar a confiança das pessoas, como descobriu um novo estudo do Capgemini Research Institute. À medida que as organizações progridem para aproveitar os benefícios da IA, os consumidores, funcionários e cidadãos estão observando atentamente e estão prontos para recompensar ou punir o comportamento. Os entrevistados disseram que poderiam ser mais leais, comprariam mais ou seriam defensores de organizações cujas interações com IA são consideradas éticas.

O estudo Why Addressing Ethical Questions in AI Will Benefit Organizations (em tradução livre: “Porque Abordar Questões Éticas em IA Beneficiará as Organizações”) pesquisou 1.580 executivos de grandes organizações em 10 países e mais de 4,4 mil consumidores em seis países.

Entre as principais descobertas estão:

As empresas que utilizam IA de forma ética serão recompensadas: entre os consumidores pesquisados, 62% afirmaram que depositariam maior confiança em uma empresa cujas interações com IAs consideravam éticas; 61% disseram que compartilhariam experiências positivas com amigos e familiares; 59% deles afirmaram que teriam maior lealdade à empresa, e 55% disseram que comprariam mais produtos e forneceriam classificações altas e feedback positivo nas mídias sociais.

Por outro lado, quando as interações dos consumidores com IAs resultam em questões éticas, elas ameaçam tanto a reputação quanto os resultados: 41% disseram que se queixariam caso uma interação com IA resultasse em questões éticas, enquanto outros 36% exigiriam uma explicação e 34% parariam de interagir com a empresa.

Questões éticas resultantes de sistemas de Inteligência Artificial foram observadas e vivenciadas: executivos de nove em cada 10 organizações acreditam que os problemas éticos foram observados no uso de sistemas de IA nos últimos 2 a 3 anos, com exemplos como coleta de dados pessoais de pacientes sem o consentimento na área da saúde e confiança excessiva nas decisões conduzidas por máquinas, sem falar na não divulgação na área bancária e de seguros. Os executivos citaram as razões, incluindo a pressão para implementar com urgência a IA, a falha em considerar a ética na construção de sistemas da tecnologia e a falta de recursos dedicados a sistemas de IA éticos.

Consumidores, funcionários e cidadãos estão preocupados com preocupações éticas relacionadas à IA e querem alguma forma de regulamentação: quase a metade dos entrevistados (47%) acredita ter experimentado pelo menos dois tipos de usos da IA
​​que resultaram em questões éticas nos últimos 2 ou 3 anos. A maioria (75%) disse que quer mais transparência quando um serviço é alimentado pela tecnologia, e para saber se a IA está tratando-os de forma justa (73%). E mais de três quartos (76%) dos consumidores acham que deveria haver mais regulamentação sobre como as empresas usam a Inteligência Artificial.

As organizações estão começando a perceber a importância da IA
​​ética: 51% dos executivos consideram importante garantir que os sistemas da tecnologia sejam éticos e transparentes. Porém as organizações também estão tomando ações concretas quando questões éticas são levantadas. A pesquisa descobriu que 41% dos executivos seniores relatam ter abandonado completamente um sistema de IA quando uma questão ética surgiu.

“Muitas organizações se encontram em uma encruzilhada no uso da IA. Consumidores, funcionários e cidadãos estão cada vez mais abertos a interagir com a tecnologia, mas estão atentos a possíveis implicações éticas. Esta pesquisa mostra que as organizações devem criar sistemas e práticas éticas para o uso da IA, se quiserem ganhar a confiança das pessoas. Esta não é apenas uma questão de conformidade, mas a possibilidade de criar um benefício significativo em termos de lealdade, endosso e engajamento”, afirmou Anne-Laure Thieullent, líder da oferta de IA e de Analytics na Capgemini. “Para conseguir isso, as organizações precisam se concentrar em colocar as estruturas de governança corretas no lugar, elas não devem apenas definir um código de conduta baseado em seus próprios valores, mas também implementá-lo como uma abordagem “ética por design” e, acima de tudo, concentrar-se em informar e capacitar as pessoas sobre como elas interagem com as soluções de inteligência artificial”.

As organizações devem priorizar uma estratégia ética de Inteligência Artificial: para endereçar as preocupações dos consumidores e liberar o dividendo de confiança do uso ético da tecnologia, assim como as empresas devem adotar uma abordagem focada para tornar os sistemas adequados a um objetivo. A Capgemini recomenda uma abordagem em três frentes para construir uma estratégia para a ética na IA que inclua todos os principais stakeholders:

1-Para CxOs, líderes de negócios e aqueles com responsabilidade por confiança e ética: Estabeleça uma base sólida com uma estratégia e código de conduta para uma IA ética; desenvolva políticas que definam práticas aceitáveis
​​para a força de trabalho e aplicativos de IA; crie estruturas de governança ética e garanta a prestação de conta pelos sistemas de IA; e construa equipes diversificadas para garantir a sensibilidade em todo o espectro de questões éticas;

2-Para as equipes voltadas para clientes e funcionários, como RH, marketing, comunicações e atendimento ao cliente: Garanta o uso ético da aplicação de IA; eduque e informe aos usuários para criar confiança nos sistemas de IA; capacite os usuários com mais controle e a capacidade de buscar recursos; e se comunique de forma proativa sobre os problemas de IA interna e externamente para criar confiança;

3-Para IA, dados e líderes de TI e suas equipes: Busque tornar os sistemas de inteligência artificial tão transparentes e compreensíveis quanto possível para ganhar a confiança dos usuários; pratique um bom gerenciamento de dados e mitigue possíveis vieses nos dados; monitore continuamente a precisão e a acuracidade; e utilize ferramentas tecnológicas para construir a ética na IA.

Luciano Floridi, diretor do Digital Ethics Labs do Oxford Internet Institute apontou: “Uma forma clássica de ganhar confiança, com as interações de IA, pode ser resumida em três palavras: transparência, prestação de contas e empoderamento. Isso significa transparência para que as pessoas possam ver o que você está fazendo; prestação de contas porque você assume a responsabilidade pelo que está fazendo; e empoderamento, porque você coloca as pessoas no comando para lhe dizer se algo que você fez não foi certo ou não é bom”.

Uma cópia do relatório pode ser baixada aqui.


Metodologia de Pesquisa
 
A pesquisa pesquisou mais de 1.580 executivos de grandes organizações (com mais de US$ 1 bilhão em receitas anuais) de 10 países (China, França, Alemanha, Índia, Itália, Holanda, Espanha, Suécia, Reino Unido e Estados Unidos). Os executivos foram escolhidos de três grupos - General management/strategy/corporate; TI/AI /data science/analytics; RH e marketing. Além disso, uma pesquisa com consumidores foi conduzida com 4,4 mil consumidores de seis países (Estados Unidos, China, Reino Unido, França, Alemanha, Holanda), todos com algum tipo de interação com IA no passado, para que pudessem se relacionar com ética, confiança e questões relacionadas à transparência em IA. O Capgemini Research Institute também realizou entrevistas em profundidade com mais de 20 acadêmicos, especialistas do setor e empresários.




Instituto de Pesquisas Capgemini

Nenhum comentário:

Postar um comentário

Posts mais acessados