Clientes querem ética no uso de IA
Empresas que utilizam tecnologia de forma justa e transparente serão recompensadas 25/07/2019 03:26
O uso ético da Inteligência Artificial está se tornando fundamental para conquistar a confiança das pessoas, como descobriu novo estudo do Capgemini Research Institute. À medida que as organizações progridem para aproveitar os benefícios da IA, os consumidores, funcionários e cidadãos estão observando atentamente e estão prontos para recompensar ou punir o comportamento. Os entrevistados disseram que poderiam ser mais leais, comprariam mais ou seriam defensores de organizações cujas interações com IA são consideradas éticas. O estudo "Why Addressing Ethical Questions in AI Will Benefit Organizations" (em tradução livre: "Porque Abordar Questões Éticas em IA Beneficiará as Organizações") pesquisou 1.580 executivos de grandes organizações em 10 países e mais de 4,4 mil consumidores em seis países.
 
De acordo com o estudo, as empresas que utilizam IA de forma ética serão recompensadas: entre os consumidores pesquisados, 62% afirmaram que depositariam maior confiança em uma empresa cujas interações com IAs consideravam éticas; 61% disseram que compartilhariam experiências positivas com amigos e familiares; 59% deles afirmaram que teriam maior lealdade à empresa, e 55% disseram que comprariam mais produtos e forneceriam classificações altas e feedback positivo nas mídias sociais. Por outro lado, quando as interações dos consumidores com IAs resultam em questões éticas, elas ameaçam tanto a reputação quanto os resultados: 41% disseram que se queixariam caso uma interação com IA resultasse em questões éticas, enquanto outros 36% exigiriam uma explicação e 34% parariam de interagir com a empresa.

"Muitas organizações se encontram em uma encruzilhada no uso da IA. Consumidores, funcionários e cidadãos estão cada vez mais abertos a interagir com a tecnologia, mas estão atentos a possíveis implicações éticas. Esta pesquisa mostra que as organizações devem criar sistemas e práticas éticas para o uso da IA, se quiserem ganhar a confiança das pessoas. Esta não é apenas uma questão de conformidade, mas a possibilidade de criar um benefício significativo em termos de lealdade, endosso e engajamento", afirmou Anne-Laure Thieullent, líder da oferta de IA e de Analytics na Capgemini.

RISCO
Executivos de nove em cada 10 organizações acreditam que os problemas éticos foram observados no uso de sistemas de IA nos últimos 2 a 3 anos, com exemplos como coleta de dados pessoais de pacientes sem o consentimento na área da saúde e confiança excessiva nas decisões conduzidas por máquinas, sem falar na não divulgação na área bancária e de seguros. Os executivos citaram as razões, incluindo a pressão para implementar com urgência a IA, a falha em considerar a ética na construção de sistemas da tecnologia e a falta de recursos dedicados a sistemas de IA éticos.
 
Consumidores, funcionários e cidadãos estão preocupados com preocupações éticas relacionadas à IA e querem alguma forma de regulamentação: quase a metade dos entrevistados (47%) acredita ter experimentado pelo menos dois tipos de usos da IA que resultaram em questões éticas nos últimos 2 ou 3 anos. A maioria (75%) disse que quer mais transparência quando um serviço é alimentado pela tecnologia, e para saber se a IA está tratando-os de forma justa (73%). E mais de três quartos (76%) dos consumidores acham que deveria haver mais regulamentação sobre como as empresas usam a Inteligência Artificial.
 
As organizações estão começando a perceber a importância da IA ética: 51% dos executivos consideram importante garantir que os sistemas da tecnologia sejam éticos e transparentes. Porém as organizações também estão tomando ações concretas quando questões éticas são levantadas. A pesquisa descobriu que 41% dos executivos seniores relatam ter abandonado completamente um sistema de IA quando uma questão ética surgiu.

A Capgemini recomenda uma abordagem em três frentes para construir uma estratégia para a ética na IA que inclua todos os principais stakeholders:

1-Para CxOs, líderes de negócios e aqueles com responsabilidade por confiança e ética: Estabeleça uma base sólida com uma estratégia e código de conduta para uma IA ética; desenvolva políticas que definam práticas aceitáveis para a força de trabalho e aplicativos de IA; crie estruturas de governança ética e garanta a prestação de conta pelos sistemas de IA; e construa equipes diversificadas para garantir a sensibilidade em todo o espectro de questões éticas;

2-Para as equipes voltadas para clientes e funcionários, como RH, marketing, comunicações e atendimento ao cliente: Garanta o uso ético da aplicação de IA; eduque e informe aos usuários para criar confiança nos sistemas de IA; capacite os usuários com mais controle e a capacidade de buscar recursos; e se comunique de forma proativa sobre os problemas de IA interna e externamente para criar confiança;

3-Para IA, dados e líderes de TI e suas equipes: Busque tornar os sistemas de inteligência artificial tão transparentes e compreensíveis quanto possível para ganhar a confiança dos usuários; pratique um bom gerenciamento de dados e mitigue possíveis vieses nos dados; monitore continuamente a precisão e a acuracidade; e utilize ferramentas tecnológicas para construir a ética na IA.

Compartilhe

Twitter Facebook Linkedin

Palavras mais procuradas

NICE  ALMAVIVA  CSU  URANET  CALLINK  FLEX  VIKSTAR  TIVIT  RANKING  CALL CENTER  TELEPERFORMANCE  AEC  AVAYA  TELLUS  SITEL  VAGAS  VIDAX  ATENTO  CONTAX  TMKT 
 
https://www.callcenter.inf.br/