Tecnologia

A melhor forma de adotar a IA

Boris Babic, Daniel L. Chen, Theodoros Evgeniou e Anne-La
10 de julho de 2020

Ela ajuda as pessoas, não as afasta nem substitui.

Em pesquisa de 2018 do Workforce Institute com 3 mil gestores de oito nações industrializadas, a maioria descreveu a inteligência artificial como valiosa ferramenta de produtividade.

É fácil perceber o motivo: porque traz benefícios tangíveis em processamento, velocidade, precisão e consistência (uma máquina não comete erros por estar cansada), muitos profissionais passaram a confiar na IA. Suas ferramentas são usadas por médicos, por exemplo, para ajudá-los em diagnósticos e tratamentos.

Mas os participantes da pesquisa expressaram também o receio de perder o emprego para a IA. Eles não estão sozinhos. Recentemente o Guardian informou que mais de 6 milhões de trabalhadores no Reino Unido temem ser substituídos por máquinas. O temor repercute entre pesquisadores e executivos que conhecemos em conferências e seminários. Na verdade, a IA é vista de forma bem mais sombria: por que os humanos seriam necessários quando as máquinas podem trabalhar melhor?

A prevalência dessa apreensão é sinal de que as empresas empenhadas em obter os benefícios da IA devem ter cuidado ao apresentá-la às pessoas que vão trabalhar com esse recurso. Andrew Wilson, CIO da Accenture até janeiro de 2020, diz: “Quanto maior for o foco organizacional na colaboração mútua entre as pessoas e a IA, maior será o valor alcançado”. No que diz respeito aos principais aspectos da produtividade e gestão — notadamente velocidade, aumento de escala e eficácia das tomadas de decisão —, a Accenture descobriu que o número de empresas que usam a IA para de fato ajudar as pessoas, e não para substituí-las, supera significativamente o das que não estabelecem esse objetivo (ou não são claras sobre suas metas em relação à IA).

Em outras palavras, da mesma forma que novos talentos se integram às equipes, a IA deve ser configurada para o mesmo fim, isto é, para ter êxito, não para falhar. O empregador inteligente treina novos contratados por meio de tarefas simples que ajudam a construir experiência prática em contextos de baixo risco e designa mentores para oferecer apoio e aconselhamento. Isso permite que os recém-chegados aprendam enquanto os demais se dedicam às tarefas de maior valor. À medida que aqueles ganham experiência e aprimoram sua capacidade, seus mentores
passam a confiar cada vez mais em suas opiniões e a lhes delegar as grandes tomadas de decisão. Com o tempo, o aprendiz se torna parceiro, contribuindo com habilidades e insights.

Acreditamos que essa abordagem seja aplicável também na inteligência artificial. Nas próximas páginas, baseados em pesquisa e consultoria de IA, em sistemas de informação desenvolvidos por nós e por outras empresas, e em estudos organizacionais de inovação e práticas de trabalho, apresentamos uma abordagem em quatro fases para construir sistemas de IA. Ela permite que as empresas transmitam confiança — condição fundamental para adotá-los — e que o resultado final sejam sistemas de colaboração entre cognição humana e inteligência artificial com ganhos contínuos de ambas as partes. Muitas empresas passaram pela fase 1, e algumas progrediram para as fases 2 e 3. Por enquanto, a fase 4 é um exercício de “antecipação do futuro”, com apenas alguns sinais preliminares, mas viável do ponto de vista tecnológico porque agregaria mais valor às empresas à medida que elas adotassem a IA.

FASE 1
O assistente

A primeira fase de integração da inteligência artificial assemelha-se ao processo de treinamento de um assistente. Você ensina ao novo funcionário algumas regras fundamentais e lhe passa tarefas básicas, mas demoradas, executadas habitualmente por você (preencher formulários online, por exemplo), o que o libera para dedicar-se às prioridades. O iniciante aprende observando você, trabalhando e perguntando.

Uma tarefa comum para os assistentes de IA é a classificação de dados. Um exemplo é o sistema de recomendação que as empresas usam desde meados dos anos 1990 para ajudar os clientes a filtrar milhares de produtos e a encontrar os mais relevantes para eles — a Amazon e a Netflix estão entre os líderes nessa tecnologia.

Cada vez mais as decisões corporativas exigem classificação de dados. Quando, por exemplo, os gestores de portfólio escolhem ações para investir, a quantidade de informações disponíveis é muito maior do que seres humanos conseguem processar, e novas informações são exibidas o tempo todo, o que infla o registro histórico. O software facilita a tarefa, filtrando imediatamente as ações de acordo com critérios de investimento predefinidos. Enquanto isso, o processamento de linguagem natural identifica as notícias relevantes para a empresa e até avalia a opinião corrente sobre determinado evento corporativo em conformidade com os relatórios de analistas. A Marble Bar Asset Management (MBAM), empresa de investimentos fundada em 2002 com sede em Londres, adotou precocemente essas tecnologias. Ela desenvolveu uma plataforma de ponta, a RAID (Research Analysis & Information Database), para ajudar os gestores de portfólio a filtrar grandes volumes de informação sobre eventos corporativos, notícias e movimentos do mercado de ações.

A IA também pode ajudar definindo modelos ao ser humano. Como qualquer usuário do Google deve ter notado, quando uma frase de pesquisa é digitada, aparecem sugestões na tela. O texto preditivo em smartphones é uma forma semelhante de acelerar a digitação. Esse modelo desenvolvido há mais de 30 anos e, semelhante ao bootstrap subjetivo, pode ser facilmente aplicado às tomadas de decisão. Com base no histórico de determinado funcionário, o mesmo modelo seria usado pela IA para antecipar uma provável decisão desse funcionário, a qual seria sugerida como ponto de partida quando essa pessoa fosse confrontada em meio a várias decisões — o que não executaria necessariamente o trabalho, mas aceleraria o processo em curso.

Vejamos um exemplo. Quando os funcionários de uma empresa aérea definem a quantidade de comida e bebida a ser embarcada em determinado voo, eles fazem encomendas, e os respectivos cálculos se baseiam nos voos anteriores. Escolhas erradas implicam custos: quantidades insuficientes irritam os clientes, que no futuro poderão evitar a empresa. E excessos geram desperdício de comida e aumento desnecessário de combustível.

Nesse contexto, um algoritmo pode ser muito útil. Analisando os pedidos anteriores do gestor de catering da empresa aérea ou as regras definidas por ele, a IA faria a previsão das quantidades a ser encomendadas. Esse “preenchimento automático” com “recomendação de pedidos” pode ser personalizado para cada voo com base nos dados relevantes do registro, incluindo o consumo de alimentos e bebidas na rota em questão e até mesmo o histórico de pedidos dos passageiros. Mas, assim como na digitação preditiva, os usuários humanos podem substituir a informação livremente, conforme a necessidade; eles estão sempre no controle. A ajuda da IA se limita a imitar ou antecipar estilos de decisão.

O trabalho de gestores ajudados pela IA é semelhante. Já fazemos isso no dia a dia, quando permitimos que a função de preenchimento automático de formulários online execute a tarefa por nós. No local de trabalho, por exemplo, o gestor estabelece regras específicas a ser seguidas pelo assistente de IA quando este preenche formulários. De fato, muitas ferramentas de software, como programas de classificação de crédito, já são exatamente isto: conjuntos de regras de decisão definidas por seres humanos. O assistente de IA as refina analisando as circunstâncias em que o gestor costuma seguir tais regras. Este aprendizado não implica nenhuma mudança no comportamento do gestor, muito menos esforço para “ensinar” o assistente.

FASE 2
O monitor

O próximo passo é configurar o sistema de IA para fornecer feedback em tempo real. Graças aos programas de aprendizado de máquina, a IA é programada para prever com acerto a decisão do usuário em determinada situação (excluindo-se conduta irracional por fadiga ou por excesso de confiança, por exemplo). Se o usuário está prestes a fazer uma escolha não condizente com seu histórico, o sistema sinaliza a discrepância. Isso é especialmente útil durante as tomadas de decisão em grande volume em épocas em que os funcionários humanos podem estar cansados ou distraídos.

Pesquisas em psicologia, economia comportamental e ciência cognitiva mostram que a capacidade de raciocínio dos seres humanos é limitada e imperfeita, especialmente quando se trata de problemas estatísticos e probabilísticos, muito comuns nos negócios. Vários estudos (de coautoria de Chen, um de nós) sobre decisões legais descobriram que os juízes americanos concedem asilo político com mais frequência antes do almoço do que depois, que proferem sentenças mais brandas se seu time de futebol venceu no dia anterior, que no dia do próprio aniversário são mais condescendentes com os réus.

É claro que a justiça seria mais eficaz se os tomadores de decisão humanos fossem auxiliados por software que informasse quando determinada decisão que eles planejam tomar não é condizente com suas decisões anteriores ou com a decisão prevista por análise de variáveis legais.

A IA pode fornecer esse tipo de input. Outro estudo (do qual Chen foi também coautor) apontou que os programas de IA que processam um modelo composto de variáveis legais básicas (construídas pelos autores do estudo) podem prever decisões de asilo com precisão de aproximadamente 80% na data de abertura do caso. Os autores adicionaram ao programa a funcionalidade de aprendizado, que permite simular a tomada de decisão do juiz com base em suas decisões anteriores.

A abordagem se aplica bem a outros contextos. Por exemplo, quando os gestores de portfólio (GPs) da Marble Bar Asset Management avaliam decisões de compra ou venda capazes de exacerbar o risco geral do portfólio, por exemplo, aumentando a exposição a determinado setor ou geografia, o sistema emite alertas por meio de pop-ups durante o processo de transação computadorizada para que sejam feitos os ajustes necessários. O GP pode ignorar esse feedback desde que os limites de risco da empresa sejam observados. Mas, em qualquer caso, o feedback ajuda o gestor a refletir sobre suas decisões.

Desnecessário dizer que nem sempre a IA “acerta”. Nem sempre as sugestões levam em conta informações privadas confiáveis às quais o tomador de decisão humano tem acesso; portanto, em vez de corrigir possíveis vieses, não raro a IA mais atrapalha que ajuda. Por isso é preciso que o ser humano e o algoritmo dialoguem: este fornece sugestões de acordo com os dados de que dispõe; e aquele treina a IA explicando-lhe o motivo por que determinada sugestão não foi útil. Isso melhora a utilidade da IA e preserva a autonomia do tomador de decisão humano.

Infelizmente, muitos sistemas de IA são configurados para usurpar essa autonomia. Em geral, depois que o algoritmo sinaliza risco de fraude em uma transação bancária, por exemplo, os funcionários não conseguem aprová-la sem a liberação de um supervisor ou de um auditor externo. Às vezes é quase impossível fazer a máquina voltar atrás, o que acaba sendo fonte permanente de frustração para clientes e profissionais de atendimento. Nem sempre a lógica da escolha de IA é transparente; e nem sempre os funcionários têm poder de questionar essa escolha, mesmo quando erros são cometidos.

A privacidade é outro grande problema quando as máquinas coletam dados sobre as decisões tomadas por pessoas. Além de darmos aos humanos o controle de suas trocas com a IA, precisamos ter certeza de que todos os dados coletados sobre eles serão mantidos em sigilo. Uma muralha deve separar a equipe de engenharia da equipe de gestão; caso contrário, os funcionários se sentirão inseguros para interagir livremente com o sistema, cometendo erros e temendo retaliação.

Além disso, as empresas devem definir regras de projeto de IA e interação, garantindo assim a consistência organizacional das normas e práticas. Espera-se que essas regras especifiquem o grau necessário de precisão preditiva para fornecer sugestões; que haja critérios para esse fornecimento; que sejam estipuladas condições em que o funcionário deve acatar ou rejeitar as instruções da IA ou encaminhá-las a seus superiores.

Para que os funcionários mantenham seu senso de controle na fase 2, aconselhamos os gestores e projetistas de sistemas a envolvê-los na condição de especialistas no planejamento para: definir os dados que serão usados; familiarizá-los com os modelos durante o desenvolvimento; e fornecer treinamento e interação à medida que esses modelos são estabelecidos. No processo, os funcionários verão o modo como os modelos são construídos, como os dados são geridos e o motivo por trás das recomendações das máquinas.

FASE 3
O
coach
Em pesquisa recente da PwC, quase 60% dos entrevistados disseram que gostariam de receber feedback diário ou semanal de desempenho. Não é difícil entender o motivo. Como disse Peter Drucker em seu famoso artigo “Gestão pessoal” (Harvard Business Review, 2005), em sua maioria as pessoas não conhecem as próprias habilidades. E quando acham que conhecem, costumam estar erradas.

O problema é que a única forma de descobrir os pontos positivos e os pontos negativos é analisar cuidadosamente as medidas e decisões importantes. Para tanto, é necessário registrar as expectativas de resultado e, nove a doze meses depois, compará-las com os resultados efetivos. Assim, quem geralmente fornece o feedback aos funcionários são seus superiores hierárquicos, que escolhem o melhor momento de fazê-lo e o formato a ser usado. Isso é lamentável, pois como descobriu Tessa West, da New York University, em recente estudo de neurociência, quanto mais as pessoas sentem que têm autonomia e que estão no controle, determinando, por exemplo, o melhor momento de receber feedback, melhor é esse feedback.

A IA pode resolver esse problema. Os recursos mencionados acima oferecem feedback aos funcionários de forma prática, permitindo-lhes avaliar o próprio desempenho e refletir sobre falhas e oscilações. Resumos mensais com análise de seu desempenho anterior podem ajudá-los a entender melhor seus padrões e práticas. Empresas do setor financeiro estão adotando essa abordagem. Os gestores de portfólio da MBAM, por exemplo, recebem feedback de um sistema de análise de dados que captura as decisões individuais de investimentos.

Os dados podem revelar vieses interessantes e variados dos gestores de portfólio. Alguns são mais avessos a perdas do que outros, por isso mantêm investimentos de desempenho inferior por mais tempo do que deveriam. Outros podem ser excessivamente confiantes, investindo quantia excessiva em determinada posição. A análise identifica esses padrões e — tal qual um coach — fornece feedback personalizado que indica as mudanças comportamentais ao longo do tempo, sugerindo decisões melhores. Mas cabe aos GPs decidir a maneira de incorporar o feedback. A liderança da MBAM acredita que esse “aprimoramento comercial” está se tornando um diferencial importante que ajuda GPs a se desenvolver e torna as empresas ainda mais atraentes.

Além do mais, assim como todo bom mentor aprende com os insights das pessoas que orienta, o “coach robô” de aprendizado de máquina aprende com as decisões de funcionários humanos competentes. No relacionamento que descrevemos, um humano pode discordar do coach robô — e isso cria novos dados que mudarão o modelo implícito da IA. Por exemplo, se um gestor de portfólio decide não negociar uma ação em destaque por causa de reveses recentes na empresa, ele pode dar explicações ao sistema. Com o feedback, o sistema faz captura e análise contínua de dados para fornecer os melhores insights. Se os funcionários puderem interagir com a inteligência artificial e ter controle da interação, é mais provável que eles vejam a IA como um canal seguro de feedback cujo objetivo é colaborar, não avaliar desempenho. É importante escolher a interface certa para atingir tal objetivo. Na MBAM, as ferramentas de aprimoramento de negociação, como os apoios visuais, são personalizadas para refletir as preferências do GP.

Como na fase 2, é essencial envolver os funcionários na criação do sistema. Quando a IA é um coach, as pessoas temem ser desvalorizadas. Ela pode aparecer tanto como concorrente quanto como parceira, e quem quer se sentir menos inteligente que uma máquina? As preocupações com autonomia e privacidade podem ser ainda maiores. Trabalhar com um coach requer honestidade, e as pessoas talvez hesitem em se abrir com alguém capaz de compartilhar dados pouco lisonjeiros com o pessoal de RH.

Introduzir a IA nas formas descritas nas três primeiras fases tem, obviamente, algumas desvantagens. A longo prazo, as novas tecnologias criam mais empregos do que destroem. Porém, no meio-tempo o mercado de trabalho pode ser dolorosamente afetado. E é possível que as empresas que introduzem a IA se vejam obrigadas a reduzir as oportunidades de aprendizado para os funcionários. (Leia “Aprenda a trabalhar com máquinas inteligentes”, Matt Beane, HBRBR, novembro de 2019.)

Portanto, o risco existe: não apenas de perder empregos de nível básico (porque os assistentes digitais podem efetivamente substituir os humanos), mas também de comprometer a capacidade de futuros tomadores de decisão de pensar por si mesmos. Mas isso não é inevitável. Segundo Beane,
as empresas podem usar sua inteligência artificial para criar novas e melhores oportunidades de aprendizado para seus funcionários, enquanto aprimoram o sistema, tornando-o mais transparente e dando autonomia aos funcionários.

Considerando que os futuros ingressantes na força de trabalho terão crescido em ambiente profissional de interação homem/máquina, certamente serão capazes de identificar oportunidades de inovar e introduzir atividades que agregam valor e criam empregos mais rápido que seus colegas pré-IA, o que nos leva à última fase.

FASE 4
A equipe

O antropólogo cognitivo Edwin Hutchins desenvolveu o que é conhecido como a teoria da cognição distribuída. Ela é baseada em seu estudo sobre navegação, que, como ele mostrou, requer a combinação de marinheiros, mapas, réguas, bússolas e uma ferramenta de plotagem. A teoria está amplamente relacionada ao conceito de mente estendida, segundo o qual o processamento cognitivo e os estados mentais associados, como crença e intenção, não são necessariamente limitados ao cérebro, ou mesmo ao corpo. Ferramentas e instrumentos externos podem, nas condições certas, desempenhar um papel importante no processamento cognitivo e gerar o que é conhecido como sistema acoplado.

De acordo com esse pensamento, na fase final da jornada de estabelecimento da IA (que, até onde sabemos, nenhuma empresa aditou ainda), as empresas desenvolveriam uma rede acoplada de máquinas e seres humanos para a qual ambas as partes contribuiriam com conhecimento.

Acreditamos que, à medida que a IA progredir graças a suas interações com usuários individuais, analisando e até modelando usuários experientes, utilizando dados de suas decisões e tendências passadas, surgirá naturalmente uma comunidade de especialistas (humanos e máquinas) em empresas totalmente integradas. Eles serão os robôs-coach de IA. Por exemplo, um gestor de compras que ao pressionar um botão na hora de decidir pudesse saber o preço que alguém pretendia pagar se beneficiaria de um coletivo personalizado de experts.

Embora já exista tecnologia para criar esse tipo de inteligência coletiva, essa fase está repleta de desafios. Por exemplo, ao integrar a IA, devem-se evitar preconceitos antigos ou novos e respeitar a privacidade das pessoas, para que elas possam confiar na IA tanto quanto confiam em um parceiro humano. Isso por si só é um grande desafio, dado o volume de pesquisas que demonstram quão difícil é criar laços de confiança entre os seres humanos.

As melhores abordagens para criar um ambiente de confiança no local de trabalho se baseiam na relação entre esse sentimento e a compreensão — tema de estudo de David Danks e seus colegas da Carnegie Mellon University. De acordo com esse modelo, as pessoas confiam em alguém
porque compreendem os valores, desejos e intenções dessa pessoa e porque têm boas intenções. Embora, historicamente, a compreensão seja a base da confiança nas relações humanas, ela pode também ser ajustada para cultivar parcerias entre ser humano e IA, porque o medo que os funcionários têm da inteligência artificial está assentado sobre o desconhecimento de como opera a IA (veja o quadro “Quando a
IA perde o rumo”).

Na construção do entendimento, pode ser desafiador definir o que significa a palavra “explicação”— que dirá uma “boa explicação”. Esse desafio é tema de muitas pesquisas. Por exemplo, um de nós (Evgeniou) está tentando abrir as “caixas-pretas” do aprendizado de máquina por meio das chamadas explicações contrafactuais. Toda explicação contrafactual elucida determinada decisão de um sistema de IA (por exemplo, aprovação de crédito) identificando uma pequena lista de características de transação que, de alguma maneira, levaram à decisão. Se alguma das características tivesse sido diferente, o sistema teria tomado outra decisão (o crédito teria sido negado).

Evgeniou estuda também a percepção das pessoas sobre o que é uma boa explicação para as decisões de IA. Por exemplo, elas consideram boa a explicação apresentada como uma combinação lógica de atributos (“a transação foi aprovada porque tinha as características X, Y , Z”) ou apresentada segundo a relação possível de estabelecer entre determinada decisão e outras decisões (“a transação foi aprovada porque se assemelha a outras transações já aprovadas, e aqui estão elas para você conferir”)? Conforme evoluírem as pesquisas do que torna a IA explicável, os sistemas de IA serão mais transparentes, promovendo, assim, a confiança.

A adoção de novas tecnologias foi sempre um grande desafio, maior ainda quando a tecnologia é de impacto. E em virtude deste potencial de impacto, a inteligência artificial é vista como algo difícil de pôr em prática. No entanto, se adotada de modo consciente, este não será o caso. É exatamente por isso que as empresas devem garantir que o design e o desenvolvimento da IA tenham transparência, autonomia de decisão e privacidade e possibilitem o envolvimento das pessoas que vão interagir com ela. Caso contrário, é razoável que elas sintam medo de ser constrangidas ou até mesmo substituídas por máquinas que tomam todo tipo de decisão de maneira nem sempre compreensível.

É fundamental superar esses medos para criar um relacionamento de confiança com a IA. Nas quatro fases descritas neste artigo, os seres humanos determinam as regras básicas. Com design responsável, a IA pode se tornar uma verdadeira parceira no ambiente profissional, processando rapidamente grandes volumes de dados variados de maneira consistente para aprimorar a intuição e a criatividade dos seres humanos, que por sua vez ensinam a máquina.


BORIS BABIC é professor assistente de ciências da decisão no Insead.


DANIEL L. CHEN é professor no Institute for Advanced Study, da Toulouse School of Economics, e principal pesquisador do programa Data and Evidence for Justice Reform do World Bank.


THEODOROS EVGENIOU é professor de ciências da decisão e gestão de tecnologia no Insead e consultor da Marble Bar Asset Management (empresa de investimentos mencionada neste artigo).


ANNE-LAURE FAYARD é professora associada de estudos de inovação, design e organização na Tandon School of Engeneering, da New York University.

Compartilhe nas redes sociais!

replica rolex