A Wharton Human-AI Research publicou, em parceria com a Science Says, o Blueprint para Adoção de Agentes de IA que ajuda a explicar por que tantos projetos com estes agentes ainda avançam mais lentamente do que o entusiasmo inicial sugeria. A tese central é simples e relevante: à medida que a tecnologia amadurece, o maior obstáculo deixa de ser apenas técnico e passa a ser psicológico. Em outras palavras, usar um chatbot para responder perguntas é uma coisa; já permitir que um agente envie e-mails, execute tarefas, acesse dados ou aja em nome do usuário exige um salto muito maior de aceitação.

As três fricções

Segundo a publicação, esse salto depende de vencer três fricções:

  • A primeira é a competência percebida: não basta o agente ser tecnicamente capaz; ele precisa parecer capaz aos olhos do usuário.
  • A segunda é a confiança: pessoas querem entender limitações, riscos e evidências de que o sistema funciona.
  • A terceira é a delegação de controle: mesmo quando veem valor, muitos usuários resistem a entregar autonomia demais a um sistema que ainda consideram imperfeito ou opaco.

Competência Percebida

No eixo da competência percebida, o relatório recomenda um ponto contraintuitivo para muitas empresas: em contextos relevantes, agentes de IA devem parecer mais competentes do que “calorosos”. O blueprint afirma que usuários julgam esses sistemas mais por sua capacidade de completar tarefas com rigor do que por uma personalidade amistosa. Explicações detalhadas do processo, critérios utilizados e passos seguidos reforçam a percepção de seriedade. Em áreas sensíveis, como saúde e finanças, apresentar o agente como apoio a um especialista humano também reduz resistência. Um dos estudos citados mostra que adicionar um médico humano ao contexto de consulta reduziu a resistência à IA em 16%.

Confiança

No campo da confiança, o documento mostra que transparência continua sendo decisiva, mas não da forma simplista como às vezes se imagina. O usuário nem sempre quer entender toda a mecânica interna do sistema; muitas vezes, ele quer saber se o agente funciona bem em situações reais. Por isso, a publicação recomenda explicitar limitações, mostrar provas de resultados anteriores e reduzir incertezas antes, durante e depois da ação. Um exemplo citado é que evidências de sucesso passado, como volume de tarefas concluídas, podem elevar em até 22,1% a crença na precisão futura do agente. O relatório também observa que rotular o sistema como “learning” ou “improving” aumenta a propensão de escolha: 55% optaram pela IA com esse rótulo, contra 43% sem ele.

Outro achado particularmente útil para organizações é que confiança não cresce apenas com capacidade técnica: cresce também quando o agente parece entender o contexto do usuário. A publicação relata que recomendações foram aceitas 54,2% mais quando o agente demonstrou compreender intenções e objetivos da pessoa. Da mesma forma, respostas genéricas reduzem aceitação, enquanto saídas mais personalizadas e apoiadas em números precisos elevam percepção de rigor. Em um dos estudos resumidos, o uso de números precisos aumentou a confiança em recomendações em cerca de 12%, especialmente sob incerteza, enquanto conselhos genéricos reduziram aceitação em 8%.

Delegação de Controle

A terceira fricção, delegação de controle, talvez seja a mais estratégica para empresas. O blueprint argumenta que pessoas tendem a delegar melhor quando o agente opera em um nível moderado de autonomia: nem passivo demais, exigindo orientação a cada passo, nem totalmente autônomo. O modelo recomendado é um arranjo “human-in-the-loop”, com verificações rápidas, aprovação final e possibilidade clara de editar, pausar, interromper ou reverter ações. O próprio relatório destaca que preocupações com controle respondem por 26% da decisão de adotar IA, e que a sensação de propriedade sobre o agente também pesa: personalização de nome, configurações e funções pode elevar adoção em cerca de 20%.

O documento também chama atenção para um paradoxo importante. À medida que os agentes se tornam mais confiáveis, os humanos passam a supervisioná-los menos. Isso pode parecer um sinal de sucesso, mas cria novo risco: quando a supervisão se torna mera formalidade, a organização perde vigilância justamente nos casos raros em que o erro restante pode ser mais caro. Por isso, a Wharton recomenda manter pessoas atentas sobretudo em saídas de alto impacto, com alertas, confirmações e desenho de processo que preserve engajamento cognitivo, e não apenas “carimbos” automáticos.

Implicação Empresarial

Para líderes empresariais, a implicação é clara: a adoção de agentes de IA não deve ser tratada apenas como questão de tecnologia ou integração de sistemas. Trata-se também de arquitetura de confiança, desenho de experiência e governança de decisão. Segundo a fonte, agentes serão aceitos mais rapidamente quando parecerem competentes, tiverem limites explícitos, gerarem provas concretas de valor e operarem dentro de um regime de autonomia progressiva. Assim, a vantagem competitiva não estará apenas em “ter agentes”, mas em saber implantá-los com legitimidade organizacional, supervisão inteligente e desenho compatível com a psicologia humana.

Para obter o blueprint original completo, em inglês, clique Aqui.

Deixe seu comentário

Por favor inclua seu comentário
Digite seu nome aqui