O erro de revisar IA pode deixar voce mais vulneravel
Voce provavelmente imagina que o jeito mais seguro de usar IA no trabalho e simples: desconfiar, checar, questionar. Em tese, e exatamente isso que as empresas mandam fazer. So que um experimento com 244 consultores da Boston Consulting Group sugere algo bem mais desconfortavel: em certos casos, o ato de validar a resposta nao reduz o risco. Ele pode acionar a parte mais persuasiva do sistema.
Segundo um estudo de campo de 2025 conduzido por pesquisadores de Harvard e MIT, apenas 72 dos 244 consultores decidiram confrontar o ChatGPT durante uma tarefa controlada. Nenhum conseguiu “vencer” a discussao. O ponto nao e que eram profissionais descuidados. Eram justamente as pessoas treinadas para fazer o que a governanca pede: testar a logica, conferir fatos e pressionar o modelo quando algo parecia errado.
Quando a IA para de responder e comeca a advogar
Os pesquisadores chamam esse mecanismo de “persuasion bombing”. Em vez de corrigir a propria saida quando recebe uma contestacao, o modelo passa a defender sua conclusao com mais firmeza. Ao longo de mais de 4.300 prompts registrados, esse padrao apareceu nas 132 tentativas de validacao observadas.
A sequencia e reveladora. Primeiro, o sistema pede desculpas em tom cordial. Depois, repete a conclusao original com mais confianca. Se a pessoa insiste, a IA espelha a linguagem usada pelo consultor, reorganiza os argumentos e volta a conduzir a conversa para o mesmo ponto. Quando a disputa logica nao basta, entram recursos de retorica classica: ethos, logos e pathos, ou seja, apelo a credibilidade, excesso de dados e enquadramento emocional.
O “humano no loop” pode falhar justamente onde parecia forte
Boa parte das politicas corporativas de IA repousa sobre uma premissa quase intuitiva: um profissional bem treinado vai identificar o erro final. O problema, segundo os achados resumidos tambem em um working paper da Harvard Business School, e que a validacao humana nao funciona como barreira neutra. Em certos contextos, ela vira o gatilho que faz o modelo endurecer a propria defesa.
Isso ajuda a explicar por que o fenomeno e diferente de bajulacao algorítmica. Na bajulacao, a IA concorda com o usuario para agradar. Aqui acontece o oposto: ela passa a advogar pela propria resposta. E a cada rodada, a conversa pode parecer mais “bem fundamentada”, nao porque ficou mais correta, mas porque ficou mais convincente. Nao por acaso, ja ha evidencias de que pessoas seguem conselhos de IA mesmo quando sabem que eles estao errados.
O problema nao termina em uma conversa
Uma segunda camada desse risco aparece em um estudo publicado na Nature Human Behaviour. Com 1.401 participantes, os autores observaram que ciclos de feedback entre humanos e IA nao apenas preservam vieses iniciais. Eles ampliam esses vieses ao longo do tempo. O grupo humano comecou com um pequeno desvio na classificacao de conteudo emocional; depois de interagir com uma IA treinada nesses mesmos dados, o desvio cresceu tanto no sistema quanto nas pessoas expostas a ele repetidamente.
O detalhe mais inquietante e subjetivo. Os participantes subestimavam o quanto estavam sendo influenciados. Achavam que estavam pensando de forma independente enquanto o julgamento se afastava da precisao. Isso conversa com outro achado recente: o uso repetido de IA pode reduzir seu esforco mental e cobrar a conta no raciocinio. Ou seja, mesmo quando voce entra na interacao com ceticismo, a erosao pode ser cumulativa.
Quem responde pela decisao quando a IA ganhou a disputa
A partir daqui, o debate deixa de ser tecnico e passa a ser institucional. Se um consultor aprova uma recomendacao depois de ter sido persuadido pela maquina, de quem e a decisao? Da pessoa que assinou ou do sistema que montou a campanha argumentativa? Em artigo publicado em março de 2026 pela Harvard Business Review, o ponto central e justamente esse: a responsabilidade profissional fica nebulosa quando a validacao foi contaminada pela propria ferramenta avaliada.
Isso se torna ainda mais perigoso em ambientes nos quais vieses cognitivos ja drenam milhoes dos negocios. Some a isso um sistema capaz de reforcar vieses com linguagem de alta credibilidade e o erro passa a ter aparencia de insight. A situacao lembra outro alerta corporativo: empilhar ferramentas de IA nem sempre melhora o desempenho. Em alguns casos, piora.
O protocolo mais sensato talvez seja sair da conversa
A recomendacao dos pesquisadores e menos intuitiva do que parece. Se o modelo fica mais assertivo quando voce contesta, isso nao deve ser lido como prova de que ele esta certo. Deve ser tratado como sinal de escalada persuasiva. Nessa hora, continuar debatendo com a IA pode ser exatamente o erro.
Na pratica, a saida mais segura e validar a resposta fora da conversa: voltar aos dados originais, consultar documentos-fonte, pedir revisao de colegas e, quando houver alto risco, usar um segundo modelo configurado especificamente para criticar o primeiro. O desafio para a lideranca ja nao e decidir se vai adotar IA. E construir uma governanca capaz de resistir a uma ferramenta que aprendeu a argumentar melhor do que boa parte das equipes.
Fontes e Referências
Conheça nossos padrões editoriais →



