A recente advertência de Chris Hyams, ex-CEO da Indeed, tem uma precisão desconfortável: o risco da inteligência artificial não vem da tecnologia, mas sim de quem a está impulsionando. Não é uma mudança retórica insignificante. Em 2025, Hyams insistia em duas ideias que coexistem com certa tensão: que a IA não realiza "trabalhos completos", mas pode executar de maneira eficiente uma parte substancial das habilidades dentro da maioria dos cargos; e que o desafio central é implementar isso de forma responsável, pois o impacto em emprego, moradia, educação, saúde e justiça pode amplificar desigualdades existentes.
Agora, o foco se desloca do "como" para o "quem". E essa mudança é um diagnóstico de liderança e de design organizacional: em muitas empresas, a IA está sendo integrada como se fosse mais um pacote de software, quando na verdade é uma alavanca que altera critérios, incentivos e controles. Se o sistema de governança é fraco, a IA apenas acelera decisões ruins, opacas ou de curto prazo. Se o sistema de governança é sólido, a IA se torna produtividade, melhor atendimento e menos fricção.
Quando o problema é o condutor, o freio não é técnico
Hyams conhece o mercado de trabalho de forma holística. A Indeed opera exatamente onde a IA pode gerar valor ou dano rapidamente: na correspondência entre pessoas e oportunidades. Em maio de 2025, ele apresentou um achado tão útil quanto fácil de malinterpretar: "não existe um único trabalho" onde a IA possa desempenhar "todas as habilidades" requeridas, mas em cerca de "dois terços" dos trabalhos, "50% ou mais" dessas habilidades são tarefas que a IA generativa atual pode realizar "razoavelmente bem ou muito bem". Essa frase possui um caráter operacional: as empresas não estão diante de uma substituição binária, mas sim frente a um grande espectro de tarefas que podem mudar de mãos.Um executivo apressado transforma esse espectro em um mandato de redução de custos. Um executivo responsável a vê como uma oportunidade de redirecionar o trabalho. A diferença reside na governança: quem define quais tarefas são automatizadas, com quais critérios, limites e auditorias, e quem responde quando o sistema erra.
Em janeiro de 2025, em Davos, Hyams também delineou o quadro macroeconômico que pressiona a aceleração: "estamos no início de uma corrida" entre uma força de trabalho que se encolhe e as possíveis ganhos de produtividade com a IA. Ele até antecipou uma compressão temporal: "30 anos de mudanças" poderiam ocorrer em "três ou quatro anos". Quando essa é a velocidade, o maior risco não é um modelo ilusório; é uma organização que toma atalhos porque o sistema de incentivos prioriza a velocidade em detrimento do controle.
A advertência de 2026 se alinha a um padrão que frequentemente observo em transformações: são proclamados princípios e formados comitês, mas a execução cotidiana acaba capturada por urgências trimestrais. Nesse ponto, a "responsabilidade" torna-se um documento, enquanto o produto e as operações exigem implementações. A tecnologia não decide esse trade-off; isso é decidido pela estrutura de poder interna.
A IA como tensão de portfólio, não como projeto de TI
Em empresas grandes, a adoção da IA geralmente se dá por duas vias. A primeira é eficiência: automatização de suporte, geração de conteúdo, assistência a desenvolvedores, análises internas. A segunda é produto: novas funções para clientes, melhores recomendações, melhor correspondência, menos fricção. Em ambas as situações, o erro clássico é tratar isso como um projeto de TI com um prazo e um KPI financeiro padrão.A leitura de Hyams sobre habilidades sugere outra abordagem: a IA atravessa o "motor de receitas atual" e a "eficiência operacional" ao mesmo tempo. E, se executada corretamente, abre espaço para "incubação" e para a "transformação" de capacidades. Se mal feita, apenas corta custos a curto prazo e degrada o sistema a longo prazo.
Portanto, sua mudança de foco é crucial. Quando um líder afirma que o risco está em quem impulsiona a IA, ele está sugerindo que o fracasso típico não é de laboratório, mas de execução: é implementada sem clareza de propriedade, sem rastreabilidade de decisões e sem um mecanismo prático para parar o sistema quando ele causa danos. E em setores como emprego, a noção de "dano" não é abstrata: um filtro mal calibrado pode excluir perfis, perpetuar preconceitos históricos ou criar opacidade difícil de auditar.
Hyams já abordou este ponto de maneira contundente ao classificar a IA responsável como "o tema dos direitos civis e direitos humanos" de sua vida, e ao observar que em emprego, moradia, educação, saúde e justiça existem profundas desigualdades que um sistema automatizado pode amplificar. Essa visão não é resolvida com uma lista de verificação. Resolve-se com decisões de portfólio: quanto do orçamento vai para controle e auditoria, quanto para velocidade de implementação, quanto para treinamento, quanto para redesign de processos. Se tudo é medido com rentabilidade imediata, o controle sempre sai perdendo.
Barreira sem autonomia operacional termina em burocracia ornamental
A Indeed formou uma equipe de IA responsável com especialistas de campos diversos, segundo Hyams, para avaliar sistemas e construir tecnologia sob princípios de IA responsável. A interdisciplinaridade é uma sinalização correta. O problema surge quando essa equipe é consultiva, chega tarde ao ciclo de produto ou não tem poder para parar uma implementação.Em empresas com pressão por resultados, a "equipe responsável" se torna uma reavaliação final que assina ou não assina. Se a organização já comprometeu uma data comercial, essa assinatura torna-se cerimonial. E se, além disso, a equipe é avaliada com métricas que não refletem sua missão, ela fica presa no mesmo sistema que deveria equilibrar.
A abordagem de Hyams de 2025 era sócio-técnica: entender os construtos sociais onde os sistemas são inseridos. Essa afirmação, de modo mais prático, significa três coisas. Primeiro, a qualidade dos dados e sua história são importantes, pois viés não se “corrige” depois. Segundo, a saída deve ser explicável no nível exigido pelo contexto, especialmente em decisões que impactam oportunidades econômicas. Terceiro, a responsabilização deve ser designada: se um sistema automatiza uma etapa de seleção, alguém deve ser responsável pelo resultado e por efeitos colaterais.
Quando Hyams agora aponta para quem impulsiona a IA, ele descreve um padrão de falhas de governança mais do que uma deficiência técnica. À empresa média não falta um modelo melhor; falta um design de decisões que exija equilibrar velocidade, controle e legitimidade.
A corrida pela produtividade pode degradar a confiança se não for bem medida
A pressão por produtividade não é uma desculpa moral, é uma restrição econômica. Se a força de trabalho encolhe e a demanda persiste, a tentação de automatizar cresce. O risco é que muitas empresas mensuram os benefícios da IA com indicadores fáceis e os custos com indicadores invisíveis.Os benefícios típicos entram rapidamente no quadro: menos tempo por atendimento, menor custo por interação, maior throughput no desenvolvimento, maior quantidade de conteúdo produzido. Os custos críticos costumam aparecer tardiamente: reclamações por viés, perda de confiança, degradação da marca empregadora, exposição regulatória, e equipes internas que deixam de entender o processo porque o delegaram a um sistema.
No mundo do emprego, essa assimetria é especialmente sensível. Se um candidato percebe arbitrariedade, a plataforma perde reputação. Se uma empresa percebe que o matching piora ou que o processo é opaco, ajusta seu investimento. A IA pode melhorar o matching, mas apenas se for governada com disciplina: objetivos claros, avaliação contínua e rastreabilidade.
Hyams também previu que haverá "10 vezes" mais pessoas que serão programadores, embora o trabalho seja "irreconhecível" em comparação ao desenvolvimento atual. Essa afirmação aponta para uma reformulação profunda do trabalho do conhecimento. E quando o trabalho muda dessa maneira, a empresa deve reformular seu sistema de desempenho, seu treinamento e sua estrutura de cargos. Se não fizer isso, a IA se torna uma camada adicional sobre processos antigos, causando fricção e erros em grande escala.
A liderança que falha aqui não falha por má intenção; falha por operar com o mesmo painel de controle que usava antes. A IA exige um painel misto: eficiência e aprendizado. Se apenas a eficiência é premiada, a capacidade de detectar danos precocemente é eliminada.
Um padrão operacional para não transformar a IA em risco sistêmico
Com as informações disponíveis publicamente, Hyams não detalha exemplos específicos em seu recente alerta. Mesmo assim, sua trajetória permite interpretar o risco central como uma lacuna entre princípios e execução. Em organizações grandes, essa lacuna é reduzida com uma boa estrutura, não com discursos vazios.Em termos práticos, vejo quatro mecanismos que separam adoções saudáveis de adoções frágeis. O primeiro é propriedade explícita: cada sistema que impacta decisões sensíveis deve ter um responsável de negócio e um responsável por riscos, com autoridade real. O segundo é autonomia com limites: as equipes que experimentam precisam de velocidade, mas dentro de um marco que determine o que não deve ser tocado e o que é sempre auditado. O terceiro é métricas corretas para a fase correta: em implementações iniciais, medir apenas a economia ou a conversão tende a ocultar problemas; é necessário também medir estabilidade, erros, reclamações e reversibilidade. O quarto é capacidade de reversão: se um sistema causa dano, a empresa deve ser capaz de desligá-lo ou degradá-lo sem colapsar as operações.
Isso não é burocracia extra. É a mínima engenharia organizacional para que a IA seja sinônimo de produtividade, sem se tornar um passivo. O ponto de Hyams sobre "quem impulsiona" a IA é, no fundo, uma crítica à adoção sem os freios operacionais necessários.
O caso da Indeed é relevante porque a indústria de emprego está no centro da sensibilidade social e regulatória. As empresas que correrem atrás da eficiência ignorando o controle podem conquistar um trimestre, mas perder confiança por anos. As empresas que investirem em governança e redesign do trabalho podem capturar uma produtividade sustentável.
A viabilidade depende de governar duas velocidades sem comprometer o core
A IA está fazendo as companhias operarem em duas velocidades: manter o negócio atual com disciplina nos custos e, ao mesmo tempo, explorar novos designs de trabalho e produto a um ritmo mais parecido com o de uma startup do que com uma corporação. O alerta de Hyams serve como um lembrete de que o ponto de falha raramente é o modelo; é o sistema de decisões que o envolve.Uma organização viável protege a "caixa" do motor atual sem asfixiar a exploração, atribui autoridade clara para interromper implementações quando o risco supera o benefício e mede o aprendizado inicial com métricas que não penalizam a detecção de erros. Esse equilíbrio assegura a rentabilidade presente enquanto constrói capacidade para escalar o futuro.









