
» LUANA RAMOS SAMPAIO, Auditora do TCE-ES, advogada internacional, mestre em direito e pesquisadora emética, inovação e comunicação pública
Um episódio recente abalou a confiança social na gestão Trump e lançou um alerta global sobre o uso inadequado da inteligência artificial (IA) no governo: o lançamento do The MAHA Report - Make Our Children Healthy Again, elaborado sob a liderança do secretário de Saúde e Serviços Humanos, Robert F. Kennedy Jr., a pedido da Casa Branca. O relatório tinha como objetivo identificar as causas do declínio da saúde infantil nos EUA, diante da alta prevalência de doenças crônicas, e apresentar propostas para reestruturar o sistema de saúde.
A iniciativa trazia uma questão legítima: por que, mesmo com altos investimentos no setor, os Estados Unidos continuam registrando expectativa de vida inferior à de outros países desenvolvidos? Divulgado como um estudo técnico robusto, embasado em evidências científicas e dados transparentes, o MAHA Report prometia oferecer um diagnóstico profundo sobre as raízes da crise sanitária infantil e fundamentar políticas públicas com padrão ouro de evidência.
Contudo, a promessa de solidez foi rapidamente destituída pelos fatos. Uma apuração do Washington Post revelou que o relatório continha dezenas de links quebrados, referências duplicadas, trechos copiados e até menções a estudos inexistentes. Além disso, o texto apresentava marcadores típicos de geração automatizada — como o termo oaicite —, indicando o uso de IA generativa sem a devida revisão humana especializada.
A repercussão foi imediata. Parlamentares como o senador Chris Van Hollen e a senadora Elizabeth Warren criticaram duramente o documento lançado. Warren declarou: "É vergonhoso que os pais americanos tenham que lidar com pseudociência e estudos gerados por IA em relatórios oficiais da Casa Branca sobre a saúde de seus filhos" (tradução livre).
A comunidade científica reagiu com perplexidade. A ausência de revisão técnica rigorosa e a falha no controle de qualidade expuseram um erro grave: a violação do princípio básico para o uso ético de IA na administração pública — o controle e a revisão humanos qualificados. A credibilidade do governo federal foi seriamente abalada.
O caso MAHA escancarou uma crença arriscada que cresce em instituições públicas e privadas: a crença de que a inteligência artificial pode substituir a inteligência humana qualificada. Ferramentas automatizadas podem, sim, apoiar análises, organizar dados e acelerar diagnósticos. Mas jamais substituirão a capacidade crítica, o discernimento ético e a responsabilidade técnica de profissionais capacitados.
Governos que reduzem investimentos em ciência, apostando em soluções automatizadas sem formação humana competente, caminham para institucionalizar a desinformação. Quando isso atinge áreas sensíveis, como a saúde infantil, o dano deixa de ser apenas técnico e se torna humano, ético e social.
O uso responsável da IA exige regulamentação clara, formação continuada de servidores, cultura de governança e, sobretudo, valorização de especialistas com sólida competência técnica. A gestão pública — especialmente em temas como saúde, educação, justiça e meio ambiente — demanda mais do que ferramentas: exige preparo, ética e compromisso com o bem comum.
A confiança institucional, o planejamento estratégico e a vida das pessoas não podem ser pautados por documentos artificiais, construídos sem rigor metodológico, por agentes despreparados para liderar políticas públicas. O episódio do MAHA Report da gestão Trump não foi apenas um tropeço técnico. Foi um alerta global. A inteligência artificial é uma ferramenta poderosa — e, como toda ferramenta poderosa, exige critério, responsabilidade e consciência dos seus limites.
O futuro da IA no setor público será promissor apenas se estiver guiado por mãos humanas — capacitadas, responsáveis e comprometidas com a ciência, a ética e a vida da população. A gestão pública e as decisões políticas que impactam a população não podem ser conduzidas por improvisos, tampouco guiadas por alucinações de algoritmos. Quando o que está em jogo são vidas humanas — especialmente de crianças —, a tecnologia deve servir à proteção da vida, à ética e à dignidade, e não substituí-las. Qualquer uso que se desvie disso rebaixa a IA de uma ferramenta promissora para um risco inaceitável.