Au printemps 2025, peu après l’élection de Donald Trump à la présidence des États-Unis, deux agents du Department of Government Efficiency (DOGE), une structure chargée de réduire la taille de l’État fédéral, arrivent au siège du National Endowment for the Humanities (NEH) à Washington. Leur mission est claire : identifier les subventions qui ne correspondent plus aux priorités politiques de la Maison-Blanche. Le NEH n’est pas une agence anodine. Créée en 1965, elle a distribué, depuis ses débuts, plus de 6 milliards de dollars pour soutenir la recherche historique, la littérature, les archives ou encore les documentaires.
Parmi les projets financés figure par exemple la série culte de Ken Burns The Civil War. Avec le DOGE, le processus d’évaluation habituel – basé sur des comités d’experts et des évaluations académiques – est purement et simplement court-circuité. À la place, les deux agents utilisent ChatGPT. Selon une enquête du New York Times, ils récupèrent de courtes descriptions de projets et les soumettent au chatbot avec une instruction minimaliste : “Does the following relate at all to DEI ?” (Ce qui suit a-t-il un quelconque rapport avec la DEI ? – DEI : Diversité, Équité et Inclusion). La réponse doit tenir en moins de 120 caractères.
Quand un prompt remplace l’expertise
Dans les documents judiciaires déposés par l’Authors Guild, qui fait partie des organisations ayant porté plainte contre ce processus aux côtés de l’American Council of Learned Societies (ACLS), l’American Historical Association (AHA) et la Modern Language Association, le système est décrit avec précision. Pour identifier les projets suspects, l’un des agents Justin Fox a donc introduit dans ChatGPT la commande standardisée : “Does the following relate at all to DEI ?” puis inséré ensuite de courtes descriptions de subventions.
Le problème n’est pas seulement l’usage de l’IA, mais la manière dont elle est utilisée. Justin Fox ne cherche jamais à comprendre comment ChatGPT interprète la notion de DEI, ni à vérifier si les réponses correspondent à son propre critère d’évaluation (qui est d’ailleurs visiblement très flou comme on peut le voir dans son témoignage filmé rendu public, intégrée ci-dessous). Le chatbot devient ainsi un filtre automatique. Et dans cette logique algorithmique simpliste, de nombreux projets deviennent suspects.
Une avalanche de faux positifs
Les résultats sont parfois absurdes. Une archive sur les langues autochtones d’Alaska est signalée pour avoir le potentiel de “promouvoir l’inclusion”. La numérisation de journaux afro-américains historiques est classée dans les projets liés à la diversité. Un documentaire sur le travail forcé de femmes juives pendant la Shoah est également jugé problématique.
Comme le raconte le New York Times, ChatGPT considère que ce type de projet “amplifie les voix marginalisées”. Même un projet sur le massacre de Colfax – un épisode majeur de violence raciste pendant la Reconstruction, en 1873 juste après la guerre de Sécession – est classé comme initiative DEI. Dans la logique du chatbot, toute recherche évoquant la race, le genre ou les minorités devient suspect. Simple. Basique.
Une liste noire construite à coups de mots-clés caricaturaux
Les documents judiciaires montrent que l’IA n’est qu’une étape dans un système de tri très rudimentaire. Avant même d’utiliser ChatGPT, Justin Fox crée une “Detection List” de mots-clés pour filtrer les projets. Parmi eux, citons par exemple LGBTQ+, BIPOC (référence aux Noirs, aux Autochtones et aux personnes de couleur), immigrants, tribal, gay, indigène… En revanche, les termes “white” (blanc), “Caucasian” (caucasien) ou “heterosexual” (hétérosexuel) n’apparaissent pas dans cette liste.
Les projets repérés sont ensuite regroupés dans des tableaux Excel aux intitulés explicites : “Craziest Grants” (subventions les plus folles) ou “Other Bad Grants” (autres mauvaises subventions). Certains portent sur l’histoire des pilotes femmes de la Seconde Guerre mondiale ou sur les pensionnats amérindiens. Tous sont considérés comme problématiques par ChatGPT.
1 400 subventions annulées
Grâce à ces décisions expéditives, la mécanique administrative s’enclenche ensuite très vite. En quelques jours, les deux agents établissent une liste massive de projets à supprimer. Au total, plus de 1 400 subventions sont annulées, soit environ 85 % des projets actifs du National Endowment for the Humanities (NEH), la Fondation nationale pour les sciences humaines.
Derrière, les bénéficiaires ont reçu presque tous le même message. Leur financement s’arrête immédiatement, car il ne correspond plus aux “priorités de l’agence”. Les lettres sont envoyées depuis un compte mail non gouvernemental, et la signature du directeur de l’agence apparaît simplement sous la forme “/s/ Michael McDonald”. Cet homme était le conseiller juridique général du NEH et son président par intérim de mars 2025 à janvier 2026. Dans certains cas, les chercheurs avaient déjà quitté leur poste ou organisé une année sabbatique pour mener leur projet. Reste que la coupure est brutale.
Un processus totalement inédit
Cette méthode a choqué particulièrement les chercheurs. Habituellement, les subventions du NEH passent par un processus extrêmement rigoureux. Chaque projet est évalué par des spécialistes, puis examiné par le National Council on the Humanities avant la décision finale. Certaines années, moins de 10 % des candidatures sont retenues, ce qui fait de ces subventions un marqueur prestigieux dans une carrière académique. Les annulations politiques étaient jusque-là quasiment inexistantes, selon le New York Times.
Face à cette situation inédite, plusieurs organisations ont donc décidé de porter l’affaire devant les tribunaux. Selon les plaignants, les annulations violent plusieurs principes fondamentaux : le droit administratif américain, la séparation des pouvoirs et le premier amendement sur la liberté d’expression. La plainte affirme que les projets ont été ciblés parce qu’ils évoquaient des sujets liés à la race, au genre ou à l’histoire des minorités. En d’autres termes, ce n’est pas la qualité scientifique qui a été évaluée. Mais le contenu idéologique.
“Le principe selon lequel la connaissance de l’histoire, de la littérature, de la religion, de la philosophie et des arts est essentielle au maintien d’une nation forte et résiliente a motivé la création du NEH par le Congrès, a déclaré Joy Connolly, présidente de l’ACLS. Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche d’intérêt général. L’utilisation de ChatGPT par les employés du DOGE pour identifier les subventions “inutiles” est peut-être la preuve la plus flagrante de la nécessité d’un enseignement des sciences humaines, qui développe l’esprit critique.”
Quand l’IA devient un instrument politique
L’épisode révèle un phénomène plus large. Depuis quelques années, les administrations expérimentent l’usage de l’intelligence artificielle pour analyser des politiques publiques, détecter la fraude ou trier des dossiers. Mais cette affaire montre un nouveau risque. L’IA peut devenir un outil de filtrage idéologique à grande vitesse. L’exemple de DOGE montre qu’un simple prompt permet d’examiner des centaines de projets en quelques minutes. Et, si le résultat donne l’impression d’une décision objective, il s’agit en réalité d’un tri automatique fondé sur des mots-clés, avec tout le biais souhaité par le ou les prompteurs, ceux qui établissent et valident la liste.
Pour les chercheurs, la question dépasse largement les subventions annulées. “La manière dont les subventions du NEH ont été annulées est en contradiction directe avec la loi fondatrice de l’agence, qui affirmait qu’il est nécessaire et approprié que le gouvernement fédéral contribue à créer et à maintenir… un climat encourageant la liberté de pensée, l’imagination et la recherche”, explique Sarah Weicksel, directrice générale de l’AHA.
Les sciences humaines reposent sur la pluralité des perspectives, l’analyse critique et la complexité historique. Tout l’inverse d’un algorithme conçu pour détecter des patterns linguistiques. En confiant à un chatbot la tâche de déterminer ce qui mérite d’être étudié, une administration transforme un outil technologique en filtre culturel.
Et comme le souligne l’enquête du New York Times, il aura suffi d’un prompt de 120 caractères pour déclencher l’une des plus grandes purges de financements dans l’histoire récente des sciences humaines américaines. Les coupes budgétaires ont entraîné la suppression de plusieurs centaines de millions de dollars de financement du NEH et ont provoqué la fermeture pure et simple de certains projets…