Skip to content Skip to sidebar Skip to footer

√Il n’y a pas de course à l’IA ~ Songkrah


Par Arnaud Bertrand – Le 24 avril 2026 – Source Blog de l’auteur

Livre de Han

Les Chinois ont ce grand principe : « chercher la vérité en partant des faits » (实事求是). Il est communément associé au Parti communiste – parce que c’est en effet un de leurs slogans clés – mais, comme c’est souvent le cas en Chine, ce n’est que l’usage moderne d’un idiome beaucoup plus ancien, enregistré pour la première fois dans le Livre de Han (en l’an 111).

Qu’est-ce que cela signifie ? C’est essentiellement un principe anti-idéologie. Plutôt que de partir d’une doctrine et de regarder les faits à travers son prisme, il vaut mieux aller dans l’autre sens ; la “vérité” est extraite du monde tel qu’il est. C’est fondamentalement une ode au pragmatisme empirique.

« Chercher la vérité en partant des faits » est précisément ce qui manque dans la conversation sur l’IA, qui est incroyablement doctrinale et idéologique. Des pessimistes apocalyptiques d’un côté, des techno-utopistes plein d’illusions de l’autre, tout cela aggravé par le contexte « grande puissance » de cette soi-disant « course à l’IA ». Tout le monde commence par la conclusion – qu’elle soit du style « la Chine est mauvaise, alors elle doit perdre la course à l’IA », ou « l’intelligence artificielle générale (IAG) nous tuera tous« , ou « l’IAG annonce une nouvelle ère d’abondance » – et travaille à rebours pour essayer de trouver des faits qui correspondent à leur idéologie.

Il est intéressant de comparer cela avec les débuts d’Internet, car je suis malheureusement assez vieux pour en avoir été témoin, en tant qu’adolescent et jeune adulte. Il y avait aussi, à l’époque, des dimensions idéologiques et beaucoup de naïveté – nous ne cherchions certainement pas non plus la vérité en partant des faits – mais l’ambiance était fondamentalement optimiste, universaliste et libre d’esprit. C’étaient des croyances doctrinales dans le sens où personne n’avait réellement vérifié si tout cela était vrai, mais c’était une doctrine partagée. Tout le monde dans le monde tenait à peu près le même discours, il n’y avait donc pas de bataille idéologique à mener.

Par exemple, il est assez comique de revenir sur la célèbre affirmation de Bill Clinton en 2000 selon laquelle Internet libéraliserait inévitablement la Chine et que les efforts du gouvernement pour la contrôler sont une « mission impossible » – arguant que c’est “un argument pour accélérer l’effort et amener la Chine dans le monde”.

Comparez cela avec le discours actuel sur l’IA et la Chine. Aujourd’hui, non seulement il n’est plus question “d’amener la Chine dans le monde”, mais toute l’architecture politique, des contrôles à l’exportation aux interdictions de puces, est explicitement conçue pour empêcher la Chine d’y rentrer. Personne ne s’attend non plus à ce que l’IA libéralise qui que ce soit, au contraire, chaque camp est convaincu que l’autre l’utilisera pour renforcer son pouvoir avec des intentions malveillantes, comme surveiller sa population et finalement dominer le monde.

Et, pour être honnête, la partie chinoise a raison de penser ainsi car c’est, mot pour mot, ce que dit la partie américaine sur la manière dont elle utilisera l’IA, ce qui est également en contraste total avec le discours de l’époque au sujet d’internet.

À l’époque, les débuts du Web ont été en grande partie construits par des gamins dans des dortoirs et des garages, se considérant comme contribuant à un bien commun mondial. Aujourd’hui, les personnes qui construisent l’IA aux États-Unis – une poignée de laboratoires travaillant main dans la main avec l’État de la sécurité nationale – définissent explicitement leur travail comme étant un instrument permettant la domination américaine.

Prenez le récent manifeste de Palantir, qu’ils ont publié sur X : il n’a aucune prétention de construire pour le monde, arguant plutôt que “l’élite de l’ingénierie de la Silicon Valley a l’obligation de participer à la défense de la nation”, que la civilisation occidentale doit “prévaloir”, que le hard power de ce siècle « sera construit sur des logiciels » et des “armes IA”, et que la coexistence avec les autres est implicitement exclue.

Et, juste au cas où quelqu’un n’aurait pas compris le message, ils ont récemment changé leur slogan en « un logiciel qui domine ».

Avec le recul, il aurait dû être évident qu’une entreprise qui se nommait d’après les palantíri – les pierres voyantes que Sauron, la représentation du mal absolu dans l’œuvre de Tolkien, utilisait pour corrompre et dominer les peuples de la Terre du Milieu – n’allait probablement pas être des outils faits pour l’épanouissement humain…

Et ce n’est pas que Palantir ; c’est à peu près la position officielle de tout l’écosystème des laboratoires américains.

Comme autre illustration, prenons Dario Amodei, PDG d’Anthropic (la société derrière Claude AI), qui plaide pour une « stratégie d’entente » dans laquelle l’Occident devrait utiliser l’IA pour atteindre « une supériorité militaire robuste (le bâton) tout en offrant en même temps de distribuer les avantages d’une IA puissante (la carotte) à un groupe de plus en plus large de pays en échange du soutien à la stratégie de la coalition pour promouvoir la démocratie ».

En substance, Amodei considère l’IA à la fois comme un outil de domination militaire et un outil de chantage pour forcer les pays à s’aligner politiquement sur l’Occident. Pas exactement l’esprit ouvert et universaliste des débuts du web, et une position pratiquement impossible à distinguer de celle de Palantir.

Si l’on adopte une approche style “recherche de la vérité en partant des faits” pour Anthropic, les actes de cette entreprise contraste fortement avec son image publique.

En février, il y a eu une énorme histoire médiatique autour d’Anthropic refusant la demande du Pentagone que Claude soit mis à sa disposition pour établir une surveillance intérieure de masse et construire des armes entièrement autonomes, les médias décrivant la lutte de pouvoir (apparente) entre l’entreprise et Pete Hegseth.

L’histoire, racontée par pratiquement tous les médias grand public, était sans ambiguïté : voici un laboratoire d’IA responsable qui avait tracé une ligne éthique dans le sable, « essayant de faire de son mieux pour nous protéger de nous-mêmes » comme l’a dit un sénateur républicain. Register a même rapporté qu’un groupe de 14 théologiens moraux et éthiciens catholiques avait déposé un mémoire d’amicus dans l’affaire, déclarant que « l’enseignement de l’Église catholique soutient la décision d’Anthropic ».

Ce que personne n’a passé trop de temps à mentionner, c’est la raison pour laquelle le Pentagone négociait ces conditions avec Anthropic en premier lieu ; cela découlait du fait qu’en janvier 2026, le secrétaire à la Guerre, Pete Hegseth, avait publié un mémorandum visant à “accélérer la domination militaire américaine par l’IA” qui ordonnait à tous les contrats d’IA du Pentagone d’incorporer « toute utilisation légale » dans les 180 jours – permettant essentiellement au Pentagone d’utiliser l’IA à toutes les fins que le Département jugerait légales.

Pourquoi est-ce important pour Anthropic en particulier ? Parce qu’Anthropic avait passé l’année et demie précédente à travailler de manière agressive pour devenir le laboratoire d’IA le plus profondément intégré au Pentagone et, à l’époque, le seul. En novembre 2024, le Pentagone s’est associé à – parmi toutes les entreprises – Palantir « pour mettre les modèles Anthropic à la disposition des agences américaines de renseignement et de défense ». En juin 2025, ils ont lancé Claude Gov – une gamme de produits dédiés sur mesure pour les clients de la sécurité nationale des États-Unis, déjà déployée par des agences aux plus hauts niveaux de classification. Un mois plus tard, en juillet 2025, Palantir remportait un contrat de 200 millions de dollars avec le Pentagone. Aucun autre laboratoire d’IA n’était aussi profondément introduit dans l’appareil militaire et de défense américain.

Tout cela signifie que, contrairement à l’histoire des « principes respectés » que répandent les médias, le mémo de Hegseth n’a pas attiré Anthropic dans la machine de guerre parce qu’ils y étaient déjà pleinement intégrés, plus que tout autre joueur.

Notamment, Claude d’Anthropic a été utilisé par le Pentagone pour capturer Maduro, comme l’a rapporté le WSJ : un article qui a été publié moins de 2 semaines avant toute la frénésie médiatique à propos de ce supposé « affrontement » entre Anthropic et le Pentagone sur l’éthique de l’IA. Ce qui vous fait vraiment vous demander si cet « affrontement » était basé sur un véritable différend éthique, ou n’était qu’une simple opération de relations publiques conçue pour détourner l’attention du fait que l’IA d’Anthropic venait d’être utilisée par l’armée américaine pour capturer illégalement un chef d’État étranger…

Il est également intéressant de voir sur quoi reposait le “clash”. Ce qu’Anthropic a déclaré qu’il refusait, c’était l’utilisation de son IA pour la “surveillance intérieure de masse” (accent mis à la fois sur masse et intérieur) et les “armes entièrement autonomes” (accent mis à la fois sur entièrement et autonomes). Voilà leur formulation exacte.

Ce qui signifie, concrètement, que la surveillance de l’IA est un bien au niveau national tant qu’elle n’est pas « massive ». Cela signifie également, de manière critique, que la surveillance de masse par l’IA est acceptable tant qu’elle n’est pas intérieure.

Le reste du monde est donc averti : Anthropic n’a absolument aucun problème avec le complexe militaro-industriel américain utilisant son IA pour surveiller les 8 milliards d’habitants de la Terre, à condition d’exclure les 340 millions d’Américains. Et même ces derniers peuvent être surveillés, mais pas de manière « massive » (quoi que cela signifie).

Ceci, incidemment, n’est en fait qu’une reformulation de la loi américaine. La surveillance intérieure de masse des Américains est de toute façon interdite par le Quatrième amendement, et la surveillance étrangère de masse est autorisée en vertu de l’article 702 de la FISA et du décret exécutif 12333 – l’architecture juridique exposée par Edward Snowden en 2013.

Ainsi, la soi-disant position des « principe respectés » d’Anthropic consiste simplement à réaffirmer le statu quo juridique américain actuel, à le rebaptiser “ligne rouge” et à être félicité pour “avoir suivi l’enseignement de l’Église catholique” par des théologiens. Même si cette architecture juridique qu’ils défendent, à l’époque où les révélations de Snowden ont éclaté en 2013, a été condamnée à juste titre comme le régime de surveillance le plus radical au monde (ce qu’il est factuellement).

En effet, quand on “cherche la vérité en partant des faits”, Anthropic a réalisé l’exploit marketing assez impressionnant de se faire applaudir, et même de se faire virtuellement sanctifier par des théologiens catholiques, pour avoir rendu l’appareil de surveillance américain plus puissant avec l’IA. En termes Tolkieniens : aiguiser l’œil de Sauron.

Vous devez le leur concéder : c’est un travail de branding impressionnant, leurs employés au marketing méritent certainement une augmentation de salaire pour cela.

Même histoire avec l’aspect « armes entièrement autonomes » de leur « position éthique ».

Tout d’abord, ce que cela signifie concrètement, c’est que s’il y avait une situation où le Pentagone décidait de commettre un génocide semblable à Gaza avec l’IA, en lui demandant – hypothétiquement – de sélectionner des cibles, d’optimiser le timing et d’exécuter l’opération, la ligne rouge d’Anthropic serait pleinement honoré à condition que Pete Hegseth ait personnellement cliqué sur le bouton de lancement. Tel est le principe “éthique” en jeu ici : pas le fait que Claude aide à planifier des actes horribles, seulement le principe qu’un humain soit au courant quand cela se produit.

Et cela va plus loin que cela en réalité : dans leur déclaration à ce sujet, Anthropic a précisé qu’ils ne s’opposaient même pas aux armes entièrement autonomes en tant que catégorie. Ils écrivent spécifiquement que de telles armes « peuvent s’avérer essentielles pour notre défense nationale ». Leur seule objection est que l’IA d’aujourd’hui n’est pas encore assez fiable. Et ils proposent utilement « de travailler directement avec le département de la Guerre sur la R & D pour améliorer la fiabilité de ces systèmes ».

En d’autres termes : Anthropic ne refuse pas du tout d’aider à construire des machines à tuer autonomes. Ils veulent juste qu’elles fonctionnent mieux avant d’être déployées : c’est une objection sur la qualité du meurtre, pas sur l’éthique.

Encore une fois, quel exploit de relations publiques extraordinaire : amener les théologiens catholiques à bénir ce qui est fonctionnellement un plan pour construire des machines à tuer autonomes précises.

Tandis qu’Anthropic constitue une étude de cas particulièrement instructive – compte tenu de leur image publique presque sainte – ils ne sont vraiment qu’un exemple parmi tant d’autres. J’aurais également pu choisir OpenAI, qui a discrètement supprimé l’interdiction d’une utilisation militaire de ses règlements, en janvier 2024, puis s’est associé à Anduril pour créer une IA pour les systèmes de champ de bataille, Sam Altman écrivant des éditoriaux dans le Washington Post sur la nécessité d’une « IA démocratique » pour pouvoir l’emporter sur une “IA autoritaire” – une vision des choses identique à celle d’Amodei ou de Palantir, et risible à première vue quand on considère que cette soi-disant “IA démocratique” est construite pour la domination mondiale des autres (tout le contraire de la démocratie) et explicitement mise en place, comme on vient de le voir, pour la surveillance de masse et les meurtres autonomes. Ou Google, qui en février 2025 a abandonné son engagement de longue date de ne pas développer d’IA pour les armes ou la surveillance. Ou Meta, qui a ouvert Llama à des fins de sécurité nationale aux États-Unis en novembre 2024.

Ce ne sont pas quelques pommes pourries, c’est pratiquement tout l’écosystème.

Donc, en prenant du recul, c’est ce que vous avez d’un côté de l’histoire : des États-Unis manifestement déterminés à utiliser l’IA non pas comme un bien commun mondial, mais comme un outil de soumission et de domination pour les États-Unis.

Maintenant, les lecteurs intelligents (vous tous bien sûr) penseront qu’ils savent comment le reste de cet article va se dérouler : « il va présenter l’autre côté de l’histoire, c’est-à-dire la Chine, avec ses modèles open source, disant que c’est la voie à suivre, que nous devrions tous encourager le camp qui valorise en fait une certaine forme d’ouverture et d’universalisme, bla bla bla ».

Eh bien… au risque de vous décevoir, en fait je ne vais pas faire ça, parce que a) j’aime surprendre, et b) ce serait faux.

Le fait est que, si nous croyons en effet que l’IA devrait être un bien commun mondial, si nous croyons en la “recherche de la vérité en partant des faits” par opposition à l’idéologie, par définition, il ne devrait pas y avoir de côtés d’une histoire en premier lieu ; “team China” n’est que l’autre face de la même erreur que nous avons passé tout cet article à documenter. Le cadrage lui-même – l’IA comme un concours entre civilisations, une course à gagner – est la pathologie. Vous ne pouvez pas rechercher la vérité à partir des faits tout en vous accrochant à la prémisse qu’il doit y avoir un “gagnant”.

Repensez, par exemple, à l’électricité : aurait-il été juste de présenter son développement comme une course à gagner par une civilisation plutôt qu’une autre ? Pour avantager le pays qui était en avance sur les transformateurs en 1890 ? Pour faire de l’électricité une question d’allégeance nationale, quelque chose que vous supportez à la façon dont vous supportez une équipe de football ? Cela semble absurde parce que c’est absurde. L’électricité est une technologie à usage général destinée à faire partie du système d’exploitation partagé de la vie humaine, et la seule position raisonnable à son égard est de vouloir qu’elle se développe bien et se diffuse largement pour le bénéfice de tous, point final.

Bien sûr, il est absolument vrai que la Chine a aujourd’hui une posture infiniment meilleure vis-à-vis de l’IA que les États-Unis. Par exemple, au moment où j’étais en train d’écrire cet article, Deepseek V4 est sorti, et il est difficile d’imaginer une illustration plus parfaite du contraste.

La V4 est open-source sous licence MIT, ce qui signifie que n’importe qui, n’importe où, peut télécharger les codes, les modifier, les exécuter sur le matériel de son choix. Il est compétitif avec GPT-5.5 et Claude Opus 4.7 sur la plupart des capacités de l’IA, à une petite fraction du prix – ou même “gratuit” si vous choisissez de le télécharger et de l’exécuter par vous-même. Mais la chose la plus frappante à propos de la V4 ne sont pas les caractéristiques ni même le prix. C’est que la V4 n’a aucune dépendance vis-à-vis des puces de Nvidia – elle fonctionne entièrement sur les puces Huawei Ascend via le propre système CANN de Huawei. En d’autres termes, la Chine dispose désormais non seulement de ses propres modèles d’IA, mais également de sa propre puce d’IA domestique, intégré de haut en bas. Et c’est offert à tout le monde – l’exact opposé de la posture “cacher et dominer” des laboratoires américains.

C’est la Chine qui considère l’IA comme une technologie polyvalente intégrée à l’économie, partagée au-delà des frontières et copiable publiquement. Et en fait, l’un des chercheurs de DeepSeek a écrit ceci sur X au moment de la sortie de la V4 : “nous restons fidèles au long terme et à l’open source pour tous. L’AGI appartient à tout le monde.”

Lorsque vous encouragez cela, vous n’encouragez pas le « côté chinois » à gagner, vous encouragez le principe selon lequel il ne devrait y avoir aucun camp. Que cette technologie – peut-être la technologie à usage général la plus conséquente que l’humanité ait jamais développée – devrait appartenir à tout le monde, devrait être construite à ciel ouvert, devrait être autorisée à se répandre de la même manière que l’électricité ou le moteur à combustion interne ou les antibiotiques se sont répandus, imparfaitement mais largement, à travers l’ensemble de la civilisation humaine.

Revenons à l’électricité et imaginons à quoi aurait ressemblé le monde si un pays avait décidé d’adopter à son égard l’approche que les États-Unis adoptent pour l’IA. Imaginez si, par exemple, les États-Unis en 1890 avaient déclaré que l’électricité était une question de sécurité nationale, classé les conceptions des dynamos d’Edison et des moteurs à induction de Tesla comme contrôlées pour les exportations, intégré ses entreprises électriques directement dans le Département de la Guerre, encadré le générateur comme une arme stratégique plutôt qu’une technologie à usage général, et aurait passé le siècle suivant à construire sa politique étrangère pour s’assurer que eux seul, et les nations politiquement alignées, auraient accès à l’ampoule.

Dingue, n’est-ce pas ? Eh bien, c’est EXACTEMENT la posture qu’ils adoptent envers l’IA.

Si cela s’était produit, il est douloureusement évident que nous en aurions TOUS été infiniment plus pauvres, matériellement et moralement. Et les États-Unis d’abord, étant donné que pour l’électricité – comme ce sera sans doute le cas pour l’IA – la vraie valeur ne résidait pas dans le contrôle de la technologie mais dans sa large diffusion et dans ce que vous construisez en l’utilisant. Pensez aux “géants de l’électricité” des États-Unis : des entreprises comme GE, Whirlpool ou RCA ne sont pas devenues riches en “possédant” l’électricité, elles sont devenues riches en vendant ce que l’électricité a rendu possible dans un monde qui s’électrifiait aussi vite que possible. La fortune électrique des États-Unis a été bâtie sur un monde qui s’électrifiait à ses côtés, pas contre lui.

L’analogie est-elle valable pour l’IA ? Oui, étonnamment bien. J’aime la récente description de l’IA par Jensen Huang (PDG de Nvidia) comme un “gâteau à 5 couches” composé de 1) énergie, 2) puces, 3) infrastructure, 4) modèles et enfin 5) applications.

L’implication de son argument est que chaque couche, à l’exception de la dernière – la couche applications – sera finalement largement banalisée et, en tant que telle, c’est là que réside la vraie valeur : dans les millions de produits, services et processus industriels spécifiques qui seront construits grâce aux 4 autres couches.

Il s’agit d’une typique construction en réseau ; les couches inférieures finissent par devenir des services publics, et les services publics sont des entreprises de produits de base à faible marge. C’est arrivé avec l’électricité, c’est arrivé avec les téléphones, c’est arrivé avec les chemins de fer, c’est arrivé avec Internet lui-même. Les opérateurs de chaque couche se sont banalisés au fil du temps, tandis que les fortunes durables qui définissent le siècle se sont accumulées au sommet de la pile : GE sur l’électricité, Apple sur l’infrastructure mobile et des télécommunications, Amazon et Google sur l’Internet. Le modèle est si cohérent entre les technologies qu’il s’agit essentiellement d’une loi sur la façon dont l’infrastructure à usage général crée de la valeur.

Il n’y a aucune raison de penser que l’IA – une technologie polyvalente du même ordre – se révélera différente. Au contraire, le schéma peut être encore plus prononcé, car la gamme des applications potentielles de l’IA est plus grande que n’importe quelle technologie à usage général précédente : chaque industrie, chaque processus de travail de la connaissance, chaque catégorie de produits peut en principe être refaite en intégrant de l’IA.

En tant que tel, si cela est correct, cela signifie que l’approche adoptée par les États-Unis est stratégiquement incohérente selon ses propres termes. Voir la diffusion de l’IA comme quelque chose à laquelle il faut résister, ralentir et contrôler va faire reculer son économie ; la diffusion est précisément ce qui permet la valeur ajoutée en premier lieu. Argumenter contre cela est tout aussi erroné que si les législateurs américains avaient plaidé pour des restrictions sur l’adoption mondiale du mobile en 2007, au nom de la “victoire” de la révolution mobile : les 3 000 milliards de dollars d’Apple d’aujourd’hui existent précisément parce qu’ils ont fait le contraire. La diffusion n’était pas une menace pour la valeur boursière d’Apple, la diffusion a permis cette valeur boursière d’Apple.

Maintenant, je vous entends déjà rétorquer : « bien sûr, mais l’IA est différente, qu’en est-il de l’AGI, le pays qui l’atteindra en premier aura sûrement un énorme avantage concurrentiel sur tous les autres, non ? »

Examinons cela car c’est probablement le principal argument avancé par les va-t-en-guerres en faveur de l’approche américaine actuelle. L’affirmation étant que l’AGI n’est pas comme l’électricité. L’électricité était un outil que les humains utilisaient pour faire des choses. L’AGI est un agent – un système qui peut lui-même raisonner, planifier, mener des recherches et s’améliorer. Dès qu’une AGI suffisamment performante sera mise en ligne, l’argument sera valable, elle pourra combiner ses propres avantages : concevoir de meilleures puces, écrire ses propres systèmes successeurs, résoudre les goulots d’étranglement qui contraignent actuellement la science et l’ingénierie humaines.

Le pays qui contrôle ce système aura, en fait, ajouté un moteur de recherche et développement surhumain à son économie, à son armée et à son appareil de renseignement. Les pays rivaux ne pourront pas rattraper leur retard en copiant, car le leader utilisera l’AGI pour aller plus vite que la copie ne peut le faire. Selon cette logique, l’AGI est la dernière technologie à usage général – celle qui confère un avantage permanent à celui qui l’obtient en premier – et la traiter comme “juste une autre technologie à diffuser” n’est pas du pragmatisme, c’est une naïveté stratégique catastrophique.

Tout d’abord, notez l’hypothèse implicite de cette affirmation : qu’il serait acceptable – souhaitable, même – qu’un pays atteigne une domination structurelle permanente sur tous les autres pays du monde – à condition, bien sûr, que ce pays soit les États-Unis. C’est présenté comme une évidence et l’ordre naturel des choses, mais soyons très clairs sur ce que signifie cette vision lorsque vous enlevez le langage techno-utopiste : l’assujettissement permanent de chaque être humain qui n’est pas américain.

Si vous êtes basé en dehors des États-Unis et que vous avez été suffisamment manipulé pour accepter cela, laissez-moi vous suggérer une expérience de pensée. Imaginez l’administration américaine actuelle et imaginez-la avec dix fois son influence actuelle sur votre pays. Parce que c’est à peu près ce que “la domination américaine permanente de l’AGI” signifiera réellement pour vous. Chaque décision commerciale, chaque menace que vous ressentez déjà ? Multipliez-la par un ordre de grandeur, rendez-la permanente et imposez-la par une technologie que votre pays ne peut pas égaler ou à laquelle il ne peut pas résister de manière significative. C’est l’avenir que vous encouragez littéralement si vous acceptez, par réflexe, la vision Palantir-Anthropic-Open AI de l’IA.

Heureusement, c’est purement théorique car cela n’a aucune chance de se produire de sitôt. Revenons sur terre : l’IA est actuellement à un stade où elle ne peut même pas effectuer de manière fiable des tâches qu’un enfant compétent de six ans peut effectuer. Les modèles actuels hallucinent encore régulièrement des faits, échouent à l’arithmétique de base, perdent la trace de longues conversations et ne peuvent pas naviguer dans un monde physique dont ils n’ont aucune expérience.

Ce sont, pour être clair, des outils extraordinaires, beaucoup plus utiles que ce qui existait il y a encore deux ans. Mais le saut de « l’outil extraordinaire qui ne peut toujours pas multiplier deux nombres à quatre chiffres de manière fiable » à « la superintelligence auto-améliorante capable de réorganiser les structures de pouvoir mondiales » est – à ce stade – un saut digne d’une foi religieuse.

Si vous ne me croyez pas, essayez de changer la date de votre vol en discutant avec le robot du service client IA de n’importe quelle compagnie aérienne, et faites un rapport sur ce que ressentez de cette transformation civilisationnelle imminente. Ou essayez de résoudre littéralement tout problème avec le bot du service client de votre banque ou de votre opérateur télécom.

Ces systèmes sont tous alimentés par une IA de pointe, déployés à grande échelle par des entreprises bien financées avec tous les moyens pour les faire fonctionner. Et pourtant, l’expérience universelle d’interagir avec eux est un exercice d’immense frustration car ils ne comprennent pas ce que vous demandez, se souviennent mal de ce que vous avez dit il y a seulement deux messages, inventent avec confiance des politiques qui n’existent pas et finissent par vous mettre en ligne avec un humain de toute façon.

Si c’est ce que la technologie peut réellement faire lorsqu’elle est déployée en production par des entreprises qui ont dépensé des millions pour l’intégrer – si c’est ça le nec plus ultra – l’idée qu’elle est sur le point de devenir une intelligence divine auto-améliorante capable de dominer la géopolitique est, soyons charitables, difficile à concilier avec la réalité observable.

La réalité de la “recherche de la vérité en partant des faits” est que les entreprises modèles ont un intérêt inhérent à faire croire à tout le monde que l’AGI est à nos portes – parce que tout leur modèle commercial, leurs valorisations boursières et leur influence politique dépendent de cette croyance. Éliminez le récit AGI et les laboratoires américains d’IA ne sont plus que des fournisseurs d’infrastructures sur un marché brutalement commercialisé. Dans un monde où cette banalisation serait autorisée à suivre son cours, les laboratoires modèles redeviennent des simples sociétés, avec des coûts fixes élevés, une érosion du pouvoir de fixation des prix, l’AT&T du siècle de l’IA. Leurs évaluations de mille milliards de dollars, leurs augmentations de capital de cent milliards de dollars, tout cela s’évapore.

À moins, bien sûr, que l’AGI ne soit imminente, ce qui n’est pas le cas \_(ツ)_/

Et, dans tous les cas, le point est discutable car même si l’AGI était imminente, un regard sur le tableau de bord “rechercher la vérité en partant des faits” vous indique que la stratégie de « garder pour soi » a déjà échoué. DeepSeek V4 correspond aux modèles américains pour la plupart des caractéristiques importantes. Qwen d’Alibaba, Kimi de Moonshot, GLM de Zhipu sont tous à proximité. Toute l’architecture des contrôles à l’exportation, des interdictions de puces et de l’intégration militaro-industrielle a été conçue pour empêcher cela. Ça n’a pas marché. Pas « risque de ne pas fonctionner » ; cela a déjà échoué factuellement, aujourd’hui, le 24 avril 2026. La Chine a rattrapé son retard, lance des modèles ouverts et vient de démontrer avec DeepSeek V4 qu’elle peut le faire sur des puces entièrement domestiques. Continuer à agir comme si la domination était encore réalisable – comme Palantir, Anthropic et OpenAI continuent d’insister dans leurs documents de stratégie – n’est qu’un déni de réalité.

C’est en fait le principal risque de l’IA en ce moment. Pas le scénario de super-intelligence dont les laboratoires nous avertissent sans cesse. Au lieu de cela, ce sont les laboratoires eux-mêmes, ou plus précisément leur pouvoir de lobbying auprès du gouvernement américain, qui est tranquillement devenu l’une des opérations de capture légale les plus réussies de l’histoire. Une poignée d’entreprises – OpenAI, Anthropic, Palantir ainsi que leurs proches alliés – ont réussi à faire en sorte que chaque élément du discours public sur l’IA se déroule selon leurs conditions, ce qui conduit factuellement les États-Unis à des choix politiques concrets qui ne sont pas seulement mauvais pour le monde, mais aussi pour les États-Unis eux-mêmes.

Mauvais pour les États-Unis parce qu’ils déversent systématiquement des capitaux américains aux niveaux qui se banalisent – puces, infrastructures, modèles – tout en réduisant activement le marché de la seule couche où des fortunes durables et déterminantes pour le siècle se construiront réellement. Et leurs politiques encouragent simultanément le résultat inverse qu’elles sont conçues pour empêcher : elles ont empiriquement contribué à créer une IA alternative crédible qui est tout aussi bonne, gratuite, véritablement ouverte et expédiée sur du silicium entièrement non américain – amplifiant ainsi la banalisation même qu’ils essaient de retarder.

Mauvais pour le monde parce que pendant que les États-Unis dépensent leur énergie sur les contrôles à l’exportation, les interdictions de puces et le déni stratégique, le travail réel de déterminer comment l’humanité intègre une nouvelle technologie transformatrice – les normes, les institutions, la compréhension partagée de ce que l’IA devrait et ne devrait pas faire – est complètement évincé de la conversation. Chaque minute d’oxygène politique consommée par “comment allons-nous gagner” est une minute non consacrée à « comment bien le faire ». Et l’ironie la plus sombre est que “comment allons-nous gagner” n’est même pas une question posée par le public américain – c’est une question fabriquée, financée et amplifiée par le petit groupe de laboratoires – les Anthropics, les OpenAIs, les Palantirs – dont le modèle d’affaires dépend d’une humanité qui ne se bouge jamais pour demander le meilleur.

Pour faire court, il n’y a, en fait, pas de course à l’IA :

  1. C’est un récit fabriqué et amplifié par une poignée de laboratoires dont la valorisation boursière en dépend.
  2. L’économie des technologies à usage général punit activement les « gagnants de la course ».
  3. Même selon les propres termes des va-t-en-guerres – AGI – il n’y a pas de course à gagner puisqu’elle a déjà été empiriquement perdue.

Dans cent ans, l’idée que quiconque considéra sérieusement l’IA comme le sujet d’une course entre les nations semblera exactement aussi absurde qu’une course pour “gagner” l’électricité nous le semble aujourd’hui. Le Livre de Han avait raison en 111 : cherchez la vérité en partant des faits.

Arnaud Bertrand

Traduit par Wayan, relu par Hervé, pour le Saker Francophone.

songkrah.blogspot.com

Enregistrer un commentaire for "√Il n’y a pas de course à l’IA ~ Songkrah"