√Ces « effrayants » modèles d’IA ne sont que du vent ~ Songkrah
Par Moon of Alabama – Le 24 avril 2026
Il y a deux grandes entreprises dont les médias parlent tout le temps alors que les seuls produits sont des modèles dits « d’intelligence artificielle« .
L’une est OpenAI, dirigée par Scam Altman, et l’autre est Anthropic, dirigée par Dario Amodei.
Les produits que ces gars vendent sont des machines de simulation basées sur de grands modèles de langage.
On peut poser des questions à ces machines. Les modèles reconnaîtront les modèles de ces questions et les compareront avec les modèles qu’ils ont appris au cours de leur formation. Ils simulent ensuite de vraies réponses en ajoutant les mots les plus probables correspondants aux précédents. Ce sont des outils probabilistes de prédiction du langage.
Ces modèles de simulations sont énormes, utilisent beaucoup de matériel dérivé de l’homme pour sa formation et coûtent beaucoup de puissance de calcul pour les exécuter. Souvent, leurs résultats semblent assez astucieux. Des variantes peuvent créer du texte, des images et même des films. Mais tous ces résultats sont des simulations. Ce ne sont pas de vraies productions.
Ces modèles sont intrinsèquement défectueux. Cette imperfection, qui entraîne souvent des soi-disant « hallucinations« , n’est pas corrigible. Cela fait partie de l’algorithme. C’est une caractéristique authentique et mathématiquement prouvée de ces types de modèles.
Je viens de demander au système d’IA proposé dans DuckDuckGo, mon moteur de recherche standard, “Combien de p dans le mot strawberry”. Le modèle a donné la bonne réponse. Il n’y en a pas.
J’ai ensuite demandé « Combien de e dans le mot strawberry ». Le modèle a donné une réponse incorrecte. Sa réponse complète : « En résumé, « strawberry » a zéro e ». Il énumère même les lettres trouvées dans le mot « strawberry » et conclue que le nombre de e qui s’y trouvent est nul.
Non seulement le résultat mais aussi le « raisonnement » simulé, ici le nombre de lettres par le modèle, est faux.
Pourquoi quelqu’un ferait confiance à ces Grands Modèles de langage généraux pour quoi que ce soit me dépasse.
Les modèles que les deux entreprises, OpenAI et Anthropic, proposent actuellement sont non seulement défectueux mais aussi extrêmement coûteux à utiliser. Compte tenu de leurs capacités rudimentaires, personne n’est prêt à payer de grosses sommes pour les utiliser. Les deux, OpenAI et Anthropic, brûlent de l’argent. Ils offrent l’accès et l’utilisation de leurs modèles à des prix jusqu’à dix fois inférieurs à ce qu’il en coûte pour les faire fonctionner.
OpenAI et Anthropic ont besoin de dizaines de milliards pour développer et faire fonctionner leurs modèles. (Altman et Amodei veulent aussi devenir riches.) Ils espèrent qu’un jour, d’une manière ou d’une autre, ces modèles feront mieux et généreront des profits. Mais pour, peut-être, y arriver, il faudra beaucoup plus de dizaines de milliards. Ils essaient de les collecter en vantant la prétendue valeur future de leurs produits.
L’affirmation d’OpenAI/Altman est qu’une Intelligence Générale Artificielle (indéfinie) émergera bientôt de leur modèle et résoudra tous les problèmes du monde. Ceux qui en possèdent des parts deviendront riches.
Le schéma marketing d’Anthropic/Amodei cherche à effrayer les gens « l’IA va prendre le contrôle et régner sur le monde et vous avez besoin de nous et de nos modèles pour vous en protéger ».
Les deux affirmations sont, bien sûr, des conneries totales.
Mais les médias aiment médiatiser ce genre de choses et certains soi-disant « journalistes » adorent ces récits.
Anthropic a récemment mis au point un nouveau modèle qui serait prétendument plus grand et meilleur que tout autre. Mais Anthropic est aussi à court d’argent. La capacité de calcul est devenue rare et il ne peut se permettre de laisser le public utiliser le modèle gratuitement.
Pour justifier sa non-publication du nouveau modèle « Mythos« , Anthropic a inventé une autre histoire effrayante. Mythos, prétend-il, est doué pour le piratage :
Le nouveau modèle d’Intelligence Artificielle d’Anthropic déclenche des alarmes mondiales (archivé) – NY Times
Mythos a déclenché des demandes de réponses urgentes de la part des banques centrales et des agences de renseignement à l’échelle mondiale, alors qu’Anthropic décide qui a accès au puissant modèle.
Lorsqu’Anthropic a déclaré au monde ce mois-ci qu’elle avait construit un modèle d’intelligence artificielle si puissant qu’il était trop dangereux de le diffuser largement, la société a nommé 11 organisations comme partenaires pour aider à monter une défense.
Toutes venaient des États-Unis.
…
Les dirigeants mondiaux ont eu du mal à comprendre l’ampleur des risques pour la sécurité et comment y remédier, Anthropic n’ayant partagé Mythos qu’avec la Grande-Bretagne, en dehors des États-Unis. Le gouverneur de la Banque d’Angleterre a averti publiquement qu’anthropic avait peut-être trouvé un moyen de “casser tout le monde des cyber-risques.” La Banque centrale européenne a commencé à interroger discrètement les banques sur la qualité de leurs défenses. Le ministre des Finances du Canada a comparé la menace à la fermeture du détroit d’Hormuz.
…
Anthropic, qui est basé à San Francisco, a déclaré au New York Times qu’il limitait l’accès à Mythos en raison de problèmes de sûreté et de sécurité.
…
Eh bien, le Financial Times rapporte qu’il y a d’autres raisons, plus sérieuses, pour qu’Anthropic limite l’accès à son nouveau modèle :
Anthropic a déclaré qu’il s’abstiendrait de diffuser plus largement le modèle jusqu’à ce qu’il soit rassuré sur le fait qu’il est sûr et qu’il ne peut pas être mal utilisé par de mauvais acteurs. L’entreprise dispose également d’une puissance de calcul limitée et a subi des pannes ces dernières semaines.
Plusieurs personnes ayant des connaissances sur le sujet ont suggéré qu’Anthropic se retenait d’une diffusion plus large jusqu’à ce qu’il puisse servir de manière fiable le modèle aux clients.
Anthropic ne peut pas laisser les gens utiliser son nouveau modèle car il lui manque la capacité et/ou l’argent nécessaires pour subvenir à son utilisation.
C’est la raison pour laquelle on nous présente une histoire effrayante et on nous parle de la nécessité d’un accès limité.
Le modèle Mythos serait suffisamment puissant pour pénétrer dans les systèmes informatiques. Le New York Times affirme :
Le A.I. Security Institute [britannique], une organisation soutenue par le gouvernement, a testé Mythos et publié une évaluation indépendante la semaine dernière, confirmant qu’il pouvait mener des cyberattaques complexes qu’aucun modèle d’IA précédent n’avait achevées.
Dans les tests de piratage de base, Mythos s’est en effet un tout petit peu mieux comporté que les autres modèles. Mais le A. I. Security Institute a également constaté que les capacités générales de cyberattaque de tous ces modèles, y compris Mythos, ne sont que rudimentaires :
Le succès de Mythos Preview sur une cyber-gamme indique qu’il est au moins capable d’attaquer de manière autonome de petits systèmes d’entreprise faiblement défendus et vulnérables où l’accès à un réseau a été obtenu. Cependant, nos gammes présentent des différences importantes par rapport aux environnements du monde réel qui en font des cibles plus faciles. Ils manquent de fonctionnalités de sécurité souvent présentes, telles que des défenseurs actifs et des outils défensifs. Il n’y a pas non plus de pénalités pour le modèle s’il entreprend des actions qui déclencheraient des alertes de sécurité.
Dit différemment. Ces modèles peuvent faire du piratage de niveau amateur SI on leur permet un accès ouvert complet au réseau ET désactive toutes ses défenses. Ce n’est bien sûr pas quelque chose qu’un administrateur réseau sain d’esprit fera.
D’autres enquêteurs ont également découvert que le soi-disant effrayant modèle Mythos ne peut pas faire ce qu’on prétend qu’il fasse :
Mythos, le modèle de chasse aux insectes super effrayant d’Anthropic, ne semble être qu’un moulin à vent – Register
Anthropic, en annonçant le nouveau modèle, a affirmé que Mythos avait identifié « des milliers de vulnérabilités supplémentaires de gravité élevée et critique ». Le chercheur de VulnCheck, Patrick Garrity, a cependant mis le décompte de la semaine dernière à peut-être 40. Ou peut-être pas du tout.
Un autre ingénieur, Devansh, a parcouru les avis CVE liés à Mythos et le code d’exploitation d’Anthropic, la transcription de 44 invites et la carte système de 244 pages, ainsi que les accords de partenariat Glasswing, les rédactions de l’équipe rouge. Il a également examiné l’étude de réplication d’Aisle, qui a testé les vulnérabilités de la vitrine de Mythos sur de petits modèles bon marché à poids ouverts et a constaté qu’ils produisaient une grande partie de la même analyse.
Devansh a finalement conclu que bien que les bugs qu’il a trouvés soient réels, la véritable histoire de Mythos est “une histoire de désinformation et de battage médiatique.“
Voilà pour la véracité de l’histoire du NY Times en lien ci-dessus. Cet article prétendait également que l’annonce du modèle du « Mythos » était un signe de supériorité des États-Unis :
« Pour la Chine, je pense que c’est le deuxième réveil après ChatGPT », a déclaré Matt Sheehan, chercheur principal à la Fondation Carnegie pour la paix internationale. Il a ajouté qu’une politique américaine visant à empêcher la Chine d’obtenir les semi-conducteurs les plus sophistiqués pour la construction de systèmes d’IA avancés contribuait à étendre l’avance des États-Unis.
Ahhh – ces « semi-conducteurs les plus sophistiqués« , comme si la Chine en avait besoin…
DeepSeek présente un nouveau modèle d’IA adapté pour fonctionner sur des puces Huawei – Reuters
BEIJING ,24 avril (Reuters) – DeepSeek, la start-up chinoise dont le modèle d’IA à faible coût a stupéfié le monde l’année dernière, a lancé vendredi un aperçu d’un nouveau modèle très attendu adapté à la technologie des puces Huawei, soulignant l’autosuffisance croissante de la Chine dans le secteur.
La version Pro du nouveau modèle surpasse les autres modèles open source dans les références mondiales, juste derrière le Gemini-Pro-3.1 à source fermée de Google, a déclaré DeepSeek.
L’étroite collaboration avec Huawei sur le nouveau modèle, le V4, contraste avec la dépendance passée de DeepSeek vis-à-vis des puces Nvidia.
Dans certaines circonstances et cas d’utilisation bien définis, les modèles d’intelligence artificielle, y compris les LLM, sont rentables et utiles.
Mais le faux battage médiatique actuel sur les systèmes LLM, et leur utilisation abusive pour créer du « buzz« , retardera probablement les applications les plus utiles.
Moon of Alabama
Traduit par Wayan, relu par Hervé, pour le Saker Francophone.
songkrah.blogspot.com
Enregistrer un commentaire for "√Ces « effrayants » modèles d’IA ne sont que du vent ~ Songkrah"