Claude Mythos, l'IA qu'on aurait préféré ne pas avoir

Date de publication : 08-04-2026

Auteur : Xavier Lanne

Télécharger

Il y a quelques jours, une fuite d’Anthropic a révélé l’existence d’un modèle nommé « Claude Mythos » dont les capacités surpasseraient largement celles de la famille Claude Opus, l’actuel meilleur LLM au monde.

C’est maintenant officiel : Anthropic a révélé officiellement son existence à travers un communiqué. Le modèle surpasse effectivement Opus sur tous les plans. Le progrès plus qu’exponentiel des LLM se confirme une fois de plus… À tel point qu’Anthropic affirme : « Nous ne prévoyons pas de rendre le modèle Claude Mythos Preview disponible au grand public. »

Face aux capacités cyber du modèle, nous sommes obligés de revoir l’équilibre du monde. Anthropic a donc lancé Project Glasswing qui consiste à donner accès gratuitement à son modèle à un certain nombre d’entreprises critiques pour le fonctionnement d’Internet afin de corriger les failles de sécurité rapidement.

On y retrouve :

Au total, Anthropic affirme que plus de 40 entreprises ont rejoint son initiative. Le but : corriger le plus vite possible les failles pour faire face aux nouvelles menaces.

Par exemple, « Mythos Preview a découvert une vulnérabilité vieille de 27 ans dans OpenBSD, pourtant réputé extrêmement sécurisé et utilisé pour des pare-feu et des infrastructures critiques. »

Mythos Preview a déjà révélé des milliers de vulnérabilités critiques, y compris dans tous les principaux systèmes d’exploitation et navigateurs. Étant donné la rapidité d’évolution de l’IA, il ne faudra pas longtemps avant que de telles capacités ne se répandent, potentiellement entre des mains qui ne sont pas nécessairement dédiées à une utilisation sécurisée. Les conséquences pour les économies, la sécurité publique et la sécurité nationale pourraient être graves. Project Glasswing est une réponse urgente pour exploiter ces capacités à des fins défensives.

Un nouveau (dés)équilibre des forces cyber

Que doit-on comprendre dans cette information ? Que les USA sont aujourd’hui dotés d’un outil tellement puissant qu’ils peuvent trouver des failles critiques dans à peu près n’importe quel système informatique dans le monde. Car tous les systèmes un peu complexes sont touchés.

Il va falloir plusieurs années pour s’assurer que la totalité des systèmes actuels soient mis à jour. Pendant ce temps, nous sommes vulnérables.

Si on craignait à juste titre l’ordinateur quantique (qui pourra un jour déchiffrer nos actuelles communications), on a oublié de craindre l’IA qui trouve aujourd’hui des portes dérobées pour accéder à ces conversations. S’il y a peu de chances que nous, individuellement, soyons la cible d’espionnage, on ne peut pas en dire autant pour la souveraineté du pays.

Le rapport de force est en train de basculer : imaginez qu’Anthropic (ou les USA) refuse qu’un autre pays ou qu’une entreprise étrangère chargée d’un système critique accède à ce modèle d’IA pour en augmenter la sécurité ? Ou imaginez qu’un tel système soit un jour utilisé par des groupes malveillants ?

Ce nouvel épisode va relancer et accélérer la course avec la Chine : celle-ci va probablement redoubler d’efforts face à une puissance qu’elle peut juger menaçante. En Europe et en France plus particulièrement, nous ne sommes pas prêts. Peut-être va-t-on prendre conscience des enjeux ?

Une chose est sûre : les LLM ne sont pas juste des outils grand public : ils sont une arme de guerre. Celui qui détiendra la meilleure IA gagnera la guerre.

Ce modèle signe le début d’un déséquilibre évident entre les pays dotés d’IA et ceux qui ne le sont pas. Si Anthropic admet que son modèle ne dépasse pas encore les meilleurs êtres humains dans le domaine cyber, il en dépasse la quasi-totalité. La différence entre les meilleurs humains et ce modèle ? Ce dernier peut être dupliqué des milliers de fois et travailler beaucoup plus vite, 24h sur 24 !

Malheureusement, le risque n’est pas seulement armé, il est également humain. On voit bien dans ce cas-ci que les relations entre pays sont déséquilibrées entre les pays dotés d’un tel outil et ceux qui ne l’ont pas. Mais le risque, en voulant participer à cette course, c’est qu’on oublie l’humain.

Le problème de l’IA est pluriel, touche à peu près la totalité des niveaux de la société. Il faut une réponse extrêmement fine pour à la fois garder notre souveraineté et préserver l’humain et sa dignité.

Les textes de ce site sont sous licence Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International.
En plus des conditions de cette licence, il est interdit d'utiliser ce matériel pour entraîner des intelligences artificielles.