Intelligence artificielle | Trop puissant, « Claude Mythos » gardé loin du public

Publié hier à
5 h 00
Qu’est-ce que Claude Mythos, exactement ?
Depuis mars 2023, la firme Anthropic propose sur le marché un grand modèle de langage (LLM selon son acronyme en anglais) baptisé Claude. Mis sur le marché quelques mois après ChatGPT, Claude, qui en est à sa version 4,6, est généralement considéré comme plus efficace en codage informatique. Et tandis qu’OpenAI, concepteur de ChatGPT, a pu compter sur un investissement de Microsoft estimé à 13 milliards US, Amazon et Google ont mis environ 10 milliards US dans Anthropic. En février dernier, Anthropic a présenté une version spécialisée de son modèle, Claude Code. Le 26 mars, la firme a publié par erreur sur son site près de 3000 documents révélant l’existence d’un nouveau modèle, Claude Mythos, capable de prouesses inégalées en codage et en cybersécurité. Anthropic a reconnu l’exactitude des informations révélées par le magazine Fortune et a assuré que les données confidentielles de clients n’avaient pas été compromises.
Le 7 avril, Anthropic a officiellement annoncé une initiative appelée « Project Glasswing », qui permettrait à des « partenaires de lancement » d’utiliser Claude Mythos pour défendre leurs infrastructures informatiques.
Est-ce une première, qu’une firme informatique refuse de donner accès publiquement à un outil jugé trop dangereux ?
Selon plusieurs revues spécialisées, refuser de rendre publique une intelligence artificielle (IA) « trop dangereuse » serait inédit. Cela dit, OpenAI a également retardé la sortie de ChatGPT à partir de 2019 par crainte qu’il ne soit utilisé pour la désinformation. Jeudi, le PDG de Google, Sundar Pichai, a assuré dans un balado avec l’entrepreneur irlandais John Collison que le lancement de son IA Gemini avait été volontairement retardé en 2022 parce qu’on la jugeait « inconsistante et dangereuse » dans ses réponses.
Anthropic a fait de l’éthique sa marque de commerce, ayant notamment rendu publique une « constitution » pour son modèle Claude. C’est en vertu de ces principes qu’Anthropic a interdit au Pentagone début mars d’utiliser son IA pour la surveillance domestique de masse et la conception d’armes pleinement autonomes.
Il est vraiment si dangereux, ce Claude Mythos ?
Difficile évidemment d’être catégorique à l’égard d’une IA que très peu d’experts ont pu tester. Selon Anthropic, on a affaire ici à un programme qui a « atteint un niveau de compétence en programmation […] désormais capable de surpasser tous les humains, à l’exception des plus chevronnés, lorsqu’il s’agit de détecter et d’exploiter les failles logicielles ».
« Ce modèle obtient les meilleurs résultats parmi tous ceux développés à ce jour pour diverses tâches de programmation », affirme l’entreprise.
Selon le magazine Forbes, Claude Mythos a trouvé des vulnérabilités inconnues (les fameuses « zero-day ») dans tous les systèmes d’exploitation et les navigateurs web. Il a de plus trouvé une faille datant de 27 ans dans un système appelé OpenBSD, réputé pour être parmi les mieux protégés au monde. Le codec FFmpeg a subi le même sort, avec une vulnérabilité passée inaperçue depuis 16 ans. Il a trouvé 181 façons d’exploiter la vulnérabilité de Firefox. Toutes les failles ont été rapportées à leurs concepteurs avant d’être rendues publiques.
Que fera Anthropic s’il ne peut commercialiser Claude Mythos ?
Le « Project Glasswing » a été présenté comme un effort de guerre qui pourrait mobiliser toute l’industrie de la technologie. « C’est un point de départ [qui] marquera un tournant décisif pour le secteur, ou un moment de prise de conscience quant à ce qui doit être fait, dès maintenant », a résumé Logan Graham, responsable de la « frontier red team » d’Anthropic, chargée d’observer les implications des modèles d’IA sur la cybersécurité, au New York Times.
Des entreprises et organisations comme Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, the Linux Foundation, Microsoft, NVIDIA et Palo Alto Networks pourront utiliser Claude Mythos Preview pour sécuriser leurs propres infrastructures informatiques. Une quarantaine d’autres organisations y auront également accès en vertu de cette initiative pour laquelle Anthropic donnera 100 millions US en « crédits d’utilisation ».
Cet épisode survient quelques mois avant l’arrivée d’Anthropic en Bourse, prévue fin 2026. La valeur de l’entreprise est présentement estimée à 380 milliards US.
Rectificatif
Dans une première version, nous écrivions qu’« Anthropic a interdit au Pentagone début mars d’utiliser son IA à des fins militaires ». Cette interdiction, en fait, ne concerne que la surveillance domestique de masse et la conception d’armes pleinement autonomes. Nos excuses.




