En bref / Points clés
Le meilleur codeur IA vient d'obtenir une augmentation
Le dernier modèle phare d'Anthropic, Opus 4.7, arrive comme une formidable mise à niveau pour les développeurs et les créateurs, promettant des avancées significatives dans les capacités de l'IA. Lancée le 16 avril 2026, cette itération améliore véritablement l'expérience Claude, repoussant les limites dans des domaines critiques comme la génération de code et la compréhension visuelle. Son arrivée le positionne immédiatement comme un concurrent de premier plan dans le paysage de l'IA en évolution rapide.
Malgré ses gains de performance impressionnants, Opus 4.7 comporte un coût caché que les développeurs doivent gérer. Bien qu'Anthropic maintienne une tarification constante par token, un tokenizer mis à jour et de nouveaux paramètres par défaut signifient que les mêmes invites d'entrée peuvent désormais consommer substantiellement plus de tokens en pratique, ce qui se traduit par des dépenses opérationnelles plus élevées. Ce changement subtil introduit une « taxe secrète » sur ce qui apparaît initialement comme une amélioration de performance gratuite.
Opus 4.7 démontre des benchmarks de codage radicalement améliorés. Il a réalisé un bond de 10 % par rapport à son prédécesseur, Opus 4.6, sur SWE-bench Pro, atteignant un impressionnant 64,3 %. Sur SWE-bench Verified, le modèle a obtenu un score de 87,6 %, reflétant un gain de 7 %. Ces chiffres consolident sa position en tant qu'outil supérieur pour le raisonnement de code complexe, l'ingénierie des systèmes et les tâches autonomes à long terme.
Au-delà du codage, Opus 4.7 élève considérablement son support multimodal. Le modèle traite désormais des images à plus haute résolution, acceptant des entrées allant jusqu'à 2 576 pixels sur le côté le plus long, soit environ 3,75 mégapixels – trois fois la résolution des modèles précédents. Cette amélioration améliore considérablement des tâches telles que l'extraction de données à partir de documents et de graphiques complexes, ainsi que la génération de conceptions d'interface utilisateur (UI) plus « de bon goût et créatives », comme démontré lors de tests récents de création de sites web de cafés réactifs.
L'augmentation de la consommation de tokens provient de deux changements principaux. Un tokenizer mis à jour mappe le même contenu d'entrée à environ 1,0 à 1,35 fois plus de tokens, selon le type de données. De plus, Opus 4.7 « réfléchit davantage » à des niveaux d'effort plus élevés, un comportement par défaut dans Claude Code où un nouveau niveau d'effort `xhigh` est désormais activé pour tous les plans. Ce raisonnement plus approfondi améliore la fiabilité mais consomme invariablement plus de tokens de sortie, impactant directement les coûts.
Code écrasant, faits confus ?
Opus 4.7 excelle véritablement dans la génération de code et la résolution de problèmes, démontrant des avancées robustes par rapport à son prédécesseur. Le modèle a réalisé un bond de 10 % sur SWE-bench Pro, atteignant une précision impressionnante de 64,3 %, surpassant significativement Opus 4.6. Cette amélioration substantielle positionne Opus 4.7 comme un outil formidable pour les développeurs confrontés à des défis complexes d'ingénierie logicielle.
Renforçant davantage sa domination en matière de codage, Opus 4.7 a également enregistré un gain de 7 % sur SWE-bench Verified, avec un score de 87,6 %. Ces victoires aux benchmarks soulignent l'engagement d'Anthropic à améliorer la capacité du modèle à gérer l'autonomie à long terme, l'ingénierie des systèmes et les tâches complexes de raisonnement de code.
Paradoxalement, ces triomphes en matière de codage s'accompagnent d'une baisse déroutante des scores de cybersécurité. Les propres benchmarks d'Anthropic révèlent un léger déclin dans ce domaine, un résultat délibéré de nouvelles mesures de protection strictes mises en œuvre au sein d'Opus 4.7. L'entreprise a intentionnellement construit ces protections cybernétiques améliorées pour bloquer les requêtes indiquant des utilisations de cybersécurité interdites ou à haut risque.
Ce choix stratégique signifie que le modèle maintient artificiellement ses performances en cybersécurité à un niveau inférieur à ce qu'il pourrait autrement atteindre. Anthropic vise à apprendre de ces interactions, informant le développement de futurs modèles encore plus puissants, mais plus sûrs, comme la classe Mythos non encore publiée, soulignant une tension entre la capacité brute et la conception responsable de l'AI.
Malgré ses prouesses en programmation, Opus 4.7 présente une régression préoccupante dans la compréhension du long-context, une capacité critique pour de nombreuses applications d'AI avancées. Des évaluations internes de type « needle-in-a-haystack » ont signalé une « chute brutale » des performances en long-context par rapport à Opus 4.6. Cela suggère qu'Opus 4.7 a plus de mal à récupérer des informations spécifiques enfouies au plus profond de grandes quantités de texte.
Cette baisse inattendue soulève des questions importantes sur la fiabilité du modèle lors du traitement de documents volumineux, de la synthèse de longues conversations ou du maintien de la cohérence sur des tâches prolongées et multi-sessions. Pour les utilisateurs qui comptent sur Claude pour une conscience contextuelle approfondie, cette dégradation potentielle pourrait gravement impacter l'utilisation réelle.
Dites adieu à vos anciens Prompts
Opus 4.7 introduit une approche radicalement différente du suivi des instructions, exigeant une réévaluation complète des stratégies de prompting établies. Contrairement aux modèles Claude précédents qui interprétaient souvent les directives de manière lâche ou même ignoraient les parties moins accentuées, Opus 4.7 est conçu pour un littéralisme et une précision inégalés. Ce changement fondamental signifie que le modèle adhère désormais strictement à chaque instruction fournie, exécutant les commandes avec une exactitude qui modifie fondamentalement la manière dont les utilisateurs doivent interagir avec lui.
Les utilisateurs déployant des prompts conçus pour des modèles plus anciens et plus indulgents rencontreront presque certainement des sorties inattendues ou excessivement littérales. Là où une itération précédente aurait pu inférer l'intention ou prioriser certaines instructions par rapport à d'autres, Opus 4.7 exécutera toutes les parties d'un prompt avec le même poids. Cela peut entraîner des résultats indésirables si les prompts n'ont pas été méticuleusement élaborés pour tenir compte de sa nouvelle rigueur, pouvant faire dérailler des workflows complexes et exigeant un debugging important.
Ce changement critique nécessite un audit complet et une réévaluation des bibliothèques de prompts existantes. Les développeurs et les créateurs doivent désormais affiner méticuleusement leurs prompts, supprimant toute ambiguïté et s'assurant que chaque instruction est explicite et intentionnelle. S'adapter à ce paradigme précis n'est pas seulement une option mais une exigence pour exploiter pleinement la puissance améliorée d'Opus 4.7, en particulier pour les tâches de coding complexes et les tâches agentiques où l'adhérence exacte aux instructions multi-étapes est primordiale.
Exploiter la capacité améliorée du modèle à suivre les instructions signifie adopter une approche plus disciplinée de l'ingénierie des prompts. Le bénéfice, cependant, est un modèle capable de fournir des résultats très précis et prévisibles, à condition que l'entrée corresponde à son littéralisme. Cet investissement dans le raffinement des prompts débloquera le véritable potentiel d'Opus 4.7, le transformant en un outil plus fiable et puissant pour les tâches complexes. Pour ceux qui prévoient des refontes importantes de prompts, la compréhension des dernières structures de tokenization et de pricing est vitale ; référez-vous à la page Model Pricing | Anthropic d'Anthropic pour des informations détaillées.
La « taxe Tokenizer » de 35 % que vous payez maintenant
Opus 4.7 introduit un changement fondamental dans la manière dont le modèle phare d'Anthropic traite le texte, impactant directement les coûts opérationnels pour les développeurs et les utilisateurs avancés. Anthropic a mis à jour le tokenizer du modèle, le mécanisme interne qui décompose le texte d'entrée en unités discrètes pour que l'AI le comprenne. Cet ajustement technique, tout en améliorant le traitement interne, a une implication financière significative pour les utilisateurs.
Auparavant, une invite d'entrée donnée correspondait à un nombre prévisible de jetons pour la facturation de l'API. Avec Opus 4.7, cette même entrée peut désormais correspondre à 1,0 à 1,35 fois plus de jetons, selon le type de contenu. Les utilisateurs paient effectivement plus cher pour des informations identiques, bien qu'Anthropic maintienne son prix d'origine par jeton. Cette consommation accrue de jetons fonctionne comme une « taxe de tokenizer » insidieuse sur chaque appel d'API, gonflant silencieusement les dépenses opérationnelles.
Considérons un exemple pratique pour un développeur d'API utilisant Opus 4.7 pour une tâche de codage complexe. Une invite d'entrée qui consommait auparavant 1 000 jetons sur Opus 4.6, au prix d'entrée d'Anthropic de 15,00 $ par million de jetons, aurait coûté 0,015 $. C'était un calcul simple.
Avec le nouveau tokenizer, cette même entrée de 1 000 jetons pourrait désormais se traduire par jusqu'à 1 350 jetons pour Opus 4.7. Cela se traduit directement par un nouveau coût d'entrée de 0,02025 $ pour la même invite, soit une augmentation flagrante de 35 % des dépenses uniquement due au changement de tokenizer. Cette « taxe » s'applique même avant de prendre en compte la tendance d'Opus 4.7 à « penser davantage » à des niveaux d'effort plus élevés, ce qui gonfle encore la consommation globale de jetons.
Les développeurs doivent désormais surveiller méticuleusement le nombre de jetons et ajuster les stratégies d'incitation pour atténuer ces coûts croissants. La mise à jour technique apparemment mineure du tokenizer exige une réévaluation complète des prévisions budgétaires et de l'optimisation des invites, transformant une mise à niveau puissante en une proposition plus coûteuse. L'utilisation prévisible des jetons a pris fin, inaugurant une ère de gestion prudente des coûts.
Votre IA fait des heures supplémentaires (par défaut)
Opus 4.7 introduit un nouveau niveau d'effort `xhigh`, positionné entre les paramètres de raisonnement `high` et `max`. Cet ajout offre aux développeurs un contrôle plus fin sur le traitement du modèle, équilibrant une pensée computationnelle plus profonde et la latence de réponse. À ces niveaux d'effort plus élevés, Opus 4.7 « pense davantage », en particulier lors des tours ultérieurs dans des contextes agentiques, ce qui améliore considérablement sa fiabilité sur les problèmes complexes et difficiles.
Ce raisonnement amélioré s'accompagne d'un coût crucial, souvent caché : Anthropic a défini le niveau d'effort extra high comme défaut dans Claude Code pour tous les plans. Sans intervention de l'utilisateur, Opus 4.7 fait désormais des heures supplémentaires par défaut, consommant considérablement plus de jetons que les utilisateurs ne pourraient l'anticiper pour leurs invites. Ce changement contribue directement à la « taxe de tokenizer » discutée précédemment, à mesure que la verbosité du modèle augmente.
Pour mettre cela en perspective, le nouveau niveau d'effort `extra high` dans Opus 4.7 utilise à peu près la même quantité de jetons que le niveau d'effort *max* d'Opus 4.6. Cela signifie que les utilisateurs habitués aux performances d'Opus 4.6 à son réglage le plus élevé obtiennent désormais un taux de consommation de jetons similaire comme base dans Opus 4.7, même pour les tâches de routine. Ce défaut a un impact dramatique sur les coûts opérationnels.
Les développeurs avisés peuvent cependant naviguer stratégiquement dans ce nouveau paysage de coûts. Les experts conseillent fortement de tester les différents niveaux d'effort pour trouver un équilibre optimal. Une recommandation clé : changer le paramètre par défaut dans Claude Code à `high` au lieu de `extra high`.
Cet ajustement apparemment mineur apporte des avantages significatifs. Le niveau d'effort `high` d'Opus 4.7 *surpasse* en fait le niveau d'effort `max` d'Opus 4.6, tout en utilisant moins de jetons. En effectuant ce seul changement de configuration, les utilisateurs peuvent atteindre des performances supérieures par rapport au pic de la génération précédente, mais avec une réduction notable de la consommation de jetons et des coûts correspondants. Cela présente une voie claire pour optimiser à la fois la qualité de la sortie et les dépenses.
L'affrontement ultime du design d'interface utilisateur
Au-delà de ses prouesses brutes en matière de codage, Anthropic a également vanté les capacités améliorées de conception d'interface utilisateur (UI design) d'Opus 4.7. Un test simple de 'site web de café', ne nécessitant qu'un fichier `index.html`, a opposé Opus 4.7 à son prédécesseur, Opus 4.6, ainsi qu'à ses concurrents Gemini 3.1 et GPT 5.4. Ce scénario réel visait à évaluer le flair créatif des modèles et leur capacité à traduire un concept simple en une page web visuellement attrayante.
Opus 4.7 a livré un résultat « plutôt agréable », générant un site web de café réactif avec une police de caractères de bon goût et des images Unsplash bien intégrées. Le design évoquait une véritable ambiance de café, démontrant une nette amélioration par rapport à la production d'Opus 4.6. Son prédécesseur avait produit une version moins soignée, avec un arrière-plan dégradé moins attrayant et une esthétique généralement moins raffinée, rendant l'amélioration d'Opus 4.7 tangible.
La véritable surprise, cependant, est venue de Gemini 3.1, qui s'est imposé comme le design préféré pour cette tâche créative spécifique. Sa production présentait un arrière-plan fixe saisissant, des sections d'images bien exécutées et un menu joliment agencé qui a impressionné les testeurs. Gemini 3.1 a démontré un fort flair visuel, prouvant que la capacité de codage brute n'équivaut pas toujours à un jugement esthétique supérieur en UI design.
Inversement, GPT 5.4 s'est classé loin derrière. Son site web généré souffrait d'un « look and feel GPT » générique et immédiatement reconnaissable, caractérisé par une surutilisation d'éléments de cartes flous. Ce design n'a pas réussi à capturer l'ambiance de café souhaitée, soulignant la difficulté du modèle avec l'interprétation créative et stylistique par rapport à ses pairs.
Cette confrontation en UI design souligne que si les benchmarks quantifient les performances techniques, les tâches créatives subjectives révèlent souvent des personnalités et des forces distinctes des modèles. Comprendre ces nuances est crucial pour les développeurs qui choisissent la bonne IA pour des projets divers. Pour plus de détails sur les implications économiques de ces modèles et l'évolution de leur utilisation des tokens, les lecteurs peuvent explorer Claude Opus 4.7 Pricing: The Real Cost Story Behind the “Unchanged” Price Tag - Finout.
Construire une application Fullstack en une seule fois
Au-delà des simples sites web d'une seule page, le test ultime des prouesses de codage de l'IA moderne implique la construction d'une application fullstack à partir de zéro. Nous avons mis au défi les modèles leaders de construire un tableau de bord de finances personnelles complet, en leur accordant une autonomie totale pour choisir leur pile technologique préférée et implémenter les fonctionnalités de base. Cette tâche complexe sonde non seulement l'UI design, mais aussi la logique backend, la gestion des données et la prise de décision architecturale.
Opus 4.7 a livré un résultat initial véritablement impressionnant, démontrant un niveau d'intégration et de cohérence de conception inégalé par ses rivaux. L'application générée présentait une interface utilisateur propre et intuitive avec une palette de couleurs judicieusement choisie. Son attrait esthétique s'est immédiatement distingué, reflétant les améliorations vantées du modèle en matière de génération d'interfaces utilisateur « de bon goût et créatives ».
Fonctionnellement, les composants frontend étaient robustes et bien implémentés. Les utilisateurs pouvaient interagir avec divers éléments, saisir des données financières et naviguer à travers différentes sections du tableau de bord. Le code a démontré une solide compréhension des principes modernes de développement web, produisant une expérience utilisateur réactive et engageante qui semblait prête pour la production au premier abord.
Cependant, la production sophistiquée d'Opus 4.7 recelait un défaut de conception critique au cœur de son architecture choisie. Malgré le frontend impressionnant, le modèle a opté pour une solution de base de données en mémoire pour gérer toutes les données utilisateur. Ce choix fondamental a gravement compromis l'utilité réelle de l'application, introduisant une faille fatale pour tout outil de suivi financier.
Une base de données in-memory signifie que toutes les informations, des comptes utilisateurs aux historiques de transactions, résident uniquement dans la mémoire active de l'application. Par conséquent, tout redémarrage du serveur ou du processus de l'application efface instantanément chaque élément de donnée stocké. Ce manque total de data persistence rend le tableau de bord financier totalement impraticable pour son objectif.
Bien qu'Opus 4.7 ait démontré une compétence exceptionnelle dans la génération de code complexe et bien structuré ainsi que d'UIs attrayantes, sa décision architecturale a révélé un angle mort significatif. Le modèle n'a pas réussi à prioriser l'aspect le plus crucial d'une application de finances personnelles : le stockage sécurisé et permanent des informations financières sensibles. Cette omission souligne un défi continu même pour les codeurs IA les plus avancés : comprendre les exigences implicites des utilisateurs au-delà des instructions explicites.
Comment la concurrence se compare
Après qu'Opus 4.7 ait réussi à concevoir et à construire un tableau de bord de finances personnelles, en choisissant sa propre tech stack et en livrant une application exécutable en une seule passe, l'analyse comparative révèle des différences frappantes entre les modèles leaders. Sa capacité à générer une solution full-stack cohérente et fonctionnelle à partir d'une invite de haut niveau établit une norme formidable pour la concurrence en matière de développement logiciel pratique.
L'itération précédente d'Anthropic, Opus 4.6, a présenté un résultat plus mitigé. Bien que son interface utilisateur se soit avérée moins impressionnante et esthétiquement raffinée que la sortie de 4.7, le modèle a démontré une meilleure compréhension de la backend persistence. Il a correctement implémenté une persistent SQLite database et a livré plus de fonctionnalités opérationnelles cruciales pour une application fonctionnelle. Ce modèle plus ancien a priorisé la logique d'application de base, soulignant un compromis nuancé entre le raffinement visuel et une fonctionnalité fondamentale robuste.
GPT-5.4 d'OpenAI a rencontré des difficultés significatives avec la tâche full-stack, produisant une tentative fonctionnellement inutilisable. Il n'a pas réussi à livrer une application cohérente ou exécutable, générant du code fragmenté qui a nécessité une intervention manuelle substantielle. De plus, le modèle a opté pour une approche techniquement basique, s'appuyant sur du plain JavaScript et HTML au lieu de démontrer une maîtrise des frameworks modernes. Cette sortie positionne GPT-5.4 loin derrière en matière de génération d'applications complexes à plusieurs composants.
Gemini 3.1 de Google a livré la performance la moins efficace lors de ce test exigeant. Il a fondamentalement échoué à produire une application fonctionnelle à partir de l'invite initiale, nécessitant de multiples interactions de suivi et une guidance utilisateur étendue pour atteindre même une fonctionnalité partielle. Cette incapacité à générer un projet autonome et exécutable sans intervention externe significative souligne ses limitations actuelles dans les scénarios de développement full-stack autonome, le classant comme le moins capable de ce benchmark.
Ces résultats, issus à la fois du test simple d'UI de site web de café et du défi full-stack plus complexe du tableau de bord de finances personnelles, brossent un tableau clair du paysage actuel du codage par IA. Alors qu'Opus 4.7 excelle dans la création d'applications soignées et exécutables avec des principes de conception modernes et des fonctionnalités robustes, ses rivaux sont souvent en deçà en termes de qualité esthétique, de complétude fonctionnelle, ou de la capacité critique à livrer un produit fonctionnel sans guidance utilisateur étendue et sans invites itératives. Cet écart de performance consolide l'avance actuelle d'Opus 4.7 dans la génération de code complexe et multifacette.
Découvrez Mythos : L'IA que nous ne pouvons pas encore avoir
Alors qu'Opus 4.7 règne en tant que modèle le plus performant publiquement disponible, les propres benchmarks d'Anthropic révèlent une IA cachée, plus puissante : Mythos. Ce modèle avancé, présenté lors d'évaluations internes, surpasse de manière démontrable même la dernière itération de Claude, mais reste inaccessible aux développeurs et aux créateurs. Son existence souligne les progrès rapides, souvent invisibles, qui se produisent au sein des laboratoires de recherche en IA.
Anthropic refuse actuellement de publier Mythos en raison de préoccupations critiques en matière de sécurité. Les immenses capacités du modèle, en particulier son potentiel d'utilisation abusive, nécessitent des garde-fous robustes et des tests approfondis avant qu'il ne puisse être déployé à grande échelle. Cette approche prudente met en évidence la lutte continue de l'industrie pour équilibrer l'innovation et le développement responsable de l'IA.
Opus 4.7 joue un rôle stratégique et essentiel dans ce délicat équilibre. Anthropic l'a spécifiquement conçu comme un banc d'essai vital pour de nouvelles cyber-sauvegardes, bloquant activement les requêtes qui indiquent des utilisations de cybersécurité interdites ou à haut risque. Ce choix de conception délibéré explique l'anomalie de performance unique d'Opus 4.7 : une légère baisse contrôlée de ses scores de benchmark en cybersécurité par rapport à Opus 4.6, une réduction servant de contrainte artificielle pour atténuer les risques potentiels.
Les données réelles recueillies lors du déploiement d'Opus 4.7 sous ces protocoles stricts sont inestimables. Elles permettent à Anthropic d'évaluer rigoureusement l'efficacité de ses mécanismes de sécurité et de comprendre les interactions complexes entre une IA puissante et les menaces potentielles. Ce processus d'apprentissage itératif est fondamental pour affiner les futurs modèles.
En fin de compte, Opus 4.7 représente une étape cruciale et fondamentale vers l'introduction éventuelle et sûre des modèles de classe Mythos. Sa publication publique offre un environnement contrôlé pour valider des fonctionnalités de sécurité avancées, ouvrant la voie à des systèmes d'IA plus puissants, mais sécurisés. Lorsque Mythos ou ses successeurs arriveront enfin, ils promettent de remodeler radicalement le développement de logiciels, offrant des capacités sans précédent seulement après une validation rigoureuse de la sécurité.
Le Verdict : Un chef-d'œuvre imparfait ?
Opus 4.7 présente une image nuancée, offrant des capacités révolutionnaires en matière de codage et de conception d'interface utilisateur. Son bond de 10 % sur SWE-bench Pro et son gain de 7 % sur les benchmarks Verified par rapport à Opus 4.6 démontrent sa puissance brute, prouvant une génération impressionnante d'applications full-stack lors de nos tests. Cependant, cette performance améliorée s'accompagne d'une augmentation significative des coûts, spécifiquement une 'taxe de tokenizer' potentielle de 35 % sur les invites existantes. De plus, des questions persistent quant à sa fiabilité sur de longs contextes, certains benchmarks de type 'aiguille dans une botte de foin' suggérant une baisse de performance par rapport à Opus 4.6.
La décision d'Anthropic de passer par défaut au nouveau niveau d'effort `extra high` dans Claude Code exacerbe encore la consommation de jetons. Bien que ce paramètre promette un raisonnement plus approfondi et une fiabilité améliorée sur les problèmes difficiles, il se traduit directement par des coûts opérationnels plus élevés pour les développeurs. Les utilisateurs doivent gérer activement ces paramètres, explorant le niveau d'effort `high` pour trouver un meilleur équilibre entre performance et efficacité économique. Cette vigilance devient cruciale pour tout travail de développement soutenu, en particulier pour les configurations agentiques.
Pour les tâches de codage complexes, l'ingénierie de systèmes complexes et la conception d'interface utilisateur sophistiquée, Opus 4.7 se présente comme un outil phénoménal, sans doute le meilleur modèle publiquement disponible. Sa fidélité plus littérale aux instructions exige un raffinement des invites, mais récompense la précision par des résultats très exacts. Les développeurs peuvent tirer parti de son support multimodal amélioré et de son auto-vérification pour des résultats remarquablement robustes, même sur des flux de travail multi-sessions.
En fin de compte, Opus 4.7 est un chef-d'œuvre imparfait : inégalé dans des domaines spécifiques, mais avec des coûts cachés et des faiblesses potentielles de contexte long que les utilisateurs doivent gérer. Il exige une approche d'utilisation plus stratégique, en faisant des choix conscients concernant les niveaux d'effort et l'optimisation des prompts. Quelles sont vos réflexions sur la dernière mise à jour d'Anthropic ? Quel modèle d'IA utilisez-vous actuellement pour le développement, et que pensez-vous des compromis d'Opus 4.7 ?
Questions Fréquemment Posées
Quelle est la principale amélioration de Claude Opus 4.7 ?
Opus 4.7 offre des améliorations majeures en matière de coding, de raisonnement agentique et de vision haute résolution, affichant un bond de 10 % sur le benchmark SWE-bench Pro par rapport à son prédécesseur.
Pourquoi Opus 4.7 coûte-t-il plus cher à utiliser pour le même prompt ?
Il utilise un tokenizer mis à jour qui peut mapper le même texte à jusqu'à 35 % de tokens supplémentaires. Combiné à un niveau d'effort par défaut "extra high" dans Claude Code, cela augmente effectivement le coût par tâche malgré des prix par token inchangés.
Comment la performance de contexte long d'Opus 4.7 se compare-t-elle à celle de 4.6 ?
Certains tests utilisateurs et benchmarks, comme le test du "needle-in-a-haystack", montrent une régression significative dans la récupération de contexte long, suggérant qu'un compromis potentiel a été fait pour améliorer d'autres capacités.
Claude Opus 4.7 est-il meilleur que GPT-5.4 pour le coding ?
Basé sur un test d'application full-stack, Opus 4.7 a produit une application significativement plus complète et bien conçue avec une UI propre, tandis que GPT-5.4 a généré un projet basique et inutilisable.