Nous sommes en 2026, vous êtes encore développeur, bonjour.
Ces 6 derniers mois j’ai vraiment rincé Claude Code.
De la ré-écriture complète du site de la billetterie de Devoxx France, à la création d’un moteur de jeux de rôles, en passant aussi par mon travail pour proposer cet outil aux développeurs de Back Market… il s’en est passé des choses.
Je pense qu’en 2026, la majorité du code que j’écrirai sera générée à l’aide d’un outil de GenAI comme Claude Code ou Codex CLI. Je ne sais pas pour vous… mais moi la partie purement « saisie de code » ne m’intéresse plus. Cela n’enlève pas le temps de la réflexion, de l’analyse, de la relecture du code généré. Cela me retire simplement la partie purement dactylographique de mon métier. Je tape vite au clavier, mais j’ai trouvé plus rapide.
Entre mes premiers petits tests en mai 2025 et aujourd’hui, j’ai testé de nombreux outils. Même si je parle beaucoup de Claude Code, j’ai aussi testé Cursor, Codex CLI, Mistral Code, Charm Crush, etc. Et Claude Code lui-même évolue rapidement, comme vous pouvez le constater ici. Le modèle sous-jacent est important, mais le code de l’agent est tout aussi important. J’ai testé Crush avec le même modèle d’Anthropic, et des résultats assez différents. L’UX de Crush est magnifique, mais Claude Code est une machine de guerre hautement efficace.
Si vous n’êtes pas encore prêt (ou remplacé) pour (par) Claude Code, vous pouvez commencer par les tests. C’est bien ça, les tests. Cela donne une solide fondation à votre code, vous n’aimez pas les écrire (et les maintenir) et les outils de génération de code sont très performants. Au passage, écrire des tests unitaires, fonctionnels, ou de recettes, aident énormément les outils de GenAI, et sont de solides fondations (et aussi de la doc) pour éviter les surprises (et les hallucinations, mais ça je vais en parler tout à l’heure) .
Claude Code sait coder. Mais il sait aussi utiliser votre navigateur (avec votre permission) via des outils MCP comme Chrome dev-tools ou Browser MCP.
Chrome Dev-Tools est mon outil MCP préféré mais ne fonctionne qu’en mode incognito, donc compliqué avec de l’OAuth. Browser MCP utilise une extension dans votre navigateur Firefox ou Chrome, et donc dispose de la capacité d’accéder à des pages protégées. C’est ultra pratique pour analyser des bugs en préproduction.
Claude Code sait aussi lire des logs, ou se connecter à Datadog en lecture seule. Cependant, attention à ne pas laisser activer en permanence plusieurs outils MCP. Cela utilise des tokens de votre fenêtre de contexte, augmente le coût et devient contre-productif lorsque votre session n’a rien à voir avec Datadog (par exemple). De même, j’ai arreté d’utiliser Playwright MCP. Trop gourmand, les tests ne passent pas forcément. Je préfère laisser Chrome dev-tools se coordonner avec l’exécution de playwright par Claude Code. Cela coûte moins de token et c’est plus simple.
L’IA est aussi un outil qui aide énormément à analyser/comprendre/documenter du code legacy. J’imagine que nous serons bientôt capables de refactorer un gros monolithe en deux/trois semaines, là où cela aurait demandé des mois (des années) il y a 2 ans.
Mais tout ceci va aussi changer notre façon de coder, voire même de développer des applications dans le futur.
Assis toi, arrête de prendre des screenshots de ce post et écoute moi 2 secondes.
La majorité du code écrit en 2026 sera rédigée à l’aide d’outils de Gen AI. D’ici un an, je ne vois pas pourquoi nous continuerons à écrire du code, alors que les outils dont nous disposons, serrons capables de le faire mieux, plus simplement et sans fatigue, sans erreurs.
Car oui, les outils de GenAI hallucinent (parfois) mais sont en général sacrément meilleurs que toi ou moi.
Ces outils cependant, n’ont pas de mémoire. Faites l’expérience d’effacer le fichier CLAUDE.md, reprenez un vieux prompt, et constatez les dégâts. Retirez tous vos tests unitaires, effacez la documentation de votre projet (car la VRAIE doc c’est le code… yolo)… et constatez les dégâts. Cela va prendre plus de temps, l’outil va chercher à converger et va perdre du temps à analyser des fichiers textes sans comprendre la valeur et ce qu’il doit faire… autant laisser un développeur Java sur une code base en Ruby.
La documentation est primordiale pour que les outils de génération de code basés sur des LLMS soient efficaces.
Vie ma vie de contributeur
J’ai fait une pull request récemment. J’utilise Claude Code pour traiter un cas particulier, assez difficile à identifier en lisant le code. Après avoir vu Claude Code ajouter le test, compléter le code, et ajouter de la doc, je me dis en effet qu’il serait pertinent d’ajouter un peu de documentation dans le code (sous la forme de commentaires). Au passage c’est pas mal pour le prochain Claude Code Stagiaire qui relira ce même code. Bref, je crée la PR, je la push. Elle est reprise par l’un de mes collègues, qui la valide, mais retire la doc ajoutée par Claude Code. Il a conservé uniquement le code et fusionné ladite pull request. Je l’ai contacté, un peu étonné.
- « Bah pourquoi tu as retiré les commentaires dans le code ? »
- « cela ne sert à rien, on comprend bien en lisant toute la fonction »
- « … en effet. Mais si ce code est relu par un outil comme Claude Code, ne penses-tu pas que cela éviterait de devoir analyser toute la fonction ? Et donc de consommer plus de tokens ? Et donc d’impacter la couche d’ozone car beaucoup de tokens, c’est du CO2 ?
- ah mince…
Bon pour la partie sur le CO2, désolé, je trolle (vas-y prend un screenshot de celle-là)
Je ne dis pas qu’il faut soudainement ajouter des tonnes de commentaires dans le code. Mais j’ai constaté qu’il devenait de plus en plus important de garder de la documentation sur ce qui a été fait lors d’une grosse session. Cela change ma façon de coder. Je ne faisais pas cela « avant ».
Aujourd’hui je créé un répertorie « ai/ » que je versionne avec mon projet. Ce répertoire contient un dossier par activité/session importante. Exemple : j’ajoute le paiement par CB sur reg.devoxx.fr. Comment ai-je procédé ? J’ai créé un folder « ai/payment » dans lequel j’ai demandé à Claude Code de me documenter à priori et à posteriori ce qu’il avait fait.
Voici à quoi cela ressemble :

Vous pouvez constater que j’ai gardé mes maquettes SVG de chaque écran, créés via Claude Code AVANT de générer mes templates HTML. Toute l’architecture, les diagrammes, les éléments importants sont stockés dans des fichiers Markdown. Je n’ai pas bourré mon fichier CLAUDE.md car cela consomme trop de Tokens inutilement (et ça pète du CO2, essayez de suivre :troll). Je m’en suis resservi dans des cas d’améliorations, en expliquant à Claude Code qu’il pouvait aller piocher l’historique de ce qui a été fait dans tel ou tel fichier.
Cela s’appelle des spécifications. Je sais, vous n’étiez pas prêts.
On va écrire/générer beaucoup plus de documentations car la qualité d’un outil de GenAI comme Claude Code dépend à mort de la documentation du projet. Notez qu’un fichier SVG se parse avec Claude Code (c’est du texte), sans devoir passer par un PNG. Vectoriel/Bitmap, toussa… Bref

Comment Cursor ou Claude Code peuvent éviter d’halluciner ?
J’ai dépensé (investi) plus de 900 $ entre septembre et décembre pour ré-écrire complètement la billetterie de Devoxx France. J’ai complètement changé ma façon de prompter entre juillet et septembre. Au début « je ne savais pas prompter ». Et soyons réaliste : il m’a fallut dépenser pas mal de tokens, pour apprendre à prompter correctement.
Là normalement cher lecteur, je t’envoie vers un site et tu achètes ma formation sur « comment prompter comme un boss » à $899 mais pas de ça ici, on va te filer les secrets gratuitement.
Claude Code c’est un outil. Copilot c’est un outil. Cursor c’est un outil. Toi tu es un ouvrier. Tu utilises l’outil. Le cerveau c’est toi. Lui il est bête à manger du foin. Il n’est pas Intelligent. Si tu parles English, Artificial Intelligence c’est un faux ami. Intelligence en Anglais devrait être traduit en « Connaissance« . Mais comme nous sommes tous des quiches en Anglais, voilà « Intelligence Artificielle » au 20 heures, laissez passer les experts (coucou Luc Julia).
Si l’outil hallucine c’est qu’il cherche à tout prix une solution. On appelle cela converger. Sur Google si tu t’amuses à taper n’importe quoi, il est presque certain que tu auras un résultat, qui n’a rien à voir, mais tu auras un résultat. Les outils de GenAI c’est pareil. Et en plus, ils tendent à te flatter, à s’excuser et à utiliser de ce que l’on appelle en bon français de la « flagornerie« .
Je peux placer Sycophantic dans cet article ? Flegme.
Lorsque j’ai une tâche à faire, voici comment j’évite les hallucinations :
- je prépare un plan, et je demande à Claude Code (ou ChatGPT) d’améliorer ce plan
- j’utilise le mode « Plannification » et je vérifie l’approche, répond à quelques questions, et je m’assure que ma demande initiale est précise
- lorsque je vois que le résultat n’est pas satisfaisant, je discute avec Claude pour crafter mon prompt. Je ne lui demande pas de commencer à faire quoique ce soit… mais à bosser sur mon prompt
- je tend aussi à garder mes prompts complexes sous la forme de fichiers Markdown dans mon répertoire « ai/ » pour pouvoir revenir dessus
- je vérifie la liste des outils MCP activés. Je désactive ce qui ne me sera pas utile
- je prend un modèle plus puissant comme Opus pour plannifier et je passe avec Haiku pour l’implémentation
- je me couche tôt le soir et je dors 8 heures, sinon ben je suis fatigué et je fais n’importe quoi
- je ne laisse pas l’outil « devinez » ou « trouver tout seul » car cela me fait perdre du temps, il peut trouver n’importe quoi
- je regarde comment les autres promptent, je parle avec des humains
- je n’oublie pas que l’outil est bête, et que si le résultat est explosé au sol c’est que le problème se situe entre le clavier et la chaise
Voici à titre d’exemple un prompt que j’ai envoyé pour m’assurer que les adresses emails avec un « + » soient gérées sur le site reg.devoxx.fr
Je souhaite vérifier si les adresses emails avec un "+" sont correctement gérées. Pour cela je viens de créer une nouvelle inscription 388-HUT-HQEA-533. Utilise un outil MCP pour aller sur http://localhost:8026/ et charger l'email "Confirmation d'inscription" lié à cette inscription. Copie le lien de validation que tu trouveras dans le mail pour le charger sur http://localhost:8080 au lieu de https://reg.devoxx.fr. Cela doit charger la page "http://localhost:8080/validate/challenge?email=user+devoxx@gmail.com&code=388-HUT-HQEA-533".
Observe d'abord que l'email affiché ne montre plus le signe "+" sur la capture d'écran [Image 1]. Ensuite, le mail "Envoyer le code maintenant" n'utilise pas la bonne adresse email, comme tu le verras sur Mailhog à nouveau. Corrige ces bugs. Assure-toi avec des tests que cela ne fonctionne pas AVANT de corriger le souci, puis corrige le souci et verifie APRES.
Claude Code se lance alors, je le vois bosser, et pendant ce temps-là, je fais autre chose. Cela va me coûter $2.90.
Tous les tests passent.
Résumé de la correction
Le bug
Les adresses email contenant un + (comme user+devoxx@gmail.com) étaient mal gérées :
- Le + dans l'URL était interprété comme un espace
- L'email affiché devenait user devoxx@gmail.com (sans le +)
- Les emails OTP étaient envoyés à la mauvaise adresse
La cause
À la ligne 97 de handlers.go, l'email était concaténé directement dans l'URL sans encodage :
c.Redirect(http.StatusFound, "/validate/challenge?email="+payload.Email+"&code=...")
La correction
1. Ajout de net/url dans les imports
2. Création de BuildValidationChallengeURL : fonction helper qui encode correctement l'email avec url.QueryEscape()
3. Modification de la redirection pour utiliser cette fonction
Fichiers modifiés
- internal/handlers/validation/handlers.go : ajout de l'encodage URL
- internal/handlers/validation/handlers_test.go : nouveau fichier de tests
Résultat
- L'URL contient maintenant email=user%2Bdevoxx%40gmail.com (avec %2B pour le +)
- L'email s'affiche correctement : user+devoxx@gmail.com
- Les emails OTP sont envoyés à la bonne adresse
Cela va ajouter 1900 lignes, retirer 270 lignes et donc le tout pour $2.90.
J’ai changé ma façon de travailler, et les outils changent la façon de coder. C’est indéniable.
It’s only the beginning…
Pour paraphraser Stan mon ancien CEO : ce n’est que le début. Nous sommes dans les 2/3 premières années de l’arrivée de ces outils.
Côté modèle, même si Anthropic écrase un peu la concurrence, il faut surveiller et ne pas hésiter à tester avec Claude Code…. d’autres modèles. Par exemple CC-Mirror permet de tester avec Z.ai avec GLM 4.7, MiniMax ou OpenRouter.
Si vous voulez voir en temps réel un classement des différents LLMs, je vous recommande https://llm-stats.com/arenas (lorsque le site marche) et plus intéressant, un classement du nombre de tokens utilisés sur OpenRouter. Les plus sérieux me semblent être les classements d’Artificial Analysis. Le plus pragmatique (faire faire une tâche identique par différents LLMs) est CodeClash. Bref fouillez, soyez curieux et testez 🙂
Vous pouvez aussi pimper votre expérience avec Claude Code via TweakCC, qui permet d’améliorer le terminal, de sauvegarder des sessions avec un nom.
Bref, je suis personnellement convaincu que la GenAI a déjà changé notre façon de coder. Pas notre passion, ni le plaisir de créer une fonctionnalité. Il a simplement retiré la partie purement « saisie » du code. Je m’amuse toujours autant à tester des idées, à envisager 2 ou 3 façons de résoudre un problème et à découvrir ensuite le résultat après quelques minutes.
Passez une bonne année 2026 !




Bonjour,
Je partage assez cet avis, je suis un ancien resté dans la tech et l’IA Gen a révolutionné mon métier (infra cloud et toujours un peu de dév).
Mais le danger réside aussi dans l’introduction d’une forte dépendance en ces outils.
Hormis le coût d’usage, quid du jour où l’outil est indisponible ou devient trop coûteux?
Je travaille dans l’évaluation et la mise en place d’outil IA au sein de mon entreprise, et cette dépendance croissante ainsi que le brain-rot que je constate déjà m’inquiètent vraiment.
Tout cela est passionnant mais quid du cout ?
En effet aujourd’hui nous sommes en phase de montée en puissance de l’IA générative et les boites US veulent prendre un max de part de marché, d’où les prix bas.
Mais lorsque la consolidation du marché viendra, et que les financiers vont vouloir récupérer leur mise, ces boites n’auront d’autres choix que d’augmenter les prix.
Pour le coup, ca va devenir un problème
Un autre aspect que j’ai remarqué et que tu l’as très bien dit, c’est que pour avoir un code de qualité, il faut être ultra précis, limite très verbeux sinon l’IA commence à faire n’importe quoi et on perd beaucoup de temps dans les cycles de correction.
Pour quelqu’un qui a l’habitude de coder régulièrement, je me demande quel serait le ration de gain entre:
1. Coder soi meme avec assistance syntaxique (IntelliJ de base propose des choses assez sympas)
2. Coder soi meme avec assistance LLM pour aller plus loin que le point précédent
3. Ne plus coder mais prompter très précisément ses besoins