Dans cet article, je vous propose de découvrir et de réfléchir à un nouveau format de fichier, que je vous propose pour décrire les capacités de votre site Internet, ou de votre architecture en micro-service.
Ce fichier, à placer à la racine de votre site internet, permettra d’aider des Agents comme ChatGPT ou Claude.
Découvrons robots.txt et humans.txt
Entre 2012 et 2014, j’ai travaillé comme Lead developper pour ZapTravel. Petite structure de 5 personnes, nous avions tenté de revoir la façon de trouver une destination pour un week-end ou un voyage. A cette époque déjà, Andrew Lacy avait eu l’idée de créer un agent simple, pour pouvoir poser des questions comme « Trouve moi une destination pour faire un enterrement de vie de garçon, pour 4 adultes, en Europe, pour septembre ». Notre moteur décortiquait le texte, et trouvait plutôt de bonnes réponses. Nous avions besoin de stocker les meilleurs vols, de stocker des disponibilités d’hôtels, et de créer des packages. Pour cela, nos crawlers utilisaient beaucoup les fichiers robots.txt pour pouvoir récupérer les structures de données.
Ce fichier, inventé en 1994 par Martijn Koster, permet aux aspirateurs Webs de référencer et d’expliciter le contenu de votre site. Voyez par exemple le fichiers robots.txt de Back Market. Encore aujourd’hui, c’est un outil utile pour contrôler le référencement de son site internet.
Et il y a eu alors d’autres idées. Des développeurs ont créé Humanstxt.org. Cela permet simplement de donner le nom de l’équipe, et des personnes qui ont codé le site. Vous en trouverez par exemple sur Python.org, Google.com ou sur Netflix.
Le principe est simple : un fichier texte, au format UTF-8, déclaré dans une balise meta de votre page d’accueil.
Que viennent faire l’IA et les Agents dans cette histoire?
Nous avons remarqué en juin dernier que le site Back Market est de plus en plus visité… par des clients webs d’Agents comme ChatGPT ou Claude. On reste encore loin de la fréquentation par des humains… mais cette tendance augmente rapidement.
Or un agent comme Claude ou ChatGPT ne peut pas comprendre immédiatement la structure d’un site web comme Back Market. Doit-il d’ailleurs réellement avoir besoin de le comprendre ?
Reprenons le principe du fichier robots.txt, mais imaginons un fichiers placé à la racine de notre site internet, destiné à décrire la structure, et les possibilités de notre site web.
Le fichier pourrait tout d’abord expliquer en quelques mots, l’utilité du site web. Il pourrait ensuite décrire les actions, en indiquant le parcours typique d’un visiteur. Il pourrait aussi éventuellement indiquer comment interagir avec le site, quelles sont les actions possibles, ou les sources d’information. Enfin, il pourrait indiquer d’autres ressources, comme un point d’accès MCP sur votre site. Cela permettrait alors d’intégrer encore plus votre site, à un agent local.
Il existe actuellement une idée autour des LLMs, et une autre idée autour des agents.
Le format LLMs.txt
Ce format permet de décrire uniquement le contenu et la structure de votre site. Cela évite d’utiliser énormément de Tokens, et aide les LLMs à s’assurer que votre site répondra à la question de son utilisateur. Parler de standard est un peu tôt. L’idée date de septembre 2024, par Jeremy Howard.
Le fichier est idéalement au format Markdown, beaucoup plus orienté à son analyse par un LLM. Le site de référence est https://llmstxt.org/.
Exemple de sites :
- https://www.promptmonitor.io/llms.txt
- https://niftyfiftysolutions.com/llms.txt
- https://factorypulse.app/llms.txt
- https://minecraft.co.com/llms.txt
Bien que ce format LLMs.txt aide un agent à comprendre la structure, il ne permet pas encore d’expliquer ce que fait le site. C’est un pas en avant pour l’indexation de votre site par un Agent. On ne parle plus de SEO, mais de GEO (Generative Engine Optimization).
Le format agents.txt
J’ai eu plus de mal à trouver des ressources, ce qui me laisse penser que cette idée est encore très novatrice. Nikunj Kothari présente en mai 2025 le concept et une idée du format agents.txt. Ce format est très proche de la structure du site Web, ce qui me laisse penser que sa mise à jour risque d’être compliqué. Je ne suis pas certain que les Agents navigueront/visiterons nos sites webs comme nous, les humains. J’imagine plutôt que dans un souci d’économiser des tokens dans un contexte, on cherchera à avoir des points d’accès « optimisés pour les agents ». Je ne dis pas que le HTML et le CSS vont mourir, mais je pense que nous allons devoir revoir rapidement nos compétences…
Le format agents.txt décrit la structure des pages et utilise des sélecteurs CSS pour cela. Il fait le pont entre le code HTML+CSS et les fonctionalités du site.
[GeneralInstructions] # Provide any general instructions or comments for AI agents here. # Example: Please follow the navigation and data extraction rules carefully. GetAnswers = /agents/prompt [PageStructure] Header = #header Footer = #footer MainContent = #main-content Sidebar = #sidebar [Navigation] LoginButton = #login-btn NextPageButton = .next-page PreviousPageButton = .prev-page # Specify steps for multi-step forms if any Step1 = #step1 Step2 = #step2 [DataExtraction] ProductName = .product-name Price = .price Availability = .stock-status Description = .product-description # Example of nested elements Reviews = .review-list .review-item ReviewAuthor = .review-author ReviewDate = .review-date [FormSubmission] SearchForm = #search-form SearchInput = #search-input SubmitButton = #submit-btn # Include hidden fields or tokens if required HiddenField = input[name='hidden_token'] [RateLimits] MaxRequestsPerMinute = 30 # Specify the action if the rate limit is exceeded OnRateLimitExceeded = "Back off and retry after 1 minute" [Security] AuthToken = .auth-token CaptchaHandling = #captcha # Detail on how to refresh authentication tokens AuthTokenRefresh = /auth/refresh [RestrictedAreas] Disallow = /private/ Disallow = /admin/ Disallow = /user/
Présentation du fichier capabilities.txt
Je propose une autre idée, complémentaire des LLMs.txt et agents.txt, mais orienté sur les fonctions métiers d’un site Web. Et vous allez voir que ce format pourrait aussi être utilisé dans une architecture de micro-service, pour documenter les capacités d’un système.
Le concept de « Capabilities » date de travaux que j’ai fait chez Doctolib entre 2022 et 2024. Vous pouvez voir cela dans l’article « The Robinson projection« . Je vous invite surtout à lire « Qu’est-ce qu’une « Capability » ? (capacité) ».
Voici mon approche, et je vous proposerai un fichier complet en fin d’article
- Etape 1 : présenter le site, les fonctionnalités générales et le domaine fonctionnel
- Etape 2 : Identifier les différents utilisateurs de votre plate-forme
- Etape 3 : Lister les fonctionnalités/ce que peuvent faire chaque utilisateur, en utilisant un verbe
- Etape 4 : Indiquer les systèmes d’authentification et d’autorisation
- Etape 5 : Documenter les services plate-formes et transverses
Etape 1 : présentation du site et fonctionnalités générales
Nom de la plateforme : TechMarket
Domaine : E-commerce / Marketplace électronique reconditionnée
Mission : Démocratiser l’accès à la technologie tout en réduisant l’impact environnemental
Fonctionnalités générales
- Marketplace multi-vendeurs pour appareils électroniques reconditionnés
- Système de certification et notation qualité des produits
- Gestion complète du cycle de vie commercial (discovery → achat → livraison → SAV)
- Outils professionnels pour vendeurs et partenaires
- Services de reconditionnement et logistique intégrés
Étape 2 : Utilisateurs de la plateforme
Je pense qu’il faut analyser les utilisateurs « évidents », mais qu’il ne faut pas oublier les utilisateurs secondaires. Si vous avez une équipe d’une centaine de personnes qui font du support téléphonique, ou que vous avez un partenaire logistique : ce sont aussi des utilisateurs importants.
Utilisateurs principaux
- Acheteurs particuliers : Consommateurs cherchant des appareils reconditionnés
- Vendeurs professionnels : Entreprises de reconditionnement, retailers
- Vendeurs particuliers : Individus vendant leurs appareils
Utilisateurs internes
- Équipes Support : Assistance client et résolution des litiges
- Customer Success Managers : Gestion des comptes vendeurs professionnels
- Équipes Quality Assurance : Certification et contrôle qualité
- Équipes Logistique : Gestion des entrepôts et expéditions
- Équipes Onboarding : Intégration des nouveaux vendeurs
Utilisateurs techniques
- Administrateurs système : Gestion de l’infrastructure
- Équipes développement : Maintenance et évolution de la plateforme
- Analystes data : Business intelligence et optimisation
Étape 3 : Fonctionnalités par utilisateur (verbes d’action)
Ensuite, concentrons-nous uniquement sur les « verbes » qui représentent autant de capacités sur votre système.
Toujours pour Back Market, cela donne :
Acheteurs
- Rechercher des produits par catégorie, marque, prix
- Filtrer par état, garantie, localisation du vendeur
- Comparer les offres et les vendeurs
- Ajouter des produits au panier et aux favoris
- Passer une commande avec options de livraison
- Payer via multiples moyens de paiement sécurisés
- Suivre l’état de la commande en temps réel
- Retourner un produit non conforme
- Noter et commenter vendeurs et produits
- Contacter le support client
Vendeurs professionnels
- Créer et gérer un compte vendeur certifié
- Publier des catalogues produits en masse
- Définir les prix et conditions de vente
- Gérer les stocks et disponibilités
- Traiter les commandes et expéditions
- Consulter les analytics de performance
- Configurer les paramètres de boutique
- Communiquer avec les acheteurs
- Gérer les retours et SAV
Équipes Support
- Traiter les tickets de support multicanaux
- Résoudre les litiges entre acheteurs et vendeurs
- Modérer les avis et commentaires
- Escalader les problèmes complexes
- Mettre à jour la base de connaissance
Avec un outil comme Claude, vous pouvez certainement aller plus loin dans la description des capacités :
Acheteurs sur le site Back Market – Parcours d’achat
Discovery & Search
- Rechercher par catégorie (smartphone, laptop, tablette, etc.)
- Filtrer par marque, prix, état cosmétique, vendeur, localisation
- Comparer plusieurs offres d’un même produit
- Consulter les grilles d’état détaillées (Excellent, Très bon, Bon, Correct)
- Lire les avis clients et notes vendeurs
- Sauvegarder des produits en favoris
- Recevoir des alertes prix et disponibilité
Commande & Paiement
- Ajouter au panier avec options de garantie extended
- Choisir mode de livraison (standard, express, point relais)
- Payer via CB, PayPal, Apple Pay, Google Pay, financement 3x/4x
- Appliquer codes promo et cashback
- Bénéficier des prix négociés pour volumes (B2B)
Suivi & Service
- Tracker la commande en temps réel avec SMS/email
- Tester l’appareil pendant la période d’essai (21 jours)
- Retourner gratuitement si non satisfait
- Demander une réparation sous garantie
- Contacter le service client via chat, email, téléphone
- Gérer son compte et historique de commandes
Étape 4 : Authentification et autorisation
Les Agents externes comme ChatGPT ou Claude ne peuvent rien faire pour l’instant. Mais nul doute qu’ils seront bientôt capables de s’authentifier « comme vous » et qu’ils pourront préparer une commande, mettre un article dans le panier, et qu’ils vous laisseront la partie paiement. Je n’en doute pas. Je ne vois pas pourquoi nous aurions besoin de chercher pendant des heures sur un site, alors qu’un Agent, qui sait ce que je veux, qui connait mon budget, est complètement capable d’ajouter un article dans un panier.
Il sera nécessaire cependant de décrire un tunnel d’authentification dédié à ces agents. Et il sera aussi nécessaire pour nous, simple humain, de garder la main sur la partie « paiement », au moins encore quelques années…
Systèmes d’authentification
- OAuth 2.0 : Connexion via Google, Apple, Facebook
- Authentification native : Email/mot de passe avec 2FA
- SSO entreprise : SAML pour les vendeurs professionnels
- Authentification biométrique : Mobile app (TouchID, FaceID)
Cette partie authentification et autorisation pourrait être dans un fichier YML ou Markdown par exemple :
Permissions:
Guest:
- browse_products
- view_public_profiles
Buyer:
- create_orders
- manage_profile
- write_reviews
Seller_Basic:
- manage_products
- process_orders
- view_analytics
Seller_Professional:
- access_bulk_tools
- advanced_analytics
- priority_support
Support_Agent:
- view_user_data
- manage_tickets
- moderate_content
Admin:
- full_platform_access
- user_management
- system_configuration
L’agent pourrait utiliser ce format pour comprendre ce qu’il a le droit de faire ou non. Cela éviterait d’utiliser des Tokens, pour que le site distant refuse par exemple une des actions. Je ne vois pas un risque de sécurité, car il s’agit de fonctionnalités générales.
Action | Guest | Buyer | Seller Basic | Seller Pro | Support | Admin |
---|---|---|---|---|---|---|
Browse products | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
Place order | ❌ | ✅ | ❌ | ❌ | ✅ | ✅ |
Manage products | ❌ | ❌ | ✅ | ✅ | ✅ | ✅ |
Bulk operations | ❌ | ❌ | ❌ | ✅ | ✅ | ✅ |
View analytics | ❌ | Profile only | Own data | Advanced | All | All |
API access | ❌ | Limited | Standard | Premium | Internal | Full |
Etape 5 : description des capacités (capabilities) de votre site
On termine par le concept le moins intuitif, mais qui parlera à votre fenêtre de ChatGPT : la capacité à voir le site BackMarket comme un ensemble de sous-agents, chacun étant spécialisé pour vous aider à créer une commande, en tant que client.
Back Market a différents services pour répondre aux demandes des clients et des revendeurs :
- Content & Moderation Engine
- Product Discovery Engine
- Payment & Billing Hub
- Care and Support system
- Quality Assurance System
- Logistic & Fulfillment network
- Identity & Trust Management
- Analytics & Business Intelligence
- Communication Hub
- API Gateway for Sellers
Version finale du fichier
J’ai sauvegardé un fichier d’exemple capabilities.txt sur Claude :
- Version en Français : https://claude.ai/public/artifacts/4f986e4f-711c-4dda-95fc-f28e3ffa3f57
- English version https://claude.ai/public/artifacts/8a52cce4-a278-489c-b4fc-e845a85f9abc
Conclusion
L’évolution d’un fichier agents.txt vers un format capabilities.txt permet d’abord de documenter les capacités métier, plutôt que les APIs techniques. Il permet de préciser qui sont les utilisateurs, ce qu’ils peuvent faire, et l’ensemble des workflows d’action. Et il permet de voir la plate-forme comme un écosystème de services, utilisables directement par des agents externes.
Ce format permettra aussi aux Agents d’économiser des Tokens. En indiquant clairement ce que peuvent faire les Agents (ou non), vous diminuez le nombre d’aller-retour, et vous améliorer la précision des agents. Vous éviterez de gaspiller des tokens (et donc quelque part, du CPU, et donc… du CO2).
Je vous encourage à créer ces fichiers, à exposer les possibilités de votre service ou de votre site. Des agents externes pourront alors mieux interagir avec votre site, et cela améliorera aussi votre positionnement.
0 no like
Leave a Comment