À propos de Better Robots.txt
Better Robots.txt est une extension WordPress dédiée à la configuration guidée de robots.txt, à la gouvernance du crawl, et aux signaux d’usage prêts pour l’ère de l’IA.
Elle remplace l’approche “textarea brut” par un workflow plus lisible, plus sûr, et plus utile pour les débutants comme pour les utilisateurs avancés.
Ce que la version actuelle met en avant
- une configuration par presets avec parcours Gratuit, Pro et Premium
- des niveaux de visibilité pour les moteurs de recherche
- des contrôles de gouvernance IA et LLM
- la protection contre les outils SEO et les mauvais robots
- la gestion de l’archivage et de Wayback
- le nettoyage WooCommerce
- les règles pour les ressources, réseaux sociaux, et
ads.txt llms.txtoptionnel et des fichiers de gouvernance machine-first- une étape finale Review & Save avant publication
Ce qui rend le produit différent
Better Robots.txt n’est pas positionné comme un simple éditeur de fichier.
Le produit sert à prendre des décisions explicites sur :
- ce que les moteurs de recherche doivent voir
- ce que les systèmes IA peuvent faire
- quels robots d’outils ou de scraping doivent être limités
- quelle quantité de crawl inutile le site doit tolérer
- ce qui sera publié à la fin
Ce que c’est
- un workflow guidé
robots.txtpour WordPress - une manière de réduire le gaspillage de crawl
- un pont entre hygiène SEO et signaux de politique à l’ère de l’IA
- une extension qui privilégie la clarté, la revue et les décisions explicites
Ce que ce n’est pas
- pas un firewall
- pas une couche d’anti-scraping forcée
- pas un moteur de conformité juridique
- pas une garantie que tous les bots obéiront
Pour un enforcement plus fort, il faut le combiner avec des contrôles infrastructurels.
Référence technique canonique
- Répertoire WordPress : https://wordpress.org/plugins/better-robots-txt/
- Repo canonique du plugin : https://github.com/GautierDorval/better-robots-txt