Bonnes pratiques
Utilisez ces recommandations lorsque vous configurez Better Robots.txt via l’assistant actuel.
Commencez par le flux de l’assistant
- Choisissez d’abord un mode, puis examinez chaque étape numérotée au lieu d’aller directement aux règles personnalisées
- Utilisez
Mode 1ouMode 2si vous voulez un point de départ plus sûr avant de faire des modifications manuelles - Utilisez
Mode 0: Customuniquement si vous savez déjà quels modules vous voulez ajuster
Conservez les bases
- Gardez les règles de protection WordPress de base activées sauf si vous avez une raison précise de les modifier
- Gardez les règles
Allowpour CSS/JS et les images activées dansRessources et fichiers, sauf si vous avez validé un autre besoin - Assurez-vous qu’au moins une source de sitemap valide est configurée dans
Paramètres globaux
Préférez la sortie virtuelle sauf si vous avez besoin d’un fichier
- Utilisez le
robots.txtVirtualpour la plupart des sites - Choisissez
Physical Fileuniquement lorsque vous avez besoin d’un fichier écrit à la racine du site - Si un
/robots.txtphysique existe déjà, résolvez ce conflit avant de compter sur la sortie virtuelle
Utilisez les contrôles IA de manière intentionnelle
- Laissez la protection contre l’entraînement IA activée sauf si vous souhaitez délibérément autoriser les robots d’entraînement
- Décidez séparément si les moteurs de recherche IA doivent être bloqués ou autorisés
- Utilisez
/llms.txtuniquement si vous voulez publier un fichier de politique séparé et manuel, et que vous êtes prêt à en rédiger vous-même le contenu
Gardez les règles de boutique ciblées
- Pour les sites WooCommerce, commencez par
Basic Cleanup - Passez à
Advanced Cleanupuniquement si la prolifération des filtres et paramètres est un vrai problème - Revérifiez la prévisualisation après avoir modifié les règles liées à la boutique, car elles peuvent ajouter rapidement beaucoup de sortie
Utilisez les règles personnalisées avec prudence
- Ajoutez des règles personnalisées uniquement pour des directives qui ne sont pas déjà couvertes par l’assistant
- Gardez les directives personnalisées courtes et intentionnelles
- Revoyez la prévisualisation finale après chaque modification de règle personnalisée
Vérifiez toujours avant d’enregistrer
- Utilisez
Étape 14 - Vérification et enregistrementpour confirmer la sortie générée - Vérifiez que les lignes de sitemap attendues sont présentes
- Vérifiez que les règles de robots attendues sont présentes
- Si
Consolidate User-agentsest activé, vérifiez que la sortie finale se lit toujours comme vous l’attendez
Rappelez-vous à quoi sert robots.txt
robots.txtaide à guider le comportement des robots d’exploration- ce n’est pas un système de sécurité
- ne comptez pas dessus pour protéger du contenu privé ou l’accès à l’administration
Suite
Utilisez Exemples pour des chemins de configuration courants ou Dépannage si la sortie ne se comporte pas comme prévu.