Blog

Why did we create Better Robots.txt and what difference does it make?

Nowadays, it is increasingly difficult to stand out through its website. The Web gets dense on a daily basis and organic ranking still represents one of the major challenges facing most businesses. Of course, there are more immediate short-term solutions to emerge in search engines, such as advertising (Adwords) but investment can quickly become a financial chasm in so far as the chosen positioning is not optimal and above all that the company is strictly dependent to survive.

Organic ranking allows natural growth over the long term as well as results, which have now become indisputable and relentless. But to get there, you have to put all the odds on your side and that’s where the SEO comes into play as well as all the processes allowing search engines to identify you and understand what you are doing (understanding & credibility).

But what is the relationship with Better Robots.txt?

In fact, Better Robots.txt directly intervenes on the capabilities of your website to generate organic ranking. In a “traditional” OnPage optimization process, an SEO technician will usually work at two levels, the container and the content. So what builds your website and what it contains.

Apart from the usual content optimization processes that are relatively well known to all (keywords, tags, structured data,…), the optimization of the container is often secondary or limited. We’re talking here about:

  • loading optimization (Cache)
  • Coding errors (script execution) and links (404)
  • Canonicalization Errors
  • Indexing capabilities optimization (robots.txt, sitemap)…
  • (this list is long)

And it happens that in this list, the Sitemap and the Robots.txt, crucial elements associated with the content indexing of a Website, are very often forgotten or even neglected, whether the sites are made by an agency or not (!!). This reality is all the more striking than in our SEO audits (concerning all types of companies, from the most prestigious to the most modest), we were able to establish that:

  • 1 times out of 5, the audited site does not have any Sitemap
  • 1 times out of 15, the audited site has no robots.txt (less common)
  • 4 times out of 5, the audited site contains no indexing instructions in the robots.txt (other than the bacis instructions)
  • More than 9 times out of 10, the audited site does not contain the URL of the Sitemap (s) in the robots.txt

About 95% of WordPress websites are not able to deploy their full SEO potential related their content due to the lack of configuration of the Robots.txt file. It’s PURE LOSS of efficiency.

Better Robots.txt simply allows, in a few clicks, to correct this problem by the appropriate configuration of the Robots.txt, facilitating access to your content by search engines and maximizing your “past and future” creative potential (text, etc.). The idea here is to put an end to this situation by offering a simple but effective solution through a user-friendly plugin and accessible to all (without the need of any technical knowledge).

Learn more about the plugin?

Why did we create Better Robots.txt and what difference does it make?

How can we explain that this situation is so common?

First of all, you have to know that it is neither your fault nor that of WordPress! It is so… There are so many things to think about when creating a website, that a simple file(robots. txt) can easily get lost from the meanders of changes & adjustments inherent to Web creation.

However, as of today, if there is now one thing you need to worry about, among all the techniques SEO techniques with which you have already tried to improve the serach engine ranking of your website, the Robots.txt must be at the top of your list (either manually or through Better Robots. txt).


Take the test: what does your Robots.txt look like?

You can copy and paste the URL of your website (with http:// or https://) into the field indicated below, which will first identify if you have one, and if so, what its content is:

[robotschecker]

For comparison, here is ours: https://better-robots.com/robots.txt. Can you see the difference?


How did we get here?

It was both the experience and the daily practice that led us to wonder how we could solve this problem without having to connect to all the websites.

It turns out that PAGUP, the entity behind Better Robots.txt, is a SEO agency (CANADA) 100% specialized in “onPage” optimization for search engines. After having completed a very large number of SEO websites audits, we noticed the recurrence of this “sub-optimization” on most websites analysed, even from traditional and popular agencies or companies of international renown.

However, it is within the framework of our optimization services that we have seen the almost immediate impact that could generate the optimum configuration of this file. It turns out that our optimization processes, initially dedicated to wordPress websites, consisted of two steps. The first part, more technical, at the beginning of the mandate, consisting of correct recurring technical errors (which included robots.txt and sitemap) and a second, a little later (2-3 weeks), strictly content-oriented. And it is by daily monitoring the organic ranking of these websites that we have observed that, in the vast majority of cases, some weeks after the first part of the mandate (and without touching the second stage, thus the content), these websites had acquired much more ranking (more occupied positions in the SERPs) with, for some, a 150% increase of keywords.

After more than 250 similar observations, under the same circumstances, we came to the conclusion that a well configured / optimized robots.txt could have a massive and significant impact on organic performance (SEO). And because, at the time, there was no solution available on WordPress allowing to automate or simplify this optimization process for the largest number, we decided to create better Robots.txt.

A simple innovation but that will change your business on the web!

 

Looking for performance ? Have a look on our list of 150+ Growth Hacking tools

Click to rate this post!
[Total: 1 Average: 5]

Pourquoi avoir créé Better Robots.txt et qu’est ce que ça change ?

De nos jours, il est de plus en plus difficile de se démarquer par l’intermédiaire de son site Web. Le Web se densifie quotidiennement et le référencement organique représente encore et toujours l’un des défis majeurs auxquelles sont confrontées la majeure partie des entreprises. Bien sur, il existe des solutions court-termistes plus immédiates pour émerger dans les moteurs de recherche, comme la publicité (Adwords) mais l’investissement peut rapidement devenir un gouffre financier pour autant que le positionnement choisi n’est pas optimal et surtout que l’entreprise en soit strictement dépendante pour survivre.

Le référencement organique permet une croissance naturelle sur le long terme ainsi que des résultats, aujourd’hui,  devenus incontestables et implacables d’efficacité. Mais pour y arriver, il faut mettre toutes les chances de son côté et c’est là que le SEO entre en jeu ainsi que l’ensemble des processus permettant aux moteurs de recherche de vous identifier et de comprendre ce que vous faites (compréhension & crédibilité).

Mais quel est le rapport avec Beter Robots.txt ?

En fait, Better Robots.txt intervient directement sur les capacités de votre site à générer du référencement organique. Dans un processus d’optimisation “traditionnelle” de type OnPage, un technicien SEO travaillera habituellement à deux niveaux, le contenant et le contenu. Donc, ce qui génère votre site Web et ce qu’il contient.

En dehors des procédés d’optimisation du contenu habituels qui sont relativement connus de tous (mots-clés, balises, données structurées, …), l’optimisation du contenant reste souvent secondaire ou limitée. On parle ici:

  • De l’optimisation du temps de chargement (Cache)
  • Des erreurs de codage (exécution de script) et de liens (404)
  • Des erreurs de canonicalisation
  • De l’optimisation des capacités d’indexation (robots.txt, sitemap)
  • … (la liste est longue)

Et il se trouve que, dans cette liste, la Sitemap et le Robots.txt, éléments cruciaux associés à l’indexation du contenu d’un site Web, sont très souvent oubliés, voire négligés, et ce, que les sites soient montés en agence ou pas (!!). Cette réalité est d’autant frappante que lors de nos audits SEO (concernant tous type d’entreprises, de la plus prestigieuse à la plus modeste), nous avons été en mesure d’établir que:

  • 1 fois sur 5, le site audité n’a pas de Sitemap
  • 1 fois sur 15, le site audité n’a pas de robots.txt (moins fréquent)
  • 4 fois sur 5, le site audité ne contient aucune instruction d’indexation dans son robots.txt (autre que la base)
  • Plus de 9 fois sur 10, le site audité ne contient pas l’url de (ou des) sitemap(s) dans le robots.txt

Plus concrètement, concernant les sites web WordPress, près de 95% d’entre eux ne sont pas en mesure de déployer leur plein potentiel de référencement organique associé à leur contenu en raison du manque de configuration du fichier Robots.txt. C’est de la PURE PERTE d’efficacité.

Better Robots.txt permet simplement, en quelques clics, de corriger cette problématique par la configuration appropriée du Robots.txt, en facilitant l’accès à votre contenu par les moteurs de recherche et en maximisant le potentiel de votre créativité passée et à venir (texte, etc.). L’idée étant ici de mettre un point final à cette situation en offrant une solution simple mais efficace par l’intermédiaire d’un plugin user-friendly et accessible à tous (sans connaissance technique).

En savoir plus sur le plugin ?

Pourquoi avoir créé Better Robots.txt et qu’est ce que ça change ?

Comment expliquer que cette situation soit si répandue ?

Tout d’abord, il faut que vous sachiez que ce n’est ni votre faute, ni celle de WordPress ! C’est ainsi… Il y a tellement de choses auxquelles il faut penser lors de la création d’un site, qu’un simple fichier (robots.txt) peut facilement se perdre de les méandres des modifications & ajustements inhérents à la création Web.

Toutefois, en date d’aujourd’hui, s’il y a désormais une chose dont vous devez vous soucier, parmi toutes les techniques d’optimisation SEO avec lesquelles vous avez déjà tenté d’améliorer le référencement de votre site Web, le Robots.txt doit figurer au sommet de votre liste (manuellement ou par l’entremise de Better Robots.txt).


Faites le test: à quoi ressemble votre Robots.txt ?

Pour en savoir plus, il vous suffit de copier-coller l’URL de votre site Web (avec le http:// ou le le https:// ) dans le champs indiqué ci-dessous, ce qui permettra d’identifier tout d’abord si vous en avez un, et si oui, quel est son contenu:

[robotschecker]

À titre de comparaison, voici le notre: https://better-robots.com/robots.txt. Voyez-vous la différence?


Comment en sommes-nous arrivés là ?

Il se trouve que PAGUP, l’entité en arrière de Better Robots.txt, est une Agence SEO (Canada) 100% spécialisée dans les processus d’optimisation pour les moteurs de recherche de type “onPage” (donc à l’intérieur du site). Après réalisé un très grand nombre d’audits SEO de sites Web, nous avons remarqué la récurrence de cette “sous-optimisation” pratiquement sur la totalité des sites que nous analysions et ce, même auprès d’agences traditionnelles ayant pignon sur rue ou d’entreprises canadiennes ou nord-américaines de renommée internationale.

Toutefois, c’est dans le cadre même de nos services d’optimisation que nous avons constaté l’impact presqu’immédiat que pouvait générer la configuration optimale de ce fichier. Il se trouve que nos processus d’optimisation, initialement dédiés aux sites WordPress, se composaient de deux étapes. Une première partie, plus technique, dès le début du mandat, consistant à corriger essentiellement les erreurs techniques récurrentes (dont faisait partie le robots.txt et la sitemap) et une seconde, un peu plus tard (2 à 3 semaines), strictement orientée sur le contenu. Et c’est en monitorant quotidiennement le référencement organique de ces sites Web que nous avons avons observé que, dans la très grande majorité des cas, quelque semaines après la première partie du mandat (et sans toucher à la seconde étape, donc au contenu), les sites avaient acquis beaucoup plus de référencement (de positions occupées dans les SERP) avec, pour certains, jusqu’à 150% de mots-clés en plus.

Après plus de 250 observations similaires, dans des circonstances identiques, nous en avons déduis à quel point un robots.txt bien configuré/optimisé pouvait avoir un impact significatif en matière de performance organique (SEO).

Et parce que, à l’époque, il n’existait aucune solution disponible sur WordPress permettant d’automatiser ou de simplifier ce processus d’optimisation pour le plus grand nombre, nous avons décidé de créer Better Robots.txt.

Une innovation simple mais qui va changer votre entreprise sur le web !

Click to rate this post!
[Total: 0 Average: 0]