Référencement

Site en Ajax et Référencement

Par 29 octobre 2014 1 commentaire

Ajax : une technologie qui monte… et qui pose problème pour le SEO

C’est quoi un site en Ajax ?

De plus en plus de sites sont construits en AJAX (Asynchronous JavaScript and XML). Que ce soit partiellement (les logiques d' »infinite scroll » par exemple sont traitées en AJAX) et totalement, notamment avec le développement de frameworks pure AJAX. Le premier d’entre eux, Angular JS, est même poussé par Google.

De fait, le JavaScript en général a beaucoup évolué, avec l’apparition de superbes librairies ou frameworks (jQuery, Angular JS, Node JS…)

Pourquoi cela pose-t-il problème en SEO ?

Cela pose un problème pour faire comprendre le contenu d’un site aux moteurs de recherche. En effet, historiquement les robots de moteurs de recherche on toujours fonctionné sans JavaScript (cela a changé récemment, nous allons le voir…). Pour eux :

  • Une page en full-JavaScript est donc vide
  • Le fait qu’il n’y ai pas de rechargement de page (et donc de changement d’URL) rend l’indexation difficile.

Les moteurs associent une page à son contenu : si le contenu est modifié en temps réel, autant dire qu’ils ne peuvent pas travailler. Les robots sont bloqués sur la page sur laquelle ils ne voient pas le contenu et ne peuvent pas naviguer.

En théorie, pour Google votre site est une page vide… mais ça c’était avant.

Référencer son site en AJAX

Il faut faire en sorte que cela ne soit qu’un mauvais souvenir.

Pour cela, il y a deux grandes méthodes :

Méthode 1 : Avoir un site dédié aux moteurs

Doubler le site principal avec un site standard, accessible par des liens en footer et donnant la possibilité aux moteurs de recherche et aux internautes de naviguer librement au gré des liens.

C’est ainsi que fonctionne Mappy. Les utilisateurs naviguent via le formulaire de recherche et ne modifient qu’une partie de la page.

Home Mappy
Et dans le bas de la page, il y a une pléthore de liens pour permettre la navigation des moteurs de recherche

Footer Mappy

Avantages :
C’est une méthode éprouvée, elle suit les guidelines habituelles du SEO. Les esprits chagrins pourraient penser que cela s’apparente à du cloacking. Mais dans le fond, on ne fait qu’aider Google à bien comprendre le site. De plus, le contenu présenté aux utilisateurs est rigoureusement le même que celui présenté à Google.

Inconvénients :
Il faut gérer 2 sites, le site en AJAX et le site standard, ce qui pour un site comme Mappy demande des ressources serveur importantes.

Méthode 2 : Les « escaped fragment »

Méthode nouvelle et mise en avant par Google, cette méthode consiste à repérer les robots des moteurs de recherche, et leur servir des pages adaptées à leurs besoins pour naviguer et comprendre le contenu dans le site.
C’est la méthode qui a été mise en place sur le site Bollé Sport Protective.

Pour réussir techniquement cette méthode, il faut préparer l’ensemble du site à être servi en HTML en utilisant un robot comprenant le JavaScript.

diagram showing the process necessary for AJAX content to be crawled by Google

Puis servir le site différemment en fonction de qui l’appelle.

Cela implique aussi de régénérer les pages HTML à chaque modification dans le site afin que le site AJAX et le site généré soient constamment identiques.

Vous l’avez compris ce n’est pas une méthode simple, et il faut être bien accompagné à chaque étape pour être sure que cela soit fait correctement.

Avantages :
On peut penser que c’est une méthode qui va être améliorée au cours du temps car elle va dans le sens de l’histoire (l’AJAX prend de plus en plus de place, et il faut bien s’adapter…

Inconvénients :

  • Méthode nouvelle qui n’est pas encore facile d’accès. De plus, si on y réfléchit bien, cela revient exactement au même principe que l’option 1 : on recrée une structure de site dédiée à Google…
  • On voit sur des exemples concrets (cf le cas Bollé) que Google arrive à indexer et lire les pages. MAIS : il est très difficile aujourd’hui de dire si la méthode des « escaped fragments » permettra de référencer un site de plusieurs milliers ou millions de pages…

Conclusion

La méthode des « escaped fragments » est élégante, et la tester est assez sympa. Cependant, sa mise en œuvre et son maintien dans le temps ne sont pas si simples. De plus, Google nous a habitué dans le passé à pousser les référenceurs à aller dans un sens, avant de revenir en arrière (cf le SEO des sites mobiles il y a 3-4 ans…).

Sauf si vous êtes particulièrement joueurs, nous recommandons pour le moment d’être assez classique, et de conserver quelques bonnes vieilles URL avec du contenu en html, des liens entre vos pages et toutes ces chose « so 2013 »   😉

… et bien sûr de continuer à faire de la veille.

Il s’agit d’une très grosse évolution pour le SEO « technique », et il convient de rester attentif !

Join the discussion 1 Commentaire

  • Cédric dit :

    « Repérer les robots des moteurs de recherche, et leur servir des pages adaptées à leurs besoins »

    –> Cool, du cloaking autorisé par Google 😀

    Et dans cette seconde, comment sont identifiés les spiders ?

Laisse une réponse à Cédric Annuler la réponse