Toute personne qui travaille dans le SEO a déjà entendu parler du cloaking. Toujours d’actualité ? Dépassé ? Les avis divergent à ce sujet. Revenons sur une technique black hat abstraite, mais connue de tous !
Le cloaking c’est une technique utilisée pour fournir pour une même URL une page différente à l’utilisateur de celle qui sera envoyée au robot d’indexation. Cette technique black hat a longtemps été utilisée aux débuts du SEO à des fins de manipulation des robots. Les référenceurs envoyaient une page truffée de mots clés aux robots alors qu’ils envoyaient une version propre et épurée aux utilisateurs.
Aujourd’hui, ces techniques sont toujours utilisées par les hackers qui piratent des sites internet. Ils laissent votre site visuellement identique pour vos utilisateurs mais envoient un contenu différent aux robots d’indexation pour promouvoir des produits de mauvaise qualité en abusant de votre notoriété. Lorsque vous tentez d’accéder à vos pages, vous ne voyez rien de différent de votre page habituelle ou accédez à une page en erreur 404.
Le fonctionnement en théorie est simple, il suffit de mettre en place du code qui va détecter si le site est visité par un robot ou par un véritable utilisateur. En fonction du résultat de son test, le code va renvoyer une version de la page ou une autre.
Pour effectuer son test, le cloaking a plusieurs fonctionnement possibles. Il peut se baser sur de nombreux éléments, mais les principaux restent :
Le principe du cloaking par user-agent est plutôt simple. Lorsque vous déclenchez le chargement d’une page, vous envoyez une “entête HTTP”. Cette entête va contenir toutes les informations sur votre requête : le nom de domaine, le chemin de la page à laquelle vous souhaitez accéder, votre navigateur, l’OS de votre ordinateur, mais surtout votre User Agent.
Lors d’une visite par un utilisateur, son User Agent sera lié à son navigateur. Pour un robot, c’est différent, il a son propre User Agent ! Par exemple, les robots de Google vont avoir de nombreux User Agent différents, un global, un pour mobile, un pour desktop, un pour les images…
Voici un exemple d’entête HTTP en provenance d’un robot Google.
Tout ce qui se trouve dans l’entête HTTP est exploitable en PHP pour être utilisé pour la création de la réponse HTTP.
Le cloaking va donc récupérer la variable qui correspond au User Agent pour détecter s’il correspond ou non à un User Agent de Google ou d’un autre moteur de recherche. Si la valeur correspond à un moteur de recherche, la page renvoyée est la version optimisée. Si la valeur ne correspond pas, c’est la version utilisateur qui est renvoyée et affichée.
Cette version de cloaking est assez simple à mettre en place, mais aussi assez simple à détecter et à contourner pour un utilisateur.
Tout comme le cloaking par User Agent, le cloaking par adresse IP consiste à récupérer l’adresse IP de l’utilisateur qui souhaite accéder à la page et détecter si elle correspond à une adresse IP de Google connue. Pour la mettre en place, de nombreuses bases JSON d’adresses IP de Google sont disponibles en ligne.
Le souci de cette technique, c’est qu’elle repose sur le fait que Google utilise toujours les mêmes IP. Cela veut dire que si Google change d’IP ou en ajoute de nouvelles, le cloaking sera détecté et la pénalité risquera de tomber pour le site.
Détecter le cloaking n’est pas toujours évident en fonction de la technique qui est employée. Les principaux tests seront les suivants :
Pour voir si un site dont vous avez la propriété search console a eu recours ou été victime de cloaking, il suffit :
Rapide vidéo d’explication de la méthode à employer pour détecter du cloaking avec la search console :
Si vous voyez une différence de contenu entre votre page et la page rendue, c’est que vous avez recours à du cloaking (volontaire ou pas). Si les pages sont identiques, c’est que la version utilisateur et celle pour les robots Google sont les mêmes et donc qu’aucun cloaking n’est mis en place.
Puisque c’est un outil fourni par Google, il exploite les user agent et adresses IP de Google. L’outil de test de données structurées va comme la search console permettre de tester et afficher le code vu par Google lors de son exploration d’une page spécifique.
L’avantage de cet outil, c’est que vous pouvez tester une page d'un site pour lequel vous n’avez pas la propriété search console et voir si vos concurrents ont mis en place du cloaking pour ensuite les dénoncer à Google.
Le fonctionnement est sensiblement le même que pour la search console :
Rapide vidéo d’explication de la méthode à employer pour détecter du cloaking avec l’outil de test de données structurées :
Google le dit très clairement dans sa documentation, le cloaking est une pratique visant à manipuler les classements des résultats de recherche.
Cette pratique est considérée comme une pratique interdite et ciblée au fil des différentes “spams update” que Google met en place chaque année.
Si vous remarquez un site qui a recours au cloaking, vous pouvez le signaler depuis un formulaire dédié qui a été mis à jour en 2023.
Si votre site est signalé ou que Google détecte une pratique abusive sur votre site, il est possible que vous soyez pénalisé par une sanction manuelle. Ce genre de sanction peut faire chuter drastiquement votre trafic en ligne du jour au lendemain en faisant disparaître votre site ou certaines pages de votre site des résultats de recherche.
Pour récupérer votre trafic initial, il pourra s’écouler beaucoup de temps, car il vous faudra retirer tout le cloaking avant de faire une demande de réexamen qui pourra durer plusieurs semaines.
Le cloaking est une pratique risquée qui n’est adaptée que pour un échantillon infime de sites. Dans la majorité des thématiques de sites, le cloaking est une pratique disproportionnée qui n’est pas nécessaire pour se positionner. La mettre en place serait donc plus risqué qu’efficace.
Les algorithmes de recherche ont tellement évolué qu’il est aujourd'hui possible de créer une page de qualité qui soit adaptée pour l’expérience utilisateur et la conversion.
Il est donc préférable de concentrer ses efforts sur une stratégie SEO de long terme qui sera véritablement efficace plutôt que de miser sur une stratégie court terme qui risque de disparaître du jour au lendemain.