Google (et Bing) démolissent les mythes sur le référencement / SEO - Saison 2
Voici la synthèse des mythes identifiés par les experts de chez Google. Et leurs conseils avisés sur le référencement.
Dans la série de vidéos bien nommée “SEO Mythbusting” postées en 2019 par Google sur sa chaîne “Youtube Google Webmasters”, le moteur de recherche clarifiait son fonctionnement et les points clés de ses algorithmes d’indexation et de référencement.
Objectifs : mettre fin aux nombreux mythes et légendes sur le référencement Google, préciser les critères d’indexation réel de Google.
Voilà qu’après cette saison 1 dont vous trouverez la synthèse en français dans le blog Gooweb, Google remet ça avec une saison 2 de SEO Mythbusting qui a débuté en juin 2020.
Parce que vous êtes très occupés et que votre temps est précieux, Gooweb vous fournit la synthèse en français des mythes et conseils SEO pour chaque épisode vidéo (en anglais) !
Episode 1 - les questions récurrentes et les tendances SEO, par Google et Bing
Dans le premier épisode de la saison 2, Martin Splitt (Developer Advocate, Google) et Sandhya Guntreddy (Principal Program Manager, Microsoft) discutent des questions SEO les plus courantes, des tendances qu'ils voient dans la communauté SEO.
Netlinking : si j'ai beaucoup de backlinks, vais-je être mieux indexé ?
NON, c’est un mythe. Ca n’est pas le nombre, mais la qualité qui compte.
Ce n’est qu’un signal parmi des centaines. Mais c’est un sujet facile à promouvoir et à vendre pour les prestataires SEO. Et il est vrai que c’est une prestation mise en avant par quantité de “professionnels SEO”, qui vendent du rêve facilement en profitant de l’ignorance des entreprises.
Intéressant de voir que cette saison 2 commence par ce mythe, car c’était également un des premiers mythes identifiés dans la saison 1.
Cependant un netlinking optimisé, quand c’est possible, et toujours en provenance de sources de qualité, peut améliorer le ranking et contribuer à l’acquisition de trafic sur votre site web.
A savoir, acheter des backlinks peut déclencher une action manuelle de Google qui va désindexer tout ou partie des pages du site web.
Et en cas de backlinks de type spam il peut être utile de les désavouer par la Search Console.
Comment se classer en tête des moteurs de recherche?
La question principale et récurrente c’est “comment puis je être indexé en premier ?”
Pour y arriver, Google et Bing utilisent des centaines de critères, il n’y a donc pas de formule magique pour atteindre cet objectif. Impossible pour eux de modifier une indexation volontairement.
La recommandation de Google et Bing : mettre l’utilisateur au centre de vos préoccupations (et de votre site web) et tout ira bien …
Remarque Gooweb : “être en première page” pour quelques recherches , c’est un objectif partiel, car l’analyse des requêtes (les mots clés effectivement utilisés) et des chemins d’accès à votre web, des sources et des supports utilisés, montre qu’en réalité l’accès et la fréquentation de votre site est plus complexe que ce que vous imaginez.
Je paie des annonces publicitaires pour le Réseau de Recherche, vais-je être mieux classé?
NON. La pub et le référencement sont 2 mondes totalement séparés, en aucun cas payer des annonces n’améliorera votre indexation organique (non payante).
Robots.txt, Bingbot et Googlebot
Parfois les sites web sont mal indexés car le fichier robots.txt bloque l’accès à une partie du contenu indexable. Il est possible de bloquer des ressources au niveau du serveur (mot de passe). Il est possible de soumettre des URLs lorsqu’elles sont nouvelles ou mises à jour par l’outil d’inspection des URL (recommandé par Gooweb), ce qui accélère la prise en compte du contenu nouveau ou amélioré, et donne un signal positif supplémentaire à Google / Bing.
Intégration de Google Search Console et des outils Bing pour les webmasters
La vérification dans l’un des 2 outils peut s’importer dans l’autre, ainsi que les sitemaps.
Recommandations pour le référencement JavaScript
Les applications en Javascript mode client-side rendering (CSR) permettent de générer du contenu intéressant et interactif, mais elles sont coûteuses pour les moteurs de recherche, elles demandent des ressources pour être exécutées. Ils est difficile pour Bing et Google de comprendre l’intention d’une ressource Javascript si le développeur ne fournit pas d’informations (titre, description, meta-script)..
Il est recommandé d’équilibrer les ressources entre le serveur et le client pour fournir rapidement des informations SEO et une intention aux moteurs de recherches lors de la génération d’une page..
Le client-side rendering (CSR) consiste à laisser le navigateur interpréter le JavaScript pour générer le contenu HTML de votre site. Ainsi, lorsque le navigateur fait une requête au serveur, au lieu d’obtenir tout le contenu du document HTML lui-même, vous obtenez un document HTML simple, avec un fichier JavaScript qui permettra au navigateur de générer le reste du site. Si l'optimisation SEO est votre objectif, mieux vaut éviter cette méthode de rendering.
Le rendu côté serveur, ou server side rendering (SRR) correspond au fonctionnement des sites web classiques : le navigateur envoie une requête au serveur, celui-ci traite l’information et renvoie une requête http contenant le HTML complet au navigateur, qui peut ensuite facilement effectuer le rendu.
Résultats des outils tiers et intention de la requête vs intention de l'utilisateur
La plupart des outils SEO génèrent un “score SEO”. Ce score n’est qu’une indication partielle. Pour les moteurs de recherche, l’enjeu est de répondre à l’intention de la recherche d’un utilisateur et d’y répondre de la manière la plus pertinente, en fonction de son contexte.
Conseil Gooweb : ces outils d’analyse SEO (j’en utilise un) permettent de diagnostiquer un ensemble de critères techniques, mais doivent être complétés par une analyse humaine pour aboutir à un audit complet de la performance SEO globale du site web, toujours par rapport à une audience spécifique.
Episode 1 vidéo Google en anglais >
Episode 2 - budget exploration (crawl budget)
Dans le deuxième épisode de la saison 2, Martin Splitt (Developer Advocate, Google) et Alexis Sanders discutent des questions et mythes SEO les plus courants autour du crawl budget.
Qu'est-ce que le crawl budget ?
Pour Google il s’agit de récupérer le maximum d’informations sur un site web en un minimum de temps, sans affecter les capacités du serveur du site web. Le crawl budget est en réalité une “crawl limite” qui vise à ne pas affecter les performances du serveur concerné.
Pour Google il s’agit aussi de gérer ses propres ressources. La demande de crawl est énorme car le volume d’informations sur le web explose.
Comment Googlebot prend-il ses décisions en matière de vitesse d'exploration et de demande d'exploration ?
Les éléments de dates sur les pages, l’indication de la fréquence de mise à jour d’une page et d’autres données structurées peuvent aider Google à apprécier les besoins de mise à jour. Certaines informations sont stables dans le temps (une recette de paella) certaines demandent d’être mises à jour régulièrement (un site e-commerce dont les produits et les prix évoluent).
ETags, en-têtes HTTP, dates de dernière modification
Ces informations sont utiles à Google pour apprécier les besoins de mise à jour de votre site web. Mettre à jour les dates sur le sitemap est utile, par contre le faire à chaque fois pour des modifications mineures peut décourager Google.
Quelle taille de sites est vraiment concernée par le crawl budget ?
Il s’agit surtout des sites web importants intégrant un nombre conséquent d’URL. Donc un site web qui n’est pas particulièrement volumineux n’a pas de souci à se faire quand au crawl budget, à moins que le serveur soit vraiment fragile ou sous-dimensionné.
Pour le e-commerce
Il est contre productif d’avoir quantité de pages similaires ou très proches. Par exemple pour des variantes de produits il vaut mieux une seule page avec toutes les déclinaisons du produit.
Conseils lors d'une migration de site
Lors d’une migration il est important d’utiliser le sitemap pour indiquer à Google la progression du contenu migré à indexer. Veillez à avoir des serveurs disponibles, ainsi que des redirections correctement paramétrées. Évitez de bloquer des contenus important (robots.txt) et procédez de manière progressive.
Crawl budget et différents niveaux de l'infrastructure d'un site
Si le site utilise un CDN, ou des sous domaines, que se passe t il ?
Rien de particulier, le contenu est plus important que l’infrastructure.
Le crawl budget affecte-t-il également le “rendering” ?
Oui car les actions nécessitent des ressources de la part du serveur, donc Google se doit de gérer ces demandes de manière à ne pas écrouler le serveur du site concerné. Si le site est volumineux et la stratégie de cache inadéquate, le nombre de requêtes augmente, si cela ralentit le serveur alors Google peut stopper les requêtes de rendering et par conséquent dégrader l‘indexation.
Mise en cache des ressources et crawl budget
Google essaie de mettre en cache le maximum d’information possible. Cependant, certains choix techniques empêchent Google de mettre en cache les informations du site (comme les POST request), il faut donc les utiliser avec précaution, car elle augmenteront la consommation du crawl budget. Des URLs stables et le versioning d’URLs peuvent également aider Google à mettre en cache efficacement.
Crawl budget et secteurs spécifiques
Les site e-commerce et les éditeurs sont les plus demandeurs de crawl budget car ils sont des sites qui peuvent être très fournis en pages et en information qui nécessitent un crawl fréquent. Du coup pour optimiser celui-ci il est important d’aider Google à optimiser le crawling. Par exemple si une partie du contenu est de faible qualité pour l’indexation il est important de le tagger noindex.
Qu'est-ce qui peut être - de manière générale - recommandé pour aider Googlebot lors de l'exploration d'un site?
Ne pas bloquer des ressources utiles à Google pour explorer le site. Bloquer les contenus inutiles pour l’indexation. Utiliser pour cela le robors.txt tout en veillant à ne pas bloquer de pages utiles. Pour les site avec une architecture client-side rendering (CSR), mettre en place des solutions qui vont faciliter le rendering. GraphQL est utile, si l’on n’utilise pas le “POST mode”. Indiquer la fréquence de mise à jour des contenus dans sitemap.
Quels sont les pièges habituels auxquels les gens se heurtent avec le crawl budget ?
Le robots.txt est un grand classique, quand des contenus importants sont bloqués inutilement. Les serveurs mal configurés qui renvoient une réponse HTTP 500 (erreur interne du serveur ou problème de fichier htaccess), car dans ce cas Google arrête le crawl pour ne pas solliciter davantage le serveur.
Peut-on dire à Googlebot d'explorer davantage son site web ?
Non, il est possible de limiter l’exploration Google, mais pas d’en demander davantage.
Cependant, si le sitemap indique de nouvelles URLs, si du contenu de qualité nouveau est régulièrement ajouté, Google le détecte et mettra les moyens nécessaires pour indexer le site.
En conclusion, pour Google, la création régulière de nouveau contenu de qualité est la meilleure garantie d’avoir un crawl budget optimal.
Episode 2 vidéo Google en anglais >
Episode 3 - page speed (vitesse de chargement)
Dans cet épisode Martin Splitt (Developer Advocate, Google) et Eric Enge discutent des questions et des mythes SEO les plus courants autour de la vitesse de chargement des pages.
Vitesse et ranking
Non, le page speed n’est pas le facteur de ranking Google le plus important (en 2020).
Mais c’est important pour l’utilisateur, et pour les conversions.
Cependant Google annonce que à partir de mai 2021, la vitesse de chargement comme d’autres “signaux web essentiels” seront pris en compte dans le ranking.
Pourquoi la vitesse de la page est-elle importante?
Lorsque la connexion internet est lente, et parfois même lorsqu’elle est rapide, si le contenu met du temps à s’afficher il en résulte une frustration chez l’utilisateur. Or ni le site web ni Google n’ont intérêt à frustrer l’utilisateur. Selon Google 53 % des sessions sont abandonnées si le temps de chargement est supérieur à 3 sec…
Vitesse de la page vs pertinence du contenu
Un contenu médiocre ne sera pas bien indexé par Google même s’il est très rapide. Par contre pour un contenu de qualité, une vitesse d’affichage performante est un plus pour Google.
Taille de page Web recommandée
Plus la page est légère mieux c’est.
Rester en dessous de 5 Mo par page est une bonne idée. Il faut garder en tête que Javascript demande beaucoup de ressources et d’optimisation.
Optimisation de la vitesse de la page
Les images sont un sujet sensible, il est utile de fournir plusieurs tailles d’images plutôt que de laisser le navigateur ajuster. Veiller à charger le premier contenu visible avant le reste. Autres points d’optimisation courants : les capacités de l’hébergement et son optimisation, comme la configuration du CDN (politique de cache) mis en place peuvent avoir un impact important. Utiliser un serveur dédié plutôt qu’un serveur partagé.
Vitesse de page sur les différents appareils utilisateur et connexions
Lors de tests réels sur mobiles, il est important de se rappeler que les utilisateurs ne disposent peut être pas d’appareils aussi puissants que ceux des testeurs, ni d’une connexion aussi performante. Google Analytics fournit la liste des appareils utilisés pour accéder à un site web. Il peut être judicieux d’acquérir ceux qui sont les plus utilisés pour faire des tests réels.
Vitesse de page, pages mobiles accélérées (AMP)
Designer pour le mobile d’abord puis réaliser la version desktop est une bonne démarche.
Non, AMP n’est pas un critère de ranking.
Pour plusieurs contenus pertinents en compétition, le page speed sera un léger avantage pour celui qui est plus rapide. Mais Google n’utilise pas les score de Lighthouse pour indexer les pages. Elles sont classées en 3 catégories, lentes, moyennes ou rapides, information que l’on peut retrouver dans la Search Console.
Découvrez également les mythes identifiés par Google dans la saison 1 >
Mis à jour le 12 mai 2022.
Article créé le 28 juillet 2020.
Photo by Rhett Wesley on Unsplash