Liste de contrôle d'audit SEO technique en 9 étapes

Cette liste de contrôle décrit tous les rouages d'un audit technique de site, de la théorie à la pratique.

Vous apprendrez quels fichiers techniques existent, pourquoi les problèmes de référencement se produisent et comment les résoudre et les prévenir à l'avenir afin que vous soyez toujours à l'abri des baisses soudaines de classement .

En cours de route, je montrerai quelques outils d'audit SEO, à la fois populaires et peu connus, pour effectuer un audit technique de site Web sans tracas.

Le nombre d'étapes de votre liste de contrôle technique SEO dépendra des objectifs et du type de sites que vous allez examiner. Notre objectif était de rendre cette liste de contrôle universelle, couvrant toutes les étapes importantes des audits SEO techniques.

Étapes préparatoires à un audit de site

1. Accédez aux outils d'analyse de site et aux webmasters

Pour effectuer un audit technique de votre site, vous aurez besoin d'outils d'analyse et de webmaster, et c'est très bien si vous les avez déjà configurés sur votre site Web. Avec Google Analytics , Google Search Console , Bing Webmaster Tools , etc., vous disposez déjà d'une grande quantité de données nécessaires pour une vérification de base du site .

2. Vérifiez la sécurité du domaine

Si vous auditez un site Web existant qui a chuté du classement, excluez d'abord et avant tout la possibilité que le domaine soit soumis à des sanctions des moteurs de recherche.

Pour cela, consultez Google Search Console. Si votre site a été pénalisé pour la création de liens black-hat, ou s'il a été piraté, vous verrez un avis correspondant dans l'onglet Sécurité et actions manuelles de la console. Assurez-vous de répondre à l'avertissement que vous voyez dans cet onglet avant de poursuivre l'audit technique de votre site. Si vous avez besoin d'aide, consultez notre guide sur la façon de gérer les pénalités manuelles et algo .

Si vous auditez un tout nouveau site qui doit être lancé, assurez-vous de vérifier que votre domaine n'est pas compromis. Pour plus de détails, consultez nos guides sur la façon de choisir les domaines expirés et sur la façon de ne pas se retrouver piégé dans le bac à sable de Google lors du lancement d'un site Web.

Maintenant que nous en avons terminé avec les travaux préparatoires, passons à l'audit SEO technique de votre site web, étape par étape.

Étape 1. Vérifier l'indexation du site Web

D'une manière générale, il existe deux types de problèmes d'indexation. La première est lorsqu'une URL n'est pas indexée alors qu'elle est censée l'être. L'autre est lorsqu'une URL est indexée alors qu'elle n'est pas censée l'être. Alors comment vérifier le nombre d'URL indexées de votre site ?

1. Console de recherche Google

Pour voir quelle part de votre site Web est réellement parvenue dans l'index de recherche, consultez le rapport de couverture dans Google Search Console . Le rapport indique combien de vos pages sont actuellement indexées, combien sont exclues et quels sont certains des problèmes d'indexation sur votre site Web.

Le rapport de couverture dans la Search Console affiche toutes vos pages correctement indexées et les erreurs
Vérifiez vos pages indexées dans le rapport de couverture dans la Search Console

Le premier type de problèmes d'indexation est généralement marqué comme une erreur. Les erreurs d'indexation se produisent lorsque vous avez demandé à Google d'indexer une page, mais qu'elle est bloquée. Par exemple, une page a été ajoutée à un sitemap, mais est marquée avec la balise noindex ou est bloquée avec robots.txt.

Le rapport Erreurs dans la couverture affiche les pages que vous avez demandé à Google d'indexer, mais elles sont en quelque sorte bloquées
Examiner les erreurs dans le rapport de couverture

L'autre type de problèmes d'indexation est lorsque la page est indexée, mais Google n'est pas certain qu'elle était censée être indexée. Dans Google Search Console, ces pages sont généralement marquées comme valides avec des avertissements .

Les avertissements dans le rapport de couverture affichent les pages qui sont indexées contrairement aux règles de blocage
Inspecter les avertissements dans le rapport de couverture

Pour une page individuelle, exécutez l' outil d'inspection d'URL dans la Search Console pour examiner comment le robot de recherche de Google la voit. Appuyez sur l'onglet correspondant ou collez l'URL complète dans la barre de recherche en haut, et il récupérera toutes les informations sur l'URL, la façon dont elle a été analysée la dernière fois par le robot de recherche.

L'outil d'inspection d'URL vous permet d'examiner l'exploration et l'indexation de chaque page.
Examiner comment les URL individuelles sont indexées

Ensuite, vous pouvez cliquer sur Test Live URL et voir encore plus de détails sur la page : le code de réponse, les balises HTML, la capture d'écran du premier écran, etc.

2. Auditeur de site Web

Cette étape nécessite WebSite Auditor. Vous pouvez le télécharger dès maintenant gratuitement. Télécharger WebSite Auditor

Un autre outil pour surveiller votre indexation est WebSite Auditor . Lancez le logiciel et collez l'URL de votre site Web pour créer un nouveau projet et procéder à l'audit de votre site. Une fois l'exploration terminée, vous verrez tous les problèmes et avertissements dans le module Structure du site de WebSite Auditor. Dans le rapport Domain Strength , vérifiez le nombre de pages indexées, non seulement dans Google, mais également dans d'autres moteurs de recherche.

Le rapport Domain Strength dans WebSite Auditor indique le nombre de vos pages indexées
Le rapport Domain Strength indique le nombre de pages indexées dans tous les moteurs de recherche qui vous intéressent
Télécharger WebSite Auditor

Vérification SEO avancée

Dans WebSite Auditor, vous pouvez personnaliser l'analyse de votre site, en choisissant un robot de recherche différent et en spécifiant les paramètres d'analyse. Dans les Préférences du projet de l'araignée SEO, définissez le bot du moteur de recherche et un agent utilisateur spécifique. Choisissez les types de ressources que vous souhaitez examiner lors de l'analyse (ou inversement, ignorez l'analyse). Vous pouvez également demander au robot d'audit d'auditer les sous-domaines et les sites protégés par mot de passe, d'ignorer les paramètres d'URL spéciaux, etc.

Paramètres de robot d'exploration avancés pour exécuter un audit de site personnalisé, en choisissant des robots d'exploration et des ressources spécifiques à examiner
Définir les paramètres du robot d'exploration pour organiser un audit de site avancé

Nouveau sur WebSite Auditor?

Regardez cette vidéo détaillée pour savoir comment configurer votre projet et analyser les sites Web.


Télécharger WebSite Auditor

3. Analyse du fichier journal

Chaque fois qu'un utilisateur ou un robot de recherche envoie une requête au serveur contenant les données du site Web, le fichier journal enregistre une entrée à ce sujet. Il s'agit des informations les plus correctes et les plus valides sur les robots d'exploration et les visiteurs de votre site, les erreurs d'indexation, les gaspillages de budget d'exploration, les redirections temporaires, etc. Comme il peut être difficile d'analyser manuellement les fichiers journaux, vous aurez besoin d'un programme d'analyse de fichiers journaux .

Quel que soit l'outil que vous décidez d'utiliser, le nombre de pages indexées doit être proche du nombre réel de pages sur votre site Web.

Et maintenant, passons à la façon dont vous pouvez contrôler l'exploration et l'indexation de votre site Web.

Étape 2. Gérer l'indexation et l'exploration du site Web

Par défaut, si vous n'avez pas de fichiers SEO techniques avec des contrôles d'exploration, les robots de recherche visiteront toujours votre site et l'exploreront tel quel. Cependant, les fichiers techniques vous permettent de contrôler la manière dont les robots des moteurs de recherche explorent et indexent vos pages. Ils sont donc fortement recommandés si votre site est volumineux. Voici quelques façons de modifier les règles d'indexation/d'exploration :

  1. Sitemap
  2. Robots.txt
  3. Balises méta robots
  4. En-tête HTTP X-Robots-Tag
  5. Rel="canonical"
  6. Codes de réponse du serveur

Alors, comment faire en sorte que Google indexe votre site plus rapidement en utilisant chacun d'eux ?

1. Sitemap

Un sitemap est un fichier SEO technique qui répertorie toutes les pages, vidéos et autres ressources de votre site, ainsi que les relations entre elles. Le fichier indique aux moteurs de recherche comment explorer votre site plus efficacement et joue un rôle crucial dans l'accessibilité de votre site Web.

Un site Web a besoin d'un sitemap lorsque :

  • Le site Web est trop grand.
  • Il existe de nombreuses pages isolées non liées.
  • Il y a trop de pages enfouies profondément dans la structure du site.
  • Le site Web est nouveau et a trop peu de backlinks.
  • Le site Web contient beaucoup de contenu multimédia (images, vidéo) ou d'actualités.

Il existe différents types de plans de site que vous pouvez ajouter à votre site, en fonction principalement du type de site Web que vous gérez.

Sitemap HTML

Un sitemap HTML est destiné aux lecteurs humains et se trouve au bas du site Web. Il a cependant peu de valeur SEO. Un sitemap HTML montre la navigation principale aux utilisateurs et reproduit généralement les liens dans les en-têtes de site. En attendant, les sitemaps HTML peuvent être utilisés pour améliorer l'accessibilité des pages qui ne sont pas incluses dans le menu principal.

Sitemap XML

Contrairement aux sitemaps HTML, les sitemaps XML sont lisibles par machine grâce à une syntaxe spéciale. Le sitemap XML se trouve dans le domaine racine, par exemple, https://www.link-assistant.com/sitemap.xml. Plus loin, nous discuterons des exigences et des balises de balisage pour créer un sitemap XML correct.

Sitemap TXT

Il s'agit d'un autre type de sitemap disponible pour les robots des moteurs de recherche. Le plan du site TXT répertorie simplement toutes les URL des sites Web, sans fournir aucune autre information sur le contenu.

Sitemap des images

Ce type de sitemaps est utile pour les vastes bibliothèques d'images et les images de grande taille pour les aider à se classer dans Google Image Search. Dans Image Sitemap, vous pouvez fournir des informations supplémentaires sur l'image, telles que la géolocalisation, le titre et la licence. Vous pouvez répertorier jusqu'à 1 000 images pour chaque page.

Sitemap vidéo

Les sitemaps vidéo sont nécessaires pour le contenu vidéo hébergé sur vos pages afin de l'aider à mieux se classer dans la recherche de vidéos Google. Bien que Google recommande d'utiliser des données structurées pour les vidéos, un sitemap peut également être bénéfique, en particulier lorsque vous avez beaucoup de contenu vidéo sur une page. Dans le plan du site vidéo, vous pouvez ajouter des informations supplémentaires sur la vidéo, telles que les titres, la description, la durée, les vignettes et même si elle est adaptée aux familles pour la recherche sécurisée.

Sitemap hreflang

Pour les sites Web multilingues et multirégionaux, les moteurs de recherche disposent de plusieurs moyens pour déterminer la version linguistique à diffuser à un endroit donné. Les hreflangs sont l'une des nombreuses façons de servir des pages localisées, et vous pouvez utiliser un sitemap hreflang spécial pour cela. Le sitemap hreflang répertorie l'URL elle-même avec son élément enfant indiquant le code de langue/région de la page.

Sitemap

Si vous gérez un blog d'actualités, l'ajout d'un sitemap News-XML peut avoir un impact positif sur votre classement sur Google Actualités. Ici, vous ajoutez des informations sur le titre, la langue et la date de publication. Vous pouvez ajouter jusqu'à 1 000 URL dans le sitemap Google Actualités. Les URL ne doivent pas dater de plus de deux jours, après quoi vous pouvez les supprimer, mais elles resteront dans l'index pendant 30 jours.

RSS

Si votre site Web dispose d'un flux RSS, vous pouvez soumettre l'URL du flux sous forme de sitemap. La plupart des logiciels de blog sont capables de créer un flux, mais ces informations ne sont utiles que pour la découverte rapide des URL récentes.

De nos jours, les plus fréquemment utilisés sont les sitemaps XML, alors révisons brièvement les principales exigences pour la génération de sitemaps XML :

  • Les plans de site doivent contenir 50 000 URL maximum et ne doivent pas dépasser 50 Mo (la taille peut être compressée). Idéalement, vous devriez le garder plus court pour vous assurer que vos pages les plus importantes sont explorées plus souvent : les expériences techniques de référencement montrent que des sitemaps plus courts entraînent des crawls plus efficaces.
  • S'il y a plus d'URL, vous pouvez les diviser en plusieurs sitemaps et les soumettre dans un seul fichier sitemapindex .
  • Tous les sitemaps XML doivent renvoyer un code de réponse de serveur 200.
  • L'ajout de nouvelles pages et leur suppression des plans de site doivent se faire automatiquement lorsque vous les ajoutez à votre site.
  • L'ordre des URL dans le sitemap n'a pas d'importance ; cependant, il ne devrait pas y avoir de doublons. Ajoutez uniquement des URL canoniques à votre sitemap, le robot Google traitera toutes vos pages du sitemap comme canoniques.

Le sitemap XML est encodé en UTF-8 et contient des balises obligatoires pour un élément XML :

<urlset></urlset> une valeur parent pour spécifier la norme de protocole actuelle
<url> </url> l'élément parent pour chaque URL
<loc> </loc> où vous indiquez votre adresse URL

Un exemple simple de plan de site XML à une entrée ressemblera à

<?xml version="1.0" encoding="UTF-8" ?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.example.com/</loc>
</url>
</urlset>

Il existe des balises facultatives pour indiquer la priorité et la fréquence des explorations de pages - <priority>, <changefreq> (Google les ignore actuellement) et la valeur <lastmod> lorsqu'elle est exacte (par exemple, par rapport à la dernière modification sur une page) .

Une erreur typique avec les sitemaps est de ne pas avoir de sitemap XML valide sur un grand domaine. Vous pouvez vérifier la présence d'un sitemap sur le vôtre avec WebSite Auditor . Retrouvez les résultats dans la section Audit du site > Indexation et crawlabilité .

WebSite Auditor vérifie si un sitemap est disponible sur votre site
Vérifier la disponibilité du sitemap sur votre site
Télécharger WebSite Auditor

Si vous n'avez pas de sitemap, vous devriez vraiment en créer un dès maintenant. Vous pouvez générer rapidement le plan du site à l'aide des outils de site Web de WebSite Auditor lorsque vous passez à la section Pages .

XML Sitemap Generator vous permet de choisir les pages que vous souhaitez soumettre dans un sitemap
Outil Générateur de plan de site XML dans WebSite Auditor
Télécharger WebSite Auditor

Et informez Google de votre sitemap. Pour ce faire, vous pouvez

  1. soit le soumettre manuellement à Google Search Console via Sitemaps Report (ici, vous verrez la liste complète des sitemaps que vous avez téléchargés auparavant),
  2. ou spécifiez son emplacement n'importe où dans votre fichier robots.txt de la manière suivante : Sitemap : http://votredomaine.com/sitemaplocation.xml

Le fait est que le fait d'avoir un sitemap sur votre site Web ne garantit pas que toutes vos pages seront indexées ou même explorées . Il existe d'autres ressources SEO techniques, visant à améliorer l'indexation du site. Nous les examinerons dans les prochaines étapes.

2. Fichier robots.txt

Un fichier robots.txt indique aux moteurs de recherche à quelles URL le robot peut accéder sur votre site. Ce fichier sert à éviter de surcharger votre serveur de requêtes, en gérant le trafic de crawl . Le fichier est généralement utilisé pour :

  • Masquez les problèmes en double.
  • Restreignez l'accès à certaines pages que vous n'avez pas besoin d'afficher dans l'index, telles que les résultats de recherche du site, les pages de service, les connexions, les pages temporaires en cours de développement.
  • Amplifiez le budget de crawl.
  • Masquez certains types de contenu, par exemple, les grands multimédias, les ressources Web, etc.

Robots.txt est placé à la racine du domaine et chaque sous-domaine doit avoir son propre fichier distinct. N'oubliez pas qu'il ne doit pas dépasser 500 Ko et qu'il doit répondre avec un code 200.

Le fichier robots.txt a également sa syntaxe avec les règles Autoriser et Disallow :

  • User-agent : définit à quel robot d'exploration la règle s'applique.
  • Le caractère générique (*) signifie que la directive s'applique à tous les moteurs de recherche.
  • La barre oblique (/) désigne le chemin auquel la règle s'applique.
  • Le signe $ signifie la fin de l'URL.
  • Le symbole hashtag (#) commence la phrase par des commentaires dans le fichier texte.

Différents moteurs de recherche peuvent suivre les directives différemment. Par exemple, Google a abandonné l'utilisation des directives noindex, crawl-delay et nofollow de robots.txt. En outre, il existe des robots d'exploration spéciaux tels que Googlebot-Image, Bingbot, Baiduspider-image, DuckDuckBot, AhrefsBot, etc. Ainsi, vous pouvez définir les règles pour tous les robots de recherche ou des règles distinctes pour seulement certains d'entre eux.

Écrire des instructions pour robots.txt peut devenir assez délicat, donc la règle ici est d'avoir moins d'instructions et plus de bon sens. Vous trouverez ci-dessous quelques exemples de définition des instructions robots.txt.

Accès complet au domaine. Dans ce cas, la règle d'interdiction n'est pas renseignée.

User-agent: *
Disallow:

Blocage complet d'un hôte.

User-agent: *
Disallow : /

L'instruction interdit l'exploration de toutes les URL commençant par upload après le nom de domaine.

User-agent: *
Disallow : /upload

L'instruction interdit à Googlebot-News d'explorer tous les fichiers gif du dossier d'actualités.

User-Agent : Googlebot-News
Disallow : /news/*/gifs$

Gardez à l'esprit que si vous définissez une instruction générale A pour tous les moteurs de recherche et une instruction étroite B pour un bot spécifique, alors le bot spécifique peut suivre l'instruction étroite et exécuter toutes les autres règles générales définies par défaut pour le bot, car il ne sera pas limité par la règle A. Par exemple, comme dans la règle ci-dessous :

User-agent: *
Disallow : /tmp/
User-Agent : AdsBot-Google-Mobile
Disallow : /gallery/*/large.tif$

Ici, AdsBot-Google-Mobile peut explorer des fichiers dans le dossier tmp malgré l'instruction avec la marque générique *.

L'une des utilisations typiques des fichiers robots.txt consiste à indiquer où se trouve le sitemap. Dans ce cas, vous n'avez pas besoin de mentionner les agents utilisateurs, car la règle s'applique à tous les robots. Le plan du site doit commencer par le S majuscule (rappelez-vous que le fichier robots.txt est sensible à la casse) et l'URL doit être absolue (c'est-à-dire qu'elle doit commencer par le nom de domaine complet).

Sitemap : https://www.example.com/sitemap.xml

Gardez à l'esprit que si vous définissez des instructions contradictoires, les robots d'exploration donneront la priorité à l'instruction la plus longue. Par exemple:

User-agent: *
Disallow : /admin
Allow : /admin/js/global.js

Ici, le script /admin/js/global.js sera toujours autorisé pour les crawlers malgré la première instruction. Tous les autres fichiers du dossier admin seront toujours interdits.

Vous pouvez vérifier la disponibilité du fichier robots.txt dans WebSite Auditor. Il vous permet également de générer le fichier à l'aide de l'outil de génération de robots.txt , puis de le sauvegarder ou de le télécharger directement sur le site Web via FTP.

Sachez que le fichier robots.txt est accessible au public et qu'il peut exposer certaines pages au lieu de les masquer. Si vous souhaitez masquer certains dossiers privés, protégez-les par mot de passe.

Enfin, le fichier robots.txt ne garantit pas que la page non autorisée ne sera pas explorée ou indexée . Empêcher Google d'explorer une page est susceptible de la supprimer de l'index de Google, cependant, le robot de recherche peut toujours explorer la page en suivant certains backlinks pointant vers elle. Voici donc un autre moyen d'empêcher une page d'explorer et d'indexer - les méta-robots.

3. Balises méta robots

Les balises Meta robots sont un excellent moyen d'indiquer aux crawlers comment traiter les pages individuelles. Les balises Meta robots sont ajoutées à la section <head> de votre page HTML, ainsi les instructions sont applicables à toute la page. Vous pouvez créer plusieurs instructions en combinant les directives de balises méta des robots avec des virgules ou en utilisant plusieurs balises méta. Cela peut ressembler à ceci :

<!DOCTYPE html>
<html><head>
<meta name="robots" content="noindex", "follow" />
(…)
</head>
<body>(…)</body>
</html>

Vous pouvez spécifier des balises meta robots pour différents robots, par exemple

<meta name="googlebot" content="noindex">
<meta name="googlebot-news" content="nosnippet">

Google comprend des balises telles que :

  • noindex pour garder la page hors de l'index de recherche ;
  • nofollow pour ne pas suivre le lien,
  • none qui correspond à noindex, nofollow ;
  • noarchive indiquant à Google de ne pas stocker de copie en cache de votre page.

Les balises opposées index / follow / archive remplacent les directives d'interdiction correspondantes. Il existe d'autres balises indiquant comment la page peut apparaître dans les résultats de recherche, telles que snippet / nosnippet / notranslate / nopagereadaloud / noimageindex .

Si vous utilisez d'autres tags valables pour d'autres moteurs de recherche mais inconnus de Google, Googlebot les ignorera tout simplement.

4. Tag X-Robots

Au lieu de balises META, vous pouvez utiliser un en-tête de réponse pour les ressources non HTML , telles que les fichiers PDF, vidéo et image. Défini pour renvoyer un en-tête X-Robots-Tag avec une valeur de noindex ou none dans votre réponse.

Vous pouvez également utiliser une combinaison de directives pour définir à quoi ressemblera l'extrait de code dans les résultats de recherche, par exemple, max-image-preview: [setting] ou nosnippet ou max-snippet: [number] , etc.

Vous pouvez ajouter le X-Robots-Tag aux réponses HTTP d'un site Web via les fichiers de configuration du logiciel de serveur Web de votre site. Vos directives d'exploration peuvent être appliquées globalement sur l'ensemble du site pour tous les fichiers, ainsi que pour des fichiers individuels si vous définissez leurs noms exacts.

Note

Une règle empirique pour que la directive noindex soit efficace est que la page avec la balise meta noindex ou la balise X-Robots ne doit pas être bloquée par un fichier robots.txt. Si la page est bloquée par un fichier robots.txt ou si le robot d'exploration ne peut pas accéder à la page, il ne verra pas la directive noindex et la page pourra toujours apparaître dans les résultats de recherche, par exemple, si d'autres pages y renvoient.

Vous pouvez consulter rapidement toutes les instructions des robots avec WebSite Auditor . Accédez à Structure du site > Toutes les ressources > Ressources internes et vérifiez la colonne Instructions des robots . Vous trouverez ici les pages interdites et la méthode appliquée, robots.txt, balises méta ou balise X-Robots.

Vérifiez les règles de blocage dans l'onglet Toutes les ressources > Ressources internes de WebSite Auditor
Passez en revue les réponses X-Robots-tage dans le module Toutes les ressources
Télécharger WebSite Auditor

5. Codes de réponse du serveur

Le serveur hébergeant un site génère un code d'état HTTP lorsqu'il répond à une requête faite par un client, un navigateur ou un robot d'exploration. Si le serveur répond avec un code d'état 2xx, le contenu reçu peut être pris en compte pour l'indexation. D'autres réponses de 3xx à 5xx indiquent qu'il y a un problème avec le rendu du contenu. Voici quelques significations des réponses de code d'état HTTP :

200 — OK, l'URL peut être indexée.
301 — une redirection, la page a été déplacée, le crawler doit visiter la cible indiquée.
302 - redirection temporaire, signifie pratiquement la même chose, et si la redirection temporaire n'est pas supprimée rapidement, la cible de la redirection sera incluse dans l'index de recherche.
304 — une redirection implicite vers une ressource mise en cache ; la page n'a pas changé depuis la dernière exploration et le bot ne la réexplorera pas.
404 - page introuvable mais le bot entreprendra plusieurs tentatives pour la visiter, surtout si d'autres pages y renvoient.
503 Service temporairement indisponible; toutes les erreurs 5xx sont des erreurs de serveur internes et doivent être utilisées pendant le travail en cours sur un site Web.

Les redirections 301 sont utilisées lorsque :

  • Vous avez supprimé une page et vous souhaitez rediriger les utilisateurs vers une nouvelle page.
  • Vous fusionnez deux sites et souhaitez vous assurer que les liens vers des URL obsolètes sont redirigés vers les bonnes pages.
  • Les gens accèdent à votre site via plusieurs URL différentes (via des versions http/https ou www/non-www de votre site).
  • Vous avez déplacé votre site vers un nouveau domaine.


302 redirection temporaire

La redirection 302 temporaire ne doit être utilisée que sur les pages temporaires. Par exemple, lorsque vous reconcevez une page ou testez une nouvelle page et recueillez des commentaires, mais que vous ne voulez pas que l'URL sorte des classements.

304 pour vérifier le cache

Le code de réponse 304 est pris en charge dans tous les moteurs de recherche les plus populaires, comme Google, Bing, Baidu, Yandex, etc. La configuration correcte du code de réponse 304 aide le bot à comprendre ce qui a changé sur la page depuis sa dernière exploration. Le bot envoie une requête HTTP If-Modified-Since. Si aucun changement n'est détecté depuis la dernière date d'exploration, le robot de recherche n'a pas besoin d'explorer à nouveau la page. Pour un utilisateur, cela signifie que la page ne sera pas entièrement rechargée et que son contenu sera extrait du cache du navigateur.

Le code 304 permet également de :

  • Diffusez le contenu plus rapidement, ce qui est particulièrement utile pour les mauvaises connexions Internet.
  • Protégez le serveur des requêtes supplémentaires car, si la page n'a pas changé, il n'est pas nécessaire de la réexplorer.
  • Économisez du budget d'exploration et des pages d'indexation plus rapidement.

Il est important de vérifier la mise en cache non seulement du contenu de la page, mais aussi des fichiers statiques, comme les images ou les styles CSS. Il existe des outils spéciaux, comme celui-ci , pour vérifier le code de réponse 304.

Outil pour vérifier le code de réponse 304
Vérification de la réponse 304 sur une URL

Problèmes typiques avec les codes de réponse

Le plus souvent, les problèmes de code de réponse du serveur apparaissent lorsque les robots d'exploration continuent de suivre les liens internes et externes vers les pages supprimées ou déplacées, obtenant des réponses 3xx et 4xx.

Une erreur 404 indique qu'une page n'est pas disponible et le serveur envoie le code d'état HTTP correct au navigateur — un 404 Not Found.

Cependant, il y a des erreurs logicielles 404 lorsque le serveur envoie le code de réponse 200 OK, mais Google considère qu'il devrait s'agir de 404. Cela peut se produire parce que :

  • Une page 404 n'est pas configurée correctement : le site ne fournit aucune réponse 404 au contenu indisponible ; la réponse 404 doit être configurée correctement.
  • Une page a été déplacée, mais sans redirection 301, ce qui génère une erreur 404.
  • Réponse 404 à une page existante : la page est disponible, mais Google pense qu'il s'agit d'un contenu léger et le pénalise, donc ici vous devez améliorer le contenu de la page.
  • Rediriger une page avec une réponse 404 vers une page avec une réponse 200, par exemple vers la page d'accueil. Une telle redirection est trompeuse pour les utilisateurs.

Dans le module Audit de site de WebSite Auditor, passez en revue les ressources avec le code de réponse 4xx, 5xx sous l'onglet Indexation et capacité d'exploration , et une section distincte pour les liens rompus dans l'onglet Liens .

Trouvez toutes les ressources brisées et les liens brisés dans le module Audit du site
Examinez les liens brisés dans le module d'audit du site
Télécharger WebSite Auditor

Quelques autres problèmes de redirection courants impliquant des réponses 301/302 :

  • Chaînes de redirection trop longues : si vous redirigez plusieurs pages les unes vers les autres avec deux redirections 301 ou plus, elles finiront par disparaître de l'index car Google n'explore pas les longues chaînes de redirection.
  • Des redirections sournoises considérées comme une mauvaise pratique et pénalisées par Google.
  • La redirection 302 reste trop longtemps : la source et la cible entrent dans l'index, mais sans redistribution de la force de classement. Si vous trouvez une redirection 302 lors de votre audit technique de site, vérifiez si c'est vraiment nécessaire.

Vous pouvez examiner toutes les pages avec des redirections 301 et 302 dans la section Audit du site > Redirections de WebSite Auditor.

Passez en revue toutes les redirections 3xx dans le module d'audit de site
Examiner les redirections temporaires et permanentes
Télécharger WebSite Auditor

6. Rel="canonical"

La duplication peut devenir un problème grave pour l'exploration de sites Web. Si Google trouve des URL en double , il décidera laquelle d'entre elles est une page principale et l'explorera plus fréquemment, tandis que les doublons seront explorés moins souvent et pourront même disparaître de l'index de recherche. Une solution infaillible consiste à indiquer une des pages dupliquées comme canonique, la principale. Cela peut être fait à l'aide de l'attribut rel="canonical" , placé dans le code HTML des pages ou dans les réponses d'en-tête HTTP d'un site.

Note

L'attribut rel détermine la relation entre le document et une ressource liée. Il est valide pour <link>, <a>, <area> et <form>, les valeurs dépendent de l'élément sur lequel se trouve l'attribut.

Google utilise des pages canoniques pour évaluer votre contenu et sa qualité, et le plus souvent, les résultats de recherche renvoient vers des pages canoniques, à moins que les moteurs de recherche n'identifient distinctement qu'une page non canonique convient mieux à l'utilisateur (par exemple, il s'agit d'un utilisateur mobile ou un chercheur dans un endroit précis).

Ainsi, la canonisation des pages pertinentes permet de :

  • Empêchez les doublons de grignoter votre budget de crawl
  • Présentez les bonnes pages à l'utilisateur dans les résultats de recherche
  • Consolidez les signaux de lien, en transmettant plus de valeur aux pages canoniques
  • Gérer la duplication de contenu en raison de la syndication ou du vol de contenu
  • Mesures de suivi agrégées pour un seul produit.

Raisons des problèmes de doublons

Les problèmes de duplication signifient qu'un contenu identique ou similaire apparaît sur plusieurs URL. Assez souvent, les doublons apparaissent automatiquement en raison du traitement des données techniques sur un site Web.

Doublons techniques

Certains CMS peuvent générer automatiquement des problèmes de doublons en raison de paramètres incorrects. Par exemple, plusieurs URL peuvent être générées dans divers répertoires de sites Web, et ce sont des doublons :

https://www.link-assistant.com/
https://www.link-assistant.com/index.html
https://www.link-assistant.com/index.php

La pagination peut également entraîner des problèmes de duplication si elle est mal implémentée. Par exemple, l'URL de la page de catégorie et la page 1 affichent le même contenu et sont donc traitées comme des doublons. Une telle combinaison ne devrait pas exister, ou la page de catégorie devrait être marquée comme canonique.

https://www.link-assistant.com/news/keyword-research/?page=1
https://www.link-assistant.com/news/keyword-research/

Les résultats de tri et de filtrage peuvent être représentés comme des doublons. Cela se produit lorsque votre site crée des URL dynamiques pour les requêtes de recherche ou de filtrage. Vous obtiendrez des paramètres d'URL qui représentent des alias de chaînes de requête ou des variables d'URL, ce sont la partie d'une URL qui suit un point d'interrogation.

https://example.com/products/women?category=dresses&color=green
https://example.com/products/women/dresses/green.html?limit=20&sessionid=123

Pour empêcher Google d'explorer un tas de pages presque identiques, configurez pour ignorer certains paramètres d'URL. Pour ce faire, lancez Google Search Console et accédez à Outils et rapports hérités > Paramètres d'URL . Cliquez sur Modifier à droite et indiquez à Google les paramètres à ignorer — la règle s'appliquera à l'ensemble du site. N'oubliez pas que l' outil de paramétrage est destiné aux utilisateurs avancés, il doit donc être manipulé avec précision.

L'outil Paramètres d'URL est un outil hérité de la console qui doit être manipulé avec précaution
Gestion des paramètres avec l'outil de paramétrage de Google

Le problème de duplication se produit souvent sur les sites Web de commerce électronique qui permettent une navigation par filtre à facettes , réduisant la recherche à trois, quatre critères et plus. Voici un exemple de configuration de règles d'exploration pour un site de commerce électronique : stocker les URL avec des résultats de recherche plus longs et plus étroits dans un dossier spécifique et les interdire par une règle robots.txt.

Notez que Google ne recommande pas d'utiliser robots.txt à des fins de canonisation. Vous devez vous assurer que la page canonique n'est pas interdite et que les règles d'interdiction pour les répertoires plus petits ne remplaceront pas les instructions générales.

Doublons logiques

Des problèmes logiques dans la structure du site Web peuvent entraîner une duplication. Cela peut être le cas lorsque vous vendez des produits et qu'un produit appartient à différentes catégories.

https://www.example.com/category_1/product_1
https://www.example.com/category_2/product_1
https://www.example.com/category_3/product_1

Dans ce cas, les produits doivent être accessibles via une seule URL. Les URL sont considérées comme des doublons complets et nuiront au référencement. L'URL doit être attribuée via les paramètres corrects du CMS, générant une URL unique unique pour une page.

La duplication partielle se produit souvent avec WordPress CMS, par exemple, lorsque des balises sont utilisées. Alors que les balises améliorent la recherche sur le site et la navigation des utilisateurs, les sites Web WP génèrent des pages de balises qui peuvent coïncider avec les noms de catégorie et représenter un contenu similaire à partir de l'aperçu de l'extrait d'article. La solution consiste à utiliser les balises à bon escient, en n'en ajoutant qu'un nombre limité. Ou vous pouvez ajouter un meta robots noindex dofollow sur les pages de balises.

Plusieurs types d'appareils

Si vous choisissez de diffuser une version mobile distincte de votre site Web et, en particulier, de générer des pages AMP pour la recherche mobile, vous pouvez avoir des doublons de ce type.

https://example.com/news/koala-rampage
https://m.example.com/news/koala-rampage
https://amp.example.com/news/koala-rampage

Pour indiquer qu'une page est un doublon, vous pouvez utiliser une balise <link> dans la section d'en-tête de votre code HTML. Pour les versions mobiles, ce sera la balise de lien avec la valeur rel="alternate", comme ceci :

<link rel="alternate" media="écran uniquement et (largeur maximale : 640 px)" href="http://m.example.com/dresses/green-dresses">

Il en va de même pour les pages AMP, (qui ne sont pas à la mode, mais peuvent tout de même être utilisées pour afficher des résultats mobiles.), Consultez notre guide sur la mise en œuvre des pages AMP .

Variantes de langue/région

Il existe différentes manières de présenter un contenu localisé . Lorsque vous présentez du contenu dans différentes variantes linguistiques/locales et que vous n'avez traduit que l'en-tête/le pied de page/la navigation du site, mais que le contenu reste dans la même langue, les URL seront traitées comme des doublons.

Configurez l'affichage de sites multilingues et multirégionaux à l'aide de balises hreflang , en ajoutant les codes de langue/région pris en charge dans les codes de réponse HTML, HTTP ou dans le plan du site.

Notez qu'en plus du balisage, vous pouvez fournir d'autres signaux de localisation pour les moteurs de recherche. Par exemple, si votre site est destiné à un magasin disposant d'un emplacement physique, renseignez votre profil d'entreprise Google .

Variantes de sous-domaine www/non-www

Les sites Web sont généralement disponibles avec et sans "www" dans le nom de domaine. Ce problème est assez courant et les utilisateurs renvoient à la fois aux versions www et non www. La résolution de ce problème vous aidera à empêcher les moteurs de recherche d'indexer deux versions d'un site Web. Bien qu'une telle indexation n'entraîne pas de pénalité, définir une version comme priorité est une bonne pratique.

Examiner les problèmes de sous-domaine et de protocole, ainsi que le contenu mixte des pages HTTP/HTTPS
Vérification des redirections de protocole et de sous-domaine avec WebSite Auditor
Télécharger WebSite Auditor

Problèmes de protocole HTTP/HTTPS

Google préfère HTTPS à HTTP, car le cryptage sécurisé est fortement recommandé pour la plupart des sites Web (en particulier lors des transactions et de la collecte d'informations sensibles sur les utilisateurs). Parfois, les webmasters sont confrontés à des problèmes techniques lors de l'installation de certificats SSL et de la configuration des versions HTTP/HTTPS du site Web. Si un site a un certificat SSL invalide (non fiable ou expiré), la plupart des navigateurs Web empêcheront les utilisateurs de visiter votre site en les informant d'une "connexion non sécurisée".

Note

Google a commencé à utiliser HTTPS comme signal de classement en 2014. Depuis lors, les migrations HTTPS sont devenues de plus en plus courantes. Aujourd'hui, selon Google Transparency Report , 95 % des sites Web de Google utilisent HTTPS. Si votre site n'est pas encore passé au HTTPS, vous devriez envisager une migration HTTPS. Si vous décidez d'opter pour la sécurité, n'hésitez pas à utiliser le cadre de l' étude de cas de notre propre migration vers HTTPS sur link-assistant.com.

Si les versions HTTP et HTTPS de votre site Web ne sont pas correctement définies, les deux peuvent être indexées par les moteurs de recherche et causer des problèmes de contenu en double qui peuvent nuire au classement de votre site Web.

Si votre site utilise déjà HTTPS (partiellement ou entièrement), il est important d'éliminer les problèmes HTTPS courants dans le cadre de l'audit de votre site SEO. Pensez notamment à vérifier les contenus mixtes dans la rubrique Audit du site > Encodage et facteurs techniques .

Des problèmes de contenu mixte surviennent lorsqu'une page autrement sécurisée charge une partie de son contenu (images, vidéos, scripts, fichiers CSS) via une connexion HTTP non sécurisée. Cela affaiblit la sécurité et peut empêcher les navigateurs de charger le contenu non sécurisé ou même la page entière.

Pour éviter ces problèmes, vous pouvez configurer et afficher la version primaire www ou non www de votre site dans le fichier .htaccess . Définissez également le domaine préféré dans Google Search Console et indiquez que les pages HTTPS sont canoniques.

Doublons de contenu

Une fois que vous contrôlez totalement le contenu de votre propre site Web, assurez - vous qu'il n'y a pas de doublons de titres, Website Auditor en -têtes, de descriptions, d'images, etc. tableau de bord. Les pages avec des titres en double et des balises de description méta sont susceptibles d'avoir également un contenu presque identique.

Examinez tous les titres et méta-descriptions en double
Trouvez tous les doublons sur l'ensemble du site dans la section sur la page de l'audit du site
Télécharger WebSite Auditor

Résumons comment nous découvrons et corrigeons les problèmes d'indexation. Si vous avez suivi tous les conseils ci-dessus, mais que certaines de vos pages ne figurent toujours pas dans l'index, voici un récapitulatif des raisons pour lesquelles cela a pu se produire :

  • La page est interdite par robots.txt
  • Il a été supprimé de l'index car il s'agit d'un doublon
  • Il est marqué comme sans importance via l'implémentation de rel="canonical"
  • Il est marqué comme noindex par les méta robots
  • Les moteurs de recherche le considèrent comme de mauvaise qualité (contenu dupliqué ou léger)
  • Réponse serveur incorrecte (le code de réponse est différent de 200)
  • Le crawler ne l'a pas encore découvert (c'est une nouvelle page, elle a été déplacée vers une nouvelle URL, elle est enfouie profondément dans la structure du site).

Note

Écoutez John Mueller pendant les heures de bureau SEO de Google expliquant les problèmes d'indexation . Pour faire court, parfois, même si vous avez tout fait correctement d'un point de vue technique, mais que vos nouvelles pages ne sont pas indexées, le problème fait probablement référence à la qualité globale du site Web.

Pourquoi une page est indexée alors qu'elle ne devrait pas l'être ?

N'oubliez pas que le blocage d'une page dans le fichier robots.txt et sa suppression du sitemap ne garantissent pas qu'elle ne sera pas indexée. Vous pouvez consulter notre guide détaillé sur la façon d'empêcher l'indexation correcte des pages .

Étape 3. Vérifiez la structure du site

Une architecture de site peu profonde et logique est importante pour les utilisateurs et les robots des moteurs de recherche. Une structure de site bien planifiée joue également un grand rôle dans son classement car :

  • Une navigation simple garantit que les utilisateurs peuvent facilement accéder à n'importe quel contenu.
  • La profondeur de clic, le menu, les vignettes, les liens de site et la pagination ont un impact sur la découvrabilité, c'est-à-dire l'efficacité avec laquelle les robots trouveront et analyseront vos pages.
  • Les liens internes permettent de répartir plus efficacement la puissance de classement (ce que l'on appelle le jus de lien) entre vos pages.
  • Des liens internes et des textes d'ancrage optimisés peuvent aider à créer une fonctionnalité de liens de site sur le SERP pour les requêtes pertinentes.


Lors de l'examen de la structure et des liens internes de vos sites, faites attention aux éléments suivants.

URL optimisées pour le référencement

Les URL optimisées sont cruciales pour deux raisons. Premièrement, c'est un facteur de classement mineur pour Google. Deuxièmement, les utilisateurs peuvent être déconcertés par des URL trop longues ou maladroites. En pensant à la structure de votre URL, respectez les bonnes pratiques suivantes :

  • Rendez les URL optimisées pour les mots clés.
  • Évitez de créer des URL trop longues.
  • Préférez les URL statiques aux URL dynamiques ; évitez les URL qui contiennent des caractères dynamiques tels que "?", "_" et des paramètres.
  • Utilisez des raccourcisseurs d'URL pour le partage sur les réseaux sociaux.

Vous pouvez vérifier vos URL dans la section Audit de site > URL de WebSite Auditor.

Découvrez les URL dynamiques et trop longues
Trouvez des URL peu conviviales pour le référencement dans la section URL de WebSite Editor
Télécharger WebSite Auditor

Maillage interne

Il existe de nombreux types de liens, certains d'entre eux sont plus ou moins bénéfiques pour le référencement de votre site Web. Par exemple, les liens contextuels dofollow transmettent le jus de lien et servent d'indicateur supplémentaire aux moteurs de recherche sur le sujet du lien. Les liens sont considérés comme étant de haute qualité lorsque (et cela concerne à la fois les liens internes et externes) :

  • Les liens partent du contexte pertinent.
  • Ils ont des textes d'ancrage diversifiés et optimisés pour les mots clés.
  • Ils proviennent de pages faisant autorité.

Les liens de navigation dans les en-têtes et les barres latérales sont également importants pour le référencement du site Web, car ils aident les utilisateurs et les moteurs de recherche à naviguer dans les pages.
D'autres liens peuvent n'avoir aucune valeur de classement ou même nuire à une autorité de site. Par exemple, des liens sortants massifs sur tout le site dans les modèles (que les modèles WP gratuits avaient beaucoup). Ce guide sur les types de liens dans le référencement explique comment créer des liens précieux de la bonne manière.

Vous pouvez utiliser l'outil WebSite Auditor pour examiner en profondeur les liens internes et leur qualité.

Pages orphelines

Les pages orphelines sont des pages non liées qui passent inaperçues et peuvent finalement disparaître de l'index de recherche. Pour rechercher des pages orphelines, accédez à Audit du site > Visualisation et examinez le plan du site visuel . Ici, vous verrez facilement toutes les pages non liées et les longues chaînes de redirection (les redirections 301 et 302 sont marquées en bleu).

Repérer les pages orphelines et les longues chaînes de redirection
Le plan de site visuel vous permet de repérer facilement les pages orphelines, les longues chaînes de redirection, etc.
Télécharger WebSite Auditor

Vous pouvez avoir un aperçu de l'ensemble de la structure du site, examiner le poids de ses pages principales - en vérifiant les pages vues (intégrées à partir de Google Analytics), le PageRank et le jus de lien qu'ils obtiennent des liens entrants et sortants. Vous pouvez ajouter et supprimer des liens et reconstruire le projet, en recalculant la proéminence de chaque page.

Examiner les liens internes par PageRank, les pages vues et la profondeur des clics
Examiner les liens internes et la force, les pages vues et la profondeur des clics de chaque page
Télécharger WebSite Auditor

Profondeur de clic

Lorsque vous auditez vos liens internes, vérifiez la profondeur des clics. Assurez-vous que les pages importantes de votre site ne sont pas à plus de trois clics de la page d'accueil. Un autre endroit pour examiner la profondeur des clics dans WebSite Auditor consiste à accéder à Structure du site > Pages . Triez ensuite les URL par profondeur de clic dans l'ordre décroissant en cliquant deux fois sur l'en-tête de la colonne.

Trouver des pages enfouies trop profondément dans la structure du site
Trier les pages avec la plus grande profondeur de clic dans une liste
Télécharger WebSite Auditor

Pagination

La pagination des pages de blog est nécessaire pour la découvrabilité par les moteurs de recherche, bien qu'elle augmente la profondeur des clics. Utilisez une structure simple avec une recherche de site exploitable pour permettre aux utilisateurs de trouver plus facilement n'importe quelle ressource.

Pour plus de détails, veuillez consulter notre guide détaillé sur la pagination optimisée pour le référencement .

Le fil d'Ariane est un type de balisage qui permet de créer des résultats de recherche riches, en affichant le chemin d'accès à la page dans la structure de votre site. Les fils d'Ariane apparaissent grâce à un bon maillage, avec des ancres optimisées sur les liens internes, et des données structurées correctement implémentées (nous nous attarderons sur ces dernières quelques paragraphes plus bas).

Fil d'Ariane dans les résultats de recherche
Les fils d'Ariane montrent le chemin d'accès à la page dans la structure du site

En fait, les liens internes peuvent affecter le classement de votre site et la façon dont chaque page est présentée dans la recherche. Pour en savoir plus, consultez notre guide SEO des stratégies de liens internes .

Étape 4. Testez la vitesse de chargement et l'expérience de la page

La vitesse du site et l'expérience de la page ont un impact direct sur les positions organiques. La réponse du serveur peut devenir un problème pour les performances du site lorsque trop d'utilisateurs le visitent à la fois. En ce qui concerne la vitesse de la page, Google s'attend à ce que le contenu de la plus grande page se charge dans la fenêtre d'affichage en 2,5 secondes ou moins, et récompense éventuellement les pages offrant de meilleurs résultats. C'est pourquoi la vitesse doit être testée et améliorée à la fois côté serveur et côté client.

Les tests de vitesse de chargement découvrent des problèmes côté serveur lorsque trop d'utilisateurs visitent un site Web simultanément. Bien que le problème soit lié aux paramètres du serveur, les référenceurs doivent en tenir compte avant de planifier des campagnes de référencement et de publicité à grande échelle. Testez la capacité maximale de chargement de votre serveur si vous vous attendez à une augmentation du nombre de visiteurs. Faites attention à la corrélation entre l'augmentation du nombre de visiteurs et le temps de réponse du serveur. Il existe des outils de test de charge qui vous permettent de simuler de nombreuses visites distribuées et de tester la capacité de votre serveur.

Côté serveur, l'une des métriques les plus importantes est la mesure TTFB , ou time to first byte . TTFB mesure la durée entre l'utilisateur effectuant une requête HTTP et le premier octet de la page reçu par le navigateur du client. Le temps de réponse du serveur affecte les performances de vos pages Web. L'audit TTFB échoue si le navigateur attend plus de 600 ms pour que le serveur réponde. Notez que le moyen le plus simple d'améliorer le TTFB est de passer de l'hébergement mutualisé à l'hébergement géré , car dans ce cas, vous aurez un serveur dédié pour votre site uniquement.

Par exemple, voici un test de page réalisé avec Geekflare — un outil gratuit pour vérifier les performances du site . Comme vous pouvez le constater, l'outil montre que le TTFB pour cette page dépasse 600 ms et doit donc être amélioré.

Le temps de la première bouchée est la mesure permettant de vérifier la vitesse de réponse du serveur
Tester la vitesse de la page

Du côté client, la vitesse de la page n'est pas une chose facile à mesurer, cependant, et Google a longtemps lutté avec cette métrique. Enfin, il est arrivé à Core Web Vitals - trois mesures conçues pour mesurer la vitesse perçue d'une page donnée. Ces métriques sont le LCP (Largest Contentful Pain), le First Input Delay (FID) et le Cumulative Layout Shift (CLS). Ils montrent les performances d'un site Web en termes de vitesse de chargement, d'interactivité et de stabilité visuelle de ses pages Web. Si vous avez besoin de plus de détails sur chaque métrique CWV, consultez notre guide sur Core Web Vitals .

Rapport Core Web Vitals dans la Search Console
Core Web Vitals dans Search Console affiche le nombre de pages avec un bon ou un mauvais score CWV

Récemment, les trois métriques Core Web Vitals ont été ajoutées à WebSite Auditor . Ainsi, si vous utilisez cet outil, vous pouvez voir chaque score de métrique, une liste des problèmes de vitesse de page sur votre site Web et une liste des pages ou des ressources affectées. Les données sont analysées via la clé API PageSpeed qui peut être générée gratuitement.

Vérification des éléments vitaux Web de base dans WebSite Auditor
Examen des problèmes de vitesse de page avec WebSite Auditor
Télécharger WebSite Auditor

L'avantage d'utiliser WebSite Auditor pour auditer CWV est que vous effectuez une vérification en bloc pour toutes les pages à la fois. Si vous voyez de nombreuses pages affectées par le même problème, il est probable que le problème concerne tout le site et puisse être résolu avec un seul correctif. Ce n'est donc pas autant de travail qu'il n'y paraît. Tout ce que vous avez à faire est de suivre les recommandations sur la droite, et la vitesse de votre page augmentera en un rien de temps.

Étape 5. Vérifiez la compatibilité mobile

De nos jours, le nombre de chercheurs mobiles dépasse celui des ordinateurs de bureau. En 2019, Google a mis en place l'indexation mobile d'abord , l'agent de smartphone explorant les sites Web avant le bureau de Googlebot. Ainsi, la convivialité mobile revêt une importance primordiale pour les classements organiques.

Remarquablement, il existe différentes approches pour créer des sites Web adaptés aux mobiles :

  • Design réactif ( recommandé par Google)
  • Service dynamique
  • Une version mobile distincte.

Les avantages et les inconvénients de chaque solution sont expliqués dans notre guide détaillé sur la façon de rendre votre site Web adapté aux mobiles . De plus, vous pouvez rafraîchir les pages AMP - bien que ce ne soit pas une technologie de pointe, cela fonctionne toujours bien pour certains types de pages, par exemple pour les actualités.

La convivialité mobile reste un facteur essentiel pour les sites Web servant une URL pour les ordinateurs de bureau et les mobiles. En outre, certains signaux d'utilisabilité, tels que l'absence d'interstitiels intrusifs, restent un facteur pertinent pour les classements sur ordinateur et sur mobile. C'est pourquoi les développeurs Web doivent garantir la meilleure expérience utilisateur sur tous les types d'appareils.

Comment vérifier si votre site est adapté aux mobiles

Le test adapté aux mobiles de Google comprend une sélection de critères d'utilisabilité, tels que la configuration de la fenêtre d'affichage, l'utilisation de plug-ins et la taille du texte et des éléments cliquables. Il est également important de se rappeler que la compatibilité mobile est évaluée sur une base de page, vous devez donc vérifier chacune de vos pages de destination pour la compatibilité mobile séparément, une à la fois.

Pour évaluer l'ensemble de votre site Web, passez à Google Search Console. Accédez à l'onglet Expérience et cliquez sur le rapport d'utilisabilité mobile pour afficher les statistiques de toutes vos pages. Sous le graphique, vous pouvez voir un tableau avec les problèmes les plus courants affectant vos pages mobiles. En cliquant sur n'importe quel problème sous le tableau de bord, vous obtiendrez une liste de toutes les URL concernées.

Vérification de l'utilisabilité mobile dans la console
Rapport d'utilisabilité mobile dans la Search Console

Les problèmes typiques de convivialité mobile sont :

  • Le texte est trop petit pour être lu
  • La fenêtre d'affichage n'est pas définie
  • Le contenu est plus large que l'écran
  • Les éléments cliquables sont trop rapprochés.

WebSite Auditor examine également la compatibilité mobile de la page d'accueil et signale les problèmes d'expérience utilisateur mobile. Accédez à Audit du site > Codage et facteurs techniques . L'outil indiquera si le site est adapté aux mobiles et répertoriera les problèmes, le cas échéant :

Vérification de la compatibilité mobile dans WebSite Auditor
Check-up mobile avec WebSite Auditor
Télécharger WebSite Auditor

Étape 6. Examinez les balises sur la page

Les signaux sur la page sont des facteurs de classement directs et, quelle que soit la qualité technique de votre site Web, vos pages n'apparaîtront jamais dans la recherche sans une optimisation appropriée des balises HTML . Votre objectif est donc de vérifier et de ranger les titres, les méta-descriptions et les en-têtes H1 à H3 de votre contenu sur votre site Web.

Le titre et la méta description sont utilisés par les moteurs de recherche pour former un extrait de résultat de recherche. Cet extrait est ce que les utilisateurs verront en premier, il affecte donc considérablement le taux de clics organiques .

Les titres, ainsi que les paragraphes, les listes à puces et d'autres éléments de structure de page Web, aident à créer des résultats de recherche riches dans Google. De plus, ils améliorent naturellement la lisibilité et l'interaction de l'utilisateur avec la page, ce qui peut servir de signal positif aux moteurs de recherche. Garder un œil sur:

  • Dupliquez les titres, les en-têtes et les descriptions sur tout le site — corrigez-les en écrivant des titres uniques pour chaque page.

  • Optimisation des titres, des en-têtes et des descriptions pour les moteurs de recherche (c'est-à-dire la longueur, les mots-clés, etc.)

  • Contenu mince - les pages avec peu de contenu ne seront presque jamais classées et peuvent même gâcher l'autorité du site (à cause de l'algorithme Panda), alors assurez-vous que vos pages couvrent le sujet en profondeur.

  • Optimisation des images et des fichiers multimédias — utilisez des formats optimisés pour le référencement, appliquez le lazy-loading, redimensionnez les fichiers pour les rendre plus légers, etc. Pour plus de détails, lisez notre guide sur l'optimisation des images .

WebSite Auditor peut vous aider beaucoup dans cette tâche. La section Structure du site > Audit du site vous permet de vérifier en bloc les problèmes de balises méta sur le site Web. Si vous avez besoin d'auditer le contenu d'une page individuelle plus en détail, accédez à la section Audit de page . L'application dispose également d'un outil d'écriture intégré Content Editor qui vous propose des suggestions sur la façon de réécrire des pages en fonction de vos principaux concurrents SERP. Vous pouvez modifier les pages en déplacement ou télécharger les recommandations en tant que tâche pour les rédacteurs.

Vérification des balises sur la page sur l'ensemble du site et page par page
Audit de contenu dans WebSite Auditor
Télécharger WebSite Auditor

Pour plus d'informations, lisez notre guide d'optimisation SEO sur la page .

Étape 7. Mettre en œuvre des données structurées

Les données structurées sont un balisage sémantique qui permet aux robots de recherche de mieux comprendre le contenu d'une page. Par exemple, si votre page contient une recette de tarte aux pommes, vous pouvez utiliser des données structurées pour indiquer à Google quel texte correspond aux ingrédients, quel est le temps de cuisson, le nombre de calories, etc. Google utilise le balisage pour créer des extraits enrichis pour vos pages dans les SERP.

Un résultat riche pour une recette formée avec la mise en place de données structurées
Extrait enrichi d'une recette déclenchée par Schema

Il existe deux normes populaires de données structurées, OpenGraph pour un beau partage sur les réseaux sociaux et Schema pour les moteurs de recherche. Les variantes de l'implémentation du balisage sont les suivantes : Microdata, RDFa et JSON-LD . Les microdonnées et RDFa sont ajoutés au code HTML de la page, tandis que JSON-LD est un code JavaScript. Ce dernier est recommandé par Google.

Si le type de contenu de votre page est l'un des mentionnés ci-dessous, le balisage est particulièrement recommandé :

  • FAQ réponses
  • Instructions pratiques
  • Recettes
  • Personne
  • Produit
  • Livres
  • Des articles
  • Entreprise locale
  • et plus

N'oubliez pas que la manipulation de données structurées peut entraîner des pénalités de la part des moteurs de recherche. Par exemple, le balisage ne doit pas décrire le contenu qui est caché aux utilisateurs (c'est-à-dire qui ne se trouve pas dans le HTML de la page). Testez votre balisage avec l' outil de test de données structurées avant la mise en œuvre.

Vous pouvez également vérifier votre balisage dans Google Search Console sous l'onglet Améliorations . GSC affichera les améliorations que vous avez essayé de mettre en œuvre sur votre site Web et vous dira si vous avez réussi.

Vérification des résultats enrichis dans la Search Console
Consultez l'onglet Améliorations dans la Search Console

WebSite Auditor peut également vous aider ici. L'outil peut passer en revue toutes vos pages et montrer la présence de données structurées sur une page, son type, ses titres, ses descriptions et les URL des fichiers OpenGraph.

Vérification des données structurées dans WebSite Auditor
Vérification des données structurées dans WebSite Auditor
Télécharger WebSite Auditor

Si vous n'avez pas encore implémenté le Schema Markup, consultez ce guide SEO sur les données structurées . Notez que si votre site Web utilise un CMS, les données structurées peuvent être implémentées par défaut, ou vous pouvez les ajouter en installant un plugin (n'abusez pas des plugins de toute façon).

Étape 8. Demandez à Google de réexplorer votre site

Une fois que vous avez audité votre site Web et corrigé tous les problèmes découverts, vous pouvez demander à Google de réexplorer vos pages pour lui permettre de voir les modifications plus rapidement.
Dans Google Search Console, soumettez l'URL mise à jour à l'outil d'inspection d'URL et cliquez sur Demander l'indexation . Vous pouvez également tirer parti de la fonctionnalité Tester l'URL en direct (anciennement connue sous le nom de fonctionnalité Explorer comme Google ) pour voir votre page dans sa forme actuelle, puis demander l'indexation.

Demander l'indexation d'une URL mise à jour dans la Search Console
Envoi d'une page pour recrawl dans Google

L'outil d'inspection d'URL permet d'étendre le rapport pour plus de détails, de tester les URL en direct et de demander l'indexation.

Gardez à l'esprit que vous n'avez pas besoin de forcer la nouvelle exploration chaque fois que vous modifiez quelque chose sur votre site Web. Envisagez de réexplorer si les changements sont sérieux : par exemple, vous avez déplacé votre site de http à https, ajouté des données structurées ou effectué une excellente optimisation du contenu, publié un article de blog urgent que vous souhaitez afficher plus rapidement sur Google, etc. Notez que Google a une limite sur le nombre d'actions de recrawl par mois, alors n'en abusez pas. De plus, la plupart des CMS soumettent les modifications à Google dès que vous les apportez, vous ne pouvez donc pas vous soucier de réexplorer si vous utilisez un CMS (comme Shopify ou WordPress).

Le recrawling peut prendre de quelques jours à plusieurs semaines, selon la fréquence à laquelle le crawler visite les pages. Demander une nouvelle exploration plusieurs fois n'accélérera pas le processus. Si vous devez réexplorer une quantité massive d'URL, soumettez un sitemap au lieu d'ajouter manuellement chaque URL à l'outil d'inspection d'URL.

La même option est disponible dans Bing Webmaster Tools. Choisissez simplement la section Configurer mon site dans votre tableau de bord et cliquez sur Soumettre les URL . Remplissez l'URL que vous devez réindexer et Bing l'explorera en quelques minutes. L'outil permet aux webmasters de soumettre jusqu'à 10 000 URL par jour pour la plupart des sites.

Étape 9. Auditez régulièrement votre site

Beaucoup de choses peuvent se produire sur le Web, et la plupart d'entre elles sont susceptibles d'affecter votre classement plus ou moins bien. C'est pourquoi des audits techniques réguliers de votre site Web devraient être un élément essentiel de votre stratégie de référencement.

Par exemple, vous pouvez automatiser les audits SEO techniques dans WebSite Auditor . Il vous suffit de créer une tâche de reconstruction du projet et de définir les paramètres de planification (par exemple, une fois par mois) pour que votre site Web soit automatiquement réexaminé par l'outil et obtenir les nouvelles données.

Si vous avez besoin de partager les résultats de l'audit avec vos clients ou collègues, choisissez l'un des modèles de rapport SEO téléchargeables de WebSite Auditor ou créez-en un personnalisé.

Modèle de rapport d'audit de site technique dans WebSite Auditor
Personnalisez le modèle pour un audit technique régulier du site, en ajoutant des problèmes particuliers que vous souhaitez suivre
Télécharger WebSite Auditor

Le modèle d'audit de site (résumé) est idéal pour les éditeurs de sites Web pour voir l'étendue du travail d'optimisation à effectuer. Le modèle d'audit de site (détails) est plus explicatif, décrivant chaque problème et pourquoi il est important de le résoudre. Dans Website Auditor, vous pouvez personnaliser le rapport d'audit du site pour obtenir les données dont vous avez besoin pour surveiller régulièrement (indexation, liens brisés, sur la page, etc.). Ensuite, exportez au format CSV/PDF ou copiez-collez toutes les données dans une feuille de calcul à portée de main aux développeurs pour les correctifs.

Liste de contrôle d'audit SEO technique

Télécharger le PDF

De plus, vous pouvez obtenir une liste complète des problèmes techniques de référencement sur n'importe quel site Web rassemblés automatiquement dans un rapport d'audit de site dans notre auditeur de site Web. En plus de cela, un rapport détaillé fournira des explications sur chaque problème et comment le résoudre.

Ce sont les étapes de base d'un audit technique régulier du site. J'espère que le guide décrit au mieux les outils dont vous avez besoin pour effectuer un audit de site approfondi, les aspects SEO à prendre en compte et les mesures préventives à prendre pour maintenir une bonne santé SEO de votre site Web.

Questions fréquemment posées:

Qu'est-ce que le SEO technique ?

Le référencement technique traite de l'optimisation des aspects techniques d'un site Web qui aident les robots de recherche à accéder plus efficacement à vos pages. Le référencement technique couvre l'exploration, l'indexation, les problèmes côté serveur, l'expérience de la page, la génération de balises méta, la structure du site.

Comment mener un audit SEO technique ?

L'audit SEO technique commence par la collecte de toutes les URL et l'analyse de la structure globale de votre site Web. Ensuite, vous vérifiez l'accessibilité des pages, la vitesse de chargement, les balises, les détails sur la page, etc. Les outils techniques d'audit SEO vont des outils gratuits pour les webmasters aux araignées SEO, aux analyseurs de fichiers journaux, etc.

Quand dois-je auditer mon site ?

Les audits SEO techniques peuvent poursuivre différents objectifs. Vous voudrez peut-être auditer un site Web avant son lancement ou pendant le processus d'optimisation en cours. Dans d'autres cas, vous pouvez mettre en œuvre des migrations de sites ou vouloir lever les sanctions de Google. Pour chaque cas, l'étendue et les méthodes des audits techniques seront différentes.

Article stats:
Linking websites N/A
Backlinks N/A
InLink Rank N/A
Données de: outil de vérification des backlinks.
Vous avez des questions ou des commentaires ?
Huge SEO PowerSuite sale is coming SEPTEMBER 24-26 SEP 24-26