Comment faire un Audit SEO en 2022 ?

Optimisez rapidement vos performances en demandant un audit seo ou en apprenant à le faire vous même dans le tutoriel ci après.

 

Le référencement google a changé et les audits seo aussi. Une approche technique complète, une arborescence de page et des contenus qui accrochent vos clients sont la base d'un bon site internet en 2020. Sur des secteurs fortement concurrentiels, un bon site est indissociable de puissance et d'autorité. On parle alors de popularité, d'Autorité du nom de domaine et de backlinks. Le principe est simple, plus vous avez d'autorité, plus vous avez des positions dans le top 3 de Google.

 Ensuite, nous vous proposerons un suivi de type coaching de vos webmasters afin de vous accompagner dans votre dynamique de communication avec des actions de référencement payant (publicités Google ou Facebook), affiliations / partenariats, blogging, newsletter, netlinking, calendrier promotionnel...

Pourquoi faire un Audit SEO ?

Vous avez un site internet e-commerce, mais vous ne générez aucune vente / aucune demande de devis, aucun contact ? Vous n’apparaissez pas dans les résultats de Google ? On vous trouve sur votre nom de marque mais aucun mot clef générique ?

C’est  bien d’avoir un site, c'est encore mieux d'avoir des visiteurs qualifiés !

Au-delà de quelques conseils de base qui ne sont pas évidents pour tous

Ca ne sert à rien de remplir votre balise title de keywords, non on ne ranke pas sur des pages vides, oui il vous faut des contenus de qualité, il est inutile de répéter le même mot-clef des dizaines de fois dans votre texte)

Seul une analyse technique et sémantique approfondie de votre site peut mettre en évidence certains facteurs bloquants pour votre référencement naturel ou à l'inverse vous permettre de déployer du bon contenu pour faire rencontrer votre offre de vos produits ou services avec la demande.

223 clics depuis Google en 6 mois, c'est une vraie problématique à traiter !

Voici les métriques d'une startup à J+1an positionnée dans les voyages sportifs qui réalise près de 200K€

Comment bien analyser son site internet ?

Un audit SEO est une approche claire, synthétique et précise dont l'objectif est de mettre en place une stratégie seo efficace à court, moyen et long terme. Nous ne pratiquons pas l'"audit au kilo" en livrant 200 recommandations, nous allons au contraire pointer les 5 ou 10 points clés qui vont permettre la mise en oeuvre de résultats rapides.

Évolutions de l'audit SEO et de Google

En plus de 20 ans, Google a beaucoup évolué. De nombreuses mises à jour pour arriver à comprendre le contenu et absorber un nombre grandissant à puissance exponentielles de sites internet. En 2013, Google a passé un cap dans la recherche de l'identification "un contenu de qualité", il s'est mis à chercher à répondre aux intentions des internautes, à développer les recherches vocales et conversationnelles à revaloriser des contenus synthétiques mais très qualitatifs. L'ère post 2013 est marqué le machine learning, il s'agit de la mise à jour nommée "rank brain" qui comme son nom l'indique cherche à apprendre des comportements des internautes et fait des test, comme nous, les consultants SEO, nous le testons.

Avant 2013, les analyse étaient simples

L'audit s’attache à mettre en lumière les éléments qui permettent l'acquisition de trafic pour votre site internet. Autrefois, on limitait les audits à ces trois points dans l’audit :

  • Diagnostic technique, où il sera question du nom de domaine, du serveur, de l’optimisation et du code HTML, CSS, Javascript…. Autrefois, on identifiait les facteurs néfastes ou bloquants, aujourd'hui on cherche plutôt à obtenir de bonnes performances sur mobile, des extraits de texte enrichis et à optimiser le budget crawl. Cette étape concerne les sites de plusieurs centaines de pages.
  • Mots clés, contenu et cocon sémantique, où l’on traitera des mots clés, des architectures de pages, des balises méta titles, méta description, du balisage (H1, H2…). On s’intéresse ici aux contenus des pages : textes, images, vidéos...
  • Popularité, ou netlinking, où l’on analysera les liens entrants vers son site. Si vous lancez votre site, ou êtes une start up, nous vous allons vous aider à vous intégrer à un écosystème qui va booster vos performances. Si au contraire, vous en avez déjà beaucoup, on peut corriger et optimiser cela.

    Des sites e-commerce importants demandent une grande expertise seo et un audit plus poussé

Après 2013, les analyses deviennent plus complexes

SXO, l'importance du parcours client

Ux - User eXperience + SEO = SXO, ce qui signifie que le parcours client est un critère important dans la construction d'un site et dans les résultats de Google.

Analyse de la compétition SEO Google

Les informations recueillies grâce à une étude de la concurrence, un benchmark concurrentiel,  aident à mieux comprendre le marché et à dresser un tableau des lacunes et des possibilités en matière de SEO. L'avantage final est de comprendre le niveau de la compétition: niveau de performance technique, quantité et qualité du contenu, quantité et qualité des backlink et de mettre en œuvre intelligemment votre planification stratégique.

On reproduit l'audit de votre site sur un échantillon de sites qui sont positionnés dans le top 10 de la requête visée. Puis on se sert généralement du "keyword competition checker de seobserver" pour comparer l'autorité des noms de doaines présent dans le serp et le comparer au votre.

Audit Performance E-commerce

Nous sommes capable d'analyser vos performances de ventes, les profils de votre clientèle ainsi que vos leviers d'acquisition. De l'audit de départ, jusqu'au tracking précis de chacun des canaux, nous sommes capable de vous suivre durablement sur des aspects spécifiques à l'e-commerce grâce à une première approche généraliste et la mise en œuvre des recommandations par notre réseau de spécialistes.

1. Audit SEO technique

Aussi primordiale qu’obligatoire, l’analyse de l’aspect technique d’un site va déjà vous permettre de mieux cerner son écosystème, à commencer par l'indexation de votre arborescence de pages et les performances web de votre site web en général.

Quel est l'objectif de l'audit seo ?

C'est assez simple, on veut que l'internaute et Google soient satisfaits. Comment fait-on ? L'objectif de l'audit seo google est de faciliter le travail de son crawler Google Bot et d'améliorer l'UX, l'experience utilisateur. Le comportement des internautes dans le SERP, les résultats de Google est sans aucun doute pris en compte dans l’algorithme de Google. En théorie, c'est très simple, en pratique, faut être méthodique et complet.

Googlebot est comme un internaute : binaire ! Si c'est pas simple, c'est compliqué. Si c'est compliqué, il en veut pas...

Des généralités sur le fonctionnement d'internet et des sites web

Qu'est ce qu'un site Internet ?

L'anatomie d'un site internet est semblable à celle d'un humain : un squelette, des muscles et organes, un visage et la peau. Un site web, c'est pareil,

  1. le squelette est l'arborescence de pages : nom de domaine et URL
  2. les muscles et les organes, sont le contenant et le périmètre fonctionnel, généralement des fichiers .php et une base de données qui génèrent...
  3. le visage et la peau qui est une interface en .html

Comment fonctionne un site web ?

Un site web est un ensemble de contenus multimédia (texte, images, video, pdf...) mis en forme par du code informatique issu de langages et framework très différents php, ruby, python... on appelle cela le contenant. Il s'affiche selon des templates de page et propose un ensemble de fonction que l'on appelle le périmètre fonctionnel. On l'identifie dans le "Word Wide Web" grâce à une adresse ip qui prend la forme "human friendly" d'un nom de domaine, de laquelle découle un ensemble d'adresses : les URL pour Uniform Resource Locator, littéralement « localisateur uniforme de ressource ». Que l'on apprécie quand elle sont "human et seo friendly", aussi. L'ensemble des contenus est stocké sur un serveur, qui est ni plus ni moins qu'un ordinateur.

Vous pouvez héberger un site chez vous sur votre ordinateur ou sur un plus gros ordinateur, un serveur qui est lui même dans une "salle blanche" sécurisée dans un data center. Pourquoi préférer un data center ? Car  ils sont souvent localiser près des backbones, colonnes vertébrales des réseaux de télécommunication numériques... alors  que votre ordi a peut être encore un boitier 56Ko dans votre maison de campagne et que la gestion de serveurs, c'est un métier.

Comment tout cela communique ?

Vous avez saisi l'anatomie, maintenant vous pouvez comprendre la dynamique, le "système nerveux".  Les protocoles de communication sont les règles qui définissent le format de transmission des informations d'un ordinateur à l'autre. L'Hypertext Transfer Protocol (HTTP, littéralement « protocole de transfert hypertexte ») est un protocole de communication client-serveur développé pour le World Wide Web. HTTPS (avec S pour secured, soit « sécurisé ») est la variante du HTTP sécurisée par l'usage des protocoles SSL ou TLS.

Au niveau du nom de domaine et du serveur cela se passe dans les DNS. Le Domain Name System, généralement abrégé DNS, qu'on peut traduire en « système de noms de domaine », est le service informatique distribué utilisé pour traduire les noms de domaine Internet en adresse IP ou autres enregistrements. En fournissant dès les premières années d'Internet, autour de 1985, un service distribué de résolution de noms, le DNS a été un composant essentiel du développement du réseau.

Quelle est la particularité d' un site e-commerce ?

Le site d'e-commerce est simplement un site internet avec un terminal de paiement. Simpliste mais tellement vrai. Toute la particularité et la complexité de la gestion du tunnel de vente, de la fiche produit à la page "merci pour votre commande" fait des sites e-commerce un site à part entière. Sans compté ses typologies multiples, ses problématiques spécifiques et les forts enjeux que celui ci représente.

Il n'y a cependant parfois une importante différence entre un site e-business de type catalogue immobilier qui génère 5 millions d'euros de chiffre d'affaires annuel et un site e-commerce de vente de dragées et accessoires de mariage qui fait aussi 5 millions d'euros de Chiffre d'Affaire, c'est la technologie.

Tous deux peuvent avoir été développé "from scratch", en démarrant d'une page blanche ou à l'aide de framework : phython, symfony... ou des CMS, dont l'on ne touche jamais au "coeur" : woocommerce, prestashop, magento...

Les étapes d'analyse à suivre :

1. Le nom de domaine :

On va vérifier son âge : plus il est ancien, mieux c’est. Google va en effet lui donner plus d'autorité. Un domaine exploité il y a 20 ans aura plus de poids qu’un nom de domaine à peine lancé.  Pour vérifier cela, rendez-vous sur Whois.

2.Redirections du nom de domaine

Avec le HTTP, HTTPS, WWW et sans WWW, vous êtes susceptible d'avoir un nom de domaine dupliqué 4 fois. Ce qui divise par 4 la puissance du site ! C'est un problème très courrant et la solution est simple, demandez à votre webmaster d'effectuez les redirections dans le fichier .htaccess . Cela doit être des redirections 301.

Vous pouvez vérifier cela avec cet outil pour vérifier les entêtes http. Ces entêtes donnent souvent d'autres indications pour optimiser les performances comme le passage en http2, ou pour corriger des redirections d'autres noms de domaines mal faîtes lors de migrations hasardeuses...

3. Le serveur : hébergement d'un site web

L'hébergement est un métier, nous n'aurons pas besoin des mêmes ressources pour un petit wordpress avec une dizaine de visiteurs / jours ou un e-commerce magento qui connait des pics de connexions à 300 000 Visiteurs / jour... Les paramétrages serveurs sont primordiaux. Votre consultant seo audite l'ensemble des critères qui vont impacter son référencement. Les deux principaux :

- la localisation géographique

Si votre site est français et vise la France, il est logique que votre serveur soit en France. Il peut éventuellement être physiquement à l'étranger et avoir une IP Française et bénéficier de CDN, des hébergements déportés... de nombreux cas de figures sont possibles, surtout à l'international. Par exemple, il est courant qu'en polynésie, les sites soient hébergés aux USA, si c’est le standard, il est recommandé de le respecter. Trouvez ici votre Ip

- Deuxième point : les domaines voisins

On distingue deux types de serveurs, les mutualisés (vous partagez le serveur) et les dédiés (vous êtes tout seul chez-vous). L’idéal, c’est d’avoir un serveur dédié, mais ça coûte 10 fois plus cher en moyenne. Avec un serveur mutualisé, vous partagez vos ressources, et en particulier une adresse IP avec d’autres sites, sans connaitre leur activité : spammeur, adulte... Vous pouvez utiliser yougetsignal pour identifier les sites qui partage votre IP.

Avoir un serveur pas cher c'est bien. Partager une ip avec 999 autres sites peu recommandable comme 01sex.tv l'est moins.
Le risque est important si on génère des revenus. Une solution passer sur une solution professionnelle !

4. Le temps de chargement des pages.

Plus un site est rapide, mieux c’est, si votre site est trop lent, l'internaute et Google risquent de le déprécier. On va généralement identifier les 3 facteurs principaux :

- templates de site désuet qui charge très bien sur ordinateur et beaucoup moins sur mobile: cf. Google Page Speed Insight

- ressources nombreuses : Javascripts, CSS, html, non compressées ou encore trop de ressources externes : analytics, mailchimp, facebook... cf. Webpagetest

- poids des images, elle sont trop lourdes: en général on construit un site pour mobile et ecran standard avec un template de 1100pixels de large. La résolution d'un écran etant invariablement de 72 pixels, inutiles d'utiliser des images avec une résolution de 300ppp et de 5000 x 2000pixels. cf. GTMetrix qui fourni même des images recompressées d’améliorations claires et explicites.

5. .Htaccess et Robots.txt, sitemap.xml

Le sitemap.xml, ne pas confondre avec un sitemal en html, est la table des matières du livre "Votre Site internet", il permet aux robots crawlers et aux moteurs de recherche d’avoir une vue immédiate de l’ensemble du site. Ce fichier doit être mis à jour automatiquement car son intéret réside dans la sa capacité à donner à google une fréquence de passage afin de crawler les nouveaux contenus.

Son rôle est simplement de faciliter le crawl de nouvelles pages. Sur les sites d'une dizaine de page dont le contenu ne bouge pas, il ne va pas vous aider à avoir un meilleur référencement. Vous pouvez même ne pas en avoir.

Le robots.txt il autorise ou pas le passage de certains robots par rapports à d'autres. Jusqu'à 2019, il permettait de bloquer l'indexation de certaines pages, maintenant Google a pris tous les droits... pour bloquer les pages, il faut les obfusquer et utiliser une balise « noindex » dans l’entête HTTP de votre page.

On peut bloquer tous les robots dans le fichier robots.txt mais ce n'est pas recommandé. En bloquer seulement certains permet d'optimiser ses performances.

Le .htaccess est la pierre angulaire de votre seo. Il donne des directives serveur et permet notamment la re écriture des urls "seo friendly", la mise en place d 'url canonical pour éviter les contenus dupliqués, les redirections 301 (redirection permanente), 302 (redirection temporaire), 403 (quand on s'est fait spammé par injection d'url), 503 (quand on veut pas lui montrer son contenu)... et même vous renvoyer chez votre mère si vous faîtes une erreur, soit un code HTTP 504 = le serveur ne répond plus... sachez maitriser ce que vous faîte avec de faire ça sur un site en production !

6. Architecture base et multilingue

C'est pas une page Mentions légales ou une 404 qui va faire votre référencement mais on va vous demander de respecter les standards.

C'est tellement courant de voir de vrais sites moins bien fait que des faux !

Si vous on peut taper n’importe quoi après la racine de votre nom de domaine, comme monsite.fr/sqkfjnhsdnf, si rien ne se passe ou que vous n'êtes redirigé sur la page d’accueil, c'est que vous n’avez pas de page 404.
Sur les sites multilingues développés sur mesure, il n'est pas rare de voir qu'il n'y a pas de correspondance entre les pages en Langue 1 et en Langue 2.

L'usage des balises hreflang qui donnent les correspondances entre pages et permettent de cibler une langue et un pays est fortement recommandé cf. Google Support : Hreflang
Ex.

href="http://en-gb.example.com/page.html" />

href="http://en-us.example.com/page.html" />

href="http://en.example.com/page.html" />

href="http://de.example.com/page.html" />

href="http://www.example.com/" />

7. Erreurs dans le code source et erreurs 404.

On va vérifier que votre site n’est pas truffé d'erreur. Pour ce faire, rendez-vous sur le W3C Validator. Ensuite, on va passer le site sur différents crawlers de type Xenu (gratuit) ou screamingfrog (gratuit avec une limite payante).

Peu d'erreurs = rien de grave. Si vous avez bcp d'erreurs, contactez votre développeur et demandez lui de corriger.

Note: Les 404 se corrigent à l'intérieur même des pages. On les voit trop souvent se contenter de faire des redirections.

8. Encore plusieurs dizaines de paramètres à ausculter...

...pour trouver si ça grattouille ou si ça chatouille.... vous l'avez compris, l'audit permet de trouver les problèmes d'indexation et de faciliter le travail le travail de récolte de vos datas par Google Bot, le crawler de Google.

Après avoir récupérer les datas, il doit les interprète et on arrive sur un sujet plus sexy. Un sujet qui se renouvelle sans cesse tant dans le fond que dans la forme : le contenu de vos pages !

2. Audit de Contenu

Toute aussi importante que la partie technique, la partie contenu s’attache aux différents médias de votre site et à l'arborescence de pages. La technique, ce sont les fondations et les murs de votre maison ; le contenu: le style, les meubles, la déco et tout le reste...

Si vous voulez plaire à Google, il va falloir d'abord plaire aux internautes. C'est ça le nouveau paradigme du machine learning de Google : après avoir réussi à comprendre le contenu, il essaie de comprendre les utilisateurs et leurs intentions !

1. Indexation de vos pages

Votre site a-t-il bien été indexé par Google ? Autrement dit, a-t-il bien répertorié toutes vos pages ? On peut le vérifier facilement via la commande site: du célèbre moteur de recherche. Il vous suffit de taper site:monsite.fr et vous aurez aussitôt une liste de toutes les pages indexées. Si vous avez un site de 900 pages et qu’il vous retourne 10 résultats, vous avez un problème lié au contenu ou à la technique.

Pour connaître le nombre de pages précis de votre site, vous pouvez consulter la Google Search console mais vous devez aussi le crawler, c’est-à-dire utiliser un petit logiciel qui va répertorier et vous afficher toutes vos pages. Citons les deux plus connus : ScreamingFrog (attention, limité à 500 URL – si vous en avez davantage, passez à la version payante) et Xenu (pas de fioriture sur le design, il est gratuit et super efficace).

Vous pourrez ainsi vérifier que vous n’avez pas trop d’erreurs 404 (cela signifie page indisponible – avez-vous pensé à les rediriger (301) vers une page similaire ?) et que vos URL ont été réécrites à l’aide de mots-clefs et nonen version brute de ddécoffrage comme monsite.fr/dslkfjdsfjdkgh-01214564.php.

 

2. Balises Meta Titles

Une balise Title, c’est le titre de votre page HTML – celui qui s’affiche dans les résultats de recherche, ou encore le texte qui s’affiche dans l’onglet de votre navigateur.

Écrire une meta Title impactante, c’est un vrai exercice délicat et souvent difficile, que l'on peut aussi A/B tester !

En principe, elle ne doit pas dépasser 70 caractères (mais Google prend quand même en compte les titles plus longues), contenir des mots-clefs pertinents (les plus importants en premier) et, dans le même temps, donner envie de cliquer aux gens. Si vous avez besoin de visualiser vos meta title dans les résultats de recherche, utilisez Google SERP Snippet Optimizer.

 

3. Balise méta description.

La balise meta description, c’est celle qui s’affiche en-dessous de votre title, soit la description du résultat de recherche. Il se dit qu'elle n'a pas d'importance et si on la remplie pas, google va chercher le smots clés tapés par l'internaute dans le contenu de la page, ce qui peut être informatable car "mal servi" par Google.  On recommande donc une meta description unique avec des mots clés et un texte accrocheur posant votre concept. Autrefois elle ne devait pas dépasser 156 caractères. Aujourd'hui on est passé à 360.

 

4. Balise meta keyword

Elle ne sert plus à rien. Autrefois quand il y a avait peu de sites, il y a 20ans les SEO la remplissaient pour remonter facilement dans le classement, mais ça ne fonctionne plus. Si vous voyez des meta keyword remplies sur votre site ne perdez pas de temps là dessus.

 

5. Balisage sémantique

Le balisage sémantique désigne la manière dont sont structurés les textes, à l’aide de balises h1, h2, h3... D’ailleurs, ce texte est balisé avec des Hn. Dans l’idéal, chaque page devrait comporter du texte (250-300 mots) et balisé avec des expressions-clefs pertinentes (celles sur lesquelles vous souhaitez vous positionner par exemple !).

Si votre page parle de "surf", et que votre h1 (la balise la plus importante) est « C’est si bon », c’est zéro pour votre référencement. On confond souvent le Titre et le slogan.

Pour rappel : une seule H1, plusieurs H2 et plusieurs H3. Si vous voyez plusieurs H1 sur votre page, ça ne va pas vous pénaliser, mais vous diluez la force des mots-clefs que vous y avez inclus. De même, une H2 sur « Mon panier » n’a rien à faire là : elle ne véhicule aucune valeur sémantique. Pour voir rapidement le balisage d’une page, vous pouvez installer l’extension Web Developer sur Chrome ou firefox.

6 Mise en forme des textes

Le texte est-il formaté et mis en valeur sur le site ? Avec du gras (), des citations, de l'italique... La mise en gras d'expressions clefs dans votre texte permet la lecture en diagonale de vos textes et donc une conpréhension globale... les moteurs de recherche les voient aussi. Quant aux pages vides, c’est-à-dire sans texte, elles sont à proscrire !

 

7. Texte caché en blanc sur fond blanc

Si du texte est dissimulé à l’internaute, par quelque moyen que ce soit, c’est du cloaking.  Une pénalité est possible.

 

8. Duplication de contenus

du contenu texte est-il dupliqué ? Pour le savoir, prenez un petit paragraphe, copiez-le, et recherchez-le dans Google. Si le même texte se trouve sur un ou plusieurs autres sites, bravo, votre site est dupliqué ! La duplication est pénalisante – contactez vite ces sites pour faire retirer ces contenus. Pour rappel, chaque texte doit être unique, original et personnalisé. Et même si vous reprenez une phrase et la reformulez en changeant quelques bouts, ça s’appelle du near duplicate – et c’est repéré aussi !

9 Identification des Images

La balise alt est aussi peu importante que les keywords. Ne perdez pas de temps dessus. Le contexte de la photo déterminera sa nature. C'est comme ça que l'on se retrouve avec la photo d'adriana Karambeu dan sles résultats de la requete "Pizza aux Anchois"

 

Les balises sur les images n'influent plus sur les résultats de Google Image, seul le contexte compte !

10 Arborescence et structure d'url

Dans cette partie, on vérifie que le site bénéficie bien d’une arborescence (par exemple, monsite.fr/categorie1/sous-categorie1/page1.html). Il arrive fréquemment que l'on reprenne intégralement des sites fraichement livrés afin de revoir la structure avec des URL propres et ordonnées. Autrefois, on vérifiait ensuite le niveau de clics pour accéder aux informations avec un maximum de 3. Aujourd'hui on des stratégies plus élaborées et des structure plus complexes comme avec des cocon sémantiques construit sur 4 niveaux de contenu, de qualité différente et d'autres pages profondes, importantes mais hors navigation principale.

11 Maillage interne.

Il est bon de vérifier les liens internes de votre site. Sont-ils correctement écrits (en mon mots clés ?). Tous les liens peu importants (vers les mentions légales, les crédits, le panier d’achat, les réseaux sociaux…) peuvent être obfusqués, c’est-à-dire que vous empêchez votre site de leur transmettre de l’autorité. Facebook n’en a vraiment pas besoin, rassurez-vous.

12 Position O, PAA -People Also Ask et Knowledge graph

Ces basiques d'avant 2013 étant vu, maintenant il faut s'accorder avec les dernières mises à jour de Google relatives au machine learning, rankbrain. Pour prendre des requêtes concurrentielles, il faut s'accorder aux standards d'aujourd'hui :

On sait depuis longtemps que les internautes apprécient des requêtes longues et posent des questions. C'est ce que l'on appelle aujourd'hui la recherche vocale et conversationnelle "Bonjour Google, quel temps fait-il aujourd'hui ?". L'avènement de l'utilisation du mobile et de l'indexation des sites en "mobile first" a révolutionné le SEO.

Le référencement c'est simple ou vous en tirez profit, où ce sera quelqu'un d'autres !

13 Micro datas

Vos pages web ont une signification sous-jacente que les gens comprennent lorsqu'ils les lisent. Mais les moteurs de recherche ont une compréhension limitée de ce qui est discuté sur ces pages. En ajoutant des balises supplémentaires au HTML de vos pages web - des balises qui disent : "Hey moteur de recherche, cette information décrit ce film, ou lieu, ou personne, ou vidéo spécifique" - vous pouvez aider les moteurs de recherche et autres applications à mieux comprendre votre contenu et à l'afficher d'une manière utile et pertinente. Les microdonnées sont un ensemble de balises, introduites avec HTML5, qui vous permet de le faire. En savoir plus sur schema.org. Consultez nous pour vous aidez à être plus cliquable dans les SERPs Google

14 Cocon sémantique et EAT - Expertise Autorité confiance

Cette technique de référencement complète et durable s'articule autour d'un contenu de qualité qui couvre le tryptique : expertise, autorité, confiance et est la seulement technique complète combinant une approche seo technique, marketing et commerciale. Ses domaines d'application vont du simple site de quelques pages à des e-commerces de quelques centaines de pages ou des portails immobilier de plusieurs dizaines de milliers de pages. Nous pouvons vous aider à construire un cocon sémantique

 

 

 

Audit de Popularité et de Netlinking

En comparaison des deux parties précédentes, le linking sera assez concis car il fait l'objet d'un service à part entière. La partie technique, c'est la structure porteuse de votre maison. La partie sémantique, le style, les meubles et la déco. Le linking, c'est la puissance, la taille de la maison. C'est par le linking que l'on mesure l'autorité du nom de domaine.

Internet est formé d’agrégats. Si votre site fait parti des sites d'autorités, vous serez positionné comme tel !

Schéma extrait du site l'Atelier cartographie, de Franck Ghitalla

Des des hyperliens de toutes sortes, permettent de sortir du deep web pour vous hisser dans un agrégats de sites d'autorité. De nombreuses sont à respecter et ce n'est pas un travail d'amateur car Google veut de la qualité et la qualité c'est très subjectifs. On pouvez faire des erreurs qui vous font disparaitre de Google.

Différents outils existent pour l’analyse des liens, le plus connu étant Ahref. Mais vous avez également OpenLinkProfiler, WebMeUp, ou encore Majestic SEO.

La Structure du web par Franck Ghitalla, pour un article sur le dark web

Vous pouvez retrouver plus d'infos sur le netlinking dans cette page.

 

FAQ: Toutes les questions que vous vous posez

Les réseaux sociaux ont-il un impact sur mon seo ?

Oui, un buzz dans facebook, ou des epingles partagées régulièrement sur pinterest vont stimuler vos positions dans Google. Les réseaux sociaux font clairement parti de l'écosystème liée au netlinking.

Pourquoi le parcours client influence les positions Google ?

Un contenu écrit pour tous sera toujours moins pertinent que pour une cible spécifique. Comment pénétré un marché généraliste, on se focalise sur une niche et on en devient le spécialiste. La verticalité du spécialiste permet ainsi de rivalisé avec des sites très puissants mais généralistes.

Ex. Un hôtel sur Biarritz peut être devant booking ou airbnb si il a travaillé sa spécialité.

Sur des marché générique c'est pareil. C'est le créneau pris par des plateformes spécialisées sur le voyage sportif et les séjours à thème.

EMD, ou exact match domaines

Ce sont des noms de domaine avec des mots-clefs correspondant aux mots clés visés comme referencementparis.fr. Google dit que ça ne marche pas, mais ça marche bien ! Rendez vous sur cette page si vous avez besoin de protéger votre marque.

 

12

ans de Webmarketing

143

Comptes Analytics

176

Campagnes d'Emailing

41

Premières Position

16

Collaborateurs

96

Campagnes SEO

89 Clients

25 Conférences

43 Formations internes

+1 200 Tasses de café

Référencement de Centres de Formation : étude de cas

Aujourd’hui, qu’il s’agisse d’un établissement public ou d’une entreprise à but lucratif, il est désormais plus que nécessaire de miser…
CONTINUE READING

Le Cocon Sémantique : Onsite, Onpage, Offsite… tous les Secrets

Tout le monde a entendu parler du cocon sémantique comme LA méthode SEO qui permet de gagner les tops positions…
CONTINUE READING

Secrets de Ligne Éditoriale SEO avec Christian Méline

Une discussion passionnante avec Christian qui nous partagera sa méthodologie de travail pour créer une ligne éditoriale originale avec les…
CONTINUE READING

Noms de Domaines SEO Vs Branding : EMD, TLD Exotiques & Focus .fr

De nombreuses personnes demandent à des consultants seo si un Nom De Domaine (NDD) de type EMD, Exact Match Domain…
CONTINUE READING