seobserver-1

La bonne manière d’analyser le linking d’un site

En bref: deux fonctionnalités exclusives font leur apparition dans l’affichage des top backlinks, qui vont définitivement changer votre manière d’analyser le linking d’un site :

  • nous ajoutons l’information de l’indexation de l’URL en cours,
  • et nous affichons le nombre de mots-clés sur lesquels l’url source du backlink se positionne.

Les outils d’analyse de backlinks passent à côté de l’essentiel : est-ce que Google aime mon site ?

Chaque outil de backlink essaie d’apporter à l’utilisateur une manière de qualifier un lien, et de le catégoriser pour lui permettre de lister les liens qui ont un vrai impact sur le positionnement.

L’indicateur le plus célèbre et le plus efficace selon nous pour évaluer la qualité d’un lien reste le TrustFlow, les autres indicateurs allant de la tentative intéressante mais avec un index trop faible (Domain Authority), à la vaste blague (Domain Rank).

Mais peu importe la qualité du TrustFlow, cet indicateur reste un élément conçu par une entreprise indépendante de Google qui essaie certes de se rapprocher le plus possible du mode de calcul du Pagerank, avec une surcouche de qualité, mais qui n’est pas Google.

Nous nous sommes donc posés la question : malgré la grande qualité de cet indicateur, comment pourrait-on améliorer le TrustFlow de Majestic pour lui rajouter la plus belle surcouche « Google » possible ? Comment réussir à vérifier qu’un lien est bel et bien pris en compte par Google ? Comment éviter de passer à côté de l’essentiel en se focalisant uniquement sur le TrustFlow, alors que parfois, la page n’est même pas prise en compte par Google ?

Certes, il est impossible d’avoir un accès exhaustif à la donnée stockée chez Google, mais certains éléments permettent d’avoir un aperçu, un avant-goût de comment Google perçoit un site.

Les deux éléments les plus connus sont :

  • la page qui me fait un lien est-elle indexée ? Si ce n’est pas le cas, ce backlink n’est probablement pas pris en compte.
  • la page qui me fait un lien se positionne-t-elle sur des mots-clés concurrentiels ? Si oui, c’est une preuve que le lien est d’excellente qualité (attention, l’inverse n’implique pas que le lien est forcément « mauvais »).

Nous avons toujours pris en compte dans notre approche la fusion la plus fluide possible entre les backlinks et les rankings.

C’est pourquoi nous avons intégré une feature unique dont nous ne pouvons déjà plus nous passer à l’usage: la vérification de l’indexation des backlinks et l’affichage du nombre de mots-clés de chaque url source.

D’autre part, une approche propre à Majestic consistait à afficher dans les backlinks les liens de type flux rss, même s’ils ne sont jamais indexés par Google. Nous avons également résolu ce souci en prenant le lien le plus puissant du domaine en cours, sans que celui-ci ne soit un feed rss.

Comparons concrètement les vues proposées par Majestic et SEObserver pour voir à quel point l’info apportée est capitale. Voici la vue des top backlinks de seobserver.com, selon Majestic (nous avons simplifié afin de mettre en avant les infos cruciales) :

majestic1

majestic-2

Voici maintenant la même vue, chez SEObserver, avec les deux nouveautés mises en avant :
seobserver-1

On voit les deux colonnes avec le nombre de mots-clés sur lesquels se positionne la page, ainsi qu’une colonne pour vérifier que le backlink est bien indexé. Voici comment maintenant tirer pleinement parti de cette feature.

Exemple n°1 : les opportunités de liens : « sors moi seulement les backlinks en provenance de sites de bonne qualité »

Si c’est mon site : Je filtre tous les liens qui sont à la fois indexés et en nofollow, et je trie par TF négatif. Essayer de négocier pour obtenir un dofollow à la place. Si les pages rankent sur des mots-clés c’est encore mieux.

Si c’est vers un concurrent, réfléchir à comment je peux obtenir le même lien (ou faire en sorte que la page remplace le lien vers le site du concurrent par le mien ).

seobserver-2

Exemple n°2 : trouver les pages stratégiques qui me linkent

Il s’agit de la crème de la crème de vos backlinks : fort TrustFlow, page indexée, ranke sur de nombreux mots-clés. Ces backlinks ont potentiellement incontestablement un fort impact sur mon positionnement.
Je dois faire en sorte de ne pas perdre ces liens, je devrais monitorer leur présence régulièrement. De même, si une de ces pages commence à perdre des mots-clés, du TrustFlow ou pire, être désindexée, cela devrait commencer à m’inquiéter (pas de souci, une feature arrive pour faire cela).

seobserver-3

Exemple n°3 : trouver les sites qui ont un souci de ranking, qui me linkent

Je trie par TF décroissant, et je m’intéresse aux sites qui n’ont aucun mot-clé : peut-être qu’il s’agit de sites qui ne sont plus mis à jour, ou alors des expirés rethématisés. Ou des annuaires. Ou tout simplement des articles qui n’ont pas été optimisés pour ranker sur des mots-clés en particulier. Je pondère donc le TrustFlow de la page par ce que je réussis à trouver en creusant un peu (je peux par exemple choisir de pondérer à la baisse un TF qui ne ranke pas bien, mais il n’y a pas de règle).

seobserver-4

Exemple n°4 : trouver les sites blacklistés qui me linkent

Souvent, le combo fort TrustFlow + page non-indexée peut être révélateur d’un problème. C’est le cas pour les premiers liens de la liste ici. Mais cela peut être également deux causes, notamment une redirection qui a peu de puissance, ou bien une page volontairement non-indexée (une page catégorie par exemple).
Pas de conclusion hâtive (jamais d’ailleurs), il faut vérifier manuellement pour être sûr de ce qui se passe.

seobserver-5

Exemple n°5 : trouver les sites de mauvaise qualité qui me linkent

Les sites/pages de mauvaise qualité ne seront pas indexées. Autant que je ne perde pas de temps avec eux. C’est généralement le combo « page non indexée » + faible TrustFlow. Si on ajoute à cela « lien en Nofollow », on obtient vraiment typiquement ce qui pollue la vue pour rien. Donc strictement aucun impact de ce type de liens, ceux qui sont superstitieux peuvent choisir de les désavouer quand même.

seobserver-6

Voici les premières idées qui nous viennent des usages de cette feature, mais nous savons que nos utilisateurs sauront détecter des comportements particuliers à partir des différents éléments.

Une chose est sûre : après cette feature, il est littéralement impossible pour tout SEO de revenir à un autre type d’analyse de linking. Ne pas prendre en compte l’indexation des liens est, lorsqu’on a la possibilité de le faire, extrêmement dommage et peut nous induire en erreur.

Vraiment.

Merci à Fabien Raquidel et Paul Sanches qui ont su pendant de longs mois, revenir à la charge concernant cette feature.

lost-backlinks-button

2 nouvelles fonctionnalités pour mieux analyser les backlinks

Les backlinks perdus

Suivre ses nouveaux backlinks est capital, et suivre ses backlinks perdus est parfois encore plus important. Malheureusement, dans la quasi-totalité des outils de netlinking, la fonctionnalité « backlinks perdus » contient beaucoup trop de faux positifs.

En effet, la « perte » d’un backlink est parfois simplement due au fait que le lien a changé de page, à cause par exemple de la pagination d’un blog ou d’un forum. Ou encore si un lien qui se trouvait dans un flux rss disparaît de ce flux, tous les indicateurs s’allument au rouge alors que le lien n’a finalement pas bougé de son article de base.

Cela provoque du stress inutile puisque l’information essentielle est finalement de pouvoir savoir s’il reste encore des backlinks sur le site en question et si oui sur des pages importantes ou non.

Déterminer qu’un backlink est bel et bien « perdu » est donc une discipline qui est plus délicate qu’elle en a l’air: détecter la présence d’un lien est relativement facile, en revanche, être catégorique sur la disparition du lien est beaucoup moins évident.
Notre approche a donc été de développer une fonctionnalité qui permette de comprendre d’un coup d’œil ou d’un clic si ce lien perdu est réellement un problème ou non, et s’il a véritablement disparu ou non.

lost-backlinks-button

Disponible depuis la vue « Historique des backlinks », voici à quoi ressemble cette nouvelle fonctionnalité :

lost-backlinks-view1

Vous retrouvez sur cette vue la liste des top backlinks perdus durant les 90 derniers jours.

Ces backlinks sont classés par défaut par TrustFlow.

Cette vue reprend l’affichage classique des backlinks avec deux colonnes importantes en plus : le nombre de backlinks restants ainsi que le résultat du dernier crawl de Majestic.

Le nombre de backlinks restants permet de constater si le ou les backlinks perdus étaient les derniers ou non sur le site, ce qui change absolument tout dans l’analyse que vous pourrez faire de vos backlinks perdus.

Vous pouvez classer cette colonne pour retrouver tous les « domaines référents » perdus (il arrive que certains domaines référents soient blacklistés par Majestic, vous ne les retrouverez pas dans cette vue)

lost-backlinks-view4

Dans cette vue on constate que le site seobserver.com a perdu 8 domaines sur les 90 derniers jours. Dont un qui est du à une redirection 301.

Le résultat du dernier crawl permet de mieux comprendre la raison d’une perte de backlinks, cela peut-être par exemple du à une redirection 301, une page 404, une redirection canonique, ou encore une erreur 500 qui indique que le site était injoignable lors du passage du crawler.

Mais comment savoir si j’ai perdu plus d’un lien pour un domaine en particulier ?

Très simple ! Il suffit de cliquer dans la première colonne !

lost-backlinks-view2

En un clic je peux lister le top 10 (classé par Trust Flow) des liens perdus, dans ce cas précis, seobserver.com a perdu un seul lien (en nofollow) au cours des 90 derniers jours sur le domaine majestic.com.

Mais comment savoir la qualité des backlinks restants sur ce domaine ?

Très simple ! Il suffit de cliquer dans la colonne « Backlinks restants » !

lost-backlinks-view3

Je vois que ma fiche sur https://majestic.com/business/seobserver est toujours présente, et que j’ai également 3 liens sur le blog de Majestic dont 2 en dofollow !

Plus qu’une fonctionnalité de backlinks perdus, elle vous permettra également de refaire un point sur vos backlinks actuels.

Le filtrage du spam dans les backlinks


Il est souvent difficile d’analyser ses nouveaux backlinks de manière efficace dans les outils de netlinking, nous sommes souvent pollué par le spam sans pouvoir y faire grand chose.

Le spam est parfois nettoyé automatiquement par Majestic, mais cela prend du temps.

De plus cette vue ne tient pas compte des domaines désavoués sur Google Search Console.

Notre approche a donc été de développer une fonctionnalité qui permette à la fois de filtrer ce spam en sélectionnant directement les sites que l’on ne veut plus voir dans la liste des backlinks. Et également d’importer/exporter un fichier de désaveu pour maintenir à jour les domaines désavoués auprès de Google.

 

Disponible dans les filtres avancés de la vue « Historique des backlinks », voici à quoi ressemble cette nouvelle fonctionnalité :


spam-filter-view1

4 possibilités s’offrent à vous :

- Sélectionner plusieurs sites en même temps pour les ajouter dans le filtre de spam

spam-filter-view2

Vous pouvez également en sélectionnant un seul en cliquant sur l’icône option du backlink :

spam-filter-view3

Une fois le site marqué, une icône « poubelle » s’affichera sur la ligne des backlinks correspondants :

spam-filter-view4

- Masquer les backlinks qui correspondent au filtre de spam

spam-filter-view6

- Afficher seulement les backlinks marqués comme spam

spam-filter-view5

- Afficher des options supplémentaires pour importer/exporter et ajouter manuellement des sites à filtrer.


spam-filter-view7

Cette vue permet de : télécharger un fichier de désaveu regroupant les sites ajoutés dans le filtre de spam, uploader un fichier de désaveu contenant des nouveaux sites à marquer comme spam, ajouter rapidement un site ou plusieurs sites au filtre de spam, supprimer l’intégralité du filtre et activer/désactiver un filtre par défaut pour tous les sites que vous visitez sur l’outil.

Ce dernier point est très important, nous avons voulu laisser le choix de faire un filtre « par site », ou d’avoir un filtre par défaut pour tous les sites (beaucoup plus pertinent si vous êtes propriétaire de plusieurs sites et que vous souhaitez ajouter dans un filtre/fichier commun les sites à masquer/désavouer).
fred_logo

Google Fred: aperçu de l’impact sur google.fr

D’habitude nous essayons de toujours vous proposer des belles études avec plein de données expliquées et décortiquées à l’intérieur, actionnables mais cette fois-ci par manque de temps notre contribution va s’arrêter à de la donnée brute, non interprétée, et vous laisserons tirer les conclusions s’il y en a à tirer.

Les clients SEObserver pourront toujours utiliser la SERPmachine et la Trafficmachine pour avoir une présentation plus claire et ergonomique et voir ce qui s’est passé sur les SERPs qu’ils suivent.

Voici donc le csv brut de l’ensemble des différences de + ou – 10 places sur les premières places du top 1000 mots-clés sur google.fr entre le 5 mars 2017 et le 15 mars 2017.

Cela signifie par exemple qu’un site qui était dans les 20 premiers et qui subit baisse de 10 places ou plus sera listé. Idem pour un site qui entre dans le top 20 avec une différence de ranking de 10 places. Cela permet d’identifier les plus gros mouvements.

Cliquez ici pour télécharger fred_diff.csv (581 Ko) et n’hésitez pas à partager vos analyses, nous les relaierons autant que faire se peut.

SEObserver v2 : les nouveautés qui vous attendent

Chers amis,

Nous avons présenté les nouveautés de la v2 de SEObserver dans un podcast live hier soir. Pour ceux qui n’ont pas pu le voir, voici un résumé de ce qui change dans l’outil.

Augmentation du tronc commun

Le tronc commun passe de 50.000 SERPs suivies à plusieurs millions (2,000,000+). Nous aurions pu aller encore plus loin, mais d’après nos tests, ce n’est pas nécessaire puisque que notre but est d’avoir une exhaustivité des mots-clés à forts potentiels. Nous récupérons les SERPs de tous les mots-clés qui font au moins 100 recherches par mois et qui ont un intérêt business.

L’intérêt concret ? Nous trouvons les mots-clés sur lesquels vous n’êtes PAS ENCORE positionnés. Souvent on ne vous montre que le top 10 ou le top 20, des mots-clés pour des sites en particulier, résultat : si vous êtes 21ème sur « rachat de credit » ou « assurance auto », cette donnée est invisible pour des outils classiques. Mais nous, nous le voyons. Ainsi, vous pouvez concentrer vos efforts rédactionnels ou de netlinking vers des gros mots-clés sur lesquels vous montez mais n’êtes pas encore au top.

capture-decran-2016-09-22-14-42-04

Le tronc commun permet de faire une analyse immédiate dans l’outil et de remonter dans le temps, il nous a permis de sortir la Trafficmachine, et également le Volatility explorer (nous y revenons plus bas dans cet article).

Le plus important: on a de l’HISTORIQUE sur ces millions de mots-clés. Et cette donnée sera toujours ACCESSIBLE dans son intégralité.

Augmentation du nombre de mots-clés perso

Nous passons les plans freelance et studio à 1500 et 5000 SERPs perso dans vos campagnes. Oui, ça fait un x10 sur votre nombre de mots-clés suivis, et alors ? (Nous sommes actuellement en train déployer cette mise à jour, si votre compte n’est pas encore à jour contactez-nous au support !)

Localisation des mots-clés personnalisable

Désormais vous pouvez suivre vos mots-clés en vous géolocalisant dans le pays ou la ville de votre choix, sur l’extension Google de votre choix. C’est un pas de plus vers la sortie officielle de l’outil à l’international qui arrive à grands pas. Vous verrez d’ailleurs de plus en plus de morceaux d’interface en anglais, qui seront par la suite re-traduits en français, car nous remettons tout à plat également de ce côté-là.

Rafraîchissement automatique

Dès que vous visitez la SERPMachine d’un mot-clé la SERP est rafraîchie en instantané si le dernier relevé a plus de 24h, donc à chaque fois que vous visitez un mot-clé, les résultats dateront toujours du jour même.

Création des campagnes

Nous avons créé un outil bien plus efficace que le précédent pour suivre ses mots-clés et ses sites. A découvrir immédiatement ! Découvrez également l’environnement des campagnes, qui vous permettra de garder toujours un oeil sur les serps !

Trafficmachine

On s’est dit la SERPmachine c’est bien, mais comment faire pour analyser les parts de marché avant/après ? Vous pouvez maintenant savoir ce qu’il se passe sur des groupes de mots-clés ! Donc il devient facile d’analyser ce qui se passe sur un ensemble de mots-clés cohérents entre eux. Par exemple vos mots-clés marques (qui monte sur mon nom ?) ou au contraire vos mots-clés transactionnels.

capture-decran-2016-09-22-14-20-46

capture-decran-2016-09-22-14-21-41

Volatility Explorer

Le volatility explorer permet enfin de voir exactement les mots-clés qui bougent dans un groupe de mots-clés. Pratique pour gagner en « hauteur de vue » sur les mouvements dans les SERPs.

capture-decran-2016-09-22-14-22-17

Exclusivité mondiale: l’historique du TrustFlow

Désormais, le TrustFlow au niveau du domaine est archivé. Cela vous permettra de consulter sur une grande quantité de sites l’évolution avec le temps du nombre de backlinks, du TrustFlow et du nombre de referring domains. Nous sommes les seuls à avoir cette métrique sur plusieurs millions de domaines, personne d’autre ne la possède, pas même Majestic notre fournisseur officiel ! L’historique des metrics majestic, vous permettra encore mieux de savoir ce qu’il se trame chez vos concurrents !

capture-decran-2016-09-22-14-55-53

TF Toolbar

Pour remplacer l’extension « PageRank » de Google, nous avons créé une extension Chrome et Firefox qui affiche en instantané le TF du domaine en cours, à chaque consultation d’url, avec sa catégorie de « Topical Trust Flow ». Personne d’autre ne propose cela, pas même Majestic qui livre un plugin où il faut cliquer pour avoir les stats, mais nous sommes fainéants et un clic c’est déjà trop ! Ce plugin est vraiment addictif, et l’essayer c’est l’adopter.

L’extension, permet d’analyser les sites en permanence, et vous emmène en deux clics dans la fiche d’identité si vous souhaitez en savoir encore plus !

Pour les non-abonnés SEObserver, une version premium de ce plugin existe et elle coûte 99€/an. Pour vous c’est évidemment gratuit.

tftoolbar.png

 

tftoolbar2

Domain Extractor

L’intérêt d’avoir la donnée majestic directement dans l’outil nous permet d’analyser en permanence cette donnée et de l’utiliser à notre avantage, le Domain Extractor est la preuve que le mélange des données de rankings et de netlinking nous permettent de tamiser des pépites d’or ! A découvrir de toute urgence !

capture-decran-2016-09-22-14-32-24 capture-decran-2016-09-22-14-34-48

Keyword Competition Checker amélioré

L’analyse de la difficulté d’une SERP n’a jamais été aussi précise grâce à notre module d’analyse de SERP. Nous incluons les données backlinks de Majestic, les données traffic de SEMrush et également les données sémantiques trouvées lorsque l’on scanne les sites. Vous pouvez ainsi trouver les termes les plus employés par les 10 premiers sites d’une SERP.

Ah oui, et nous vous proposons aussi les mots-clés similaires au mot-clé en cours grâce à une méthodologie innovante qui nous permet de connaître les VRAIES mots-clés similaires.

capture-decran-2016-09-22-14-58-43

(Prochainement) Les tutos vidéos

A quoi cela sert de vous livrer une arme atomique si on ne vous explique pas concrètement comment vous en servir ? De manière régulière les tutos sous forme de screencast vont être publiés pour vous permettre d’utiliser l’outil de manière de plus en plus puissante.

Le prix

La question la plus problématique est toujours celle du prix…

De ce côté là, rien ne change !

NOUS GARDONS EXACTEMENT LE MÊME PRIX pour les abonnés actuels, à vie :)

En revanche, nous ne savons pas comment cela va évoluer dans les prochains mois : en théorie, le prix doit être proportionnel au service : si nous augmentons les features, les limites et les données d’archive, le prix va tôt ou tard augmenter, sauf pour les clients actuels. Monter dans le train maintenant, c’est garantir sa place et verrouiller un prix à vie, malgré les futures augmentations.

Nouveau client ?

Pour ceux qui voudrait prendre le train en marche, il est possible jusqu’à ce soir minuit de profiter du même avantage que nos clients. Rendez-vous sur https://www.seobserver.com pour en savoir plus.

Les atouts de SEObserver

  • C’est un outil SEO conçu et amélioré par des consultants.
  • Il permet de s’auto former en SEO, et de découvrir les stratégies qui fonctionnent en analysant les SERPs.
  • C’est une solution tout-en-un, vous pouvez lâcher vos abonnements à vos fournisseurs de backlinks et fournisseurs de rankings.
Capture d'écran 2015-03-30 11.50.09

Timeline de backlinks : obtenez la liste des derniers liens créés sur un mot-clé

Pour la première fois, SEObserver permet ce qu’aucun autre outil ne permettait jusqu’alors : surveiller à un seul et même endroit l’activité en netlinking d’un grand nombre de concurrents sur une SERP : la « Backlinks Timeline »

Comment prendre le pouls d’une requête ?

S’intéresser à une requête sur Google peut être fait de différentes manières :

  • soit en regardant ses propres rankings et ceux d’un ou deux concurrents (approche active, lorsqu’on sait déjà avec qui on veut se benchmarker),
  • soit en analysant les rankings historiques sur la requête entière, pour voir qui a progressé et qui a disparu (approche passive, pas besoin de désigner explicitement des concurrents, l’information remonte automatiquement à soi) : les outils pour faire cela sont essentiellement SEMrush avec un compte guru à 150$/mois (20 premiers résultats, 6M de mots-clés) ou SEObserver (130 premiers résultats, 50K mots-clés)
  • soit, et c’est une chose qui est inconnue du grand public mais que les experts en R&D et certains black hat appliquent dans les secteurs concurrentiels, s’intéresser à la stratégie en netlinking des concurrents sur la requête pour voir immédiatement ce qui se passe, avant même que le site n’ait commencé à monter dans Google.

Cette dernière méthode est très puissante, mais inconnue ou alors appliquée de manière chronophage avec les outils actuels sur le marché : on va analyser chacun des concurrents, manuellement, et généralement on abandonne au bout du 5ème ou du 6ème… Et on oublie les 95 autres premiers sur la requête qui sont parfois tout aussi importants.

Pourtant, le besoin existe et on souhaite pouvoir prendre le pouls d’une requête, et regarder les derniers changements qui sont opérés dans le microcosme des concurrents immédiats. Il est en effet parfois intéressant de faire une analyse très rapide pour comprendre « ce qui se trame » sur une requête, sans pour autant vouloir décortiquer la stratégie de chacun des concurrents présents sur la SERP.

Au royaume des aveugles, les borgnes sont(-ils vraiment?) rois

Ce qui manque cruellement aux rapports mensuels que les SEO livrent à leur client (ou leur patron), c’est la compréhension de l’écosystème de leur site.

Livrer un rapport SEO mensuel, en présentant seulement ses propres positions, sans prendre en compte l’évolution de la stratégie des concurrents, c’est livrer un rapport borgne : vous ne voyez que votre site, et vous ne voyez pas qu’à côté, un concurrent situé en page 5 est en train de se livrer à une campagne massive de netlinking, ou que le concurrent juste en-dessous de votre site vient d’obtenir un énorme backlink d’un gros blogueur, qui aurait aussi pu vous mentionner.

Avec le délai grandissant de prise en compte des backlinks dans les rankings (un backlink met 1 à 3 mois pour donner son plein effet), détecter très tôt les nouveaux backlinks est devenu absolument vital. Si vous vous réveillez une fois que votre concurrent vous a dépassé, vous avez déjà mécaniquement 1 à 3 mois de retard à rattraper !

Que sont en train de faire mes concurrents ?

Les rankings sont un symptôme, et s’intéresser seulement à un site quand il est en page 1 est souvent trop tard, et c’est analyser ses concurrents avec un rétroviseur. Il faut surveiller les signaux faibles et surveiller attentivement les efforts qu’il est en train de déployer notamment en termes de netlinking. Mais surveiller les 100 premiers sites est impossible avec les outils que la plupart d’entre nous possède.

Constat cruel : aujourd’hui, ni Majestic, ni Moz, ni Ahrefs ne vous permettent de connaître en 3 clics la liste des derniers backlinks créés sur une requête. Et ils ne le pourront d’ailleurs jamais, car ils ne monitorent pas les SERPs mais vous fournissent du pétrole brut, les backlinks, à vous de les raffiner et les transformer en essence à injecter dans votre véhicule SEO.

La nouveauté SEObserver : la timeline de backlinks sur votre requête

Dans une obsession d’efficacité, pour comprendre l’essentiel et le suffisant en termes de SEO, nous avons sorti une nouvelle feature dans le Labs : la « Backlinks Timeline ».

Capture d'écran 2015-03-30 11.50.09

A la manière de Twitter, nous vous faisons apparaître la liste des nouveaux backlinks créés dans les 90 derniers jours pour une requête Google en particulier. Et mieux, vous pouvez choisir quel site vous voulez « follower » : rien ne me sert de connaître les derniers backlinks de wikipédia par exemple, ou d’un .gouv.fr, je peux donc l' »unfollow » et me concentrer sur les autres sites.

Egalement, je peux vouloir connaître les derniers backlinks d’une URL en particulier (pour les gros sites) ou bien d’un site en entier si le site est petit.

SEObserver vous fait évoluer d’une vision ‘analytique’ à une vision globale, d’une vision « site par site » à une vision « requête », d’une vision « rankings » à une vision « ranking factors » et d’une vision rétroviseur à une vision jumelles.

L’intérêt pour les éditeurs de site ? Comprendre immédiatement ce qui se trame sur une requête et prendre les meilleures idées de chacun des concurrents, même ceux qui sont mal placés mais qui vont vite le rattraper.

L’intérêt pour les agences et les consultants SEO ? Il est désormais possible de se distinguer des rapports classiques qui les rendent interchangeables avec une autre agence, grâce à de la data nouvelle et permettant d’influencer la stratégie SEO en fonction de ce qui fonctionne en termes de netlinking. Le concurrent de votre client sort un rapport ou un outil en ligne ? Vous pouvez immédiatement connaître les retombées en matière de netlinking.

Voici quelques exemples de rapports que vous pouvez générer :

Pour obtenir cela hors SEObserver, vous devriez avoir au minimum un compte Majestic à 299,99€/mois (pour avoir l’accès à l’API) et un moyen d’une manière ou d’une autre pour avoir le suivi des concurrents sur un outil de suivi de positions classique.

Cette fonctionnalité est immédiatement disponible pour tous les abonnés, dans l’onglet Labs.

A tout de suite.

Dans le prochain épisode nous vous présentons comment nous révolutionnons définitivement le disavow (ceux qui étaient au SEO Camp’us peuvent en témoigner, les choses ne seront plus jamais comme avant).

Capture d'écran 2015-03-24 15.03.40

Analyse des Top Pages, ou comment SEObserver transforme le pétrole en essence

SEObserver utilise les API de SEMrush et de Majestic pour fonctionner, qui produisent de la très bonne donnée brute (du pétrole), mais qui n’est pas forcément très pratique à utiliser, à cause d’interfaces ou de rapports peu efficaces. Nous transformons ce pétrole en donnée raffinée (essence) immédiatement exploitable et permettant de prendre des décision en quelques minutes alors qu’elles prendraient des heures sans SEObserver. Voici un cas concret.

Avec SEObserver, vous pouvez désormais sortir des données ultra-pertinentes au niveau de la compréhension de la stratégie de vos concurrents. Vraiment. Pour vous le prouver, je vais prendre plusieurs cas concrets à travers l’étude de sites existants.

La liste des mots-clés : sur quoi le site se positionne déjà ?

La première des choses lorsqu’on fait un audit SEO qui prend en compte le contexte, c’est de faire une recherche de mots-clés. On part généralement des concurrents que l’on connaît et on essaie de découvrir les mots-clés sur lesquels ils sont positionnés. Ou bien on regarde tout simplement son propre site internet et on regarde sur quels mots-clés on ressort bien/moyennement/pas bien et on renforce si nécessaire en fonction du potentiel de trafic.

Lorsque vous faîtes votre recherche de mots-clés sous SEMrush, et que vous demandez un export ou un rapport, vous vous retrouvez avec une immense liste de mots-clés qui n’en finit plus. Impossible pour vous de prendre de bonnes décisions facilement. Généralement, vous vous concentrez sur le haut du tableau (les plus « gros » mots-clés, ceux qui contiennent une colonne Trafic élevée) puis vous scannez visuellement le reste de la liste, très rapidement, afin d’identifier des mots-clés faciles à distinguer, mais en faisant cela, vous risquez de passer à côté de l’essentiel.

Pour faire simple, un rapport mots-clés SEMrush, ça ressemble à ça :

Conclusion : on voit une grosse liste de mots-clés et on comprend en un clin d’oeil que lesacados.com récupère beaucoup de trafic sur la requête « couchsurfing » alors que webmarketing-com récupère du trafic sur « webmarketing » et « charte graphique ». Pour le reste, il faut décortiquer mot-clé après mot-clé, et là, mieux vaut être patient et méticuleux. C’est notre premier problème.

Le linking interne : quelles pages reçoivent le plus de jus ?

Majestic, quant à lui, ne fournit tout simplement aucune donnée liée aux rankings, ce n’est pas son rôle. Par contre, il fournit des informations de linking très intéressantes qui permet de regarder la manière avec laquelle le jus en interne circule sur le site (le Trust Flow), et également (et surtout) des données en termes de linking externe. En somme, l’avantage d’afficher le Trust Flow interne du site, à l’échelle de la page, permet de s’économiser un crawl du site pour repérer les pages les plus fortes d’un point de vue SEO.

L’autre avantage d’utiliser Majestic dans cette phase est de voir comment le site est linké de l’extérieur. Est-ce que l’essentiel des liens pointe vers la home ? Ou existe-t-il des pages internes fortes ?

Trop souvent, lors d’une analyse onsite classique, on part du paradigme « homepage = page la plus puissante » puis on regarde le degré d’éloignement de toute page depuis la home. C’est très souvent vrai mais pas toujours, le contre-exemple flagrant étant mattcutts.com vs mattcutts.com/blog/, cette url profonde étant environ 300 fois plus linkée que la home.

Capture d'écran 2015-03-24 14.36.41

Linking vers la page interne mattcutts.com/blog/

Capture d'écran 2015-03-24 14.36.21

Linking vers la home de mattcutts.com

Entre ces 2 extrêmes (un site qui reçoit tout sur la home et un site qui reçoit tout sur une page interne), il existe une 50aine de nuances (de greyhat?).

Malheureusement, Majestic ne fournit pas de rapport à proprement parler : seulement un extract de fichier excel, libre à vous de le trier pour en sortir la data pertinente. Voilà notre deuxième problème.

Du coup, on se retrouve avec de la donnée imparfaite, à l’état très brut, et difficilement exploitable.

« Oui mais avec Excel… » oh pitié avec Excel. Oui, les tableaux croisés dynamiques sont très puissants, c’est d’ailleurs ces derniers qui m’ont permis d’imaginer les rapports top pages que vous allez découvrir en-dessous, mais en mode décision rapide ou avant-vente, ce genre de rapports est extrêmement ch ennuyeux à concevoir.

L’aspect social : quel contenu a le plus de succès ?

Il y a également un élément qui n’est couvert par aucun de ces deux outils : l’aspect social. Pour les sites qui ont beaucoup de contenu, il peut être intéressant de voir quels sont les contenus qui ont le plus « buzzé » afin d’avoir une vision hors SEO, et surtout de comprendre si les partages sont essentiellement de type twitter (professionnel, sérieux, pertinent) ou facebook (lol, photo et insolite).

Pour l’instant, les seuls outils à ma connaissance sont soit du homemade, soit des outils qui ne regroupent pas l’intégralité de ces data au même endroit.

L’arme fatale : SEObserver

Lors d’un audit SEO rendu à un client récemment, je me suis dit qu’il serait bien d’avoir toutes ces données dans un même tableau histoire d’avoir une vision laser de ce qui marche sur son site et également celui des concurrents.

Comme je l’ai expliqué, SEObserver est un outil par les SEO pour les SEO, poussé par les demandes d’ajout de feature et les besoins qu’ont au quotidien les consultants. C’est en quelque sorte mon « tool perso » que j’ouvre aux autres.

Du coup, si j’ai moi-même rencontré ce besoin, je me suis dit que les autres devaient également avoir ce besoin.

Du coup, ni une ni deux, ma team de développeurs et moi-même avons bossé d’arrache-pied pour vous sortir un tableau unique sur le web, et le résultat est le suivant :

Capture d'écran 2015-03-24 15.03.40

Vous avez pour chaque url :

le sous-domaine en bleu ciel (pratique pour isoler le ranking en fonction du sous-domaine)

  • l’url (path) en vert
  • le titre
  • le total des réseaux sociaux (icone noire)
  • les partages twitter
  • les partages facebook
  • le nombre de domaines référents
  • le trust flow
  • le nombre de mots-clés semrush
  • le volume des mots-clés semrush (attention il ne s’agit pas du volume que le site reçoit, mais bien des volumes mensuels pour chaque mot-clé sur lequel l’url ranke, je vais détailler pourquoi)

Ensuite à l’aide de quelques filtres, il suffit de faire les rapports suivants :

Avec un même tableau, vous pouvez vous amuser à tourner la data dans tous les sens et sortir, si vous voulez, un rapport de 74 pages juste sur l’étude des mots-clés d’un seul concurrent.

Continuons à nous amuser et regardons le rapport mots-clés pour lesacados.com, blog tour du monde :

Ou encore ses contenus qui ont le mieux marché sur les réseaux sociaux :

Ou encore les contenus qui ont le plus buzzé sur topito.com :

Alors histoire que tout soit clair : ce type de rapport est unique sur le marché, vous ne trouverez aucun autre outil qui combine autant les données linking + social + url. En ce qui me concerne, la recherche de sujets éditoriaux et de mots-clés est définitivement métamorphosée grâce à SEObserver, je ne peux plus m’en passer pour mon travail de consultant.

Vous avez remarqué ? J’ai délibérément laissé « votre logo ici » en haut à gauche pour vous montrer qu’à la place de ce logo jpg laid, il pourrait y avoir celui de votre agence.

Autre détail important avant d’oublier : tous les autres outils vous proposent de connecter votre compte SEMrush ou Majestic, ce qui implique que vous devez payer un abonnement à chaque solution. Nous, nous avons choisi une voie radicalement différente : nous vous fournissons cette donnée. Cela a une implication très concrète. Si vous payez un abonnement SEMrush (69$) et Majestic (54€) / Ahrefs (79$), ce qui vous faît un budget grosso modo de 123$ à 148$ par mois, vous pouvez tout résilier et passer uniquement chez nous si vous n’avez pas besoin de fonctions très spécifiques à ces outils.

What’s next?

Promis, dans le prochain article, on vous montre comment on révolutionne le disavow et comment on règle définitivement la question du NSEO grâce à un bouclier antimissile.

SEObserver v1.1, les nouveautés qui vous attendent

Résumé : 2 mois après la sortie, suite à vos retours, nous multiplions par 30 le nombre de mots-clés perso que vous pouvez monitorer et nous ajoutons des features très puissantes dédiées à l’analyse de backlinks.

SEObserver est né il y a un peu plus de deux mois, pour ceux qui auraient raté quelques épisodes voici ses quatre piliers principaux :

  • accès aux 130 premières positions des 50 000 mots-clés les plus recherchés en France grâce à la SERPmachine (inclut un historique qui permet de remonter jusqu’à 1 an en arrière suivant les mots-clés.)
  • accès au détail des backlinks des sites internet (quota en fonction de votre abonnement),
  • accès à une fiche d’identité pour chaque site qui regroupe des données de rankings et de backlinks.
  • un outil fait par et pour les SEO qui doit impérativement constamment s’adapter aux besoins des utilisateurs (je m’inclus dedans).

Votre outil n’a pas fini d’évoluer, j’essaie d’être au maximum à l’écoute de vos retours et mon but est de l’améliorer sans cesse. Du coup, j’en ai profité pour bosser au cours des semaines passées, et développer des features à partir de vos retours.

1) Amélioration de la vue backlinks

Votre souhait : naviguer dans les backlinks plus rapidement, sans avoir besoin de regarder le détail de chacun des backlinks.

Notre réponse : nous avons ajouté deux vues supplémentaires (Referring Domains et Thématiques) et nous avons amélioré la vue Ancres. Ces vues sont, je peux le dire, parmi les plus puissantes sur le marché du logiciel SEO pour faire des analyses à la vitesse de l’éclair.

Voici la nouvelle vue referring domains.

image04

En quelques mots :

  • Le tri peut s’effectuer sur chaque colonne,
  • Filtrage possible : par classe C, par IP, par localisation, par tld,
  • Grosse nouveauté, vous pouvez filtrer par thématique du domaine, grâce à l’intégration du Topical Trust Flow (Trust Flow Thématique).

Si vous voulez afficher le détail d’un domaine référent, nous vous sortons les 5 backlinks les plus intéressant en provenance de ce domaine, en un clic.

image03

Il y a une chose que l’on ne voit pas sur les screenshots, c’est la vitesse d’exécution, l’outil affiche ces données de manière instantanée.

Si vous aviez l’habitude d’attendre lorsque vous analysiez un profil de liens, avec SEObserver, vous n’aurez plus le temps de vous faire un café.

2) Création de la vue “thématique”

La vue thématique vous offre une toute nouvelle façon de visualiser les backlinks d’un site, et l’avantage très concret et très immédiat est le suivant : si vous voulez récupérer les backlinks de vos concurrents mais seulement ceux qui proviennent de sites uniquement dans la même thématique, vous pouvez tout filtrer en un clic.

image05


Un clic sur la thématique et vous pourrez voir les domaines qui correspondent à celle-ci, en analysant soit par catégorie, soit par sous-catégorie.

Capture d'écran 2015-02-05 13.18.16

3) La vue par ancres

La vue Ancres a été améliorée. Pour rappel il s’agit de cette vue :

image06

Avant il était seulement possible de voir la liste des ancres, désormais nous affichons le détail des domaines référents, pour chaque ancre :

image07

Pourquoi s’arrêter en si bon chemin ? Un clic plus loin et vous avez accès à des exemples de backlinks, comme sur la vue referring domains.

image01

Désormais vous pouvez cliquer sur une ancre pour afficher le détail des domaines qui contiennent un backlink au moins avec cette ancre. Cerise sur le pompon, vous avez même la thématique de la page qui s’affiche en fin de tableau.

4) Savoir quels sont les keywords présents dans la SERPmachine

Vous souhaitiez connaître pour un site, tous les mots-clés présents dans la SERPmachine, c’est maintenant possible !

Avant nous n’affichions que les mots-clés présent dans SEMrush ET dans la SERPmachine. Le souci avec ce genre d’outils qui monitorent un énorme nombre de mots-clés, c’est qu’ils ne restent que dans les deux premières pages. Si vous êtes 21ème sur “assurance auto”, vous êtes donc invisibles pour eux. Pas pour nous.

image09

Du coup, les jeunes sites en phase de croissance restent sous la plupart des radars, mais pas le nôtre :) En analysant, certes moins de mots clés, mais les mots-clés qui comptent, vous pouvez voir facilement quels sont les top mots-clés sur lesquels un site se positionne. C’est également excellent si vous souhaitez racheter un site internet, afin de voir son vrai potentiel (à condition qu’il ranke toujours). D’ailleurs, rien ne nous empêche, dans un futur proche, si la demande est au rendez-vous de vous afficher la liste des mots-clés pour lesquels un site rankait à un jour donné, dans le passé (coucou les gens qui achètent de l’expiré :))

Bref, rester cantonné aux 20 premiers résultats était affreusement frustrant, mais ça c’était avant, avec SEObserver vous enfilez votre tenue de plongée (ou plutôt nous plongeons à vôtre place) et on vous trouve les mots-clés sur lesquels vous ne vous attendiez peut-être même pas à ranker :

image02

Dans cette vue, vous pourrez donc voir tout ceux qui disposent d’une archive et analyser les serps entières.

Il sera bientôt possible d’analyser plusieurs mots-clés en même temps directement depuis la fiche d’identité.

Ah oui, on s’est aussi dit que c’était important d’avoir l’url exacte positionnée sur le mot-clé. Pratique pour voir quelles sont les top urls d’un site :)

5) Le labs

Un nouvel onglet est apparu sur SEObserver, c’est le labs, vous y découvrirez des nouveautés très souvent en béta, elles évoluerons au fil du temps, et celles qui seront le plus appréciés deviendront des fonctionnalités à part entière.

N’hésitez pas à nous proposer de nouvelles fonctionnalités, nous devons améliorer notre outil pour en faire l’outil seo ultime (un outil pour tous les dominer).

Vous pouvez découvrir dès maintenant la combi view, qui vous offre la possibilité de voir sur un même graphique, le ranking et les backlinks d’un site.

Capture d'écran 2015-02-05 15.55.02

Mais également deux autres outils : un comparateur de sites, et un domain profiler.

Le domain profiler vous permet d’analyser en quelques secondes un grand nombre de domaines (1000+), dans le cas de rachat d’expirés par exemple. Vous avez toutes les métriques essentielles à portée de clic, données que vous pouvez ensuite trier et filter.

Capture d'écran 2015-02-05 12.55.12

6) Ajout de mots-clés

Une autre nouveauté que vous attendiez tous, la possibilité d’ajouter vos mots-clés personnels dans l’outil.

Au début, on voulait seulement laisser la possibilité d’ajouter des mots-clés au pot commun, à raison de 5 mots-clés, mais avouons-le très clairement, c’était naze.

Alors on a réfléchi, retourné le problème dans tous les sens, et finalement on s’est dit que le mieux c’était tout simplement de multiplier ce chiffre par 30.

Mais on s’est aussi dit que certains n’avaient pas forcément besoin de monitorer tous leurs mots-clés tous les jours (notamment pour la longue traîne).

Donc on a décidé de vous laisser le choix, c’est pourquoi nous vous proposons une large gamme de fréquence de relevé de positions : moins vous les monitorez souvent, moins vous consommez de crédits. Cela vous permettra d’optimiser votre nombre total de mots-clés relevés.

Par exemple pour le prix d’1 mot-clé relevé tous les jours j’obtiens :

  • 2 mots-clés relevés tous les 2 jours,
  • 3 mots clés monitorés tous les 3 jours,
  • 7 mots clés tous les 7 jours et ainsi de suite.

Voici le détail des crédits suivant les plans :

  • Plan à 99 euros => 150 kws (ou 300 mots-clés tous les 2 jours, 1050 tous les 7 jours, 1500 tous les 10 jours, 2100 tous les 14 jours ou 4500 tous les 30 jours).
  • Plan à 199 euros => 500 kws,
  • Plan à 499 euros => 2000 kws.

Pour les personnes qui sont abonnées depuis ces deux derniers mois, un bonus vous sera évidemment appliqué pour vous remercier de votre confiance.

Pour les nouvelles personnes qui souhaiteraient s’inscrire, j’offre également un petit bonus pendant 24h sur votre nombre de mots-clés.

Beaucoup de nouveautés arriveront dans les prochaines semaines, stay tuned :)

A très vite.

 

etude-google-penguin

Etude Google Penguin 3.0 – Octobre 2014

Attention, il s’agit d’une étude temporaire « brute » sans analyse, les fichiers seront mis à jour lors des prochains jours afin d’avoir plus de recul.

Cette nuit, samedi 18 Octobre 2014, une importante mise à jour est arrivée, et tous les indices portent à croire qu’il s’agit de Google Penguin.

Nous avons voulu être les premiers à vous proposer une étude sur les gagnants et perdants sur un échantillon représentatif de 3000 mots-clés de notre base de données sur google fr.

Méthodologie

Choix des mots-clés

Ces 3000 mots-clés se veulent représentatifs du web français, et ont été choisis en prenant les 3000 premiers résultats de la base adwords avec la formule : volume x cpc x concurrence SEA, afin de se débarasser des mots-clés de type « marque ». Même si la source d’origine reste Google Adwords et qu’elle est forcément biaisée, elle nous semble néanmoins assez fiable, avec une analyse visuelle rapide.

Choix des sites étudiés

Pour nous concentrer sur les gros mouvements, nous avons conservé uniquement les sites ayant un mouvement, positif ou négatif de plus de 5 places. Etant donné que les premières pages sont celles où il y a habituellement le moins de mouvements, nous avons également filtré pour ne garder que les sites qui ont une position de départ ou d’arrivée inférieure ou égale à 30 (3 premières pages).

Choix des métriques annexes

Notre politique depuis le début est de s’intéresser non seulement aux rankings, mais également aux facteurs de rankings, et comme Penguin concerne des problèmes liés au linking, nous avons voulu inclure des données de base en matière de linking à savoir :

Trust Flow : évaluation de la « qualité » du ranking.
Citation Flow : évaluation du volume du ranking.
Nombre de domaines référents : évaluation de la notoriété du site.
Ancres exactes : nombre de domaines uniques et de pages qui contiennent un lien avec l’ancre exacte sur le mot-clé visé
Ancres larges : nombre de domaines uniques et de pages qui contiennent un lien dont l’ancre contient le mot-clé visé

Ces éléments permettent de repérer rapidement d’un seul coup d’oeil les sites potentiellement problématiques, afin de démarrer une investigation plus profonde.

Date des relevés

Les relevés du 17 Octobre 2014 ont été effectués de 1h à 9h du matin.
Les relevés du 18 Octobre 2014, quant à eux ont été effectués de 10h à 19h afin d’attendre que la mise à jour soit uniforme et déployée depuis plusieurs heures.

Mise à jour : les relevés de la mise à jour ont eu lieu le 20 Octobre 2014, de 1h à 9h du matin.

Précisions

Cette étude est pour l’instant « brute » et est disponible sous la forme d’un fichier csv et d’un fichier excel. Nous n’avons pas assez de recul et tous les résultats sont à prendre avec beaucoup de précautions, car les résultats ne sont peut-être pas encore définitifs.

Télécharger les données brutes

N’hésitez pas à nous remercier sur Twitter, ça nous fera plaisir :) @SEObserver_fr

dl-excel dl-csv

Excel : fichier encodé en ISO-8859-1
CSV : fichier encodé en UTF-8

Lire mon analyse

Au-delà de la donnée brute que vous pouvez analyser librement et gratuitement, vous pouvez retrouver l’analyse effectuée sur quelques exemples du fichier sur le site du journaldunet.com.

Liste d’attente

Vous aussi inscrivez-vous pour ne rien louper de l’actu SEO et profiter d’avantages exclusifs lors de la sortie publique de SEObserver, entrez votre email ci-dessous, vous ne le regretterez pas.

Demo de l’Extension Chrome SEObserver

Dans cette vidéo de 3 minutes, vous pouvez voir un aperçu du fonctionnement de l’extension chrome de SEObserver.

Vous avez également un aperçu de la veille quotidienne des backlinks (les nouveaux backlinks s’ajoutent en haut de la pile). Les champs avec une horloge sont ceux qui sont en train d’être mis à jour.

N’oubliez pas, pour être parmi les premiers à profiter de l’ouverture de SEObserver au public, inscrivez vite votre adresse email dans la liste d’attente ci-dessous.

SEObserver, c’est quoi ?

Nous y voilà enfin.

Les premières contractions ont commencé.

Le projet SEObserver qui a mis tant de mois à grandir, grossir va enfin voir le jour. Comment va-t-il être ? Et surtout, comment vont l’accueillir les gens ? Plein de questions en suspens.

Mais la première, et sûrement la plus importante : SEObserver, c’est quoi ?

La frustration de tout SEO

Comme la plupart des projets, SEObserver est né d’une frustration. La frustration de devoir se battre contre un géant, Google, sans connaître précisément ses points faibles en temps réel.

Egalement, la frustration de voir des sites arriver au sommet des rankings avec peu d’efforts et de devoir passer des heures à étudier leur stratégie.

Enfin, la frustration la plus insupportable : devoir supporter les conseils inutiles et quasi-insultants de l’équipe qualité de Google, des gens n’ayant jamais référencé et n’ayant jamais vécu de leurs propres sites, sans savoir véritablement ce qui fonctionne. « Faîtes du contenu de qualité. », « Don’t be evil ». Oui, oui…

L’outil SEO idéal

Je me suis donc mis en quête d’un outil idéal pour étudier, espionner et finalement contrôler le père Google.

L’outil idéal d’un point de vue technique pour vérifier concrètement ce qui marche et ce qui ne marche pas, c’est selon moi un outil :

  • permettant de suivre les rankings de tous les sites à l’échelle du web, ou presque
  • et permettant de suivre également tous les changements onsite/offsite/sociaux pour voir dans les faits ce qui a un impact.

Finalement, l’outil qui manquait cruellement jusqu’à présent, c’est une tour de contrôle qui détecte tous les changements importants dans les SERPs et qui donne la bonne info au bon moment.

Attention, je ne parle pas d’une info ultra sommaire de type « tel concurrent est passé de la place 4 à la place 3 sur pizza au chocolat pas chère nantes ». Ca, ça s’appelle du suivi de position classique et on le connaît tous plus ou moins.

Je parle d’une info vraiment, vraiment pertinente, du genre :

  • tel site s’est fait dézinguer sur tel mot-clé qui rapporte au premier 2000€/jour,
  • tel concurrent a créé un backlink à tel endroit hier soir,
  • voici en temps réel la liste de tous les derniers backlinks qui ont été créés par les 20 premiers sites sur la thématique « rachat de crédit »,
  • tel concurrent a bondi dans les SERPs, et cela s’explique par un changement de title il y a 3 semaines et une campagne de backlinks commencée il y a 2 mois à base de commentaires sur des sites wordpress.

Vous voyez de quoi je parle ?

En fait, l’idée c’est vraiment de partir dans l’état d’esprit d’un hacker avec sa proie : l’étudier, l’analyser et « casser » son code pour en faire ce qu’on en veut.

Google nous espionne tellement au quotidien que finalement, espionner l’espion, c’est de bonne guerre, non ?

Voici SEObserver

evolution-monitoring

Une image vaut mieux que 1000 mots, voici ma vision des outils de monitoring SEO.

Je me suis alors mis en tête de monitorer non pas une dizaine, ni une centaine, mais plusieurs dizaines de milliers de mots-clés. Ainsi, de cette manière je pourrai avoir un échantillon représentatif des niches les plus importantes au niveau SEO.

J’ai donc commencé à scraper, ou plutôt « monitorer » Google comme disent les patrons de startup.

Ensuite, une fois un site dans le viseur, j’ai décidé de m’intéresser aux deux facteurs essentiels en matière de SEO : le onsite et le offsite.

La partie offsite a été plutôt facile, puisqu’il suffisait d’un gros fournisseur de données (données qui coûtent très, très cher !) pour sortir une liste de backlinks à catégoriser pour aller plus loin :

  • analyse du CMS,
  • récupération du pagerank,
  • vérification si la page est indexée ou non,
  • vérification du nombre de liens sortants
  • récupération du nombre de partages sur les réseaux sociaux.

Avec une option pour catégoriser en mode manuel puis semi-auto pour savoir quel est le type de backlink (naturel, acheté, spam commentaire/forum, etc).

La partie onsite a donné plus de fil à retordre. Il est en effet très difficile de sortir des infos facilement catégorisables pour du onsite, je me suis donc rabattu sur les éléments les plus simples et les plus importants :

  • changements de balise title
  • évolution du nombre de mots sur la page (ajout/retrait de contenu)
  • nombre de pages indexées

L’union fait la force

Le vrai gros problème dans tout ce que je viens de détailler, c’est le coût.

Si scraper Google coûte horriblement cher, pour ne pas dire un bras (plusieurs centaines d’IP nécessaires pour scraper plusieurs dizaines de milliers de mots-clés quotidiennement ou presque), l’accès aux données de backlinks auprès des leaders sur le marché coûte un autre bras.

Pourtant, un scrap est un scrap, et une fois le travail réalisé, il ne coûte pas beaucoup plus cher de donner l’accès à 1 ou 100 personnes.

L’idée a donc été de frapper un grand coup et de créer une sorte de « Groupon » du monitoring de positions : au lieu d’être sur un modèle « 1 projet = 1 euro », j’ai préféré effectuer un scrap sur le top 50 000 (et très bientôt top 100 000) mots-clés les plus pertinents selon adwords, avec un élément radicalement différent : chaque client qui paye un abonnement peut accéder à la totalité de la base de données et à tout l’historique.

Et s’il veut suivre des mots-clés qui ne sont pas encore présentes, il peut simplement les ajouter au corpus.

Concrètement, cela donne quoi ?

L’outil tel qu’il fonctionne à l’heure actuelle possède trois modules :

Une base de recherche avancée de mots-clés, avec possibilité de télécharger toute la base en csv. Cette donnée à elle toute seule vaut plusieurs centaines d’euros.

Capture d'écran 2014-09-15 09.36.09

Un écran de machine à remonter le temps dans les SERPs. Vous avez la vision des SERPs à deux dates données, et lorsque vous passez au-dessus d’un site, vous voyez son évolution.

Capture d'écran 2014-09-15 09.37.25

Un écran de détail, où vous affichez 1 à 5 courbes de rankings de sites et la liste des changements opérés par ces mêmes sites, avec des filtres possibles.

Capture d'écran 2014-09-15 09.39.51

Et évidemment un écran avec la liste des derniers backlinks créés de tous les sites suivis (+ un widget qui sera ajouté sur la home).

Capture d'écran 2014-09-15 09.41.11

Le tout sans aucune restriction de consultation, en tout cas pour les data de rankings, dans les limites du raisonnable.

Ok, ok, mais les accès ouvrent quand ?

Il manque deux détails à régler avant de pouvoir ouvrir les inscriptions en bonne et due forme :

  1. la finalisation du deal avec le fournisseur de données pour les backlinks à savoir MajesticSEO. La plupart des outils à l’heure actuelle vous proposent de connecter votre compte Ahrefs ou MajesticSEO à leur outil, ce qui fait que vous vous retrouvez à payer plusieurs abonnements.
    Je veux procéder différemment et vous fournir directement ces données, ce qui est assez compliqué car cela me place dans une position de « revendeur » de données, avec plein d’implications business pour ces fournisseurs, qui génèralement n’aiment pas du tout cela. Ils préfèrent évidemment avoir un « lien direct » avec le client final plutôt qu’avec moi. Bref, les négociations sont serrées mais un deal a été trouvé. Je suis donc en train de valider les derniers détails qui prennent plus de temps que prévu.
  2. la finalisation de la rédaction et la validation de mes CGV et CGU par mon avocat. Tâche chronophage et ingrate, mais absolument nécessaire pour lancer un outil. Je veux pouvoir protéger les utilisateurs qui peuvent vouloir passer des heures sur l’outil à faire de la vraie R&D, mais me protéger contre les scrapeurs, non seulement techniquement mais aussi légalement.

Les accès vont ouvrir progressivement, par batch de 10-20 utilisateurs afin de ne pas surcharger le serveur et d’analyser la montée en charge. Les premiers arrivés seront donc les premiers servis.

Pour profiter en priorité de l’ouverture de SEObserver, inscrivez votre email ci-dessous.

A très vite pour le pot de naissance :)