Hangout Webmasters Google

Voici la liste de questions en ligne sur https://www.google.com/moderator/#15/e=217a64&t=217a64.40 et posées par des internautes désireux de communiquer avec des Googlers.
Ces questions seront débattues demain, mais j'ai trouvé l'exercice d'essayer de répondre intéressant, alors voici SANS ATTENDRE les réponses du Promoteur Internet !


"Dans certains cas, l'ajout de liens transverses (sitewide) dans une galaxie de sites peut favoriser la navigation. Mais leur présence peut aussi être considérée comme un abus, source de pénalité. Quelle est la position de Google sur le sujet ?"

> Si les liens sont liés à la thématique du site et dirigent vers une page pertinente, intéressante, source d'autorité, alors il n'y a pas de problème. Si par contre il s'agit d'une liste de liens vers des sites sans aucune relation avec le site émetteur, c'est plus problématique. Pourquoi l'internaute cliquerait-il sur un lien "moule pour sculpteur" depuis une page qui traite de l'élevage de poulets ?

 "Bonjour. les webmasters et SEOs auraient bien besoin de plus de transparence concernant les pénalités algorithmiques infligées aux sites de leurs clients. A quand un export visible d'un indice de confiance dans GWT ?"

> L'indice de confiance existe depuis longtemps : il y a le TrustRank, le PageRank, le PigeonRank, et puis il suffit de voir si votre site est bien positionné sur Google depuis longtemps, ce qui est signe de confiance. Il ne peut pas y avoir plus de transparence, surtout concernant les pénalités algorithmiques qui sont, comme leur nom l'indique, dues à des filtres logiciels. A vous de voir si vous avez sur-optimisé vos ancres, blasté vos pages satellites, fait du spamco en mode bourrin ou appuyé sur le bouton Xrummer pour une campagne blietzkrieg (parler allemand est redevenu tendance depuis le score de 7 à 1 contre le brésil en coupe du monde hier).

 "Que faire en tant qu'entreprise lorsque l'on fait face à une tentative de négative SEO sur son site? (ex: Dépôt à notre insu de milliers de liens sur des sites de mauvaises qualité). Quels recours possibles à part désavouer les liens quotidiennement?"

> Des retours d'expérience de la communauté SEO francophone montrent que le désaveu n'a que peu d'incidence dans un premier temps, et que la suppression de liens non plus. Votre site va bouger un peu dans les SERPS, mais pas de façon importante. Concentrez-vous sur le contenu de votre site plutôt que sur les liens qui pointent vers vos pages. Pour le dire autrement : occupez-vous déjà de ce que vous pouvez maîtriser, avant de regarder du côté de ce que vous ne contrôlez pas toujours... A méditer...

Google Maps est l'anagramme de Google Spam... coïncidence ?"

>Oui, vous auriez également pu proposer Google Pasm

"Bonjour, suite à l'intégration de Google Maps sur un site que j'édite, j'ai vu apparaître un grand nombre de mentions "Désolé, aucune image n'est disponible pour cette zone." (ou équivalent en anglais) dans les SERPs. Comment pallier à ce phénomène ?"

> Depuis les pages Google+, Local et Business, il n'est plus vraiment utile d'intégrer un bout de carte Gmaps sur son site. Ouvrez plutôt un compte "My Business" gratuit !

"Bonjour, nous avons pas assez de transparence avec l'outil de désaveux des liens envers nos clients pour une agence par exemple. Quand allez vous mettre en place un délais de traitement avec une estimation en jours, mois ou années ?"

> Cet outil (voir réponse plus haut) est un indicateur en interne. Il n'est pas connecté à un logiciel ou à l'algorithme du moteur de recherche. Il est donc impossible de créer automatiquement des listes et files d'attente de traitement programmé qui répondraient à votre attente. Tout est traité en interne par des Googlers, qui décident au cas par cas de proposer des actions sur le site désavoué et/ou le site "victime"

"GWT donne peut d'info sur les raisons d'une pénalité. Cela complique si on ne connait pas tout l'historique du site. Plusieurs demande de reconsidérations sont souvent nécessaires pour identifier le problème. Pourquoi si peu d'information?"

> Voir réponses ci-dessus. A l'origine, Google indexe le web, Google n'est pas le Juge qui sait si un lien est bénéfique ou nocif. Pour combattre le spam, des filtres ont été mis en place (Panda et Penguin pour les plus connus). Toutes ces complications et ces reproches depuis 3 ans sont dues aux failles que les spammeurs continuent d'exploiter, et ça nous a valu le départ de Matt Cutts en congés parce qu'il est exténué à force de répondre et d'expliquer aux webmasters des consignes qui sont... inexplicables. Car dans un cas, un site peut prendre une pénalité à cause d'un signal logiciel totalement hors de l'action du webmaster (c'est pas de chance), et dans un autre un site de webmaster qui fraude en toute connaissance de cause peut réussir à se positionner pendant des mois devant d'autres plus respectueux de nos guidelines... Il faut que chaque éditeur de site comprenne bien que c'est du cas par cas : ça fait des millions, des milliards de cas

"Sur les pénalités manuelles pour les liens externes. Il est souvent difficile de mesurer l'ampleur du problème quand on reprend un site qui a plusieurs années d'existence. Pourquoi ne pas donner une information plus exhaustive dans le mail d'alerte?"

> Décidément, les questions sur les pénalités reviennent souvent... Confère nos réponses précédentes. Il ne faut pas s'imaginer que Google va vous écrire "désolé, votre site a été sorti des SERPS parce que nous avons détecté :

  • 5 liens depuis des sites PR0 non indexés suivants :
  • 12 liens avec ancre optimisée sur les keywords "moulage d'art petite série" sur les sites suivants :
  • 3 profils de forum avec lien "atelier de moulage" en signature sur les sites suivants,
  • 42 likes depuis des profils Facebook fantôches,
  • 10 RT depuis des twittbots,
  • etc

"Dans tous les cas de pénalité, pourquoi ne pas envoyer un message préalable d'alerte, avec un délai, avant de la mettre en oeuvre ?"

> Parce que cela reviendrait à dire au spammeur : "Ouèch Gros, on t'a reperé, mais on te prévient juste pour l'instant, alors profite des 3 mois qui viennent pour continuer à ranker avant la pénalité, et si t'es pas trop bête, prépares d'autres sites qui prendront la relève"

"A quand une vraie API de lecture pour Google Webmaster Tools ?"

> On fournit déjà tout : le moteur de recherche qui est abusé par tous les SEO, développeurs, scrappers et autres veilleurs du web, GWT, Analytics, des outils d'alerte, toussa...

"Pour optimiser le crawl des robots Google, nous savons que les sitemaps & robots.txt aident à la tâche. Cependant existe-t-il une limitation dans le nombre de pages crawlées par Google / jour sur un domaine ?"

> Sitemaps et Robots.txt "n'aident pas" GoogleBot dans sa tâche. Ce qui l'aide, c'est l'optimisation du poids des pages (vitesse de chargement fournie par Speed Insight) et votre maillage interne surtout. Après, la configuration du serveur, l'infrastructure matérielle, etc tout cela fait que Google crawle régulièrement et en profondeur. Et bien sûr qu'il y a des limitations, Google n'alloue pas des ressources coûteuses pour des sites qui sont mal conçus.

 "Bonjour, existe-t-il une manière d'etre de nouveau dans les resultats de google après avoir supprimé tous ses backlinks nocifs, autre que la demande de reconsidération, puisqu'il ne s'agit pas ici d'une pénalité manuelle, mais bien algorithmique ?"

> Décidément ! Si vous pensez avoir supprimé les liens nocifs (et je me demande bien comment vous avez fait pour : les identifier / les supprimer TOUS), il n'y a plus qu'à attendre... Le prochain passage de GoogleBot sur votre site, la prochaine update de filtre...

"Bonjour, l'authorship a-t-il une incidence sur le positionnement d'un site ? La suppression des photos dans les pages de résultats signifie-t-il que ce n'est pas important ?"

> Non, la disparition des photos n'influe "QUE" sur le CTR des pages dans les Serps. L'authorship est très important, mais a été tellement spammé rapidement que nous avons décidé de revoir notre copie sur le sujet... Certains SEO français, qui n'ont rien à envier aux américains, ont publié sur le sujet, cf. http://www.visibilite-referencement.fr/blog/officiel-photo-authorship-supprime

 "La loi Française sur les numéros surtaxés exige depuis le 07/2013 l'accord formel de l'intéressé. Plusieurs annuaires d'entreprises a num surtaxés sont passés devant nous alors que nous respectons la loi et consignes de google. Allez-vous y remédier?"

> Ce n'est pas une priorité. Google ne change pas son algorithme en fonction du respect des lois de tel ou tel site. S'ils sont passés devant vous, c'est qu'ils ont travaillé sur les volets onpage, onsite et offsite, probablement.

"Bonjour, j'aimerai que ma timeline soit dans l'ordre chronologique, de vieux posts remontent quand je rafraichis ma page. Une solution ?"

> Supprimez ces vieux posts qui encombrent votre visibilité

"Bonjour, depuis le 28 juin dernier j'ai une chute de presque 75% du trafic Google vers mon site <URL DU SITE édité> J'arrive pas à retrouver les causes directe même si certains problèmes in-site mais je doute que cela explique la chute merci"

> Vu comment vous avez essayé de placer votre lien ici de façon très grossière, c'est bizarre que vous ne déduisiez pas les causes possibles d'une telle chûte !

Bonjour, Sur google+, certains lieux physiques sont identifiés par google par la montgolfière rouge, d'autres non. Le pb est pour ces pages non identifiées: comment créer 1 montgolfière pour l'authentifier après comme "établissement local validé" ?"

> Vous pouvez créer plusieurs pages "business" : une pour chaque lieu physique. Vous recevrez votre code par voie postale (ou montgolfière, oups, désolé je n'ai pas pu m'empêcher) et pourrez alors valider votre établissement.

"bonsoir, je voudrais savoir quelles sont les étapes à suivre pour construire une page web HTML et bien sur avec de CSS. je sais tous les balises html et les propriétés CSS nécessaires, mais je ne sais pas comment en faire pour avoir une page complète"

> Votre question est trop générique, consultez les guidelines, des tutoriels et des vidéos pour webmasters, des forums et des blogs sur le sujet : il y en a des milliards. Bref : RTFM

"Je n'arrive pas à créer mon compte GWT pour un site relié à analytics (il ne l'accepte pas car pas de "www" en début d'url. Comment puis-je faire ?"

> Ajoutez le sous-domaine "www" en début d'URL.