<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>
<channel>
	<title>Archives des google leak | I Have a Dream</title>
	<atom:link href="https://www.ihaveadream.pro/tag/google-leak/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.ihaveadream.pro/tag/google-leak/</link>
	<description>Actus Seo, iA &#38; Digital Dreams</description>
	<lastBuildDate>Wed, 29 May 2024 07:29:55 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
<image>
	<url>https://www.ihaveadream.pro/cloud/2024/05/tete-de-lion-150x150.png</url>
	<title>Archives des google leak | I Have a Dream</title>
	<link>https://www.ihaveadream.pro/tag/google-leak/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Les secrets de l&#8217;algo 😱 La doc technique interne de Google Search a fuité</title>
		<link>https://www.ihaveadream.pro/actus/les-secrets-de-lalgo-la-doc-technique-interne-de-google-search-a-fuite/</link>
					<comments>https://www.ihaveadream.pro/actus/les-secrets-de-lalgo-la-doc-technique-interne-de-google-search-a-fuite/#respond</comments>
		
		<dc:creator><![CDATA[Manuel Cebrian]]></dc:creator>
		<pubDate>Tue, 28 May 2024 13:31:14 +0000</pubDate>
				<category><![CDATA[Actus]]></category>
		<category><![CDATA[Google]]></category>
		<category><![CDATA[google leak]]></category>
		<guid isPermaLink="false">https://www.ihaveadream.pro/?p=1728</guid>
					<description><![CDATA[<p>Google, si vous lisez ceci, il est trop tard. 😉 Ok. Cracks knuckles. Allons droit au but. La documentation interne de l'API Content Warehouse de Google Search a fait l'objet d'une fuite. Les microservices internes de Google semblent refléter ce que Google Cloud Platform offre et la version interne de la documentation pour le Document AI Warehouse déprécié a été accidentellement publiée publiquement sur un [...]</p>
<p>L’article <a href="https://www.ihaveadream.pro/actus/les-secrets-de-lalgo-la-doc-technique-interne-de-google-search-a-fuite/">Les secrets de l&#8217;algo 😱 La doc technique interne de Google Search a fuité</a> est apparu en premier sur <a href="https://www.ihaveadream.pro">I Have a Dream</a>.</p>
]]></description>
										<content:encoded><![CDATA[<style type="text/css" data-name="kubio-style"></style>
<p>Google, si vous lisez ceci, il est trop tard <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f609.png" alt="😉" class="wp-smiley" style="height: 1em; max-height: 1em;" /> </p>
<p>Ok. <i>Cracks knuckles</i>. Allons droit au but. La documentation interne de l&#8217;API Content Warehouse de Google Search a fait l&#8217;objet d&#8217;une fuite. Les microservices internes de Google semblent refléter ce que Google Cloud Platform offre et la version interne de la documentation pour le Document AI Warehouse déprécié a été accidentellement publiée publiquement sur un dépôt de code pour la bibliothèque client. La documentation de ce code a également été capturée par un service de documentation automatisé externe. </p>
<p>D&#8217;après l&#8217;historique des modifications, cette erreur de dépôt de code a été corrigée le 7 mai, mais la documentation automatisée est toujours en ligne. Afin de limiter la responsabilité potentielle, je n&#8217;y ferai pas référence ici, mais comme tout le code de ce dépôt a été publié sous la licence Apache 2.0, quiconque l&#8217;a trouvé s&#8217;est vu accorder un large éventail de droits, y compris la possibilité de l&#8217;utiliser, de le modifier et de le distribuer de toute façon. <img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image13-1024x490-1.png" alt=""></p>
<p>J&#8217;ai examiné les documents de référence de l&#8217;API et les ai mis en contexte avec d&#8217;autres fuites antérieures de Google et le témoignage antitrust du DOJ. Je combine cela avec les recherches approfondies sur les brevets et les livres blancs effectuées pour mon prochain livre, The Science of SEO (La science du référencement). Bien que la documentation que j&#8217;ai examinée ne contienne aucun détail sur les fonctions d&#8217;évaluation de Google, elle contient une multitude d&#8217;informations sur les données stockées pour le contenu, les liens et les interactions avec les utilisateurs. On y trouve également des descriptions plus ou moins détaillées (allant de décevantes à étonnamment révélatrices) des caractéristiques manipulées et stockées.</p>
<p>Vous seriez tenté de les appeler globalement &#8220;facteurs de classement&#8221;, mais ce serait imprécis. Nombre d&#8217;entre eux, voire la plupart, <i>sont des</i> facteurs de classement, mais beaucoup ne le sont pas. Ce que je vais faire ici, c&#8217;est mettre en contexte certains des systèmes et fonctionnalités de classement les plus intéressants (du moins, ceux que j&#8217;ai pu trouver au cours des premières heures d&#8217;examen de cette fuite massive) sur la base de mes recherches approfondies et des choses que Google nous a dites ou menties au fil des ans.</p>
<p>le mot &#8220;mentir&#8221; est un peu fort, mais c&#8217;est le seul mot exact à utiliser ici. Si je ne reproche pas nécessairement aux représentants publics de Google de protéger leurs informations confidentielles, je m&#8217;insurge contre leurs efforts visant à discréditer activement les personnes qui, dans le monde du marketing, de la technologie et du journalisme, ont présenté des découvertes reproductibles. Mon conseil aux futurs dirigeants de Google qui s&#8217;exprimeront sur ces sujets : Il est parfois préférable de dire simplement &#8220;nous ne pouvons pas en parler&#8221; Votre crédibilité est importante, et lorsque des fuites comme celle-ci et des témoignages comme ceux du procès du DOJ sont révélés, il devient impossible de faire confiance à vos futures déclarations.</p>
<h2>Les mises en garde</h2>
<p>Je pense que nous savons tous que des personnes s&#8217;efforceront de discréditer les conclusions et l&#8217;analyse que j&#8217;ai tirées de cette fuite. Certains se demanderont pourquoi c&#8217;est important et diront &#8220;mais nous le savions déjà&#8221; Alors, éliminons les mises en garde avant de passer aux choses sérieuses.</p>
<ul>
<li><b>Temps et contexte limités &#8211; </b>En raison du week-end de vacances, je n&#8217;ai pu consacrer qu&#8217;une douzaine d&#8217;heures à l&#8217;étude de ce dossier. Je suis incroyablement reconnaissant à certaines parties anonymes qui ont été très utiles en partageant leurs idées avec moi pour m&#8217;aider à me mettre à niveau rapidement. Par ailleurs, comme pour la fuite de Yandex que j&#8217;ai couverte l&#8217;année dernière, je n&#8217;ai pas une vision complète de la situation. Alors que nous avions le code source à analyser mais aucune des idées qui le sous-tendaient pour Yandex, dans ce cas-ci, nous avons une partie des idées qui sous-tendent des milliers de fonctionnalités et de modules, mais pas de code source. Vous devrez me pardonner de partager ceci d&#8217;une manière moins structurée que je ne le ferai dans quelques semaines, après m&#8217;être penché plus longuement sur le sujet.</li>
<li><b>Pas de fonctions de notation &#8211; </b>Nous ne savons pas comment les caractéristiques sont pondérées dans les diverses fonctions de notation en aval. Nous ne savons pas si toutes les fonctionnalités disponibles sont utilisées. Nous savons que certaines fonctionnalités sont obsolètes. Sauf indication explicite, nous ne savons pas comment les choses sont utilisées. Nous ne savons pas où tout se passe dans le pipeline. Nous disposons d&#8217;une série de systèmes de classement nommés qui correspondent vaguement à la manière dont Google les a expliqués, à la manière dont les référenceurs ont observé les classements dans la nature, et à la manière dont les demandes de brevet et la littérature de RI expliquent. En fin de compte, grâce à cette fuite, nous avons maintenant une image plus claire de ce qui est envisagé et qui peut informer ce sur quoi nous nous concentrons par rapport à ce que nous ignorons dans le référencement à l&#8217;avenir.</li>
<li><b>Probablement le premier d&#8217;une série de billets &#8211; </b>Ce billet sera mon premier coup de pinceau sur ce que j&#8217;ai examiné. Il se peut que je publie d&#8217;autres articles au fur et à mesure que je continue à creuser les détails. Je pense que cet article va inciter la communauté SEO à analyser ces documents et que nous allons, collectivement, découvrir et recontextualiser les choses pendant des mois.</li>
<li><b>Ces informations semblent être d&#8217;actualité &#8211; </b>D&#8217;après ce que je peux dire, cette fuite représente l&#8217;architecture actuelle et active de Google Search Content Storage à partir de mars 2024. (Un responsable des relations publiques de Google vous dira que j&#8217;ai tort. En fait, passons la chanson et la danse, vous tous). D&#8217;après l&#8217;historique des livraisons, le code correspondant a été poussé le 27 mars 2024 et n&#8217;a été supprimé que le 7 mai 2024.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image44.png" alt="" /></li>
<li><b>Corrélation n&#8217;est pas causalité</b> &#8211; Ok, celle-ci ne s&#8217;applique pas vraiment ici, mais je voulais juste m&#8217;assurer que je couvrais toutes les bases.</li>
</ul>
<p></p>
<p></p>
<h2>Il y a 14 000 caractéristiques de classement et plus encore dans les documents</h2>
<p></p>
<p></p>
<p>Il y a 2 596 modules représentés dans la documentation de l&#8217;API avec 14 014 attributs (caractéristiques) qui ressemblent à ceci :</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image20.png" alt="" /></figure>
<p>Les modules sont liés à des composants de YouTube, Assistant, Livres, recherche vidéo, liens, documents web, infrastructure de crawl, système de calendrier interne et API Personnes. Techniquement, une grande partie des fonctionnalités n&#8217;est donc pas destinée au classement. Tout comme Yandex, les systèmes de Google fonctionnent sur un référentiel monolithique (ou &#8220;monorepo&#8221;) et les machines fonctionnent dans un environnement partagé. Cela signifie que tout le code est stocké au même endroit et que n&#8217;importe quelle machine du réseau peut faire partie de n&#8217;importe quel système de Google.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image42-1024x767-1.png" alt="" /></figure>
<p>La documentation qui a fait l&#8217;objet d&#8217;une fuite décrit chaque module de l&#8217;API et les décompose en résumés, types, fonctions et attributs. La plupart des éléments que nous examinons sont les définitions des propriétés de divers tampons de protocole (ou protobufs) auxquels les systèmes de classement accèdent pour générer des SERP (Search Engine Result Pages &#8211; ce que Google affiche aux internautes après qu&#8217;ils ont effectué une requête).</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image38.png" alt="" /></figure>
<p>Malheureusement, de nombreux résumés font référence à des liens Go, qui sont des URL sur l&#8217;intranet de l&#8217;entreprise Google, offrant des détails supplémentaires sur différents aspects du système. Sans les identifiants Google nécessaires pour se connecter et consulter ces pages (ce qui nécessiterait très certainement d&#8217;être un Googler de l&#8217;équipe de recherche), nous sommes livrés à nous-mêmes pour interpréter.</p>
<p></p>
<p></p>
<h2>Les documents de l&#8217;API révèlent quelques mensonges notables de Google</h2>
<p></p>
<p></p>
<p>Les porte-parole de Google ont tout fait pour nous induire en erreur sur divers aspects du fonctionnement de leurs systèmes, dans le but de contrôler notre comportement en tant que référenceurs. Je n&#8217;irai pas jusqu&#8217;à parler d'&#8221;ingénierie sociale&#8221; en raison de l&#8217;histoire chargée de ce terme. Je préfère parler d'&#8221;éclairage au gaz&#8221; Les déclarations publiques de Google ne sont probablement pas des efforts intentionnels pour mentir, mais plutôt pour tromper les spammeurs potentiels (et de nombreux référenceurs légitimes également) afin de nous faire perdre de vue la façon d&#8217;influencer les résultats de recherche.</p>
<p>Ci-dessous, je présente des affirmations d&#8217;employés de Google ainsi que des faits tirés de la documentation, accompagnés de commentaires limités, afin que vous puissiez juger par vous-même.</p>
<h2><em>&#8220;Nous n&#8217;avons rien de comparable à l&#8217;autorité de domaine&#8221;</em></h2>
<p>Les porte-parole de Google ont déclaré à plusieurs reprises qu&#8217;ils n&#8217;utilisaient pas &#8220;l&#8217;autorité de domaine&#8221; J&#8217;ai toujours pensé qu&#8217;il s&#8217;agissait d&#8217;un mensonge par omission et par dissimulation.</p>
<p>En disant qu&#8217;ils n&#8217;utilisent pas l&#8217;autorité de domaine, ils pourraient dire qu&#8217;ils n&#8217;utilisent pas spécifiquement la métrique de Moz appelée &#8220;Autorité de domaine&#8221; (évidemment <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f644.png" alt="🙄" class="wp-smiley" style="height: 1em; max-height: 1em;" />). Ils pourraient également dire qu&#8217;ils ne mesurent pas l&#8217;autorité ou l&#8217;importance d&#8217;un sujet spécifique (ou domaine) en ce qui concerne un site web. Cette confusion sémantique leur permet de ne jamais répondre directement à la question de savoir s&#8217;ils calculent ou utilisent des mesures d&#8217;autorité pour l&#8217;ensemble du site.</p>
<p>Gary Ilyes, un analyste de l&#8217;équipe de recherche de Google qui publie des informations destinées à aider les créateurs de sites web, a répété cette affirmation à de nombreuses reprises.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image21.png" alt="" /></figure>
<p>Et Gary n&#8217;est pas le seul. John Mueller, un &#8220;search advocate qui coordonne les relations de Google avec les moteurs de recherche&#8221; a déclaré dans cette vidéo &#8220;nous n&#8217;avons pas de score d&#8217;autorité de site web&#8221;</p>
<p>En réalité, dans le cadre des signaux de qualité compressés qui sont stockés pour chaque document, Google dispose d&#8217;une fonctionnalité qu&#8217;il calcule et qui s&#8217;appelle &#8220;siteAuthority&#8221;</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image15.png" alt="" /></figure>
<p>Nous ne savons pas précisément comment cette mesure est calculée ou utilisée dans les fonctions de notation en aval, mais nous savons désormais avec certitude qu&#8217;elle existe et qu&#8217;elle est utilisée dans le système de classement Q*. Il s&#8217;avère que Google a effectivement une autorité de domaine globale. Les Googlers prétendent &#8220;nous l&#8217;avons, mais nous ne l&#8217;utilisons pas&#8221;, ou &#8220;vous ne comprenez pas ce que cela signifie&#8221;, ou&#8230; attendez, j&#8217;ai dit &#8220;commentaires limités&#8221;, n&#8217;est-ce pas ? <i>Poursuivons.</i></p>
<h2><em>&#8220;Nous n&#8217;utilisons pas les clics pour les classements</em></h2>
<p>Mettons celle-ci au placard pour de bon.</p>
<p>Le témoignage de Pandu Nayak dans le procès antitrust du DOJ a récemment révélé l&#8217;existence des systèmes de classement Glue et NavBoost. NavBoost est un système qui utilise des mesures basées sur le nombre de clics pour améliorer, rétrograder ou renforcer d&#8217;une autre manière un classement dans la recherche sur le Web. M. Nayak a indiqué que Navboost existait depuis 2005 environ et qu&#8217;il utilisait traditionnellement des données de clics sur une période de 18 mois. Le système a récemment été mis à jour pour utiliser des données sur 13 mois consécutifs et se concentrer sur les résultats de recherche sur le web, tandis qu&#8217;un système appelé Glue est associé à d&#8217;autres résultats de recherche universels. Cependant, même avant cette révélation, nous disposions de plusieurs brevets (dont le brevet Time Based Ranking de 2007) qui indiquent spécifiquement comment les journaux de clics peuvent être utilisés pour modifier les résultats.</p>
<p>Nous savons également que les clics, en tant que mesure du succès, constituent une bonne pratique en matière de recherche d&#8217;informations. Nous savons que Google s&#8217;est orienté vers des algorithmes basés sur l&#8217;apprentissage automatique et que l&#8217;apprentissage automatique nécessite des variables de réponse pour affiner ses performances. Malgré ces preuves stupéfiantes, la confusion règne toujours dans la communauté des référenceurs en raison de la mauvaise orientation des porte-parole de Google et de la publication complice et embarrassante d&#8217;articles dans le monde du marketing de recherche qui répètent sans esprit critique les déclarations publiques de Google.</p>
<p>Gary Ilyes a abordé la question de la mesure des clics à de nombreuses reprises. Dans un cas, il a renforcé ce que Paul Haahr, ingénieur de Google Search, a partagé dans sa conférence SMX West de 2016 sur les expériences en direct, en disant que &#8220;utiliser les clics directement dans les classements serait une erreur&#8221;</p>
<p><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image47.png" alt="" /><br />Plus tard encore, il a utilisé sa plateforme pour dénigrer Rand Fishkin (fondateur/PDG de Moz, et praticien SEO de longue date) en disant que <i>&#8220;le temps de séjour, le CTR, quelle que soit la nouvelle théorie de Fishkin, ce sont généralement des conneries inventées.&#8221;</i></p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image27.png" alt="" /></figure>
<p>En réalité, Navboost dispose d&#8217;un module spécifique entièrement consacré aux signaux de clics.</p>
<p>Le résumé de ce module le définit comme &#8221; les signaux de clics et d&#8217;impressions pour le Craps &#8220;, l&#8217;un des systèmes de classement. Comme nous le voyons ci-dessous, les mauvais clics, les bons clics, les derniers clics les plus longs, les clics non masqués et les derniers clics les plus longs non masqués sont tous considérés comme des métriques. Selon le brevet &#8220;Scoring local search results based on location prominence&#8221; de Google, &#8220;Squashing is a function that prevents one large signal from dominating the others&#8221; (l&#8217;écrasement est une fonction qui empêche un signal important de dominer les autres) En d&#8217;autres termes, les systèmes normalisent les données relatives aux clics afin de s&#8217;assurer qu&#8217;il n&#8217;y a pas de manipulation incontrôlée basée sur le signal de clic. Les Googlers affirment que les systèmes décrits dans les brevets et les livres blancs ne sont pas nécessairement ceux qui sont en production, mais il serait absurde de construire et d&#8217;inclure NavBoost s&#8217;il ne s&#8217;agissait pas d&#8217;un élément essentiel des systèmes de recherche d&#8217;informations de Google.</p>
<p><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image41.png" alt="" /><br />Un grand nombre de ces mesures basées sur les clics se retrouvent également dans un autre module relatif aux signaux d&#8217;indexation. L&#8217;une de ces mesures est la date du &#8220;dernier bon clic&#8221; sur un document donné. Cela suggère que la dégradation du contenu (ou la perte de trafic au fil du temps) est également fonction du fait qu&#8217;une page de classement ne génère pas le nombre de clics escompté pour sa position dans les SERP.</p>
<p>En outre, la documentation représente les utilisateurs comme des électeurs et leurs clics sont stockés comme leurs votes. Le système compte le nombre de mauvais clics et segmente les données par pays et par appareil.</p>
<p>Il enregistre également le résultat qui a fait l&#8217;objet du plus long clic au cours de la session. Il ne suffit donc pas d&#8217;effectuer une recherche et de cliquer sur le résultat, il faut aussi que les utilisateurs passent beaucoup de temps sur la page. Les clics longs sont une mesure du succès d&#8217;une session de recherche au même titre que le temps d&#8217;attente, mais il n&#8217;existe pas de fonction spécifique appelée &#8220;temps d&#8217;attente&#8221; dans cette documentation. Néanmoins, les clics longs sont effectivement des mesures de la même chose, ce qui contredit les déclarations de Google à ce sujet.</p>
<p>Diverses sources ont indiqué que NavBoost est &#8220;déjà l&#8217;un des signaux de classement les plus forts de Google&#8221;. La documentation qui a fait l&#8217;objet d&#8217;une fuite mentionne le nom &#8220;Navboost&#8221; 84 fois et cinq modules comportent Navboost dans leur titre. Il est également prouvé qu&#8217;ils envisagent son évaluation au niveau du sous-domaine, du domaine racine et de l&#8217;URL, ce qui indique intrinsèquement qu&#8217;ils traitent différemment les différents niveaux d&#8217;un site. Je n&#8217;entrerai pas dans l&#8217;argument du sous-domaine par rapport à l&#8217;annuaire, mais nous verrons plus tard comment les données du système ont également influencé l&#8217;algorithme Panda.</p>
<p>Alors, oui, Google ne mentionne pas le &#8220;CTR&#8221; ou le &#8220;dwell time&#8221; par ces mots exacts dans cette documentation, mais l&#8217;esprit de ce que Rand a prouvé : les clics sur les résultats de recherche et les mesures d&#8217;une session de recherche réussie, sont inclus. La preuve est assez définitive, il ne fait guère de doute que Google utilise les clics et le comportement post-clic dans le cadre de ses algorithmes de classement.</p>
<h2><em>&#8220;Il n&#8217;y a pas de bac à sable</em></h2>
<p>Les porte-parole de Google ont été catégoriques sur le fait qu&#8217;il n&#8217;existe pas de bac à sable dans lequel les sites web sont isolés en fonction de leur âge ou de l&#8217;absence de signaux de confiance. Dans un tweet aujourd&#8217;hui supprimé, John Muller a répondu à une question sur le temps nécessaire pour être éligible au classement en indiquant qu'&#8221;il n&#8217;y a pas de bac à sable&#8221;</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image39.png" alt="" /></figure>
<p>Dans le module PerDocData, la documentation indique un attribut appelé hostAge qui est utilisé spécifiquement &#8220;pour mettre le spam frais dans un bac à sable pendant le temps de service&#8221;</p>
<p>Il s&#8217;avère qu&#8217;il existe finalement un bac à sable. <i>Qui le savait ? </i><i>Oh oui, Rand le savait</i><i>.</i></p>
<h2><em>&#8220;Nous n&#8217;utilisons rien de Chrome pour le classement&#8221;</em></h2>
<p>Matt Cutts a déjà déclaré que Google n&#8217;utilisait pas les données de Chrome dans le cadre de la recherche organique. Plus récemment, John Muller a renforcé cette idée.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image33.png" alt="" /></figure>
<p>L&#8217;un des modules relatifs aux scores de qualité des pages comporte une mesure au niveau du site des vues provenant de Chrome. Un autre module qui semble être lié à la génération de sitelinks comporte également un attribut lié à Chrome.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image16-1024x576-1.png" alt="" /></figure>
<p>Une présentation interne divulguée en mai 2016 sur le système RealTime Boost indique également que les données de Chrome allaient être intégrées à la recherche. Vous l&#8217;aurez compris.</p>
<h2>Les porte-parole de Google sont bien intentionnés, mais pouvons-nous leur faire confiance ?</h2>
<p>La réponse rapide est non lorsque vous vous approchez trop près de la sauce secrète.</p>
<p>Je ne nourris aucune rancune à l&#8217;égard des personnes que j&#8217;ai citées ici. Je suis sûr qu&#8217;ils font tous de leur mieux pour apporter leur soutien et leur valeur à la communauté dans les limites autorisées. Cependant, ces documents indiquent clairement que nous devons continuer à prendre ce qu&#8217;ils disent comme une contribution et que notre communauté doit continuer à expérimenter pour voir ce qui fonctionne.</p>
<p></p>
<p></p>
<p>Suivez les étapes ci-dessus pour ajouter la fonction de similarité cosinus à votre projet.</p>
<p></p>
<p></p>
<h2>L&#8217;architecture des systèmes de classement de Google</h2>
<p></p>
<p></p>
<p>D&#8217;un point de vue conceptuel, vous pouvez considérer &#8220;l&#8217;algorithme de Google&#8221; comme une seule et même chose, une équation géante comportant une série de facteurs de classement pondérés. En réalité, il s&#8217;agit d&#8217;une série de microservices dans lesquels de nombreuses caractéristiques sont prétraitées et mises à disposition au moment de l&#8217;exécution pour composer le SERP. D&#8217;après les différents systèmes référencés dans la documentation, il pourrait y avoir plus d&#8217;une centaine de systèmes de classement différents. En supposant qu&#8217;il ne s&#8217;agisse pas de tous les systèmes, il se peut que chacun d&#8217;entre eux représente un &#8220;signal de classement&#8221; et que ce soit ainsi que Google arrive aux 200 signaux de classement dont il parle souvent.</p>
<p>Dans son exposé intitulé &#8220;Building Software Systems at Google and Lessons Learned&#8221;, Jeff Dean a indiqué que les premières itérations de Google envoyaient chaque requête à 1 000 machines qui la traitaient et y répondaient en moins de 250 millisecondes. Il a également schématisé une version antérieure de l&#8217;abstraction de l&#8217;architecture du système. Ce diagramme montre que Super Root est le cerveau de Google Search, qui envoie les requêtes et recolle le tout à la fin.</p>
<p><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image3.png" alt="" /><br />Dans sa récente présentation sur la recherche d&#8217;information générative, Marc Najork, ingénieur de recherche distingué, a présenté un modèle abstrait de Google Search avec son système RAG (alias Search Generative Experience/AI Overviews). Ce diagramme illustre une série de magasins de données et de serveurs différents qui traitent les diverses couches d&#8217;un résultat.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image9-1024x579-1.png" alt="" /></figure>
<p>Le dénonciateur de Google, Zach Vorhies, a divulgué cette diapositive qui illustre les relations entre les différents systèmes de Google par leurs noms internes. Plusieurs d&#8217;entre eux sont référencés dans la documentation.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image19-1.png" alt="" /></figure>
<p>En utilisant ces trois modèles de haut niveau, nous pouvons commencer à réfléchir à la manière dont certains de ces composants fonctionnent ensemble. D&#8217;après ce que je peux déduire de la documentation, il semble que cette API repose sur Spanner de Google. Spanner est une architecture qui permet une extensibilité infinie du stockage de contenu et du calcul tout en traitant une série d&#8217;ordinateurs en réseau mondial comme un seul.</p>
<p>Il est vrai qu&#8217;il est quelque peu difficile de reconstituer la relation entre tous les éléments à partir de la seule documentation, mais le curriculum vitae de Paul Haahr donne un aperçu précieux de ce que font certains des systèmes de classement nommés. Je vais mettre en évidence ceux que je connais par leur nom et les segmenter en fonction de leur fonction.</p>
<h3>Recherche par crawl</h3>
<ul>
<li><b>Trawler &#8211; </b>Le système d&#8217;exploration du web. Il dispose d&#8217;une file d&#8217;attente, maintient les taux d&#8217;exploration et comprend la fréquence à laquelle les pages changent.</li>
</ul>
<h3>Indexation</h3>
<ul>
<li><b>Alexandria &#8211;</b> Le système d&#8217;indexation principal.</li>
<li><b>SegIndexer </b>&#8211; Système qui place les documents par niveaux dans l&#8217;index.</li>
<li><b>TeraGoogle &#8211; </b>Système d&#8217;indexation secondaire pour les documents qui restent sur le disque à long terme.</li>
</ul>
<h3>Rendu</h3>
<ul>
<li><b>HtmlrenderWebkitHeadless &#8211; </b>Système de rendu pour les pages JavaScript. Curieusement, il porte le nom de Webkit plutôt que celui de Chromium. Il est fait mention de Chromium dans la documentation, il est donc probable que Google ait utilisé WebKit à l&#8217;origine et qu&#8217;il ait changé de système après l&#8217;arrivée de Headless Chrome.</li>
</ul>
<h3>Traitement</h3>
<ul>
<li><b>LinkExtractor &#8211;</b> Extrait les liens des pages.</li>
<li><b>WebMirror &#8211; </b>Système de gestion de la canonicalisation et de la duplication.</li>
</ul>
<h3>Classement</h3>
<ul>
<li><b>Mustang &#8211; </b>Principal système de notation, de classement et de service
<ul>
<li>Ascorer &#8211; Algorithme de classement principal qui classe les pages avant tout ajustement du classement.</li>
</ul>
</li>
<li><b>NavBoost &#8211; </b>Système de reclassement basé sur les journaux de clics du comportement des utilisateurs.</li>
<li><b>FreshnessTwiddler &#8211; </b>Système de reclassement des documents basé sur leur fraîcheur.</li>
<li><b>WebChooserScorer &#8211; </b>Définit les noms des caractéristiques utilisées dans l&#8217;évaluation des extraits.</li>
</ul>
<h3>Servir</h3>
<ul>
<li><b>Google Web Server &#8211; </b>GWS est le serveur avec lequel le frontend de Google interagit. Il reçoit les données à afficher à l&#8217;utilisateur.</li>
<li><b>SuperRoot &#8211; </b>C&#8217;est le cerveau de Google Search qui envoie des messages aux serveurs de Google et gère le système de post-traitement pour le reclassement et la présentation des résultats.</li>
<li><b>SnippetBrain &#8211; </b>Système qui génère des extraits de résultats.</li>
<li><b>Glue &#8211;</b> Système permettant de rassembler des résultats universels en fonction du comportement de l&#8217;utilisateur.</li>
<li><b>Cookbook &#8211; </b>Système de génération de signaux. Certains éléments indiquent que les valeurs sont créées au moment de l&#8217;exécution.</li>
</ul>
<p>Comme je l&#8217;ai dit, de nombreux autres systèmes sont décrits dans ces documents, mais leur fonction n&#8217;est pas tout à fait claire. Par exemple, SAFT et Drishti du diagramme ci-dessus sont également représentés dans ces documents, mais leurs fonctions ne sont pas claires.</p>
<p></p>
<p></p>
<h2>Que sont les Twiddlers ?</h2>
<p></p>
<p></p>
<p>Il existe peu d&#8217;informations en ligne sur les Twiddlers en général. Je pense donc qu&#8217;il est utile de les expliquer ici afin de mieux contextualiser les différents systèmes Boost que nous rencontrons dans les documents.</p>
<p>Les Twiddlers sont des fonctions de reclassement qui s&#8217;exécutent après l&#8217;algorithme de recherche primaire d&#8217;Ascorer. Ils fonctionnent de la même manière que les filtres et les actions dans WordPress, où ce qui est affiché est ajusté juste avant d&#8217;être présenté à l&#8217;utilisateur. Les Twiddlers peuvent ajuster le score de recherche d&#8217;information d&#8217;un document ou modifier le classement d&#8217;un document. Un grand nombre d&#8217;expériences en direct et de systèmes nommés que nous connaissons sont mis en œuvre de cette manière. Comme le montre ce Xoogler, ils sont très importants pour toute une série de systèmes Google :</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image10.png" alt="" /></figure>
<p>Les Twiddlers peuvent proposer des contraintes de catégorie, ce qui signifie que la diversité peut être favorisée en limitant spécifiquement le type de résultats. Par exemple, l&#8217;auteur peut décider de n&#8217;autoriser que 3 articles de blog dans un SERP donné. Cela permet de clarifier les cas où le classement est une cause perdue en raison du format de votre page.</p>
<p>Lorsque Google déclare que quelque chose comme Panda ne fait pas partie de l&#8217;algorithme de base, cela signifie probablement qu&#8217;il a été lancé en tant que Twiddler comme un calcul de renforcement ou de rétrogradation du classement et qu&#8217;il a ensuite été déplacé dans la fonction de notation principale. Pensez-y comme à la différence entre le rendu côté serveur et le rendu côté client</p>
<p>On peut supposer que toutes les fonctions portant le suffixe Boost fonctionnent à l&#8217;aide du cadre Twiddler. Voici quelques-unes des fonctions Boost identifiées dans la documentation :</p>
<ul>
<li>NavBoost</li>
<li>QualityBoost</li>
<li>RealTimeBoost</li>
<li>WebImageBoost</li>
</ul>
<p>D&#8217;après leurs conventions d&#8217;appellation, ils sont tous assez explicites.</p>
<p>Il existe également un document interne sur les Twiddlers que j&#8217;ai consulté et qui aborde ce sujet de manière plus détaillée, mais ce billet semble indiquer que l&#8217;auteur a consulté le même document que moi.</p>
<p></p>
<p></p>
<h2>Des révélations clés qui peuvent avoir un impact sur votre façon de faire du référencement</h2>
<p></p>
<p></p>
<p>Venons-en à ce que vous cherchez vraiment. Qu&#8217;est-ce que Google fait que nous ne savions pas ou dont nous n&#8217;étions pas sûrs et comment cela peut-il avoir un impact sur mes efforts de référencement ?</p>
<p>Petite remarque avant d&#8217;aller plus loin. Mon objectif est toujours d&#8217;exposer l&#8217;industrie du référencement à de nouveaux concepts. Mon but <b>n&#8217;est pas </b>de vous donner une prescription sur la façon de l&#8217;utiliser pour votre cas d&#8217;utilisation spécifique. Si c&#8217;est ce que vous voulez, vous devriez engager iPullRank pour votre référencement. Sinon, vous pouvez toujours extrapoler et développer vos propres cas d&#8217;utilisation.</p>
<h3>Comment fonctionne Panda ?</h3>
<p>Lorsque Panda a été mis en place, il y a eu beaucoup de confusion. S&#8217;agit-il d&#8217;apprentissage automatique ? Utilise-t-il les signaux des utilisateurs ? Pourquoi avons-nous besoin d&#8217;une mise à jour ou d&#8217;un rafraîchissement pour récupérer ? S&#8217;agit-il d&#8217;un site entier ? Pourquoi ai-je perdu du trafic pour un certain sous-répertoire ?</p>
<p>Panda a été lancé sous la direction d&#8217;Amit Singhal. Ce dernier était résolument opposé à l&#8217;apprentissage automatique en raison de son caractère observable limité. En fait, il existe une série de brevets axés sur la qualité des sites pour Panda, mais celui sur lequel je souhaite me concentrer est le non-descriptif &#8220;Classement des résultats de recherche&#8221; Le brevet clarifie le fait que Panda est beaucoup plus simple que ce que nous pensions. Il s&#8217;agissait en grande partie de construire un modificateur de score basé sur des signaux distribués liés au comportement de l&#8217;utilisateur et aux liens externes. Ce modificateur peut être appliqué au niveau d&#8217;un domaine, d&#8217;un sous-domaine ou d&#8217;un sous-répertoire.</p>
<p><strong><i>&#8220;Le système génère un facteur de modification pour le groupe de ressources à partir du nombre de liens indépendants et du nombre de requêtes de référence (étape 306). Par exemple, le facteur de modification peut être un rapport entre le nombre de liens indépendants pour le groupe et le nombre de requêtes de référence pour le groupe. En d&#8217;autres termes, le facteur de modification (M) peut être exprimé comme suit :</i><i></i></strong></p>
<p><strong><i>M=IL/RQ,</i></strong></p>
<p><strong><i><br /></i><i>où IL est le nombre de liens indépendants comptabilisés pour le groupe de ressources et RQ est le nombre de requêtes de référence comptabilisées pour le groupe de ressources&#8221;</i></strong></p>
<p>Les liens indépendants sont essentiellement ce que nous pensons être des liens entre domaines racine, mais les requêtes de référence sont un peu plus complexes. Voici comment elles sont définies dans le brevet :</p>
<p><i>&#8220;Une requête de référence pour un groupe particulier de ressources peut être une requête de recherche précédemment soumise qui a été catégorisée comme se référant à une ressource dans le groupe particulier de ressources. La catégorisation d&#8217;une requête de recherche précédemment soumise comme se référant à une ressource dans le groupe particulier de ressources peut inclure : la détermination que la requête de recherche précédemment soumise comprend un ou plusieurs termes qui ont été déterminés comme se référant à la ressource dans le groupe particulier de ressources&#8221;</i></p>
<p>Maintenant que nous avons accès à cette documentation, il est clair que les requêtes de référence sont des requêtes provenant de NavBoost.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image24.png" alt="" /></figure>
<p>Cela suggère que les rafraîchissements Panda étaient simplement des mises à jour de la fenêtre roulante des requêtes, de la même manière que les calculs de Core Web Vitals fonctionnent. Cela pourrait également signifier que les mises à jour du graphe de liens n&#8217;ont pas été traitées en temps réel pour Panda.</p>
<p>Sans vouloir faire de procès d&#8217;intention, un autre brevet Panda, Site quality score, envisage également un score qui est un rapport entre les requêtes de référence et les sélections ou les clics de l&#8217;utilisateur.</p>
<p>En résumé, vous devez obtenir plus de clics <i>réussis </i>en utilisant un ensemble plus large de requêtes et gagner en diversité de liens si vous voulez continuer à vous classer. D&#8217;un point de vue conceptuel, c&#8217;est logique, car un contenu très solide vous permettra d&#8217;atteindre cet objectif. Le fait de se concentrer sur la génération d&#8217;un trafic plus qualifié et d&#8217;une meilleure expérience utilisateur enverra à Google des signaux indiquant que votre page mérite d&#8217;être classée. C&#8217;est ce que vous devez faire pour vous remettre de la mise à jour du contenu utile.</p>
<h3>Les auteurs sont une caractéristique explicite</h3>
<p>Le terme E-E-A-T a fait couler beaucoup d&#8217;encre. De nombreux référenceurs n&#8217;y croient pas en raison du caractère nébuleux de l&#8217;expertise et de l&#8217;autorité. J&#8217;ai également souligné précédemment à quel point le balisage des auteurs est peu présent sur le web. Avant de découvrir les vector embeddings, je ne pensais pas que l&#8217;authorship était un signal suffisamment viable à l&#8217;échelle du web.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image2-1024x577-1.png" alt="" /></figure>
<p>Néanmoins, Google stocke explicitement les auteurs associés à un document sous forme de texte :</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image36.png" alt="" /></figure>
<p>Il cherche également à déterminer si une entité sur la page est également l&#8217;auteur de la page.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image50.png" alt="" /></figure>
<p>Si l&#8217;on ajoute à cela la cartographie approfondie des entités et des liens présentés dans ces documents, il apparaît clairement que les auteurs font l&#8217;objet d&#8217;une mesure globale.</p>
<h3>Rétrogradations</h3>
<p>La documentation présente une série de rétrogradations algorithmiques. Les descriptions sont limitées, mais elles méritent d&#8217;être mentionnées. Nous avons déjà parlé de Panda, mais les autres rétrogradations que j&#8217;ai rencontrées sont les suivantes :</p>
<ul>
<li><b>Anchor Mismatch &#8211; </b>Lorsque le lien ne correspond pas au site cible auquel il renvoie, le lien est rétrogradé dans les calculs. Comme je l&#8217;ai déjà dit, Google recherche la pertinence des deux côtés d&#8217;un lien.</li>
<li><b>Rétrogradation SERP &#8211;</b> Signal indiquant une rétrogradation basée sur des facteurs observés dans les SERP, suggérant une insatisfaction potentielle de l&#8217;utilisateur à l&#8217;égard de la page, probablement mesurée par le nombre de clics.</li>
<li><b>Nav Demotion &#8211; </b> Il s&#8217;agit vraisemblablement d&#8217;une rétrogradation appliquée aux pages présentant de mauvaises pratiques de navigation ou des problèmes d&#8217;expérience utilisateur.</li>
<li><b>Rétrogradation des domaines de correspondance exacte &#8211; </b>Fin 2012, Matt Cutts a annoncé que les domaines de correspondance exacte n&#8217;auraient plus autant de valeur que par le passé. Il existe une fonctionnalité spécifique pour leur rétrogradation.</li>
<li>Rétrogradation<b>des évaluations de produits &#8211; </b>Il n&#8217;y a pas d&#8217;information spécifique à ce sujet, mais c&#8217;est listé comme une rétrogradation et probablement lié à la récente mise à jour de 2023 sur les évaluations de produits.</li>
<li><b>Rétrogradation en fonction de l&#8217;emplacement &#8211; </b>Il semblerait que les pages &#8220;globales&#8221; et &#8220;super globales&#8221; puissent être rétrogradées. Cela suggère que Google tente d&#8217;associer les pages à un lieu et de les classer en conséquence.</li>
<li><b>Rétrogradation des pages pornographiques &#8211; </b>Cette rétrogradation est assez évidente.</li>
<li><b>Autres rétrogradations de liens &#8211; </b>Nous en discuterons dans la section suivante.</li>
</ul>
<p>Toutes ces rétrogradations potentielles peuvent influencer une stratégie, mais elles se résument à la création d&#8217;un contenu de qualité, à une expérience utilisateur solide et à la construction d&#8217;une marque, si nous voulons être honnêtes.</p>
<h3>Les liens semblent toujours aussi importants</h3>
<p>Je n&#8217;ai vu aucune preuve réfutant les récentes affirmations selon lesquelles les liens sont considérés comme moins importants. Encore une fois, il est probable que cela soit traité dans les fonctions d&#8217;évaluation elles-mêmes plutôt que dans la manière dont les informations sont stockées. Cela dit, on a pris grand soin d&#8217;extraire et d&#8217;élaborer des caractéristiques permettant de comprendre en profondeur le graphe des liens.</p>
<h4>Le niveau d&#8217;indexation a un impact sur la valeur des liens</h4>
<p>Une métrique appelée sourceType montre une relation souple entre le niveau d&#8217;indexation d&#8217;une page et sa valeur. Pour la petite histoire, l&#8217;index de Google est stratifié en niveaux où le contenu le plus important, régulièrement mis à jour et consulté, est stocké dans la mémoire flash. Les contenus moins importants sont stockés sur des disques d&#8217;état solide et les contenus mis à jour de manière irrégulière sont stockés sur des disques durs standard.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image40.png" alt="" /></figure>
<p>Cela revient à dire que plus le niveau est élevé, plus le lien a de la valeur. Les pages considérées comme &#8220;fraîches&#8221; sont également considérées comme de haute qualité. En d&#8217;autres termes, vous souhaitez que vos liens proviennent de pages qui sont fraîches ou qui figurent dans le niveau supérieur. Cela explique en partie pourquoi le fait d&#8217;obtenir des classements à partir de pages très bien classées et de pages d&#8217;actualité permet d&#8217;obtenir de meilleurs résultats en termes de classement.<i> Regardez-moi ça, je viens de rendre les relations publiques numériques à nouveau cool !</i></p>
<h4>Signaux de vitesse du spam de liens</h4>
<p>Il existe toute une série de mesures concernant l&#8217;identification des pics dans le texte d&#8217;ancrage des spams. En notant la fonction phraseAnchorSpamDays, Google a effectivement la capacité de mesurer la vitesse des liens de spam.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image37.png" alt="" /></figure>
<p>Cela pourrait facilement être utilisé pour identifier quand un site est en train de spammer et pour annuler une attaque de référencement négatif. Pour ceux qui sont sceptiques à ce sujet, Google peut utiliser ces données pour comparer une base de découverte de liens à une tendance actuelle et simplement ne pas compter ces liens dans un sens ou dans l&#8217;autre.</p>
<h4>Google n&#8217;utilise que les 20 dernières modifications pour une URL donnée lors de l&#8217;analyse des liens</h4>
<p>J&#8217;ai déjà évoqué la capacité du système de fichiers de Google à stocker des versions de pages au fil du temps, à l&#8217;instar de la Wayback Machine. Si j&#8217;ai bien compris, Google conserve pour toujours ce qu&#8217;il a indexé. C&#8217;est l&#8217;une des raisons pour lesquelles vous ne pouvez pas simplement rediriger une page vers une cible non pertinente et vous attendre à ce que l&#8217;équité des liens soit rétablie.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image49.png" alt="" /></figure>
<p>Les documents renforcent cette idée en indiquant qu&#8217;ils conservent tous les changements qu&#8217;ils ont jamais vus pour la page.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image32.png" alt="" /></figure>
<p>Lorsqu&#8217;ils font remonter les données de surface pour les comparer en récupérant DocInfo, ils ne prennent en compte que les 20 dernières versions de la page.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image14.png" alt="" /></figure>
<p>Cela devrait vous donner une idée du nombre de fois où vous devez modifier des pages et les faire indexer pour obtenir une &#8220;table rase&#8221; dans Google.</p>
<h4>Le PageRank de la page d&#8217;accueil est pris en compte pour toutes les pages</h4>
<p>Chaque document est associé au PageRank de sa page d&#8217;accueil (la version la plus proche de la graine). Celui-ci est probablement utilisé comme proxy pour les nouvelles pages jusqu&#8217;à ce qu&#8217;elles acquièrent leur propre PageRank.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image8.png" alt="" /></figure>
<p>Il est probable que this et siteAuthority soient utilisés comme proxy pour les nouvelles pages jusqu&#8217;à ce que leur propre PageRank soit calculé.</p>
<h4>Confiance dans la page d&#8217;accueil</h4>
<p>Google décide de la valeur d&#8217;un lien en fonction de la confiance qu&#8217;il accorde à la page d&#8217;accueil.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image30.png" alt="" /></figure>
<p>Comme toujours, vous devriez vous concentrer sur la qualité et la pertinence de vos liens plutôt que sur le volume.</p>
<h4>La taille de la police des termes et des liens est importante</h4>
<p>Lorsque j&#8217;ai commencé à faire du référencement en 2006, l&#8217;une des choses que nous faisions était de mettre le texte en gras et de le souligner ou de grossir certains passages pour qu&#8217;ils paraissent plus importants. Au cours des cinq dernières années, j&#8217;ai vu des gens dire que cela valait toujours la peine d&#8217;être fait. J&#8217;étais sceptique, mais je vois maintenant que Google suit la taille de police moyenne pondérée des termes dans les documents.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image26.png" alt="" /></figure>
<p>Il fait de même pour le texte d&#8217;ancrage des liens.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image7.png" alt="" /></figure>
<h4>Penguin supprime les liens internes</h4>
<p>Dans de nombreux modules liés aux ancres, l&#8217;idée de &#8220;local&#8221; signifie le même site. Ce droppedLocalAnchorCount suggère que certains liens internes ne sont pas pris en compte.</p>
<h4>Je n&#8217;ai pas vu une seule mention de désaveu</h4>
<p>Alors que les données de désaveu pourraient être stockées ailleurs, elles ne sont pas spécifiquement dans cette API. Je trouve cela spécifiquement parce que les données des évaluateurs de qualité sont directement accessibles ici. Cela suggère que les données de désaveu sont découplées des systèmes de classement de base.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image4.png" alt="" /></figure>
<p>Mon hypothèse à long terme est que le désaveu a été un effort d&#8217;ingénierie de fonctionnalité provenant de la foule pour former les classificateurs de spam de Google. Le fait que les données ne soient pas &#8220;en ligne&#8221; suggère que cela pourrait être vrai.</p>
<p>Je pourrais continuer à parler de liens et de caractéristiques telles que IndyRank, PageRankNS, etc., mais il suffit de dire que Google a une analyse des liens très précise et qu&#8217;une grande partie de ce qu&#8217;il fait n&#8217;est pas pris en compte par nos indices de liens. C&#8217;est le moment idéal pour reconsidérer vos programmes de création de liens sur la base de tout ce que vous venez de lire.</p>
<h3>Les documents sont tronqués</h3>
<p>Google compte le nombre de jetons et le rapport entre le nombre total de mots dans le corps du texte et le nombre de jetons uniques. Les documents indiquent qu&#8217;il existe un nombre maximum de jetons pouvant être pris en compte pour un document spécifique dans le système Mustang, ce qui renforce l&#8217;idée que les auteurs doivent continuer à placer leur contenu le plus important en début de page.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image31.png" alt="" /></figure>
<h3>Le contenu court est noté en fonction de son originalité</h3>
<p>Le score OriginalContentScore suggère que les contenus courts sont notés en fonction de leur originalité. C&#8217;est probablement la raison pour laquelle le contenu peu étoffé n&#8217;est pas toujours fonction de la longueur.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image18.png" alt="" /></figure>
<p>Inversement, il existe également un score pour le bourrage de mots-clés.</p>
<h3>Les titres de page sont toujours mesurés par rapport aux requêtes</h3>
<p>La documentation indique qu&#8217;il existe un score de correspondance de titre (titlematchScore). La description suggère que la correspondance du titre de la page avec la requête est toujours un élément auquel Google accorde de l&#8217;importance.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image25.png" alt="" /></figure>
<p>Placer vos mots-clés cibles en premier est toujours d&#8217;actualité.</p>
<h3>Il n&#8217;y a pas de mesures de comptage de caractères</h3>
<p>À sa décharge, Gary Ilyes a déclaré que les référenceurs ont inventé tout le nombre de caractères optimal pour les métadonnées. Il n&#8217;y a aucune mesure dans cet ensemble de données qui compte la longueur des titres de page ou des extraits. La seule mesure de comptage de caractères que j&#8217;ai trouvée dans la documentation est le snippetPrefixCharCount, qui semble être défini pour déterminer ce qui peut être utilisé dans le cadre de l&#8217;extrait.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image51.png" alt="" /></figure>
<p>Cela confirme ce que nous avons constaté à maintes reprises, à savoir que les titres de page longs sont sous-optimaux pour générer des clics, mais qu&#8217;ils sont parfaits pour améliorer les classements.</p>
<h3>Les dates sont très importantes</h3>
<p>Google est très attaché à la fraîcheur des résultats et les documents illustrent ses nombreuses tentatives d&#8217;associer des dates aux pages.</p>
<ul>
<li><b>bylineDate &#8211; </b>Il s&#8217;agit de la date explicitement indiquée sur la page.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image5.png" alt="" /></li>
<li><b>syntacticDate &#8211; </b>Il s&#8217;agit d&#8217;une date extraite de l&#8217;URL ou du titre.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image17.png" alt="" /></li>
<li><b>semanticDate &#8211; </b>Il s&#8217;agit d&#8217;une date dérivée du contenu de la page.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image46.png" alt="" /></li>
</ul>
<p>Le mieux est de spécifier une date et d&#8217;être cohérent avec celle-ci dans les données structurées, les titres de page et les sitemaps XML. Si vous indiquez dans votre URL des dates qui ne correspondent pas aux dates figurant à d&#8217;autres endroits de la page, les performances du contenu seront probablement moindres.</p>
<h3>Les informations relatives à l&#8217;enregistrement du domaine sont stockées à proximité des pages</h3>
<p>Il existe depuis longtemps une théorie du complot selon laquelle le statut de registraire de Google alimente l&#8217;algorithme. Nous pouvons maintenant passer à un fait de conspiration. Google stocke les dernières informations d&#8217;enregistrement au niveau du document composite.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image1.png" alt="" /></p>
<p>Comme nous l&#8217;avons vu précédemment, ces informations sont probablement utilisées pour informer la mise en bac à sable des nouveaux contenus. Elles peuvent également être utilisées pour mettre en bac à sable un domaine déjà enregistré qui a changé de propriétaire. Je soupçonne que le poids de cette question a été récemment augmenté avec l&#8217;introduction de la politique de spam sur les domaines expirés.</p>
<h3>Les sites axés sur la vidéo sont traités différemment</h3>
<p>Si plus de 50 % des pages du site contiennent des vidéos, le site est considéré comme axé sur la vidéo et sera traité différemment.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image48.png" alt="" /></p>
<h3>Votre argent, votre vie fait l&#8217;objet d&#8217;une évaluation spécifique</h3>
<p>La documentation indique que Google dispose de classificateurs qui génèrent des scores pour YMYL Health et pour YMYL News.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image34.png" alt="" /></p>
<p>Ils prédisent également les &#8220;requêtes marginales&#8221; ou celles qui n&#8217;ont jamais été vues auparavant afin de déterminer si elles sont YMYL ou non.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image35.png" alt="" /></p>
<p>Enfin, YMYL est ancré au niveau des morceaux, ce qui suggère que l&#8217;ensemble du système est basé sur des enchâssements.<br /><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image11.png" alt="" /></p>
<h3>Il existe des documents de référence</h3>
<p>Il n&#8217;y a pas d&#8217;indication sur ce que cela signifie, mais la description mentionne des &#8220;documents étiquetés par des humains&#8221; par opposition à des &#8220;annotations étiquetées automatiquement&#8221; Je me demande s&#8217;il s&#8217;agit d&#8217;une fonction des classements de qualité, mais Google affirme que les classements de qualité n&#8217;ont pas d&#8217;impact sur les classements. Nous ne le saurons donc peut-être jamais. <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f914.png" alt="🤔" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image45.png" alt="" /></figure>
<h3>Les sites intégrés sont utilisés pour mesurer le degré de pertinence d&#8217;une page</h3>
<p>Je parlerai plus en détail des embeddings dans un prochain article, mais il est intéressant de noter que Google vectorise spécifiquement les pages et les sites et compare les embeddings des pages aux embeddings des sites pour voir à quel point la page est hors sujet.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image29.png" alt="" /></figure>
<p>Le score siteFocusScore indique dans quelle mesure le site se concentre sur un seul sujet. Le rayon du site indique dans quelle mesure la page s&#8217;écarte du sujet principal sur la base des vecteurs site2vec générés pour le site.</p>
<h3>Il se peut que Google brûle volontairement les petits sites</h3>
<p>Google dispose d&#8217;un indicateur spécifique qui signale qu&#8217;un site est un &#8220;petit site personnel&#8221; Il n&#8217;y a pas de définition de ces sites, mais d&#8217;après ce que nous savons, il ne serait pas difficile pour Google d&#8217;ajouter un Twiddler qui boosterait ces sites ou qui les rétrograderait.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image28.png" alt="" /></figure>
<p>Compte tenu des réactions négatives et des petites entreprises qui ont été détruites par la mise à jour du contenu utile, il est surprenant qu&#8217;ils utilisent cette fonctionnalité pour faire quelque chose à ce sujet.</p>
<p></p>
<p></p>
<h2>Mes questions ouvertes</h2>
<p></p>
<p></p>
<p>Je pourrais continuer, et je le ferai, mais il est temps de faire une pause. Entre-temps, je pense qu&#8217;il est inévitable que d&#8217;autres personnes s&#8217;intéressent à cette fuite et en tirent leurs propres conclusions. Pour l&#8217;instant, j&#8217;ai quelques questions ouvertes que j&#8217;aimerais que nous examinions tous.</p>
<h3>La mise à jour du contenu utile est-elle connue sous le nom de Baby Panda ?</h3>
<p>Il y a deux références à quelque chose appelé &#8220;baby panda&#8221; dans les signaux de qualité compressés. Baby Panda est un Twiddler, c&#8217;est-à-dire un ajustement qui intervient après le classement initial.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image22.png" alt="" /></figure>
<p>Il est mentionné qu&#8217;il fonctionne en plus de Panda, mais il n&#8217;y a pas d&#8217;autres informations dans les documents.</p>
<figure><img decoding="async" src="https://www.ihaveadream.pro/cloud/2024/05/image6.png" alt="" /></figure>
<p>Je pense que nous sommes généralement d&#8217;accord sur le fait que la mise à jour du contenu utile a de nombreux comportements similaires à ceux de Panda. S&#8217;il est construit sur un système utilisant des requêtes de référence, des liens et des clics, ce sont les éléments sur lesquels vous devrez vous concentrer après avoir amélioré votre contenu.</p>
<h3>NSR signifie-t-il Neural Semantic Retrieval ?</h3>
<p>Il existe une multitude de références à des modules et à des attributs dont la convention de dénomination fait référence à NSR. Nombre d&#8217;entre eux sont liés à des morceaux de site et à des éléments intégrés. Google a déjà évoqué la &#8220;correspondance neuronale&#8221; comme l&#8217;un des principaux axes d&#8217;amélioration. Je suppose que NSR signifie Neural Semantic Retrieval et qu&#8217;il s&#8217;agit de fonctionnalités liées à la recherche sémantique. Cependant, dans certains cas, elles sont mentionnées à côté d&#8217;un &#8220;site rank&#8221;</p>
<p>J&#8217;aimerais bien qu&#8217;un Googler rebelle se rende sur go/NSR et m&#8217;envoie un &#8220;vous avez raison&#8221; à partir d&#8217;une adresse e-mail anonyme ou quelque chose du genre.</p>
<p></p>
<p></p>
<h2>Actions possibles</h2>
<p></p>
<p></p>
<p>Comme je l&#8217;ai dit, je n&#8217;ai pas de prescriptions à vous donner. J&#8217;ai cependant quelques conseils stratégiques à vous donner.</p>
<ol>
<li><b>Envoyez des excuses à Rand Fishkin &#8211; </b>Depuis mon discours &#8220;Everything Google Lied to Us About&#8221; (Tout ce que Google nous a menti) à PubCon, je me suis lancé dans une campagne pour blanchir le nom de Rand en ce qui concerne NavBoost. Rand a fait un travail ingrat en essayant d&#8217;aider notre industrie à s&#8217;élever pendant des années. Pour cela, il a essuyé de nombreuses critiques de la part de Google et des spécialistes du référencement. Parfois, il n&#8217;a pas eu raison, mais son cœur était toujours au bon endroit et il s&#8217;est efforcé de faire respecter ce que nous faisons et de l&#8217;améliorer. En particulier, il ne s&#8217;est pas trompé sur les conclusions de ses expériences de clics, sur ses tentatives répétées de démontrer l&#8217;existence d&#8217;un bac à sable de Google, sur ses études de cas montrant que Google classe différemment les sous-domaines, et sur sa conviction, longtemps contestée, que Google utilise des signaux d&#8217;autorité à l&#8217;échelle du site. Vous devez également le remercier pour cette analyse, car c&#8217;est lui qui a partagé la documentation avec moi. C&#8217;est le moment pour beaucoup d&#8217;entre vous de lui témoigner de l&#8217;amour sur Threads.</li>
<li><b>Créez un contenu de qualité et faites-en une bonne promotion &#8211; </b>Je plaisante, mais je suis aussi sérieux. Google n&#8217;a cessé de donner ce conseil et nous nous en moquons parce qu&#8217;il n&#8217;est pas applicable. Pour certains référenceurs, c&#8217;est tout simplement hors de leur contrôle.
<p>Après avoir passé en revue les caractéristiques qui confèrent à Google ses avantages, il est évident que la création d&#8217;un meilleur contenu et sa promotion auprès d&#8217;audiences avec lesquelles il est en résonance produiront le meilleur impact sur ces mesures. Les mesures des liens et des caractéristiques du contenu vous permettront certainement d&#8217;aller assez loin, mais si vous voulez vraiment gagner dans Google à long terme, vous devrez faire des choses qui continuent à mériter d&#8217;être classées.</p>
</li>
<li><b>Réintroduire les études de corrélation &#8211;</b> Nous avons désormais une bien meilleure compréhension de nombreuses caractéristiques que Google utilise pour établir les classements. Grâce à une combinaison de données de parcours et d&#8217;extraction de caractéristiques, nous pouvons reproduire plus de choses que nous ne le pouvions auparavant. Je pense qu&#8217;il est temps de rétablir les études de corrélation spécifiques aux sites verticaux</li>
<li><b>Testez et apprenez &#8211; </b>Vous devriez avoir vu suffisamment de graphiques de visibilité et de trafic avec des axes Y pour savoir que vous ne pouvez pas faire confiance à tout ce que vous lisez ou entendez dans le domaine du référencement. Cette fuite est une autre indication que vous devez prendre en compte les données et les expérimenter pour voir ce qui fonctionnera pour votre site web. Il ne suffit pas d&#8217;examiner des avis anecdotiques et de supposer que c&#8217;est ainsi que Google fonctionne. Si votre organisation n&#8217;a pas de plan d&#8217;expérimentation pour le référencement, c&#8217;est le moment d&#8217;en mettre un en place.</li>
</ol>
<p></p>
<p></p>
<h2>Nous savons ce que nous faisons</h2>
<p></p>
<p></p>
<p>Une chose importante que nous pouvons tous retenir est que les référenceurs savent ce qu&#8217;ils font : <i>Les référenceurs savent ce qu&#8217;ils font. </i>Après des années à nous faire dire que nous avons tort, il est bon de voir derrière le rideau et de découvrir que nous avions raison depuis le début. Et, bien que ces documents contiennent des nuances intéressantes sur le fonctionnement de Google, il n&#8217;y a rien qui va me faire changer radicalement de cap dans ma stratégie de référencement.</p>
<p>Pour ceux qui s&#8217;y intéressent, ces documents serviront avant tout à valider ce que les référenceurs chevronnés préconisent depuis longtemps. Comprenez votre public, identifiez ce qu&#8217;il veut, créez la meilleure chose possible qui corresponde à ses attentes, rendez-la techniquement accessible et faites-en la promotion jusqu&#8217;à ce qu&#8217;elle se classe.</p>
<p>À tous ceux qui travaillent dans le domaine du référencement et qui ne sont pas sûrs de ce qu&#8217;ils font, continuez à tester, à apprendre et à développer des entreprises. Google ne pourrait pas faire ce qu&#8217;il fait sans nous.</p>
<p></p>
<p></p>
<h2>Téléchargez les fonctionnalités de classement</h2>
<p></p>
<p></p>
<p>Eh bien, quelqu&#8217;un va télécharger et organiser toutes les fonctionnalités dans une feuille de calcul pour vous. Il se pourrait bien que ce soit moi. Il ne nous reste qu&#8217;un mois dans le trimestre et je veux augmenter nos MQLs de toute façon. <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/1f606.png" alt="😆" class="wp-smiley" style="height: 1em; max-height: 1em;" /></p>
<p>Téléchargez votre exemplaire de la liste des caractéristiques du classement. Gardez à l&#8217;esprit que beaucoup d&#8217;entre elles ne sont pas pour le classement, elles sont aussi pour d&#8217;autres produits Google.</p>
<p></p>
<p></p>
<p></p>
<h2>Nous n&#8217;en sommes qu&#8217;au début</h2>
<p></p>
<p></p>
<p>Ce que j&#8217;ai toujours aimé dans le référencement, c&#8217;est qu&#8217;il s&#8217;agit d&#8217;un puzzle en constante évolution. Et bien qu&#8217;il soit agréable d&#8217;aider les marques à gagner des milliards de dollars grâce à nos efforts, il y a quelque chose de très satisfaisant à nourrir ma curiosité avec toutes les recherches liées à l&#8217;analyse du fonctionnement de Google. J&#8217;ai été très heureux de pouvoir enfin voir ce qui se passe derrière le rideau.</p>
<p>C&#8217;est tout ce que j&#8217;ai à dire pour l&#8217;instant, mais faites-moi savoir ce que vous avez trouvé ! Si vous souhaitez partager quelque chose avec moi, n&#8217;hésitez pas à me contacter. Je suis assez facile à trouver !</p>
<p></p>
<p></p>
<h2>Prochaines étapes</h2>
<p>Voici trois façons dont iPullRank peut vous aider à combiner SEO et contenu pour accroître la visibilité de votre entreprise et générer des revenus :</p>
<ol>
<li><b>Planifiez une session stratégique de 30 minutes : </b>Faites-nous part de vos plus grands défis en matière de référencement et de contenu afin que nous puissions élaborer une présentation personnalisée après avoir examiné votre présence numérique. Il n&#8217;y a pas de solutions toutes faites, seulement des conseils sur mesure pour développer votre entreprise. Planifiez votre session dès maintenant.</li>
<li><b>Atténuer l&#8217;impact potentiel des aperçus de l&#8217;IA : </b>Dans quelle mesure votre stratégie de référencement est-elle préparée aux aperçus de l&#8217;IA de Google ? Prenez de l&#8217;avance sur les menaces potentielles et assurez-vous que votre site reste compétitif grâce à notre rapport complet sur les menaces liées aux aperçus de l&#8217;IA. Obtenez votre rapport.</li>
<li><b>Améliorez la pertinence de votre contenu avec Orbitwise :</b> Vous n&#8217;êtes pas sûr que votre contenu soit mathématiquement pertinent ? Utilisez Orbitwise pour tester et améliorer la pertinence de votre contenu, en vous assurant qu&#8217;il se classe pour vos mots-clés ciblés. Testez votre contenu aujourd&#8217;hui.</li>
</ol>
<p>Source : <a href="https://ipullrank.com/google-algo-leak" target="_blank" rel="noopener">IPullRank (Google Leak)</a></p>
<p><em>Article traduit en Français avec <img src="https://s.w.org/images/core/emoji/15.0.3/72x72/2764.png" alt="❤" class="wp-smiley" style="height: 1em; max-height: 1em;" /> Par un <a href="https://www.francenum.gouv.fr/activateurs/consultant-seo-et-referencement-naturel" target="_blank" rel="noopener">Consultant SEO</a> et des tools dédiés (c&#8217;est plus pratique)  </em></p>
<p></p><p>L’article <a href="https://www.ihaveadream.pro/actus/les-secrets-de-lalgo-la-doc-technique-interne-de-google-search-a-fuite/">Les secrets de l&#8217;algo 😱 La doc technique interne de Google Search a fuité</a> est apparu en premier sur <a href="https://www.ihaveadream.pro">I Have a Dream</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://www.ihaveadream.pro/actus/les-secrets-de-lalgo-la-doc-technique-interne-de-google-search-a-fuite/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
