Algorithme "Baden-Baden" dans Yandex. Nouvel algorithme de Yandex - Baden-Baden Qu'est-ce que Baden dans Yandex

Bonjour les amis! Personne ne contestera que Yandex aime surprendre. Il y a quelques semaines, il a surpris beaucoup de monde en introduisant un nouvel algorithme d'identification des textes sur-optimisés appelé Baden-Baden.

Aujourd'hui, je vais parler des fonctionnalités de cet algorithme, fournir des commentaires du service d'assistance et montrer également comment déterminer la présence d'un filtre, comment trouver des pages filtrées et renvoyer le trafic de Yandex.

Nous pouvons dire que ce n'est que récemment que les webmasters et les optimiseurs ont « quitté » Minusinsk et qu'elle a été remplacée par une nouvelle ville « formidable » - Baden-Baden. J'ai étudié cet algorithme en détail depuis sa mise en œuvre. Je partagerai mes conclusions et mes observations.

En quelques mots sur l'algorithme. Il combat les textes sur-optimisés contenant un grand nombre de mots-clés (lien vers l'actualité du blog Yandex). En fait, le miroir Runet a déjà exprimé son attitude à l'égard d'un tel contenu il y a 6 ans. Ensuite, tout s'est passé assez tranquillement. Maintenant, le filtre fait beaucoup de bruit. Essentiellement, le nouvel algorithme est une version améliorée de l’ancien. Il fait désormais partie de la formule du classement général.

La nouvelle contient plus de 1000 commentaires (pour la plupart négatifs). Les gens se plaignent du fait que des textes normaux écrits pour les gens ont été distribués. Eh bien, j'ai lu tous ces commentaires et je me suis fait une idée. Tout d’abord, je vais le montrer sous forme de questions-réponses.

1. Quels sites ont été ciblés par le nouvel algorithme ? Quelles régions ?

Le texte de l'actualité ne peut juger que les projets commerciaux.

Mais en réalité, toutes les ressources (y compris l’information) ont été touchées dans toutes les régions.

2. Quand le filtre a-t-il démarré ?

Baden-Baden a commencé le 22 mars. Pour certains webmasters, le trafic a commencé à baisser plus tôt. Soit cela était dû à d’autres raisons, soit les tests ont été effectués sur un échantillon limité.

3. Quelle est la nature des sanctions ? L'algorithme abaisse-t-il l'intégralité du site dans les résultats de recherche, uniquement le lien requête-document ou des pages spécifiques ?

Pour le moment, seules certaines pages que la formule de classement considère comme sur-optimisées sont rétrogradées dans les résultats de recherche.

D'une part, c'est bien : vous pouvez déterminer quels documents figurent dans les résultats de recherche et travailler avec eux. D’un autre côté, c’est mauvais : une ressource peut contenir des milliers de pages. Selon moi, l'idéal était de créer un lien demande-document. C'est plus honnête, n'est-ce pas ? Eh bien, la logique de Yandex ici est différente : s'ils voulaient gonfler la note du texte dans les résultats de recherche, obtenez-le et signez-le.

4. Les sanctions seront-elles affichées dans Yandex.Webmaster ?

Pour le moment, ils ne se présentent pas, mais les représentants vont changer quelque chose dans ce sens. "Quoi?" et quand?" - c'est dans les coulisses.

Mise à jour. Dans les commentaires, ils ont partagé une notification dans Yandex.Webmaster concernant la sanction (catégorie « Sur-optimisation »).

5. Le texte des pages « tombées » doit-il être complètement remplacé ou suffit-il de le modifier ?

Selon un représentant du support Yandex, il suffit de modifier le contenu des documents filtrés pour qu'ils reviennent au classement normal. La question est : la nouvelle option répondra-t-elle aux critères ?

6. Les boutiques en ligne devraient-elles s’inquiéter du spam sur les pages de catégories ?

Non, ça n'en vaut pas la peine. Mais je penserais quand même à optimiser le nombre de ces usages. Juste au cas où, pour l'avenir.

7. Vaut-il la peine d'ajouter du texte pour diluer le nombre d'occurrences de la clé ?

Cela ne vaut pas la peine d’augmenter le contenu au point de « chausser ». Il est préférable de supprimer les nausées des mots clés inutiles et de supprimer/modifier les structures contenant du spam.

En d’autres termes, il n’est pas nécessaire d’agrandir le texte avec ce qu’on appelle de l’eau pour saisir toutes les touches nécessaires. Le caractère informatif et utile du contenu passe avant tout.

Mise à jour. Nouvelle vidéo « Rapport de la semaine Bynet sur l'algorithme ». Peut-être que cela clarifiera certains points.

Comment déterminer qu'un site relevait de Baden-Baden ?

En fait, je parle de réoptimisation depuis assez longtemps. Mais Baden-Baden ne m'a pas non plus contourné (mais pas tellement, de 15 pour cent).

En général, vous devez consulter les statistiques de trafic de Yandex pour la période du 22 au 23 mars. S'il y a une baisse de trafic, cela signifie malheureusement que le filtre n'a pas contourné votre projet. Au fait, y a-t-il quelqu’un qui a connu une croissance globale ces jours-ci ? Partager. Je n'ai encore rencontré personne comme ça.

Trouver des pages sur-optimisées

Il est assez simple de déterminer la présence d'un filtre. Une autre chose est de trouver des pages que l'algorithme n'a pas aimé. Si vous constatez ne serait-ce qu'une légère baisse du trafic, ne soyez pas paresseux et recherchez les documents qui ont perdu des visiteurs de Yandex. Leur analyse vous aidera à comprendre ce qui n’aime pas ce moteur de recherche, afin de ne pas commettre les mêmes « erreurs » à l’avenir.

Pourquoi ai-je écrit des erreurs entre guillemets ? Ne serait-ce que parce que de telles constructions de spam n'ont pas été utilisées sur le projet, qui a connu une baisse de trafic. Je ne peux pas dire que les textes dessus sont carrément sacrés, mais étant un adversaire de l'optimisation stricte, j'essaie de l'empêcher au niveau sémantique.

Donc, 2 instructions simples qui vous aideront à trouver des pages sur-optimisées. La première option concerne Google Analytics, la seconde est pour Yandex.Metrica.

Google Analytics

Si votre site a collecté des statistiques analytiques, alors félicitations : trouver des documents qui ont perdu du trafic ne sera pas difficile. Accédez à Comportement -> Contenu du site -> Pages de connexion.

Dans le premier, nous avons mis Yandex afin de trier les visites uniquement de ce moteur de recherche. Dans le second, nous définissons le nombre de sessions en dessous duquel les pages ne seront pas affichées (vous ne pouvez pas l'utiliser). Par exemple, vous avez un grand projet avec plusieurs milliers de pages et beaucoup de trafic. Cela n’a guère de sens d’analyser des documents qui ne reçoivent que 10 à 20 visites par semaine.

Ensuite, nous comparons les lectures une semaine avant le filtre et une semaine après.

J'ai choisi les 14-21 mars et 24-31 mars comme dates (je n'ai pas pris le 22-23 pour la pureté des observations). Nous recevrons un tableau comparatif qui affichera les pages analysées et la différence du nombre de visites (+ en pourcentage). Là où un moins est une perte, un plus est une augmentation.

Ici, vous pouvez clairement voir quels matériaux ont perdu du trafic. D’ailleurs, lors de l’analyse, on tombe souvent sur des articles qui ont bien progressé. J'espère qu'en corrigeant les anciens documents, j'obtiendrai éventuellement un résultat positif en termes de fréquentation globale. Voici un exemple de +209% au trafic.

Je vous conseille de ne pas analyser les documents avec un petit pourcentage de variation, mais de les prendre avec une différence de 15 à 20 %. Des valeurs inférieures de cet indicateur ne peuvent pas, avec un degré de probabilité élevé, indiquer la présence d'une sur-optimisation.

Vous pouvez rechercher des pages similaires dans Google Analytics lui-même ou, après l'exportation, travailler avec elles, par exemple dans Excel.

Selon les analyses, pratiquement tout. Assez pratique et clair. Je me tourne vers Metrica.

Yandex.Metrica

Connectez-vous à votre compte et créez des « Rapports » -> Standard -> Contenu -> Pages de connexion.

Vous devez maintenant séparer le bon grain de l'ivraie des visiteurs de Yandex. Ajoutez une condition source.

Nous fixons les mêmes dates : du 14 au 21 mars et du 24 au 31 mars. Nous recevrons les données de la première et de la deuxième périodes, ainsi que la différence entre elles.

Très clair. Vous pouvez regarder via l'interface Web ou télécharger sur votre ordinateur. La couleur verte représente une augmentation du trafic, le rouge une diminution. Contrairement aux pourcentages de Google Analytics, le ratio est affiché ici (combien de fois la première période est meilleure/pire que la seconde). Tout ce qui est supérieur à -1,15-1,20x doit être pris pour analyse et modifications.

Quelle méthode avez-vous préféré ?

10 points pour éliminer la sur-optimisation

Afin de remettre les documents à leur ancienne position et de rétablir le trafic, il ne reste plus qu'à analyser et éditer chaque page. Personne n'a dit que ce serait facile. J'ai décrit les principes généraux dans un article sur . En bref à leur sujet (portez une attention particulière aux 4 premiers points) :

  1. Utilisation humaine de phrases clés (pas comme dans WordStat, mais comme une personne ordinaire parle ou écrit).
  2. Pas de spam avec des mots et/ou des phrases. Je vérifie généralement les mots qui apparaissent à plus de 2 % dans le texte. Vous devez également faire attention aux expressions (généralement 2-3 mots) qui ne sont pas si souvent présentes dans le contenu, mais qui sont des requêtes de recherche (par exemple, acheter des meubles, auto-promotion de sites Web, prix des téléviseurs). L'utilisation de telles constructions plus de 1 à 2 fois peut éveiller des soupçons dans le moteur de recherche en raison de leur caractère artificiel.
  3. Distribution uniforme des clés. Le point découle du second. Par exemple, certaines requêtes ont un faible pourcentage d'occurrence, 1,5 %. S'il est concentré uniquement dans une zone spécifique du document, alors sa « nausée » y sera critique. Il faut veiller à ce que les mots-clés soient rédigés harmonieusement.
  4. Contenu et clés correspondants. Si votre page ne répond pas à une demande, vous ne devez pas l'inclure juste « par chance ». Plus s'applique à diverses listes, telles que les villes.
  5. Pas de spam dans le titre, la description, les sous-titres, les images alt et titre, les éléments transversaux, les liens internes (leur numéro est également ici).
  6. Contenu sans signification ni conception.
  7. Création de pages logiquement dupliquées.
  8. Manque de mise en avant des mots-clés avec des balises strong et b.
  9. Plusieurs balises pour un élément.
  10. Faites correspondre le titre, le H1, l'URL et le fil d'Ariane.

Oui, je suis d'accord, le travail n'est ni facile ni agréable. Mais si la ressource vous est chère, vous ne pourrez probablement pas vous passer de l'édition. Commencez avec un petit nombre de pages (par exemple, 10 pièces). Faites-en un standard et voyez la réaction de Yandex quelques semaines après la réindexation. Si le trafic sur celles-ci commence à augmenter, étendez vos améliorations au reste des pages réoptimisées.

Lequel d'entre vous relevait de Baden-Baden ? Pensez-vous que c'était juste ? Avez-vous déjà trouvé des documents sur lesquels des sanctions ont été appliquées ? Avez-vous fait quelque chose après en être sorti ? Avez-vous obtenu des résultats ? J'attendrai vos messages dans les commentaires !

A propos de l'émergence d'un nouvel algorithme - Baden-Baden. Les développeurs de Yandex ont répondu à l'algorithme comme suit :

Comment fonctionne l’algorithme ?

L’algorithme de Baden-Baden présente un profil similaire au filtre « Overspam » ou « Tailored » lancé en 2010, mais avec un algorithme d’actions fortement modifié. Le nouveau filtre est conçu pour lutter contre les textes SEO présentant une sur-optimisation prononcée, de multiples occurrences directes et morphologiques de mots-clés.

Lorsqu'un filtre est appliqué à un site, les positions chutent de 10 à 40 points, ce qui entraîne une diminution du trafic vers le site et, par conséquent, une baisse du nombre de ventes.

Le nouvel algorithme fonctionne page par page (c'est-à-dire que si vous n'avez que quelques pages contenant du spam, ce sont celles-là qui tomberont en panne et le reste du site ne perdra rien). Une attention particulière est portée aux formes de demandes fréquemment répétées.

Ajouté après le reportage de Bynet Week de Slivinsky du 04/07/2017 :

  • L'ensemble du site peut désormais être rétrogradé !
  • Une entrée apparaîtra dans la section « Violations » du panneau des webmasters.

Un peu d'histoire

Baden-Baden a un effet similaire sur les résultats de recherche à Perespam, qui a été remarqué par les analystes en 2010. Au même moment, lors de la conférence « RIF et CIB 2010 », l'ancien développeur Yandex Denis Raskovalov a évoqué l'optimisation des pages principales et clés comme suit :

"Eh bien, je ne suis certainement pas un designer, mais à mon avis, les gros textes sur la page principale ont l'air laids."

Après les propos prononcés par Denis, de nombreux webmasters ont constaté l'imposition de pénalités sur leurs ressources pour sur-optimisation des textes. Au cours de 7 ans, les méthodes de présentation des informations et d'augmentation de la pertinence des pages ont changé, mais Yandex a de nouveau décidé d'améliorer la sélection de contenus utiles parmi ceux de mauvaise qualité.

Diagnostic du problème

En raison de l’apparition récente de l’algorithme, il n’est pas encore possible de tirer des conclusions exactes sur la méthode de sélection des pages pertinentes et sur-optimisées. Dans certains sujets, il y a une baisse dense des pages de requêtes commerciales pour des sites de très mauvaise qualité, tandis que dans d'autres, de nombreuses pages non compétitives, collectées « à genoux », sont apparues dans les principaux résultats de recherche.

Il y a un défaut et une humidité évidents dans l'algorithme de Baden-Baden. Évidemment, dans les prochaines mises à jour, les positions des sites changeront en toute confiance jusqu'à ce que le filtre soit perfectionné.

Comment éviter de tomber sous Baden-Baden ?

L'algorithme n'a pas peur des sites de haute qualité visant à répondre aux questions des utilisateurs : en règle générale, ils occupent des positions de leader dans les résultats de recherche au cours de l'année écoulée.

Afin de ne pas tomber sous le prochain filtre Yandex punitif, vous devez respecter les règles suivantes :

  • Ne percevez pas le nombre de phrases clés dans l'article comme l'élément le plus important qui joue un rôle clé par rapport au texte ;
  • Rédiger des textes informatifs qui envisagent de résoudre le problème d'un utilisateur sous plusieurs angles, vous permettant de donner une réponse complète à la demande d'une personne ;
  • N'essayez pas d'augmenter la visibilité de la page en saturant les textes avec des occurrences directes de touches ;
  • Gardez le texte informatif et lisible, utilisez des phrases plus simples et moins chargées de phrases ;
  • Structurez votre texte en paragraphes et en titres logiques ;
  • Oubliez la formule de calcul du nombre de clés pour 1000 caractères de texte.

Si les pages de votre site ne répondent pas actuellement à ces exigences, commencez à les éditer, réduisez le volume des clés, relisez les pages, travaillez les titres et la structuration du texte.

Que faire si le site est sous filtre ?

Ne paniquez pas si la position de votre site dans les résultats de recherche a chuté dès les premières mises à jour après l’innovation ; cette tendance s’observe aujourd’hui dans tous les sujets et domaines. L’algorithme n’est pas encore finalisé et est sujet à des erreurs ; la position du site sera rétablie dans un avenir proche.

Si votre site Web regorge de contenu sur-optimisé, il est temps de trouver un gestionnaire de contenu intelligent capable de relire et de modifier les articles et les actualités publiés. Il faut réduire le nombre de phrases clés et d'occurrences directes, rendre l'article plus informatif et bien conçu, l'algorithme n'aime pas les « feuilles ».

Ce que disent les experts

Dmitri Chakhov
, société Remarque

Yandex a appris à voir quels textes sont bons et lesquels effraient les utilisateurs. Il est temps d'appliquer ces connaissances pour supprimer des recherches les pages contenant des textes clés. L'impact se fera sur les sites qui étaient dans le TOP (pas nécessairement à cause de textes spam) et sur les textes que personne n'a touchés afin que le site ne tombe pas hors du TOP. Je pense que tout se limitera à la réécriture de textes, après quoi ces sites reviendront au TOP.

Ilya Roussakov
, Entreprise d'impulsion

Je suis très satisfait de cette innovation. Dans la lutte pour le TOP compétitif, les textes spam ont depuis longtemps perdu de leur pertinence, car Ce qui compte en premier, c'est le comportement et la satisfaction des utilisateurs. Je suis sûr que cela améliorera la qualité des résultats de recherche et obligera les spécialistes du marketing et les référenceurs à réfléchir aux utilisateurs et à leurs besoins.

Romain Verdych
, optimiseur SEO privé

À mon avis, c'est l'une des meilleures innovations de Yandex. Depuis longtemps, je travaille selon le schéma de « résoudre un problème sur la page », plutôt que de promouvoir 3 à 5 requêtes. Dans mon cas, les projets se sont révélés être un plus. Vous fournissez un contenu utile et de haute qualité !

Dmitri Ivanov
, société Ukrop Media

Il est trop tôt pour faire des déclarations significatives à ce sujet. Tout en SEO est cyclique, et il est désormais temps de s’attaquer aux textes. Les liens étaient là l'année dernière. Qu'y a-t-il en 2018 ? Comportemental ?

Evgenia Perebeinosova
, société Realweb

La continuité des paramètres de classement et de leurs évaluations dans les deux moteurs de recherche est connue de tous depuis longtemps. Et même à partir de la maigre description initiale du nouvel algorithme de l'équipe Yandex, nous pouvons conclure que l'essence et l'esprit de Panda et de Baden-Baden sont similaires. L'unité des objectifs dans cette situation implique la coïncidence des moyens et des méthodes pour les atteindre. Yandex et Google tentent d'améliorer autant que possible la qualité des résultats de recherche tout en continuant à réaliser le rêve de tous les utilisateurs concernant la « meilleure réponse à une question ».

Arthur Latypov
, société d'intelligence SEO

Parmi les textes que nous avons écrits, aucun texte n'est tombé sous le coup de l'algorithme, c'est encourageant. Il existe une certaine tension associée au développement possible de l’algorithme, à l’analyse à venir et à l’identification de modèles.

Qu’obtiendront les internautes comme résultat final et qu’obtiendront les webmasters après seulement quelques mises à jour des résultats de recherche ? Qui remportera le TOP cette année, les rédacteurs professionnels ou les spécialistes SEO professionnels ?

Yandex ne s'arrête pas à l'amélioration des algorithmes de classement et a annoncé le 23 mars 2017 l'introduction d'un nouvel algorithme appelé « Baden-Baden ». Il calculera les textes où une sur-optimisation a été constatée et, comme vous pouvez le deviner, les pages présentant un tel péché seront pessimisées. On ne peut pas dire que ce mécanisme soit devenu une sensation absolue ; après tout, Yandex avait auparavant du mal avec des textes dans lesquels les occurrences de touches étaient utilisées de manière excessive, mais maintenant l'algorithme s'est considérablement amélioré et le résultat pourrait subir de sérieux changements.

Que signifie l'algorithme de Baden-Baden pour le webmaster moyen ? Les textes qui tomberont sous le filtre devront être réécrits pour qu'ils soient attractifs non pas pour un moteur de recherche, mais pour une personne vivante qui les lira. En outre, bien entendu, les textes doivent rester unique Et utile. Si nous parlons de boutiques en ligne, nous avons besoin de meilleures descriptions de produits, d'instructions, etc. S'il s'agit du site Web d'une campagne qui vend des services, il y aura plus de descriptions des conditions de travail, des prix et des informations utiles. Autrement dit, vous devez rédiger des textes que vous aimeriez lire vous-même, et non ceux qui ne convenaient auparavant qu'à un moteur de recherche sans âme.

Le premier coup d’œil rapide sur l’actualité de l’algorithme fait se demander ce qu’il adviendra des pages où répétition des mêmes mots inévitablement. Après tout, c'est un moment très pertinent pour les magasins en ligne vendant des produits similaires. Dans beaucoup d’entre eux, toutes les différences tiennent dans quelques chiffres, et les descriptions et caractéristiques sont souvent très difficiles à retravailler pour que le texte technique devienne plus vivant. L'équipe Yandex s'empresse de rassurer ceux qui s'en inquiètent : les spécificités de ces pages ont été prises en compte et des recommandations les concernant sont à venir. À bien des égards, c'est la seule chose connue jusqu'à présent - Yandex promet de fournir des explications sur le fonctionnement de l'algorithme. Qui a néanmoins déjà été mis en service. En fait, la situation est déjà familière grâce à l’algorithme.

Quelles sont les conséquences de « Baden-Baden »

Alors que des réponses à de nombreuses questions sont attendues de Yandex, nous ne pouvons que nous contenter des avis des experts,
comment l'algorithme affectera. Les développeurs Web ont perçu le nouvel algorithme avec prudence, mais en même temps de manière ambiguë. Il existe une opinion selon laquelle pour les meilleurs sites qui sont en tête
positions pour des mérites tels que, par exemple, la durée de vie du site, ou TCI, l'action de l'algorithme passera inaperçue. Quant aux jeunes sites, ils auront probablement du mal, car
la tâche est désormais plus difficile qu’auparavant. Les textes doivent non seulement être uniques, mais aussi comporter un minimum de clés, ce qui est souvent tout simplement impossible à écrire, et un texte sans elles ne sera, au contraire, pas confortable pour le lecteur. Mais s'il s'agit de sites d'information avec de petits textes d'un millier et demi de caractères, ils peuvent monter plus haut, déplaçant quelque chose de vraiment utile, mais perçu négativement par le moteur de recherche.

Autres questions auxquelles vous aimeriez obtenir des réponses :

Q : Si un texte sur-optimisé est détecté, les sanctions seront-elles imposées uniquement sur la page contenant le texte ou sur l'ensemble du site ?

R. : Seule la page contenant du texte intéressant l'algorithme relève des actions de « Baden-Baden ».

V. : Une question des fans de chiffres précis. Quelle doit être la fréquence d’inclusion d’une requête de recherche dans le texte pour que celle-ci puisse être considérée comme sur-optimisée ?

R : Il n’y a pas de réponse à cette question, il ne reste donc plus qu’à donner des conseils. Étudiez les résultats de recherche pour les mots-clés qui vous intéressent et voyez quels textes se trouvent sur les sites qui occupent la première place, quelle y est la densité, etc.

Q : Est-ce que cela suffira à supprimer la répétition du même mot ?

R : On ne le sait pas encore avec certitude, mais il est très probable qu'il soit nécessaire non seulement d'affiner le texte, en le débarrassant des répétitions inutiles, mais aussi des phrases trop artificiellement construites.

Ou encore quelques questions sur lesquelles on ne sait encore rien.

  • Si une page est pessimiste pour une clé, est-elle capable de rester en haut pour une autre, ou l'algorithme est-il renversé sans discernement ?
  • Comment savoir si l'algorithme a déjà fonctionné avec votre site et si son effet se reflète sur les pages ? Est-il possible de visualiser ces données dans Yandex.Webmaster ?

Les actions de l'algorithme sont déjà perceptibles : de nombreuses pages ont disparu des résultats de recherche, d'autres sont désormais à leur place, mais quelle est l'importance du rôle de « Baden-Baden » dans cela et s'il sera facile de tout renvoyer le retour est encore inconnu.

Il ne reste donc pour le moment qu'à attendre les nouvelles officielles et à observer l'évolution des résultats de recherche, ainsi que la manière dont les textes sont rédigés sur les sites tout en haut.

Ne manquez pas:

Bonjour, chers lecteurs et invités de mon blog. De plus en plus souvent, nous nous préoccupons de la question de savoir comment rédiger correctement des articles SEO afin d'apparaître dans les principaux moteurs de recherche et de ne pas tomber sous le filtre Yandex de Baden-Baden. , qui sera discuté plus loin.

Lorsque nous rédigeons de tels textes, nous sommes souvent rusés, c'est-à-dire que nous saisissons des mots-clés autant que possible, sans nous rendre compte que nous suroptimisons considérablement notre article et qu'il n'intéresse pas du tout nos lecteurs.

Dans cet article, je vais essayer de vous parler de ma vision, comment éviter de tomber sous le nouveau filtre Baden-Baden Yandex. Permettez-moi de vous rappeler qu'il y a quelques jours, une entrée est apparue dans l'actualité Yandex concernant un nouvel algorithme de Yandex, visant principalement à améliorer les résultats de recherche.

Qu'est-ce que le nouveau filtre Yandex de Baden-Baden ?

De nombreux webmasters n'ont pas eu le temps " dépoussiérez-vous"des filtres précédents, tels que Minusinsk et, que j'ai également visités et quittés avec succès, quand tout à coup le nouveau filtre Baden-Baden Yandex est capable de " Assommer» articles ré-optimisés à partir des premiers résultats de recherche, et non de l'ensemble du site, comme auparavant. J'ai publié une copie de l'article dans lequel les représentants de Yandex parlent du nouveau filtre à la fin de l'article.

Considérant que le filtre Yandex Baden-Baden sera utilisé exclusivement pour les pages qui, du point de vue du robot, sont remplies de mots-clés qui affectent l'évaluation de l'ensemble du contenu de l'article et ne sont pas utiles au lecteur, il sera extrêmement difficile de déterminer si le site est sous filtre - même pour un spécialiste.

Dans son appel, l'équipe Yandex vous encourage à rédiger des textes SEO, mais sans en faire trop. Les articles SEO, selon l'équipe Yandex, doivent avoir deux propriétés : ils sont du texte destiné aux personnes et contiennent également des éléments SEO. Mais je ne veux pas être d’accord avec eux, puisque l’article doit avant tout répondre à la question de l’utilisateur et être lisible jusqu’au bout…

Article ré-optimisé, du point de vue du filtre Baden-Baden de Yandex ?

Dans l'un des articles, Yandex a appelé à rédiger des articles sur le référencement, voici une citation de cet article :

Choisissez quelques expressions clés pouvant décrire les services que vous fournissez. Pour qu’une page soit bien classée, elle doit fournir la meilleure réponse à la question de l’utilisateur sur Internet.

Dans le premier cas, nous voyons que le filtre Yandex Baden-Baden appliquera avec une probabilité de 100 % un filtre à ce texte et exclura cet article des résultats de recherche. Que se passera-t-il si cet article est ré-optimisé, comme dans l'image ci-dessous ? Donnez-moi votre avis dans les commentaires.

Dans ce cas, le filtre Yandex Baden-Baden se tournera vers des facteurs comportementaux, car malgré l'abondance de mots-clés, l'article est structuré et contient des images, ce qui affecte grandement le temps de lecture du texte dans son ensemble.

Beaucoup d’entre vous ne sont peut-être pas d’accord avec moi maintenant, mais j’adhère toujours à cet avis, car le principal critère de classement aujourd’hui, demain et toujours est de répondre au mieux à la question du lecteur.

Que faire pour éviter de tomber sous le filtre Yandex de Baden-Baden ?

Dans l'un de mes articles, j'ai écrit, donc je ne m'attarderai pas trop là-dessus, mais j'écrirai juste quelques paragraphes où je révélerai un petit secret qui vous permettra de ne pas tomber sous les filtres Yandex.

Écrivez des articles pour les gens, révélant l'ensemble du sujet, et non ses fragments individuels.

Regardons cette méthode avec un exemple, qui vous aidera non seulement à éviter de filtrer votre site, mais également votre site par 5 fois ou plus. Oui, je ne me suis pas trompé, bien sûr, si vous comprenez bien l'essence.

Avant d'écrire un article, vous devez trouver 10 phrases appropriées, par exemple, j'ai utilisé 684 phrases pour écrire cet article, dont j'en ai choisi seulement 12 pour cet article sur le nouveau filtre Baden-Baden de Yandex.

De plus, c’est encore plus difficile, puisque c’est le principal secret pour réussir à promouvoir un article au sommet. A partir des requêtes disponibles non nulles, j'ai essayé de révéler le sujet le plus possible au lecteur, en utilisant la règle de structuration suivante :

Je dirai tout de suite que cela ne fonctionne pas pour chaque article SEO, puisque tout a ses propres ajouts, mais ce sont les points principaux qui devraient être présents dans chaque article écrit par une personne. De nombreuses personnes utilisent cette méthode sur leurs pages, et leur trafic ne peut que faire l'envie des webmasters débutants.

Conclusions : pourquoi le nouvel algorithme de Yandex Baden-Baden ne fait-il pas peur aux blogueurs, mais aux vendeurs en ligne qui sur-optimisent les descriptions de produits ?


Bonjour à tous, les amis ! Ekaterina Kalmykova est avec vous. Très probablement, vous avez déjà entendu la nouvelle selon laquelle l'algorithme Yandex Baden Baden a modifié la politique de la direction de Yandex en matière de classement des sites Internet.

Selon les responsables d’un moteur de recherche populaire, sur la première page de la demande d’un utilisateur, seules les ressources qui répondent de manière suffisamment complète aux questions des visiteurs sans utiliser de nombreux mots-clés doivent être présentées.

Ainsi, le nouvel algorithme Yandex a lancé une véritable lutte contre les textes trop optimisés et les informations trop spammées, créées non pas pour le bien des gens, mais pour le bien des robots de recherche.

Alors, de quel genre d’animal s’agit-il, découvrons-le ensemble.

Le 13 septembre 2011, les créateurs du moteur de recherche Yandex ont déclaré que les webmasters ne devraient publier en ligne que du contenu de haute qualité.

À propos, Baden-Baden n'était alors que le nom d'une ville allemande, et non un algorithme permettant d'identifier des textes trop optimisés. Oui, cela n'avait pas encore été inventé, mais déjà à cette époque, il y avait des déclarations sur la brièveté et l'alphabétisation du contenu d'Internet :

les gens devraient obtenir des réponses précises à leurs requêtes en ligne.

Techniquement, cette tâche n'a été achevée qu'au bout de six ans. Le message indiquant que le nouvel algorithme était prêt à être lancé est apparu le 23 mars 2017. Le débogage du mécanisme se poursuit à ce jour.

Depuis, de nombreux chefs de projets web sont confrontés à des situations problématiques. Le trafic vers des ressources Web auparavant populaires a chuté.

L'algorithme Yandex en 2017 a modifié les priorités dans le classement des sites. Et il le fait régulièrement. Vous vous en souvenez, Minusinsk. Pour ceux qui ont oublié, Alexandre Sadovsky vous le rappellera.

Et puis il y a eu Palekh. J'ai écrit un article détaillé à ce sujet, que je recommande de lire.

À propos des principes de classement de l'algorithme de Baden Baden

Il existe une énorme quantité de contenu sur Internet, optimisé pour un grand nombre de mots-clés. Les textes spammés sont illisibles et, dans certains cas, analphabètes. La tâche de Baden Baden en tant que nouvel algorithme Yandex est d'identifier ces pseudo-informations et de « faire reculer » les ressources sur lesquelles elles sont publiées jusqu'aux dernières places du moteur de recherche.

Je pense que tout le monde comprend comment fonctionne l'algorithme novice. Parmi les informations en ligne, le contexte se démarque :

  • pertinent à cette demande ;
  • non pertinent pour cette demande ;
  • re-pertinent (spam);
  • vital (une information qui ne perd jamais sa pertinence).

Bien entendu, Baden Baden sélectionnera les informations pertinentes, ou mieux encore, vitales. Par exemple, si un internaute est intéressé par une marque, il trouve rapidement la page officielle de la marque. Lorsqu'il souhaite en savoir plus sur une star du show business, il ouvre sa page sur les réseaux sociaux. Et s'il est impressionné par la performance d'un acteur en particulier, il peut alors facilement se familiariser avec sa biographie sur le site Wikipédia.

C'est simple. Le moteur de recherche détermine ce dont vous avez besoin en tant qu'utilisateur et présente les informations « sur un plateau d'argent ». Mais le nouveau mécanisme de Yandex répondra à quel point le contenu de la soucoupe sera savoureux, c'est-à-dire quelle sera la qualité des informations.

Quels articles Internet sont considérés comme de mauvaise qualité ?

En raison de l'introduction d'un nouvel algorithme, les ressources créées uniquement selon les bases du référencement sont considérées comme de mauvaise qualité. Le nouveau mécanisme de classement des sites Web sélectionne parmi la masse totale les sites suivants où se trouvent les textes :

  • écrit avec beaucoup d'eau (informations inutiles) ;
  • contenir un grand nombre de clés sous une forme précise et diluée ;
  • en fin de compte, ne répondez pas aux questions des utilisateurs ;
  • sursaturé de liens vers d’autres ressources ;
  • développé en contradiction avec les règles de la langue russe (ensemble de mots, manque de charge sémantique).

Ces ressources entrent dans la catégorie des « pages indésirables ». Ils ne sont pas en mesure de susciter l’intérêt du lecteur ni de répondre aux besoins d’un individu particulier en quête d’informations précises. Ainsi, Yandex, à l'aide d'un nouvel algorithme, a trouvé un moyen de minimiser le nombre de visites sur ces projets.

Menons maintenant une brève enquête avec vous. Lisez les deux passages ci-dessous et répondez à la question : « Quel texte préférez-vous lire parmi les deux options ? »

Option 1

Option n°2

Je suis sûr que c'est la deuxième option. Après tout, ce sont précisément ces textes qui sont créés pour les personnes, et non pour les robots, écrits pour satisfaire les besoins d'information de l'utilisateur et non pour occuper les premières lignes des résultats de recherche. L’algorithme de Baden Baden sera désormais responsable de cela.

Que signifient les nouveaux changements pour les chefs de projets Web ?

Les webmasters et les blogueurs ont déjà ressenti les changements dans les politiques de Yandex. Selon eux, les ressources avec un contenu ancien, qu'ils ont soigneusement perfectionné pour des demandes spécifiques, ont perdu 70 % du trafic. Dans ces conditions, les pages des boutiques en ligne destinées à attirer des acheteurs potentiels ont été particulièrement touchées.

Pour s’adapter à l’innovation, il faut réécrire les textes, les rendre « pour le peuple ».

Et pour mettre en œuvre cette tâche, des coûts supplémentaires sont nécessaires, qui incluent à la fois du temps et de l'argent. De plus, le travail n'est pas évalué en termes quantitatifs, mais sous un aspect qualitatif du contenu.

Changements pour les rédacteurs

En conséquence, dans un avenir proche, les rédacteurs se verront confier de nombreuses tâches pour réécrire des textes existants. Cette fois, un grand nombre de mots-clés ne seront pas autorisés dans les spécifications techniques.

La principale exigence en matière de contenu est l'absence d'eau, une présentation structurée et logique, une explication claire du problème, une présentation accessible à l'internaute moyen.

À propos, il existe un bon service pour vérifier toutes ces exigences, dont j'ai récemment entendu parler. Cela peut parfaitement aider l’auteur à débarrasser le texte des déchets verbaux.

Ce Rédacteur en chef— service d'amélioration des textes. Essayez-le ! Pour être honnête, au début, je n’ai pas apprécié le travail là-bas. Et maintenant, j'essaie d'y faire passer tous mes textes.

Alors, qu’avons-nous en fin de compte ? L'algorithme Yandex Baden Baden détruit les vieux stéréotypes établis. L’ère des textes SEO et du spam sur Internet touche à sa fin. Et je vous souhaite de réussir à maîtriser Internet d'une nouvelle manière !

Mes amis, avez-vous ressenti l'effet du nouveau mécanisme ? L'attitude de Yandex envers votre ressource a-t-elle changé ? Avez-vous remarqué une rotation dans les résultats de recherche et y en a-t-il ?

Partagez vos réflexions et vos observations.

Jusqu'à ce que nous nous retrouvions,

Ekaterina Kalmykova était avec toi