SEO: l’importance du sitemap pour bien indexer votre site

Daniel Waisberg de Google a déclaré dans une nouvelle vidéo que les sites n’ont pas nécessairement besoin de sitemaps, sauf s’ils entrent dans l’une des trois catégories.

Ces informations ont été fournies dans le dernier épisode de la série de formations Google Search Console sur YouTube. La vidéo se concentre sur les bases de l’utilisation du rapport Sitemaps dans la Search Console.

SEO et le sitemap

Il est probable que vous connaissiez déjà le rapport sur les plans de site dans la Search Console, et que vous puissiez même vous y référer régulièrement pour les sites que vous gérez. Je m’en tiendrai donc à couvrir certains des éléments de niveau supérieur de la vidéo. John Mueller de Google a fait un caméo dans la vidéo pour soulever la question: « Si je n’ai pas de plan du site, Google trouvera-t-il toutes mes pages? »

Commençons par là.

Google peut-il trouver des pages sans plan Sitemap?

Habituellement, si le site est relativement petit et que ses pages sont toutes correctement liées, Googlebot peut très bien découvrir le contenu.

« Vous n’avez pas à vous soucier d’un plan du site », explique Waisberg, avant d’ajouter: « Cependant, si votre site répond à l’un des critères suivants, un plan du site peut aider Google à décider quoi et quand explorer votre site Web. »

Un plan du site peut être particulièrement utile si:
• Le site est vraiment grand
• Les pages du site sont isolées
• Le site est nouveau ou change rapidement

Dans ces cas, un plan du site peut aider à diriger Googlebot vers de nouveaux contenus et à montrer à Googlebot où trouver des pages isolées. Un plan du site peut également être utilisé pour hiérarchiser le contenu à analyser en premier, ce qui est utile pour les grands sites.

Un plan de site ne garantit rien, ajoute Waisberg, ce qui signifie que Google n’explorera pas toujours chaque URL incluse dans un plan de site.

Inversement, le fait de ne pas inclure d’URL dans un sitemap ne garantit pas qu’elles ne seront pas explorées. Google est en mesure de trouver des pages, qu’elles figurent ou non dans un plan du site.

Pas de mal à avoir un plan du site

Bien que Google ne recommande pas carrément que tous les sites aient un plan du site, Waisberg note qu’il n’y a aucun mal à en avoir un.

Donc, si vous n’êtes pas sûr que votre site en ait besoin ou non, vous pouvez toujours faire preuve de prudence et en utiliser un de toute façon.

«Dans la plupart des cas, votre site bénéficiera d’un plan du site», explique Waisberg.

Google recommande des sitemap générés automatiquement

Lorsqu’il s’agit de créer des plans de site, Google recommande spécifiquement d’utiliser des plans de site générés automatiquement plutôt que d’en créer un manuellement.

Idéalement, le système exécutant votre site Web créera automatiquement des fichiers de plan de site. Il existe également des plugins WordPress et des extensions Drupal pour y parvenir.

Enfin, faites attention aux sites de fichiers sitemap. Si votre site est si volumineux qu’il nécessite plusieurs fichiers de plan de site pour contenir toutes les URL, c’est parfait.

S: L’Agence SEO

Faire confiance aux résultats de recherche de Google ?

Bien que la mission de Google ait toujours été de révéler un contenu de haute qualité, au cours des dernières années, la société a travaillé d’arrache-pied pour garantir que ses résultats de recherche soient également toujours précis, crédibles et fiables.

La réduction des informations fausses et trompeuses a été une priorité absolue pour Google depuis que des inquiétudes concernant la désinformation sont apparues lors de l’élection présidentielle américaine de 2016. Le géant de la recherche investit d’énormes sommes d’argent et de cerveaux dans l’organisation des quantités toujours croissantes de contenu sur le Web d’une manière qui priorise la précision et la crédibilité.

Lutte contre la désinformation

Dans un livre blanc de 30 pages publié l’année dernière, Google décrit précisément comment il lutte contre les mauvais acteurs et la désinformation dans la recherche Google, les actualités, Youtube, les publicités et d’autres produits Google.

Dans ce livre blanc, Google explique comment les panneaux de connaissances – une fonction de recherche organique commune – font partie de son initiative pour montrer «le contexte et la diversité des perspectives pour former leurs propres vues». Avec les résultats du Knowledge Panel, Google fournit des réponses aux requêtes dont le contenu est affiché directement dans ses résultats de recherche organiques (souvent sans inclure de lien vers un résultat organique correspondant), ce qui élimine potentiellement la nécessité pour les utilisateurs de cliquer sur un site Web pour trouver une réponse à leur requete. Bien que cette fonctionnalité profite aux utilisateurs en répondant à leurs questions encore plus rapidement, elle comporte le danger de fournir des réponses rapides qui pourraient être trompeuses ou incorrectes.

Une autre caractéristique de ce problème est les extraits de contenu, où Google extrait le contenu du site Web directement dans les résultats de recherche. Google maintient des politiques spécifiques pour les extraits de contenu, interdisant l’affichage de contenu sexuellement explicite, haineux, violent, dangereux ou en violation du consensus d’experts sur des sujets civiques, médicaux, scientifiques ou historiques. Cependant, cela ne signifie pas que le contenu inclus dans les extraits en vedette est toujours entièrement précis.

Selon les données extraites par le Dr Pete Meyers, sur la base d’un échantillon de 10 000 mots-clés, Google a augmenté la fréquence à laquelle il affiche les extraits en vedette dans les résultats de recherche. Au début de 2018, Google a affiché des extraits en vedette dans environ 12% des résultats de recherche; début 2020, ce nombre oscille autour de 16%.

Des mises à jour fréquentes

Google a également déployé plusieurs mises à jour d’algorithmes de base au cours des deux dernières années, avec l’objectif déclaré de «remplir [leur] mission de présenter du contenu pertinent et faisant autorité aux chercheurs». Ce qui rend ces récentes mises à jour d’algorithmes particulièrement intéressantes, c’est la quantité d’E-A-T (expertise, autorité et fiabilité) qui semble jouer un rôle dans les performances du site Web, en particulier pour les sites Web YMYL (votre argent, votre vie).

En raison du dévouement de Google à lutter contre la désinformation et les fausses nouvelles, nous pouvons raisonnablement nous attendre à ce que les chercheurs conviennent que Google a amélioré sa capacité à faire apparaître du contenu crédible et fiable. Mais le chercheur moyen se sent-il vraiment de cette façon? Chez Path Interactive, nous avons mené une enquête pour savoir ce que les utilisateurs pensent des informations qu’ils rencontrent dans les résultats organiques de Google.

À propos des répondants au sondage et de la méthodologie

Sur 1 100 personnes interrogées, 70% vivent aux États-Unis, 21% en Inde et 5% en Europe. 63% des répondants ont entre 18 et 35 ans et 17% ont plus de 46 ans. Toutes les données des répondants sont autodéclarées.

Pour toutes les questions impliquant des résultats de recherche spécifiques ou des types de fonctionnalités SERP, les répondants ont reçu des captures d’écran de ces fonctionnalités. Pour les questions liées aux niveaux de fiabilité ou à la mesure dans laquelle le répondant était d’accord avec l’énoncé, les répondants ont reçu des réponses sur une échelle de 1 à 5.

Fiabilité dans les catégories médicale, politique, financière et juridique
Compte tenu des fluctuations observées dans la catégorie YMYL de Google avec les récentes mises à jour des algorithmes, nous avons pensé qu’il serait intéressant de demander aux répondants dans quelle mesure ils font confiance aux informations médicales, politiques, financières et juridiques qu’ils trouvent sur Google.

Nous avons commencé par demander aux répondants dans quelle mesure ils avaient pris d’importantes décisions financières, juridiques ou médicales sur la base des informations qu’ils avaient trouvées lors d’une recherche biologique. La majorité (51%) des répondants ont indiqué qu’ils prenaient «très fréquemment» ou «souvent» des décisions importantes sur la vie en se basant sur les informations de Google, tandis que 39% prenaient des décisions juridiques importantes et 46% prenaient des décisions médicales importantes. Seulement 10 à 13% des répondants ont indiqué qu’ils ne prenaient jamais ce type de décisions importantes concernant leur vie en se basant sur les informations qu’ils avaient trouvées sur Google.

Recherches médicales
En ce qui concerne les recherches médicales, 72% des utilisateurs sont d’accord ou fortement d’accord avec le fait que Google s’est amélioré pour montrer des résultats médicaux précis au fil du temps.

En décomposant ces réponses par âge, quelques schémas intéressants émergent:

Les plus jeunes chercheurs (âgés de 18 à 25 ans) sont 94% plus susceptibles que les plus âgés (65 ans et plus) de croire fermement que les résultats médicaux de Google se sont améliorés au fil du temps.
75% des plus jeunes chercheurs (âgés de 18 à 25 ans) sont d’accord ou tout à fait d’accord pour dire que Google s’est amélioré en affichant des recherches médicales précises au fil du temps, alors que seulement 54% des chercheurs les plus âgés (65 ans et plus) ont le même sentiment.
Les chercheurs âgés de 46 à 64 ans sont les plus susceptibles d’être en désaccord avec l’amélioration des résultats médicaux de Google au fil du temps.
Ensuite, nous voulions savoir si l’accent mis par Google sur la diffusion de contenu médical à partir de publications médicales de confiance – telles que WebMD et la Mayo Clinic – résonne auprès de ses utilisateurs. Un résultat des récentes mises à jour de l’algorithme de base est que les algorithmes de Google semblent prioriser le contenu qui contredit le consensus scientifique et médical (toujours décrit comme un indicateur de qualité négatif tout au long de leurs consignes de qualité de recherche).

La majorité (66%) des répondants conviennent qu’il est très important pour eux que Google présente le contenu de sites Web médicaux hautement fiables. Cependant, 14% ont indiqué qu’ils préféraient ne pas voir ces résultats, et 14% ont indiqué qu’ils préféraient voir des résultats plus divers, tels que le contenu des sites Web de médecine naturelle. Ces chiffres suggèrent que plus d’un quart des répondants pourraient ne pas être satisfaits des initiatives actuelles de Google en matière de santé visant à faire apparaître le contenu médical d’un ensemble de partenaires de renom qui soutiennent le consensus scientifique.

Nous avons interrogé les répondants au sondage au sujet des fiches de symptômes, dans lesquelles les informations relatives aux symptômes médicaux ou à des conditions médicales spécifiques apparaissent directement dans les résultats de la recherche.

Exemples de fiches de symptômes. Source: https://blog.google/products/search/im-feeling-yucky-searching-for-symptoms/

Notre question visait à recueillir dans quelle mesure les chercheurs pensaient que le contenu des fiches de symptômes pouvait être fiable.

La grande majorité (76%) des répondants ont indiqué qu’ils font confiance ou font fortement confiance au contenu des fiches de symptômes.

En examinant les réponses par âge, les jeunes chercheurs révèlent une fois de plus qu’ils sont beaucoup plus susceptibles que les chercheurs plus âgés de faire fortement confiance au contenu médical trouvé dans Google. En fait, le groupe de chercheurs le plus jeune (de 18 à 25 ans) est 138% plus susceptible que les chercheurs les plus âgés (65 ans et plus) de faire confiance au contenu médical des fiches de symptômes.

SEO et résultats de recherche

Actualités et recherches politiques
La majorité des personnes interrogées (61%) sont d’accord ou fortement d’accord avec le fait que Google s’est amélioré au fil du temps pour diffuser des informations et du contenu politique fiables et de haute qualité. Seulement 13% sont en désaccord ou fortement en désaccord avec cette affirmation.

Décomposer la même question par âge révèle des tendances intéressantes:

La majorité (67%) des plus jeunes chercheurs (âgés de 18 à 25 ans) conviennent que la qualité des informations et du contenu politique de Google s’est améliorée au fil du temps, tandis que la majorité (61%) de la tranche d’âge la plus âgée (65 ans et plus) n’est que légèrement d’accord ou en désaccord.
Les chercheurs les plus jeunes (âgés de 18 à 25 ans) sont 250% plus susceptibles que les chercheurs les plus âgés d’être fortement d’accord que la qualité des informations et du contenu politique sur Google s’améliore avec le temps.

Désinformation
Étant donné que Google met l’accent sur la lutte contre la désinformation dans ses résultats de recherche, nous voulions également demander aux répondants dans quelle mesure ils estiment qu’ils rencontrent toujours des informations dangereuses ou très peu fiables sur Google.

Fait intéressant, la grande majorité des répondants (70%) estiment avoir rencontré au moins parfois des informations erronées sur Google, bien que 29% indiquent qu’ils ne voient que rarement ou jamais des informations erronées dans les résultats.

S/ https://www.seoagence.com/

L’impact du Coronavirus sur le business du web

Baidu Inc, la plus grande société chinoise de moteurs de recherche, a déclaré que les revenus du premier trimestre pourraient chuter de 13% par rapport à l’année précédente, l’épidémie de coronavirus freinant l’activité économique et la publicité.

Il prévoit des revenus entre 21 milliards de yuans et 22,9 milliards de yuans (3 à 3,3 milliards de dollars), ce qui est inférieur à une estimation moyenne de 23,1 milliards de yuans, selon Refinitiv.

L’extrémité supérieure de la fourchette de prévisions représente une baisse de 5% par rapport à l’année précédente.

« Le rebond de l’économie après l’épidémie continuera d’être un projet à long terme », a déclaré Robin Li, PDG de Baidu, dans une lettre interne obtenue par Reuters. Son contenu a ensuite été confirmé par la société.

La baisse potentielle des revenus de base du premier trimestre – les ventes réalisées grâce à la publicité – a été encore plus marquée, Baidu prévoyant une baisse de 10% à 18%.

« Baidu aura également plus de difficultés que les autres sociétés Internet en Chine en raison de sa plus grande dépendance à l’égard du marché de la publicité », a déclaré Haris Anwar, analyste à la plate-forme des marchés financiers Investing.com.

Baidu a noté que la prolongation des vacances du Nouvel An lunaire ainsi que les mesures de quarantaine pour freiner l’épidémie et la fermeture des magasins qui en a résulté ont fait que son activité de publicité hors ligne a été particulièrement durement touchée.

Les dirigeants de Baidu ont toutefois souligné qu’ils pensaient qu’une reprise progressive des affaires était en cours et que la demande de publicité allait rebondir à la fin de l’épidémie.

«Chez Baidu, nos employés retournent progressivement au bureau, appliquant des mesures de sécurité strictes. Nous supposons que les entreprises à travers la Chine feront de même et que nos services de marketing reprendront à un rythme plus rapide d’ici la fin du trimestre », a déclaré le directeur financier Herman Yu lors d’un appel de résultats.

Pour le quatrième trimestre, le chiffre d’affaires total a augmenté de 6% à 28,9 milliards de yuans, légèrement au-dessus des attentes des analystes.

De la nécessité de faire du référencement naturel

L’optimisation du référencement ou des moteurs de recherche est souvent une idée quelque peu nouvelle en matière de promotion et de marketing pour les sites Web en ligne. Dans le cas où vous effectuez une recherche simple sur le réseau, vous serez susceptible d’observer une énorme sélection de sites Web en ligne qui promettent d’être développés par des professionnels de la rédaction de contenu en optimisation de moteur de recherche. La réalité pourrait bien s’expliquer par le fait qu’un excellent matériau de contenu de référencement nécessite une persistance et des capacités spécialisées. Il souhaite un niveau neutre de capacité afin de comprendre à quel point plusieurs conditions peuvent être incluses dans les articles, de sorte que le site Web puisse à un moment donné être satisfait des préférences de rang supérieur. de vos moteurs de recherche. La quantité de fois que chaque terme crucial semble provenir de ce matériau n’est pas le point qui importe. En outre, il indique les phrases cruciales dans les articles ou les articles de blog.

Référencement naturel

Création de contenu SEO nécessite également le type correct de phrases importantes dans ces articles. Par occasion, lorsque vous devriez vraiment travailler sur la page Web de distribution de golf, vous ne souhaitez généralement pas utiliser des expressions essentielles, telles que «golf» ou même «golf», car elles sont excessives. vaste. En tant qu’alternative, vous auriez besoin d’évaluer «l’équipement de golf» ou même «l’apport de golf» en conjonction avec les mots importants tels qu’articles. Une autre chose importante pourrait être d’avoir la bonne quantité de densité pour tous ces mots cruciaux; Dans l’ordre, les moteurs de recherche peuvent bien indexer vos publications individuelles avec les phrases de recherche appropriées. Évaluer ces montants ne consiste pas à acquérir votre site Web en ligne dans les meilleurs emplacements de la meilleure façon possible. Un contenu de qualité supérieure peut utiliser des phrases importantes, souvent pertinentes, et peut avoir une densité de un à un demi et un centime.

Un facteur à garder à l’esprit est que si la mauvaise personne génère votre contenu Seo, Agence SEO alors vous pouvez certainement avoir quelques termes essentiels dans les articles de contenu et de composition. Avoir très substantiellement peut-être travailler à certains reculer. Un certain nombre de personnes préfèrent utiliser leur propre matériel avec des mots cruciaux, ce qui pourrait contrarier le trafic de votre site Web en ligne, mais en raison du fait que plus que du contenu bourré ne fait pas un sentiment raisonnable d’étudier. Les hommes et les femmes sont beaucoup plus intelligents que vous ne pouvez le croire, et ils sont donc en mesure de sentir rapidement le contenu des documents qui ont été composés pour vos moteurs de recherche et probablement de ne pas les aider principalement. Cela génère une prise de conscience de la malhonnêteté et ne laisse pratiquement aucune possibilité pour les personnes du site Web de la planète en ligne de dépendre de vous individuellement ou de votre nouvelle personne. Personne ne peut revenir pour votre propre site Web en ligne dans l’événement même si l’assistance fournie n’est pas pertinente.

Optimisation internet

La leçon pourrait être le fait que l’utilisation de mots essentiels trop petits peut vous faire perdre des résultats de moteur de recherche, optimisation internet ainsi qu’un bon nombre de mots clés peut vous faire oublier le plus grand nombre de femmes et d’hommes que vous souhaitez perdre. page Web. En outre, surcharger des phrases importantes risque de vous empêcher de passer par les moteurs de recherche. Lorsque vous consultez cette page Web https://mindfulmktg.com/content-writers/, vous obtiendrez des informations supplémentaires et bien plus complètes sur les rédacteurs de contenu en optimisation de moteur de recherche sur la plateforme en ligne!

Quand Google veut faire plaisir au régulateur européen

Google semble prendre des mesures supplémentaires pour plaire aux régulateurs de l’UE inquiets qu’il abuse de sa domination sur les recherches. Search Engine Land a découvert que Google met en évidence des services d’annuaire rivaux comme Yelp lorsque vous recherchez des entreprises dans des pays européens comme la France et l’Espagne, en plaçant des cartes de recherche sur les cartes au-dessus de Google. De toute évidence, il espère que cela repoussera les critiques potentielles de l’UE selon lesquelles il privilégie ses propres résultats dans les recherches locales par rapport à ceux de ses concurrents.

La société semble avoir testé cela en Allemagne avant de l’étendre à un public plus large, y compris le Royaume-Uni.

Il n’y a aucune certitude que cela empêchera une autre affaire antitrust contre Google. Les répertoires concurrents sont clairement visibles, mais ils sont finalement éclipsés par les propres informations de Google. De plus, cela peut être un peu trop familier. Yelp et d’autres se sont plaints de la proposition de Google « liens rivaux » en 2013, et l’UE a finalement rejeté le concept. Ce n’est pas très loin. Même ainsi, il est notable que Google essaie de devancer l’action judiciaire européenne plutôt que d’attendre que la prochaine affaire antitrust mette en œuvre des changements.

Les concessions de Google

Google a sans aucun doute été sur les épingles et les aiguilles en se demandant si la Commission européenne acceptera ou non les modifications du moteur de recherche qu’elle propose pour éviter une confrontation antitrust. Si ce que nous entendons est juste, Larry Page et son équipe pourraient bien se détendre dans un proche avenir: des sources pour le New York Times affirment que l’agence de l’UE a accepté la proposition de Google. Selon certaines informations, les termes de l’accord sont proches de ce qui avait été mentionné la semaine dernière. Google devrait étiqueter explicitement les résultats de recherche qui proviennent de ses propres services tout en affichant parfois les résultats des autres. Il lui faudrait également tester les résultats sur le terrain pour obtenir des commentaires de la Commission et des concurrents. Bien que ni Google ni les responsables européens n’aient confirmé la fuite apparente jusqu’à présent, toute vérité dans l’histoire pourrait signifier que la saga de longue date pourrait se terminer avant qu’elle ne devienne laide.

52% des américains estiment que les sites d’info rapportent de fausses informations

Selon Statista, en mars 2018, environ 52% des Américains estimaient que les sites Web d’actualités en ligne rapportaient régulièrement de fausses histoires aux États-Unis, et 34% déclaraient que les sites Web d’actualités signalaient parfois de fausses histoires – fake news. Ces sentiments mis à part, il n’est pas facile de rechercher les sources d’informations empiriquement fausses en ligne. Mais une équipe de chercheurs de l’Institut de technologie de Berlin, de l’Université de Valence, de l’Université fédérale de Rio Grande do Sul et du Centre allemand de recherche en intelligence artificielle a récemment cherché à résoudre le problème avec un moteur de recherche baptisé Untrue News.

Il complète les travaux publiés par des chercheurs de l’Université de l’Indiana concernant Hoaxy, un moteur de recherche public pour visualiser la propagation des réclamations et la vérification des faits. Dans une étude connexe du Laboratoire d’Informatique et d’Intelligence Artificielle du MIT (CSAIL), les coauteurs ont démontré une IA qui pourrait déterminer si une source est exacte ou politiquement préjudiciable. Plus récemment, CSAIL a développé un système automatisé capable de détecter les fausses déclarations de fait; ailleurs, une équipe de l’Université George Washington, d’Amazon AWS AI et de la startup AdVerifai a étudié une approche d’apprentissage automatique pour classer les discours trompeurs.

Untrue News est open source et utilise des techniques de traitement du langage naturel à la fois automatisées et semi-automatisées pour explorer et identifier les articles de presse faux et trompeurs. Son intelligence artificielle effectue la traduction de texte pour plusieurs langues, la classification et la liaison d’entités telles que les personnes, les organisations, les lieux, etc., indexant plus de 64 000 fausses histoires en portugais, allemand, anglais et autres langues. Les fausses nouvelles combinent de fausses histoires autour du même sujet ou de la même personne, fournissant des résultats dans les langues des utilisateurs. Un robot d’indexation Web exploite un modèle pour naviguer dans les sites Web et extraire uniquement les métadonnées accessibles au public, tandis qu’un module d’enrichissement des données comprenant plusieurs algorithmes – dont un qui effectue la reconnaissance d’entités et la liaison de documents aux bases de données sémantiques ouvertes – enrichit le contenu. Et pour la comparaison avec les fausses histoires, Untrue News s’appuie sur des sources jugées dignes de confiance par l’International Fact-Checking Network, l’unité de l’Institut à but non lucratif Poynter dédiée à rassembler les vérificateurs des faits du monde entier.

Pour chaque requête, Untrue News affiche le nombre de nouvelles trouvées au total, ainsi que le titre des articles des agences de vérification des faits, la date de publication, le pays dans lequel la nouvelle a été vérifiée, un lien vers le fait d’origine, une icône liée à la catégorie de la fiabilité et un extrait. Par exemple, la nouvelle qu’un politicien brésilien a posté le transfert de 8 millions de dollars au ministère de l’Éducation montre un symbole qui indique une vérité partielle, car les fonds ont également été transférés à d’autres ministères.

« Construire une plate-forme collaborative, fiable et open-source à usage collectif est le principal objectif d’Untrue News », ont écrit les chercheurs dans un article décrivant leur travail. «À une époque où les rumeurs et les fausses histoires sont décisives pour construire la pensée collective de la société, Untrue News se présente comme une plate-forme pour lutter contre la désinformation.»

Les bases du Réferencement Naturel – du SEO – pour tout le monde

Contrairement à il y a une décennie, le référencement n’est plus quelque chose de mystérieux pour certains entrepreneurs. Le référencement est devenu une grande industrie de nos jours et presque toutes les entreprises engagent aujourd’hui des experts en référencement ou confient le contrat à une société de marketing numérique pour ses projets de référencement.

Au cours des dernières années, de nombreuses évolutions ont été observées dans les procédures de référencement en raison des mises à jour de l’algorithme de Google. En outre, les experts SEO ont également travaillé sur un certain nombre de façons d’augmenter le classement des sites Web. Mais, malgré tout cela, il y a certains aspects, qui sont souvent négligés lors du processus de référencement. Plusieurs fois, les optimiseurs de moteur de recherche travaillent sur les aspects, qui sont dans la tendance actuelle et sont souvent discutés. Mais ils négligent certains autres aspects fondamentaux, qui sont très importants et il faut en tenir compte.

Jetons un coup d’œil à certaines de ces tendances, qui vous aideront certainement à obtenir du trafic pour vos sites Web.

Images avec texte ALT
Selon Yoast, que vous soyez un blogueur ou que vous écriviez des articles pour un magazine ou un journal en ligne, il est probable que vous vous demandiez si votre article a besoin d’une image ou non. La réponse est toujours oui ». Les images donnent vie à un article et peuvent également contribuer au référencement de votre site Web. » Tout d’abord, les images sont les attributs, qui facilitent la compréhension de votre contenu pour les visiteurs, ce qui se traduit par des taux de rebond moins nombreux. Les images enrichissent également votre page et augmentent les chances que vos pages Web ou pages de blog figurent parmi les meilleurs résultats de recherche. Le principal avantage des images réside dans les images Google. Google obtient un grand nombre de personnes qui recherchent des images. Il a souvent été constaté qu’un certain nombre de personnes qui recherchent les images pour certains sujets spécifiques aiment cliquer sur les pages si elles trouvent quelque chose d’intéressant ou de pertinent pour elles attaché à ces images.

En plus de cela, les images peuvent être épinglées sur la plateforme de médias sociaux Pinterest, Agence SEO qui redirige les utilisateurs vers votre article. Tout cela est sans aucun doute très utile pour la promotion ainsi que le classement de votre site web.

Grands titres
De superbes titres sont également l’une des parties les plus importantes du processus de référencement, et ils vous aident à vous classer. Tout d’abord, les moteurs de recherche identifient votre contenu avec des titres. Votre site Web est classé selon certaines expressions de mots clés et les titres jouent un rôle majeur lorsque quelqu’un recherche les mots clés ou les expressions les plus proches dans vos titres. En outre, les titres attrayants attirent les chercheurs et votre site Web reçoit plus de clics, ce qui est également une source de classement. Pour les utilisateurs des médias sociaux également, les titres ou les articles partagés, les articles de blog ou les vidéos comptent beaucoup. En dehors de cela, les titres aident également les chercheurs d’images.

Lorsque les utilisateurs recherchent les images sur les moteurs de recherche, ce sont les titres qui les convaincent de cliquer sur votre article et de lire le contenu de votre site Web ou de votre blog.

Liens vers des blogs de confiance
Les backlinks sont les principales parties du processus de référencement, et les liens sortants sont aussi importants que les liens entrants. Les liens sortants sont négligés par certains experts SEO, mais ils fournissent beaucoup de choses utiles à votre site. Premièrement, ils donnent aux moteurs de recherche une idée claire du contenu de votre page. En outre, ils agissent parfois comme l’extension de vos articles de blog, et vous pouvez économiser certains efforts pour tout élaborer et les couvrir à l’aide d’articles de blog.

Pour résumer Ce sont quelques aspects de base du référencement, qui sont incontestablement très importants pour le classement du site Web ou pour augmenter le trafic. Vous risquez de manquer un certain nombre de visiteurs si vous négligez ces aspects. Ces facettes font également de votre site un site de qualité et renforcent la confiance des visiteurs. Par exemple, les visiteurs aimeraient visiter davantage ces sites, qui ont présenté les choses efficacement avec des images, et ont beaucoup de ressources fiables, par rapport à ceux qui fournissent les textes en clair. Pourtant. prendre soin de tous les aspects du référencement peut être écrasant pour les personnes qui ne sont pas du domaine du référencement. Et si votre entreprise ne peut pas se permettre une équipe de référencement, il est fortement conseillé d’embaucher une société de services de référencement. Pour cela, vous pouvez nous contacter.

SEO – Du contenu utile

Les déclarations de Google sur les facteurs de classement sont comme des oignons. Ils ont des couches. Et quand vous épluchez trop de couches, vous commencez à pleurer » Danny a affirmé que ce sur quoi les référenceurs devraient se concentrer est de créer un excellent contenu utile, convaincant, etc. Il doit être fondamentalement grand, unique, utile et convaincant. Un excellent contenu n’est pas toujours complet Une erreur courante commise avec le contenu est de comprendre la grandeur comme étant complète.

Comprendre signifie couvrir un sujet du début à la fin. Cependant, tous les sujets n’ont pas besoin d’être exhaustifs. La raison pour laquelle un contenu court bat parfois un contenu complet est parce que parfois une requête de recherche est satisfaite par une réponse de 400 mots. Cela est particulièrement vrai dans la façon de «taper des requêtes de recherche très spécifiques. Si ces types de requêtes peuvent être exprimées en étapes courtes (étape 1, étape 2, etc.), vos utilisateurs seront peut-être plus heureux de voir la réponse de cette façon. Pourquoi le contenu complet perd les classements Un contenu complet peut avoir tendance à dériver du sujet. Le contenu qui se classe bien a tendance à être sur le sujet. Le contenu qui se classe sur la page deux des résultats de recherche a tendance à contenir des rubriques secondaires « qui ne sont pas essentielles pour la rubrique principale. Par exemple, si la phrase clé est de savoir comment attraper le bar rayé, « introduire des noms de lieux (entités) comme Cape Cod, Montauk et Rhode Island dans votre page Web complète » sur la capture du bar rayé modifiera le sujet de la page Web. La page ne se classera pas nécessairement pour savoir comment attraper le bar rayé », mais elle peut commencer à se classer pour la phrase clé plus ces emplacements géographiques (entités). Métaphores hors sujet, jargon et analogies À mon avis, une autre façon dont les éditeurs tuent leur contenu est d’utiliser des métaphores, du jargon et des analogies extravagants. Le faire une fois est probablement correct. Mais poivrer la page Web entière avec plusieurs instances d’éléments hors sujet est, à mon avis, en étudiant pourquoi certains sites sont classés haut et certains sont bas, un moyen sûr de réduire la pertinence de la page. Il s’agit d’une erreur courante de contenu qui a perdu le classement dans les mises à jour générales de Google. Chaque fois que Google resserre son association entre le contenu et les requêtes de recherche, les pages Web avec un contenu hors sujet commencent à perdre leur classement. Je ne dis pas qu’être hors sujet est la seule raison pour laquelle les pages Web perdent leur classement. Je souligne que c’est une des raisons pour lesquelles les pages ont tendance à perdre leur classement. Certaines pages perdent complètement leur classement pour d’autres raisons. Mais cela ne fait pas l’objet de cet article. Revenons à l’exemple de la façon d’attraper le bar rayé », un jargon commun en Nouvelle-Angleterre pour un gros bar rayé est le mot vache. Mais Google ne comprend que le mot vache »dans le contexte de la pêche. Faites une recherche de l’expression comment pêcher une vache « ou comment attraper une vache du rivage » et vous verrez que Google associe fortement le mot (entité) vache au bétail. Donc, si votre page Web utilise le mot vache »et des expressions liées au bétail (arrondir les rayures des vaches) dans un article, il est possible que Google commence à associer votre page Web sur la capture du bar rayé avec les animaux qui moo. Contenu qui se classe est concis et sur le sujet Il existe de nombreuses raisons pour lesquelles un excellent contenu perd son classement dans les mises à jour de l’algorithme principal de Google. Lors des audits de sites, consultant seo une des raisons que je vois de temps en temps est la tendance à confondre «complet» et «utile».

SEO – référencement naturel

Une autre raison pour laquelle je vois que certains sites perdent leur classement est que le contenu est hors sujet. Contenu qui se classe est pertinent pour les utilisateurs Une autre erreur courante consiste à écrire du contenu sur des mots clés. Je trouve qu’il est utile d’écrire dans l’intention de l’utilisateur. Lorsque vous parlez de l’intention des utilisateurs, à mon avis, vous parlez vraiment de: Aspirations Qu’est-ce que cette expression de mot clé indique que l’utilisateur aspire? Besoins Buts Qu’est-ce que l’expression de mot clé indique quels sont les objectifs des utilisateurs? Répondez à la question appropriée pour l’expression de mot-clé et vous serez plus près de répondre à la raison réelle de la recherche de l’utilisateur. Dé-jargonisons »ceci: Comprenez POURQUOI l’utilisateur effectue une requête de recherche puis fournissez la solution. Laissez les résultats de la recherche vous guider vers ce que veut dire l’utilisateur lorsqu’il tape une certaine requête de recherche. Grande signifie être au-dessus de la moyenne, se tenir au-dessus et en dehors des autres. À mon avis, la vraie grandeur réside dans le service à l’utilisateur et cela signifie se concentrer sur les aspirations, les besoins et les objectifs d’une manière qui est livrée rapidement et efficacement. Danny Sullivan a suggéré que c’était une bonne idée de créer du contenu utile.

La qualité de contenu et le SEO

Importance d’un contenu de qualité pour une optimisation efficace hors page L’optimisation hors page est sans vie sans contenu, le contenu de qualité. La plupart des spécialistes du marketing sont toujours confus au sujet des relations de référencement et de marketing de contenu. Le référencement et le contenu sont parfaitement adaptés. Sont-ils des chances les uns des autres? Comment quelqu’un peut-il combiner les deux pour un référencement hors page réussi? Et la liste des questions continue. Certaines personnes pensent que le marketing de contenu élimine complètement le besoin d’optimisation des moteurs de recherche, ce qui est complètement faux. En termes clairs, le référencement indique l’exigence de réussite du marketing Internet de tout site Web et le marketing de contenu remplit cette exigence. Lorsque l’optimisation des moteurs de recherche exige du contenu, des mots clés, des backlinks, une optimisation technique sur site et une sortie cohérente; un contenu de qualité répond alors à toutes ces exigences d’optimisation de site Web. Le temps est révolu où vous pouviez partager des liens avec vos partenaires pour des besoins d’optimisation hors page. Aujourd’hui, la mission des principaux moteurs de recherche comme Google est de ne fournir à leurs internautes que des informations utiles, de qualité et pertinentes. Ces informations doivent être organisées dans un format facile à lire et facilement accessible aux personnes qui en ont besoin. Une société d’hébergement de sites Web ayant des liens vers un site Web de restaurant n’est pas acceptable par Google et les principaux moteurs de recherche interdisent ou pénalisent de telles offres. Il est vrai que la création de liens est un must pour l’optimisation des moteurs de recherche hors page, pour des liens de qualité, de nombreux spécialistes du marketing se sont tournés vers les blogs invités. Les publications d’invités permettent de créer des liens de qualité avec un contenu de haute qualité pour votre entreprise sur le Web.

Ceci est important car un contenu de qualité est la clé d’une optimisation hors page réussie. Vous devez créer un contenu unique, original pour les visiteurs qu’ils trouvent partageable sur leurs blogs, Agence SEO profils de réseaux sociaux et même sites Web. Pour le dire simplement, le référencement hors site moderne ne consiste pas uniquement à créer des liens et à échanger des liens. Mais il s’agit de gagner des liens naturellement. Google ne veut pas que vous créiez des liens qui ne semblent ni pertinents ni naturels sur le Web. Au lieu de cela, il veut que vous créiez un contenu de haute qualité auquel les visiteurs aiment se connecter de manière naturelle. N’oubliez pas que vous devez créer du contenu pour les êtres humains, pas pour les moteurs de recherche. Ne mettez pas de liens contre nature dans votre contenu, sauf si cela est nécessaire. Pour comprendre le contenu en ce qui concerne le référencement sur page et hors page, il est important de comprendre les deux individuellement. Sur la page, le référencement se rapporte aux mots clés. Vous devez les mots clés les plus rentables dans le contenu de votre site Web de manière naturelle. Assurez-vous de suivre les directives définies par les moteurs de recherche lors de la rédaction de contenu sur vos pages Web. Ce contenu doit être écrit par l’homme et doit être exempt d’erreurs et exempt de redondance. Hors page, le référencement naturel contraste avec cela. Sans aucun doute, l’optimisation hors page concerne la création de liens, mais la qualité des liens et du contenu. Il y a deux façons de faire ça. Vous créez un contenu de haute qualité, attirez vos visiteurs sur votre site Web et gagnez des liens entrants naturels vers vos pages Web. Deuxièmement, selon Google, si vous avez un excellent contenu sur vos pages Web, cela attirera naturellement les visiteurs à s’engager avec vous et les webmasters à vous lier. Comment créer du contenu de haute qualité pour l’optimisation hors page? Le facteur SEO le plus important pour créer un contenu de haute qualité est de faire une bonne recherche de mots clés. À l’aide de divers outils de recherche de mots clés gratuits ou payants, vous pouvez découvrir les meilleurs termes de recherche que les chercheurs utilisent pour trouver vos services ou produits. La prochaine étape après la recherche de mots clés consiste à placer ces expressions ou termes dans votre contenu. De nombreuses personnes suivent la densité des mots clés, la proximité et de nombreux autres concepts. Mais les experts de l’optimisation des moteurs de recherche disent que vous ne devez poursuivre que votre bon sens. Vous devez créer un contenu de haute qualité et d’apparence naturelle, peu importe le nombre et la durée d’utilisation des mots clés. Tout ce dont vous avez besoin est de vous rappeler que les moteurs de recherche adorent le contenu frais et utile. Essayez de résoudre les questions et les problèmes de vos clients dans votre contenu. Et, votre contenu doit être facile à lire ainsi qu’un accès facile pour les moteurs de recherche et vos clients potentiels. Beaucoup de gens demandent s’ils devraient utiliser les blogs invités ou non pour créer du contenu de qualité et des liens entrants. C’est une question délicate. Les blogs invités pour l’optimisation hors page sont efficaces. Mais il est devenu un centre de spammeurs depuis quelques années. Nous ne vous demandons pas d’arrêter les blogs d’invités, mais de prendre des mesures de prévention contre les spammeurs pour tirer pleinement parti des blogs d’invités. N’oubliez pas, n’écrivez que des articles pour des sites de blogs invités réputés, utilisez des liens de non-suivi, écrivez du contenu original et n’envoyez pas de courriers indésirables aux propriétaires de sites Web pour des opportunités de blogs invités. Dans l’ensemble, l’optimisation hors page et le marketing de contenu doivent aller de pair avec attention.

La sécurité des sites affecte leur SEO

Il y a quelques années, j’ai commencé un site Web et à ma grande joie, les efforts de référencement que je faisais pour le développer donnaient des résultats. Cependant, un jour, j’ai vérifié mon classement et j’ai eu le choc de ma vie. Il était tombé, et mal. Je faisais bien mon référencement et je pensais que c’était suffisant, mais je ne savais pas qu’il y en avait plus. Je n’avais pas prêté attention à la sécurité de mon site Web, et je ne savais même pas que cela importait en ce qui concerne Google et ses facteurs de classement. De plus, il y avait d’autres problèmes de sécurité auxquels je ne faisais pas attention. En ce qui me concernait à l’époque, cela n’avait pas d’importance car j’avais un bon contenu Évidemment, je me trompais, et je sais maintenant que si vous voulez vraiment vous classer plus haut et augmenter le trafic de recherche de votre site, vous devez comprendre qu’il y a plus que de créer des liens et de produire plus de contenu. Comprendre l’algorithme de Google et ses facteurs de classement est crucial. Actuellement, Google compte plus de 200 facteurs de classement qu’ils prennent en compte lorsqu’ils souhaitent déterminer où classer un site. Et comme prévu, l’un d’eux concerne la protection de votre site. Selon eux, la sécurité des sites Web est une priorité absolue, et ils font beaucoup d’investissements visant à faire en sorte que tous leurs services, y compris Gmail et Google Drive, utilisent par défaut une sécurité de premier ordre et d’autres outils de confidentialité dans le but de faire Internet est généralement un endroit plus sûr. Papier blanc Quatre étapes pour démarrer sur la sécurité du site Web 1. Installez les plug-ins de sécurité En moyenne, un site Web typique de petite entreprise est attaqué 44 fois par jour, et les robots logiciels »attaquent ces sites plus de 150 millions de fois par semaine. Et cela vaut pour les sites WordPress et même pour les sites Web non WordPress. Les failles de sécurité des logiciels malveillants peuvent entraîner le piratage de vos données par des pirates informatiques, ou même vous faire perdre l’accès à votre site Web. Et dans certains cas, cela peut endommager votre site Web et cela ne gâchera pas seulement la réputation de votre marque, cela affectera également votre classement SEO Pour éviter cela, améliorez la sécurité de votre site Web avec des plugins WordPress Ces plugins ne bloqueront pas seulement la force brute et les attaques de logiciels malveillants, ils renforceront la sécurité WordPress pour votre site, corrigeant ainsi les vulnérabilités de sécurité pour chaque plate-forme et contrant toutes les autres tentatives de piratage. qui pourrait constituer une menace pour votre site Web. 2. Utilisez des mots de passe très forts Autant il est tentant d’utiliser un mot de passe, vous vous en souvenez facilement, ne le faites pas. Étonnamment, le mot de passe le plus courant pour la plupart des gens est toujours 123456. Vous ne pouvez pas vous permettre de prendre de tels risques. Faites l’effort de générer un mot de passe sécurisé. La règle est de mélanger les lettres, les chiffres et les caractères spéciaux et de les allonger. Et ce n’est pas seulement pour vous. Assurez-vous que tous ceux qui ont accès à votre site Web respectent les mêmes normes élevées que vous. Partagez cet article 3. Assurez-vous que votre site Web est constamment mis à jour Autant l’utilisation d’un système de gestion de contenu (CMS) présente de nombreux avantages, mais elle comporte également des risques. Selon ce rapport Sucuri, la présence de vulnérabilités dans les composants extensibles de CMS est la cause la plus élevée d’infections de sites Web. En effet, les codes utilisés dans ces outils sont facilement accessibles du fait qu’ils sont généralement créés sous forme de logiciels libres. Cela signifie que les pirates peuvent également y accéder. Pour protéger votre site Web, assurez-vous que vos plugins, CMS et applications sont tous mis à jour régulièrement. 4. Installez un certificat SSL Mais pourquoi la sécurité du site Web est-elle importante pour le classement SEO? Suite à la mise à jour de Google Chrome en 2017, les sites qui ont des FORMULAIRES « mais qui n’ont pas de certificat SSL sont marqués comme non sécurisés. Le certificat SSL, Secure Sockets Layer »est la technologie qui crypte le lien entre un navigateur et un serveur Web, protège le site contre les pirates et garantit également que toutes les données transmises entre un navigateur et un serveur Web restent privées. Un site Web normal est livré avec une clé verrouillée dans la barre d’URL, mais les sites sans certificats SSL, en revanche, ont la balise Non sécurisé ». Cela s’applique à tout site Web qui a une forme. Selon une étude réalisée par Hubspot, 82% des personnes ayant répondu à une enquête auprès des consommateurs ont déclaré qu’elles quitteraient un site Web non sécurisé. Et puisque Google Chrome détient déjà environ 67% de l’ensemble des parts de marché, c’est beaucoup de trafic à perdre. Techniquement, le principal avantage du protocole HTTPS (Hypertext Transfer Protocol Secure) au lieu du protocole HTTP (Hypertext Transfer Protocol) est qu’il offre aux utilisateurs une connexion plus sécurisée qu’ils peuvent utiliser pour partager des données personnelles avec vous. Cela ajoute une couche de sécurité supplémentaire qui devient importante, surtout si vous acceptez n’importe quel mode de paiement sur votre site. Pour passer de HTTP à HTTPS, vous devez obtenir un certificat SSL (certificat Secure Socket Layer) installé sur votre site Web. Une fois que votre certificat SSL est installé avec succès sur un serveur Web et configuré, Google Chrome affiche un feu vert. Il agira alors comme un cadenas en fournissant une connexion sécurisée entre le navigateur et le serveur web. Pour vous, cela signifie que même si un pirate est capable d’intercepter vos données, il leur sera impossible de les décrypter. La sécurité peut avoir un effet direct mineur sur le classement de votre site Web, mais elle affecte votre site Web de nombreuses façons indirectes. Cela peut vouloir dire payer un petit prix, mais au final, l’effort en vaut la peine. Source: Agence SEO