Duck Duck Go continue sa croissance

L’année du moteur de recherche DuckDuckGo a été productive en 2020. Le moteur de recherche a réussi à augmenter considérablement les requêtes de recherche quotidiennes en 2020 et 2021 cherche déjà à devenir une autre année record alors que le moteur de recherche a franchi la barre des 100 millions de requêtes de recherche en une seule journée pour la première fois le 11 janvier 2021.

En repensant à 2019, le moteur de recherche a enregistré plus de 15 milliards de requêtes de recherche cette année-là. En 2020, le nombre de requêtes est passé à plus de 23 milliards de requêtes de recherche. Ces deux années à elles seules constituent les requêtes pour plus d’un tiers de l’existence totale de l’entreprise, et l’entreprise a été fondée en 2008. En 2015 par exemple, DuckDuckGo a réussi à franchir pour la première fois la barre des 12 millions de requêtes par jour.

En 2020, les recherches moyennes quotidiennes de DuckDuckGo ont augmenté de 62%.

DuckDuckGo a reçu pour la première fois plus de 100 millions de requêtes de recherche en janvier 2021. La première semaine de l’année a vu une croissance de moins de 80 millions de requêtes à un niveau stable au milieu de 80 millions de requêtes, et la semaine dernière a vu ce nombre passer à 90 millions de requêtes, le jour record étant lundi la semaine dernière.

Les requêtes sont à nouveau tombées sous les 100 millions ces derniers jours – DuckDuckGo n’affiche pas les données des deux derniers jours – et il est possible que les chiffres restent inférieurs à 100 millions pendant un certain temps.

L’un des principaux objectifs du moteur de recherche est la confidentialité. Il promet que les recherches sont anonymes et qu’aucun enregistrement de l’activité des utilisateurs n’est conservé; les principaux moteurs de recherche comme Google suivent les utilisateurs pour augmenter l’argent de la publicité.

DuckDuckGo profite chaque fois que la confidentialité est discutée dans les nouvelles, et il est fort possible que le changement de partage de données Facebook-WhatsApp ait été l’un des principaux moteurs de l’augmentation du nombre de requêtes du moteur de recherche.

La part de marché de la recherche de DuckDuckGo est passée à 1,94% aux États-Unis selon Statcounter. Google est toujours en tête avec 89,19% de toutes les recherches, suivi par Bing et Yahoo respectivement avec 5,86% et 2,64% de toutes les recherches.

Les données de Statcounter ne sont pas exactes à 100% car elles sont basées sur un code de suivi installé sur plus de 2 millions de sites dans le monde.

Le trafic de DuckDuckGo augmente d’année en année et il ne semble pas y avoir de fin en vue. Si la tendance se poursuit, il pourrait éventuellement dépasser Yahoo puis Bing aux États-Unis pour devenir le deuxième moteur de recherche le plus utilisé du pays.

Des problèmes de confidentialité et des scandales se produiront en 2020 – ils se sont produits chaque année – et chacun contribuera sa part à l’augmentation continue de la part de marché de DuckDuckGo.

SEO AGENCE est une agence conseil SEO.

Le problème de la cannibalisation des mots clefs

Les mots clés sont primordiaux lorsqu’il s’agit d’engager les utilisateurs et d’augmenter le classement de votre moteur de recherche.

En conséquence, l’optimisation des moteurs de recherche (SEO) est devenue une entreprise de plusieurs millions de dollars avec une foule d’experts offrant des conseils sur la meilleure façon de faire progresser la page de résultats des moteurs de recherche (SERP) et de revendiquer la première place convoitée.

La plupart des conseils SEO exploitables se résument à quelques suggestions solides: faites votre étude de marché afin de savoir quels mots clés sont pertinents pour votre public cible, et créez un contenu opportun et pertinent.

La cannibalisation des mots clés est quelque chose qui ne fait pas si souvent les tournées de référencement. Bien que ce problème au son désagréable ne sombrera pas dans votre site Web, il peut entraîner un classement de vos pages et de vos publications plus bas qu’ils ne le devraient et – s’il n’est pas vérifié – pourrait nuire à la réputation globale de votre site.

Voici ce que vous devez savoir sur la recherche, l’évaluation et l’élimination de la cannibalisation des mots clés.

Qu’est-ce que la cannibalisation des mots-clés dans le référencement?


La cannibalisation des mots-clés se produit lorsque deux ou plusieurs pages de votre site Web se retrouvent en concurrence pour le même mot-clé.

Disons que votre entreprise vend des bardeaux de toit. Le contenu de votre blog comprendra probablement des articles sur la façon de prolonger la durée de vie des bardeaux grâce à des soins et à un entretien appropriés – avec la bonne combinaison d’autorité et de connaissances exploitables, ce type de contenu peut attirer l’attention de votre public cible et les amener à acheter des bardeaux sur votre site. lorsque leur maison doit être réparée ou remplacée.

Pour vous assurer de capturer le bon public, effectuez une recherche par mot-clé et constatez que les «prix des bardeaux de toit» sont extrêmement élevés. Vous créez ensuite plusieurs pages qui tirent toutes parti de ce mot-clé – une pièce peut traiter des types de bardeaux les plus coûteux, une autre des options moins coûteuses et une troisième des coûts de réparations potentielles si les bardeaux sont endommagés.

Le problème? En utilisant le même mot-clé pour chaque page, vous vous volez essentiellement les classements des moteurs de recherche.

Voici pourquoi: Du point de vue des moteurs de recherche, chacune de ces pages est sa propre entité distincte avec sa propre autorité et son propre classement de page, ce qui signifie que vos pages se battent pour attirer l’attention du référencement.

De plus, ces pages similaires mais différentes diviseront votre taux de clics (CTR) sur plusieurs liens, ce qui diminuera la valeur de chaque page. En conséquence, ces trois pages pourraient se classer sixième, septième et huitième dans les SERPs, tandis qu’une seule page pourrait se classer deuxième, voire première.

Comment détecter la cannibalisation des mots clés


Le moyen le plus simple de détecter la cannibalisation de mots-clés consiste à créer une feuille de calcul contenant le ou les mots-clés de tout contenu que vous créez.

Avant de publier un nouveau message, vérifiez votre feuille de calcul et voyez si vous avez déjà utilisé le même mot-clé. Si tel est le cas, pensez à peaufiner votre contenu pour vous concentrer sur un autre mot-clé ou assurez-vous que le contenu que vous créez est sensiblement différent de celui des publications précédentes.

Vous pouvez également vérifier la cannibalisation des mots clés avec une recherche en ligne rapide de vos mots clés les plus pertinents. Si vous voyez plusieurs pages de votre site répertoriées proches les unes des autres dans les SERPs pour le même mot-clé, vous avez un problème de cannibalisation.

En outre, les outils de vérification de la cannibalisation des mots clés peuvent vous aider à ne pas manquer de chevauchement potentiel – mieux vaut connaître le plus tôt possible et modifier votre contenu avant qu’il ne soit poussé vers le bas du classement de recherche par des publications plus ciblées de vos concurrents.

Comment éliminer la cannibalisation des mots clés

Alors, que se passe-t-il si vous découvrez la cannibalisation des mots clés sur votre site?

Tout d’abord, jetez un œil au contenu de chaque page. Dans la mesure du possible, combinez les informations des deux pages dans un seul article pour améliorer le classement des recherches et augmenter l’autorité.

Dans le cas de notre entreprise de bardeaux, par exemple, il vaut la peine de combiner les pages de bardeaux «les plus coûteux» et «les moins chers» en un seul article qui cible le mot-clé «prix des bardeaux de toit». S’il y a des aspects particuliers des bardeaux à bas prix ou à prix élevé qui pourraient aider les clients à prendre leur décision, créer de nouvelles publications avec de nouveaux mots clés et créer un lien vers eux dans la publication d’origine.

Dans d’autres cas, vous constaterez peut-être que les publications plus anciennes sur votre site sont toujours très bien classées grâce à l’utilisation de mots clés ciblés, mais ne sont plus pertinentes pour la gamme de produits ou l’offre de services de votre entreprise. Ici, c’est une bonne idée d’intégrer toutes les données utiles des publications plus anciennes dans du contenu plus récent, puis de supprimer l’original, ce qui permet aux moteurs de recherche de classer votre publication la plus pertinente.

À noter? Comme pour tout ce qui concerne le référencement, il existe des exceptions à la règle de cannibalisation des mots clés.

Par exemple, si vous avez deux publications avec le même mot-clé qui sont toutes deux très bien classées et que leur position de classement ne fluctue pas, il n’est pas nécessaire de les combiner.

Cependant, si les pages des concurrents commencent à se classer plus haut, ou si votre page la mieux classée cesse de fournir des taux de clics soutenus, cela peut indiquer la nécessité d’agir.

Outils de vérification de cannibalisation de mots-clés

Bien que conserver une feuille de calcul des URL de page, des métadonnées et de l’utilisation des mots clés peut aider à réduire le risque de cannibalisation involontaire, cela devient d’une complexité prohibitive à mesure que les sites se développent.

Considérez un site de commerce électronique qui vend plusieurs types de vestes d’hiver – avec une page de produit pour chaque veste, des pages de catégorie pour chaque type de veste et des articles de blog sur l’entretien, le stockage et la réparation des vestes, il est facile que les mots-clés se chevauchent et que SERP en souffre.

Les outils de vérification de cannibalisation des mots-clés peuvent aider à rationaliser ce processus et à réduire le risque de manquer un problème potentiel de mots-clés. Certaines options populaires incluent:

Vérificateur de cannibalisation des mots clés Keylogs
Le vérificateur de cannibalisation de Keylogs offre un essai gratuit – connectez-vous simplement avec un compte Google connecté à vos sites Web et le vérificateur fait le reste.

Vous obtiendrez des résultats sur toutes les pages de votre site qui sont en concurrence pour le même mot-clé classé, ainsi que des stratégies pour résoudre le problème. À noter? Le niveau gratuit de cet outil ne suit que trois mots-clés sur un site. Des forfaits payants sont requis pour plusieurs sites et un suivi illimité des mots clés.

Outil de suivi de position SEMrush
SEMrush est un ensemble d’outils de suivi et de surveillance SEO populaire. Avec un forfait payant, les propriétaires de sites ont accès à un rapport de cannibalisation dans l’outil de suivi de position SEMrush, qui fournit un score de cannibalisation pour les mots-clés saisis.

Un score de 100% signifie qu’aucune cannibalisation n’a été détectée – des scores plus faibles indiquent des problèmes potentiels et spécifieront à la fois les mots-clés concernés et les pages cannibales.

Console de recherche Google
L’utilisation de la section des rapports sur les performances de Google Search Console vous permet d’afficher les requêtes qui ont généré des impressions et des clics sur votre site grâce aux recherches Google.

Explorez ces requêtes avec l’onglet « pages » pour voir une liste d’URL classées pour des mots-clés et des requêtes spécifiques – si vous voyez plusieurs URL de votre site répertoriées pour le même mot-clé, vous pouvez avoir un problème de cannibalisation.

Vérificateur de cannibalisation SEOScout
Le vérificateur de cannibalisation de SEOScout offre une alternative à la gestion des feuilles de calcul de mots-clés. Créez simplement un compte pour un essai gratuit de 7 jours, entrez le domaine de votre site et l’outil créera un rapport détaillant les classements de mots clés en double, vous permettant de localiser et d’éliminer rapidement le contenu cannibale.

Moz Keyword Explorer
L’Explorateur de mots clés de Moz vous permet de trouver des mots-clés de classement, de déterminer les positions de classement des pages et de prendre des décisions sur les pages à conserver et celles qui doivent être retravaillées ou supprimées. Moz facilite également le téléchargement de fichiers de feuille de calcul CSV qui peuvent ensuite être analysés hors ligne pour les listes de mots clés en double.

Rester au courant de la cannibalisation des mots-clés

Pour les propriétaires de sites et les administrateurs, le contenu des mots clés cannibales est problématique – le classement de plusieurs URL pour le même mot clé peut avoir un impact négatif sur l’autorité de la page, frustrer les clients potentiels et réduire les SERP.

Résolvez la cannibalisation des mots-clés en trouvant l’utilisation de mots-clés en double, puis en combinant ou en supprimant le contenu au besoin pour vous assurer que votre contenu le plus pertinent gagne le meilleur placement SERP auprès des moteurs de recherche populaires.

SEO AGENCE est votre agence digitale à Lille.

3ème procès contre Google – pour monopole sur le marché de la recherche

Le procès est la troisième affaire antitrust majeure déposée contre le titan de la Silicon Valley cette année et intervient un jour après que 10 autres États ont accusé Google d’abuser de sa domination dans la publicité et de surfacturer les éditeurs.

Abus de position dominante

Un groupe de 38 États et territoires américains a déposé jeudi une action en justice antitrust contre Google, accusant le géant de la technologie de maintenir illégalement un pouvoir « sans entraves  » dans les services de recherche généraux et la publicité de recherche par le biais de conduites et de contrats d’exclusion.

Le procès est la troisième affaire antitrust majeure déposée contre le titan de la Silicon Valley cette année et intervient un jour après que 10 autres États ont accusé Google d’abuser de sa domination dans la publicité et de surfacturer les éditeurs.

Le groupe d’États dirigé par le procureur général démocrate du Colorado Phil Weiser et le procureur général républicain Doug Peterson a accusé Google d’avoir conclu des contrats d’exclusion pour empêcher ses concurrents d’accéder aux principaux canaux de distribution.

Cette partie est similaire à ce que le département américain de la Justice (DoJ) a déclaré dans son procès en octobre.

« Le large groupe d’États qui cherchent à tenir Google responsable de son comportement illégal, comme allégué dans la présente plainte, soutient également les allégations de la plainte récemment déposée par un certain nombre d’États frères et le ministère de la Justice des États-Unis », indique la plainte .

« Les réclamations supplémentaires dans cette affaire visent à lutter contre un plus large éventail de comportements illégaux de Google. » La nouvelle combinaison va au-delà de DoJ avec deux points supplémentaires.

Conduite illégale

Premièrement, en plus de conclure des contrats d’exclusivité, le procès accuse Google d’utiliser son outil de marketing publicitaire sur le Réseau de Recherche pour limiter sévèrement l ‘«interopérabilité» de l’outil avec un concurrent, désavantageant ainsi les annonceurs.

Deuxièmement, il a déclaré que Google empêche les consommateurs de contourner son moteur de recherche général et de se rendre directement à la destination choisie, en particulier lorsque cette destination menace la position de Google sur le marché. Cela signifie qu’il limite la capacité des fournisseurs de recherche verticale à atteindre les consommateurs.

Selon le procès, les revenus de Google provenant des moteurs de recherche ont augmenté de 300% au cours de la dernière décennie et représentent 61% des revenus totaux de Google.

En réponse au procès, le directeur de la politique économique de Google, Adam Cohen, dans un article de blog, a déclaré que la recherche Google est conçue pour fournir aux utilisateurs les résultats les plus pertinents et si vous n’aimez pas les résultats que Google leur fournit, d’autres options telles qu’Amazon , Expedia, Tripadvisor sont à portée de clic.

«Nous savons que le contrôle des grandes entreprises est important et nous sommes prêts à répondre aux questions et à résoudre les problèmes. Mais ce procès vise à repenser la recherche de manière à priver les Américains d’informations utiles et à nuire à la capacité des entreprises à se connecter directement avec les clients », a déclaré Cohen.

«Nous sommes impatients de porter cette affaire devant les tribunaux, tout en restant concentrés sur la fourniture d’une expérience de recherche de haute qualité à nos utilisateurs.»

SEO AGENCE est une agence seo à Lille

Quand vous légitimez le piratage

De nouvelles recherches ont montré que lorsque les individus sentent qu’un système ou une autorité ne répond pas à leurs demandes, ils sont plus susceptibles de légitimer l’activité de piratage aux dépens d’une organisation.

Légitimer le piratage du système qui ne répond pas aux attentes

Une recherche de l’Université du Kent a révélé que lorsque des individus sentent qu’un système ou une autorité ne répond pas à leurs demandes, ils sont plus susceptibles de légitimer l’activité de piratage aux dépens d’une organisation.

Les individus sont plus susceptibles d’éprouver de la colère lorsqu’ils croient que les systèmes ou les autorités ont négligé de rechercher la justice en leur nom ou d’écouter leurs demandes. À son tour, l’étude a révélé que si les systèmes ou les autorités en question étaient victimes de piratage, les individus seraient plus susceptibles de légitimer les actions perturbatrices des pirates comme moyen de manifester leur propre colère contre l’organisation.

Avec un plus grand nombre d’organisations à risque de violations de la cybersécurité et un plus grand nombre d’éléments de la vie sociale des individus se déroulant en ligne, cette recherche est opportune pour mettre en évidence la perception des pirates informatiques par les personnes qui demandent justice.

Un autre perception du pirate informatique

La recherche, dirigée par Maria Heering et le Dr Giovanni Travaglino de la School of Psychology de l’Université du Kent, a été menée avec des étudiants britanniques de premier cycle et des participants au crowdsourcer d’enquête universitaire, Prolific Academic. Les participants ont été confrontés à des scénarios fictifs de traitement injuste de la part des autorités, avec des plaintes rejetées ou poursuivies, avant qu’on leur dise que des pirates informatiques avaient dégradé les sites Web des autorités. On a ensuite demandé aux participants d’indiquer dans quelle mesure ils étaient en désaccord ou d’accord avec les actions des pirates. Ces hackers ont été majoritairement soutenus par les participants qui les perçoivent comme un moyen de «revenir sur» les systèmes qui n’écoutent pas leurs demandes.

Maria Heering a déclaré: «Lorsque les individus perçoivent un système comme injuste, ils sont motivés à participer à des manifestations politiques et à une action collective pour promouvoir le changement social. Cependant, s’ils croient qu’ils n’auront pas voix au chapitre, ils légitimeront les groupes et les individus qui perturbent le système en leur nom. Bien que cette étude ait exploré les sentiments de colère des individus, il y a certainement plus à explorer dans ce domaine de recherche. Par exemple, il peut y avoir des différences importantes entre les déterminations psychologiques du soutien des individus à des formes de piratage humoristiques et relativement inoffensives, et des formes plus graves et dangereuses ».

SEO AGENCE est une agence conseil SEO

La simulation informatique et l’univers

Les simulations informatiques ont eu du mal à capturer l’impact de particules insaisissables appelées neutrinos sur la formation et la croissance de la structure à grande échelle de l’Univers. Mais maintenant, une équipe de recherche du Japon a développé une méthode qui surmonte cet obstacle.

Dans une étude publiée ce mois-ci dans The Astrophysical Journal, des chercheurs dirigés par l’Université de Tsukuba présentent des simulations qui décrivent avec précision le rôle des neutrinos dans l’évolution de l’Univers.

Pourquoi ces simulations sont-elles importantes? L’une des principales raisons est qu’ils peuvent imposer des contraintes sur une grandeur actuellement inconnue: la masse des neutrinos. Si cette quantité est définie sur une valeur particulière dans les simulations et que les résultats de la simulation diffèrent des observations, cette valeur peut être exclue. Cependant, les contraintes ne peuvent être fiables que si les simulations sont précises, ce qui n’était pas garanti dans les travaux précédents. L’équipe à l’origine de cette dernière recherche visait à remédier à cette limitation.

« Les simulations précédentes utilisaient certaines approximations qui «Dans notre travail, nous avons évité ces approximations en employant une technique qui représente avec précision la fonction de distribution de vitesse des neutrinos et suit son évolution dans le temps», déclare l’auteur principal de l’étude, le conférencier Kohji Yoshikawa.

Pour ce faire, l’équipe de recherche a directement résolu un système d’équations connu sous le nom d’équations de Vlasov-Poisson, qui décrivent comment les particules se déplacent dans l’Univers. Ils ont ensuite effectué des simulations pour différentes valeurs de la masse des neutrinos et examiné systémiquement les effets des neutrinos sur la structure à grande échelle de l’Univers.

Les résultats de la simulation démontrent, par exemple, que les neutrinos suppriment l’amas de matière noire – la masse «manquante» dans l’Univers – et par conséquent les galaxies. Ils montrent également que les régions riches en neutrinos sont fortement corrélées aux amas massifs de galaxies et que la température effective des neutrinos varie considérablement en fonction de la masse des neutrinos.

« Dans l’ensemble, nos résultats suggèrent que les neutrinos affectent considérablement la formation de la structure à grande échelle, et que nos simulations fournissent un compte rendu précis de l’effet important des neutrinos », explique le professeur Yoshikawa.« Il est également rassurant que nos nouveaux résultats sont cohérents avec ceux d’approches de simulation entièrement différentes.

SEO AGENCE est une agence SEO à Lille.

Google va t’il diriger votre contenu vers un concurrent ?

Google a commencé à tester une nouvelle fonctionnalité de recherche la semaine dernière qui a laissé les fournisseurs de services de référencement dans un peu de panique. L’ajout a vu des liens contextuels supplémentaires inclus dans l’extrait de code qui apparaît en haut des résultats de recherche. Fait intéressant, les liens contextuels ne dirigeaient pas les utilisateurs vers la source originale de l’extrait de code mais vers d’autres sites.

La semaine dernière, la consultante australienne en référencement Brodie Clark a remarqué que lorsque les utilisateurs survolaient les lignes pointillées incluses dans le snipper présenté par Google, le contenu d’un site tiers était affiché – souvent pour fournir des informations supplémentaires sur des termes moins connus. Il a également remarqué que cliquer sur ce lien redirigeait les utilisateurs vers le site tiers en question, et non vers la source de l’extrait présenté.

Bien que la nouvelle fonctionnalité offre des avantages potentiels aux utilisateurs de la recherche, elle pourrait également pénaliser les éditeurs de contenu Web, en particulier ceux qui fournissent les informations que Google réutilise dans ses extraits.

Google a depuis confirmé que les liens contextuels faisaient partie d’un test et que la fonctionnalité devrait subir des améliorations supplémentaires avant de devenir permanente, voire pas du tout. Le problème pour les équipes de référencement est que les liens sont déterminés par Google – et non par l’auteur de l’extrait présenté. Ces liens pourraient même rediriger les utilisateurs vers un concurrent.

Il n’y a pas non plus une seule personne qui puisse être blâmée pour le choix des liens. Le système d’IA de Google était responsable des histoires Web qui ont été repérées la semaine dernière, de sorte que les éditeurs n’avaient pratiquement aucun contrôle sur les extraits de code ou les liens contextuels qui apparaissaient.

Pour l’instant, les responsables SEO peuvent être tranquilles, car Google semble supprimer ses histoires Web générées par l’IA. Ce que l’avenir réserve aux résultats de recherche Google et au contenu en ligne est cependant difficile à dire.

SEO AGENCE est une agence SEO à Lille

Empêcher Google de vous tracker partout

Vous pouvez empêcher Google de suivre certains aspects de votre activité en ligne en modifiant les paramètres de votre compte Google.

Google suit de nombreux détails vous concernant chaque fois que vous utilisez votre compte Google sur votre ordinateur, ordinateur portable, tablette et téléphone.
Voici comment empêcher Google de suivre votre activité Web, votre position, votre historique YouTube, etc.

Google s’est frayé un chemin dans pratiquement tous les aspects de votre vie, et le réseau d’applications et de services interdépendants du géant de la recherche capture, partage et s’appuie sur une grande quantité d’informations personnelles vous concernant. Google suit votre historique de recherche, par exemple, ainsi que la position de votre appareil mobile, les annonces que vous visionnez, les vidéos que vous regardez, etc

Si vous préférez, vous pouvez configurer Google pour qu’il arrête de vous suivre – du moins, pour la plupart – mais si vous le faites, vous perdrez le bénéfice de tous Fonctionnalités de personnalisation de Google.

Comment empêcher Google de vous suivre
Quel que soit l’appareil que vous utilisez, vous pouvez désactiver la plupart des différentes fonctionnalités de suivi de Google:

Sur un iPhone, vous pouvez facilement désactiver le suivi de l’historique des positions de Google. Lisez notre article sur la désactivation du suivi Google sur un iPhone.

Sur un téléphone Android, vous pouvez désactiver l’historique des positions et le suivi des positions pour l’ensemble de votre appareil ou des applications individuelles. Lisez notre article sur la désactivation du suivi Google sur les appareils Android.

Sur un ordinateur, vous pouvez empêcher Google d’utiliser les paramètres de votre compte Google dans un navigateur Web. Lisez notre article pour savoir comment.

Ce que vous devez savoir sur le suivi Google sur vos comptes et appareils
Quelle que soit la manière dont vous choisissez de désactiver les fonctionnalités de suivi de Google, vous utilisez généralement les mêmes paramètres de compte Google. Pour la plupart, Google vous suit en fonction de votre compte, et non de votre appareil. Par conséquent, si vous désactivez le suivi de Google à l’aide des paramètres Activité sur le Web et dans les applications ou Historique des positions, vous désactiver le suivi sur chaque appareil utilisant ce compte Google spécifique.

Il existe une exception importante: dans les paramètres de l’historique des positions, vous pouvez cliquer sur « Appareils sur ce compte » pour voir tous les téléphones et tablettes suivis. Vous pouvez choisir de décocher l’un de ces appareils pour empêcher Google de le suivre. Cela permet à Google de suivre une partie de votre activité, mais pas la totalité.

Vous pouvez supprimer sélectivement des appareils spécifiques de la liste de Google.

De même, vous pouvez refuser à certaines applications Google l’autorisation d’accéder aux services de localisation de votre téléphone – cela empêche Google de suivre votre position même si vous laissez les services de localisation activés pour d’autres appareils.

Google suit d’autres données que vous pouvez également désactiver
En plus de l’activité Web et du suivi de la localisation, Google suit également d’autres données, en particulier votre historique de visionnage YouTube et les détails vous concernant qui informent les publicités que vous voyez en ligne. Vous pouvez voir plus de détails sur ces deux sur la page Données et personnalisation dans les paramètres de votre compte Google.

Pour désactiver le suivi YouTube, lisez notre article sur la façon d’arrêter le suivi sur votre ordinateur.

La section Personnalisation des annonces de la page Données et personnalisation affiche une mine d’informations sur ce que Google sait de vous et comment cela est appliqué aux annonces qui vous sont diffusées. Si vous le souhaitez, vous pouvez désactiver complètement la personnalisation des annonces (cliquez sur le bouton pour le faire glisser vers la gauche), mais cela n’affecte que les annonces que vous voyez – cela ne réduit pas le nombre d’annonces qui vous sont diffusées et n’empêche pas Google de continuer à recueillir des informations sur vous.

SEO AGENCE est une agence digitale à Lille

Qu’est-ce que le On Page SEO

Les facteurs de classement sur la page peuvent avoir un impact important sur la capacité de votre page à se classer s’ils sont correctement optimisés. Les principaux facteurs sur la page qui affectent le classement des moteurs de recherche sont:

Contenu de la page
Le contenu d’une page est ce qui la rend digne d’une position dans les résultats de recherche. C’est ce que l’utilisateur est venu voir et est donc extrêmement important pour les moteurs de recherche. En tant que tel, il est important de créer un bon contenu. Alors, qu’est-ce qu’un bon contenu? Du point de vue du référencement, tout bon contenu a deux attributs. Un bon contenu doit répondre à une demande et être lié.

Un bon contenu répond à une demande:
Tout comme les marchés mondiaux, l’information est affectée par l’offre et la demande. Le meilleur contenu est celui qui répond le mieux à la demande la plus importante. Cela peut prendre la forme d’une bande dessinée XKCD qui fournit des blagues de nerd à un grand groupe de technologues ou il peut s’agir d’un article de Wikipédia qui explique au monde la définition du Web 2.0. Cela peut être une vidéo, une image, un son ou un texte, mais il doit répondre à une demande afin d’être considéré comme un bon contenu.

Un bon contenu peut être lié:
Du point de vue du référencement, il n’y a aucune différence entre le meilleur et le pire contenu sur Internet s’il n’est pas lié. Si les internautes ne peuvent pas y accéder, il est peu probable que les moteurs de recherche le classent et, par conséquent, le contenu ne générera pas de trafic vers le site Web donné. Malheureusement, cela arrive beaucoup plus souvent qu’on ne le pense. En voici quelques exemples: des diaporamas d’images optimisés par AJAX, du contenu accessible uniquement après la connexion et du contenu qui ne peut pas être reproduit ou partagé. Un contenu qui ne répond pas à une demande ou qui ne peut pas être lié est mauvais aux yeux des moteurs de recherche – et très probablement de certaines personnes aussi.

Balise de titre
Les balises de titre sont le deuxième facteur le plus important sur la page pour le référencement, après le contenu. Vous pouvez lire plus d’informations sur les balises de titre ici.

URL
Outre les liens internes intelligents, les référenceurs doivent s’assurer que la hiérarchie des catégories du site Web donné est reflétée dans les URL.

Voici un bon exemple de structure d’URL:

http://www.example.org/games/video-game-history
Cette URL montre clairement la hiérarchie des informations sur la page (historique en ce qui concerne les jeux vidéo dans le contexte des jeux en général). Ces informations sont utilisées pour déterminer la pertinence d’une page Web donnée par les moteurs de recherche. En raison de la hiérarchie, les moteurs peuvent en déduire que la page ne concerne probablement pas l’histoire en général mais plutôt celle de l’histoire des jeux vidéo. Cela en fait un candidat idéal pour les résultats de recherche liés à l’histoire du jeu vidéo. Toutes ces informations peuvent être spéculées sans même avoir besoin de traiter le contenu de la page.

Ce qui suit est un mauvais exemple d’URL structure:

http://www.imdb.com/title/tt0468569
Contrairement au premier exemple, cette URL ne reflète pas la hiérarchie des informations du site Web. Les moteurs de recherche peuvent voir que la page donnée concerne des titres (/ title /) et se trouve sur le domaine IMDB, mais ne peuvent pas déterminer de quoi il s’agit. La référence à «tt0468569» n’indique pas directement ce qu’un internaute est susceptible de rechercher. Cela signifie que les informations fournies par l’URL ont très peu de valeur pour les moteurs de recherche.

La structure d’URL est importante car elle aide les moteurs de recherche à comprendre l’importance relative et ajoute une mesure de pertinence utile à la page donnée. Il est également utile du point de vue du texte d’ancrage, car les gens sont plus susceptibles de créer un lien avec le mot ou la phrase pertinent si les mots-clés sont inclus dans l’URL.

Meilleures pratiques SEO
Les pages de contenu sont la viande des sites Web et sont presque toujours la raison pour laquelle les visiteurs viennent sur un site. Les pages de contenu idéales doivent être très spécifiques à un sujet donné, généralement un produit ou un objet – et être hyper-pertinent.

Le but de la page Web donnée doit être directement énoncé dans tous les domaines suivants:

Balise de titre
URL
Contenu de la page
Texte alternatif de l’image

Une page Web idéalement optimisée
Une page Web idéale doit faire tout ce qui suit:

Être hyper-pertinent pour un sujet spécifique (généralement un produit ou un objet unique)
Inclure le sujet dans la balise de titre
Inclure le sujet dans l’URL
Inclure le sujet dans le texte alternatif de l’image
Spécifiez le sujet plusieurs fois dans le contenu du texte
Fournir un contenu unique sur un sujet donné
Lien vers sa page de catégorie
Lien vers sa page de sous-catégorie (le cas échéant)
Lien vers sa page d’accueil (normalement réalisé avec un lien d’image montrant le logo du site Web en haut à gauche d’une page)

Comment booster votre blog

Le processus de création d’un blog est assez simple. Mais il est important d’être clair sur l’amélioration de la visibilité, de peur qu’elle ne flotte sans but dans le cyberespace.

Choisissez votre fondation

Obtenez WordPress.org car il permet aux utilisateurs de créer leur propre domaine (pour les utilisateurs gratuits, (dot) wordpress.com est livré avec le domaine) et dispose d’un espace d’hébergement gratuit. Vous pouvez choisir un thème correspondant à votre style et à votre contenu. De l’écriture de voyage à la maintenance d’un blog d’actualités, WordPress propose un certain nombre d’options. Site Web www.wordpress.org

Payant ou gratuit Gratuit

Niveau de difficulté Moyen

Processus Un tutoriel complet sur WordPress est disponible en ligne

Obtenez plus de visuels

La création de contenu engageant, pertinent et complet, qu’il s’agisse de podcasts, d’articles ou de vidéos explicatives, est essentielle. Utilisez des plateformes telles que Pinterest et Shutterstock pour obtenir des images haute résolution pour compléter le corps de votre blog. Pour les vidéos, téléchargez et intégrez des vidéos YouTube et Facebook. Site Web www.shutterstock.com

Payant ou gratuit Libre

Niveau de difficulté Facile

Processus Pour intégrer le contenu de Pinterest, Youtube et Facebook, cliquez sur le bouton Partager et obtenez le code d’intégration. Copiez-le et collez-le dans le corps de votre blog pour le refléter sur le lien du blog.

Améliorez votre liste de diffusion

Votre liste de diffusion est un moyen de vous faire découvrir en trouvant votre chemin dans les boîtes de réception des gens quand vous le souhaitez. Cela peut aider à augmenter le trafic des articles de blog et des ventes lorsque vous lancez un produit ou faites la promotion d’un produit d’affiliation. Mais la principale raison pour laquelle vous développez votre propre liste de diffusion est que, au lieu de compter sur Google pour le trafic ou les sites de réseaux sociaux qui changent constamment leurs politiques, cela vous permet de prendre votre visibilité en main. Avec www. mailchimp.com, vous pouvez créer des campagnes de marketing par e-mail. Site Web www.mailchimp.com

Payant ou gratuit Gratuit

Niveau de difficulté Facile

Processus Ajoutez votre copie, images, vidéos et boutons en quelques clics et un e-mail interactif sera prêt à l’envoyer à votre base de fans.

Dépenser de l’argent en promotion

ne pas tous les blogs réussissent puisqu’ils ne figurent pas sur la liste de lecture de tous les consommateurs, étant donné le bruit déjà existant en ligne. Pensez à votre créneau et au nombre de concurrents qui réussissent mieux que vous. Une façon de contourner leur domination est de dépenser de l’argent pour promouvoir votre travail auprès d’un groupe ciblé de personnes susceptibles de s’y intéresser. Facebook et Twitter sont de bonnes options pour promouvoir votre contenu. Site Web www.facebook.com; www.twitter.com

Payant ou gratuit Payant

Niveau de difficulté Facile

Processus Connectez-vous à Facebook et Twitter et accédez à la page que vous gérez. Cliquez sur le gestionnaire de publicités et choisissez le public cible et boostez les publications en payant Rs 40 à Rs 100.

Monétisez votre blog

Identifiez vos lecteurs. Quels sont leurs intérêts? Allez sur www.similarweb. com pour connaître la part de trafic de votre blog. Le site Web reflète le comportement général du blog, des sources de trafic et des concurrents. Site Web www.similarweb.com

Payant ou gratuit Gratuit

Niveau de difficulté Facile

Processus Saisissez l’URL de votre blog dans le champ barre de recherche sur la page supérieure gauche du site Web et appuyez sur Entrée pour obtenir les analyses.

Et si on montrait aux robots comment conduire une voiture ?

Les chercheurs ont conçu un système qui permet aux robots d’apprendre de manière autonome des tâches complexes à partir d’un très petit nombre de démonstrations, même imparfaites. Alors que les méthodes de pointe actuelles nécessitent au moins 100 démonstrations pour clouer une tâche spécifique, cette nouvelle méthode permet aux robots d’apprendre à partir d’une poignée de démonstrations seulement.

Des robots qui apprennent des démonstrations qui leurs sont faites

Imaginez si les robots pouvaient apprendre en regardant des démonstrations: vous pourriez montrer à un robot domestique comment faire des tâches de routine ou dresser une table. Sur le lieu de travail, vous pouvez former des robots comme de nouveaux employés, en leur montrant comment effectuer de nombreuses tâches. Sur la route, votre voiture autonome pourrait apprendre à conduire en toute sécurité en vous regardant conduire dans votre quartier.

Faisant progresser cette vision, les chercheurs de l’USC ont conçu un système qui permet aux robots d’apprendre de manière autonome des tâches complexes à partir d’un très petit nombre de démonstrations, même imparfaites. Le document, intitulé Learning from Demonstrations Using Signal Temporal Logic, a été présenté à la Conférence sur l’apprentissage robotique (CoRL), le 18 novembre.

Le système des chercheurs fonctionne en évaluant la qualité de chaque démonstration, afin qu’il apprenne des erreurs qu’il constate, ainsi que des réussites. Alors que les méthodes de pointe actuelles nécessitent au moins 100 démonstrations pour clouer une tâche spécifique, cette nouvelle méthode permet aux robots d’apprendre à partir d’une poignée de manifestations. Cela permet également aux robots d’apprendre de manière plus intuitive, la façon dont les humains apprennent les uns des autres – vous regardez quelqu’un exécuter une tâche, même imparfaitement, puis essayez vous-même. Cela n’a pas à être une démonstration «parfaite» pour que les humains glanent des connaissances en se regardant les uns les autres.

«De nombreux systèmes d’apprentissage automatique et d’apprentissage par renforcement nécessitent de grandes quantités de données et des centaines de démonstrations – vous avez besoin d’un humain pour faire des démonstrations maintes et maintes fois, ce qui n’est pas faisable», a déclaré l’auteur principal Aniruddh Puranic, un Ph.D. étudiant en informatique à l’USC Viterbi School of Engineering.

«De plus, la plupart des gens n’ont pas de connaissances en programmation pour indiquer explicitement ce que le robot doit faire, et un humain ne peut pas démontrer tout ce qu’un robot a besoin de savoir. Et si le robot rencontre quelque chose qu’il n’a pas vu auparavant? un défi majeur. « 

Apprendre des démonstrations

L’apprentissage des démonstrations devient de plus en plus populaire pour obtenir un contrôle efficace du robot politiques – qui contrôlent les mouvements du robot – pour des tâches complexes. Mais il est sensible aux imperfections dans les démonstrations et soulève également des problèmes de sécurité car les robots peuvent apprendre des actions dangereuses ou indésirables.

De plus, toutes les démonstrations ne se valent pas: certaines démonstrations sont un meilleur indicateur du comportement souhaité que d’autres et la qualité des démonstrations dépend souvent de l’expertise de l’utilisateur qui fournit les démonstrations.

Pour résoudre ces problèmes, les chercheurs ont intégré la «logique temporelle du signal» ou STL pour évaluer la qualité des démonstrations et les classer automatiquement pour créer des récompenses inhérentes.

En d’autres termes, même si certaines parties des démonstrations n’ont aucun sens en fonction des exigences logiques, en utilisant cette méthode, le robot peut toujours apprendre des parties imparfaites. D’une certaine manière, le système arrive à sa propre conclusion sur l’exactitude ou le succès d’une démonstration.

«Disons que les robots apprennent de différents types de démonstrations – cela pourrait être une démonstration, vidéos ou simulations – si je fais quelque chose de très dangereux, les approches standard feront l’une des deux choses suivantes: soit, elles l’ignoreront complètement, ou pire encore, le robot apprendra la mauvaise chose », a déclaré le co- auteur Stefanos Nikolaidis, professeur adjoint d’informatique à l’USC Viterbi.

« En revanche, de manière très intelligente, ce travail utilise un raisonnement de bon sens sous forme de logique pour comprendre quelles parties de la démonstration sont bonnes et quelles parties ne le sont pas. En substance, c’est exactement ce que font aussi les humains. »

Prenons, par exemple, une démonstration de conduite où quelqu’un saute un panneau d’arrêt. Cela serait classé plus bas par le système qu’une démonstration d’un bon conducteur. Mais, si au cours de cette démonstration, le conducteur fait quelque chose d’intelligent – par exemple, applique ses freins pour éviter une collision – le robot apprendra toujours de cette action intelligente.

S’adapter aux préférences humaines

La logique temporelle du signal est un langage symbolique mathématique expressif qui permet un raisonnement robotique sur les résultats actuels et futurs. Alors que les recherches précédentes dans ce domaine ont utilisé la «logique temporelle linéaire», la STL est préférable dans ce cas, a déclaré Jyo Deshmukh, ancien ingénieur de Toyota et professeur adjoint d’informatique à l’USC Viterbi.

«Lorsque nous entrons dans le monde des systèmes cyber-physiques, comme les robots et les voitures autonomes, où le temps est crucial, la logique temporelle linéaire devient un peu lourde, car elle raisonne sur des séquences de valeurs vraies / fausses pour les variables, tandis que STL permet le raisonnement sur les signaux physiques. « 

Puranic, qui est conseillé par Deshmukh, a eu l’idée après avoir suivi un cours de robotique pratique avec Nikolaidis, qui a travaillé sur le développement de robots pour apprendre des vidéos YouTube. Le trio a décidé de le tester. Tous les trois se sont dits surpris par l’ampleur du succès du système et les professeurs remercient Puranic pour son travail acharné.

« Par rapport à un algorithme de pointe, largement utilisé dans de nombreuses applications robotiques, vous voyez une différence d’ordre de grandeur dans le nombre de démonstrations nécessaires », a déclaré Nikolaidis.

Le système a été testé à l’aide d’un simulateur de jeu de style Minecraft, mais les chercheurs ont déclaré que le système pourrait également apprendre des simulateurs de conduite et même des vidéos. Ensuite, les chercheurs espèrent l’essayer sur de vrais robots. Ils ont dit que cette approche est bien adaptée pour les applications où les cartes sont connues à l’avance mais où il y a des obstacles dynamiques sur la carte: des robots dans les environnements domestiques, des entrepôts ou même des rovers d’exploration spatiale.

« Si nous voulons que les robots soient de bons coéquipiers et aident les gens, ils doivent d’abord apprendre et s’adapter très efficacement aux préférences humaines », a déclaré Nikolaidis. « Notre méthode fournit cela. »

« Je suis ravi d’intégrer cette approche dans les systèmes robotiques pour les aider à apprendre efficacement des démonstrations, mais aussi à aider efficacement les coéquipiers humains dans une tâche collaborative. »

SEO AGENCE est une agence digitale à Lille.