Google contre les Fake News ?

Google contre les Fake News ? Google a saupoudré de nouveaux ingrédients dans son moteur de recherche afin d’empêcher que de fausses informations et des suggestions offensantes ne gâchent ses résultats.

Les modifications sont en préparation depuis quatre mois, mais Google n’en avait pas encore discuté publiquement. L’annonce dans un article de blog reflète la confiance de Google dans un nouveau système de filtrage conçu pour réduire les chances que son moteur de recherche influent mettra en évidence des histoires fausses sur les personnes et les événements, un phénomène communément appelé «fausses nouvelles».

« Ce n’est pas un problème qui va aller jusqu’à zéro, mais nous pensons maintenant que nous pouvons garder une longueur d’avance », a déclaré Ben Gomes, vice-président de l’ingénierie de Google pour la recherche.


CORRECTION DE L’AUTOCOMPLETE
En plus de prendre des mesures pour empêcher les fausses nouvelles d’apparaître dans ses résultats de recherche, Google a également reprogrammé une fonctionnalité populaire qui essaie automatiquement de prédire ce qu’une personne recherche comme demande de recherche comme étant tapée. L’outil, appelé «saisie semi-automatique», a été remaniée pour omettre des suggestions désobligeantes, telles que «les femmes sont-elles mauvaises» ou des recommandations qui encouragent la violence.

Google a également ajouté une option de rétroaction qui permettra aux utilisateurs de se plaindre de suggestions de saisie semi-automatique répréhensibles afin qu’un humain puisse revoir le libellé.

Facebook, où de fausses nouvelles et d’autres canulars ont largement circulé sur son réseau social, a également essayé de contenir le flot d’informations trompeuses en travaillant avec l’Associated Press et d’autres organisations de presse pour examiner les histoires suspectes et remettre les pendules à l’heure lorsque cela est justifié. Facebook a également fourni à ses près de 2 milliards d’utilisateurs des moyens d’identifier les publications censées contenir de fausses informations, ce que Google permet désormais aux utilisateurs de son moteur de recherche de faire pour certains des extraits de nouvelles présentés dans ses résultats.


POURQUOI GOOGLE CARES
Google a commencé à attaquer les fausses nouvelles fin décembre après que plusieurs exemples embarrassants d’informations trompeuses soient apparus en haut de son moteur de recherche. Parmi d’autres choses, le moteur de recherche de Google a indiqué un site Web qui signalait à tort que le président élu Donald Trump avait remporté le vote populaire aux élections américaines, que le président Barack Obama prévoyait un coup d’État et que l’Holocauste n’avait jamais eu lieu pendant la Seconde Guerre mondiale.

Environ 0,25% seulement des résultats de recherche de Google étaient pollués par des mensonges, a déclaré Gomes. Mais cela suffisait encore à menacer l’intégrité d’un moteur de recherche qui traite des milliards de demandes de recherche par jour, en grande partie parce qu’il est largement considéré comme la source d’information la plus fiable sur Internet.

« Ils ont beaucoup à faire avec cela, en termes de réputation », a déclaré Lucy Dalglish, qui a suivi le flux de fausses informations en tant que doyenne du département de journalisme de l’Université du Maryland. « Si tout votre modèle d’entreprise est basé sur la recherche des meilleurs résultats de recherche, mais que ces résultats révèlent des choses complètement nulles, où cela vous mène-t-il? »

Pour résoudre le problème, Google a commencé à réviser le des algorithmes qui génèrent sa recherche avec l’aide de 10 000 personnes qui évaluent la qualité et la fiabilité des recommandations lors des tests. Google a également réécrit son livre de 140 pages de directives de notation qui aident les évaluateurs du contrôle de la qualité à faire leurs évaluations.


GOOGLE COMME ARBITRE
La lutte contre les fausses informations peut être délicate car dans certains cas, ce qui est perçu comme étant manifestement trompeur par une personne peut être interprété comme étant principalement vrai par une autre. Si Google, Facebook ou d’autres sociétés tentant de bloquer les fausses informations se trompent dans leurs jugements, ils risquent d’être accusés de censure ou de jouer à des favoris.

Mais ne rien faire pour lutter contre les fausses nouvelles aurait probablement causé des maux de tête encore plus importants.

Si trop d’informations trompeuses apparaissent dans les résultats de recherche de Google, https://www.seoagence.com les dommages pourraient aller au-delà de l’atteinte à sa réputation de fiabilité. Cela pourrait également effrayer les annonceurs averses au risque, qui ne veulent pas que leurs marques soient liées à un contenu auquel on ne peut pas faire confiance, a déclaré Larry Chiagouris, professeur de marketing. à Pace University à New York.

« Les fausses nouvelles sont hors de contrôle aux yeux de certaines personnes, donc les annonceurs deviennent très nerveux à ce sujet », a déclaré Chiagouris. « Tout ce que Google peut faire pour montrer qu’il essaie de mettre un couvercle dessus et l’empêcher de devenir incontrôlable, ce sera considéré comme une bonne chose. »

Bien qu’il vende également des annonces sur ses autres services et sites Web indépendants, Google tire toujours la majeure partie de son argent des liens marketing affichés à côté de ses résultats de recherche. Google affirme que sa nouvelle approche n’est pas destinée à apaiser les annonceurs.

Construire une campagne de référencement

Construire une campagne de référencement

Construire une campagne de référencement pour votre entreprise peut sembler un énorme exploit. Avec les bons outils et l’aide d’un peu d’experts, vous pouvez doubler vos bénéfices et placer votre entreprise en tête des résultats de recherche de Google.
Le référencement est un processus qui aide les entreprises à rester en tête du marché en améliorant le classement de leur site Web comme les moteurs de recherche populaires comme Google et en se faisant remarquer. Une bonne compréhension des méthodes et techniques actuelles d’optimisation des moteurs de recherche est cruciale pour bien fonctionner dans le climat des affaires en ligne d’aujourd’hui. Une façon de le faire est de vous inscrire au cours de formation SEO à Delhi et d’obtenir une certification
Dans cet article, nous discuterons de quelques-uns des conseils du référencement qui stimuleront votre entreprise.
CONCENTRER SUR L’EXPÉRIENCE UTILISATEUR
L’expérience utilisateur pour le référencement deviendra encore plus importante ces dernières années. Google a clairement montré que le centre est sur l’utilisateur, ce qui devrait inciter davantage de sites à offrir une expérience utilisateur fluide à leurs visiteurs. Une bonne expérience utilisateur augmente les chances que les gens interagissent avec les pages qu’ils visitent. Cela aide les moteurs de recherche à identifier les pages les plus importantes pour les gens, en les favorisant par rapport aux autres.
AUGMENTATION DE L’IMPORTANCE DE LA RECHERCHE VOCALE
La technologie de recherche vocale offre une excellente possibilité de transformer la façon dont nous interagissons et traitons les informations. La croissance des assistants numériques a offert un marché en développement qui peut améliorer la façon dont les demandes de recherche sont effectuées. Selon Google, 1 type de recherche sur 5 provient de requêtes vocales.
À mesure que l’efficacité s’améliore chez les assistants numériques, de plus en plus de personnes utiliseront la recherche vocale à partir de leurs appareils mobiles, à la recherche de réponses immédiates et appropriées. Il devient essentiel de rechercher l’intention de l’utilisateur vocal de présenter des résultats plus précis, en aidant les algorithmes à fournir la meilleure réponse.
MARQUE PERSONNELLE: UN OUTIL PUISSANT
Le branding personnel qui fait partie des tendances SEO est une pratique absolument vitale pour se démarquer parmi les entreprises du même secteur. Il met en valeur une personne réelle comme le visage de votre entreprise. Par conséquent, l’image de marque personnelle est un outil puissant et un instrument pour sécuriser la publication d’invités, les mentions de marque, les liens, les webinaires, les podcasts, les partenariats et bien sûr les clients. Pour en savoir plus, rejoignez le cours de formation SEO à Noida
SNIPPETS EN VEDETTE
Un peu plus de 11% des résultats de recherche ont un extrait en surbrillance. Ce sont les résultats qui abandonnent les pages de résultats des moteurs de recherche généralement après les annonces mais avant les résultats classés. Ils sont normalement à côté d’une image, d’un tableau ou d’une vidéo, ce qui les fait ressortir encore plus et les place dans une position encore meilleure pour voler des clics, même des résultats les mieux classés.
UTILISER LA LIAISON INTERNE PLUS FRÉQUEMMENT
La liaison interne est un outil que vous devez utiliser pour créer une hiérarchie de pages. Les liens internes peuvent également aider les utilisateurs à naviguer sur votre site. S’il y a un mot dont ils ne sont pas sûrs et que vous avez lié à une autre page de votre site qui explique ce mot, ils vont cliquer dessus. Cela signifie qu’ils visitent plus de pages sur votre site et passent plus de temps sur votre site, référencement Google Lille ce qui vous fait bien paraître sur Google.

3 signes révélateurs de problèmes sur votre site internet

3 indicateurs révélateurs que votre site Web est en échec

Connaissez-vous les performances de votre site Web? Bien qu’un excellent site Web puisse aider à faire des affaires; un mauvais peut vous coûter des ventes.
Et ce n’est pas parce que vous avez un site Web élégant qu’il est efficace.
Le plus triste, c’est que même si vous avez dépensé une tonne d’argent pour la refonte d’un site, cela ne garantit pas qu’il augmentera les ventes.
Voici trois drapeaux rouges flagrants indiquant que votre site Web ne fonctionne pas aussi bien qu’il le devrait et que faire à ce sujet.
Avoir un site Web n’a aucun sens si personne ne le connaît, ne le visite pas ou ne reste pas assez longtemps pour voir ce que vous avez à offrir.
Voici ce qu’il faut rechercher:
1) Faible volume de visiteurs du site Web Étant donné que votre site Web est l’élément marketing principal de votre entreprise, l’envoi de visiteurs qualifiés est fondamental pour le succès. Voici quelques conseils pour augmenter le trafic de votre site et obtenir plus de visiteurs pour voir vos offres:
• Faites de la publicité à l’aide de Google Ad et d’autres recherches payantes par navigateur, de la publicité sur les réseaux sociaux et de la publicité display. • Participez activement aux médias sociaux. Ces efforts peuvent créer un public suivi et attirer des fans fidèles sur votre site Web.
• Mettez en œuvre des stratégies de marketing de contenu en ajoutant fréquemment du contenu optimisé pour les moteurs de recherche à votre blog. Écrire des articles informatifs et publier des vidéos axées sur la valeur attirera non seulement les visiteurs, mais mettra également en valeur votre expertise dans votre secteur.
• Faites appel à un expert SEO qui peut augmenter le trafic de site Web qualifié et également améliorer votre classement dans les moteurs de recherche.
2) Taux de rebond élevé Un taux de rebond mesure le pourcentage de nombreux visiteurs qui quittent votre site Web sans naviguer plus loin après la première page sur laquelle ils atterrissent. Si les gens visitent votre page d’accueil et cliquent sur, c’est un signe que des changements sont nécessaires pour garder leur intérêt.
Voici quelques raisons pour lesquelles les gens quittent votre site avant d’explorer davantage:
• Votre page d’accueil doit être convaincante et faire appel à votre marché cible idéal. Assurez-vous que la messagerie de votre marque correspond à ce que vos visiteurs attendent de voir afin qu’ils soient attirés et souhaitent en savoir plus. Il est également important de vérifier où vous faites la promotion de votre entreprise et de vous assurer que vos offres sont très pertinentes pour eux. Assurez-vous que l’appel à l’action est clairement visible pour qu’ils puissent passer à l’étape suivante.
• Les gens peuvent être très impatients. Si votre site Web est lent à charger, ils partiront bien avant d’avoir la possibilité de voir vos offres. Le temps de chargement de votre site doit être rapide pour capter (et retenir) l’attention de votre visiteur.
• Les utilisateurs peuvent être frustrés facilement s’ils ne trouvent pas rapidement ce qu’ils recherchent. De même, s’ils rencontrent des liens rompus, des fautes d’orthographe et de grammaire et ont une mauvaise expérience utilisateur générale lorsqu’ils essaient de naviguer sur votre site.
• Malheureusement, le simple fait d’avoir un site Web ne suffit pas. Il est essentiel que votre site Web s’affiche correctement sur les téléphones intelligents et les appareils mobiles. Aujourd’hui, 1,2 milliard de personnes accèdent à Internet à partir d’appareils mobiles. Parmi ces utilisateurs, jusqu’à 80% d’entre eux naviguent à l’aide d’un smartphone.
En d’autres termes, si votre site Web n’est pas adapté aux mobiles, vous manquez beaucoup d’activités potentielles.
3) Pas de conversions Vous pouvez avoir tout le trafic dans le monde, mais s’ils n’achètent pas, cela ne vous sert à rien. Heureusement, si vous n’êtes pas satisfait du taux de conversion, il existe des moyens d’améliorer votre site pour augmenter le nombre de visiteurs qui se convertissent en clients payants.
• La plupart des visiteurs n’achèteront pas après leur première exposition à votre site Web. Il est donc très important de capturer ces pistes et de les suivre. Offrir un cadeau gratuit est un moyen efficace d’obtenir des informations de contact et de construire votre liste marketing.
Mais si les gens ne s’inscrivent pas pour votre cadeau, formation SEO alors il est temps de faire quelques changements. Vous pourriez avoir besoin d’une offre plus attrayante ou améliorer votre appel à l’action pour l’inscription. L’utilisation d’une fenêtre contextuelle ou d’une fenêtre contextuelle de sortie peut aider à augmenter les taux d’inscription. Avoir une image graphique plus attrayante de votre cadeau peut également augmenter les conversions.
• La meilleure façon de suivre ces prospects consiste à utiliser une série de répondeurs automatiques qui se déclenche immédiatement après leur inscription à votre cadeau gratuit. En outre, l’envoi de newsletters cohérentes à votre liste est également très efficace pour rester en tête pour eux, augmentant considérablement vos chances de les convertir éventuellement en un client payant.
Si vous ne savez pas où trouver ces trois métriques précieuses, la meilleure façon de les analyser est de vérifier Google Analytics de votre site Web et de surveiller les performances de votre site Web.

Google explique pourquoi il réécrit les descriptions de métadonnées

Google explique pourquoi il réécrit les descriptions de métadonnées. Google donne une explication détaillée des raisons pour lesquelles l’algorithme réécrit les méta descriptions.

Dans un Hangout Webmaster Central, un éditeur a demandé à John Mueller de Google pourquoi leur méta-description était en train d’être réécrite. La réponse de Mueller a offert un aperçu de la façon dont l’algorithme de Google choisit quand réécrire les méta descriptions.

La question concernait spécifiquement une méta description sur la page d’accueil en cours de réécriture sur les pages de résultats de recherche Google (SERP) pour les requêtes de recherche de marque. L’éditeur a utilisé l’exemple de l’utilisation du modificateur «UK» avec le nom de la marque.

Aucun détail n’est mentionné dans la question, il n’y a donc aucun moyen de résoudre directement le problème de l’éditeur.

Mais comme la réponse de Mueller est générale, elle a fourni une réponse qui a permis de comprendre pourquoi Google réécrit les méta descriptions.

Voici la question

«Nous avons un problème avec la méta description qui est affichée pour la page d’accueil de l’heure.

Donc, même si nous avons une méta description qui est implémentée sur cette page particulière, d’une manière ou d’une autre dans Google lorsque notre site Web apparaît, la méta description est complètement différent.

Et dans certains cas, si nous recherchons le nom de notre société plus le mot «UK», la méta description n’a aucun sens. C’est juste un tas de mots rassemblés à partir de différentes parties de la page.

Je sais que parfois Google va chercher diverses choses sur la page s’il ne trouve pas de contenu pertinent pour cette région particulière.

Donc, je suppose que ma question est, parce que nous avons beaucoup de trafic provenant des recherches de marque… il est important pour nous d’avoir la bonne description de la méta apparaissant. « 

Que faisons-nous pour rectifier la situation? »

John Mueller explique les causes de la réécriture de la méta-description
Avant de répondre aux raisons pour lesquelles Google a réécrit les méta-descriptions, John Mueller a déclaré qu’il n’avait pas vu le résultat de recherche spécifique aux éditeurs et qu’il ne pouvait pas expliquer pourquoi cela se produisait spécifiquement pour une requête qu’il n’avait pas vue.

« C’est difficile à dire sans regarder les résultats de recherche. C’est donc le genre d’une partie. « 

Il a ensuite proposé des explications sur les raisons pour lesquelles Google a réécrit les méta descriptions.

D’abord, il déclare que vous devez avoir un méta-mot-clé:

«Habituellement, ce qui se passe, c’est que nous devons avoir la balise META de description sur la page. C’est un peu la première étape.

Il semble que vous ayez déjà configuré cela. »

Raison 1: Mauvaise utilisation de la méta description
Maintenant, l’explication de ce qui déclenche l’algorithme de Google pour réécrire la balise meta description:

«L’autre chose, c’est que nous devons être en mesure, je suppose, de faire confiance à la méta description sur la page pour qu’elle soit plutôt raisonnable.

En particulier, parfois, lorsque nous voyons un tas de mots clés qui sont juste un peu collecté dans la méta description.

C’est quelque chose que nos systèmes pourraient examiner et bien dire, cela ne semble pas très utile pour les utilisateurs.

Ils essaieront donc de réécrire autre chose. « 

Mueller dit que l’une des raisons pour lesquelles la méta description peut être réécrite est qu’elle se concentre davantage sur les mots clés et moins sur le sujet de la page.

Mais plus important encore, ce qui fait de cette méta description une cible de réécriture, c’est qu’il a dit qu’elle « ne semble pas si utile pour les utilisateurs ».

Connexes: Meilleures pratiques SEO: Comment créer des méta descriptions impressionnantes

Raison 2: la correspondance du contenu et des requêtes peut déclencher la réécriture de la méta-description
Cette partie «moins utile», dans le contexte de l’éditeur ci-dessus, est relative à la requête de recherche. T

L’éditeur a déclaré que les requêtes de marque avec le modificateur «UK» étaient en cours de réécriture.

Ce modificateur de requête de recherche «Royaume-Uni» peut être à l’origine de la réécriture de la méta description par Google.

Si la page Web elle-même n’envoie pas spécifiquement de signaux de contenu liés au Royaume-Uni, Google peut choisir de modifier la méta description.

L’ajout de modificateurs aux requêtes de recherche peut amener Google à réécrire les méta descriptions (et les balises de titre également). Cela va surtout se produire lorsque les modificateurs de mots clés (comme le Royaume-Uni ou la page d’accueil) n’existent pas dans le contenu écrit de la page.

Raison 3: la requête de recherche influence la réécriture de la méta-description
Comme je l’ai illustré ci-dessus, et John Mueller le dira ci-dessous, la réécriture de la méta description dépend de la requête de recherche. Et je voudrais développer cela pour dire que cela dépend de la requête de recherche et du contenu de la page Web.

Voici ce que Mueller a dit:

«Et l’autre chose… que vous avez remarqué, c’est que la description peut varier en fonction de la requête utilisée.

Donc, la première chose que je ferais est de prendre la requête de marque normale que vous utilisez et de vérifier que la description que vous fournissez dans la méta description est en fait assez utile et pas trop… spam ou exagérée.

Et puis à partir de là, essentiellement, pour comprendre… est-ce quelque chose où Google se trompe toujours?

Ou est-ce quelque chose où les algorithmes de Google prennent parfois autre chose sur la page et se trompent? « 

Google organise une conférence digitale de 3 jours

Google prévoit une conférence numérique de trois jours qui se déroulera du 30 juin au 2 juillet. Google prévoit un événement numérique en direct se déroulant sur trois jours, qui s’adresse aux développeurs et propose également des sessions spécifiques à la recherche.

La conférence «Web.dev Live» de Google se tient du 30 juin au 2 juillet et semble être entièrement gratuite.

L’objectif de la conférence est d’aider les gens à rester connectés, informés et à jour avec les techniques Web modernes.

Une page de destination se lit comme suit:

«Ce sont des temps sans précédent, avec des gens du monde entier qui cherchent à rester connectés et informés. Le Web joue un rôle spécial ici, et nous sommes fiers de voir comment la communauté s’est renforcée.

Rejoignez l’équipe de la plate-forme Web de Google, dans le confort de votre foyer, pour célébrer les actions de notre communauté, apprendre les techniques Web modernes et vous connecter.  »

Trois jours, des dizaines de sessions
La conférence se déroule sur trois jours et chaque jour aura lieu dans un fuseau horaire différent.

Un «jour» de la conférence ne dure que trois heures, mais dans ce bloc de temps, il y a environ une douzaine de sessions.

Cela signifie que chaque session durera entre 10 et 20 minutes, y compris une période de questions et réponses.

Sessions spécifiques à la recherche
Comme mentionné, la conférence s’adresse aux développeurs en ce qui concerne le contenu de la session.

Cependant, il existe certaines sessions spécifiquement liées au référencement.

Le mardi 30 juin, Martin Splitt de Google présentera deux sessions consécutives sur le référencement JavaScript:

Débogage des problèmes de référencement JavaScript
Implémentation de données structurées avec JavaScript
Aucun moment précis n’a été prévu pour le déroulement de ces sessions, mais ce sont les deux dernières sessions de la journée.

La journée commence à 12 h 00 HNE, donc si vous vous présentez pendant au moins 14 h 15 HNE, vous devriez pouvoir assister à ces sessions.

Il n’y a pas de sessions spécifiques à la recherche ayant lieu les deux autres jours de la conférence, mais elles peuvent être intéressantes si vous effectuez un développement Web.

Comment participer
La participation à la conférence Web.dev Live est entièrement gratuite, il vous suffit de vous inscrire sur la page d’accueil ici.

Twitter est un soutien pendant l’épidémie de Covid

Twitter et un soutien pendant l’épidémie de Covid. La pandémie de coronavirus a créé des moments inhabituels et, comme nous le savons, les moments inhabituels nécessitent des mesures extraordinaires. Alors que les géants de la recherche et des réseaux sociaux fournissent des mesures spéciales, Agence SEO cet article examine ce que Twitter a fait pour soutenir les gens du monde entier pendant ces périodes de test.

Le rôle des médias sociaux pendant la pandémie
Les plateformes de médias sociaux comptent divertir près de 4,6 milliards de personnes du monde entier. Les principales plateformes Facebook, Instagram, Twitter et YouTube sont parmi les principaux contributeurs à la création d’une plateforme bien connectée pour les utilisateurs actifs. Les nouvelles et les mises à jour se sont répandues en quelques secondes sur ces plateformes atteignant des millions de personnes, plus rapidement que celle diffusée par les chaînes de télévision. Ainsi, lorsqu’il s’agit de diffuser des informations, les plateformes de médias sociaux sont le plus grand support.

À l’heure actuelle, chaque plate-forme s’efforce de créer le canal le plus sûr pour diffuser des informations et apaiser les gens tout en les guidant sur les ravages de la pandémie et les moyens par lesquels ils peuvent se sauver. Dans cette lutte, discutons du rôle de Twitter, l’une des plateformes de médias sociaux les plus fréquentées.

Comment Twitter prend soin de ses utilisateurs
Twitter est une plate-forme gratuite pour socialiser. Grâce à l’utilisation de hashtags et d’une interface transparente, les utilisateurs sont connectés les uns aux autres malgré la région à laquelle ils appartiennent. Au cours des trois premiers mois de 2020, les utilisateurs actifs sur Twitter ont maximisé, ce qui reflète son authenticité et son positionnement parmi les utilisateurs de médias sociaux actifs. En fait, l’engagement publicitaire sur Twitter est en hausse de 23%.

Avec le début de la pandémie, les plateformes de médias sociaux doivent faire face à un certain nombre d’accusations. L’une des accusations les plus importantes était la diffusion de fausses informations.

La désinformation interdite de la plateforme
Twitter a condamné toute diffusion d’informations trompeuses sur sa plateforme. Alors que la plate-forme divertit des millions d’utilisateurs, la propagation de la désinformation créait la panique parmi les utilisateurs et les induisait en erreur gravité de la pandémie. Enfin, la plate-forme de microblogage a été mise à jour et toute information vérifiée comme fausse ou manipulatrice est instantanément supprimée. Tout comme Facebook, la plateforme a commencé à promouvoir l’information en la vérifiant à partir de sources crédibles. Qu’il s’agisse des statistiques mondiales des dépenses de santé ou du nombre de patients infectés dans le monde, les chiffres exacts ont commencé à se répandre.

Parmi les aspects importants observés pour interdire le contenu, il y avait des informations fausses sur les personnes affectées, les raisons qui ont déclenché les allégations de virus selon lesquelles des groupes ou communautés religieuses spécifiques sont sujets à la maladie, au racisme et à la discrimination. Tout ce qui se rapporte à ces aspects est supprimé et interdit en un instant.

En dehors de cela, les autorités de Twitter ont également informé des efforts déployés pour automatiser la suppression des messages abusifs et manipulés. Avec l’aide de l’apprentissage automatique, la plateforme est examinée attentivement et tout contenu pouvant nuire à une personne est limité à partager ou à publier. En ces termes, les autorités ont fait valoir leur point de vue sur les mises à jour: «Comme nous l’avons dit à de nombreuses reprises, notre approche de la protection de la conversation publique n’est jamais statique. C’est particulièrement pertinent en ces temps sans précédent. Nous avons l’intention de revoir notre réflexion quotidiennement et nous veillerons à partager ici les mises à jour sur toute nouvelle clarification de nos règles ou changements majeurs. à la façon dont nous les appliquons « ,

Twitter fait don d’un million de dollars pour soutenir le journalisme pendant la pandémie
Juste au moment où les nouvelles sur l’interdiction des informations trompeuses sur Twitter faisaient la une des journaux, Twitter a publié une nouvelle mise à jour sur sa contribution. La plate-forme fait don d’un million de dollars à deux organisations, la Fondation internationale des médias pour les femmes et le Comité pour la protection des journalistes, afin de publier des informations authentiques sur la pandémie de COVID-19. Cela s’avère être un grand pas pour garder le monde à l’abri de la pandémie en guidant de plus en plus de personnes sur les moyens de prévenir les affections. Le journaliste fera la lumière sur toutes les histoires qui peuvent se révéler utiles pour lutter contre l’épidémie.

Un mandat pour obtenir l’historique de recherche ?

Les entreprises technologiques demandent aux législateurs de freiner la surveillance numérique. Les entreprises technologiques demandent aux législateurs d’exiger un mandat pour les historiques des moteurs de recherche.

Les entreprises technologiques demandent au Congrès de renforcer les protections de la vie privée autour des moteurs de recherche et des navigateurs Web alors que les législateurs entrent dans la dernière phase des négociations sur un projet de loi sur la surveillance gouvernementale.

Mozilla, Reddit et Twitter, ainsi qu’une coalition comprenant Facebook et Google, faisaient partie de ceux qui ont signé une lettre publiée vendredi demandant aux dirigeants de la Chambre d’exiger que le ministère de la Justice obtienne un mandat avant d’obtenir les recherches ou l’historique de navigation de quelqu’un, même en matière de sécurité nationale. cas.

La lettre intervient alors que la Chambre envisage de réautoriser les principales lois de surveillance, y compris certaines dispositions qui datent de 2001 USA Patriot Act.

« L’historique de recherche et de navigation peut fournir un portrait détaillé de notre vie privée », ont déclaré les sociétés dans la lettre. « Il peut révéler des conditions médicales, des croyances religieuses et des relations personnelles, et il devrait être protégé par des garanties juridiques efficaces. »

Le Patriot Act, adopté immédiatement après la terreur du 11 septembre 2001 attaques, les procureurs fédéraux autorisés à obtenir un large éventail de dossiers commerciaux, y compris auprès des fabricants de moteurs de recherche et de navigateurs Web, sans obtenir le mandat généralement requis par le quatrième amendement.

Une proposition visant à ramener l’exigence de mandat a échoué de peu la semaine dernière au Sénat, soit un vote de moins que la majorité majoritaire de 60 voix qu’elle devait adopter.

La lettre a été envoyée à la direction de la Chambre, y compris le président Nancy Pelosi, D-Calif., Et le chef de la minorité Kevin McCarthy, R-Calif. Vendredi, les représentants de leurs bureaux n’ont pas répondu à une demande de commentaires.

Les groupes de protection de la vie privée et les organisations de défense des libertés civiles comme l’ACLU ont monté leur propre campagne de lobbying pour exiger un mandat, notant dans une lettre cette semaine qu’il y avait eu un soutien bipartisan à l’idée au Sénat.

Le ministère de la Justice s’est opposé à l’exigence d’un mandat dans les cas de sécurité nationale, Agence SEO où les procureurs disent qu’ils ont besoin d’une flexibilité maximale pour mener des enquêtes.

Google sera « probablement » confronté à des poursuites antitrust plus tard cette année

Google sera « probablement » confronté à des poursuites antitrust plus tard cette année. Depuis près d’un an, le ministère de la Justice enquête sur Google pour violation de la législation antitrust en matière de recherche et de publicité. Maintenant, le Wall Street Journal rapporte qu’il est « probable » que le DoJ et les procureurs généraux des États intenteront des poursuites antitrust contre Google plus tard cette année, peut-être d’ici l’été.

Les détails des cas possibles ne sont pas clairs, notamment si les États se joindront à une plainte fédérale ou déposeront leurs propres poursuites. En juillet dernier, le DoJ a révélé son intention de revoir les «plates-formes en ligne leaders du marché» comme Google, Facebook, Apple et d’autres, Agence SEO tandis qu’un certain nombre de procureurs d’État ont annoncé leurs enquêtes l’automne dernier.

Baidu voit un trimestre robuste alors que l’économie chinoise rouvre

Baidu voit un trimestre robuste alors que l’économie chinoise rouvre. Le géant chinois des moteurs de recherche, Baidu Inc, prévoit que les revenus du deuxième trimestre seront supérieurs aux attentes lundi, alors que les entreprises rouvriront dans la deuxième économie du monde après des fermetures strictes pour freiner la propagation du coronavirus.

Les actions cotées aux États-Unis de Baidu ont bondi de 8% dans le cadre de transactions prolongées après que la société ait également signalé une baisse des revenus au premier trimestre plus faible que prévu et dépassé facilement les estimations de bénéfices.

L’économie au point mort de la Chine démarre beaucoup plus tôt que l’Europe et les États-Unis, qui assouplissent progressivement les restrictions alors qu’ils luttent contre les taux élevés d’infections et de décès dus au COVID-19, une maladie causée par le nouveau coronavirus.

Baidu prévoyait des revenus pour le trimestre en cours entre 25,0 milliards de yuans et 27,3 milliards de yuans, alors que les analystes s’attendaient en moyenne à 25,55 milliards de yuans.

La société a déclaré quotidiennement Les utilisateurs actifs de Baidu App ont bondi de 28% en mars pour atteindre le cap des 222 millions.

« Cette performance est encourageante, car elle montre que le pire tronçon est probablement terminé pour les sociétés Internet chinoises alors que l’économie se remet lentement sur pied et que le marché de la publicité numérique se relance », a déclaré Haris Anwar, Agence SEO analyste principal à la plate-forme des marchés financiers Investing.com. .

Le chiffre d’affaires de l’activité de services de marketing en ligne de Baidu, qui comprend la recherche, les flux d’actualités et les applications vidéo et est un contributeur majeur aux ventes globales, a chuté de 19% pour atteindre 14,24 milliards de yuans au premier trimestre clos le 31 mars.

Le chiffre d’affaires total a baissé d’environ 7% à 22,55 milliards de yuans (3,17 milliards de dollars), mais a dépassé l’estimation de 21,93 milliards de yuans.

Baidu en février a estimé les revenus entre 21 milliards de yuans et 22,9 milliards de yuans.

Les abonnés à iQIYI de la société – un service vidéo de type Netflix – ont grimpé de 23% pour atteindre 118,9 millions, bénéficiant de commandes à domicile. Le chiffre d’affaires a augmenté de 9% mais la perte nette attribuable à la société s’est élargie à 2,87 milliards de yuans contre 1,81 milliard de yuans.

Sur une base ajustée, Baidu a gagné 8,84 yuans par action de dépositaire américain, au-dessus de l’attente de 3,99 yuans par ADS, selon les données IBES de Refinitiv.

Google sur la corrélation signalée des mauvais liens et la perte de trafic de 50%

Google sur la corrélation signalée des mauvais liens et la perte de trafic de 50%

Google sur la corrélation signalée des liens incorrects et la perte de trafic de 50%. John Mueller de Google commente la question des webmasters sur les mauvais liens de parrainage et la baisse du trafic.

Un éditeur a déclaré à John Mueller de Google que Google Search Console (GSC) a signalé plus de cinq cents pages de référence provenant de deux domaines. Ces références étaient en corrélation avec une baisse de trafic de 50%. John Mueller de Google a commenté la corrélation entre les liens de parrainage et la baisse du trafic.

L’éditeur a rapporté que GSC a montré des références de deux domaines totalisant jusqu’à quatre liens vers chaque page de leur site. En visitant ces pages, l’éditeur a vu qu’elles étaient vides, il n’y avait aucun contenu sur ces pages.

Ils ont déclaré que l’apparition de ces liens référents était corrélée à une baisse de 50% du trafic.

L’éditeur a demandé:

« … Est-ce un scénario où l’outil de désaveu a du sens ou Google les détecte-t-il comme non naturels et les ignorera comme signal de classement? »

John Mueller de Google a commenté le mystère des pages «vides» et ce que cela pourrait être:

« Il est vraiment difficile de dire ce que vous voyez ici. Il est certainement possible qu’il y ait des pages qui montrent une page vide aux utilisateurs, puis ils montrent une page complète à Googlebot. « 


C’est une référence à une page qui montre une page à Google et une autre page à tout le monde. Cette pratique s’appelle le camouflage.

Mueller explique que la possibilité que la page soit masquée. Il s’agit d’une explication de ce que l’éditeur pourrait voir et ne pas aborder le deuxième problème du classement.

Mueller continue de rejeter les pages de référence comme des erreurs techniques plutôt que comme une tentative malveillante de saboter le classement de l’éditeur.

Il a dit:

« De ce point de vue, je voudrais simplement ignorer ces pages. »

Il a ensuite suggéré d’inspecter les pages avec le test Google Mobile Friendly pour voir à quoi ressemble la page lorsque GoogleBot les voit. C’est un test de dissimulation, Référencement internet Lille pour voir si une page montre une page à Google et une autre page aux visiteurs non Googlebot.

Mueller a ensuite commenté la corrélation entre les liens de parrainage et la baisse de 50% du trafic:

« Je ne pense pas que ce soit quelque chose que vous devez désavouer.

Cela semble probablement bizarre dans le rapport sur les liens, mais je ne m’inquiéterais vraiment pas de cela.

En ce qui concerne la baisse du trafic que vous voyez, de mon point de vue, cela ne serait probablement pas lié à ces liens.

Il n’ya pas de situation réelle… où j’imagine que des pages essentiellement vides poseraient un problème de liens.

Je voudrais donc simplement ignorer cela.

Si vous décidez de les mettre dans le fichier de désaveu de toute façon… gardez à l’esprit que cela n’affectera pas la façon dont nous affichons les données dans la console de recherche. Le rapport sur les liens continuerait donc de les montrer.

Je ne pense pas qu’il y ait de raison d’utiliser un fichier de désaveu dans ce cas particulier. Je les laisserais donc tranquilles. »


Qu’est-ce que l’éditeur a vu?
Ce que l’éditeur a vu est un phénomène ancien et commun appelé spam de référence. La raison initiale du spam de référence était qu’au début des années 2000, certains programmes d’analyse gratuits publié des listes de référents sous forme de liens.

Cela a créé l’opportunité de spammer un site avec de fausses références du site de spam vers un autre site afin de créer un lien à partir de la page d’analyse publique.

Cette page d’analyse n’était liée à aucune autre page d’un site. Il existait simplement sur une URL générée automatiquement.

La plupart des sites n’ont plus ces pages d’analyse. Mais la pratique se poursuit, peut-être dans l’espoir que si suffisamment d’éditeurs cliquent sur les liens, Google le verra comme une forme de popularité qui aiderait leur classement.

L’éditeur de ce hangout était probablement en train de regarder une référence fabriquée.

Le référent n’était pas réel. Même le lien n’existait pas. C’est généralement le cas du spam référent. Le spam référent nuit-il au classement?
En vingt ans de création de sites Internet, je n’ai jamais publié de site qui n’attirait pas le spam référent. Le spam référent et les liens fantômes vers mes sites n’ont eu aucun effet sur mon classement.

Le spam référent est très courant. C’est vraiment un problème.

La raison pour laquelle le site de l’éditeur a perdu cinquante pour cent de son classement réside dans une autre explication.