Centrer sa stratégie SEO

Centrer sa stratégie SEO

Alors que les entreprises entreprennent de servir leurs clients principalement en ligne et que la fréquentation des magasins physiques diminue considérablement, la valeur du référencement a été redécouverte. Les entreprises accordent désormais une plus grande attention à leur expérience en ligne et à la manière dont elles peuvent rivaliser sur Internet.

Cet article offrira un guide aux entreprises qui cherchent à améliorer leur portée et leur trafic organiques, en fournissant des solutions de référencement aux problèmes qu’elles pourraient rencontrer. Cela inclut les informations adaptées aux entreprises qui ne se sont pas encore engagées dans le référencement en tant que canal, ainsi qu’à celles qui en ont plus d’expérience. L’objectif est de gagner plus de trafic et d’augmenter les conversions.

Scénario 1: vous ne savez pas sur quels mots clés vous devriez vous classer
Cibler les bons mots-clés est essentiel pour obtenir un retour sur le référencement. Il est essentiel de cibler les mots-clés les plus précieux et les plus pertinents pour votre produit / service.

Comment savoir quels mots clés cibler:
Ils doivent être pertinents pour votre produit / service offre
Ils doivent avoir un volume de recherche suffisamment important pour cibler un public qui en vaut la peine. Cela peut varier en fonction du pays, de la spécificité de votre produit / service et de la saisonnalité. Utiliser votre jugement est ici crucial; vos propres connaissances sur votre secteur et votre marché spécifiques vous aideront à cibler les bons mots-clés avec la demande de recherche pertinente pour votre entreprise.

Outils pour mener votre recherche de mots clés:
Moz Keyword Explorer → un outil de recherche de mots clés qui offre un accès à des millions de mots-clés qui peuvent aider à former votre liste. Vous pouvez voir les suggestions de mots-clés, les sites Web de classement actuels et toutes les mesures du mot-clé lui-même.
Coût: créez un compte gratuit pour commencer.
Ahrefs «Keyword Explorer» ou «Keyword Generator» → ces outils sont parfaits pour trouver de nouveaux mots clés à cibler, des variantes, voir leur volume de recherche, générer des idées de mots clés, etc. Coût: Ils offrent un essai de 7 jours pour 7 $.
Google Trends → est une plateforme qui vous permet de regarder la tendance de recherche pour une sélection groupe de mots-clés. Vous pouvez comparer les mots-clés les uns aux autres et examiner les tendances de recherche mensuelles autour du sujet. L’examen de ces tendances peut également vous aider à éviter de cibler les mauvais mots clés. Parfois, certains mots clés ont un volume de recherche mensuel moyen plus élevé par rapport à un autre, cependant, l’autre mot clé peut soudainement recevoir un intérêt de recherche élevé en raison d’une tendance émergente.
Coût: c’est gratuit!
Answer The Public → vous permettra de voir les questions fréquemment recherchées autour de votre mot-clé. Cela peut vous aider à générer des idées de contenu et vous donner un aperçu des types de choses que les gens recherchent autour de vos mots clés importants.
Coût: c’est gratuit!
Google Search Console → cet outil vous aide à suivre les performances de votre site Web dans les résultats de recherche organiques et constitue une excellente ressource en matière de référencement. Il peut être utilisé pour découvrir les mots-clés pour lesquels votre site Web se classe actuellement et quels mots-clés fonctionnent mieux / moins bien sur une période donnée. (Si vous ne l’avez pas déjà configuré pour votre site, veuillez le faire maintenant!)
Coût: c’est gratuit!
Après tout cela, vous combinez vos mots-clés, déduisez et filtrez-les en conséquence, pour conserver les mots-clés pertinents que vous souhaitez cibler dans une liste.


Que dois-je faire une fois que j’ai ma liste de mots clés?
Optimisez votre site Web pour les inclure! Cela peut impliquer:

1. Mise à jour de vos métadonnées sur la page.

Les titres de page = doivent être uniques à la page, clairs et pertinents, et moins de 60 caractères (afin qu’ils ne soient pas coupés dans les résultats de recherche).
Meta Descriptions = inclure des mots-clés importants, sans « bourrage de mots-clés » (c’est-à-dire lorsque vous entassez beaucoup de mots-clés ensemble et qu’ils ne se lisent pas bien). Cela devrait contenir jusqu’à 150-160 caractères pour éviter qu’il ne soit coupé.
H1s = ce sont les en-têtes sur la page, généralement affichés en haut de la page, Ils doivent être pertinents pour la page, car ils fournissent une structure à l’article et un contexte à Google et à l’utilisateur.

2. Créez du contenu autour des mots-clés. Des outils comme Answer The Public vous fournira quelques idées de questions / sujets posés autour de mots clés importants. Faites-en un article sur votre blog! Assurez-vous que vous avez un titre qui inclut ces mots-clés et qui est facilement compréhensible. Les liens internes sont également un facteur important dans le bon classement des pages. Liez les pages importantes (ce sont généralement les pages les plus liées sur votre site, telles que celles incluses dans votre navigation principale), à ​​celles que vous souhaitez bien classer. Le fait de transmettre l’équité des liens entre ces pages indique à Google que ces pages valent la peine d’être montrées à l’utilisateur.

Pour plus d’informations sur la recherche et la mise en œuvre de mots clés, assurez-vous de lire le guide principal de recherche de mots clés de Moz.

Scénario 2: votre classement a chuté
Vous avez remarqué que votre site Web a été supprimé des résultats de recherche pour quelques termes clés, mais vous ne savez pas pourquoi. Pour être honnête, c’est un peu un trou noir car il pourrait y avoir de nombreuses raisons. Si vous souhaitez en savoir plus sur ce problème, quelques les articles que je recommande sont l’article de Tom Capper «Le trafic organique en baisse par an? Ce n’est pas ce que vous pensez… », ainsi que« Utilisation de la méthode des organigrammes pour diagnostiquer les baisses de classement – Best of Whiteboard Friday ». Cependant, pour garder les choses simples, je vais détailler quelques options qui peuvent être vérifiées et qui sont fondamentales pour le classement.

Comment identifier ce problème:
Vérification ponctuelle → les mots-clés pour lesquels vous connaissez bien votre site Web ne classent soudainement pas votre site dans la même position.
«Position moyenne» dans Google Search Console → cette métrique montre le classement de position moyenne de votre site Web dans son ensemble, ainsi qu’un tableau qui affiche divers classements de mots clés.
Suivi des classements → Un outil appelé STAT vous permet de saisir une liste de mots-clés, que vous «exécutez» ensuite pour suivre pendant quelques jours. Une fois le suivi terminé, vous avez accès à des informations à jour sur le classement des mots-clés, sur quelles pages et à plusieurs rapports sur les performances. C’est un excellent outil pour voir quels mots-clés tombent rangs, ou en augmentation.
Façons de résoudre ce problème:
Vérifiez le fichier robots.txt et les sitemaps → pour vous assurer que Google est en mesure d’y accéder, et que toutes les pages incluses devraient l’être. (Ceci est également inclus dans un audit technique).
Audit technique SEO → vous montrera tous les problèmes techniques qui pourraient survenir sur le site et qui ont affecté le classement. Cela peut être fait en exécutant une analyse de votre site Web (peut utiliser Screaming Frog ou Deepcrawl, par exemple). Les choses qui peuvent survenir sont un groupe de 404 pages, des directives noindex, nofollow, des balises canoniques incorrectes, un manque de lien interne, etc.
Erreurs et avertissements → Google Search Console affiche toutes les erreurs et avertissements qui se produisent sur le site. Ceux-ci doivent être examinés, car ils pourraient affecter les performances des pages.
Modifications récentes de votre site → Les modifications telles que les redirections ou le changement de marque peuvent affecter les performances de votre site dans les résultats de recherche. En fonction de l’ampleur du changement, on peut s’attendre à ce que les performances organiques changent, mais si les pages sont optimisées et exempt d’erreurs techniques, aucun effet à long terme ne devrait se produire.
Mises à jour des algorithmes → Alors que les algorithmes de classement déterminent le classement des pages dans les pages de résultats des moteurs de recherche (SERP), les mises à jour des algorithmes modifient la façon dont votre site adhère à leurs directives de classement et, par conséquent, le classement de vos pages. Rester à jour avec les annonces d’algorithmes ou les problèmes peut vous aider à suivre vos performances organiques. Twitter est un bon canal pour obtenir les dernières nouvelles de l’industrie, et vous pouvez suivre des personnalités notables de l’industrie comme Marie Haynes ou Barry Shwartz (pour n’en nommer que quelques-uns) pour leurs commentaires. De plus, des outils comme MozCast (gratuit!) Vous montreront le niveau actuel de volatilité dans les SERPs.
Assurez-vous que vos pages clés sont explorées et indexées → utilisez le rapport «Couverture» dans Google Search Console pour vérifier quelles pages sont indexées et quelles pages ont des avertissements. Vous pouvez également faire une vérification manuelle sur Google, en tapant dans la barre d’URL: site: votre site Web.com/web-page-slug opérateur. Non les résultats s’afficheront si votre page n’est pas indexée.

Scénario 3: votre expérience utilisateur est mauvaise
L’expérience utilisateur est devenue plus importante que jamais. Que votre site Web soit classé ou non en premier pour tous les mots clés importants (nous parlons dans un monde idéal), cela ne fera aucune différence si les utilisateurs ne savent pas comment interagir avec votre site une fois qu’ils y sont arrivés. Ils vont déposer et aller chez votre concurrent. S’assurer que vous avez un parcours utilisateur et une convivialité bien développés sur votre site Web est essentiel pour un référencement réussi.

Comment identifier cela comme un problème:
C’est quelque chose qui implique votre jugement, car malheureusement, il n’y a pas d’outil qui vous dira si votre site offre une mauvaise expérience utilisateur. En règle générale, si vous êtes frustré lorsque vous utilisez votre propre site ou si certaines choses vous dérangent lorsque vous naviguez sur d’autres sites Web, c’est ce que nous appelons une mauvaise expérience utilisateur. Certaines pratiques qui peuvent aider à mettre en évidence s’il s’agit d’un problème sont:

Lancer une enquête pour interroger les utilisateurs sur leur expérience sur le site. Par exemple, une question courante à inclure serait: « Avez-vous trouvé ce que vous recherchiez? » Cette approche courte mais directe peut faciliter une réponse pertinente et directe des clients, sur laquelle il est facile d’agir. Certains outils que vous pouvez utiliser pour cela incluent Google Forms, SurveyMonkey et WuFoo.
Comparez la vitesse du site avec celle des concurrents. Cela peut être fait à l’aide d’un outil tel que Crux, qui peut vous donner une indication de la vitesse / lenteur de votre site en comparaison.
HotJar peut vous montrer comment les gens naviguent sur une page. Cela peut mettre en évidence les domaines sur lesquels ils passent le plus de temps, les domaines où ils sont attirés par les clics et ce qui leur manque.
Google Tag Manager peut enregistrer le suivi des clics. Cela est utile pour voir si les gens réagissent à vos appels à l’action, comme remplir un formulaire ou appuyer sur un certain bouton.
Comment faire évoluer l’expérience utilisateur de votre application – zélé
Façons de résoudre ce problème:
Optimisez votre contenu sur la page. Cela implique la mise à jour de tout contenu de votre site Web pour vous assurer qu’il est pertinent pour votre public et à jour. Le contenu doit être facilement lu par une personne qui n’a aucun contexte par rapport aux produits / services proposés sur le site Web. Vous pouvez également:
Optimisez la mise en page de votre contenu. Par exemple, incluez une liste numérotée pour afficher votre contenu sous une forme différente, consultant SEO Lille ce qui peut vous aider à cibler les extraits en vedette.
Mettez à jour tous les anciens articles de blog avec de nouvelles informations pertinentes et optimisez les métadonnées pour inclure des mots-clés.
Assurez-vous que toutes les métadonnées sont pertinentes pour la page et optimisées.
Inclure les CTA. Un appel à l’action clair doit être présent sur toutes les pages. Ceux-ci pourraient être inclus dans la navigation principale, de sorte qu’il apparaisse sur toutes les pages, ou placés près du haut de chaque page. Les CTA donnent une direction et un point d’action au client, garantissant que s’il souhaite s’engager davantage, il est facile de le faire. Par exemple, les CTA courants incluent «Contactez-nous», «Inscrivez-vous ici» ou «Réservez maintenant».
Est-ce facile à convertir? Lorsque vous arrivez sur la page d’accueil, le CTA est-il clair? Existe-t-il des barrières qui pourraient empêcher un client de terminer cette action (comme exigeant qu’un client se connecte ou s’inscrive avant un achat)? Il est essentiel de rendre le trajet facile et clair entre l’entrée sur le site et la conversion, car les obstacles peuvent facilement dissuader un client potentiel.

Résumé:
Ce guide a abordé 3 scénarios courants rencontrés par les spécialistes du marketing numérique. Ne pas savoir quels mots clés cibler ou comment s’y prendre peut être difficile à naviguer. En utilisant les outils suggérés et en collectant des mots clés pertinents pour cibler vos pages, vous améliorerez votre classement. Le guide de Cyrus Shephard explique plus en détail ce sujet. De même, il est important de pouvoir identifier quand votre classement a chuté pour vous assurer de rester à jour avec les problèmes qui pourraient causer cette fluctuation. Si vous souhaitez en savoir plus à ce sujet, je vous recommande « SEO Rankings Drop: A Step-by-Step Guide to Recovery ». Enfin, offrir une bonne expérience utilisateur est devenu un élément important du marketing numérique. Si vous souhaitez approfondir vos connaissances à ce sujet, Rand Fishkin a plus à partager dans ce domaine. J’espère que cet article vous a été utile et qu’il peut vous indiquer les domaines que vous pouvez vérifier lorsque vous êtes confronté à un problème et que vous ne savez pas par où commencer!

YouTube Shorts – la réponse à TikTok ?

YouTube Shorts – la réponse à TikTok ?

L’incursion de Google dans le contenu vidéo de courte durée commence avec YouTube Shorts, spécialiste SEO Lille une nouvelle fonctionnalité testée sur des marchés limités.

YouTube Shorts est lancé pour la première fois en Inde et est décrit comme suit:

«Shorts est une nouvelle expérience vidéo courte pour les créateurs et les artistes qui souhaitent tourner des vidéos courtes et accrocheuses en utilisant uniquement leur téléphone portable.

YouTube Shorts offre les fonctionnalités suivantes aux créateurs de vidéos:

Créez et mettez en ligne des vidéos de 15 secondes ou moins.
Modifiez des vidéos avec un certain nombre d’outils créatifs.
Assemblez des clips plus courts avec une caméra multi-segments.
Ajoutez de la musique aux vidéos de la bibliothèque YouTube.
Accélérez ou ralentissez les vidéos.
Minuteries et comptes à rebours.
Les utilisateurs peuvent commencer à enregistrer un court avec la nouvelle icône de création qui a été placée bien en vue dans l’application YouTube pour Android (bientôt disponible sur iOS).

Après avoir publié un court métrage, il apparaîtra dans un carrousel sur la page d’accueil YouTube spécialement conçue pour de courtes vidéos.

Les utilisateurs peuvent passer d’une vidéo à une autre en balayant verticalement tout en visualisant le contenu du carrousel.

Le carrousel contient toutes les courtes vidéos sur YouTube, pas seulement les vidéos créées avec Shorts.

Dans ce cas, YouTube encourage les créateurs à commencer à se préparer dès maintenant en téléchargeant toutes les courtes vidéos existantes dont ils disposent.

« Nous encourageons tout créateur ou artiste mobile à commencer à mettre en ligne ses courtes vidéos existantes sur YouTube dès aujourd’hui pour commencer à être découvert. »

Lancement maintenant en version bêta
Une première version bêta de YouTube Shorts sera bientôt disponible pour les utilisateurs en Inde. On dit que la version bêta n’inclut qu’une poignée des fonctionnalités disponibles.

YouTube souligne qu’il est toujours en train d’intégrer Short dans ce qu’il deviendra finalement.

PUBLICITÉ

CONTINUER LA LECTURE CI-DESSOUS
Plus de fonctionnalités seront ajoutées au fil du temps, et il est confirmé que YouTube Shorts sera étendu à plus de pays dans les mois à venir.

La société a l’intention d’utiliser les commentaires des utilisateurs bêta pour guider d’autres produits développement:

« Il s’agit d’une première version du produit, mais nous la lançons maintenant pour vous accompagner – notre communauté mondiale d’utilisateurs, de créateurs et d’artistes – dans notre voyage avec nous alors que nous construisons et améliorons Shorts. »

Juste un autre clone de TikTok?
YouTube Shorts établit des comparaisons évidentes avec la principale application vidéo courte TikTok.

Il est difficile de nier les similitudes. Et il est intéressant de noter que YouTube a pris la décision de lancer cette fonctionnalité dans un pays où TikTok est interdit.

Avec le meilleur concurrent de la vidéo courte à l’écart, il y a tout un public de personnes qui réclament une alternative.

Instagram a utilisé cette stratégie en lançant son chapeau dans la course vidéo de forme courte avec le lancement de Reels.

TikTok a été interdit en Inde le 29 juin et Instagram a commencé à tester Reels en Inde le 6 juillet.

Dès qu’il a été question de l’interdiction de TikTok aux États-Unis, Instagram a étendu Reels à plus de pays.

Voir: Instagram Reels se lance dans le monde entier pour Rivaliser avec TikTok
Appeler Shorts un clone de TikTok est à courte vue, car YouTube a un facteur de différenciation clé.

L’avantage concurrentiel de YouTube sur TikTok et Instagram se résume à une chose: les chiffres.

TikTok compte 700 millions d’utilisateurs actifs par mois. Instagram compte 1 milliard d’utilisateurs actifs par mois.

YouTube compte plus d’utilisateurs actifs mensuels que TikTok et Instagram réunis à 2 milliards.

C’est une audience considérablement plus large de personnes qui peuvent découvrir du contenu créé avec YouTube Shorts.

Sans parler des fonctionnalités de monétisation de YouTube, il est intéressant pour les créateurs d’y consacrer leur temps.

Pour l’instant, il n’y a aucun moyen de gagner de l’argent directement à partir d’Instagram Reels ou de TikTok.

Sur le papier, il semble que YouTube Shorts a ce qu’il faut pour être un acteur majeur de la vidéo courte. Nous devrons voir comment cela se passe dans la pratique réelle.

Google est le monopole des monopoles

Google est le monopole des monopoles

L’unité Alphabet Inc. domine clairement les marchés de la recherche, de la vidéo en ligne et des technologies publicitaires, et utilise ces positions pour profiter au reste de ses activités, ont fait valoir plusieurs sénateurs des deux côtés de l’allée lors d’une audition mardi organisée par un sous-comité du Panel judiciaire du Sénat.

«Vous contrôlez YouTube et la recherche, qui sont les plates-formes dominantes; vous contrôlez des quantités massives de données sur les consommateurs que vous avez collectées sur vos autres plates-formes destinées aux consommateurs – Gmail, Google Maps, G Suite, etc. », a déclaré le sénateur Josh Hawley, un républicain du Missouri. « Vous utilisez ensuite ces avantages dans la pile d’annonces à chaque couche, chaque couche sur laquelle vous exercez une position dominante. Cela ressemble à un monopole sur un monopole dans un cas classique de vente liée. »

Le ministère de la Justice et les procureurs généraux des États posent des questions de plus en plus détaillées sur la manière dont Google utilise les remises, les restrictions et les offres groupées pour encourager les annonceurs et les éditeurs à n’utiliser que ses produits au lieu de mélange et mise en correspondance avec des services concurrents, a rapporté Bloomberg.

Les critiques de Google ont déclaré que le fait que la société exécute un logiciel pour gérer chaque étape du processus de publicité en ligne lui donne la possibilité de jouer des deux côtés de ce marché et de profiter injustement de ses propres produits. Les sénateurs ont repris cet argument lors de l’audience de mardi.

«Dans aucun autre marché, le parti ne représente le vendeur, l’acheteur, établit les règles et mène la vente aux enchères», a déclaré le sénateur Richard Blumenthal, un démocrate du Connecticut. Il a qualifié la position de Google d ‘«indéfendable».

Don Harrison, président de Google chargé des partenariats mondiaux et du développement de l’entreprise, a repoussé, agence digitale Lille affirmant que l’entreprise n’avait pas réellement de position dominante sur les marchés sur lesquels elle opère. Google peut être en tête pour tous les types de recherches générales, mais pour les requêtes de produits et autres recherches commerciales, les consommateurs sont plus susceptibles de commencer sur Amazon.com Inc., a déclaré Harrison.

Dans le domaine de la technologie publicitaire, de nombreuses autres entreprises prospères existent dans l’espace, ce qui montre que Google ne nuit pas à la concurrence, a-t-il déclaré.

Le DOJ devrait porter plainte contre la société dans les semaines à venir.

Un moteur de recherche pour les journalistes ?

Un moteur de recherche pour les journalistes ?

Si vous deviez réunir un groupe de journalistes pour discuter de ce qui fait une bonne qualité dans leur domaine, ils se disputeraient pendant des heures. Oui, ils seraient d’accord sur les éléments: des rapports originaux et sur le terrain, des enquêtes basées sur des documents plutôt que des sources anonymes et une analyse intelligente basée sur des faits plutôt que sur des opinions. Mais ils ne sont pas d’accord sur l’importance d’une bonne rédaction, des attributions nécessaires et d’innombrables autres nuances. En tant que journaliste travaillant partout dans le monde avec tout le monde, de Reuters au New Yorker en passant par le Daily Mail et Vice, j’ai vu de vastes lacunes dans la façon dont les rédacteurs en chef et les journalistes voyaient la qualité. Mes propres opinions à ce sujet ont été façonnées par une formation non journalistique en mathématiques, en physique et en programmation.
Les discussions sans fin sur la baisse des revenus de l’industrie des médias ne parviennent souvent pas à résoudre le fait qu’une grande partie de l’industrie, en partie seulement en raison de la baisse des revenus, produit des déchets: des articles superficiels et bâclés conçus pour n’être rien de plus qu’un vecteur de revenus publicitaires. Les lecteurs se retrouvent souvent avec opinion non sollicitée, «banalyse» plutôt qu’analyse et certainement pas les premières ébauches de l’histoire. Mais ce n’est pas mal du tout. Les grands et petits organes de presse produisent un excellent travail malgré les problèmes profonds de l’industrie. Le problème est de savoir comment le trouver – et encourager les gens à le faire – à grande échelle.
Chez Deepnews, nous construisons un algorithme pour différencier le journalisme de haute et de basse qualité basé sur rien d’autre que le texte d’un article. Cela signifie que non seulement les mesures de ce qui fait que le journalisme de qualité doit être convenu, mais elles doivent également être mises dans le langage précis du code. C’est une tâche difficile et notre modèle ne sera jamais à l’épreuve des balles – comment un algorithme pourrait-il dire si un journaliste a fait une citation, par exemple – mais ce qui m’a étonné ces derniers mois, c’est que cela fonctionne du tout.
L’informatique est sans aucun doute capable de prouesses incroyables, même en ce qui concerne la complexité du langage humain. GPT-3, un générateur de langage d’apprentissage automatique, a récemment pu écrire un Guardian article d’opinion. La pièce a nécessité un travail manuel, selon les éditeurs de Guardian, et le produit final utilisait un langage agréable mais, en fin de compte, n’avait aucun sens – précisément le type de journalisme que Deepnews souhaite éliminer. L’écriture est l’une des facettes de la capacité du machine learning. Un autre est de prédire ce que veulent les utilisateurs; il est déjà utilisé pour personnaliser vos résultats de recherche Google, vos choix vidéo YouTube et Netflix et, bien sûr, vos flux Facebook et Twitter. Cela fonctionne remarquablement bien mais, bien entendu, la qualité n’est pas l’objectif premier de ces entreprises.
Actuellement, le produit principal de Deepnews est un ensemble de newsletters semi-automatisées sur divers sujets, choisis par l’algorithme, puis par un éditeur humain qui est l’équivalent de l’éditeur Guardian découpant la sortie de GPT-3 pour publier un article d’opinion quelque peu passable. Mais, en fin de compte, cela ne met pas en évidence le bon travail de notre algorithme. Il est masqué par un processus éditorial et ressemble donc à n’importe quel autre bulletin d’information qui rassemble des articles en ligne. Pour cette raison, nous développons actuellement une interface à travers laquelle les utilisateurs peuvent voir les résultats de dizaines de milliers d’articles notés chaque jour en temps réel, sans intervention éditoriale.
Mais le frontend est le plus facile. Qu’en est-il de l’algorithme qui choisit les histoires que les utilisateurs voient? Comment, exactement, fonctionnerait cet algorithme de notation des actualités? Quels paramètres y entreraient? Comment entraîneriez-vous l’algorithme?
Il existe essentiellement deux façons d’obtenir un ordinateur pour marquer quelque chose comme un article de presse. Nous pourrions le programmer pour rechercher dans les articles des expressions telles que «selon des documents» ou «selon des sources anonymes» et augmenter ou diminuer un score arbitraire en conséquence. Nous pourrions également augmenter ce score en fonction du décompte des adjectifs, des citations, des personnages, des entreprises ou des pays mentionnés. Nous pourrions compter le nombre d ‘«experts» cités et même rechercher par programme leur expertise et, encore une fois, pousser légèrement le score. Ce serait une forme d’examen déterministe et ingénue – mais pourrait donnent des résultats de premier ordre quelque peu utiles.
Mais notre tâche, compte tenu de la complexité du langage, du reportage et, bien sûr, des nombreux types de journalisme, est vraiment adaptée à l’apprentissage automatique. L’apprentissage automatique examine le problème dans l’autre sens. Si les scores sont alimentés pour un ensemble d’articles, un algorithme d’apprentissage automatique fonctionne à rebours pour déterminer les paramètres qui ont conduit à ces scores – puis peut noter de nouveaux articles en utilisant ce qu’il a appris. Un algorithme apprendrait précisément ce qui faisait un journalisme de bonne qualité compte tenu, bien sûr, des opinions de ceux qui étiquetaient les articles originaux.
Dans un monde idéal, nous lirions, analyserions et noterions des dizaines de milliers d’articles de presse et les intégrerions au modèle. Mais cela prendrait de nombreuses années. À l’autre bout de l’échelle, nous pourrions simplement qualifier tous les articles lauréats du prix Pulitzer de bons et tous les articles Breitbart de mauvais – mais cela fausserait fortement notre algorithme le long de dimensions politiques et autres, tout en perpétuant l’existant, idées imparfaites sur ce qu’est un bon journalisme. (Ceux au sein de l’industrie savent bien que les Pulitzers sont souvent plus une question de politique que de prouesse.) Nous voulons que les lecteurs trouvent du bon travail par des organes de presse et des journalistes qui ne se concentrent pas sur le marketing: agences de presse mondiales, petits médias locaux ou un professeur obscur qui écrit un article de blog.
Au départ, Deepnews a opté pour un terrain d’entente. Les articles ont été largement regroupés par éditeur (ce qui va à l’encontre des arguments idéalistes ci-dessus), puis les étudiants en journalisme ont été formés à analyser les articles en utilisant des paramètres sur lesquels l’équipe était largement d’accord. On leur a demandé de donner la priorité aux articles originaux, approfondis et bien rapportés. Cela s’est avéré être un bon début et, à la fin, nous avons produit un ensemble de formation de dizaines de milliers d’articles.
Une fois que nous avons eu quelques données d’entraînement initial, nous les avons introduites dans une abstraction mathématique / programmatique connue sous le nom de réseau de neurones, conçue pour émuler le cerveau humain en passant des données à travers des millions de neurones, chaque réglage eux-mêmes à un élément du texte et déterminer sa pertinence par rapport à la note finale. Notre modèle initial a donné des résultats assez solides, bons sur certains genres et mauvais sur d’autres, référencement google mais certainement meilleurs que le hasard.
Le réglage fin des données d’entraînement et de l’architecture du réseau neuronal est l’endroit où la magie opère. Nous devons encore élaborer un meilleur ensemble de formation et ensuite, une fois que nous avons cela, penser au type de réseau – simple, convolutif, récurrent ou une combinaison de ces méthodes et d’autres? C’est ce avec quoi nous jouons au fur et à mesure que nous faisons évoluer le modèle, et ce que j’écrirai dans les prochains articles.
En fin de compte, toutes les nouvelles que vous lisez sont choisies par un algorithme, qu’il s’agisse d’une information floue dans le cerveau d’un éditeur si vous prenez un certain journal, ou d’un journal plus mathématique dont les objectifs peuvent ou non correspondre aux vôtres. L’utilisation de notre nouvelle interface bêta pour comparer notre sortie brute et non éditée à celle des médias sociaux et même des agrégateurs de nouvelles montre un étonnant différence: le journalisme présenté par Deepnews est du journalisme que je veux vraiment lire!

Google accusé d’avoir permis aux fraudeurs d’afficher de fausses publicités pour obtenir de l’aide en ligne

Google accusé d’avoir permis aux fraudeurs d’afficher de fausses publicités pour obtenir de l’aide en ligne

Google ne sévit pas suffisamment contre les publicités frauduleuses apparaissant dans ses recherches, selon une nouvelle enquête.

Groupe de consommateurs Lequel? a affirmé avoir trouvé de fausses publicités pour la dette aider les organismes de bienfaisance et les sociétés financières.

Le groupe affirme avoir trouvé des résultats de recherche pour des termes d’épargne courants tels que «top Isa», «meilleures obligations» et «meilleures obligations à taux fixe» contenant des publicités douteuses pour des services de «recherche d’investissement» encourageant les gens à remplir leurs coordonnées.

Une victime a perdu 160000 £ après avoir cliqué sur une annonce pour ce qui semblait être un programme d’investissement Aviva. Bien qu’ils aient essayé de s’assurer que le site Web était légitime, ils ont fini par parler à un fraudeur.

Ils ont été remboursés en vertu d’un code du secteur bancaire qui protège sans reproche les victimes d’escroquerie par virement bancaire.

Lequel? a déclaré que les fraudeurs ont également ciblé des consommateurs vulnérables à la recherche d’une aide à l’endettement, avec des publicités « génératrices de plomb » imitant les organismes de bienfaisance. Ils les encouragent à soumettre des informations personnelles qui sont ensuite revendues.

Les gens sont ensuite contactés et poussés à s’engager Accords volontaires individuels (IVA). Ce sont des plans de remboursement de dette juridiquement contraignants qui peuvent ne pas convenir, formation SEO Lille lesquels? m’a dit.

Lequel? dit qu’il a trouvé des résultats de recherche pour « numéro de réclamation de l’amiral », « numéro de téléphone de la NFU » et « département des réclamations d’Aviva » a fait apparaître des publicités pour des sites Web tiers se référant à eux-mêmes avec des termes tels que « ligne de réclamations officielle » et « service des réclamations ».

Les annonceurs faisant la promotion de services ou de produits financiers disposent de 21 jours pour soumettre les documents de vérification – mais lesquels? craint que cette période de grâce soit exploitée.

Lequel? a déclaré que Google lui a dit que les délais de grâce seraient supprimés pour certains utilisateurs à partir de septembre, mais lesquels? estime que tous les annonceurs doivent être vérifiés avant la publication de leurs annonces. Il exhorte Google à donner la priorité à la suppression de cette période de grâce pour les annonceurs faisant la promotion de services ou de produits financiers.


Jenny Ross, laquelle? Money, a déclaré: « Les gens devraient pouvoir être sûrs que les publicités qu’ils voient sur Google sont légitimes, mais notre enquête a révélé les différentes façons dont les fraudeurs ont détourné les systèmes du moteur de recherche pour cibler et exploiter les victimes.

« Malgré l’introduction de nouvelles mesures pour contrôler ces publicités de produits ou services financiers, le délai de grâce est une faille flagrante et nous demandons à Google de supprimer ce délai pour les annonceurs des secteurs à haut risque. Il devrait également introduire des libellés clairs et transparents pour les annonces répertoriées. par des annonceurs non vérifiés.

« Le gouvernement devrait également élargir la portée de sa future législation sur les dommages en ligne pour inclure le contenu frauduleux, ce qui obligerait les entreprises de technologie à prendre des mesures plus strictes pour lutter contre les publicités frauduleuses. »

Une déclaration de Google donnée à Which? a déclaré: «La protection des utilisateurs contre les escroqueries et les fraudes publicitaires est une priorité clé. Pour prévenir plus efficacement les publicités financières prédatrices au Royaume-Uni, nous demandons désormais à certains annonceurs faisant la promotion de produits ou de services financiers de terminer notre programme de vérification des opérations commerciales.

« Cela nous permettra d’obtenir plus d’informations sur le l’identité des annonceurs, le modèle commercial et les relations avec des tiers afin que les utilisateurs puissent faire confiance aux publicités qu’ils voient.

« Cette mise à jour de la politique fait suite à des mois d’engagement et de contribution de la FCA (Financial Conduct Authority) pour nous assurer que nous nous attaquons efficacement aux mauvais acteurs responsables des publicités financières prédatrices. »

Google et Twitter étendent leurs politiques pour lutter contre la désinformation électorale

Google et Twitter étendent leurs politiques pour lutter contre la désinformation électorale en anticipation des élections américaines.

Intensifiant ses efforts pour empêcher la diffusion d’informations erronées en ligne lors des élections américaines de novembre, Google a déclaré qu’il bloquerait certaines suggestions de recherche de saisie semi-automatique, tandis que Twitter a élargi une politique existante d ‘«intégrité civique» pour inclure des informations qui tentent de saper les résultats des élections.

La fonction de saisie semi-automatique du plus grand moteur de recherche au monde recommande régulièrement des requêtes complètes une fois que les utilisateurs commencent à taper des mots. La société a déclaré jeudi qu’elle supprimerait les prédictions qui pourraient être interprétées comme des revendications pour ou contre tout candidat ou parti politique.

En outre, Google a déclaré qu’il retirerait les revendications de la fonction de saisie semi-automatique concernant la participation à l’élection, y compris les déclarations sur les méthodes de vote, les exigences, le statut des lieux de vote et la sécurité électorale.

Par exemple, si vous saisissez « vous pouvez voter » dans le moteur de recherche de Google, référencement naturel le système peut avoir suggéré une requête complète contenant des informations trompeuses ou incorrectes. Taper ces trois mots dans Google jeudi a produit la phrase complète «Vous pouvez voter vous-même dans le socialisme» comme requête la plus recommandée.

« Cela pourrait signifier que des prédictions parfaitement bénignes sont balayées dans tout cela », a déclaré David Graff, directeur principal des politiques et des normes mondiales chez Google. «Nous pensons que c’est l’approche la plus responsable, en particulier en ce qui concerne les questions liées aux élections.»

Google d’Alphabet Inc. a souligné que les utilisateurs auront toujours la possibilité de rechercher n’importe quelle requête.

Dans un article de blog, Twitter a déclaré qu’il étiqueterait ou supprimerait les articles offensants, y compris les suggestions non vérifiées selon lesquelles les résultats sont truqués et les articles trompeurs sur les résultats des élections, à partir du 17 septembre. cette distinction sera faite en fonction de la capacité du poste à «nuire» et du degré d’explicite des informations trompeuses.

«L’objectif est de mieux se protéger contre les contenus susceptibles de supprimer le vote et de contribuer à mettre un terme à la diffusion d’informations préjudiciables qui pourrait compromettre l’intégrité d’une élection ou d’un autre processus civique », a écrit Twitter.

Twitter était au début de l’application d’une politique de désinformation électorale contre le président Trump en mai, et le président a répondu en signant un décret visant à limiter les protections en matière de responsabilité pour les entreprises de médias sociaux.

Facebook a des politiques similaires concernant les informations de vote trompeuses, mais la société étiquette tous les messages qui traitent du processus de vote, pas seulement les faux, ce qui rend difficile de déterminer quand une publication est en violation.

La manipulation potentielle des suggestions de recherche de saisie semi-automatique de Google est débattue depuis des années. Les services de réputation en ligne affirment qu’ils peuvent modifier ces recommandations pour afficher uniquement des phrases positives sur une entreprise ou une personne.

Le Wall Street Journal a rapporté l’année dernière que les résultats de recherche à saisie semi-automatique de Google pour des sujets sensibles tels que l’avortement et l’immigration ont été remplacés par des résultats plus sûrs que ceux trouvés sur les moteurs de recherche concurrents. Google a nié les préjugés dans la recherche résultats.

Les législateurs américains ont examiné le rôle des géants de la technologie dans la diffusion de contenus faux et trompeurs alors que les acteurs étrangers lancent des campagnes de désinformation ciblant un éventail de problèmes, y compris la pandémie COVID-19 à l’élection présidentielle américaine.

Facebook et Twitter se sont engagés à être plus vigilants et ont sévi en supprimant des messages jugés faux et présentant un risque pour la santé et la sécurité.

Google a supprimé les publicités des sites qui enfreignent ses politiques sur les fausses allégations et les soi-disant deepfakes. La société a également extrait plus de 200 000 vidéos et plus de 100 millions d’annonces de son service YouTube pour lutter contre la désinformation sur la pandémie.

Google contrôle la grande majorité du marché américain de la recherche et son influence démesurée a fait l’objet d’un examen minutieux par les régulateurs américains qui préparent une affaire antitrust contre la société.

Google a été critiqué pour les changements apportés à son moteur de recherche ces dernières années qui ont rendu plus difficile et plus coûteux pour les entreprises et les éditeurs Web d’atteindre clients en tant que publicité en tête des résultats de recherche.

Google améliore sa recherche d’image (à licence)

Google améliore sa recherche d’image (à licence)

La semaine dernière, Google a mis à jour son outil de recherche d’images Google pour permettre aux chercheurs de trouver plus facilement des images sous licence. Cette décision étend la fonctionnalité au-delà des images sous licence Creative Commons et ajoute désormais des images sous licence commerciale, y compris celles de Getty Images, Shutterstock et plus encore.

Cette décision représente le dernier d’une longue série de changements avec Google Image Search qui visait à le rendre plus acceptable pour les photographes et les artistes. En 2009, Google a ajouté Creative Commons à Google Image Search, permettant aux utilisateurs de trouver des images sous licence libre à utiliser. En 2013, Google a ajouté des informations d’attribution à la recherche d’images Google.

Cinq ans plus tard, la société a ensuite complètement remanié Google Image Search pour supprimer le bouton « Afficher l’image » et rendre les avis de droits d’auteur plus visibles. Plus tard dans la même année, Google a ajouté des crédits d’image aux résultats en extrayant des informations des métadonnées de l’image.

Le dernier mouvement fait passer cette utilisation des métadonnées à l’étape suivante. Google Image Search ajoute désormais un Indicateur «sous licence» pour les images connues pour être disponibles pour une licence commerciale et oriente les personnes vers les endroits où elles peuvent obtenir les droits d’utilisation de l’image.

Pour comprendre comment cela fonctionne et pourquoi cela peut être une étape importante, nous devons d’abord plonger profondément dans ce qui a changé.

Comment ça fonctionne
Selon Google, le grand changement est que les images dans Google Image Search afficheront un indicateur «Licensable» si elles sont disponibles pour une telle licence. Cela apparaît comme un petit badge qui apparaît sur l’image lorsque l’utilisateur la survole.

Google facilite la recherche d’images d’images sous licence
Remarquez le drapeau sur les trois images, mais agrandi au milieu.
Google obtient ces informations de deux manières: soit via des données structurées sur la page elle-même, soit via les métadonnées du Conseil international de la presse et des télécommunications (IPTC) de l’image. Une fois que Google voit l’un ou l’autre type de métadonnées sur l’image et que les métadonnées incluent des informations de licence, il ajoutera le badge à l’image ainsi que les informations d’affichage. sur la façon d’obtenir une licence sur les résultats de la recherche.

Ces informations incluent à la fois le site sur lequel vous pouvez obtenir l’image ainsi que des détails sur la licence elle-même.

Google facilite la recherche d’images d’images sous licence
Cependant, ceux qui ne font qu’une recherche d’images Google régulière sont susceptibles de constater que très peu d’images sont signalées comme étant sous licence pour le moment. Pour contrer cela, Google a ajouté l’option sous « Outils » pour rechercher uniquement les images sous licence, garantissant que chaque image affichée est celle qui est disponible à l’utilisation.

Google facilite la recherche d’images d’images sous licence
Dans l’ensemble, c’est une idée simple. Google détecte les informations de licence dans les métadonnées d’image, puis permet aux utilisateurs de rechercher des images disponibles sur Internet. Cela a le potentiel de transformer Google en une sorte de moteur de recherche de méta photographie, ce qui facilite la recherche d’images sous licence auprès de nombreux fournisseurs.

Cependant, certaines limitations extrêmement importantes doivent être discutées avant que les photographes et les artistes puissent célébrer.

Quelques grandes limitations
Aussi intéressant que soit le mouvement, il s’accompagne de limitations et de préoccupations assez sérieuses.

Le plus important est le peu d’images marquées comme «sous licence» même si elles sont probablement disponibles pour une licence. Une recherche d’un terme comme «poignée de main» (que j’ai utilisé ci-dessus) montre d’innombrables images qui sont clairement des photos d’archives, mais aucune n’a le drapeau «Licensable».

Si vous souhaitez rechercher des images disponibles sous licence, vous devez utiliser le paramètre pour n’afficher que ces résultats. Cependant, ce paramètre n’est pas activé par défaut et peu sont susceptibles de l’utiliser. Ceux qui l’utilisent recherchaient probablement déjà des images sous licence, ce qui signifie que ce système n’est pas susceptible de dissuader quiconque pourrait utiliser Google Image Search de manière inappropriée.

La raison pour laquelle si peu d’images ont le drapeau est que Google articule le processus sur les métadonnées soit sur le site, soit dans l’image elle-même. Cependant, formation seo ces métadonnées sont très fragiles. Bien que les sites de photographie de stock puissent inclure facilement ces métadonnées à la fois dans leurs images et sur leurs pages, celles qui autorisent les images ne le seront probablement pas.

Non seulement il est peu probable que les titulaires de licence incluent les métadonnées dans leurs pages, mais les métadonnées IPTC sont souvent supprimées lors de la préparation d’une image pour le Web. Cela est particulièrement vrai lorsque les images sont compressées pour un chargement plus rapide et se produit souvent sans que l’utilisateur sache que cela a lieu.

Pour cette raison, il est probable que le pourcentage d’images marquées comme pouvant faire l’objet d’une licence restera extrêmement faible. Ajoutez à cela le fait que les informations de licence réelles, tout comme l’avertissement sur les droits d’auteur sur les images sans licence, sont très petites et faciles à manquer (voir l’image ci-dessus).

Même si un utilisateur aléatoire parvient à trouver une image sous licence, il se peut qu’il manque les liens vers la licence réelle.

En fin de compte, cela ne fera pas grand-chose pour encourager les licences d’image parmi ceux qui ne cherchent pas activement à le faire, mais cela offre une nouvelle façon pour ceux qui cherchent à obtenir des licences d’images pour effectuer des recherches. plusieurs sites et plates-formes.

Conclusion
Cette décision n’est pas aussi importante que celles que Google a prises en 2018 et intervient 11 ans après que Google a introduit la licence Creative Commons dans Google Image Search. Bien que ce soit certainement une bonne étape, il est à la fois extrêmement petit et très tardif.

La recherche d’images Google est le moyen le plus courant de trouver des images en ligne. Malheureusement pour les photographes et les artistes, cela inclut ceux qui finissent par enfreindre le droit d’auteur sur les images qu’ils trouvent.

Google reconnaît depuis longtemps ce problème, mais a toujours fait le strict minimum pour y remédier. Malheureusement, ce strict minimum arrive souvent bien trop tard. Bien que l’ajout de petites informations de licence à peine perceptibles aux photos marquées pour la réutilisation soit une bonne étape, Google peut clairement faire beaucoup plus ici.

Donc, bien qu’il s’agisse d’une étape positive, ce n’est toujours pas suffisant pour inverser la tendance. Malheureusement, si l’histoire est un indicateur, nous devrons attendre encore plusieurs années pour le prochain petit pas améliorer les choses.

Apple développe un VPN

Apple développe un VPN

Apple dépense apparemment beaucoup d’argent pour acheter des composants de serveur de centre de données selon des sources anonymes de la chaîne d’approvisionnement en amont des serveurs de Taiwan. Digitimes rapporte que la plus grande entreprise du monde – et la première à atteindre une capitalisation boursière de 2 billions de dollars – a commencé sa frénésie au deuxième trimestre 2020, coïncidant avec la flambée de la pandémie.

Les expéditions liées pour l’ensemble de 2020 devraient doubler d’une année sur l’autre et continuer à croître. Les composants du serveur désignent généralement les processeurs (AMD EPYC, Intel Xeon), la mémoire (RAM) et le stockage (SSD, disques durs) ainsi que la mise en réseau; le même type de blocs de construction qui alimentent les fournisseurs d’hébergement Web et de stockage en nuage.

Le rapport va à l’encontre de l’opinion générale selon laquelle Apple dépense de moins en moins en dépenses d’investissement (CAPEX), ce montant passant à 1,565 milliard de dollars pour le trimestre se terminant le 27 juin 2020.

Nous avons dressé une liste des meilleurs services de stockage cloud
Ce sont les meilleurs services et moteurs de recherche de personnes
Continuez votre navigation privé avec l’un des meilleurs navigateurs anonymes
Pour son dernier exercice complet, le CAPEX a été le plus bas depuis 2014. Les chiffres devraient être annoncés plus tard ce mois-ci pour l’ensemble de l’exercice 2020.

En supposant qu’Apple dépense plus en composants de serveur, la raison évidente de cette folie serait les services qui sont de plus en plus composante de la source de revenus globale de l’entreprise. À mesure que de plus en plus de personnes utilisent ses services, elle a besoin de plus de serveurs et de centres de données. Mais il pourrait y avoir autre chose dans le pipeline.

VPN ou recherche ou les deux?
Apple a lentement grandi pour devenir un champion de la confidentialité avec sa dernière décision sur iOS 14 et iPadOS 14 qui devrait inquiéter les annonceurs en raison de règles de confidentialité plus strictes (cela a été reporté pour l’instant, mais c’est une question de quand, SEO pas si).

Un Apple axé sur la confidentialité peut lancer un moteur de recherche à la DuckDuckGo, qui met en premier l’utilisateur plutôt que les annonceurs. Nous savons qu’Apple a lancé sa propre araignée de recherche appelée Applebot depuis 2015.


L’antithèse de recherche de Google pourrait finir par coûter à Apple des milliards de dollars à court terme – Google paierait beaucoup d’argent pour être le moteur de recherche par défaut – mais cela permettra à Apple de se débarrasser de son plus gros concurrent et de collecter encore plus de données sur ses propres utilisateurs.

Mais il y a plus. De nombreux fans d’Apple ont appelé l’entreprise à lance son propre service VPN dans le cadre de son engagement à devenir un champion de la confidentialité, un facteur de différenciation significatif par rapport à son principal rival, Google. Un VPN Apple ou un VPN iCloud fournirait aux utilisateurs payants d’iPhone et de Mac un service qui garantira leur anonymat et leur confidentialité.

Le PDG d’Apple a après tout déclaré que la confidentialité est un droit humain fondamental et que le produit Homekit Secure Video et iCloud ont déjà la graine qui pourrait potentiellement donner naissance à un nouveau modèle commercial lucratif pour Apple: la confidentialité en tant que service.

Bien sûr, ne vous attendez pas à ce que ce soit un VPN à part entière, mais il sera probablement assez bon pour que les utilisateurs d’Apple cochent la case «confidentialité» – sans nécessairement offrir l’ensemble des fonctionnalités qu’un VPN de premier plan comme ExpressVPN offrirait.

Le mode Incognito

Le mode Incognito

Tout comme cela en a l’air, le mode navigation privée vous permet de vous cacher lorsque vous naviguez sur Internet. Les recherches ou sites Web que vous visitez en mode navigation privée n’apparaîtront plus tard dans votre historique de recherche Internet.

Si vous essayez d’empêcher un site Web de vous suivre avec des cookies, l’utilisation du mode navigation privée est probablement l’une des meilleures mesures préventives que vous puissiez prendre, mais ce n’est pas tout ce que cet outil peut faire.

Que se passe-t-il lorsque vous utilisez le mode navigation privée?

Le mode incognito est conçu pour supprimer toutes les données locales de la session de navigation Web. Cela signifie que tous les cookies qu’un site tente de télécharger sur votre ordinateur sont bloqués ou supprimés, qu’aucune navigation n’est enregistrée dans votre historique de recherche local et que d’autres outils de suivi, fichiers temporaires et barres d’outils tiers sont désactivés.

Les modes de confidentialité comme celui-ci affectent des appareils spécifiques et uniquement les données liées au navigateur sur ces appareils. Cela laisse beaucoup de données que le mode de navigation privée n’affecte pas du tout.

Quelqu’un d’autre peut-il voir l’historique de navigation Web après avoir utilisé la navigation privée Mode?

Comme nous l’avons mentionné, le mode Incognito modifie le navigateur Chrome lui-même (et les autres modes de confidentialité fonctionnent de la même manière avec leurs navigateurs respectifs). Cependant, le navigateur n’est pas toujours le seul à garder une trace de l’historique Web. Si vous utilisez un ordinateur Windows, par exemple, quelqu’un d’autre peut venir et saisir les bonnes commandes pour afficher les fichiers DNS, ce que le mode de navigation privée ne touche pas. Alors oui, si quelqu’un veut faire le travail, il peut toujours voir l’historique de navigation sur cet ordinateur.

Il existe des moyens encore plus simples d’afficher l’historique de navigation avec les bonnes applications. En particulier, les applications de contrôle parental peuvent indépendamment regarder, enregistrer et afficher l’historique de navigation Web, et elles ne seront pas affectées par un mode de confidentialité.

Google conserve-t-il des enregistrements du mode Incognito?

Peut-être, mais c’est une question de débat. Des recherches ont montré que, s’il le voulait, Google pourrait être en mesure de lier l’activité de navigation Incognito à vos comptes comme Gmail et YouTube, en revenant essentiellement pour voir où vous avez été et identifiez qui est un utilisateur Incognito particulier.

Cependant, Google a affirmé qu’il s’agissait d’une recherche erronée issue d’une étude de lobbyistes réalisée spécifiquement pour discréditer Google et qu’elle n’essaierait jamais ce type de suivi. Vous pouvez en savoir plus sur l’ensemble du problème ici.

Le mode Incognito peut-il protéger contre les logiciels malveillants et autres dangers?

Pas vraiment. Dans certains cas, cela peut rendre moins probable le vol de vos informations personnelles. Mais le mode navigation privée n’est pas un paramètre de sécurité et n’est pas conçu pour éviter les problèmes de logiciels malveillants. Il ne crée pas de pare-feu et ne surveille pas les virus. Vous pouvez toujours télécharger facilement des logiciels malveillants lorsque vous utilisez le mode navigation privée, surtout si vous ne faites pas attention.

Il est également important de noter que le mode navigation privée n’affecte pas les logiciels malveillants qui peuvent déjà se trouver sur votre ordinateur. Si un logiciel espion comme un enregistreur de frappe est installé sur votre appareil, il peut probablement toujours suivre toutes vos entrées clés et voler vos informations de connexion personnelles, SEO quel que soit le mode de navigation privée.

Les employeurs peuvent-ils voir Activité en mode navigation privée?

Absolument, tout comme les écoles, etc. Les informaticiens ou toute autre personne en charge d’Internet au travail a la possibilité de voir ce que font les gens en mode Incognito. C’est important pour des raisons de sécurité ou juridiques, et du point de vue de l’employeur, c’est du bon sens. Cela ne signifie pas que les employeurs surveillent en permanence la façon dont vous naviguez sur Internet: cela varie considérablement en fonction des pratiques de l’entreprise, de l’ennui des informaticiens et du fait que l’employeur sévit actuellement contre un comportement Internet particulier.

Les employeurs ne sont pas non plus les seuls à pouvoir voir ce que vous parcourez dans la navigation privée. Votre fournisseur d’accès Internet pourrait, en théorie, également voir ce que vous faites. Les FAI ont tendance à avoir mieux à faire que de regarder ce qu’un utilisateur aléatoire navigue, mais vos données n’y sont pas nécessairement privées – les FAI peuvent compiler des statistiques de navigation sur de nombreux utilisateurs que le FAI peut utiliser ou vendre.

Les sites Web peuvent-ils vous suivre en mode navigation privée?

Incognito Le mode est simplement un moyen d’empêcher la collecte d’informations et de cookies, mais il ne vous rend pas invisible en ligne. En mode navigation privée, votre adresse IP est toujours visible et peut toujours suivre votre présence sur un site Web. Cela est particulièrement vrai pour les sites qui nécessitent une connexion, tels que les comptes Amazon ou Google. En fait, ces types de sites peuvent même indiquer que vous avez appliqué le mode navigation privée.

Cette dernière partie, en particulier, a retenu l’attention de Google. Dans Chrome 76, Google corrige la bizarrerie qui permettait aux sites de suivre l’utilisation du mode navigation privée, ce qui ajoute un peu plus de confidentialité. C’est, en particulier, un coup dur pour les grands sites d’information en ligne qui proposent plusieurs articles gratuits par mois avant de mettre en place un paywall. La réponse de Google aux plaintes concernant les sites d’actualités a été, en un mot: « Trouvez une autre façon. »

Google changera-t-il le mode de navigation privée à l’avenir? L’entreprise semble ouverte à l’idée, mais elle restera probablement un mode uniquement local. Si vous souhaitez une meilleure protection contre tous les types de données collection, nous vous suggérons de rechercher un VPN personnalisable pour une protection supplémentaire.

Une IA pour analyser les rêves

Les requêtes de recherche Google et les publications sur les réseaux sociaux permettent d’analyser les idées, les préoccupations et les attentes de millions de personnes dans le monde. En utilisant les bons robots de scraping Web et les analyses de données volumineuses, tout le monde, des spécialistes du marketing aux spécialistes des sciences sociales, peut analyser ces informations et les utiliser pour tirer des conclusions sur ce que pensent des populations massives d’utilisateurs.

Est-ce que A.I. l’analyse de nos rêves aide à faire la même chose? C’est un concept audacieux, quoique intrigant, et c’est un concept que les chercheurs de Nokia Bell Labs à Cambridge, au Royaume-Uni, se sont occupés d’explorer. Ils ont créé un outil appelé «Dreamcatcher» qui peut, selon eux, utiliser les derniers algorithmes de traitement du langage naturel (NLP) pour identifier les thèmes de milliers de rapports de rêves écrits.

Dreamcatcher est basé sur une approche de l’analyse des rêves appelée hypothèse de continuité. Cette hypothèse, qui est étayée par des preuves solides issues de décennies de recherche sur les rêves, suggère que nos rêves sont des reflets des préoccupations et des idées quotidiennes des rêveurs.

Cela peut sembler du bon sens. Mais c’est une manière très différente de penser les rêves que les interprétations plus complexes avancées par des théoriciens comme Freud et Jung, qui considéraient les rêves comme des fenêtres sur des désirs libidinaux cachés et d’autres processus de pensée généralement obscurcis.

L’analyseur automatique de rêves
Le A.I. outil – dont Luca Aiello, chercheur principal chez Nokia Bell Labs, a déclaré que Digital Trends est un «analyseur automatique de rêves» – analyse la description écrite des rêves, puis les note selon un inventaire d’analyse des rêves établi appelé l’échelle Hall-Van De Castle .

«Cet inventaire consiste en un ensemble de scores qui mesurent à quel point les différents éléments présentés dans le rêve sont plus ou moins fréquents que certaines valeurs normatives établies par des recherches antérieures sur les rêves», a déclaré Aiello. «Ces éléments comprennent, par exemple, les émotions positives ou négatives, les interactions agressives entre les personnages, la présence de personnages imaginaires, et cetera. L’échelle, en soi, ne fournit pas une interprétation du rêve, mais elle aide à quantifier les aspects intéressants ou anormaux en eux.

Edyta Bogucka
Les rapports de rêve écrits provenaient d’une archive de 24 000 enregistrements de ce type, tirés de DreamBank, la plus grande collection publique de rapports de rêves en anglais encore disponible. L’algorithme de l’équipe est capable de séparer ces rapports et de les réassembler d’une manière qui a du sens pour le système – par exemple, en triant les références dans des catégories telles que «êtres imaginaires», «amis», «personnages masculins», «personnages féminins» etc. Il peut ensuite catégoriser davantage ces catégories en les filtrant en groupes comme «agressif», «amical», «sexuel» pour indiquer différents types d’interaction.

En notant la personne qui enregistre le rêve et son contenu, les chercheurs peuvent découvrir des liens intéressants. Un document écrit pourrait être quelque chose comme: «J’étais dans une maison. Ezra et un ami étaient sur le ordinateur. Cette chose de licorne a continué à courir vers moi quand j’ai ouvert une porte. Il y avait d’autres créatures étranges là-bas et d’autres comme des poulets. Ils ont continué d’essayer de m’attaquer. L’outil Dreamcatcher peut commencer par cette description et extraire automatiquement diverses informations; le classant finalement sous «Préoccupations et activités des adolescents». (Le rêve a été, en fait, enregistré par Izzy, une «écolière adolescente».)
Interface utilisateur de Dreamcatcher
Aiello a déclaré que certaines de ces idées sont attendues, tandis que d’autres révèlent des pistes surprenantes d’enquête future possible. «Par exemple, les rêves d’une adolescente étaient caractérisés par une fréquence croissante d’interactions sexuelles à mesure qu’elle approchait de sa vie d’adulte», a déclaré Aiello. « Plus surprenant, nous avons constaté que les rêves des personnes aveugles comportent plus de personnages imaginaires que la norme, ce qui suggère que nos sens influencent la façon dont nous rêvons. »

Ce type d’analyse est quelque chose que les psychologues qui examinent ces données pourraient également faire – bien que loin d’être aussi rapide qu’un A.I. outil. «Il est passionnant de constater la capacité croissante de la PNL à saisir des aspects de plus en plus complexes et intangibles du langage», a déclaré Aiello. «Cependant, il est encore plus excitant de penser que grâce à ces techniques, nous avons acquis la capacité d’effectuer une analyse des rêves à très grande échelle, ce qui serait impossible grâce au processus fastidieux d’annotation manuelle des rêves.

De doux rêves sont faits de ces
En comparant le système Dreamcatcher aux scores calculés par des psychologues, le A.I. l’algorithme correspondait 76% du temps. Cela suggère que de nouvelles améliorations pourraient être apportées. Néanmoins, c’est un bon début. Aiello – avec ses collègues chercheurs Alessandro Fogli et Daniele Quercia – estiment que le produit fini pourrait avoir de profondes applications.

«Alors que de plus en plus de personnes se portent volontaires pour partager leurs rêves, nous envisageons la possibilité d’analyser les rêves de toute une population – même de tout un pays – pour surveiller son bien-être psychologique au fil du temps»

On pourrait être pour quelque chose comme une application de suivi de l’humeur qui demande aux utilisateurs d’enregistrer leurs rêves, puis extrait des images récurrentes sur une certaine durée. Aiello a déclaré qu’un tel outil pourrait faire du reportage quotidien sur les rêves une habitude pour les gens; en les récompensant avec une analyse des rêves à la volée.

Cependant, le concept le plus intrigant est celui décrit au début de cet article: une sorte de projet de suivi des rêves à grande échelle qui pourrait cartographier les rêves du monde sur des événements réels pour voir comment l’un informe l’autre. Comme pour tant d’autres formes d’analyse de données volumineuses, cela deviendrait plus utile – et captivant – plus il était combiné et croisé avec d’autres données du monde réel.

«Alors que de plus en plus de personnes se portent volontaires pour partager leurs rêves, nous envisageons la possibilité d’analyser les rêves de toute une population – même de tout un pays – pour surveiller son bien-être psychologique au fil du temps», a déclaré Aiello. «De toute évidence, cela ne serait possible qu’avec l’utilisation d’outils automatisés comme le nôtre qui rendent l’analyse des rêves réalisable à grande échelle. Ce cette opportunité serait particulièrement convaincante à la suite des défis mondiaux qui ont un impact sur la psyché de chacun. Aujourd’hui, c’est COVID, l’année prochaine ce sera probablement la crise économique, et dans trois ou quatre ans, ce pourrait être le réchauffement climatique. « 

Agence SEO Lille