L’équité du marketing de recherche

Nous comparons la stratégie de marketing numérique à la construction d’un actif solide, qu’il s’agisse d’une maison, d’un immeuble ou d’une entreprise prospère ; en ligne, nous construisons l’équité en marketing de recherche.
Vous construisez des actifs à long terme qui apprécient.
Vous ne prenez pas de raccourcis ou de risques fous.
Le retour sur investissement le plus élevé qu’une entreprise peut atteindre en ligne provient généralement du trafic naturel et organique des moteurs de recherche. Nous permettons la croissance du trafic dans ce domaine important en améliorant la visibilité organique d’une entreprise sur le marché, puis en optimisant la livraison de son site et l’expérience utilisateur qui s’ensuit, conduisant à plus de conversions et à de meilleurs résultats.
Nous avons un processus stratégique éprouvé pour augmenter la visibilité du marché organique grâce à la recherche, des informations sur le contenu alimentées par l’IA, des sites Web performants, de nouveaux flux de contenu pertinent, tous optimisés par des techniques avancées de référencement sur page et hors page allant de Schema Markup à la construction de liens haut de gamme.
L’un des moyens les plus simples de renforcer l’équité du marketing de recherche aujourd’hui consiste à optimiser la vitesse du site et l’expérience utilisateur pour les visiteurs.
Créer un contenu remarquable
Nous aidons nos clients à créer du contenu sur lequel les gens veulent faire des remarques. Et ce type de contenu déplace les prospects à travers les étapes de l’entonnoir de vente.
Augmentez votre visibilité sur Google
Un contenu remarquable correctement balisé pour Schema, associé à une stratégie de référencement intelligente et à des tactiques éprouvées, améliore votre classement dans les recherches, ce qui transforme le potentiel du marché en un trafic accru pour votre entreprise.
Créer du trafic de manière organique
Nous aidons les marques à créer un trafic organique, social et de référence + des liens entrants en créant un contenu remarquable, des sondages interactifs, des quiz et des calculatrices, des articles et des vidéos intrigants que les visiteurs souhaitent partager et promouvoir.
Nous commençons par la recherche. Et dans le domaine de la recherche organique, agence SEO Lille il n’y a pas de meilleure source de données sur votre site Web et son potentiel que Google lui-même sous la forme de Google Search Console.
À partir de là, nous identifions les opportunités, à savoir les phrases clés où Google a déjà reconnu votre potentiel, mais n’a pas encore élevé vos résultats à un niveau où personne ne vous a encore découvert. Nous appelons cela la recherche de vos « adolescents en difficulté », c’est-à-dire l’identification des phrases clés où vous vous présentez #13-#25, juste à côté de la première page riche en trafic de Google.
Il n’y a pas de meilleure source de recherche pour votre site Web et le potentiel qui peut être débloqué que Google lui-même via Google Search Console. Bing Webmaster peut fournir des informations similaires. Nous exploiterons ces sources et bien d’autres pour rechercher et quantifier pleinement votre opportunité de marché et établir une base de référence pour votre visibilité sur le marché.
Nous aidons les clients à comprendre le potentiel de déverrouillage de la recherche Google, y compris une évaluation réaliste des étapes, de l’investissement et du calendrier.

Comment l’intelligence artificielle a eu son nom

C’est un fait peu connu qu’une partie du nom de Wikipédia vient d’un bus à Hawaï. En 1995, six ans avant le lancement de la célèbre encyclopédie en ligne, un programmeur informatique nommé Ward Cunningham était à l’aéroport international d’Honolulu lors de sa première visite dans les îles. Il était en train de développer un nouveau type de site Web pour aider les concepteurs de logiciels à collaborer, un site que les utilisateurs eux-mêmes pouvaient rapidement modifier à partir d’un navigateur Web. C’était une innovation frappante à l’époque. Mais comment l’appeler ?

« Je voulais un mot inhabituel pour désigner ce qui était une technologie inhabituelle », a déclaré Cunningham à un lexicographe curieux en 2003. « J’ai appris le mot wiki… quand j’ai été dirigé vers la navette de l’aéroport, appelée Wiki Wiki Bus. »

Wiki signifie rapide, et les mots hawaïens sont doublés pour souligner : le bus très rapide. Avec cela, le logiciel de Cunningham avait le son distinctif qu’il recherchait : WikiWikiWeb.

Wikipedia, dont Cunningham n’a pas participé au développement, est l’un des innombrables sites Web basés sur son travail. La seconde moitié de son nom vient du mot encyclopédie, pedia étant le terme grec pour la connaissance : « connaissance rapide ». Pourtant, maintenant, le site connaît un tel succès que sa renommée a éclipsé ses origines, ainsi que le fait qu’une visite fortuite sur une île a donné à l’ère numérique l’un de ses termes les plus emblématiques.

J’aime me plonger dans les origines de nouveaux mots, en particulier autour de la technologie. À l’ère numérique, la technologie peut sembler être un ordre naturel des choses, surgissant pour ses propres raisons. Pourtant, chaque technologie est ancrée dans une histoire et un moment particuliers. Pour moi, l’étymologie met l’accent sur la contingence de choses que je pourrais autrement tenir pour acquises. Sans le sens de ces histoires trop humaines, je suis incapable de voir nos créations pour ce qu’elles sont vraiment : des extensions merveilleuses et imparfaites de la volonté humaine, empêtrées dans toutes sortes de préjugés et de conséquences imprévues.

Je donne des conférences sur la technologie aux adolescents et j’utilise souvent Wikipédia comme incitation à la discussion. Trouvons et améliorons un article pour améliorer Wikipédia, je suggère, et dans le processus, de réfléchir à ce que « mieux » signifie. La réaction de mon public est presque toujours la même. Qu’est-ce que j’entends par améliorer un article ? Ne sont-ils pas tous écrits par des experts ? Non, je dis. C’est tout l’intérêt d’un wiki : les utilisateurs eux-mêmes l’écrivent, ce qui signifie qu’aucune page n’a jamais le dernier mot. Il n’y a pas de réponses définitives et pas de propriété au-delà de la communauté elle-même.

Certains contributeurs au wiki original de Ward Cunningham sont loin d’être élogieux envers Wikipédia précisément parce qu’ils le voient trahir cette intention. En raison de son succès, soutiennent-ils, Wikipédia encourage une illusion d’impartialité et de permanence. Ses pages peuvent devenir des « vérités » autonomes et autoproclamées qui mettent fin au débat ou le restreignent à une caste éditoriale auto-sélectionnée.

Un élan plus important se cache derrière de telles inquiétudes : le passage du temps lui-même. Aucun de mes adolescents ne se souvient d’une époque antérieure à Wikipédia, et le site Web original de Cunningham est plus ancien que tout le monde. d’eux. Comme la plupart des logiciels et du matériel dans leur vie, Wikipédia est simplement une partie du paysage, quelque chose que les gens habitent, s’adaptant à ses contours.

Le numérique entretient un rapport difficile avec le temps. Les anciens formats et plates-formes tombent rapidement en désuétude ; plus récent est par définition meilleur, plus rapide, plus lumineux. Pourtant, des décisions vieilles de plusieurs décennies continuent d’avoir une influence. Si, par exemple, vous voulez comprendre la conception d’une souris d’ordinateur, vous devez vous replonger dans un article de la NASA de 1965 explorant différentes méthodes de contrôle possibles, notamment une sorte de pédale déplacée avec les genoux, une tablette et un stylet « Grafacon », un stylo lumineux, un joystick. En faisant cela, vous vous retrouverez transporté à une époque où il n’était en aucun cas évident de savoir comment les gens pourraient le mieux interagir avec un ordinateur, ou même ce que signifiait interagir avec un ordinateur. Exemple de citation de l’article original : « Bien que le contrôle du genou n’ait été développé qu’à l’époque où il a été testé, il s’est classé élevé à la fois en termes de vitesse et de précision et semble très prometteur.

Qui imaginerait utiliser ses genoux pour contrôler un ordinateur aujourd’hui en parallèle de la frappe, comme travailler sur une machine à coudre à l’ancienne ? Tracer le fil d’un mot est un beau contrepoids à l’obsession souvent implacable de la culture numérique pour le présent, esquissant comment chaque itération de logiciel et de matériel s’appuie sur des idées et des valeurs plus anciennes. Connectez-vous à un réseau sans fil et vous entrez dans le même espace verbal que le télégraphe sans fil développé dans les années 1890. À l’époque comme aujourd’hui, des accords internationaux devaient être établis pour une mise en réseau réussie, ainsi qu’une réglementation, des licences et l’affirmation agressive des normes des marques. Communiquer électroniquement, c’est participer à un vaste consensus négocié, construit et entretenu sur la base de décennies d’hypothèses accumulées.

De même, parler de technologie, c’est assumer : cela demande des notions partagées de sens et d’usage. Pourtant, il y a des termes qui méritent plus de scepticisme que la plupart. Il y a soixante ans, un groupe de scientifiques a élaboré un programme de conférence visant à prédire et à façonner l’avenir, à établir un domaine qui, selon eux, transformerait le monde. Leur mission était d’utiliser la jeune science du calcul numérique pour recréer et dépasser le fonctionnement de l’esprit humain. Leur titre choisi ? Le projet de recherche d’été de Dartmouth sur l’intelligence artificielle.

Les hypothèses de la Conférence de Dartmouth, énoncées dans une proposition de 1955, étaient explicitement impudiques : « [L]’étude doit procéder sur la base de la conjecture que chaque aspect de l’apprentissage ou tout autre élément de a décrit qu’une machine peut être faite pour le simuler. Pourtant, aujourd’hui, le mot même «intelligence» continue de se situer quelque part entre une meule et un homme de paille pour ce domaine. Des véhicules autonomes à la reconnaissance faciale, de la maîtrise de Chess and Go à la traduction basée sur le traitement de milliards d’échantillons, une automatisation de plus en plus intelligente est un source de fascination anxieuse. Pourtant, les mots mêmes qui peuplent chaque titre nous éloignent encore plus de la vision des machines telles qu’elles sont – non pas tant un miroir de l’intellect humain que quelque chose de totalement différent de nous, et d’autant plus puissant pour cela.

Comme Alan Turing lui-même l’a dit dans son article de 1950 sur les machines informatiques et l’intelligence, « nous ne pouvons voir qu’une courte distance, mais nous pouvons voir beaucoup de choses qui doivent être faites ». Si nous voulons affronter l’avenir avec honnêteté, nous avons besoin à la fois d’une idée claire d’où nous venons et d’une description précise de ce qui se passe sous notre nez. L’IA, telle qu’elle est, s’étend sur une multitude de disciplines émergentes pour lesquelles des étiquettes plus précises existent : apprentissage automatique, systèmes symboliques, big data, apprentissage supervisé, réseaux de neurones. Pourtant, une analogie vieille de 60 ans fossilisée dans les mots obscurcit le débat autour de la plupart de ces développements, tout en alimentant des fantasmes inutiles à la place de connaissances pratiques.

Même si on peut se faire piéger dans les mots, aujourd’hui reste un âge d’une extraordinaire fertilité linguistique, marquée non seulement par l’alphabétisation de masse, elle-même un phénomène historique récent, mais par la participation massive au discours écrit et enregistré. À travers les écrans de milliards de téléphones portables, tablettes, ordinateurs portables et ordinateurs de bureau, l’humanité est saturée d’expression de soi comme jamais auparavant.

Tous ces mots disent et révèlent plus que nous ne savons, si nous voulons les interroger. L’étymologie insiste sur le fait que tout était autrefois nouveau, bien que né d’une négociation avec tout ce qui l’a précédé. D’une certaine manière, les histoires derrière de nouveaux mots nous interpellent à repenser : récupérer le choc et l’étrangeté de chaque ajout au monde.

Je ne crois pas que connaître l’origine de Wikipédia nous aide particulièrement à comprendre son succès, ou nous apprend à mieux l’utiliser. Mais cela rappelle que les choses n’ont pas toujours été comme elles sont aujourd’hui, suivies, espérons-le, par l’idée que les choses ne seront pas toujours comme elles sont aujourd’hui non plus.

SEO Agence est une agence SEO à Lille.

Comment il y a plus de robots que d’hommes sur le web

Vérifiez autour de vous, SEO Agence hommes et femmes de votre ligne. Les chenilles Ils sont presque partout. La plupart des visiteurs de sites Web ne sont pas des êtres humains, mais ils sont en quelque sorte des robots d’exploration ou des plans créés pour réaliser des activités programmées. Ce sont les abeilles personnels de votre Internet, ainsi que les hommes de main. Certains robots supportent la mise à jour de votre Fb ou déterminent comment positionner les résultats finaux de la recherche sur Internet; d’autres robots imitent des êtres humains et exécutent des épisodes désastreux de DDoS. Globalement, les robots d’exploration – négatifs et positifs – sont responsables de 52% du trafic en ligne, selon un enregistrement alternatif via le secteur de la sécurité Imperva, qui publie une évaluation annuelle du processus de bot sur Internet. La statistique de 52% est importante car elle représente un pourboire de votre balance depuis la déclaration de l’année précédente selon laquelle le trafic de sites Web humains a dépassé le trafic de robots pour la première fois, puisque pas moins de 2012, quand Imperva a commencé à suivre l’action des robots l’Internet. L’enquête la plus récente, qui repose sur une évaluation de près de 17 milliards de dollars de visites de sites Web provenant de plus de 100 000 domaines, montre que les robots sont en tête du classement. En plus de cela, des chenilles dangereuses gardent le flanc autour des robots d’assistance, qui étaient respectivement responsables de 29% et de 23% du trafic en ligne. «La statistique la plus déconcertante de cette déclaration est également la tendance la plus constante qu’elle observe», déclare Igal Zeifman, directeur de la publicité et du marketing d’Imperva, dans un article sur l’enquête. «Au cours des 5 dernières années, chaque troisième visiteur du site Web était un bot d’attaque.» Dit autrement: plus de 94% des 100 000 domaines inclus dans la déclaration qualifiaient au moins une attaque de bot sur une période de 90 jours ouvrables. dans l’avis de Imperva. Les sites Web qui peuvent être moins populaires, analysés par les visiteurs, ont tendance à attirer davantage de sessions de crawlers. Zeifman a publié: «Les bons robots exploreront votre site Web et les mauvais robots tenteront de le déchiffrer, peu importe à quel point il est apprécié par les hommes. Ils continueront probablement même à visiter un site en l’absence de tout trafic individuel ciblé. »

Les effets secondaires des GAFAs

Attention aux effets secondaires des GAFA

Partenariats avec des laboratoires pharmaceutiques, rachats de sociétés du secteur, développement d’applications dédiées… Depuis quelques mois, les géants du numérique Google, Apple, Facebook, Amazon, Tencent, IBM, Alibaba, Microsoft et d’autres multiplient les incursions dans le secteur de la santé. Tout comme ils le font dans tant d’autres secteurs ? Pas exactement. Le secteur de la santé représente pour eux un enjeu bien plus important que ceux de l’industrie, de la distribution ou de la finance. Pour des raisons que Lambert Lacoste, responsable de mission Santé au cabinet conseil Alcimed, explique : « Il y a d’abord un élément contextuel : le numérique est désormais partout. De fait, les géants du numérique sont de plus en plus présents dans nos vies et, donc, dans notre santé. Ensuite, la médecine du futur repose essentiellement sur les données et, aujourd’hui, les experts en matière de collecte et d’exploitation des données, ce sont eux, pas les industriels de la santé ! » S’ajoute à cela la perspective d’un marché mondial qui croît en moyenne de 5,4 % par an et qui devrait atteindre 10 000 milliards de dollars en 2022, selon le cabinet Deloitte. Le marché de la santé est particulièrement hétérogène. Il va des hôpitaux, des cliniques et de la médecine de ville à l’analyse du génome et à l’imagerie, en passant par les médicaments, les traitements les plus avancés, le soin aux personnes âgées, les assurances et les mutuelles. Quel que soit leur métier, tous les acteurs partagent une certitude : la médecine de demain sera prédictive, préventive, personnalisée et participative. Et c’est grâce au numérique qu’il sera possible de mettre en œuvre cette médecine baptisée « 4P ». « Les géants du numérique sont les mieux placés pour répondre aux besoins dans ce domaine, confirme Arielle Le Bail, analyste chez Fabernovel. Ils possèdent à la fois le savoir-faire et les plates-formes. Si, par exemple, tous les examens sont réunis dans le dossier numérique d’un patient et accessibles facilement aux médecins, il n’est pas utile de les refaire. Cela se traduit par des économies et par une plus grande efficacité. » Jérémy Taïeb, chef de projet chez Fabernovel, qui a étudié l’écosystème de santé avec elle, cite un autre exemple : « En 2017, la revue Health Management Technology estimait à 150 milliards de dollars par an le coût lié au fait de ne pas se présenter aux rendez-vous médicaux et à ses conséquences rien qu’aux Etats-Unis. Gérer une plate-forme de prise de rendez-vous et de suivi en ligne est typiquement ce qu’une entreprise du numérique sait faire ! »

Une assistance médicale virtuelle
En matière de santé, les bénéfices du numérique sont nombreux et très variés. Le système cognitif Watson d’IBM assimile des millions d’informations en quelques secondes et propose un diagnostic ou un traitement que le médecin affine en fonction du patient. L’Apple Watch, grâce à un capteur, surveille le rythme cardiaque d’un patient et peut alerter son médecin en cas de problème. Alexa, l’assistant vocal d’Amazon, soulage les médecins en répondant aux questions simples que les Britanniques posent au NHS, le service de santé publique, et, à en croire un brevet récemment déposé par Amazon, il serait bientôt en mesure de détecter une maladie en analysant la voix de la personne qui appelle. Facebook a pour sa part développé un algorithme de prédiction des suicides qui analyse les messages postés sur le réseau social et met la personne en relation avec un service d’aide et de prévention. Tencent, désigné champion national dans le domaine de la santé par le gouvernement chinois, permet aux patients de prendre rendez-vous et de réserver leur chambre à l’hôpital via la messagerie WeChat. Toutes ces applications sont rendues possibles par la conjonction des algorithmes d’intelligence artificielle (IA), des plates-formes numériques du Cloud et, surtout, par la disponibilité de grands volumes de données qu’il est possible d’analyser. Autant d’atouts qui sont dans les mains des géants du numérique.

Vers une privatisation des savoirs ?

Seuls 11% des Américains seraient prêts à partager leurs données avec les GAFA.
A première vue, ces applications sont plus que positives pour tout le monde. Elles améliorent la qualité des soins et le confort des patients. Elles facilitent le travail des praticiens en leur apportant au bon moment les informations pointues dont ils ont besoin. Elles contribuent à réduire les dépenses de santé en optimisant les traitements et leur observance, en évitant des hospitalisations ou tout au moins en réduisant leur durée au strict nécessaire. Pourtant, l’intérêt des grandes entreprises du numérique pour la santé et la médecine commence à inquiétercertainsobservateurs.«La question que nous devons nous poser en tant que société est : voulons-nous que les savoirs en matière de santé soient privatisés ou qu’ils deviennent un bien public ? » n’hésite pas à interroger Bart De Witte. DansuneinterviewaumagazineThe Innovator, cet ancien directeur de la santé numérique chez IBM et titulaire de la chaire de médecine du futur à Futur/io, un institut européen de recherche, explique qu’on dispose à présent de suffisamment de données pour nourrir les algorithmes d’IA, qui deviennent de plus en plus intelligents et opérationnels, et peuvent vraiment transformer les connaissances en médecine. Mais les investissements dans ce domaine sont actuellement réalisés par le privé – en grande partie par les géants du numérique – et le risque existe de voir ces connaissances peu à peu privatisées. Bart De Witte propose de créer une plate-forme sans but lucratif où les algorithmes développés seraient en accès libre, en mode open source, « sans quoi, SEO la santé risque de ne plus être accessible à tous »… Les initiatives des géants du numérique suscitent aussi des inquiétudes quant à leurs ambitions hégémoniques. Jusqu’où iront-ils ? En 2018, Amazon a créé Haven, une coentreprise avec Berkshire Hathaway, le conglomérat de Warren Buffett, et la banque JPMorgan Chase. Cette société va gérer les prestations santé et fournir soins et médicaments aux 1,2 million d’employés des trois entités. Pour l’instant… La même année, Amazon a racheté PillPack, une start-up de livraison de médicaments sur ordonnance. Le géant du commerce et de la distribution en 24 heures se positionne ainsi sur toute la chaîne de valeur du secteur. Quant à Google, ses filiales DeepMind, Verily ou Calico Labs, qui travaillent sur la santé, ont déjà déposé près de 200 brevets. Début 2019, Apple a développé une application pour Aetna, filiale de CVS Health qui assure les employés des entreprises américaines. L’application Attain récompense les clients d’Aetna qui portent une Apple Watch en fonction de leurs efforts pour augmenter leur activité physique ou améliorer leur alimentation… Les craintes portent aussi, bien évidemment, sur la confidentialité des données. Depuis mai 2018, l’Europe applique le règlement général sur la protection des données (RGPD), qui prévoit d’informer les internautes sur l’usage qui est fait de leurs données et d’obtenir leur consentement. Le scandale Cambridge Analytica et l’amende de 5 milliards de dollars infligée l’été dernier à Facebook par la Federal Trade Commission (FTC) pour ne pas avoir informé suffisamment ses utilisateurs sur la protection de leurs données personnelles montrent que la perception de ce sujet évolue également aux Etats-Unis. « Savoir à qui appartiennent les données de santé est crucial ; cela détermine qui peut les revendre, les utiliser et à quelles fins », souligne Arielle Le Bail. Une étude de Rock Health sur l’acceptation de la santé numérique aux Etats-Unis pointe que seulement 11 % des Américains interrogés seraient prêts à partager leurs données avec les grandes entreprises technologiques, alors qu’ils sont 72 % à accepter de les partager avec leur médecin. Cela n’empêche pas ces géants de négocier avec les hôpitaux. Ainsi, Facebook a conclu un partenariat avec le service radiologie de l’université de New York pour récupérer des données anonymisées sur les patients et entraîner l’algorithme qui pilotera son projet d’IRM.

Des millions de données de clients de GoDaddy compromises

Des millions de données de clients de GoDaddy compromises lors d’une attaque.

Le géant de l’enregistrement de noms de domaine et fournisseur d’hébergement GoDaddy a révélé hier à la Securities and Exchange Commission (SEC) qu’il avait subi une violation de sécurité. Cela montre aujourd’hui que la cybercriminalité est partout.

Dans sa notification, il explique avoir été compromis par un « accès tiers non autorisé à notre environnement d’hébergement Managed WordPress ». Le coupable inconnu à l’origine de l’attaque a volé jusqu’à 1,2 million de données de clients actifs et inactifs, notamment des adresses électroniques, des mots de passe d’administrateur WordPress originaux, des identifiants de protocole de transfert de fichiers sécurisés (sFTP) et de base de données, ainsi que des clés privées SSL.

La société a déclaré avoir pris des mesures pour sécuriser les comptes et l’environnement, notamment en réinitialisant les mots de passe et en empêchant le tiers non autorisé d’accéder à son système, et a indiqué qu’elle allait émettre de nouveaux certificats pour certains clients.

GoDaddy a d’abord détecté une activité suspecte dans son environnement d’hébergement Managed WordPress mercredi de la semaine dernière. Selon les premières investigations, l’intrus a utilisé un mot de passe compromis pour accéder à un code hérité dans l’environnement de GoDaddy afin de voler des données. Les enquêtes se poursuivent.

« Nous sommes sincèrement désolés de cet incident et de l’inquiétude qu’il suscite chez nos clients », a écrit Demetrius Comes, directeur de la sécurité informatique (CISO) de GoDaddy. « Nous, dirigeants et employés de GoDaddy, prenons très au sérieux notre responsabilité de protéger les données de nos clients et ne voulons jamais les laisser tomber. Nous tirerons les leçons de cet incident et nous prenons déjà des mesures pour renforcer notre système d’approvisionnement avec des couches de protection supplémentaires. »

Selon les chercheurs de Defiant Inc, développeurs de Wordfence-un plugin pour sécuriser les sites WordPress-GoDaddy a géré sFTP d’une manière qui ne suit pas les pratiques standard : « Il semble que GoDaddy stockait les informations d’identification sFTP soit en texte clair, soit dans un format qui pouvait être inversé en texte clair. Ils ont procédé ainsi au lieu d’utiliser un hachage salé ou une clé publique, qui sont tous deux considérés comme les meilleures pratiques de l’industrie pour sFTP. Cela permettait à un attaquant d’accéder directement aux informations d’identification du mot de passe sans avoir besoin de les craquer. »

Vous êtes client de GoDaddy ? Voici ce qu’il faut faire:
Si vous utilisez le service d’hébergement de GoDaddy et que vous ne savez pas si votre compte pourrait faire partie de ceux qui sont touchés, ne laissez pas cela au hasard. Agissez maintenant avant que quelqu’un ne profite de l’occasion pour prendre le contrôle de votre compte.

GoDaddy a fourni une bonne liste de mesures à prendre pour verrouiller un compte qui pourrait être potentiellement compromis :

Changez votre mot de passe et votre code PIN
Activez l’authentification à deux facteurs (2FA) si vous ne l’avez pas encore fait.
Modifiez les méthodes de paiement que vous avez enregistrées sur votre compte et supprimez celles que vous n’utilisez pas. Il serait également bon de garder un œil sur les transactions de votre compte bancaire et d’être prêt à signaler celles qui sont frauduleuses.
Supprimez l’accès délégué de toute personne que vous avez autorisée à accéder à votre compte.
Supprimez toute clé d’API inconnue en la supprimant.
Vérifiez que les coordonnées de votre domaine sont correctes pour éviter que quelqu’un ne s’en empare.
Déconnectez-vous à distance de votre compte GoDaddy, ce qui vous déconnectera de tous les appareils et navigateurs.
Soyez prudent !

SEO Agence est une agence web à Lille.

L’utilisation de l’IA pour le marketing

Le marketing avec l’IA (intelligence artificielle) peut sembler fantaisiste ; le terme est utilisé dans les textes publicitaires des outils marketing par les gourous du marketing et médiatisé par les médias. Bien que le battage médiatique autour de ce que l’IA pourrait faire au cours des prochaines années soit surestimé, la réalité de la façon dont elle est utilisée aujourd’hui dans le marketing est souvent sous-estimée.

• Google utilise l’apprentissage en profondeur pour classer les résultats de recherche.

• Amazon utilise le traitement du langage naturel pour Alexa.

• Facebook utilise la reconnaissance faciale pour suggérer qui taguer sur les photos.

• Le Washington Post utilise la génération de langage naturel pour rédiger des articles axés sur les données.

• Netflix utilise l’apprentissage automatique pour personnaliser les recommandations de ses utilisateurs.

Ainsi, nos vies sont déjà assistées par machine, et de la même manière, le marketing peut l’être aussi.

5 plates-formes pouvant être exploitées pour le marketing à l’aide de l’IA
Votre équipe marketing perd son avantage concurrentiel tant que vous retardez l’utilisation d’outils marketing innovants basés sur l’IA. Les systèmes artificiellement intelligents fonctionnent en permanence sur le fond de populaire produits et services tels qu’Amazon, Netflix et Google.

Ces dernières années, l’IA s’est lancée dans le marketing en aidant les marques à améliorer et à enrichir chaque étape du parcours de leurs clients. En outre, les outils qui étaient auparavant disponibles pour les entreprises au niveau de l’entreprise sont désormais devenus abordables et accessibles aux moyennes et petites entreprises.

Voici cinq façons dont l’IA peut être utilisée pour vos campagnes marketing :

1. Chatbots
Les applications de messagerie telles que WhatsApp, Viber et Facebook Messenger ont permis aux clients de contacter plus facilement les entreprises et les entreprises pour des demandes de renseignements, des achats ou des réclamations. Ces applications sont gratuites et faciles à utiliser. Cependant, la triste réalité de l’utilisation de ces applications pour les entreprises, en particulier les grandes marques, est qu’il peut être difficile de répondre à chaque fois qu’un client envoie un message. De plus, cela peut devenir fastidieux lorsque vous devez répondre à des milliers de messages pendant vos heures de travail, et la plupart d’entre eux vous posent la même question !


Un chatbot est un programme d’IA qui peut simuler une conversation avec un utilisateur en langage naturel. Cela aide les entreprises à suivre leurs clients et à répondre à leurs questions. Désormais, les grandes marques peuvent définir des réponses prédéterminées aux questions fréquemment posées par leurs clients. Et aussi, les chatbots peuvent aider vos clients à trouver et à acheter un produit qu’ils aiment. Tout cela réduira considérablement le temps nécessaire à l’intervention humaine et à la réponse, ce qui vous fera économiser du temps et de l’argent.

2. Génération de contenu
Nous savons tous à quel point la génération manuelle de contenu est un processus fastidieux. Maintenant, imaginez avoir un site Web qui peut générer son propre contenu. Vous n’avez pas besoin d’embaucher des écrivains ou des éditeurs car vous aurez un site autonome qui peut vous rapporter de l’argent.

Les algorithmes d’apprentissage automatique de l’IA peuvent vous faciliter la vie en tant que spécialiste du marketing, et c’est ce qu’on appelle la génération de contenu. Malheureusement, il ne peut pas créer d’articles longs et écrits avec éloquence par des leaders de l’industrie, des PDG, des blogueurs et d’autres écrivains talentueux qui offrent des connaissances approfondies sur un sujet donné. sujet.

Une génération ou une rédaction de contenu ne peut que produire de simples rapports financiers, des mises à jour boursières, des actualités sportives, etc. Cependant, si vous avez besoin d’aide pour générer du contenu personnalisé pour votre site Web, utilisez l’intelligence de contenu. Il fournit aux créateurs des retours et des informations basés sur les données pour un contenu efficace qui donnera de meilleurs résultats.

3. Ciblage publicitaire programmatique
Il s’agit d’automatiser tout ou partie du processus d’achat d’annonces en utilisant une technologie pilotée par logiciel. La manière traditionnelle d’acheter/vendre des annonces est un processus long et fastidieux qui commence par parler à un vendeur, définir les termes d’un contrat et enfin l’exécuter. Cependant, l’IA dans le marketing numérique transforme la manière conventionnelle en un simple processus automatisé.


L’IA utilise les données des cookies des sites Web et des applications mobiles utilisés ou visités par les utilisateurs pour cibler des clients spécifiques qui correspondent aux critères de l’annonceur ou des entreprises. En cas de match, le système d’achat d’annonces enchérit automatiquement sur le impression et montrer le contenu gagnant de l’utilisateur.

Les publicités Facebook permettent aux spécialistes du marketing et aux annonceurs d’utiliser l’analyse de données dans le marketing numérique pour créer des profils personnalisés afin de cibler et de recibler leurs publicités. Notez qu’il s’agit des données que vous partagez sur les plateformes de médias sociaux lorsque vous cliquez sur pour accepter le contrat de licence d’utilisateur final (CLUF).

4. Tarification dynamique
Il s’agit d’utiliser une stratégie de prix personnalisée, dans laquelle sa demande et/ou son offre détermine le prix d’un produit ou d’un service. Par exemple, les prix des applications de covoiturage augmentent à mesure que la demande augmente. Un bot de site Web ou d’application peut surveiller les analyses prédictives de vos clients à l’aide de leurs recherches, de leur historique, de leurs cookies et d’autres activités pour leur fournir des prix en temps réel. Cependant, cela pourrait signifier qu’ils obtiennent des prix plus élevés ou moins de remises pour les services ou les produits dont ils ont besoin pour le moment. Même si cela semble injuste, il y a toujours deux côtés à une histoire.

Vos clients peuvent bénéficier de la tarification dynamique lorsque la demande d’un produit ou service est en panne. Par exemple, lorsque des chambres d’hôtel ne sont pas vendues, la tarification dynamique peut offrir des prix compétitifs pour attirer les clients et aider à réduire les chances de vacance.

5. Reconnaissance vocale
À l’heure actuelle, nous avons des IA avec des capacités de reconnaissance vocale qui peuvent reconnaître les mots prononcés et les convertir en texte pour exécuter la commande. Alexa, Siri et Google Assistant sont parmi les chatbots les plus populaires qui utilisent la technologie de reconnaissance vocale. De plus, la reconnaissance vocale est utilisée dans des applications telles que Google Maps, Shazam et d’autres systèmes mains libres.

Mais comment les marketeurs peuvent-ils tirer parti de la reconnaissance vocale pour leurs campagnes ? On estime qu’environ 55 % des ménages auront un haut-parleur intelligent d’ici 2022, contre 13 % en 2018. En outre, les ventes des achats vocaux devraient atteindre 40 milliards USD en 2022, contre 2 milliards USD en 2018. Sur cette base données, les spécialistes du marketing ne devraient pas manquer l’utilisation de la reconnaissance vocale dans leurs campagnes marketing.

Derniers mots
Compte tenu de tout ce qui précède avantages de l’IA Marketing, cybercriminalité cela signifie-t-il que l’IA prendra bientôt le relais des marketeurs et des créateurs de contenu ? Bien que l’apprentissage automatique améliore considérablement son algorithme, vous pouvez être rassuré pour les prochaines années, car les IA sont encore loin d’être parfaites.

Néanmoins, l’IA dans le marketing est un outil puissant qui permet aux entreprises d’interagir avec chaque client de manière personnalisée et significative. Il est temps de commencer à appliquer des produits d’IA et des techniques d’analyse marketing pour offrir des expériences personnalisées à vos utilisateurs. Cela aidera les spécialistes du marketing à obtenir de meilleurs résultats, augmentant éventuellement le retour sur investissement (retour sur investissement) de leur entreprise.

La recherche principale sur Bing est « Google »

La recherche principale sur Bing est « Google ». Ce qui en dit long sur la position de domination de Google sur le marché de la recherche sur internet.

Le terme le plus recherché sur Bing de Microsoft est « Google », déclare Google à un tribunal de l’Union européenne en faisant valoir que l’amende antitrust record de 4 milliards de livres devrait être annulée.

Le terme le plus recherché sur le moteur de recherche Bing de Microsoft est « Google », a déclaré Google à un tribunal de l’Union européenne.

Nous avons présenté des preuves montrant que la requête de recherche la plus courante sur Bing est de loin « Google » », a déclaré Alfonso Lamadrid, avocat de Google, au Tribunal de l’Union européenne à Luxembourg, comme l’a rapporté Bloomberg.

« Les gens utilisent Google parce qu’ils le choisissent, et non parce qu’ils y sont contraints », a ajouté M. Lamadrid. « La part de marché de Google dans la recherche générale est cohérente avec les enquêtes auprès des consommateurs qui montrent que 95 % des utilisateurs préfèrent Google aux moteurs de recherche rivaux. »

Google cherche à faire annuler une amende record de 4,3 milliards d’euros (5 milliards de dollars, 4 milliards de livres sterling) et une ordonnance antitrust qui a conclu que Google a injustement forcé les fabricants de téléphones mobiles Android à utiliser son application de recherche.

La Commission européenne a allégué que Google avait pris la décision stratégique de tirer parti de son logiciel Android pour assurer sa domination dans le domaine de la recherche.

Google fait toutefois valoir que son moteur de recherche est le plus populaire parce que les gens choisissent de l’utiliser.

Au moment de l’amende de 2018, Sundar Pichai, directeur général de Google, a déclaré qu’Android « a créé plus de choix pour tout le monde, pas moins ».

Margrethe Vestager, à l’époque commissaire européenne à la concurrence, a déclaré que Google avait forcé les fabricants de téléphones Android à préinstaller son application de recherche et son navigateur Web Chrome, et en avait payé certains pour s’assurer qu’il s’agissait de la seule application de recherche préinstallée, ce qui signifie que seulement 1 % des personnes ont téléchargé une alternative.

Ces accords montrent que Google a mis toutes les chances de son côté, a déclaré Nicholas Khan, avocat de la Commission européenne.

« Google s’octroie la couronne de laurier avant même que la course n’ait commencé », a-t-il déclaré. « L’ampleur des pratiques justifie entièrement l’amende qui a été infligée ».

Selon la société de référencement Ahrefs, « Google » est en effet le premier terme de recherche sur Bing dans le monde, suivi de « YouTube », « Facebook », « Gmail » et « Amazon ».

Dans les recherches provenant des États-Unis, « Facebook » est en tête, suivi de « YouTube », avec « Google » en troisième position.

Les chiffres montrent que « Bing » lui-même est la septième recherche la plus populaire sur Bing aux États-Unis, et la dixième dans le monde.

Bing est le moteur de recherche par défaut des navigateurs de Microsoft, ce qui signifie que tous les termes autres que les adresses web tapés dans la barre d’adresse URL conduisent par défaut l’utilisateur à une page de résultats de recherche Bing.

SEO Agence est une agence en référencement naturel à Lille.

L’automatisation sur l’internet

J’ai récemment écrit sur la puissance de l’automatisation intelligente; c’est-à-dire, l’automatisation suralimentée par une couche d’intelligence artificielle. Le numérique rencontre et vient même de s’appuyer sur l’IA dans l’analyse prédictive, l’analyse automatisée des ventes, la recherche et l’agrégation d’informations, les communications automatisées (pensez aux chatbots et au courrier électronique), et même aux assistants personnels virtuels.
À travers les canaux numériques, les campagnes et les tactiques, il semble que rien ne soit épargné par l’automatisation. Et pourtant, le degré d’automatisation et la quantité d’IA qui informe les décisions prises peuvent varier considérablement. L’automatisation intelligente n’est pas une perspective tout ou rien – il existe de nombreuses façons différentes de travailler aux côtés des machines révolutionnant le numérique.
En fait, ceux qui comprennent le mieux la collaboration avec des machines intelligentes détiennent les clés pour faire avancer le numérique.

Regardons l’industrie automobile pour un cadre d’automatisation de modèle qui illustre à quel point la technologie a un impact sur l’expérience humaine dans une tâche définie. La Society of Automotive Engineers a créé sa norme Levels of Driving Automation pour définir les six niveaux d’automatisation dans l’industrie automobile sans conducteur.
Du niveau 0 à 5, les tâches qu’un conducteur humain doit entreprendre diminuent, tandis que les caractéristiques technologiques augmentent.
Au niveau 0, le conducteur est seul et doit constamment diriger, freiner, accélérer, signaler et autrement contrôler tous les aspects des performances de la voiture. Au niveau 3, elle peut être dans le siège du conducteur, mais diverses fonctions de conduite automatisée sont engagées. Les conditions doivent être réunies pour un fonctionnement automatisé et la machine peut lui demander de prendre le relais à tout moment.
L’aide au maintien sur la voie, le régulateur de vitesse adaptatif et le stationnement automatique sont quelques exemples de fonctions de conduite automatisée que vous pourriez rencontrer dans un véhicule de niveau 3 ou 4. (Comme Lance Eliot l’a souligné récemment à Forbes, nous n’avons pas encore vu un véritable niveau 5 – une voiture vraiment automatisée et sans conducteur – en action. Le département américain des Transports s’attend à ce que nous voyions des voitures entièrement sans conducteur à partir de 2025 et au-delà).
Nous pouvons appliquer ce type de cadre pour nous aider à mieux comprendre l’opportunité d’automatisation intelligente pour les SEO. Et bien que l’industrie automobile ait toutes sortes de réglementations et de lois en place pour protéger la sécurité publique, vous êtes beaucoup plus libre d’explorer les limites de l’automatisation intelligente en numérique (et en SEO, en particulier), tant que vous respectez la confidentialité des utilisateurs.

Niveau 1: SEO manuel
Le référencement naturel des jours passés était presque entièrement manuel et incroyablement long. Cela ne veut pas dire que le style de référencement plus intensif en main-d’œuvre ne se produit toujours pas aujourd’hui; il y a encore quelques SEO qui travaillent dur dans Excel, vérifiant et optimisant manuellement les sites. Le référencement manuel vous donne un contrôle complet sur toute votre stratégie de recherche, de la sélection des backlinks au niveau individuel aux optimisations minutieuses sur tout le site. Mais avec 53% du trafic du site Web provenant de la recherche organique – les opportunités de capitaliser et d’évoluer sont immenses.
Cependant, il est tout simplement impossible d’ingérer, d’analyser et d’activer les données de recherche à n’importe quelle échelle sans automatisation. Le référencement manuel peut être incroyablement efficace, mais cette valeur est réduite par chaque occasion manquée causée par une mise en œuvre lente et les frais généraux coûteux d’une équipe d’experts.

Niveau 2: automatisation simple
Certains des outils que vous utilisez dans le référencement aujourd’hui sont probablement issus du besoin des référenceurs précédents d’automatiser des tâches manuelles telles que la recherche de mots clés et le suivi des classements. Les outils SEO de deuxième génération ont commencé à automatiser les optimisations de contenu (au moins, en soulignant les opportunités d’optimisation).
L’automatisation simple consiste presque exclusivement à réduire le travail manuel pour les tâches simples. Rassembler le même ensemble de données à intervalles réguliers, comme les classements quotidiens sur des mots clés spécifiques, par exemple. Parcourir le Web pour trouver des liens vers votre site.
Une automatisation simple réduira le travail consacré à ces tâches, libérant du temps et de l’énergie pour des activités plus créatives et stratégiques. Considérez ce niveau d’automatisation SEO comme un régulateur de vitesse – vous pouvez retirer le pied de la pédale et laisser la machine faire le travail, mais vous gardez toujours le contrôle de la voiture.

Niveau 3: Application de l’IA pour des informations
Au niveau 3, notre logiciel de référencement devient beaucoup plus intelligent grâce à une analyse artificiellement intelligente. À ce stade, la voiture se conduit elle-même, mais uniquement sous certaines conditions.
Depuis votre place au volant, vous contrôlez les entrées que vous alimentez vos outils de référencement et définissez ce que vous souhaitez comme résultats. Grâce à l’analyse d’ensembles de données massifs (bien plus que vous ne pourriez jamais l’explorer vous-même), vous êtes en mesure de glaner de plus grandes informations et de prendre de meilleures décisions.
Vous pouvez automatiser le processus d’analyse du contenu de votre site et demander à votre logiciel de renvoyer des recommandations d’optimisation basées sur vos mots clés sélectionnés, par exemple. Cela peut éclairer vos efforts de création de contenu et vous assurer que vous passez le temps dont vous disposez sur les domaines susceptibles d’avoir le plus d’impact.

Niveau 4: interactions en temps réel
La voiture se conduit elle-même, mais vous ne pouvez pas faire preuve de prudence face au vent et la sortir dans toutes les conditions. Dans le monde des voitures sans conducteur, un véhicule de niveau 4 peut même ne pas avoir de volant ou de pédale de frein installés. Dans un cas d’essai au Japon en 2018, par exemple, un taxi sans chauffeur a transporté des tarifs payants sur un itinéraire défini à travers les rues maniaques de Tokyo.
Les chatbots sont un excellent exemple d’une automatisation de niveau 4 en numérique. Les SEO sont un choix naturel pour conduire une stratégie d’IA conversationnelle, car les consommateurs se tournent souvent vers les chatbots comme une extension de l’expérience de recherche. Qu’ils interrogent par texte ou par voix, les consommateurs connectés se tournent vers des assistants automatisés intelligents pour les aider à résoudre leurs besoins immédiats. Qui comprend le parcours de ce client et quels éléments de contenu répondent le mieux à ses questions mieux que l’équipe SEO? Si les chatbots sont traités en fonction des ventes, il est important que le marketing (et la recherche en particulier) affirme sa volonté d’être consulté, voire de diriger.

Niveau 5: prise de décision en temps réel et optimisations automatisées
La voiture entièrement autonome peut se conduire elle-même, mais son indépendance est une illusion. La voiture, en ce qui concerne le marché, s’appuiera sur des équipes de concepteurs, d’ingénieurs et de développeurs qualifiés pour créer et entretenir les systèmes qui lui permettront de prendre des décisions et de prendre des mesures dans l’instant pour assurer la sécurité de ses passagers.
Et il en va de même avec un logiciel de recherche entièrement intégré à l’IA. Des outils disparates qui n’automatisent qu’une poignée de fonctions sont tombés au bord du chemin à mesure que les plates-formes ont évolué pour garantir que toutes les fonctions sont capables de partager des données et de se parler ». Permettre aux machines de hiérarchiser les tâches et de décider quelles optimisations peuvent être exécutées en temps réel, au fur et à mesure que les consommateurs expriment leurs besoins, permet aux marques d’être pleinement réactives et même proactives dans la personnalisation de l’expérience de recherche.
Ne restez pas en possession de la clé Ajoutez du talent automatisé à votre équipe
Permettez-moi de nous un mécanicien comme un exemple générique. Être mécanicien est un métier parfaitement respectable. Cependant, dans 20 ans, une personne possédant uniquement ces compétences aura du mal à trouver un emploi. Le mécanicien qui améliore ses compétences aujourd’hui, qui étudie actuellement l’ingénierie ou la sécurité des transports ou le développement de logiciels automobiles, garantit son employabilité lorsque des voitures sans conducteur arrivent sur le marché.
Ces compétences mécaniques seront toujours nécessaires, mais elles devront être complétées par une solide compréhension des systèmes informatiques qui conduisent la voiture. Ils devront être capables et désireux de travailler aux côtés des machines.
Les référenceurs ont aujourd’hui la possibilité d’élever leur rôle et de gérer eux-mêmes certaines fonctions de référencement avec l’automatisation et d’être les CMO ou CDO de demain quelque chose (que mon entreprise) fait avec BrightEdge Autopilot Surtout s’ils peuvent se positionner comme le meilleur choix pour travailler aux côtés de Level 5 systèmes.
Le large impact de la recherche sur l’ensemble du parcours client numérique donne aux référenceurs un large éventail de compétences et de perspectives sur lesquelles bâtir et éventuellement mener. Pour tirer parti de cette opportunité, les professionnels de la recherche doivent être prêts à adopter l’IA non pas comme un outil, mais comme un partenaire numérique collaboratif, auquel on peut faire confiance pour prendre les bonnes décisions lorsqu’ils sont guidés par la bonne stratégie.
Trop souvent, les spécialistes du marketing se retrouvent dans un débat mitigé sur le mérite d’un canal numérique sur l’autre, les avantages et les inconvénients de l’intelligence artificielle et les opportunités pour la prochaine promotion. La réalité est que dans tout écosystème florissant, l’équilibre est essentiel. Il en va de même pour la recherche et le marketing numérique. C’est particulièrement le cas pour le référencement car travailler dans un environnement techniquement orienté demande beaucoup de travail et beaucoup d’équilibre compte tenu de son influence sur le contenu et tous les canaux numériques.
Ceux qui peuvent embrasser intelligemment les progrès de l’IA et de l’automatisation sont en fait ceux qui souhaitent obtenir cette prochaine promotion et élever leur rôle dans le numérique. Après tout – en réalité, ils ont déjà des membres supplémentaires dans leur équipe.

SEO Agence est une agence SEO à Lille.

Apple – Google: un deal à 15 milliards de dollars

Google continue de payer Apple pour rester le moteur de recherche par défaut dans iOS, un accord qui profite à Apple à hauteur de milliards de dollars.

Google est de loin le moteur de recherche dominant, mais il est difficile de savoir si c’est le résultat d’une véritable supériorité technologique ou de la simple puissance de sa domination du marché. Un élément clé de cette domination est le paiement des fabricants de smartphones pour que Google devienne le moteur de recherche par défaut dans les navigateurs fournis avec leurs appareils.

Un tel arrangement est extrêmement rentable pour les fabricants de smartphones, car il leur apporte un flux régulier de revenus pour un travail quasi inexistant. En même temps, cependant, il pose un dilemme moral et de confidentialité important pour Apple. La société de Cupertino a bâti sa réputation sur la protection de la vie privée des utilisateurs, souvent plus que ses rivaux, dont Google. Le fabricant de l’iPhone ayant pour activité principale la vente de matériel, il ne compte pas sur la monétisation des données des utilisateurs comme le fait Google.

Cependant, malgré cette position, Apple devrait récolter 15 milliards de dollars en 2021 pour avoir conservé Google comme moteur de recherche par défaut dans iOS Safari, et jusqu’à 20 milliards de dollars en 2022, selon les analystes de Bernstein, via Philip Elmer-DeWitt, journaliste de longue date sur Apple.

Si Apple considère sans doute que c’est un moyen de donner à ses clients ce qu’elle pense qu’ils veulent, à savoir le moteur de recherche qui leur est probablement le plus familier, il s’agit tout de même d’un compromis étrange pour une entreprise qui accorde tant d’importance à la protection de la vie privée. Il serait de loin préférable, et plus conforme à la position générale de l’entreprise, de refuser l’argent de Google et de proposer aux utilisateurs un choix lors de la configuration initiale de leur iPhone.

Plus le temps passe, plus il sera difficile de défendre cet accord.

SEO Agence est une agence seo à Lille

Google supprime le tracking de cookies mais la pub invasive reste

Google supprime les cookies tiers, mais les publicités ciblées invasives restent en place. Google a annoncé son intention de cesser d’utiliser les cookies de suivi sur son navigateur Chrome d’ici 2022, en les remplaçant par un système de profilage de groupe, dans le cadre d’une initiative qui, selon la société, permettra de tracer « une voie vers un web plus respectueux de la vie privée ».

Une autre manière de tracker

Ce changement est important. Chrome détient environ deux tiers du marché des navigateurs web. Les cookies de suivi tiers, quant à eux, sont à la base d’une grande partie du secteur de la publicité ciblée. Et, alors que Firefox de Mozilla et Safari d’Apple ont déjà cessé de prendre en charge les cookies tiers, Google est la première entreprise à produire un support publicitaire de remplacement.

Au lieu de vous suivre et de vous cibler sur une base individuelle, l’alternative de Google vous regroupe plutôt dans une foule de personnes ayant des intérêts généralisés similaires. Google affirme que cela garantit aux utilisateurs une plus grande confidentialité. Cette affirmation va à l’encontre de l’assurance donnée aux annonceurs que cette nouvelle technique est au moins 95 % aussi efficace que le ciblage individuel.

Mais sous le vernis des communiqués de presse de Google, le passage du suivi au profilage soulève un certain nombre de nouveaux problèmes de confidentialité et de discrimination. En apparence, le nouveau système de Chrome vise à renforcer la protection de la vie privée, mais il semble en fin de compte profiter à Google, en lui donnant un avantage supplémentaire sur ses concurrents AdTech en difficulté.

Les cookies

La méthode traditionnelle de suivi et de ciblage sur le web utilise ce que l’on appelle des cookies : de petits fichiers stockés par des navigateurs web tels que Chrome. Leur objectif initial était de conserver des informations – comme les articles que vous avez ajoutés à un panier d’achat en ligne, par exemple – entre deux sessions de navigation. Cela était considéré comme utile pour les consommateurs.

Aujourd’hui, les cookies servent surtout des intérêts publicitaires. Sur Chrome, des tiers utilisent les cookies pour vous suivre sur le web, en accumulant suffisamment de données sur vos habitudes de navigation pour vous cibler avec des publicités très spécifiques.

Compte tenu du caractère envahissant de ce suivi, la législation européenne en matière de protection des données classe les cookies dans la catégorie des « identifiants en ligne », soumis à des règles qui obligent les sites Web à obtenir votre consentement avant d’envoyer des cookies à votre navigateur.

Le nouveau système de Google pour Chrome abandonnera cette pratique. Le navigateur utilisera plutôt votre historique de navigation récent pour générer votre « identité de cohorte ». Pour ce faire, il utilise actuellement un « simhash » qui, en termes simples, génère des « chiffres magiques » pour représenter vos intérêts avant de vous regrouper avec ceux qui possèdent des chiffres similaires.

Caché au sein d’une cohorte de quelques milliers d’individus, vous verrez alors des publicités ciblées sur votre cohorte, plutôt que sur vous en tant qu’individu. Ce système est présenté comme un progrès pour la protection de la vie privée, car il s’éloigne du suivi et du ciblage individualisés qui rendaient les cookies tiers particulièrement invasifs.

Vers le modèle de Facebook

D’un point de vue conceptuel, le système proposé par Google n’est pas nouveau : il s’agit d’une forme de profilage, qui permet d’utiliser un modèle publicitaire que Facebook utilise depuis un certain temps déjà. Cibler l’identité de cohorte d’une personne revient à créer une « audience similaire » à partir d’un individu, un service que Facebook propose actuellement aux annonceurs.

Nous devrions nous attendre à ce que le profilage crée également un certain nombre de cohortes nommées différentes, à partir desquelles les annonceurs peuvent créer des audiences personnalisées avec des intérêts mixtes – ce que Facebook propose également.

C’est là que le profilage devient problématique. En 2016, il a été révélé que Facebook permettait aux annonceurs de logements d’exclure des utilisateurs en fonction de leur race. Même après que Facebook ait apporté des modifications à ses regroupements d’audience, il était toujours possible pour les annonceurs de faire de la discrimination sur la base d’intérêts sensibles détenus majoritairement par des minorités.

Le profilage

Le profilage fait appel à des algorithmes d’apprentissage automatique et à des technologies d’IA dont il a été démontré à plusieurs reprises qu’ils renforcent les préjugés dans le monde réel. À ce titre, la décision de Google de licencier des membres clés de son équipe d’éthique de l’IA au moment même où Chrome adopte un modèle publicitaire de profilage semble particulièrement alarmante.

Outre les inconvénients et les risques connus du profilage, la manière dont le nouveau modèle de Google améliore la vie privée des individus n’est pas claire. Pour que le système fonctionne, Chrome doit communiquer librement l’identité de votre cohorte à tous les sites Web que vous visitez, alors qu’un cookie tiers ne révèle pas ce volume de données à tous les sites Web.

Les motivations mitigées de Google

L’une des raisons est la réglementation. La nouvelle directive européenne sur la protection de la vie privée pourrait bien abolir l’utilisation traditionnelle des cookies de suivi au sein de l’UE, ce qui aurait des conséquences considérables pour d’autres juridictions. Il se peut donc que Google ne fasse que sauter avant d’être poussé.

En restreignant la manière dont les services publicitaires tiers peuvent utiliser Chrome, Google pourrait également profiter de l’étouffement de la concurrence. Un groupe d’intérêt pour les annonceurs en ligne a déjà demandé à l’organisme britannique de surveillance de la concurrence de tenir compte de la modification de Chrome dans le cadre de son enquête sur les pratiques publicitaires de Google. Google lui-même conservera de nombreuses possibilités de suivi après le changement, notamment lorsque les utilisateurs de Chrome sont connectés à leur compte Google.

Google est le principal bénéficiaire du passage de Chrome des cookies aux cohorts. Présenté comme une aubaine pour la protection de la vie privée, le nouveau système de Google ne restreint que légèrement sa portée traditionnelle en matière de publicité ciblée, tout en ajoutant à son répertoire le mode de publicité basé sur le profilage de Facebook.

Les utilisateurs finaux comme vous et moi, quant à eux, ne verront probablement aucune différence. Nous serons toujours surveillés et ciblés en fonction de notre activité en ligne, mais désormais en tant que membres d’un groupe et non plus en tant qu’individus.

En outre, plus les cohortes seront petites, plus il sera facile de vous repérer en leur sein. On peut d’ailleurs s’attendre à ce que Google privilégie les petites cohortes, car les grandes cohortes réduisent naturellement la précision des publicités ciblées. Dans l’ensemble, le changement introduira un certain nombre de nouveaux risques pour la vie privée et la discrimination. Pour quelle autre raison Google aurait-il choisi de supprimer les cookies tiers sur Chrome ?

SEO Agence est une agence de référencement naturel.