Comment il y a plus de robots que d’hommes sur le web

Vérifiez autour de vous, SEO Agence hommes et femmes de votre ligne. Les chenilles Ils sont presque partout. La plupart des visiteurs de sites Web ne sont pas des êtres humains, mais ils sont en quelque sorte des robots d’exploration ou des plans créés pour réaliser des activités programmées. Ce sont les abeilles personnels de votre Internet, ainsi que les hommes de main. Certains robots supportent la mise à jour de votre Fb ou déterminent comment positionner les résultats finaux de la recherche sur Internet; d’autres robots imitent des êtres humains et exécutent des épisodes désastreux de DDoS. Globalement, les robots d’exploration – négatifs et positifs – sont responsables de 52% du trafic en ligne, selon un enregistrement alternatif via le secteur de la sécurité Imperva, qui publie une évaluation annuelle du processus de bot sur Internet. La statistique de 52% est importante car elle représente un pourboire de votre balance depuis la déclaration de l’année précédente selon laquelle le trafic de sites Web humains a dépassé le trafic de robots pour la première fois, puisque pas moins de 2012, quand Imperva a commencé à suivre l’action des robots l’Internet. L’enquête la plus récente, qui repose sur une évaluation de près de 17 milliards de dollars de visites de sites Web provenant de plus de 100 000 domaines, montre que les robots sont en tête du classement. En plus de cela, des chenilles dangereuses gardent le flanc autour des robots d’assistance, qui étaient respectivement responsables de 29% et de 23% du trafic en ligne. «La statistique la plus déconcertante de cette déclaration est également la tendance la plus constante qu’elle observe», déclare Igal Zeifman, directeur de la publicité et du marketing d’Imperva, dans un article sur l’enquête. «Au cours des 5 dernières années, chaque troisième visiteur du site Web était un bot d’attaque.» Dit autrement: plus de 94% des 100 000 domaines inclus dans la déclaration qualifiaient au moins une attaque de bot sur une période de 90 jours ouvrables. dans l’avis de Imperva. Les sites Web qui peuvent être moins populaires, analysés par les visiteurs, ont tendance à attirer davantage de sessions de crawlers. Zeifman a publié: «Les bons robots exploreront votre site Web et les mauvais robots tenteront de le déchiffrer, peu importe à quel point il est apprécié par les hommes. Ils continueront probablement même à visiter un site en l’absence de tout trafic individuel ciblé. »

Les effets secondaires des GAFAs

Attention aux effets secondaires des GAFA

Partenariats avec des laboratoires pharmaceutiques, rachats de sociétés du secteur, développement d’applications dédiées… Depuis quelques mois, les géants du numérique Google, Apple, Facebook, Amazon, Tencent, IBM, Alibaba, Microsoft et d’autres multiplient les incursions dans le secteur de la santé. Tout comme ils le font dans tant d’autres secteurs ? Pas exactement. Le secteur de la santé représente pour eux un enjeu bien plus important que ceux de l’industrie, de la distribution ou de la finance. Pour des raisons que Lambert Lacoste, responsable de mission Santé au cabinet conseil Alcimed, explique : « Il y a d’abord un élément contextuel : le numérique est désormais partout. De fait, les géants du numérique sont de plus en plus présents dans nos vies et, donc, dans notre santé. Ensuite, la médecine du futur repose essentiellement sur les données et, aujourd’hui, les experts en matière de collecte et d’exploitation des données, ce sont eux, pas les industriels de la santé ! » S’ajoute à cela la perspective d’un marché mondial qui croît en moyenne de 5,4 % par an et qui devrait atteindre 10 000 milliards de dollars en 2022, selon le cabinet Deloitte. Le marché de la santé est particulièrement hétérogène. Il va des hôpitaux, des cliniques et de la médecine de ville à l’analyse du génome et à l’imagerie, en passant par les médicaments, les traitements les plus avancés, le soin aux personnes âgées, les assurances et les mutuelles. Quel que soit leur métier, tous les acteurs partagent une certitude : la médecine de demain sera prédictive, préventive, personnalisée et participative. Et c’est grâce au numérique qu’il sera possible de mettre en œuvre cette médecine baptisée « 4P ». « Les géants du numérique sont les mieux placés pour répondre aux besoins dans ce domaine, confirme Arielle Le Bail, analyste chez Fabernovel. Ils possèdent à la fois le savoir-faire et les plates-formes. Si, par exemple, tous les examens sont réunis dans le dossier numérique d’un patient et accessibles facilement aux médecins, il n’est pas utile de les refaire. Cela se traduit par des économies et par une plus grande efficacité. » Jérémy Taïeb, chef de projet chez Fabernovel, qui a étudié l’écosystème de santé avec elle, cite un autre exemple : « En 2017, la revue Health Management Technology estimait à 150 milliards de dollars par an le coût lié au fait de ne pas se présenter aux rendez-vous médicaux et à ses conséquences rien qu’aux Etats-Unis. Gérer une plate-forme de prise de rendez-vous et de suivi en ligne est typiquement ce qu’une entreprise du numérique sait faire ! »

Une assistance médicale virtuelle
En matière de santé, les bénéfices du numérique sont nombreux et très variés. Le système cognitif Watson d’IBM assimile des millions d’informations en quelques secondes et propose un diagnostic ou un traitement que le médecin affine en fonction du patient. L’Apple Watch, grâce à un capteur, surveille le rythme cardiaque d’un patient et peut alerter son médecin en cas de problème. Alexa, l’assistant vocal d’Amazon, soulage les médecins en répondant aux questions simples que les Britanniques posent au NHS, le service de santé publique, et, à en croire un brevet récemment déposé par Amazon, il serait bientôt en mesure de détecter une maladie en analysant la voix de la personne qui appelle. Facebook a pour sa part développé un algorithme de prédiction des suicides qui analyse les messages postés sur le réseau social et met la personne en relation avec un service d’aide et de prévention. Tencent, désigné champion national dans le domaine de la santé par le gouvernement chinois, permet aux patients de prendre rendez-vous et de réserver leur chambre à l’hôpital via la messagerie WeChat. Toutes ces applications sont rendues possibles par la conjonction des algorithmes d’intelligence artificielle (IA), des plates-formes numériques du Cloud et, surtout, par la disponibilité de grands volumes de données qu’il est possible d’analyser. Autant d’atouts qui sont dans les mains des géants du numérique.

Vers une privatisation des savoirs ?

Seuls 11% des Américains seraient prêts à partager leurs données avec les GAFA.
A première vue, ces applications sont plus que positives pour tout le monde. Elles améliorent la qualité des soins et le confort des patients. Elles facilitent le travail des praticiens en leur apportant au bon moment les informations pointues dont ils ont besoin. Elles contribuent à réduire les dépenses de santé en optimisant les traitements et leur observance, en évitant des hospitalisations ou tout au moins en réduisant leur durée au strict nécessaire. Pourtant, l’intérêt des grandes entreprises du numérique pour la santé et la médecine commence à inquiétercertainsobservateurs.«La question que nous devons nous poser en tant que société est : voulons-nous que les savoirs en matière de santé soient privatisés ou qu’ils deviennent un bien public ? » n’hésite pas à interroger Bart De Witte. DansuneinterviewaumagazineThe Innovator, cet ancien directeur de la santé numérique chez IBM et titulaire de la chaire de médecine du futur à Futur/io, un institut européen de recherche, explique qu’on dispose à présent de suffisamment de données pour nourrir les algorithmes d’IA, qui deviennent de plus en plus intelligents et opérationnels, et peuvent vraiment transformer les connaissances en médecine. Mais les investissements dans ce domaine sont actuellement réalisés par le privé – en grande partie par les géants du numérique – et le risque existe de voir ces connaissances peu à peu privatisées. Bart De Witte propose de créer une plate-forme sans but lucratif où les algorithmes développés seraient en accès libre, en mode open source, « sans quoi, SEO la santé risque de ne plus être accessible à tous »… Les initiatives des géants du numérique suscitent aussi des inquiétudes quant à leurs ambitions hégémoniques. Jusqu’où iront-ils ? En 2018, Amazon a créé Haven, une coentreprise avec Berkshire Hathaway, le conglomérat de Warren Buffett, et la banque JPMorgan Chase. Cette société va gérer les prestations santé et fournir soins et médicaments aux 1,2 million d’employés des trois entités. Pour l’instant… La même année, Amazon a racheté PillPack, une start-up de livraison de médicaments sur ordonnance. Le géant du commerce et de la distribution en 24 heures se positionne ainsi sur toute la chaîne de valeur du secteur. Quant à Google, ses filiales DeepMind, Verily ou Calico Labs, qui travaillent sur la santé, ont déjà déposé près de 200 brevets. Début 2019, Apple a développé une application pour Aetna, filiale de CVS Health qui assure les employés des entreprises américaines. L’application Attain récompense les clients d’Aetna qui portent une Apple Watch en fonction de leurs efforts pour augmenter leur activité physique ou améliorer leur alimentation… Les craintes portent aussi, bien évidemment, sur la confidentialité des données. Depuis mai 2018, l’Europe applique le règlement général sur la protection des données (RGPD), qui prévoit d’informer les internautes sur l’usage qui est fait de leurs données et d’obtenir leur consentement. Le scandale Cambridge Analytica et l’amende de 5 milliards de dollars infligée l’été dernier à Facebook par la Federal Trade Commission (FTC) pour ne pas avoir informé suffisamment ses utilisateurs sur la protection de leurs données personnelles montrent que la perception de ce sujet évolue également aux Etats-Unis. « Savoir à qui appartiennent les données de santé est crucial ; cela détermine qui peut les revendre, les utiliser et à quelles fins », souligne Arielle Le Bail. Une étude de Rock Health sur l’acceptation de la santé numérique aux Etats-Unis pointe que seulement 11 % des Américains interrogés seraient prêts à partager leurs données avec les grandes entreprises technologiques, alors qu’ils sont 72 % à accepter de les partager avec leur médecin. Cela n’empêche pas ces géants de négocier avec les hôpitaux. Ainsi, Facebook a conclu un partenariat avec le service radiologie de l’université de New York pour récupérer des données anonymisées sur les patients et entraîner l’algorithme qui pilotera son projet d’IRM.

Des millions de données de clients de GoDaddy compromises

Des millions de données de clients de GoDaddy compromises lors d’une attaque.

Le géant de l’enregistrement de noms de domaine et fournisseur d’hébergement GoDaddy a révélé hier à la Securities and Exchange Commission (SEC) qu’il avait subi une violation de sécurité. Cela montre aujourd’hui que la cybercriminalité est partout.

Dans sa notification, il explique avoir été compromis par un « accès tiers non autorisé à notre environnement d’hébergement Managed WordPress ». Le coupable inconnu à l’origine de l’attaque a volé jusqu’à 1,2 million de données de clients actifs et inactifs, notamment des adresses électroniques, des mots de passe d’administrateur WordPress originaux, des identifiants de protocole de transfert de fichiers sécurisés (sFTP) et de base de données, ainsi que des clés privées SSL.

La société a déclaré avoir pris des mesures pour sécuriser les comptes et l’environnement, notamment en réinitialisant les mots de passe et en empêchant le tiers non autorisé d’accéder à son système, et a indiqué qu’elle allait émettre de nouveaux certificats pour certains clients.

GoDaddy a d’abord détecté une activité suspecte dans son environnement d’hébergement Managed WordPress mercredi de la semaine dernière. Selon les premières investigations, l’intrus a utilisé un mot de passe compromis pour accéder à un code hérité dans l’environnement de GoDaddy afin de voler des données. Les enquêtes se poursuivent.

« Nous sommes sincèrement désolés de cet incident et de l’inquiétude qu’il suscite chez nos clients », a écrit Demetrius Comes, directeur de la sécurité informatique (CISO) de GoDaddy. « Nous, dirigeants et employés de GoDaddy, prenons très au sérieux notre responsabilité de protéger les données de nos clients et ne voulons jamais les laisser tomber. Nous tirerons les leçons de cet incident et nous prenons déjà des mesures pour renforcer notre système d’approvisionnement avec des couches de protection supplémentaires. »

Selon les chercheurs de Defiant Inc, développeurs de Wordfence-un plugin pour sécuriser les sites WordPress-GoDaddy a géré sFTP d’une manière qui ne suit pas les pratiques standard : « Il semble que GoDaddy stockait les informations d’identification sFTP soit en texte clair, soit dans un format qui pouvait être inversé en texte clair. Ils ont procédé ainsi au lieu d’utiliser un hachage salé ou une clé publique, qui sont tous deux considérés comme les meilleures pratiques de l’industrie pour sFTP. Cela permettait à un attaquant d’accéder directement aux informations d’identification du mot de passe sans avoir besoin de les craquer. »

Vous êtes client de GoDaddy ? Voici ce qu’il faut faire:
Si vous utilisez le service d’hébergement de GoDaddy et que vous ne savez pas si votre compte pourrait faire partie de ceux qui sont touchés, ne laissez pas cela au hasard. Agissez maintenant avant que quelqu’un ne profite de l’occasion pour prendre le contrôle de votre compte.

GoDaddy a fourni une bonne liste de mesures à prendre pour verrouiller un compte qui pourrait être potentiellement compromis :

Changez votre mot de passe et votre code PIN
Activez l’authentification à deux facteurs (2FA) si vous ne l’avez pas encore fait.
Modifiez les méthodes de paiement que vous avez enregistrées sur votre compte et supprimez celles que vous n’utilisez pas. Il serait également bon de garder un œil sur les transactions de votre compte bancaire et d’être prêt à signaler celles qui sont frauduleuses.
Supprimez l’accès délégué de toute personne que vous avez autorisée à accéder à votre compte.
Supprimez toute clé d’API inconnue en la supprimant.
Vérifiez que les coordonnées de votre domaine sont correctes pour éviter que quelqu’un ne s’en empare.
Déconnectez-vous à distance de votre compte GoDaddy, ce qui vous déconnectera de tous les appareils et navigateurs.
Soyez prudent !

SEO Agence est une agence web à Lille.

Ils détestent l’internet

Il y a trente ans cette semaine, le scientifique britannique Tim Berners-Lee inventait le World Wide Web au CERN, le centre européen de recherche scientifique. Autant dire que l’idée a décollé. Le Web a permis aux gens ordinaires de créer et de relier facilement des pages sur ce qui était alors un petit réseau. Le langage de programmation était simple et la publication était aussi simple que de télécharger quelque chose sur un serveur contenant quelques balises.

Il y avait un potentiel réel, démocratique et libérateur, et il n’est donc pas du tout surprenant que les gens – notamment Berners-Lee lui-même – choisissent de se souvenir et de célébrer cette époque. C’était l’époque avant les médias sociaux, la suprématie de FAANG et le capitalisme de plateforme, quand Internet n’était pas aussi dépendant de la surveillance et de la publicité qu’aujourd’hui. L’attention était plus largement distribuée. Le web a brisé l’emprise des médias audiovisuels et imprimés sur la diffusion des histoires. HTML ressemblait à une révolution.

Pas à tout le monde, cependant. Quelques années seulement après la création d’Internet, un ensemble de critiques virulentes, notamment dans Resisting the Virtual Life, une anthologie de 1995 publiée par City Lights Books, se sont élevées pour remettre en question les idées qui sous-tendaient la technologie, comme les groupes précédents l’avaient fait avec d’autres technologies antérieures. Ce n’était pas la farce de l’essai Newsweek de Clifford Stoll affirmant qu’Internet était fondamentalement nul. Il s’agissait de critiques plus profondes sur le type de société qui construisait Internet et sur la façon dont les valeurs dominantes de cette culture, une fois encodées dans le réseau, généreraient de nouvelles formes d’oppression et de souffrance, au pays et à l’étranger.

Resisting the Virtual Life s’attaque à « la nouvelle machinerie de domination », envisage un « monde ingouvernable », considère les possibilités discriminatoires de la collecte de données, répertorie l’injustice du genre en ligne, examine le « monde masculin des ingénieurs en logiciel », déplore la « réduction de l’espace public », spécule sur « la forme de la vérité à venir », et propose même une voie démocratique à suivre. Ses essais prévoyait l’instabilité économique qu’Internet pourrait apporter, comment le «culte du garçon ingénieur» finirait par envahir la vie de chacun et les implications de la création d’énormes quantités de données personnelles pour le traitement des entreprises. « Qu’est-ce qui pourrait mal tourner avec le Web ? » ont demandé les auteurs. La réponse qu’ils ont trouvée était : beaucoup. Ils s’appelaient eux-mêmes « la résistance ».

C’était avant que Jeff Bezos ne soit l’homme le plus riche du monde. C’était avant Facebook, avant l’iPhone, avant le Web 2.0, avant que Google ne devienne public, avant l’effondrement des dot-com, avant la bulle dot-com, avant que presque tout le monde en dehors de la Finlande envoie des SMS. Dix-huit millions de foyers américains étaient « en ligne » dans le sens où ils avaient America Online, Prodigy ou CompuServe, mais selon le Pew Research Center, seulement 3% avaient déjà vu le Web. Amazon, eBay et Craigslist venaient de se lancer. Mais les critiques dans Resisting the Virtual Life sont désormais monnaie courante. Vous en entendez parler Facebook, Amazon, Google, Apple, l’écosystème de start-up soutenu par le capital-risque, l’intelligence artificielle, les voitures autonomes, même si l’Internet de 1995 n’a presque aucune ressemblance, techniquement ou institutionnellement, avec l’Internet de 2019.

Peut-être qu’un mouvement technologique majeur commence à s’accélérer, mais avant que son langage, son pouvoir d’entreprise et son économie politique ne commencent à déformer la réalité, un bref moment se produit lorsque les critiques voient le plein et terrible potentiel de tout ce qui arrive dans le monde. Non, la nouvelle technologie n’apportera pas une vie meilleure (du moins pas seulement cela). Il y aura des perdants. L’oppression se frayera un chemin jusque dans les espaces apparemment les plus libérateurs. Le non commercial deviendra accro à une vaste machine à profits. Les personnes de couleur seront discriminées de nouvelles manières. Les femmes auront de nouveaux travaux en plus des anciens. La recombinaison d’horreur d’anciens systèmes et cultures avec de nouvelles surfaces et entrailles technologiques est visible, comme le visage robotique à moitié détruit d’Arnold Schwarzenegger dans Terminator 2.

Ensuite, si l’argent et les gens commencent vraiment à affluer dans la technologie, la résistance sera balayée, poussiéreuse et tousse alors que ce qu’on appelle le progrès se précipite.

Dans le monde de gauche post-2016, le socialisme est de retour et les ordinateurs sont mauvais. Mais les ordinateurs ont été mauvais avant, et, ce n’est pas une coïncidence, lorsque divers socialismes étaient populaires.

Bien avant Internet et Resisting the Virtual Life, les gens se sont battus contre l’idée même d’ordinateurs – les mainframes, au départ – à partir des mouvements étudiants des années 1960. Ce n’était pas du pur luddisme ; les ordinateurs étaient, littéralement, des machines de guerre. A Stanford, alors foyer de radicalisme, les étudiants ont organisé des sit-in et occupé des bâtiments administratifs. Alors même que la guerre du Vietnam refluait, beaucoup à gauche craignaient que la technologie sous forme d’informatisation et d’automatisation détruise les emplois de la classe ouvrière, aide les patrons à écraser les syndicats et aggrave la vie professionnelle de ceux qui restent en emploi.

Mais alors que les années 1970 se sont glissées dans les années 1980, une partie de la puanteur militaro-industrielle a commencé à déteindre. Un ordinateur qui crachait les prédictions de la guerre du Vietnam pour Robert McNamara était une chose, mais qu’en est-il d’un réseau d’ordinateurs qui permet à quiconque de parcourir une frontière numérique, s’associant avec qui il veut au-delà des frontières nationales ou des identités établies ? Le sens de l’informatique en réseau a commencé à changer. Ces 1 et 0 pourraient être pliés à la liberté.

« Pour une génération qui avait grandi dans un monde assailli par des armées massives et par la menace d’un holocauste nucléaire, la notion cybernétique du globe en tant que modèle d’information unique et interconnecté était profondément réconfortante : dans le jeu invisible de l’information, beaucoup pensaient ils pouvaient voir la possibilité d’une harmonie mondiale », a écrit Fred Turner dans From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism.

Le livre de Turner commence par une question : « Comment la signification culturelle des technologies de l’information a-t-elle changé si radicalement ? » depuis la guerre du Vietnam jours de protestation au début du boom des dot-com ? Et sa réponse est qu’un ensemble de personnalités de la Bay Area, dirigée par Stewart Brand, qui a fondé le Whole Earth Catalog, a transformé la notion d’ordinateur d’infrastructure militaro-industrielle en outil personnel dans les années 1970.

Brand a positionné ces technologies comme une aubaine non pas pour les bureaucrates calculant les trajectoires des missiles, mais plutôt pour les hackers qui planifient des manœuvres gagnantes dans les jeux vidéo. Dans Rolling Stone, il a déclaré l’arrivée de l’informatique « une bonne nouvelle, peut-être la meilleure depuis les psychédéliques ».

Cela a aidé les États-Unis à entrer dans une période que l’historien Daniel Rodgers a appelée « l’âge de la fracture ». Les institutions, collectivités et solidarités américaines se sont effondrées au profit d’un modèle d’action de consommation sauvagement individualiste. « On entendait moins parler de société, d’histoire et de pouvoir que d’individus, de contingence et de choix », a écrit Rodgers. « L’importance des institutions économiques a cédé la place à des notions de flexibilité et d’instantanéité marchés agissant.

Le monde était un endroit où les individus pouvaient faire des choix, et ce dont ils avaient besoin pour faire de meilleurs choix, c’était de plus d’informations. Les informations étaient stockées dans des ordinateurs et, par conséquent, la mise en réseau des individus les uns aux autres conduirait à de nouvelles formes d’action collective.

Apple et son charismatique vendeur Steve Jobs étaient là pour commercialiser cette nouvelle idée de l’ordinateur. Les passionnés de technologie libéraux tels qu’Al Gore et les passionnés de technologie conservateurs tels que Newt Gingrich ont rejoint le mouvement pour créer un nouveau consensus selon lequel le seul rôle du gouvernement dans l’industrie serait de créer un environnement favorable au développement des entreprises Internet et des communautés de niche.

Ainsi, lorsque Berners-Lee a écrit sa proposition de 1989 pour le Web, le monde était prêt. Fait révélateur, une rupture institutionnelle a motivé son désir d’un système hypertexte. Les gens n’arrêtaient pas de quitter le CERN et d’emporter des informations avec eux. La mémoire organisationnelle manquait. Parallèlement, des systèmes de création cette mémoire exigeait que les gens acceptent certaines hiérarchies d’informations et de taxonomies de mots clés, ce qu’ils répugnaient à faire. Sa réponse à ce problème est devenue radicalement individuelle : n’importe qui pouvait créer une page et créer un lien vers n’importe quoi. Faites en sorte que suffisamment de personnes le fassent, et le volant de la création de contenu continuerait de tourner. Aucune institution requise. Sans tabou. C’était la liberté personnelle, telle que mise en œuvre dans un protocole réseau.

Les premiers partisans d’Internet ont vu tout ce potentiel. Ils ont jailli dans les pages de Wired, dont le siège est au sud de Market Street, à San Francisco, longtemps un quartier défavorisé de la ville. Mais de l’autre côté du marché et jusqu’à Columbus Avenue, au cœur de North Beach, où les beatniks vieillissants avaient encore quelques petits achats, les poètes et les écrivains de la librairie City Lights n’ont pas été influencés.

« Il existe des alternatives à l’utopie capitaliste de la communication totale, de la lutte des classes réprimée, SEO Agence et des profits et du contrôle toujours croissants qui oublient plutôt que résolvent le problème central. problèmes de notre société », ont écrit James Brook et Iain Boal, les éditeurs de Resisting the Virtual Life. Ces problèmes étaient évidents : « les gens étaient répartis dans des enclaves et des ghettos, des antagonismes de classe et raciaux croissants, des services publics en déclin (y compris les écoles, les bibliothèques et les transports), le chômage causé par l’automatisation et l’errance du capital, etc. »

Et pourtant, pour la plupart des gens, l’ordinateur personnel et l’Internet émergent ont masqué les forces structurelles sous-jacentes de la société. « Les ordinateurs ‘personnels’ et les CD-ROM circulent comme des fétiches pour les adorateurs du ‘libre marché’ et de ‘la libre circulation de l’information’ », ont écrit Brook et Boal.

Ils savaient qu’ils étaient confrontés à « beaucoup – on pourrait dire » tout « – » en essayant de rassembler la résistance à l’explosion d’Internet. Mais leur objectif n’était pas nécessairement de gagner, mais plutôt de « s’attaquer à un objet presque innommable – « l’ère de l’information », « l’autoroute de l’information », « le cyberespace », la « virtualité » et les variantes perspective démocratique.

C’est presque comme s’ils voulaient marquer pour les générations futures qu’il y avait des gens – toutes sortes de personnes différentes – qui ont vu les problèmes. « Résister à la vie virtuelle entend apporter des correctifs plus profonds que ceux générés par les mécanismes de rétroaction cybernétiques du » marché des idées «  », ont écrit les éditeurs, « où les défauts scandaleux sont toujours répondus par des pseudocritiques qui nous assurent que tout va bien, sauf pour les bogues inévitables que le système lui-même corrigera.

Les essais dans le livre sont inégaux, comme vous pouvez vous y attendre. Mais certains d’entre eux sont étonnamment prémonitoires. Dans « C’est la discrimination, stupide ! » qui se lit comme une préquelle à L’ère du capitalisme de surveillance de 2018, le professeur de l’Université de Californie du Sud, Oscar H. Gandy Jr., affirme que « les informations personnelles sont utilisées pour déterminer les changements de notre vie dans notre rôle de citoyens ainsi que dans nos vies d’employés et les consommateurs. Dans une réflexion puissante sur le paysage de la Silicon Valley, Rebecca Solnit conclut que, en tant que lieu, il s’agit d’un nulle part, mais lié par des chaînes d’approvisionnement aux changements à travers le monde. Le professeur de communication et critique des médias de l’Université de Californie à San Diego, Herbert Schiller, souligne comment Internet pourrait réduire le pouvoir des États-nations, les affaiblissant tandis que les sociétés transnationales se renforcent. Des armées améliorées électroniquement pourraient-elles retenir le peuple, écrit-il, « alors que des forces économiques d’initiative privée contribuent à une distribution des revenus extrêmement disproportionnée et à une utilisation des ressources gravement déformée, localement et mondialement ?

Et Ellen Ullman, qui a continué à critiquer le monde de la technologie de l’intérieur, aurait peut-être fait la critique la plus parfaite de la façon dont le désir humain de commodité régirait la façon dont la technologie était perçue. « L’ordinateur est sur le point d’entrer dans nos vies comme du sang dans les capillaires », a-t-elle écrit. « Bientôt, partout où nous regardons, nous verrons de jolies interfaces à l’épreuve des idiots conçues pour nous faire dire ‘OK’. »

Le à la demande l’économie régnerait. « Nous n’avons besoin d’impliquer personne d’autre dans la satisfaction de nos besoins », a-t-elle écrit. « Nous n’avons même pas besoin de parler. » A l’intérieur de ces programmes se serait introduit « le culte du garçon ingénieur », « seul, hors du temps, dédaigneux de toute personne éloignée de la machine ».

Si ces critiques d’une autre époque semblent avoir catalogué tout ce qui pouvait mal tourner, ils avaient aussi le sentiment que les choses pouvaient se passer différemment. L’écrivain et historien Chris Carlsson, par exemple, a vu de l’espoir dans le potentiel d’organisation des communautés en ligne. « Les fils de subversion que nous tisons si discrètement aujourd’hui doivent trouver leur chemin pour transformer les vies autodestructrices, brutales et déshumanisantes que nous menons au travail, à l’école et dans la rue », a-t-il écrit. « La confiance que nous accordons aux liens électroniques doit à nouveau trouver un foyer commun parmi nos liens sociaux, jusqu’à ce que les « expériences » électroniques prennent leur juste place en tant que compléments d’une vie humaine riche et variée.

Puis encore, il a reconnu qu' »il est plus facile d’imaginer beaucoup de verbiage vide et inutile volant dans le monde électronique, égalé uniquement par les piles de données recueillies par nos institutions corporatives et gouvernementales ».

Depuis les élections de 2016, à la fois son déroulement et ses résultats, les Américains se sont engagés dans une nouvelle lutte pour comprendre comment Internet a changé leur pays et le monde. Il n’est tout simplement pas possible de célébrer la naissance du web sans reconnaître que la cyber-utopie n’est jamais arrivée. Regardez le comportement de nombreux titans de la technologie au cours des dernières années et vous verrez à la fois des défauts scandaleux ainsi que des « pseudocritques qui nous assurent que tout va bien ».

Dans ce long moment de réévaluation, l’industrie et ses produits ont été attaqués sous presque tous les angles : de l’intérieur et de l’extérieur, local et mondial, économique et social, législatif et rhétorique, capitaliste et socialiste. Cela n’a pas empêché les profits de pleuvoir. Les plus grandes entreprises technologiques font partie du top 10 des plus valorisées entreprises dans le monde. Selon un classement du capital de marque, les quatre marques les plus fortes au monde sont Apple, Google, Amazon et Microsoft. Mais une fois que le consensus s’est évanoui sur le fait que la technologie Internet était égale au progrès, les gens à l’intérieur et à l’extérieur de l’industrie ont trouvé une source inépuisable de pratiques douteuses. Les gens traitent leur téléphone comme ils le faisaient autrefois avec des cigarettes.

Au fur et à mesure que des diagnostics sont posés et des suggestions faites, ces premières critiques valent la peine d’être rappelées précisément pour lutter contre la nostalgie d’une époque antérieure. Les germes de nos problèmes actuels liés à la technologie étaient évidents pour les critiques avec les yeux pour les voir en 1995.

Examiner l’histoire du Web pourrait donner lieu à un meilleur Internet à l’avenir, mais pas seulement en regardant ce que nous aimions au début. Les prémisses du Web primitif : valoriser le choix individuel, la liberté d’expression maximaliste et les réseaux virtuels dispersés ; en ignorant le pouvoir institutionnel et la politique traditionnelle – pourrait nécessiter une révision pour construire un nouveau web prosocial.

Référencement: les stratégies de contenu

Quel est le profil d’un spécialiste du marketing de contenu moderne, le meilleur de sa catégorie ? Par moderne, j’entends quelqu’un qui utilise les nouveaux outils et ressources (médias sociaux, vidéo et données) de concert avec les programmes de marketing traditionnels. Et par meilleur de sa catégorie, j’entends quelqu’un qui obtient des résultats concrets.

À quoi cela ressemble-t-il ? Que savent les grands spécialistes du marketing de contenu que vous ne connaissez pas ? Et surtout, que pouvez-vous leur voler afin de reproduire leurs succès dans votre propre entreprise ?

MarketingProfs et le Content Marketing Institute ont voulu le savoir. Le 1er octobre, nous avons publié notre cinquième étude annuelle,  » B2B Content Marketing : 2015 Benchmarks, Budgets and Trends-North America « , en examinant plus de 5 000 spécialistes du marketing dans 109 pays. Voici quelques points clés qui en ressortent.

Les grands spécialistes du marketing de contenu ont une stratégie documentée et la suivent de près. Selon l’étude, seuls 35 % des spécialistes du marketing de contenu ont une stratégie documentée (48 % disent en avoir une, mais elle n’est pas documentée). Soixante pour cent de ceux qui ont une stratégie documentée se considèrent comme des spécialistes du marketing de contenu efficaces, contre seulement 7 % de ceux qui n’ont pas de stratégie, écrite ou autre.

Une idée que vous pouvez voler : Définissez une stratégie de marketing de contenu pour vous-même, enregistrez-la et consultez-la fréquemment. Ne la laissez pas prendre la poussière sur une étagère métaphorique. Commencez par répondre à quelques questions de base sur votre entreprise et votre public : Qui voulez-vous atteindre ? Quelle valeur pouvez-vous apporter ? Comment allez-vous fournir cette information ? Qui va gérer le processus ? Comment allez-vous mesurer le succès et affiner vos efforts ?

Les grands spécialistes du marketing disposent d’une équipe dédiée au contenu. Moins de la moitié des spécialistes du marketing disposent d’un groupe dédié au marketing de contenu. Mais 69 % de ceux qui sont les plus efficaces en matière de contenu sont susceptibles de disposer d’un groupe structuré. (Ces structures peuvent varier. Certaines entreprises disposent d’une équipe de marketing de contenu qui fonctionne de manière indépendante ; dans d’autres cas, les membres de l’équipe de marketing se voient confier la responsabilité des fonctions de contenu de manière horizontale à travers les départements d’une entreprise).

Idée que vous pouvez voler : Donnez les moyens à une équipe dédiée (ou, dans le cas des petites entreprises, à une personne clé) d’être responsable du succès de votre programme de marketing de contenu et d’en rendre compte.

Les grands spécialistes du marketing utilisent un large éventail de tactiques et de plateformes de médias sociaux. Les meilleurs spécialistes du marketing moderne ne se contentent pas d’une ou deux approches pour atteindre et engager leur public. En fait, les plus efficaces utilisent en moyenne 14 tactiques et sept plateformes de médias sociaux.

Les tactiques utilisées par les spécialistes du marketing B2B comprennent les événements en personne, les webinaires ou les webcasts, les vidéos, les blogs, les études de cas, les livres blancs ou les livres électroniques, les rapports de recherche, les lettres d’information électroniques et les microsites. Les canaux sociaux les plus efficaces pour les spécialistes du marketing B2B sont (par ordre décroissant) LinkedIn, Twitter, Facebook, YouTube et SlideShare.

Une idée que vous pouvez voler : Créez une grande variété de contenus – et ne vous contentez pas des articles de blog ou des études de cas qui ont fait leurs preuves. Ayez un plan d’engagement/distribution varié sur les médias sociaux afin d’élargir votre champ d’action en ligne.

Les grands spécialistes du marketing de contenu publient régulièrement. Les spécialistes du marketing de contenu les plus efficaces publient du nouveau contenu quotidiennement, ou au moins plusieurs fois par semaine.

Une idée que vous pouvez reprendre : Créez un calendrier éditorial en prévoyant au moins trois mois (ou, idéalement, six mois). Si vous avez un plan pour savoir ce que vous allez publier et quand vous allez le faire, il est beaucoup plus probable que vous le fassiez réellement.

Les grands spécialistes du marketing de contenu dépensent plus pour le contenu. C’est une évidence : plus de budget, c’est un marketing plus efficace. Les spécialistes du marketing les plus efficaces consacrent, en moyenne, 37 % de leur budget marketing aux programmes de contenu.

Une idée que vous pouvez voler : Je suppose que c’est une directive facile à donner pour moi : Trouvez plus d’argent ! Au minimum, envisagez d’allouer un certain pourcentage de votre budget 2015 à un programme de contenu pilote (si vous n’en avez pas déjà un).

Les grands spécialistes du marketing de contenu itèrent et expérimentent. Les spécialistes du marketing de contenu les plus efficaces manigancent en permanence pour découvrir de nouvelles idées et de nouveaux processus, et pour améliorer et affiner ce qu’ils font déjà. Les plus performants travaillent sur plus d’une douzaine d’initiatives à la fois, notamment la création d’un contenu de meilleure qualité, l’amélioration des taux de conversion et de l’efficacité globale du contenu, la création d’un contenu plus visuel, la réimagination ou la réaffectation du contenu, la mesure du retour sur investissement et l’amélioration de la narration.

La bonne nouvelle, c’est que les spécialistes du marketing de contenu les moins efficaces sont ambitieux : ils prévoient de travailler sur un plus grand nombre d’initiatives en 2015 que leurs homologues déjà compétents – en moyenne neuf, contre six.

SEO Agence est une agence SEO à Lille.

L’utilisation de l’IA pour le marketing

Le marketing avec l’IA (intelligence artificielle) peut sembler fantaisiste ; le terme est utilisé dans les textes publicitaires des outils marketing par les gourous du marketing et médiatisé par les médias. Bien que le battage médiatique autour de ce que l’IA pourrait faire au cours des prochaines années soit surestimé, la réalité de la façon dont elle est utilisée aujourd’hui dans le marketing est souvent sous-estimée.

• Google utilise l’apprentissage en profondeur pour classer les résultats de recherche.

• Amazon utilise le traitement du langage naturel pour Alexa.

• Facebook utilise la reconnaissance faciale pour suggérer qui taguer sur les photos.

• Le Washington Post utilise la génération de langage naturel pour rédiger des articles axés sur les données.

• Netflix utilise l’apprentissage automatique pour personnaliser les recommandations de ses utilisateurs.

Ainsi, nos vies sont déjà assistées par machine, et de la même manière, le marketing peut l’être aussi.

5 plates-formes pouvant être exploitées pour le marketing à l’aide de l’IA
Votre équipe marketing perd son avantage concurrentiel tant que vous retardez l’utilisation d’outils marketing innovants basés sur l’IA. Les systèmes artificiellement intelligents fonctionnent en permanence sur le fond de populaire produits et services tels qu’Amazon, Netflix et Google.

Ces dernières années, l’IA s’est lancée dans le marketing en aidant les marques à améliorer et à enrichir chaque étape du parcours de leurs clients. En outre, les outils qui étaient auparavant disponibles pour les entreprises au niveau de l’entreprise sont désormais devenus abordables et accessibles aux moyennes et petites entreprises.

Voici cinq façons dont l’IA peut être utilisée pour vos campagnes marketing :

1. Chatbots
Les applications de messagerie telles que WhatsApp, Viber et Facebook Messenger ont permis aux clients de contacter plus facilement les entreprises et les entreprises pour des demandes de renseignements, des achats ou des réclamations. Ces applications sont gratuites et faciles à utiliser. Cependant, la triste réalité de l’utilisation de ces applications pour les entreprises, en particulier les grandes marques, est qu’il peut être difficile de répondre à chaque fois qu’un client envoie un message. De plus, cela peut devenir fastidieux lorsque vous devez répondre à des milliers de messages pendant vos heures de travail, et la plupart d’entre eux vous posent la même question !


Un chatbot est un programme d’IA qui peut simuler une conversation avec un utilisateur en langage naturel. Cela aide les entreprises à suivre leurs clients et à répondre à leurs questions. Désormais, les grandes marques peuvent définir des réponses prédéterminées aux questions fréquemment posées par leurs clients. Et aussi, les chatbots peuvent aider vos clients à trouver et à acheter un produit qu’ils aiment. Tout cela réduira considérablement le temps nécessaire à l’intervention humaine et à la réponse, ce qui vous fera économiser du temps et de l’argent.

2. Génération de contenu
Nous savons tous à quel point la génération manuelle de contenu est un processus fastidieux. Maintenant, imaginez avoir un site Web qui peut générer son propre contenu. Vous n’avez pas besoin d’embaucher des écrivains ou des éditeurs car vous aurez un site autonome qui peut vous rapporter de l’argent.

Les algorithmes d’apprentissage automatique de l’IA peuvent vous faciliter la vie en tant que spécialiste du marketing, et c’est ce qu’on appelle la génération de contenu. Malheureusement, il ne peut pas créer d’articles longs et écrits avec éloquence par des leaders de l’industrie, des PDG, des blogueurs et d’autres écrivains talentueux qui offrent des connaissances approfondies sur un sujet donné. sujet.

Une génération ou une rédaction de contenu ne peut que produire de simples rapports financiers, des mises à jour boursières, des actualités sportives, etc. Cependant, si vous avez besoin d’aide pour générer du contenu personnalisé pour votre site Web, utilisez l’intelligence de contenu. Il fournit aux créateurs des retours et des informations basés sur les données pour un contenu efficace qui donnera de meilleurs résultats.

3. Ciblage publicitaire programmatique
Il s’agit d’automatiser tout ou partie du processus d’achat d’annonces en utilisant une technologie pilotée par logiciel. La manière traditionnelle d’acheter/vendre des annonces est un processus long et fastidieux qui commence par parler à un vendeur, définir les termes d’un contrat et enfin l’exécuter. Cependant, l’IA dans le marketing numérique transforme la manière conventionnelle en un simple processus automatisé.


L’IA utilise les données des cookies des sites Web et des applications mobiles utilisés ou visités par les utilisateurs pour cibler des clients spécifiques qui correspondent aux critères de l’annonceur ou des entreprises. En cas de match, le système d’achat d’annonces enchérit automatiquement sur le impression et montrer le contenu gagnant de l’utilisateur.

Les publicités Facebook permettent aux spécialistes du marketing et aux annonceurs d’utiliser l’analyse de données dans le marketing numérique pour créer des profils personnalisés afin de cibler et de recibler leurs publicités. Notez qu’il s’agit des données que vous partagez sur les plateformes de médias sociaux lorsque vous cliquez sur pour accepter le contrat de licence d’utilisateur final (CLUF).

4. Tarification dynamique
Il s’agit d’utiliser une stratégie de prix personnalisée, dans laquelle sa demande et/ou son offre détermine le prix d’un produit ou d’un service. Par exemple, les prix des applications de covoiturage augmentent à mesure que la demande augmente. Un bot de site Web ou d’application peut surveiller les analyses prédictives de vos clients à l’aide de leurs recherches, de leur historique, de leurs cookies et d’autres activités pour leur fournir des prix en temps réel. Cependant, cela pourrait signifier qu’ils obtiennent des prix plus élevés ou moins de remises pour les services ou les produits dont ils ont besoin pour le moment. Même si cela semble injuste, il y a toujours deux côtés à une histoire.

Vos clients peuvent bénéficier de la tarification dynamique lorsque la demande d’un produit ou service est en panne. Par exemple, lorsque des chambres d’hôtel ne sont pas vendues, la tarification dynamique peut offrir des prix compétitifs pour attirer les clients et aider à réduire les chances de vacance.

5. Reconnaissance vocale
À l’heure actuelle, nous avons des IA avec des capacités de reconnaissance vocale qui peuvent reconnaître les mots prononcés et les convertir en texte pour exécuter la commande. Alexa, Siri et Google Assistant sont parmi les chatbots les plus populaires qui utilisent la technologie de reconnaissance vocale. De plus, la reconnaissance vocale est utilisée dans des applications telles que Google Maps, Shazam et d’autres systèmes mains libres.

Mais comment les marketeurs peuvent-ils tirer parti de la reconnaissance vocale pour leurs campagnes ? On estime qu’environ 55 % des ménages auront un haut-parleur intelligent d’ici 2022, contre 13 % en 2018. En outre, les ventes des achats vocaux devraient atteindre 40 milliards USD en 2022, contre 2 milliards USD en 2018. Sur cette base données, les spécialistes du marketing ne devraient pas manquer l’utilisation de la reconnaissance vocale dans leurs campagnes marketing.

Derniers mots
Compte tenu de tout ce qui précède avantages de l’IA Marketing, cybercriminalité cela signifie-t-il que l’IA prendra bientôt le relais des marketeurs et des créateurs de contenu ? Bien que l’apprentissage automatique améliore considérablement son algorithme, vous pouvez être rassuré pour les prochaines années, car les IA sont encore loin d’être parfaites.

Néanmoins, l’IA dans le marketing est un outil puissant qui permet aux entreprises d’interagir avec chaque client de manière personnalisée et significative. Il est temps de commencer à appliquer des produits d’IA et des techniques d’analyse marketing pour offrir des expériences personnalisées à vos utilisateurs. Cela aidera les spécialistes du marketing à obtenir de meilleurs résultats, augmentant éventuellement le retour sur investissement (retour sur investissement) de leur entreprise.

La recherche principale sur Bing est « Google »

La recherche principale sur Bing est « Google ». Ce qui en dit long sur la position de domination de Google sur le marché de la recherche sur internet.

Le terme le plus recherché sur Bing de Microsoft est « Google », déclare Google à un tribunal de l’Union européenne en faisant valoir que l’amende antitrust record de 4 milliards de livres devrait être annulée.

Le terme le plus recherché sur le moteur de recherche Bing de Microsoft est « Google », a déclaré Google à un tribunal de l’Union européenne.

Nous avons présenté des preuves montrant que la requête de recherche la plus courante sur Bing est de loin « Google » », a déclaré Alfonso Lamadrid, avocat de Google, au Tribunal de l’Union européenne à Luxembourg, comme l’a rapporté Bloomberg.

« Les gens utilisent Google parce qu’ils le choisissent, et non parce qu’ils y sont contraints », a ajouté M. Lamadrid. « La part de marché de Google dans la recherche générale est cohérente avec les enquêtes auprès des consommateurs qui montrent que 95 % des utilisateurs préfèrent Google aux moteurs de recherche rivaux. »

Google cherche à faire annuler une amende record de 4,3 milliards d’euros (5 milliards de dollars, 4 milliards de livres sterling) et une ordonnance antitrust qui a conclu que Google a injustement forcé les fabricants de téléphones mobiles Android à utiliser son application de recherche.

La Commission européenne a allégué que Google avait pris la décision stratégique de tirer parti de son logiciel Android pour assurer sa domination dans le domaine de la recherche.

Google fait toutefois valoir que son moteur de recherche est le plus populaire parce que les gens choisissent de l’utiliser.

Au moment de l’amende de 2018, Sundar Pichai, directeur général de Google, a déclaré qu’Android « a créé plus de choix pour tout le monde, pas moins ».

Margrethe Vestager, à l’époque commissaire européenne à la concurrence, a déclaré que Google avait forcé les fabricants de téléphones Android à préinstaller son application de recherche et son navigateur Web Chrome, et en avait payé certains pour s’assurer qu’il s’agissait de la seule application de recherche préinstallée, ce qui signifie que seulement 1 % des personnes ont téléchargé une alternative.

Ces accords montrent que Google a mis toutes les chances de son côté, a déclaré Nicholas Khan, avocat de la Commission européenne.

« Google s’octroie la couronne de laurier avant même que la course n’ait commencé », a-t-il déclaré. « L’ampleur des pratiques justifie entièrement l’amende qui a été infligée ».

Selon la société de référencement Ahrefs, « Google » est en effet le premier terme de recherche sur Bing dans le monde, suivi de « YouTube », « Facebook », « Gmail » et « Amazon ».

Dans les recherches provenant des États-Unis, « Facebook » est en tête, suivi de « YouTube », avec « Google » en troisième position.

Les chiffres montrent que « Bing » lui-même est la septième recherche la plus populaire sur Bing aux États-Unis, et la dixième dans le monde.

Bing est le moteur de recherche par défaut des navigateurs de Microsoft, ce qui signifie que tous les termes autres que les adresses web tapés dans la barre d’adresse URL conduisent par défaut l’utilisateur à une page de résultats de recherche Bing.

SEO Agence est une agence en référencement naturel à Lille.

Google lance son « dark mode » pour PC

Google a récemment mis en place un thème sombre pour les pages de Google Search sur le bureau. Le mode sombre pour ses applications de recherche sur Android et iOS existe depuis un certain temps déjà.

Désormais, vous pouvez officiellement appliquer un thème sombre à la page d’accueil de Google également. Google indique que cette fonctionnalité sera déployée au cours des prochaines semaines. Dans cet article, nous allons voir comment vous pouvez activer les thèmes sombres pour la recherche Google sur PC et sur les smartphones.

Voici comment vous pouvez facilement activer le mode sombre pour la recherche Google sur PC en suivant ces étapes simples :

  1. Allez sur www.google.com
  2. Cliquez sur le bouton Paramètres dans le coin inférieur droit.
  3. Cliquez sur Paramètres de recherche
  4. Cliquez sur Apparence sur la gauche
  5. Choisissez Sombre et cliquez sur Enregistrer

Dans les paramètres d’apparence, vous pouvez également choisir Device default, qui définira le mode clair ou le mode foncé en fonction des paramètres du système. Une fois que vous avez défini le thème sombre sur la recherche Google, la page d’accueil Google, la page des résultats de recherche, la page des paramètres Google.

Vous pouvez également accéder à Paramètres > Paramètres de recherche et cliquer sur Thème sombre : Désactivé dans le menu contextuel.

Malheureusement, il n’y a pas d’option pour définir le mode sombre en fonction de l’heure de la journée, ce qui est une option courante pour les paramètres du mode sombre dans les apps et les services.

Si vous ne parvenez pas à trouver les nouveaux paramètres du mode sombre de la recherche Google, cliquez sur ce lien qui vous mènera directement aux paramètres d’apparence.

SEO AGENCE est une agence web à Lille.

L’importance des liens contextuels

Cette semaine, deux chercheurs de Google ont répondu à des questions sur l’emplacement des liens sur une page Web et sur la différence entre les liens dans le corps du texte et les liens dans le pied de page, l’en-tête, le contenu de base, etc.

Zineb de Google a répondu à cette question sur Twitter en français :

je laisserai faire l’algo. Les liens sitewide en footer ou en header n’ont pas un très grand poids en général.
Je laisserai faire l’algo. Les liens sitewide header et footer n’ont pas un très grand poids en général.

Google semble donc accorder moins de poids aux liens d’en-tête et de pied de page dans l’ensemble du site, ce qui relève du bon sens pour la plupart d’entre vous.

Est-il important que la zone de contenu principal contienne beaucoup de liens vers des domaines externes et peu de liens vers d’autres pages du même domaine ? Est-ce que cela dégrade la qualité de cette page ?
D’une part, il s’agit de la zone de la page où se trouve le contenu principal, le contenu sur lequel porte la page, et non le menu, la barre latérale, le pied de page ou l’en-tête…

C’est donc un élément que nous prenons en compte et nous essayons d’utiliser ces liens.

L’autre chose à garder à l’esprit est que vous devez vous assurer que la structure des liens est claire sur votre site. Cela peut arriver si vous avez une structure claire avec une barre latérale, un menu…

Mais si vous n’avez pas de structure de liens claire, et que nous ne trouvons qu’un tas de liens vers des sites externes, il se peut que nous ne puissions pas vraiment explorer le reste de votre site correctement parce que nous ne pouvons pas le découvrir correctement.

Pour en savoir plus, nous vous renvoyons sur l’article relatif au Netlinking, de l’agence spécialiste SEO Inside.

Avoir une bonne stratégie de référencement

Dans cette industrie, nous passons beaucoup de temps à échanger des tactiques et des idées de référencement pour un bénéfice mutuel.
C’est une chose merveilleuse. Toutes les industries ne le font pas.
Malheureusement, nous investissons moins de temps à discuter de la façon de développer nos propres stratégies de référencement.
Bien que chaque stratégie de référencement soit – et devrait être – différente, il existe une stratégie sous-jacente pour développer des stratégies.
Voici cinq choses dont chaque stratégie de référencement a besoin.

  1. Une carte mentale
    Une carte mentale est un endroit pour construire votre stratégie à partir de zéro. Une carte mentale est simplement une série de catégories ramifiées, s’étendant généralement du centre, passant de catégories plus générales à des catégories plus spécifiques, les idées devenant plus granulaires.
    Ce n’est pas une visualisation de votre stratégie finale. Une carte mentale existe non pas pour vous aider à présenter votre plan, mais pour vous aider à y réfléchir.
    Les cartes mentales sont des outils qui vous aident à envisager votre processus de réflexion d’une manière qui vous permet de combiner plus facilement les idées en vous aidant à voir comment elles s’intègrent dans leur ensemble. Ils aident à réduire la charge que votre stratégie impose à votre mémoire de travail afin que vous puissiez vous concentrer sur la réflexion et le brainstorming.
    Vous pouvez utiliser un outil comme Mind Meister, ou vous pouvez simplement noter vos idées lorsqu’elles vous parviennent au format visuel.
    Le principal avantage de l’utilisation d’une carte mentale est sa capacité à vous aider à penser de manière non linéaire.
    L’utilisation d’une carte mentale vous permet de tout voir à la fois, dans une structure qui ressemble à la manière en réseau de fonctionner avec votre véritable cerveau, donc je vous suggère fortement d’en utiliser une lorsque vous développez votre stratégie SEO.
  2. Une représentation visuelle
    Une fois votre stratégie plus concrète, vous aurez besoin d’un document plus approfondi et professionnel que votre carte mentale.
    Gardez à l’esprit ce qu’est une stratégie: un plan.
    Cela signifie que vous avez des objectifs, des tâches spécifiques attachées à ces objectifs, certaines tâches qui doivent précéder d’autres, des tâches récurrentes qui devront être itérées et affinées, et des sous-tâches qui deviendront plus nombreuses et spécifiques au fil du temps.
    Vous devez être en mesure de présenter tout cela rapidement et facilement à votre client et à vos équipes, et vous devez le faire dans un format suffisamment simple pour que toutes les parties le comprennent et l’éditent.
    Vous pouvez utiliser Google Sheets, Trello, Workzone, Basecamp ou tout ce que vous préférez. L’outil spécifique n’est pas aussi important que votre méthode d’utilisation.
    Toutes les parties doivent savoir immédiatement comment lire le plan et apporter des modifications si nécessaire. Il doit également être clair:
    Quelle tâche est affectée à qui.
    Quelles tâches suivent la première.
    Quelles tâches sont récurrentes, planifiées, en cours et terminées.
  3. Une compréhension de l’entreprise
    Que vous soyez un SEO interne ou externalisé, vous devez avoir une solide compréhension de l’entreprise afin de réussir toute stratégie de référencement. Vous devez savoir quelles forces vous pouvez exploiter afin d’obtenir le plus de valeur SEO possible, quelles tactiques fonctionneront le mieux pour l’identité de marque et ce qui vous gêne.
    Voici quelques-uns des facteurs les plus importants à prendre en compte lors de l’élaboration de votre stratégie:
    Quelle est la proposition de vente unique du produit?
    Nous pouvons faire référence à une ligne de produits ou à un seul produit, mais quel que soit le cas, nous devons savoir ce qui rend notre entreprise différente pour que toute stratégie fonctionne. Cela aura un impact important sur les types de sensibilisation qui auront du sens, le type d’audience que nous voudrons cultiver, le type de mots clés que nous suivrons, et bien plus encore.
    Quelle est la vision de l’entreprise?
    Nous devons aller plus loin que de savoir dans quelle industrie nous sommes et que nous voulons être rentables, si nous voulons générer le type de vagues qui affectent la visibilité dans les moteurs de recherche. Creusez profondément dans cet énoncé de vision pour rechercher des idées qui guideront vos objectifs stratégiques et vos mesures. Si votre énoncé de vision ne le fait pas pour vous, vous voudrez peut-être envisager d’élaborer un nouvel énoncé de vision pour votre propre campagne, qui sert le but.
    Où l’entreprise souffre-t-elle vraiment en ce moment?
    C’est l’une de ces choses qui peuvent vous sembler évitables au début, mais qui s’infiltrent et déciment toujours une stratégie (ou un service ou un partenariat) de référencement si elle n’est pas annihilée. Comprenez ce que l’entreprise a vraiment besoin de voir et ne peut vraiment pas s’adapter avant de vous engager dans une stratégie.
  4. Une compréhension du public
    Vous devez savoir qui est votre public, ce qui signifie bien plus que les mots clés qu’il recherche.
    Voici quelques éléments que vous devez déterminer, soit en parlant à votre client, en sondant votre public, en parcourant certains hangouts Internet pertinents, ou tout ce qui précède et plus encore:
    Dans quelle mesure acceptent-ils le marketing, les ventes incitatives, etc.?
    Si vous avez déjà consommé quoi que ce soit dans l’industrie de l’entraide, vous avez peut-être remarqué à quel point les gourous sont à l’aise »dans cette industrie sont prêts à revendre leur public, même dépenser une partie dédiée d’une présentation payante pour la publicité de leurs autres produits. Alternativement, si vous avez déjà passé du temps à vous connecter à quoi que ce soit sur Reddit, vous savez qu’ils sont hypersensibles à tout type de promotion. C’est quelque chose dont vous devez être très conscient lorsque vous développez votre stratégie.
    Quel est leur niveau de connaissance?
    Parlez-vous à des gens qui savent tout sur leur sujet et qui riront de quiconque essaie de partager du matériel d’introduction? Parlez-vous à des gens qui sont complètement inconscients des jargons de l’industrie?
    Dans quelle mesure sont-ils proches de l’industrie?
    Votre public est-il consommateur (B2C) ou entreprise (B2B)? Ces personnes connaîtront-elles intimement votre industrie, ou presque entièrement en dehors de celle-ci? Sont-ils intéressés à mieux comprendre l’industrie ou se soucient-ils uniquement de la façon dont vos produits peuvent leur être utiles?
  5. Objectifs précis
    Pour qu’un objectif soit utile, il doit être précis, et pour qu’il soit précis, nous devons nous concentrer davantage sur les pièces de travail et leur assemblage que sur un montant particulier.
    Nous devons être délibérés lorsque nous choisissons nos métriques et KPI
    Oui, nous voulons que les revenus augmentent plus vite que les coûts, et oui, il peut être utile de se fixer un objectif financier. Nous devons certainement fixer des objectifs assortis de délais.
    Cependant, une stratégie consiste à atteindre des objectifs qui ont un impact spécifique sur l’entreprise, son orientation et son avenir, et le fonctionnement de l’entreprise elle-même. Cela signifie que nos mesures doivent refléter ce qui se passe avec les pièces de travail elles-mêmes. Cela pourrait signifier des liens et de l’autorité, cela pourrait signifier des classements, ou cela pourrait signifier du trafic de recherche organique.
    Le fait est que tout le monde devrait s’entendre sur les mesures qui ont du sens et pourquoi.
    Je crois fermement en la valeur des objectifs orientés tâche par rapport aux objectifs KPI. En effet, en particulier en ce qui concerne le marketing entrant et le référencement, notre impact sur les KPI est indirect. Pour cette raison, je crois en la fixation d’objectifs pour les projets, en respectant ces objectifs, puis en mesurant l’impact et en ajustant la stratégie en réponse.
    Il s’agit d’une approche qui est plus susceptible de conduire à des connaissances et à une optimisation réelle, au lieu de trouver des moyens de manipuler les KPI tout en perdant de vue l’impact à long terme.

SEO Agence est une agence conseil SEO à Lille.