Vérifiez autour de vous, SEO Agence hommes et femmes de votre ligne. Les chenilles Ils sont presque partout. La plupart des visiteurs de sites Web ne sont pas des êtres humains, mais ils sont en quelque sorte des robots d’exploration ou des plans créés pour réaliser des activités programmées. Ce sont les abeilles personnels de votre Internet, ainsi que les hommes de main. Certains robots supportent la mise à jour de votre Fb ou déterminent comment positionner les résultats finaux de la recherche sur Internet; d’autres robots imitent des êtres humains et exécutent des épisodes désastreux de DDoS. Globalement, les robots d’exploration – négatifs et positifs – sont responsables de 52% du trafic en ligne, selon un enregistrement alternatif via le secteur de la sécurité Imperva, qui publie une évaluation annuelle du processus de bot sur Internet. La statistique de 52% est importante car elle représente un pourboire de votre balance depuis la déclaration de l’année précédente selon laquelle le trafic de sites Web humains a dépassé le trafic de robots pour la première fois, puisque pas moins de 2012, quand Imperva a commencé à suivre l’action des robots l’Internet. L’enquête la plus récente, qui repose sur une évaluation de près de 17 milliards de dollars de visites de sites Web provenant de plus de 100 000 domaines, montre que les robots sont en tête du classement. En plus de cela, des chenilles dangereuses gardent le flanc autour des robots d’assistance, qui étaient respectivement responsables de 29% et de 23% du trafic en ligne. «La statistique la plus déconcertante de cette déclaration est également la tendance la plus constante qu’elle observe», déclare Igal Zeifman, directeur de la publicité et du marketing d’Imperva, dans un article sur l’enquête. «Au cours des 5 dernières années, chaque troisième visiteur du site Web était un bot d’attaque.» Dit autrement: plus de 94% des 100 000 domaines inclus dans la déclaration qualifiaient au moins une attaque de bot sur une période de 90 jours ouvrables. dans l’avis de Imperva. Les sites Web qui peuvent être moins populaires, analysés par les visiteurs, ont tendance à attirer davantage de sessions de crawlers. Zeifman a publié: «Les bons robots exploreront votre site Web et les mauvais robots tenteront de le déchiffrer, peu importe à quel point il est apprécié par les hommes. Ils continueront probablement même à visiter un site en l’absence de tout trafic individuel ciblé. »
Les effets secondaires des GAFAs
Attention aux effets secondaires des GAFA
Partenariats avec des laboratoires pharmaceutiques, rachats de sociétés du secteur, développement d’applications dédiées… Depuis quelques mois, les géants du numérique Google, Apple, Facebook, Amazon, Tencent, IBM, Alibaba, Microsoft et d’autres multiplient les incursions dans le secteur de la santé. Tout comme ils le font dans tant d’autres secteurs ? Pas exactement. Le secteur de la santé représente pour eux un enjeu bien plus important que ceux de l’industrie, de la distribution ou de la finance. Pour des raisons que Lambert Lacoste, responsable de mission Santé au cabinet conseil Alcimed, explique : « Il y a d’abord un élément contextuel : le numérique est désormais partout. De fait, les géants du numérique sont de plus en plus présents dans nos vies et, donc, dans notre santé. Ensuite, la médecine du futur repose essentiellement sur les données et, aujourd’hui, les experts en matière de collecte et d’exploitation des données, ce sont eux, pas les industriels de la santé ! » S’ajoute à cela la perspective d’un marché mondial qui croît en moyenne de 5,4 % par an et qui devrait atteindre 10 000 milliards de dollars en 2022, selon le cabinet Deloitte. Le marché de la santé est particulièrement hétérogène. Il va des hôpitaux, des cliniques et de la médecine de ville à l’analyse du génome et à l’imagerie, en passant par les médicaments, les traitements les plus avancés, le soin aux personnes âgées, les assurances et les mutuelles. Quel que soit leur métier, tous les acteurs partagent une certitude : la médecine de demain sera prédictive, préventive, personnalisée et participative. Et c’est grâce au numérique qu’il sera possible de mettre en œuvre cette médecine baptisée « 4P ». « Les géants du numérique sont les mieux placés pour répondre aux besoins dans ce domaine, confirme Arielle Le Bail, analyste chez Fabernovel. Ils possèdent à la fois le savoir-faire et les plates-formes. Si, par exemple, tous les examens sont réunis dans le dossier numérique d’un patient et accessibles facilement aux médecins, il n’est pas utile de les refaire. Cela se traduit par des économies et par une plus grande efficacité. » Jérémy Taïeb, chef de projet chez Fabernovel, qui a étudié l’écosystème de santé avec elle, cite un autre exemple : « En 2017, la revue Health Management Technology estimait à 150 milliards de dollars par an le coût lié au fait de ne pas se présenter aux rendez-vous médicaux et à ses conséquences rien qu’aux Etats-Unis. Gérer une plate-forme de prise de rendez-vous et de suivi en ligne est typiquement ce qu’une entreprise du numérique sait faire ! »
Une assistance médicale virtuelle
En matière de santé, les bénéfices du numérique sont nombreux et très variés. Le système cognitif Watson d’IBM assimile des millions d’informations en quelques secondes et propose un diagnostic ou un traitement que le médecin affine en fonction du patient. L’Apple Watch, grâce à un capteur, surveille le rythme cardiaque d’un patient et peut alerter son médecin en cas de problème. Alexa, l’assistant vocal d’Amazon, soulage les médecins en répondant aux questions simples que les Britanniques posent au NHS, le service de santé publique, et, à en croire un brevet récemment déposé par Amazon, il serait bientôt en mesure de détecter une maladie en analysant la voix de la personne qui appelle. Facebook a pour sa part développé un algorithme de prédiction des suicides qui analyse les messages postés sur le réseau social et met la personne en relation avec un service d’aide et de prévention. Tencent, désigné champion national dans le domaine de la santé par le gouvernement chinois, permet aux patients de prendre rendez-vous et de réserver leur chambre à l’hôpital via la messagerie WeChat. Toutes ces applications sont rendues possibles par la conjonction des algorithmes d’intelligence artificielle (IA), des plates-formes numériques du Cloud et, surtout, par la disponibilité de grands volumes de données qu’il est possible d’analyser. Autant d’atouts qui sont dans les mains des géants du numérique.
Vers une privatisation des savoirs ?
Seuls 11% des Américains seraient prêts à partager leurs données avec les GAFA.
A première vue, ces applications sont plus que positives pour tout le monde. Elles améliorent la qualité des soins et le confort des patients. Elles facilitent le travail des praticiens en leur apportant au bon moment les informations pointues dont ils ont besoin. Elles contribuent à réduire les dépenses de santé en optimisant les traitements et leur observance, en évitant des hospitalisations ou tout au moins en réduisant leur durée au strict nécessaire. Pourtant, l’intérêt des grandes entreprises du numérique pour la santé et la médecine commence à inquiétercertainsobservateurs.«La question que nous devons nous poser en tant que société est : voulons-nous que les savoirs en matière de santé soient privatisés ou qu’ils deviennent un bien public ? » n’hésite pas à interroger Bart De Witte. DansuneinterviewaumagazineThe Innovator, cet ancien directeur de la santé numérique chez IBM et titulaire de la chaire de médecine du futur à Futur/io, un institut européen de recherche, explique qu’on dispose à présent de suffisamment de données pour nourrir les algorithmes d’IA, qui deviennent de plus en plus intelligents et opérationnels, et peuvent vraiment transformer les connaissances en médecine. Mais les investissements dans ce domaine sont actuellement réalisés par le privé – en grande partie par les géants du numérique – et le risque existe de voir ces connaissances peu à peu privatisées. Bart De Witte propose de créer une plate-forme sans but lucratif où les algorithmes développés seraient en accès libre, en mode open source, « sans quoi, SEO la santé risque de ne plus être accessible à tous »… Les initiatives des géants du numérique suscitent aussi des inquiétudes quant à leurs ambitions hégémoniques. Jusqu’où iront-ils ? En 2018, Amazon a créé Haven, une coentreprise avec Berkshire Hathaway, le conglomérat de Warren Buffett, et la banque JPMorgan Chase. Cette société va gérer les prestations santé et fournir soins et médicaments aux 1,2 million d’employés des trois entités. Pour l’instant… La même année, Amazon a racheté PillPack, une start-up de livraison de médicaments sur ordonnance. Le géant du commerce et de la distribution en 24 heures se positionne ainsi sur toute la chaîne de valeur du secteur. Quant à Google, ses filiales DeepMind, Verily ou Calico Labs, qui travaillent sur la santé, ont déjà déposé près de 200 brevets. Début 2019, Apple a développé une application pour Aetna, filiale de CVS Health qui assure les employés des entreprises américaines. L’application Attain récompense les clients d’Aetna qui portent une Apple Watch en fonction de leurs efforts pour augmenter leur activité physique ou améliorer leur alimentation… Les craintes portent aussi, bien évidemment, sur la confidentialité des données. Depuis mai 2018, l’Europe applique le règlement général sur la protection des données (RGPD), qui prévoit d’informer les internautes sur l’usage qui est fait de leurs données et d’obtenir leur consentement. Le scandale Cambridge Analytica et l’amende de 5 milliards de dollars infligée l’été dernier à Facebook par la Federal Trade Commission (FTC) pour ne pas avoir informé suffisamment ses utilisateurs sur la protection de leurs données personnelles montrent que la perception de ce sujet évolue également aux Etats-Unis. « Savoir à qui appartiennent les données de santé est crucial ; cela détermine qui peut les revendre, les utiliser et à quelles fins », souligne Arielle Le Bail. Une étude de Rock Health sur l’acceptation de la santé numérique aux Etats-Unis pointe que seulement 11 % des Américains interrogés seraient prêts à partager leurs données avec les grandes entreprises technologiques, alors qu’ils sont 72 % à accepter de les partager avec leur médecin. Cela n’empêche pas ces géants de négocier avec les hôpitaux. Ainsi, Facebook a conclu un partenariat avec le service radiologie de l’université de New York pour récupérer des données anonymisées sur les patients et entraîner l’algorithme qui pilotera son projet d’IRM.
Des millions de données de clients de GoDaddy compromises
Des millions de données de clients de GoDaddy compromises lors d’une attaque.
Le géant de l’enregistrement de noms de domaine et fournisseur d’hébergement GoDaddy a révélé hier à la Securities and Exchange Commission (SEC) qu’il avait subi une violation de sécurité. Cela montre aujourd’hui que la cybercriminalité est partout.
Dans sa notification, il explique avoir été compromis par un « accès tiers non autorisé à notre environnement d’hébergement Managed WordPress ». Le coupable inconnu à l’origine de l’attaque a volé jusqu’à 1,2 million de données de clients actifs et inactifs, notamment des adresses électroniques, des mots de passe d’administrateur WordPress originaux, des identifiants de protocole de transfert de fichiers sécurisés (sFTP) et de base de données, ainsi que des clés privées SSL.
La société a déclaré avoir pris des mesures pour sécuriser les comptes et l’environnement, notamment en réinitialisant les mots de passe et en empêchant le tiers non autorisé d’accéder à son système, et a indiqué qu’elle allait émettre de nouveaux certificats pour certains clients.
GoDaddy a d’abord détecté une activité suspecte dans son environnement d’hébergement Managed WordPress mercredi de la semaine dernière. Selon les premières investigations, l’intrus a utilisé un mot de passe compromis pour accéder à un code hérité dans l’environnement de GoDaddy afin de voler des données. Les enquêtes se poursuivent.
« Nous sommes sincèrement désolés de cet incident et de l’inquiétude qu’il suscite chez nos clients », a écrit Demetrius Comes, directeur de la sécurité informatique (CISO) de GoDaddy. « Nous, dirigeants et employés de GoDaddy, prenons très au sérieux notre responsabilité de protéger les données de nos clients et ne voulons jamais les laisser tomber. Nous tirerons les leçons de cet incident et nous prenons déjà des mesures pour renforcer notre système d’approvisionnement avec des couches de protection supplémentaires. »
Selon les chercheurs de Defiant Inc, développeurs de Wordfence-un plugin pour sécuriser les sites WordPress-GoDaddy a géré sFTP d’une manière qui ne suit pas les pratiques standard : « Il semble que GoDaddy stockait les informations d’identification sFTP soit en texte clair, soit dans un format qui pouvait être inversé en texte clair. Ils ont procédé ainsi au lieu d’utiliser un hachage salé ou une clé publique, qui sont tous deux considérés comme les meilleures pratiques de l’industrie pour sFTP. Cela permettait à un attaquant d’accéder directement aux informations d’identification du mot de passe sans avoir besoin de les craquer. »
Vous êtes client de GoDaddy ? Voici ce qu’il faut faire:
Si vous utilisez le service d’hébergement de GoDaddy et que vous ne savez pas si votre compte pourrait faire partie de ceux qui sont touchés, ne laissez pas cela au hasard. Agissez maintenant avant que quelqu’un ne profite de l’occasion pour prendre le contrôle de votre compte.
GoDaddy a fourni une bonne liste de mesures à prendre pour verrouiller un compte qui pourrait être potentiellement compromis :
Changez votre mot de passe et votre code PIN
Activez l’authentification à deux facteurs (2FA) si vous ne l’avez pas encore fait.
Modifiez les méthodes de paiement que vous avez enregistrées sur votre compte et supprimez celles que vous n’utilisez pas. Il serait également bon de garder un œil sur les transactions de votre compte bancaire et d’être prêt à signaler celles qui sont frauduleuses.
Supprimez l’accès délégué de toute personne que vous avez autorisée à accéder à votre compte.
Supprimez toute clé d’API inconnue en la supprimant.
Vérifiez que les coordonnées de votre domaine sont correctes pour éviter que quelqu’un ne s’en empare.
Déconnectez-vous à distance de votre compte GoDaddy, ce qui vous déconnectera de tous les appareils et navigateurs.
Soyez prudent !
SEO Agence est une agence web à Lille.
Ils détestent l’internet
Il y a trente ans cette semaine, le scientifique britannique Tim Berners-Lee inventait le World Wide Web au CERN, le centre européen de recherche scientifique. Autant dire que l’idée a décollé. Le Web a permis aux gens ordinaires de créer et de relier facilement des pages sur ce qui était alors un petit réseau. Le langage de programmation était simple et la publication était aussi simple que de télécharger quelque chose sur un serveur contenant quelques balises.
Il y avait un potentiel réel, démocratique et libérateur, et il n’est donc pas du tout surprenant que les gens – notamment Berners-Lee lui-même – choisissent de se souvenir et de célébrer cette époque. C’était l’époque avant les médias sociaux, la suprématie de FAANG et le capitalisme de plateforme, quand Internet n’était pas aussi dépendant de la surveillance et de la publicité qu’aujourd’hui. L’attention était plus largement distribuée. Le web a brisé l’emprise des médias audiovisuels et imprimés sur la diffusion des histoires. HTML ressemblait à une révolution.
Pas à tout le monde, cependant. Quelques années seulement après la création d’Internet, un ensemble de critiques virulentes, notamment dans Resisting the Virtual Life, une anthologie de 1995 publiée par City Lights Books, se sont élevées pour remettre en question les idées qui sous-tendaient la technologie, comme les groupes précédents l’avaient fait avec d’autres technologies antérieures. Ce n’était pas la farce de l’essai Newsweek de Clifford Stoll affirmant qu’Internet était fondamentalement nul. Il s’agissait de critiques plus profondes sur le type de société qui construisait Internet et sur la façon dont les valeurs dominantes de cette culture, une fois encodées dans le réseau, généreraient de nouvelles formes d’oppression et de souffrance, au pays et à l’étranger.
Resisting the Virtual Life s’attaque à « la nouvelle machinerie de domination », envisage un « monde ingouvernable », considère les possibilités discriminatoires de la collecte de données, répertorie l’injustice du genre en ligne, examine le « monde masculin des ingénieurs en logiciel », déplore la « réduction de l’espace public », spécule sur « la forme de la vérité à venir », et propose même une voie démocratique à suivre. Ses essais prévoyait l’instabilité économique qu’Internet pourrait apporter, comment le «culte du garçon ingénieur» finirait par envahir la vie de chacun et les implications de la création d’énormes quantités de données personnelles pour le traitement des entreprises. « Qu’est-ce qui pourrait mal tourner avec le Web ? » ont demandé les auteurs. La réponse qu’ils ont trouvée était : beaucoup. Ils s’appelaient eux-mêmes « la résistance ».
C’était avant que Jeff Bezos ne soit l’homme le plus riche du monde. C’était avant Facebook, avant l’iPhone, avant le Web 2.0, avant que Google ne devienne public, avant l’effondrement des dot-com, avant la bulle dot-com, avant que presque tout le monde en dehors de la Finlande envoie des SMS. Dix-huit millions de foyers américains étaient « en ligne » dans le sens où ils avaient America Online, Prodigy ou CompuServe, mais selon le Pew Research Center, seulement 3% avaient déjà vu le Web. Amazon, eBay et Craigslist venaient de se lancer. Mais les critiques dans Resisting the Virtual Life sont désormais monnaie courante. Vous en entendez parler Facebook, Amazon, Google, Apple, l’écosystème de start-up soutenu par le capital-risque, l’intelligence artificielle, les voitures autonomes, même si l’Internet de 1995 n’a presque aucune ressemblance, techniquement ou institutionnellement, avec l’Internet de 2019.
Peut-être qu’un mouvement technologique majeur commence à s’accélérer, mais avant que son langage, son pouvoir d’entreprise et son économie politique ne commencent à déformer la réalité, un bref moment se produit lorsque les critiques voient le plein et terrible potentiel de tout ce qui arrive dans le monde. Non, la nouvelle technologie n’apportera pas une vie meilleure (du moins pas seulement cela). Il y aura des perdants. L’oppression se frayera un chemin jusque dans les espaces apparemment les plus libérateurs. Le non commercial deviendra accro à une vaste machine à profits. Les personnes de couleur seront discriminées de nouvelles manières. Les femmes auront de nouveaux travaux en plus des anciens. La recombinaison d’horreur d’anciens systèmes et cultures avec de nouvelles surfaces et entrailles technologiques est visible, comme le visage robotique à moitié détruit d’Arnold Schwarzenegger dans Terminator 2.
Ensuite, si l’argent et les gens commencent vraiment à affluer dans la technologie, la résistance sera balayée, poussiéreuse et tousse alors que ce qu’on appelle le progrès se précipite.
Dans le monde de gauche post-2016, le socialisme est de retour et les ordinateurs sont mauvais. Mais les ordinateurs ont été mauvais avant, et, ce n’est pas une coïncidence, lorsque divers socialismes étaient populaires.
Bien avant Internet et Resisting the Virtual Life, les gens se sont battus contre l’idée même d’ordinateurs – les mainframes, au départ – à partir des mouvements étudiants des années 1960. Ce n’était pas du pur luddisme ; les ordinateurs étaient, littéralement, des machines de guerre. A Stanford, alors foyer de radicalisme, les étudiants ont organisé des sit-in et occupé des bâtiments administratifs. Alors même que la guerre du Vietnam refluait, beaucoup à gauche craignaient que la technologie sous forme d’informatisation et d’automatisation détruise les emplois de la classe ouvrière, aide les patrons à écraser les syndicats et aggrave la vie professionnelle de ceux qui restent en emploi.
Mais alors que les années 1970 se sont glissées dans les années 1980, une partie de la puanteur militaro-industrielle a commencé à déteindre. Un ordinateur qui crachait les prédictions de la guerre du Vietnam pour Robert McNamara était une chose, mais qu’en est-il d’un réseau d’ordinateurs qui permet à quiconque de parcourir une frontière numérique, s’associant avec qui il veut au-delà des frontières nationales ou des identités établies ? Le sens de l’informatique en réseau a commencé à changer. Ces 1 et 0 pourraient être pliés à la liberté.
« Pour une génération qui avait grandi dans un monde assailli par des armées massives et par la menace d’un holocauste nucléaire, la notion cybernétique du globe en tant que modèle d’information unique et interconnecté était profondément réconfortante : dans le jeu invisible de l’information, beaucoup pensaient ils pouvaient voir la possibilité d’une harmonie mondiale », a écrit Fred Turner dans From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism.
Le livre de Turner commence par une question : « Comment la signification culturelle des technologies de l’information a-t-elle changé si radicalement ? » depuis la guerre du Vietnam jours de protestation au début du boom des dot-com ? Et sa réponse est qu’un ensemble de personnalités de la Bay Area, dirigée par Stewart Brand, qui a fondé le Whole Earth Catalog, a transformé la notion d’ordinateur d’infrastructure militaro-industrielle en outil personnel dans les années 1970.
Brand a positionné ces technologies comme une aubaine non pas pour les bureaucrates calculant les trajectoires des missiles, mais plutôt pour les hackers qui planifient des manœuvres gagnantes dans les jeux vidéo. Dans Rolling Stone, il a déclaré l’arrivée de l’informatique « une bonne nouvelle, peut-être la meilleure depuis les psychédéliques ».
Cela a aidé les États-Unis à entrer dans une période que l’historien Daniel Rodgers a appelée « l’âge de la fracture ». Les institutions, collectivités et solidarités américaines se sont effondrées au profit d’un modèle d’action de consommation sauvagement individualiste. « On entendait moins parler de société, d’histoire et de pouvoir que d’individus, de contingence et de choix », a écrit Rodgers. « L’importance des institutions économiques a cédé la place à des notions de flexibilité et d’instantanéité marchés agissant.
Le monde était un endroit où les individus pouvaient faire des choix, et ce dont ils avaient besoin pour faire de meilleurs choix, c’était de plus d’informations. Les informations étaient stockées dans des ordinateurs et, par conséquent, la mise en réseau des individus les uns aux autres conduirait à de nouvelles formes d’action collective.
Apple et son charismatique vendeur Steve Jobs étaient là pour commercialiser cette nouvelle idée de l’ordinateur. Les passionnés de technologie libéraux tels qu’Al Gore et les passionnés de technologie conservateurs tels que Newt Gingrich ont rejoint le mouvement pour créer un nouveau consensus selon lequel le seul rôle du gouvernement dans l’industrie serait de créer un environnement favorable au développement des entreprises Internet et des communautés de niche.
Ainsi, lorsque Berners-Lee a écrit sa proposition de 1989 pour le Web, le monde était prêt. Fait révélateur, une rupture institutionnelle a motivé son désir d’un système hypertexte. Les gens n’arrêtaient pas de quitter le CERN et d’emporter des informations avec eux. La mémoire organisationnelle manquait. Parallèlement, des systèmes de création cette mémoire exigeait que les gens acceptent certaines hiérarchies d’informations et de taxonomies de mots clés, ce qu’ils répugnaient à faire. Sa réponse à ce problème est devenue radicalement individuelle : n’importe qui pouvait créer une page et créer un lien vers n’importe quoi. Faites en sorte que suffisamment de personnes le fassent, et le volant de la création de contenu continuerait de tourner. Aucune institution requise. Sans tabou. C’était la liberté personnelle, telle que mise en œuvre dans un protocole réseau.
Les premiers partisans d’Internet ont vu tout ce potentiel. Ils ont jailli dans les pages de Wired, dont le siège est au sud de Market Street, à San Francisco, longtemps un quartier défavorisé de la ville. Mais de l’autre côté du marché et jusqu’à Columbus Avenue, au cœur de North Beach, où les beatniks vieillissants avaient encore quelques petits achats, les poètes et les écrivains de la librairie City Lights n’ont pas été influencés.
« Il existe des alternatives à l’utopie capitaliste de la communication totale, de la lutte des classes réprimée, SEO Agence et des profits et du contrôle toujours croissants qui oublient plutôt que résolvent le problème central. problèmes de notre société », ont écrit James Brook et Iain Boal, les éditeurs de Resisting the Virtual Life. Ces problèmes étaient évidents : « les gens étaient répartis dans des enclaves et des ghettos, des antagonismes de classe et raciaux croissants, des services publics en déclin (y compris les écoles, les bibliothèques et les transports), le chômage causé par l’automatisation et l’errance du capital, etc. »
Et pourtant, pour la plupart des gens, l’ordinateur personnel et l’Internet émergent ont masqué les forces structurelles sous-jacentes de la société. « Les ordinateurs ‘personnels’ et les CD-ROM circulent comme des fétiches pour les adorateurs du ‘libre marché’ et de ‘la libre circulation de l’information’ », ont écrit Brook et Boal.
Ils savaient qu’ils étaient confrontés à « beaucoup – on pourrait dire » tout « – » en essayant de rassembler la résistance à l’explosion d’Internet. Mais leur objectif n’était pas nécessairement de gagner, mais plutôt de « s’attaquer à un objet presque innommable – « l’ère de l’information », « l’autoroute de l’information », « le cyberespace », la « virtualité » et les variantes perspective démocratique.
C’est presque comme s’ils voulaient marquer pour les générations futures qu’il y avait des gens – toutes sortes de personnes différentes – qui ont vu les problèmes. « Résister à la vie virtuelle entend apporter des correctifs plus profonds que ceux générés par les mécanismes de rétroaction cybernétiques du » marché des idées « », ont écrit les éditeurs, « où les défauts scandaleux sont toujours répondus par des pseudocritiques qui nous assurent que tout va bien, sauf pour les bogues inévitables que le système lui-même corrigera.
Les essais dans le livre sont inégaux, comme vous pouvez vous y attendre. Mais certains d’entre eux sont étonnamment prémonitoires. Dans « C’est la discrimination, stupide ! » qui se lit comme une préquelle à L’ère du capitalisme de surveillance de 2018, le professeur de l’Université de Californie du Sud, Oscar H. Gandy Jr., affirme que « les informations personnelles sont utilisées pour déterminer les changements de notre vie dans notre rôle de citoyens ainsi que dans nos vies d’employés et les consommateurs. Dans une réflexion puissante sur le paysage de la Silicon Valley, Rebecca Solnit conclut que, en tant que lieu, il s’agit d’un nulle part, mais lié par des chaînes d’approvisionnement aux changements à travers le monde. Le professeur de communication et critique des médias de l’Université de Californie à San Diego, Herbert Schiller, souligne comment Internet pourrait réduire le pouvoir des États-nations, les affaiblissant tandis que les sociétés transnationales se renforcent. Des armées améliorées électroniquement pourraient-elles retenir le peuple, écrit-il, « alors que des forces économiques d’initiative privée contribuent à une distribution des revenus extrêmement disproportionnée et à une utilisation des ressources gravement déformée, localement et mondialement ?
Et Ellen Ullman, qui a continué à critiquer le monde de la technologie de l’intérieur, aurait peut-être fait la critique la plus parfaite de la façon dont le désir humain de commodité régirait la façon dont la technologie était perçue. « L’ordinateur est sur le point d’entrer dans nos vies comme du sang dans les capillaires », a-t-elle écrit. « Bientôt, partout où nous regardons, nous verrons de jolies interfaces à l’épreuve des idiots conçues pour nous faire dire ‘OK’. »
Le à la demande l’économie régnerait. « Nous n’avons besoin d’impliquer personne d’autre dans la satisfaction de nos besoins », a-t-elle écrit. « Nous n’avons même pas besoin de parler. » A l’intérieur de ces programmes se serait introduit « le culte du garçon ingénieur », « seul, hors du temps, dédaigneux de toute personne éloignée de la machine ».
Si ces critiques d’une autre époque semblent avoir catalogué tout ce qui pouvait mal tourner, ils avaient aussi le sentiment que les choses pouvaient se passer différemment. L’écrivain et historien Chris Carlsson, par exemple, a vu de l’espoir dans le potentiel d’organisation des communautés en ligne. « Les fils de subversion que nous tisons si discrètement aujourd’hui doivent trouver leur chemin pour transformer les vies autodestructrices, brutales et déshumanisantes que nous menons au travail, à l’école et dans la rue », a-t-il écrit. « La confiance que nous accordons aux liens électroniques doit à nouveau trouver un foyer commun parmi nos liens sociaux, jusqu’à ce que les « expériences » électroniques prennent leur juste place en tant que compléments d’une vie humaine riche et variée.
Puis encore, il a reconnu qu' »il est plus facile d’imaginer beaucoup de verbiage vide et inutile volant dans le monde électronique, égalé uniquement par les piles de données recueillies par nos institutions corporatives et gouvernementales ».
Depuis les élections de 2016, à la fois son déroulement et ses résultats, les Américains se sont engagés dans une nouvelle lutte pour comprendre comment Internet a changé leur pays et le monde. Il n’est tout simplement pas possible de célébrer la naissance du web sans reconnaître que la cyber-utopie n’est jamais arrivée. Regardez le comportement de nombreux titans de la technologie au cours des dernières années et vous verrez à la fois des défauts scandaleux ainsi que des « pseudocritques qui nous assurent que tout va bien ».
Dans ce long moment de réévaluation, l’industrie et ses produits ont été attaqués sous presque tous les angles : de l’intérieur et de l’extérieur, local et mondial, économique et social, législatif et rhétorique, capitaliste et socialiste. Cela n’a pas empêché les profits de pleuvoir. Les plus grandes entreprises technologiques font partie du top 10 des plus valorisées entreprises dans le monde. Selon un classement du capital de marque, les quatre marques les plus fortes au monde sont Apple, Google, Amazon et Microsoft. Mais une fois que le consensus s’est évanoui sur le fait que la technologie Internet était égale au progrès, les gens à l’intérieur et à l’extérieur de l’industrie ont trouvé une source inépuisable de pratiques douteuses. Les gens traitent leur téléphone comme ils le faisaient autrefois avec des cigarettes.
Au fur et à mesure que des diagnostics sont posés et des suggestions faites, ces premières critiques valent la peine d’être rappelées précisément pour lutter contre la nostalgie d’une époque antérieure. Les germes de nos problèmes actuels liés à la technologie étaient évidents pour les critiques avec les yeux pour les voir en 1995.
Examiner l’histoire du Web pourrait donner lieu à un meilleur Internet à l’avenir, mais pas seulement en regardant ce que nous aimions au début. Les prémisses du Web primitif : valoriser le choix individuel, la liberté d’expression maximaliste et les réseaux virtuels dispersés ; en ignorant le pouvoir institutionnel et la politique traditionnelle – pourrait nécessiter une révision pour construire un nouveau web prosocial.
Référencement: les stratégies de contenu
Quel est le profil d’un spécialiste du marketing de contenu moderne, le meilleur de sa catégorie ? Par moderne, j’entends quelqu’un qui utilise les nouveaux outils et ressources (médias sociaux, vidéo et données) de concert avec les programmes de marketing traditionnels. Et par meilleur de sa catégorie, j’entends quelqu’un qui obtient des résultats concrets.
À quoi cela ressemble-t-il ? Que savent les grands spécialistes du marketing de contenu que vous ne connaissez pas ? Et surtout, que pouvez-vous leur voler afin de reproduire leurs succès dans votre propre entreprise ?
MarketingProfs et le Content Marketing Institute ont voulu le savoir. Le 1er octobre, nous avons publié notre cinquième étude annuelle, » B2B Content Marketing : 2015 Benchmarks, Budgets and Trends-North America « , en examinant plus de 5 000 spécialistes du marketing dans 109 pays. Voici quelques points clés qui en ressortent.
Les grands spécialistes du marketing de contenu ont une stratégie documentée et la suivent de près. Selon l’étude, seuls 35 % des spécialistes du marketing de contenu ont une stratégie documentée (48 % disent en avoir une, mais elle n’est pas documentée). Soixante pour cent de ceux qui ont une stratégie documentée se considèrent comme des spécialistes du marketing de contenu efficaces, contre seulement 7 % de ceux qui n’ont pas de stratégie, écrite ou autre.
Une idée que vous pouvez voler : Définissez une stratégie de marketing de contenu pour vous-même, enregistrez-la et consultez-la fréquemment. Ne la laissez pas prendre la poussière sur une étagère métaphorique. Commencez par répondre à quelques questions de base sur votre entreprise et votre public : Qui voulez-vous atteindre ? Quelle valeur pouvez-vous apporter ? Comment allez-vous fournir cette information ? Qui va gérer le processus ? Comment allez-vous mesurer le succès et affiner vos efforts ?
Les grands spécialistes du marketing disposent d’une équipe dédiée au contenu. Moins de la moitié des spécialistes du marketing disposent d’un groupe dédié au marketing de contenu. Mais 69 % de ceux qui sont les plus efficaces en matière de contenu sont susceptibles de disposer d’un groupe structuré. (Ces structures peuvent varier. Certaines entreprises disposent d’une équipe de marketing de contenu qui fonctionne de manière indépendante ; dans d’autres cas, les membres de l’équipe de marketing se voient confier la responsabilité des fonctions de contenu de manière horizontale à travers les départements d’une entreprise).
Idée que vous pouvez voler : Donnez les moyens à une équipe dédiée (ou, dans le cas des petites entreprises, à une personne clé) d’être responsable du succès de votre programme de marketing de contenu et d’en rendre compte.
Les grands spécialistes du marketing utilisent un large éventail de tactiques et de plateformes de médias sociaux. Les meilleurs spécialistes du marketing moderne ne se contentent pas d’une ou deux approches pour atteindre et engager leur public. En fait, les plus efficaces utilisent en moyenne 14 tactiques et sept plateformes de médias sociaux.
Les tactiques utilisées par les spécialistes du marketing B2B comprennent les événements en personne, les webinaires ou les webcasts, les vidéos, les blogs, les études de cas, les livres blancs ou les livres électroniques, les rapports de recherche, les lettres d’information électroniques et les microsites. Les canaux sociaux les plus efficaces pour les spécialistes du marketing B2B sont (par ordre décroissant) LinkedIn, Twitter, Facebook, YouTube et SlideShare.
Une idée que vous pouvez voler : Créez une grande variété de contenus – et ne vous contentez pas des articles de blog ou des études de cas qui ont fait leurs preuves. Ayez un plan d’engagement/distribution varié sur les médias sociaux afin d’élargir votre champ d’action en ligne.
Les grands spécialistes du marketing de contenu publient régulièrement. Les spécialistes du marketing de contenu les plus efficaces publient du nouveau contenu quotidiennement, ou au moins plusieurs fois par semaine.
Une idée que vous pouvez reprendre : Créez un calendrier éditorial en prévoyant au moins trois mois (ou, idéalement, six mois). Si vous avez un plan pour savoir ce que vous allez publier et quand vous allez le faire, il est beaucoup plus probable que vous le fassiez réellement.
Les grands spécialistes du marketing de contenu dépensent plus pour le contenu. C’est une évidence : plus de budget, c’est un marketing plus efficace. Les spécialistes du marketing les plus efficaces consacrent, en moyenne, 37 % de leur budget marketing aux programmes de contenu.
Une idée que vous pouvez voler : Je suppose que c’est une directive facile à donner pour moi : Trouvez plus d’argent ! Au minimum, envisagez d’allouer un certain pourcentage de votre budget 2015 à un programme de contenu pilote (si vous n’en avez pas déjà un).
Les grands spécialistes du marketing de contenu itèrent et expérimentent. Les spécialistes du marketing de contenu les plus efficaces manigancent en permanence pour découvrir de nouvelles idées et de nouveaux processus, et pour améliorer et affiner ce qu’ils font déjà. Les plus performants travaillent sur plus d’une douzaine d’initiatives à la fois, notamment la création d’un contenu de meilleure qualité, l’amélioration des taux de conversion et de l’efficacité globale du contenu, la création d’un contenu plus visuel, la réimagination ou la réaffectation du contenu, la mesure du retour sur investissement et l’amélioration de la narration.
La bonne nouvelle, c’est que les spécialistes du marketing de contenu les moins efficaces sont ambitieux : ils prévoient de travailler sur un plus grand nombre d’initiatives en 2015 que leurs homologues déjà compétents – en moyenne neuf, contre six.
SEO Agence est une agence SEO à Lille.