Ils détestent l’internet

Il y a trente ans cette semaine, le scientifique britannique Tim Berners-Lee inventait le World Wide Web au CERN, le centre européen de recherche scientifique. Autant dire que l’idée a décollé. Le Web a permis aux gens ordinaires de créer et de relier facilement des pages sur ce qui était alors un petit réseau. Le langage de programmation était simple et la publication était aussi simple que de télécharger quelque chose sur un serveur contenant quelques balises.

Il y avait un potentiel réel, démocratique et libérateur, et il n’est donc pas du tout surprenant que les gens – notamment Berners-Lee lui-même – choisissent de se souvenir et de célébrer cette époque. C’était l’époque avant les médias sociaux, la suprématie de FAANG et le capitalisme de plateforme, quand Internet n’était pas aussi dépendant de la surveillance et de la publicité qu’aujourd’hui. L’attention était plus largement distribuée. Le web a brisé l’emprise des médias audiovisuels et imprimés sur la diffusion des histoires. HTML ressemblait à une révolution.

Pas à tout le monde, cependant. Quelques années seulement après la création d’Internet, un ensemble de critiques virulentes, notamment dans Resisting the Virtual Life, une anthologie de 1995 publiée par City Lights Books, se sont élevées pour remettre en question les idées qui sous-tendaient la technologie, comme les groupes précédents l’avaient fait avec d’autres technologies antérieures. Ce n’était pas la farce de l’essai Newsweek de Clifford Stoll affirmant qu’Internet était fondamentalement nul. Il s’agissait de critiques plus profondes sur le type de société qui construisait Internet et sur la façon dont les valeurs dominantes de cette culture, une fois encodées dans le réseau, généreraient de nouvelles formes d’oppression et de souffrance, au pays et à l’étranger.

Resisting the Virtual Life s’attaque à « la nouvelle machinerie de domination », envisage un « monde ingouvernable », considère les possibilités discriminatoires de la collecte de données, répertorie l’injustice du genre en ligne, examine le « monde masculin des ingénieurs en logiciel », déplore la « réduction de l’espace public », spécule sur « la forme de la vérité à venir », et propose même une voie démocratique à suivre. Ses essais prévoyait l’instabilité économique qu’Internet pourrait apporter, comment le «culte du garçon ingénieur» finirait par envahir la vie de chacun et les implications de la création d’énormes quantités de données personnelles pour le traitement des entreprises. « Qu’est-ce qui pourrait mal tourner avec le Web ? » ont demandé les auteurs. La réponse qu’ils ont trouvée était : beaucoup. Ils s’appelaient eux-mêmes « la résistance ».

C’était avant que Jeff Bezos ne soit l’homme le plus riche du monde. C’était avant Facebook, avant l’iPhone, avant le Web 2.0, avant que Google ne devienne public, avant l’effondrement des dot-com, avant la bulle dot-com, avant que presque tout le monde en dehors de la Finlande envoie des SMS. Dix-huit millions de foyers américains étaient « en ligne » dans le sens où ils avaient America Online, Prodigy ou CompuServe, mais selon le Pew Research Center, seulement 3% avaient déjà vu le Web. Amazon, eBay et Craigslist venaient de se lancer. Mais les critiques dans Resisting the Virtual Life sont désormais monnaie courante. Vous en entendez parler Facebook, Amazon, Google, Apple, l’écosystème de start-up soutenu par le capital-risque, l’intelligence artificielle, les voitures autonomes, même si l’Internet de 1995 n’a presque aucune ressemblance, techniquement ou institutionnellement, avec l’Internet de 2019.

Peut-être qu’un mouvement technologique majeur commence à s’accélérer, mais avant que son langage, son pouvoir d’entreprise et son économie politique ne commencent à déformer la réalité, un bref moment se produit lorsque les critiques voient le plein et terrible potentiel de tout ce qui arrive dans le monde. Non, la nouvelle technologie n’apportera pas une vie meilleure (du moins pas seulement cela). Il y aura des perdants. L’oppression se frayera un chemin jusque dans les espaces apparemment les plus libérateurs. Le non commercial deviendra accro à une vaste machine à profits. Les personnes de couleur seront discriminées de nouvelles manières. Les femmes auront de nouveaux travaux en plus des anciens. La recombinaison d’horreur d’anciens systèmes et cultures avec de nouvelles surfaces et entrailles technologiques est visible, comme le visage robotique à moitié détruit d’Arnold Schwarzenegger dans Terminator 2.

Ensuite, si l’argent et les gens commencent vraiment à affluer dans la technologie, la résistance sera balayée, poussiéreuse et tousse alors que ce qu’on appelle le progrès se précipite.

Dans le monde de gauche post-2016, le socialisme est de retour et les ordinateurs sont mauvais. Mais les ordinateurs ont été mauvais avant, et, ce n’est pas une coïncidence, lorsque divers socialismes étaient populaires.

Bien avant Internet et Resisting the Virtual Life, les gens se sont battus contre l’idée même d’ordinateurs – les mainframes, au départ – à partir des mouvements étudiants des années 1960. Ce n’était pas du pur luddisme ; les ordinateurs étaient, littéralement, des machines de guerre. A Stanford, alors foyer de radicalisme, les étudiants ont organisé des sit-in et occupé des bâtiments administratifs. Alors même que la guerre du Vietnam refluait, beaucoup à gauche craignaient que la technologie sous forme d’informatisation et d’automatisation détruise les emplois de la classe ouvrière, aide les patrons à écraser les syndicats et aggrave la vie professionnelle de ceux qui restent en emploi.

Mais alors que les années 1970 se sont glissées dans les années 1980, une partie de la puanteur militaro-industrielle a commencé à déteindre. Un ordinateur qui crachait les prédictions de la guerre du Vietnam pour Robert McNamara était une chose, mais qu’en est-il d’un réseau d’ordinateurs qui permet à quiconque de parcourir une frontière numérique, s’associant avec qui il veut au-delà des frontières nationales ou des identités établies ? Le sens de l’informatique en réseau a commencé à changer. Ces 1 et 0 pourraient être pliés à la liberté.

« Pour une génération qui avait grandi dans un monde assailli par des armées massives et par la menace d’un holocauste nucléaire, la notion cybernétique du globe en tant que modèle d’information unique et interconnecté était profondément réconfortante : dans le jeu invisible de l’information, beaucoup pensaient ils pouvaient voir la possibilité d’une harmonie mondiale », a écrit Fred Turner dans From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism.

Le livre de Turner commence par une question : « Comment la signification culturelle des technologies de l’information a-t-elle changé si radicalement ? » depuis la guerre du Vietnam jours de protestation au début du boom des dot-com ? Et sa réponse est qu’un ensemble de personnalités de la Bay Area, dirigée par Stewart Brand, qui a fondé le Whole Earth Catalog, a transformé la notion d’ordinateur d’infrastructure militaro-industrielle en outil personnel dans les années 1970.

Brand a positionné ces technologies comme une aubaine non pas pour les bureaucrates calculant les trajectoires des missiles, mais plutôt pour les hackers qui planifient des manœuvres gagnantes dans les jeux vidéo. Dans Rolling Stone, il a déclaré l’arrivée de l’informatique « une bonne nouvelle, peut-être la meilleure depuis les psychédéliques ».

Cela a aidé les États-Unis à entrer dans une période que l’historien Daniel Rodgers a appelée « l’âge de la fracture ». Les institutions, collectivités et solidarités américaines se sont effondrées au profit d’un modèle d’action de consommation sauvagement individualiste. « On entendait moins parler de société, d’histoire et de pouvoir que d’individus, de contingence et de choix », a écrit Rodgers. « L’importance des institutions économiques a cédé la place à des notions de flexibilité et d’instantanéité marchés agissant.

Le monde était un endroit où les individus pouvaient faire des choix, et ce dont ils avaient besoin pour faire de meilleurs choix, c’était de plus d’informations. Les informations étaient stockées dans des ordinateurs et, par conséquent, la mise en réseau des individus les uns aux autres conduirait à de nouvelles formes d’action collective.

Apple et son charismatique vendeur Steve Jobs étaient là pour commercialiser cette nouvelle idée de l’ordinateur. Les passionnés de technologie libéraux tels qu’Al Gore et les passionnés de technologie conservateurs tels que Newt Gingrich ont rejoint le mouvement pour créer un nouveau consensus selon lequel le seul rôle du gouvernement dans l’industrie serait de créer un environnement favorable au développement des entreprises Internet et des communautés de niche.

Ainsi, lorsque Berners-Lee a écrit sa proposition de 1989 pour le Web, le monde était prêt. Fait révélateur, une rupture institutionnelle a motivé son désir d’un système hypertexte. Les gens n’arrêtaient pas de quitter le CERN et d’emporter des informations avec eux. La mémoire organisationnelle manquait. Parallèlement, des systèmes de création cette mémoire exigeait que les gens acceptent certaines hiérarchies d’informations et de taxonomies de mots clés, ce qu’ils répugnaient à faire. Sa réponse à ce problème est devenue radicalement individuelle : n’importe qui pouvait créer une page et créer un lien vers n’importe quoi. Faites en sorte que suffisamment de personnes le fassent, et le volant de la création de contenu continuerait de tourner. Aucune institution requise. Sans tabou. C’était la liberté personnelle, telle que mise en œuvre dans un protocole réseau.

Les premiers partisans d’Internet ont vu tout ce potentiel. Ils ont jailli dans les pages de Wired, dont le siège est au sud de Market Street, à San Francisco, longtemps un quartier défavorisé de la ville. Mais de l’autre côté du marché et jusqu’à Columbus Avenue, au cœur de North Beach, où les beatniks vieillissants avaient encore quelques petits achats, les poètes et les écrivains de la librairie City Lights n’ont pas été influencés.

« Il existe des alternatives à l’utopie capitaliste de la communication totale, de la lutte des classes réprimée, SEO Agence et des profits et du contrôle toujours croissants qui oublient plutôt que résolvent le problème central. problèmes de notre société », ont écrit James Brook et Iain Boal, les éditeurs de Resisting the Virtual Life. Ces problèmes étaient évidents : « les gens étaient répartis dans des enclaves et des ghettos, des antagonismes de classe et raciaux croissants, des services publics en déclin (y compris les écoles, les bibliothèques et les transports), le chômage causé par l’automatisation et l’errance du capital, etc. »

Et pourtant, pour la plupart des gens, l’ordinateur personnel et l’Internet émergent ont masqué les forces structurelles sous-jacentes de la société. « Les ordinateurs ‘personnels’ et les CD-ROM circulent comme des fétiches pour les adorateurs du ‘libre marché’ et de ‘la libre circulation de l’information’ », ont écrit Brook et Boal.

Ils savaient qu’ils étaient confrontés à « beaucoup – on pourrait dire » tout « – » en essayant de rassembler la résistance à l’explosion d’Internet. Mais leur objectif n’était pas nécessairement de gagner, mais plutôt de « s’attaquer à un objet presque innommable – « l’ère de l’information », « l’autoroute de l’information », « le cyberespace », la « virtualité » et les variantes perspective démocratique.

C’est presque comme s’ils voulaient marquer pour les générations futures qu’il y avait des gens – toutes sortes de personnes différentes – qui ont vu les problèmes. « Résister à la vie virtuelle entend apporter des correctifs plus profonds que ceux générés par les mécanismes de rétroaction cybernétiques du » marché des idées «  », ont écrit les éditeurs, « où les défauts scandaleux sont toujours répondus par des pseudocritiques qui nous assurent que tout va bien, sauf pour les bogues inévitables que le système lui-même corrigera.

Les essais dans le livre sont inégaux, comme vous pouvez vous y attendre. Mais certains d’entre eux sont étonnamment prémonitoires. Dans « C’est la discrimination, stupide ! » qui se lit comme une préquelle à L’ère du capitalisme de surveillance de 2018, le professeur de l’Université de Californie du Sud, Oscar H. Gandy Jr., affirme que « les informations personnelles sont utilisées pour déterminer les changements de notre vie dans notre rôle de citoyens ainsi que dans nos vies d’employés et les consommateurs. Dans une réflexion puissante sur le paysage de la Silicon Valley, Rebecca Solnit conclut que, en tant que lieu, il s’agit d’un nulle part, mais lié par des chaînes d’approvisionnement aux changements à travers le monde. Le professeur de communication et critique des médias de l’Université de Californie à San Diego, Herbert Schiller, souligne comment Internet pourrait réduire le pouvoir des États-nations, les affaiblissant tandis que les sociétés transnationales se renforcent. Des armées améliorées électroniquement pourraient-elles retenir le peuple, écrit-il, « alors que des forces économiques d’initiative privée contribuent à une distribution des revenus extrêmement disproportionnée et à une utilisation des ressources gravement déformée, localement et mondialement ?

Et Ellen Ullman, qui a continué à critiquer le monde de la technologie de l’intérieur, aurait peut-être fait la critique la plus parfaite de la façon dont le désir humain de commodité régirait la façon dont la technologie était perçue. « L’ordinateur est sur le point d’entrer dans nos vies comme du sang dans les capillaires », a-t-elle écrit. « Bientôt, partout où nous regardons, nous verrons de jolies interfaces à l’épreuve des idiots conçues pour nous faire dire ‘OK’. »

Le à la demande l’économie régnerait. « Nous n’avons besoin d’impliquer personne d’autre dans la satisfaction de nos besoins », a-t-elle écrit. « Nous n’avons même pas besoin de parler. » A l’intérieur de ces programmes se serait introduit « le culte du garçon ingénieur », « seul, hors du temps, dédaigneux de toute personne éloignée de la machine ».

Si ces critiques d’une autre époque semblent avoir catalogué tout ce qui pouvait mal tourner, ils avaient aussi le sentiment que les choses pouvaient se passer différemment. L’écrivain et historien Chris Carlsson, par exemple, a vu de l’espoir dans le potentiel d’organisation des communautés en ligne. « Les fils de subversion que nous tisons si discrètement aujourd’hui doivent trouver leur chemin pour transformer les vies autodestructrices, brutales et déshumanisantes que nous menons au travail, à l’école et dans la rue », a-t-il écrit. « La confiance que nous accordons aux liens électroniques doit à nouveau trouver un foyer commun parmi nos liens sociaux, jusqu’à ce que les « expériences » électroniques prennent leur juste place en tant que compléments d’une vie humaine riche et variée.

Puis encore, il a reconnu qu' »il est plus facile d’imaginer beaucoup de verbiage vide et inutile volant dans le monde électronique, égalé uniquement par les piles de données recueillies par nos institutions corporatives et gouvernementales ».

Depuis les élections de 2016, à la fois son déroulement et ses résultats, les Américains se sont engagés dans une nouvelle lutte pour comprendre comment Internet a changé leur pays et le monde. Il n’est tout simplement pas possible de célébrer la naissance du web sans reconnaître que la cyber-utopie n’est jamais arrivée. Regardez le comportement de nombreux titans de la technologie au cours des dernières années et vous verrez à la fois des défauts scandaleux ainsi que des « pseudocritques qui nous assurent que tout va bien ».

Dans ce long moment de réévaluation, l’industrie et ses produits ont été attaqués sous presque tous les angles : de l’intérieur et de l’extérieur, local et mondial, économique et social, législatif et rhétorique, capitaliste et socialiste. Cela n’a pas empêché les profits de pleuvoir. Les plus grandes entreprises technologiques font partie du top 10 des plus valorisées entreprises dans le monde. Selon un classement du capital de marque, les quatre marques les plus fortes au monde sont Apple, Google, Amazon et Microsoft. Mais une fois que le consensus s’est évanoui sur le fait que la technologie Internet était égale au progrès, les gens à l’intérieur et à l’extérieur de l’industrie ont trouvé une source inépuisable de pratiques douteuses. Les gens traitent leur téléphone comme ils le faisaient autrefois avec des cigarettes.

Au fur et à mesure que des diagnostics sont posés et des suggestions faites, ces premières critiques valent la peine d’être rappelées précisément pour lutter contre la nostalgie d’une époque antérieure. Les germes de nos problèmes actuels liés à la technologie étaient évidents pour les critiques avec les yeux pour les voir en 1995.

Examiner l’histoire du Web pourrait donner lieu à un meilleur Internet à l’avenir, mais pas seulement en regardant ce que nous aimions au début. Les prémisses du Web primitif : valoriser le choix individuel, la liberté d’expression maximaliste et les réseaux virtuels dispersés ; en ignorant le pouvoir institutionnel et la politique traditionnelle – pourrait nécessiter une révision pour construire un nouveau web prosocial.

Les liens et le SEO

Un lien ou un hyperlien est un objet cliquable sur une page Web qui mène d’une page à une autre. Les liens peuvent apparaître visiblement sous forme de texte, d’images ou de boutons. Et les liens sont très importants pour un bon classement dans Google.

Les types de liens

Nous pouvons classer les liens en fonction de la destination du lien, qu’il mène les utilisateurs vers une autre page du même site ou vers un site Web différent.

Les liens internes sont des liens entre les pages de votre propre site Web.

Les moteurs de recherche déterminent cela en regardant le nom de domaine; si les liens d’une page renvoient à d’autres pages du même domaine, ils sont considérés comme des liens internes.

Si, pour une raison quelconque, votre site Web a été conçu pour avoir plus d’un domaine, les moteurs de recherche le verront comme un lien externe.

Les liens entrants sont des liens provenant d’autres sites Web ou d’un nom de domaine différent.

Les liens sortants sont les liens sur votre site Web qui renvoient à des sites Web avec un nom de domaine différent.

Focus sur les liens entrants: des liens naturels à partir de pages de haute qualité pour de meilleurs avantages de référencement

Parmi les trois types de liens, les liens entrants sont ceux qui présentent le plus grand avantage pour le référencement, mais ils sont également les plus difficiles à obtenir.

Les pages de haute qualité sont comme des amis auxquels vous vous adressez pour obtenir des conseils: elles sont dignes de confiance, crédibles et ont une certaine autorité sur le sujet.

Chaque fois qu’une page Web est liée à une autre page Web, le créateur du contenu qui a utilisé le lien l’a fait pour une raison.

Souvent, ils aiment la page vers laquelle ils sont liés, car elle contient des informations qui prennent en charge ou s’appuient sur les informations de la première page.

D’un autre côté, certains auteurs créent des liens vers des pages pour la raison opposée; ils peuvent créer un lien vers une page qu’ils souhaitent critiquer ou avec laquelle ils ne sont pas d’accord.

Cependant, ces deux liens sont bons pour la page à laquelle le lien est lié. Que le contenu soit aimé ou méprisé, il a provoqué une forte réaction, ce qui indique un contenu de qualité.

Si le contenu d’une page fait parler quelqu’un, cela indique l’autorité, la crédibilité et / ou la fiabilité. Ainsi, les liens sur les pages sont comme des votes de confiance, de crédibilité et d’autorité.

Plus une page reçoit de liens, plus elle obtient de votes, ce qui peut améliorer son classement.

Cependant, la quantité de liens qu’une page obtient n’est pas tout ce qui compte.

Google évalue également la qualité des liens.

Personne n’aime les faux amis
Parfois, vous identifiez immédiatement de fausses personnes. D’autres fois, ce n’est pas si facile.

Il en va de même lorsque Google consulte des pages Web. Les liens qui semblent être des votes de confiance peuvent facilement être simulés en utilisant des éléments tels que:

Forums en ligne.
Commentaires du blog.
Livres d’or.
Wikis.
Profils de médias sociaux.
Annuaires d’articles.
Sites de questions-réponses.
Référencement social.
Ce sont des liens artificiels.

Parfois, Google identifie tout de suite que les liens sont faux, mais pas toujours. Google peut mettre un certain temps à identifier les liens artificiels.

Ces liens artificiels ont des conséquences négatives sur les pages.

Le classement de ces pages avec des liens artificiels peut être affecté par divers facteurs de classement surveillant la qualité des liens, ainsi que par les mises à jour d’algorithmes ou même par des actions manuelles de Google.

Afin d’avoir de bons liens naturels, un site a besoin d’un contenu de qualité qui soit digne de confiance, crédible et faisant autorité.

Cela permet aux pages d’obtenir des liens naturels de qualité à partir d’autres sites Web, ce qui facilitera leur classement.

Les liens entrants sont toujours importants même après la mise à jour de Google Penguin

Au cours de la dernière décennie, Google a mis en œuvre une série de mises à jour d’algorithmes importantes. L’une de ces mises à jour importantes était Penguin.

La mise à jour de Google Penguin est désormais devenue un élément essentiel de l’algorithme de base.

La mise à jour Penguin permet à Google d’évaluer plus efficacement la qualité des liens.

Juste après cette mise à jour, certains professionnels du référencement ont d’abord eu l’impression que les liens n’avaient plus d’importance; Cependant, ce n’est pas le cas.

Les liens sont importants dans le classement et indiquent toujours les mêmes valeurs qu’auparavant.

Les liens reflètent la qualité du contenu d’une page tant qu’il s’agit de liens naturels.

La mise à jour Penguin a permis à Google d’identifier plus facilement les liens artificiels.

Les liens ont toujours été des facteurs de classement importants; cependant, les méthodes d’obtention des liens ont évolué, surtout après la La mise à jour de Penguin est arrivée.

internet

— SEO AGENCE est une agence de netlinking à Lille.

La sécurité des transactions électroniques

Protocole conçu pour garantir la sécurité et l’intégrité des communications et des achats en ligne, Secure Electronic Transaction (SET) utilise des certificats numériques, émis aux commerçants et autres entreprises et clients, pour effectuer une série de contrôles de sécurité vérifiant que l’identité d’un client ou d’un expéditeur d’informations est valide. SET fournit le cadre de base dans lequel de nombreux composants de sécurisation des transactions numériques fonctionnent. Les certificats numériques, les signatures numériques et les portefeuilles numériques fonctionnent tous selon le protocole SET.

Les composants de la sécurité des transactions

Il existe plusieurs composants pour le protocole SET.

L’application de titulaire de carte, également appelée portefeuille numérique, est détenue par un consommateur en ligne et contient une signature numérique et des informations de carte de crédit qui garantissent son identité et protège ses informations financières grâce à un système de cryptage complexe.

Le composant Merchant Server est le produit de vérification détenu par le commerçant pour traiter le paiement par carte en ligne.

Le composant de passerelle de paiement est détenu par une banque acquéreuse ou un autre tiers de confiance qui accepte et traite la vérification du commerçant et les informations de paiement du client et les filtre vers leurs institutions financières appropriées.

Le composant Autorité de certification, généralement géré par une institution financière, est l’agent de confiance qui émet les certificats numériques et est chargé de s’assurer que tous les utilisateurs de certificats numériques sont en fait des clients sûrs et dignes de confiance.

Un protocole sécurisé

Une fois qu’un produit de sécurité pour l’un de ces composants a passé le test de conformité SET, il porte la marque SET, garantissant à tous les utilisateurs qu’il répond aux normes SET.

SET est une norme ouverte accessible à toute personne engagée dans le commerce électronique. MasterCard International et Visa International, reconnaissant que la sécurité était la clé de l’utilisation généralisée des cartes de crédit pour le commerce électronique, ont développé le protocole SET, qui a été lancé le 1er février 1996. La première version de la spécification SET a été publiée en mai 1997 . En décembre de cette année-là, les géants des cartes de crédit et d’autres acteurs majeurs du monde du commerce électronique, notamment Microsoft, Netscape et IBM, ont créé une société appelée SET Secure Electronic Transaction LLC (SETCo) pour maintenir et mettre en œuvre le SET spécification, administrer les tests de conformité et favoriser l’adoption mondiale accrue de la norme SET.

Suite à la grande fanfare qui a accompagné son lancement, l’adoption du protocole SET s’est avérée très décevante et la norme a été dépassée par des protocoles concurrents tels que le schéma de cryptage Secure Sockets Layer (SSL). Le principal obstacle à l’adoption généralisée de SET aux États-Unis et en Europe à la fin des années 1990 était le manque de sentiment, parmi les banquiers et les commerçants, que la fraude et les atteintes à la sécurité constituaient une menace si importante que le virage vers SET en valait la peine. Les procédures de SET étaient considérées comme trop lourdes à mettre en œuvre par rapport aux protocoles de sécurité comparatifs, et même si SET était en fin de compte la technologie la plus puissante pour sécuriser les paiements en ligne, les entreprises avaient tendance à utiliser les modèles les moins sophistiqués comme moyen d’établir par elles-mêmes une présence en ligne. Comme Barbara Smiley, directrice de recherche chez Meridien Research Inc., basée à Newton, Massachusetts, a déclaré à Computer World en 1999, « pour la plupart des gens, SET est une ogive nucléaire pour un problème qui ne nécessite qu’un missile de croisière. » SET était largement considéré comme trop rigide pour ce que les commerçants considéraient comme une simple menace de fraude aux paiements en ligne.

Cependant, dans les années 2000, des rapports de fraude et d’abus de cartes de crédit ont ravivé l’intérêt pour le protocole SET, et les entreprises et les fournisseurs de cartes ont commencé à intégrer SET dans leurs systèmes de transactions. Un facteur contribuant à la résurgence de la norme SET au début des années 2000 a été le passage des portefeuilles numériques côté client aux portefeuilles côté serveur, permettant une bien plus grande flexibilité dans leur utilisation et pour le stockage des données. Et comme de plus en plus de consommateurs choisissent d’utiliser des cartes de débit, plutôt que des cartes de crédit, pour leurs achats en ligne, la demande d’une sécurité plus stricte ne fera qu’augmenter. Dans les transactions par carte de crédit, le paiement est en fait prélevé sur une ligne de crédit fournie par l’émetteur de la carte, tandis que, pour les paiements par carte de débit, c’est l’argent du consommateur qui est directement impliqué. Par conséquent, les clients nerveux auront besoin du protocole de sécurité le plus solide possible pour leurs paiements en ligne.

— SEO AGENCE est une agence SEO

Reconnaitre les risques d’intelligence

Souvent, dans le monde de la sécurité de l’information et de la gestion des risques, la question qui se pose aux équipes de renseignement sur les menaces se situe au milieu de cette mer de divulgations de vulnérabilités, lesquelles comptent le plus pour mon organisation? Qu’est-ce qui peut nous affecter le plus? Et comment expliquer au mieux les menaces aux parties prenantes internes de manière à minimiser les risques?

Réduire les risques grâce à une bonne gestion des correctifs n’est pas toujours simple. Toutes les vulnérabilités et expositions courantes (CVE) ne sont pas toutes aussi importantes. En juillet 2020, par exemple, le département américain de la Sécurité intérieure a publié plusieurs avis de première priorité. L’un couvrait les exploits connus contre certains systèmes de fourniture d’applications (CVE-2020-5902) et un autre couvrait les vulnérabilités détectées dans un serveur de système de noms de domaine (DNS) (CVE-2020-1350). Bien que les deux soient des priorités absolues, comment s’appliquent-ils au réseau que vous utilisez? Quelles menaces sont les plus susceptibles d’avoir un impact sur votre cœur de métier?

Pour mieux répondre à cela, nous devons être en mesure d’identifier les menaces pertinentes avant de commencer à traiter les correctifs ou gérer les risques. Entrez l’identification des menaces: un processus nécessaire qui est devenu de plus en plus compliqué.

Pourquoi repérer les menaces est-il plus complexe aujourd’hui?
L’identification des menaces est aujourd’hui beaucoup plus complexe qu’à aucun autre moment dans le passé. D’une part, l’infrastructure devient plus complexe à mesure que de plus en plus de groupes adoptent la transformation numérique. De l’autre, nous constatons que le nombre de bogues signalés augmente d’année en année. Le rapport 2020 sur le coût d’une violation de données récemment publié met en évidence ce défi, car 41% des professionnels des technologies de l’information (TI) et de la sécurité signalent une vulnérabilité ou une mauvaise configuration comme étant à l’origine d’une violation de données malveillantes.

Ces facteurs présentent un nombre croissant de surfaces d’attaque. Pour construire un programme efficace d’identification des menaces pour ce domaine complexe, adoptez une approche précise et réfléchie. Sinon, vous risquez d’inonder votre public avec trop de données, ce qui entraînerait une paralysie de la sécurité.

Examinons les piliers de la création d’une identification des menaces plan qui peut être rentable en temps et en argent économisés sur toute la ligne.

Étape 1: Dressez la liste de vos parties prenantes de Threat Intelligence
Pour fournir la valeur la plus élevée, plusieurs équipes et parties du groupe doivent consulter les cyber-menaces. Chaque équipe peut avoir un objectif ou un avantage légèrement différent. Pour un rapport efficace avec les actionnaires et le conseil d’administration, la C-suite peut exiger des rapports de renseignements sur les menaces afin de comprendre, à un niveau élevé, les cyberrisques pour le groupe.

En outre, les équipes des opérations de sécurité (SecOps) peuvent consommer des données sur les menaces pour mieux comprendre quels types d’attaques sont susceptibles de se produire. Cela leur permet d’ajuster leurs contrôles ou d’exécuter des exercices, puis de valider les contrôles et d’identifier les domaines qui peuvent être améliorés. Les équipes de gestion des vulnérabilités utilisent ces données pour choisir les CVE qu’elles doivent traiter et dans quel ordre. Selon le type d’entreprise, cette étape peut également empêcher la fraude ou détecter les fuites de données.

Étape 2: définir le processus et les objectifs de Threat Intelligence
Savoir qui est aller voir et utiliser vos données sur les cybermenaces vous indique comment les examiner et structurer les rapports pour chaque service.

Les rapports pour les groupes non techniques peuvent être de simples graphiques de feux tricolores avec des puces de base. Pour les utilisateurs plus techniques, les rapports peuvent contenir plus d’informations sur les étapes de correction ou une analyse plus avancée. Considérez les questions suivantes pour chaque type:

Comment différenciez-vous l’intelligence en fonction des personas?
Quelles sont leurs principales préoccupations?
Quelles données leur sont utiles?
Que leur fournissez-vous et à quelle fréquence?
Comment pouvons-nous leur donner les moyens d’agir sur les données qu’ils reçoivent?
Les réponses à ces questions façonneront les objectifs de votre programme. Définissez clairement ces objectifs, en les intégrant dans un flux de travail qui couvre l’ensemble du processus. Les étapes du cycle de vie du renseignement sur les menaces sont les suivantes:

Planifiez vos besoins et créez des orientations claires vers les résultats et les objectifs.
Recueillez ce que vous devez savoir pour atteindre ces résultats et objectifs.
Traitez les informations pour faciliter leur analyse.
Analyser données et produire des informations exploitables.
Distribuez les données dans un format facile à lire.
Étape 3: créer une méthodologie d’identification et de renseignement sur les menaces
Commencez par définir vos besoins en intelligence. Ces besoins sont à la base de la gestion du renseignement. Plus précisément, demandez-vous: «Qu’est-ce qui est important pour mon groupe?» et traduisez les réponses en besoins spécifiques.

Ces exigences devraient varier en fonction du groupe. Une banque ou une compagnie d’assurance peut avoir un ensemble de préoccupations qui pourraient ne pas avoir d’incidence sur un service public ou une équipe de soins de santé. Gardez à l’esprit que les attaquants passent plus souvent d’un secteur à un autre car ils se rendent compte qu’un secteur spécifique est plus susceptible de céder à leurs demandes. Par exemple, les attaques de ransomwares ciblaient initialement de nombreuses petites entreprises et les gouvernements des États et locaux. Les attaquants ont rapidement identifié les organisations qui avaient plus d’urgence à reprendre leurs opérations et pourraient potentiellement payer plus en rançon, comme les soins de santé, les organisations industrielles et les cabinets d’avocats, pour exemple.

À partir de là, vous pouvez passer à la définition des besoins techniques pour la collecte d’informations sur les menaces. Cela peut impliquer des paramètres de fichier journal, des flux entrants de services et de plates-formes de renseignement sur les menaces et des résultats de services continus de simulation de violation et d’attaque.

L’Université Carnegie Mellon a publié une excellente série de guides sur la façon de penser à la cyber-intelligence et aux menaces. Ces guides fournissent à la fois des cadres et du matériel sur la façon de développer une méthodologie.

Étape 4: définir les zones de collecte
Une fois que votre méthodologie est présentée à un niveau élevé, vous pouvez ajouter des détails à votre cadre pour affiner les informations de renseignement sur les menaces que votre équipe doit traiter, analyser et recevoir des rapports. Trois aspects clés sont le secteur; ce que veut l’attaquant; et tactiques, techniques et procédures probables (TTP).

Secteur
De nos jours, de nombreuses organisations couvrent plusieurs secteurs. Par conséquent, ils doivent prendre en compte des risques plus importants. Par exemple, les grandes banques sont également des services en ligne fournisseurs avec leurs services de vente au détail. Les fournisseurs de télécommunications gèrent non seulement des réseaux de communication et de données, mais traitent également les paiements des clients, vendent des produits en ligne et stockent des informations client sensibles, y compris l’activité et l’emplacement en ligne. En conséquence, les attaquants se déplacent souvent rapidement d’un secteur à un autre pour atteindre leurs objectifs via des cibles plus souples – pensez aux attaquants de ransomware ciblant les établissements de santé, qui ne peuvent pas supporter même de brèves interruptions et encourent des sanctions beaucoup plus lourdes pour perte de données que les gouvernements municipaux.

Motivation
Ce que veut l’attaquant peut différer selon l’acteur de la menace. Les acteurs des États-nations peuvent chercher à exfiltrer des données sensibles. Les fraudeurs peuvent chercher à reprendre des comptes pour accéder à de l’argent ou à des points de fidélité pour les revendre. Les gangs de ransomwares recherchent des paiements importants et rapides en crypto-monnaies. Des attaques de déni de service distribuées peuvent être menées pour extorquer des victimes, détruire des sites rivaux, faire pression pour protester ou se venger. Les motivations sont souvent floues. Les APT d’acteurs étatiques peuvent à la fois chercher à voler des données sensibles et à commettre des délits financiers.

Ces besoins peuvent également être superposés. Un gang de ransomwares peut d’abord chercher à y accéder via des logiciels malveillants ou des attaques de phishing, puis se déplacer dans les systèmes de la victime pour implanter des ransomwares à des points clés. Comprendre les motivations des attaquants potentiels permet de définir les principales modalités d’attaque potentielles et les TTP auxquels se préparer.

Cibles
Après avoir défini les paramètres de secteur et de motivation, les programmes d’identification des menaces peuvent se concentrer plus étroitement sur les systèmes cibles préférés et les playbooks d’attaque courants et les TTP des acteurs de menace les plus probables. Les équipes de renseignement sur les menaces doivent connaître toutes les surfaces d’attaque de leurs employeurs et concentrer leurs efforts sur les systèmes dont elles disposent.

Par exemple, si votre employeur a des contrôleurs de livraison d’applications (ADC) Citrix Netscaler mais pas des ADC F5, alors la principale préoccupation concerne les menaces pesant sur les équipements Citrix. Les menaces pesant sur l’équipement F5 peuvent être considérées comme faisant partie l’intelligence situationnelle mais laissée en dehors des suggestions exploitables.

En outre, les tactiques d’identification des menaces doivent tenir compte de la probabilité que les systèmes soient exposés et exploités. Si une entreprise utilise les services Microsoft DNS pour le routage interne au sein des systèmes Microsoft mais n’expose pas Microsoft DNS à l’Internet public, les risques pour Microsoft DNS peuvent recevoir une priorité inférieure à celle des menaces sur la surface d’attaque exposée publiquement.

Les équipes de renseignement sur les menaces doivent également mettre l’accent sur les nouveaux types d’attaques qui sont moins susceptibles d’être corrigés ou atténués avec des paramètres de contrôle de sécurité supplémentaires ou des contrôles de compensation autour des systèmes applicables. Nous devons accorder une importance particulière aux types d’attaques qui accordent un accès privilégié et peuvent contourner les défenses de périmètre. La montée en flèche des ouvertures de réseaux privés virtuels et des exploits observés au cours des six derniers mois correspond à ce type.

En gardant ces considérations et objectifs à l’esprit, une équipe de renseignement sur les menaces peut mettre en place une formule de notation des risques pour créer un système numérique, défendable et méthodologie reproductible pour l’identification des menaces. Cette évaluation des risques doit guider la gestion des vulnérabilités sur la priorisation des correctifs et des remédiations et les équipes SecOps pour des domaines d’intérêt spécifiques dans leur travail de surveillance et de sécurité au jour le jour. Le cadre méthodologique du risque binaire peut être une bonne base de référence pour permettre des discussions structurées et rapides sur les risques.

Étape 5: Parlez aux autres parties prenantes
Une fois en place, le programme d’identification des menaces doit être résumé et distribué dans un format pratique et lisible pour les parties prenantes qui ont besoin de détails.

Les graphiques «Stoplight» ou autres graphiques simples à base de couleurs avec une seule ligne de description sont simples et faciles à lire. Au-delà de ce traitement de base, les rapports d’identification des menaces doivent également fournir des conseils détaillés aux parties prenantes plus techniques en fonction des exploits et des risques commerciaux:

Les équipes de gestion des vulnérabilités doivent recevoir une liste pondérée en fonction des risques des correctifs à utiliser.
Les équipes SecOps doivent recevoir une liste des types d’attaques à surveiller. Aussi fournissez-leur une description de la façon dont ces types peuvent se manifester dans les fichiers journaux ou d’autres données de télémétrie et analyses.
Les rapports d’identification des menaces peuvent également guider le déploiement de la simulation de violation et d’attaque et suggérer quels playbooks doivent être chargés pour les simulations et quels contrôles de sécurité doivent être validés contre des attaques plus récentes ou émergentes.
Chaque version du rapport doit comporter les prochaines étapes personnalisées en fonction du lecteur et de son rôle. Au mieux, cette structure de rapport modulaire prendra une forme simple de messages imbriqués qui permet un zoom avant et un zoom arrière faciles pour toute partie prenante.
La création d’un programme d’identification des menaces est une base essentielle pour une cybersécurité proactive. Le faire de la bonne manière peut rapporter des dividendes pour les années à venir. Le programme peut créer des plans, des normes et des modèles de communication clairs et cohérents qui améliorent la sensibilisation et la sécurité.

SEO AGENCE est une agence d’audit SEO

Les mécanismes derrière le clustering de mots clés

La recherche de mots-clés est la tâche principale de toute stratégie de référencement et en plus de trouver les mots-clés les plus rentables pour lesquels vous pouvez vous classer, il y a beaucoup de travail à faire pour les analyser avant de les utiliser. La mise en cluster ou le regroupement est le processus qui vous aide à trier les mots clés que vous avez collectés, à les hiérarchiser et à filtrer ceux qui ne sont pas pertinents. Cela maximise vos chances de bien vous classer et nous vous expliquerons pourquoi.

Qu’est-ce que le clustering de mots clés?
Le clustering de mots clés combine des requêtes similaires et pertinentes en groupes et utilise des groupes entiers au lieu de mots clés séparés pour l’optimisation du site. Il aide à nettoyer le noyau sémantique en le divisant en groupes gérables.

La sémantique de clustering a toujours été une étape majeure dans la construction d’un site Web. Cela est devenu particulièrement évident avec le passage au référencement axé sur le sujet en 2013, lorsque Google a déployé sa mise à jour Hummingbird et que l’algorithme a commencé à se concentrer sur des phrases plutôt que sur des mots-clés uniques. Le changement a été soutenu par le RankBrain 2015 mise à jour: l’algorithme est devenu plus intelligent et pouvait définir des thèmes de requêtes de recherche et trouver plusieurs phrases similaires.

Il existe deux principaux types de clustering de mots clés:

basé sur le lemme – qui trouve des similitudes dans la signification des phrases et leurs correspondances morphologiques
et basé sur SERP – qui recherche des correspondances parmi les résultats de recherche.
Avantages du regroupement de mots-clés sémantiques
L’intérêt du regroupement de mots clés est qu’il vous donne une image plus claire du contenu à créer et de la manière de l’organiser sur les pages, des expressions à classer et de la manière de promouvoir différents segments de votre site.

En regroupant vos mots clés, vous pouvez:

Mieux comprendre l’intention des utilisateurs. Le référencement axé sur les sujets offre une réponse plus approfondie aux utilisateurs: lorsque vous associez des expressions similaires, vous ciblez l’intention de l’utilisateur au lieu d’un seul mot-clé et vous êtes donc plus susceptible de couvrir cette intention.
Maximisez le nombre de mots-clés à classer. Avec les clusters, vous pouvez classer un certain nombre de mots clés associés au lieu de cibler des requêtes uniques séparément.
Supprimez les mots clés inutiles. Le clustering rend une énorme liste de mots-clés plus gérable et plus complète – vous serez en mesure de repérer facilement les requêtes non pertinentes. Le logiciel de regroupement de mots clés de SE Ranking vous fournira des mots clés non groupés qui ne correspondent à aucun sujet que l’outil distingue et vous permettra de vérifier si vous en avez besoin dans votre stratégie.
Comprenez le potentiel des segments. Les clusters que vous recevez en conséquence vous aideront à comprendre comment différents éléments de contenu sont ou doivent être connectés. Ce processus vous permettra de voir votre site du point de vue du moteur de recherche et d’évaluer les différentes catégories que vous possédez ou que vous devriez mieux avoir.
Créez une structure de site efficace ou analysez l’existante. Le clustering vous aide à analyser les relations sémantiques entre vos pages et à améliorer l’architecture de votre site.
Augmentez la visibilité et l’autorité de votre site. Grâce au regroupement de mots-clés, vous pouvez avoir une meilleure compréhension de la sémantique et rendre votre contenu plus puissant, ce qui, dans son tour, rendra votre site Web plus autoritaire aux yeux des moteurs de recherche.
Gagnez du temps et éliminez les erreurs. S’il est effectué automatiquement, le regroupement de mots clés vous offre tous les avantages mentionnés ci-dessus rapidement et efficacement.
Regroupement manuel ou automatisé
Il existe de nombreux outils pour automatiser le processus de regroupement, bien que certains préfèrent encore le faire manuellement à l’aide d’Excel ou d’autres programmes. C’est une chose lorsque vous avez une centaine de mots, mais lorsque la recherche d’un projet vous laisse des milliers de mots-clés, imaginez à quel point il vous faudra du temps pour les gérer tous manuellement. Le regroupement manuel vous obligera à diviser chaque mot-clé en termes, à définir son intention et à créer des listes d’expressions en fonction des paramètres dont vous avez besoin.

L’outil de regroupement de mots-clés automatisé dans SE Ranking vous fera gagner du temps et des efforts et fera le travail pour vous. Vous obtiendrez des informations sur le contenu de vos mots clés et sur la manière de les segmenter en groupes utilisables sans avoir à les passer en revue et toutes les requêtes que vous avez collectées.

Comment regrouper des mots-clés avec le classement SE
Maintenant que nous savons à quel point le regroupement de mots-clés peut être puissant, plongons dans les mécanismes de le faire à l’aide des outils de classement SE.

Recherche initiale de mots clés
Pour trier les mots-clés en groupes thématiques, vous devez d’abord collecter une liste complète de mots-clés. Collecter autant de requêtes que possible est votre première tâche fondamentale dans le processus de création et de promotion de votre site Web. Le processus de recherche initial vous aidera à explorer ce que les utilisateurs recherchent dans votre niche et comment vos concurrents gèrent les mots-clés.

Il existe une gamme d’outils gratuits et payants qui vous aideront à trouver des mots clés pour votre site Web. Utilisez Google Trends et Google Analytics pour suivre les requêtes de recherche les plus fréquentes et les tendances actuelles dans les résultats de recherche. Lors de votre recherche, notez qu’il existe différents types de requêtes de recherche: vous pouvez les distinguer par leur longueur et leur spécificité (phrases à un, deux, trois et quatre mots, ainsi que des mots-clés à longue traîne) et par l’intention de l’utilisateur (navigation, informationnelle, transactionnelle). Ces différences vous donneront une idée de la rudesse de la concurrence pour des mots clés particuliers et des chances de conversion.

La définition et l’analyse de vos concurrents est une autre étape majeure dans la recherche de mots clés. Découvrez qui est leader dans les résultats de recherche organiques et quels sont ses mots clés les plus rentables et découvrez les annonces PPC les plus performantes dans votre créneau. La comparaison sémantique disponible dans SE Ranking peut vous montrer des chevauchements de mots clés entre différents domaines: les expressions courantes pour vos principaux concurrents figureront sur votre liste de cibles incontournables.

Comparaison sémantique dans le classement SE
L’outil de recherche de mots clés de SE Ranking comprend des suggestions de mots clés dans lesquelles vous pouvez trouver des mots clés similaires et connexes. Explorez la liste des expressions à faible volume de recherche pour saisir pleinement votre niche et augmenter le nombre de mots-clés pour lesquels vous souhaitez vous classer. Vous pouvez exporter vos résultats à partir du classement SE, puis trier les mots-clés dans un xls. ou csv. fichier.

Suggestions de mots clés en SE Classement
Créer des clusters
Maintenant que vous disposez d’une liste complète de mots clés dans votre créneau, il est temps de créer des groupes gérables et d’éliminer les requêtes dont vous n’avez pas besoin. L’outil de regroupement de mots-clés de SE Ranking filtre les requêtes en fonction de leurs similitudes SERP. Il recherche des correspondances dans les résultats de recherche pour des mots clés et des expressions de clusters donnés qui se classent pour des pages identiques.

Comparons le fonctionnement du regroupement s’il est effectué manuellement et automatiquement, puis examinons toutes les étapes à suivre pour regrouper vos requêtes dans SE Ranking.

CLUSTERING MANUEL DE MOT-CLÉS
Pour créer manuellement des clusters de mots-clés, vous pouvez filtrer la liste en fonction de leur sémantique ou de leur type d’intention. Par exemple, vous avez une énorme liste de requêtes sur les « logiciels de retouche photo ».

Vous pouvez identifier tous les différents termes apparaissant dans les résultats de recherche (par exemple, « éditeur de photos », « programme photo », « éditeur d’images », « créateur de collages », etc.) et regrouper les mots clés contenant des termes identiques.
Vous pouvez regrouper les requêtes en fonction de leur recherche volume, ce qui vous aidera à travailler sur la structure du site: les mots clés à volume élevé, les mots clés de marque à faible volume et les mots clés à faible volume peuvent représenter, respectivement, les catégories, sous-catégories et filtres de votre site.
Vous pouvez rechercher différents types de phrases en se concentrant sur l’intention de recherche (des questions telles que comment installer un éditeur de photos '', existe-t-il un éditeur de photos pour mac  », des spécifications telles que éditeur de photos gratuit '', meilleur éditeur de photos payé ‘ etc). Pour vérifier l’intention du mot clé, recherchez-le sur Google et visitez les sites les plus populaires à partir des résultats de recherche. De cette façon, vous obtiendrez une image complète des besoins des internautes et serez en mesure de segmenter les requêtes plus efficacement.
Vous pouvez créer des balises pour différents aspects d’un mot-clé: par exemple, le type d’utilisation (en ligne et hors ligne), l’intention transactionnelle (acheter, télécharger, installer, rechercher, etc.), les spécifications de l’appareil (PC, Mac, Android, iOS, etc.) . Ensuite, vous devrez effectuer des correspondances croisées entre les balises et créer des clusters.
Vous pouvez simplement passer en revue chaque mot-clé séparément et les regrouper basé sur tous les autres critères que vous souhaitez. Le regroupement de mots-clés manuel ou automatisé dépend en grande partie de votre niche et de vos objectifs de référencement particuliers.
GROUPEMENT AUTOMATISÉ DE MOTS CLÉS DANS LE CLASSEMENT SE
Pour commencer à regrouper des mots-clés dans SE Ranking, vous devez sélectionner votre région et la langue de l’interface. Concentrez-vous sur les régions dans lesquelles vous souhaitez promouvoir votre site Web et effectuez un regroupement séparément pour chaque langue si vous ciblez plusieurs d’entre elles. Ensuite, vous devez choisir le niveau de précision du regroupement et la méthode de regroupement – ce sont les facteurs qui influenceront vos résultats.

Enfin, vous devez insérer vos mots-clés – vous pouvez les ajouter manuellement ou les importer à partir d’un fichier. Sélectionnez si vous souhaitez vérifier le volume de recherche en plus du regroupement (il peut également être téléchargé séparément) et exécutez l’outil. Vous devez maintenant attendre un peu pendant que notre robot recherche les résultats correspondants et regroupe vos mots-clés en fonction du nombre donné de pages identiques dans les 10 premiers résultats.

Choix de la méthode de clustering et de la précision
Voyons maintenant comment différents paramètres fonctionnent. Il y a deux paramètres principaux à sélectionner: la précision du regroupement et la méthode.

COMMENT FONCTIONNE LA PRÉCISION DU GROUPEMENT DE MOTS CLÉS
La précision du regroupement des mots-clés (entre 1 et 9) indique le nombre minimal d’URL correspondantes pour les requêtes. Par exemple, si vous le définissez sur 3, les phrases ne seront regroupées que si elles ont 3 URL identiques dans les résultats de la recherche. Plus la précision est élevée, moins il y aura de correspondances et moins de mots-clés seront inclus dans chaque cluster.

Les requêtes similaires ont naturellement des similitudes SERP:

Similitudes SERP
Passons le même ensemble de mots clés à différents paramètres de précision et comparons les résultats. Nous avons pris 212 requêtes sur le sujet des logiciels de retouche photo et les avons regroupées à l’aide de la méthode douce avec le niveau de précision maximum (9) et minimum (1).

Le regroupement de haute précision nous donne des catégories plus spécifiques avec lesquelles travailler et laisse également de nombreuses phrases non groupées:

Regroupement de mots clés haute précision
Nous avons l’idée de différent les besoins des chercheurs avec de tels paramètres: nous pouvons voir que les gens recherchent des éditeurs de photos pour différents systèmes d’exploitation, pour le mode de fonctionnement en ligne et hors ligne, etc.

Cependant, de nombreux clusters séparés par l’outil peuvent être regroupés logiquement: le meilleur logiciel de retouche photo '' n'est pas sémantiquement différent du meilleur logiciel de retouche photo  ». Nous devons donc travailler sur ces mots-clés manuellement, ainsi que sur les non groupés. .

En revanche, le regroupement de mots clés à faible précision nous laisse avec des clusters plus larges, ce qui n’aide pas beaucoup à catégoriser les différentes intentions:

Regroupement de mots clés à faible précision
Avec de tels paramètres, vous devrez probablement regrouper manuellement la plupart des mots-clés, correspondant à leur signification. Il est généralement judicieux de mettre en œuvre des techniques de clustering automatisées et manuelles.

COMMENT FONCTIONNENT DIFFÉRENTES MÉTHODES DE GROUPEMENT DE MOTS CLÉS
La méthode (hard et soft) définit comment les requêtes de recherche sont comparées: le soft clustering compare toutes les requêtes à celle avec le plus grand volume de recherche, tandis que le clustering dur compare les requêtes les unes aux autres.

Le clustering souple donne une idée plus générale de la niche et des différents mots-clés ciblés par vos concurrents. Avec cette approche, vous obtiendrez également moins de requêtes non groupées (affichées en bas de la page de résultats dans le cluster Ungrouped) – celles que vous devrez trier manuellement et décider si vous souhaitez les utiliser dans votre référencement.

Le clustering dur peut aider à éliminer les requêtes de recherche non pertinentes et à distinguer de nombreuses intentions des utilisateurs. La comparaison des requêtes les unes par rapport aux autres donne un plus large choix d’intentions spécifiques et crée plus de groupes, même avec le niveau de précision le plus bas:

Regroupement de mots clés dur à faible précision
Cependant, le clustering de faible précision, même lorsqu’il est effectué à l’aide de la méthode dure, ignore de nombreuses différences importantes à l’intérieur de chaque groupe. Par exemple, une liste regroupée sous « logiciel de retouche photo gratuit » comprend des mots clés qui ne sont pas directement liés les uns aux autres: « logiciel de retouche photo Windows », « logiciel de retouche photo facile », « photo téléchargeable logiciel d’édition »représentent différentes intentions de recherche.

Différentes intentions de recherche dans un cluster de mots clés
Le clustering dur de haute précision, à son tour, peut ignorer les similitudes entre plusieurs groupes. Par exemple, nous avons le «meilleur logiciel de retouche photo» et le «meilleur logiciel de retouche photo» en tant que clusters séparés, ce qui n’a pas beaucoup de sens sémantiquement.

SEO AGENCE est une agence de référencement naturel.

Netflix gratuit… en Inde

Netflix prévoit de donner aux utilisateurs en Inde l’accès à son service sans frais pendant un week-end dans le cadre d’un test visant à étendre sa portée dans le pays, a déclaré mardi un haut dirigeant de l’entreprise.

Le géant américain du streaming, qui a annoncé aujourd’hui une croissance lente des utilisateurs pour le trimestre qui s’est terminé en septembre, a récemment cessé d’offrir un accès gratuit au premier mois aux nouveaux utilisateurs aux États-Unis.Mais la société prévoit de continuer à expérimenter de nouvelles façons d’attirer le potentiel dans de nombreux domaines. du monde, a déclaré Greg Peters, COO et directeur des produits chez Netflix lors de l’appel aux résultats de l’entreprise.

L’un de ces nouveaux moyens est de donner l’accès à Netflix sans frais aux clients pendant un week-end sur différents marchés, a-t-il déclaré. La société a choisi l’Inde, où elle est en concurrence avec Disney, Amazon et techniquement trois douzaines de services supplémentaires, comme premier marché sur lequel elle testera cette idée et «verra comment cela se passe», a-t-il déclaré.

«Nous pensons que donner à tout le monde dans un pays un accès gratuit à Netflix pendant un week-end pourrait être un excellent moyen d’exposer un groupe de nouvelles personnes aux histoires incroyables que nous avons, au service et à son fonctionnement … et j’espère en obtenir un tas de ces gens à s’inscrire », a-t-il déclaré, sans préciser quand l’entreprise déploiera ce nouveau test en Inde. (Ce n’était pas le cas au moment de la publication.)

Ce ne sera pas la première fois que Netflix utilise l’Inde comme banc d’essai pour explorer de nouvelles idées. La société a d’abord flirté avec l’idée d’un forfait mensuel de 2,7 $ pour mobile uniquement à New Delhi avant de l’introduire en tant que niveau permanent dans le pays l’année dernière, puis près d’une douzaine de marchés. Il a depuis testé encore plus de plans tarifaires dans le pays.

L’Inde est devenue le plus grand champ de bataille ouvert pour la Silicon Valley et les entreprises chinoises à la recherche de leur prochain milliard d’utilisateurs au cours de la dernière décennie. Disney, Amazon, Google, Apple, Spotify et plusieurs autres entreprises offrent une gamme de leurs services à un prix très abordable en Inde, deuxième marché Internet du monde.

La société, qui a affecté 420 millions de dollars au développement et à la licence de contenu en Inde d’ici la fin de 2020 l’année dernière, approfondit également sa collaboration avec d’autres acteurs de l’industrie dans le pays.

Il s’est récemment associé à Reliance Jio Platforms, le plus grand opérateur de télécommunications de l’Inde, pour intégrer son application aux forfaits haut débit et données mobiles de la société indienne. La société s’est également associée à plusieurs institutions financières en Inde pour faciliter le traitement des paiements pour les utilisateurs du pays, a-t-il déclaré. «Nous prévoyons que [davantage d’options de paiement] auront des avantages de rétention. Toutes ces initiatives sont importantes et fonctionnent de concert avec notre gros investissement dans les originaux locaux pour améliorer l’expérience Netflix pour nos membres », a déclaré la société dans une lettre aux actionnaires (PDF).

SEO AGENCE est une agence de conseil SEO.

La prochaine version de l’internet

La prochaine génération d’expérience Web sera totalement révolutionnaire – et dans trois ans seulement.

Rich Green est excité.

«Ce phénomène est le développement le plus important de l’histoire de la technologie. Cela changera l’évolution humaine », a-t-il déclaré. «Cela changera l’espèce humaine. Il est juste là devant nous.

« Et ce qui est vraiment époustouflant, c’est que dans trois ans. »

Ce que Green décrit, c’est le concept de Spatial Web, également appelé Mirrorworld ou Web 3.0.

Green a observé la convergence d’un certain nombre de technologies – de la 5G à la Blockchain en passant par Edge Computing – qui prendront le Web tel que nous le connaissons maintenant et le transformeront en ce que nous n’avons vu jusqu’ici que dans la science-fiction.

Web 1.0 et 2.0, alors…
Tout d’abord, un peu de contexte: lorsque Netscape et d’autres navigateurs ont commencé à apparaître sur les ordinateurs de bureau au milieu des années 1990, le Web était une proposition à sens unique pour la plupart des gens: vous lisez du texte, regardez des images fixes, etc. C’était Web 1.0.

«Le Web 2.0, qui est l’ère dans laquelle nous nous trouvons actuellement, a été l’aube des applications mobiles, des réseaux sociaux et de l’interactivité avec le Web», a expliqué Green.

Green préfère le terme «Web spatial» pour la prochaine itération de notre monde numérique. «Le Web 3.0, qui est cette nouvelle ère qui émerge en ce moment, intègre le Web spatial», a-t-il déclaré. «La métaphore va d’un écran plat en deux dimensions à une expérience où vous regardez réellement à travers l’écran dans un monde en trois dimensions. Ce monde 3D est notre vraie réalité, mais superposé, sur un match en tête-à-tête, est une réalité numérique.

C’est comme un jumeau numérique, a ajouté Green. «C’est une cartographie numérique des actifs numériques, des créations d’objets 3D, etc., superposées au monde réel», a-t-il déclaré. «La façon dont nous voyons cela se fait par nos téléphones portables, par nos tablettes, mais surtout par des lunettes de réalité augmentée.»

Ceci est crucial, selon Green: «La réalité augmentée est la clé de notre visibilité sur le Web 3D. »

La formule
Mais la RA n’est qu’une partie de l’équation qui rend cette avancée possible. La vitesse et la faible latence de la 5G, l’omniprésence de l’Internet des objets, la puissance de l’informatique de pointe et les registres distribués de Blockchain, qui peuvent contribuer à assurer la sécurité et la «démocratisation» de la technologie, comme le dit Green, convergent tous créer le potentiel pour cette expérience Web de nouvelle génération.

Comme chaque partie de cette chaîne de technologies communique avec ses camarades via le cloud AR, le web spatial crée un « Mirrorworld » un-à-un (comme l’a surnommé Kevin Kelley dans

Wired magazine) qui peut imiter – ou améliorer ou déformer – le monde dans lequel nous vivons physiquement, par opposition à numériquement. Ajoutez un ensemble de gants haptiques qui simule la sensation de toucher un objet qui n’est pas réellement là en trois. espace dimensionnel, et vous avez une expérience immersive qui peut rivaliser de manière convaincante avec les expériences «réelles» que nous avons chaque jour.

«Tout ce dont vous avez besoin est d’imagination et le le monde change, l’espèce humaine change », a déclaré Green.

SEO Agence est une agence de conseil SEO

L’IA, c’est sérieux ?

Dans le film de 2004 I, Robot, Detective Del Spooner demande à un A.I. nommé Sonny: «Un robot peut-il écrire une symphonie? Un robot peut-il transformer une toile en un beau chef-d’œuvre? » Sonny répond: « Pouvez-vous? »

Les scientifiques ont travaillé pour répondre à la question de Spooner pendant la dernière décennie avec des résultats frappants. Des chercheurs de l’Université Rutgers, de Facebook et du College of Charleston ont développé un système de création d’œuvres d’art originales appelé C.A.N. (Réseau Adversaire Créatif). Ils ont «formé» C.A.N. sur plus de 81 000 tableaux de 1 119 artistes allant du XVe au XXe siècle. Le A.I. des experts ont écrit des algorithmes pour C.A.N. pour émuler des styles de peinture tels que la haute Renaissance, l’impressionnisme et le pop art, puis s’écarter des styles et produire une «excitation» parmi les spectateurs humains.

Dans un article publié en 2017 dans arXiv, les scientifiques rapportent que «les sujets humains ne pouvaient pas distinguer l’art généré par le système proposé de l’art généré par des artistes contemporains et présenté dans les plus grandes foires d’art». Aiva, une A.I. musicale, est récemment devenue la première machine à être enregistrée comme compositeur par la SACEM, une association professionnelle française d’auteurs-compositeurs, de compositeurs et d’éditeurs. Il apprend des compositions musicales existantes puis compose une musique originale et émotionnellement résonnante.

Pourquoi n’avons-nous pas vu un robot comédien aussi sophistiqué qu’un robot compositeur?

Si les IA peuvent être créatifs, peuvent-ils aussi être drôles? Eric Horvitz et Dafna Shahaf, chercheurs de Microsoft, en collaboration avec l’ancien éditeur de dessins animés new-yorkais Robert Mankoff, ont récemment montré qu’un A.I. peut dire ce qui est drôle. Horvitz et Shahaf ont développé un A.I. pour aider à passer au crible l’énorme pile de soumissions au concours de sous-titres du New Yorker. « Nous avons développé un classificateur qui pouvait choisir le plus drôle de deux légendes 64% du temps, et l’avons utilisé pour trouver les meilleures légendes, réduisant considérablement la charge sur les juges du concours de dessins animés », ont-ils écrit dans un article.

Bien que A.I. les robots peuvent ramasser des blagues, ils ont beaucoup à apprendre leur dire. En général, leurs blagues dérivent de jeux de mots, de jeux de mots et de saper les attentes logiques. «Comment appelez-vous une graine capable? Un sperme capable. Pas exactement Robin Williams. Mais pas mal.

Zoei (Zestful Outlook on Emotional Intelligence), un robot créé en 2014 par des chercheurs de l’Université Marquette, est prometteur en tant que comique en herbe. Zoei crée des blagues et des gestes, détecte les visages et reconnaît les réactions du public aux blagues précédentes. Il améliore sa routine via une technique d’apprentissage automatique appelée apprentissage par renforcement: tout comme une bande dessinée humaine utilisant des essais et des erreurs, Zoei maximise la «récompense» (rire ou réponse positive) pour ses blagues en explorant ses options et en exploitant la meilleure .

Zoei doit repartir de zéro avec chaque public, en construisant son répertoire au fur et à mesure. Les bandes dessinées humaines font la même chose dans une certaine mesure, mais elles peuvent mémoriser les publics passés et faire des associations entre eux, ainsi qu’écrire et se préparer avant de se produire. Regarder un «Zoei Night Live », ce serait comme vivre les premières minutes maladroites d’un micro ouvert, ou le pilote de saison inconfortable, au début de chaque spéciale.

Jusqu’à présent, Zoei n’a pas été testé dans des contextes plus grands que individuels, ou dans un vaste groupe démographique – il n’est pas près d’être un homologue comique d’Aiva. Pourquoi n’avons-nous pas vu un robot humoriste aussi sophistiqué ou avancé qu’un robot compositeur?

La différence fondamentale entre les éléments constitutifs de la musique et de la langue peut expliquer cette divergence. Selon Jonah Katz et David Pesetsky, de la West Virginia University et du M.I.T., respectivement, ces éléments constitutifs consistent en «des paires arbitraires de son et de sens dans le cas du langage; classes de hauteur et combinaisons de classe de hauteur dans le cas de la musique. » L’arbitraire général de la langue est généralement accepté comme l’une de ses caractéristiques déterminantes: le son d’un mot n’a pas de sens implicite en soi, car il peut changer dans le contexte de la langue, du dialecte, de la phrase, etc. sur. Katz explique qu ‘«il pourrait y avoir entre sept et deux douzaines de types d’atomes de base combinés pour former des morceaux de musique complexes», tandis que «pour le langage, le nombre d’atomes de base est de l’ordre de dizaines de milliers».

Avec ses subtilités et ses inflexions, ses significations et ses motifs, la langue est la devise de la comédie. (Pas le seul: voir de grandes bandes dessinées burlesques comme les Marx Brothers.) Robert Provine, neuroscientifique et auteur de Laughter: A Scientific Investigation, a montré que les plaisanteries qui imprègnent notre vie quotidienne sont souvent la graine des blagues d’un comédien. Provine a jadis observé des groupes de personnes sur un campus universitaire, pour une expérience, pour voir ce qui a provoqué le rire. Les échanges qui ont fait rire les gens, a découvert Provine, s’apparentaient à une sitcom télévisée «interminable» «scénarisée par un écrivain extrêmement peu doué». La comédie dépend du dialogue quotidien et des références culturelles et sociales partagées.

Nous devrions être heureux d’apprendre que le langage humain reste notre domaine. Parce que c’est les nuances sont difficiles à capturer en A.I., nous pouvons être infiniment plus créatifs avec elle que les machines. Une bande dessinée de robot devrait faire un long chemin pour générer un rire profond, sans parler d’un jeu de comédie. Dans un club d’improvisation, ce serait le seul ami maladroit qui essayait des jeux de mots et des blagues de papa. Pour l’instant, les robots peuvent écrire des blagues qui apparaissent sur des bâtons de popsicle. Mais ils n’amélioreront pas Dave Chappelle de si tôt.

SEO AGENCE est une agence seo à Lille

L’impératif de l’IA dans la sécurité

Si les équipes des opérations de sécurité semblent épuisées, c’est parce qu’elles le sont – et pour de bonnes raisons. Même avant la pandémie actuelle, qui a vu une augmentation significative de certains types de cyberattaques, les experts en cybersécurité repoussaient déjà plus d’attaques que jamais dans leur paysage numérique en constante évolution. Le résultat est que le coût moyen d’une violation de données dépasse désormais 3,78 millions de dollars.

Cependant, alors que la pandémie se poursuit, les réseaux sont encore plus étendus. Les employés distants travaillent désormais sur des infrastructures jamais conçues pour avoir la majorité des charges de travail venant de l’extérieur du réseau, et les cybercriminels n’ont pas tardé à exploiter l’urgence et la confusion du moment. En plus d’un pic de spams et de campagnes d’hameçonnage hautement manipulateurs diffusant des logiciels malveillants, il y a également eu un ciblage accru d’individus de grande valeur pour voler des informations critiques, fournir des ransomwares ou installer des chevaux de Troie d’accès à distance qui contrôlent et surveillent les réseaux. Le risque est pas seulement que les organisations tentent leur chance sur un pari de 4 millions de dollars. C’est qu’ils prennent cette chance un million de fois par jour.

Ce n’est pas une hyperbole. À une époque où les alertes se multiplient en raison de la prévalence des menaces, certaines équipes SOC extensives reçoivent en moyenne 1 million d’alertes de sécurité par jour. Parce qu’ils manquent de personnel, ils n’ont guère d’autre choix que d’ignorer la plupart des alertes qu’ils reçoivent. Dans un rapport de l’ESG, les professionnels de la cybersécurité ont signalé que les organisations ignoraient jusqu’à 75% de toutes les alertes de sécurité – et même lorsqu’elles étaient en mesure de répondre, elles se retrouvaient souvent en course pour contenir et atténuer les menaces qui traversaient les réseaux plus rapidement que jamais grâce à un large gamme de nouvelles techniques d’attaque, y compris celles qui commencent à tirer parti de l’intelligence artificielle et de l’apprentissage automatique.

C’est l’homme contre la machine à la vitesse de l’ère numérique, et c’est tout simplement insoutenable. Les équipes du SOC d’aujourd’hui ne doivent pas être tenues pour responsables de faire l’impossible. Forcer qu’ils soient plus rapides qu’une attaque basée sur l’IA – en particulier sur des réseaux massifs d’appareils connectés à distance, dont un seul doit être violé pour que les criminels réussissent – n’est tout simplement pas réaliste.

Lorsqu’une attaque se produit, les analystes de la sécurité se démènent pour savoir comment elle est entrée, qui était le patient zéro et ce qu’il va infecter ensuite. Alors que même les réponses les plus rapides peuvent prendre plus de 10 minutes pour renvoyer des résultats, les ransomworms – qui se répliquent automatiquement en exploitant des fichiers et des programmes vulnérables – peuvent détruire des réseaux entiers, y compris des appareils et des systèmes connectés, en une fraction de temps. Tout ce qu’il faut pour en libérer un, c’est qu’un seul employé clique sur un lien de n’importe où sur le réseau.

Il n’est pas étonnant que la pression sur les professionnels de la sécurité soit plus forte que jamais. S’ajoute à cette pression l’attente que les analystes SOC devraient être des experts en tout, même si les organisations étendent leurs réseaux pour inclure des environnements multicloud, des travailleurs distants et des réseaux domestiques. Cependant, des compétences telles que la recherche sur les logiciels malveillants et le traçage patient zéro nécessitent des années d’expérience accumulée pour se développer. Tout comme les hôpitaux submergés par les patients de Covid-19 appellent des étudiants en médecine à assister à leur en première ligne, le manque de compétences en cybersécurité oblige les organisations à adopter une approche globale. Il s’agit à peine d’un palliatif, et encore moins d’une solution.

La vraie solution doit être double: la première consiste à déployer une IA capable de dépasser les vitesses de la technologie utilisée pour l’attaquer. La seconde consiste à tirer parti de la vitesse et de la précision de l’IA pour réutiliser les professionnels de la sécurité loin de l’analyse de données banale.

Le développement et le déploiement d’une solution d’intelligence artificielle peuvent prendre énormément de temps et de main-d’œuvre. Cependant, lorsqu’il s’agit d’identifier et de répondre à une attaque, la vitesse est le maître mot. Une fois qu’un système d’IA a été correctement construit et formé, la puissance de la sécurité basée sur l’IA est révélée par ses temps de réponse. Un système d’IA efficace peut effectuer les tâches d’une douzaine d’analystes de sécurité – et dans un paysage de menaces qui lance constamment de nouvelles menaces zero-day, la capacité de l’IA à réagir à la vitesse de la machine est essentielle. Aujourd’hui, une IA efficace peut détecter et désactiver un menace en quelques secondes, alors qu’il faudrait des jours à un analyste de sécurité chevronné pour l’identifier et l’isoler.

Cependant, ce n’est pas parce que les membres de l’équipe SOC ne devraient pas faire le travail d’IA que les solutions d’IA devraient faire le leur. Loin de là. La véritable puissance de l’IA n’est pas révélée lorsqu’elle est utilisée pour remplacer la prise de décision d’ordre supérieur et la perspicacité humaine. Au contraire, c’est la meilleure façon de voir ses limites. C’est plutôt lorsque la vitesse et la puissance de l’IA sont utilisées par des experts en sécurité chevronnés.

Parce que l’IA peut fonctionner à la vitesse de la machine pour détecter et atténuer efficacement les attaques plus rapidement et plus précisément que jamais, les professionnels de la sécurité sont alors libres de résoudre des problèmes beaucoup plus compliqués qui nécessitent des analyses plus poussées, telles que l’analyse médico-légale de la chaîne d’attaque et la restauration des systèmes. , ainsi que d’identifier et de combler les lacunes de sécurité et de rendre compte à la direction de ce qui s’est passé et pourquoi. Alors que l’IA peut identifier presque instantanément les cibles et arrêter un violation, les professionnels de la sécurité doivent encore analyser le contexte autour de l’attaque, y compris qui a été ciblé et pourquoi, permettant ainsi une reconnaissance plus approfondie des vulnérabilités potentielles.

L’intelligence artificielle et l’apprentissage automatique deviennent une partie plus importante de l’arsenal utilisé par les cybercriminels pour contourner les contrôles de sécurité que nous avons mis en place pour défendre nos ressources numériques. Par conséquent, nous ne devons pas hésiter à discuter de la nécessité de la vitesse et de la puissance que ces technologies peuvent fournir pour sécuriser nos réseaux en expansion. Cependant, bien que cette vitesse soit cruciale pour la sécurité numérique, sa valeur est en tant qu’outil pour les professionnels de la sécurité et non en tant que remplaçant. Il n’est pas contradictoire de dire que dans un paysage de menaces en constante évolution et de plus en plus intense, les réseaux doivent désormais déployer une IA plus rapide que n’importe quel analyste de sécurité chevronné, car nous avons plus que jamais besoin de ces analystes de sécurité chevronnés.

SEO AGENCE est une agence de conseil SEO

L’aube de la « datacracy »

Lorsqu’un gouffre est apparu sur une route très fréquentée à Hangzhou, la ville idyllique de la province du Zhejiang, dans l’est de la Chine, qui a accueilli le Sommet du Groupe des 20 en 2016, le premier intervenant n’était pas une personne mais un système intelligent.

La plate-forme City Brain de Hangzhou a été la première à être mise en action, déclenchant un système d’intervention d’urgence qui a vu des vidéos de surveillance sur place envoyer des données et des images aux départements gouvernementaux concernés. Il a également établi une zone d’évacuation rapide couvrant les bâtiments voisins avec plus de 700 familles, émis un ordre d’évacuation et envoyé des informations telles que les adresses des personnes âgées et des personnes handicapées de la zone aux travailleurs sociaux afin qu’ils puissent être là pour offrir une aide spécifique. .

Tout cela a été fait en seulement 10 minutes, ce qui a laissé suffisamment de temps pour les opérations de sauvetage et évité des pertes.

Il n’est pas étonnant que Hangzhou ait un système d’administration aussi futuriste, étant donné qu’il abrite le géant de la technologie Alibaba. Wang Jian, architecte en chef du projet, l’appelle Le «cockpit numérique» de Hangzhou.

Il s’agit d’un vaste réseau neuronal basé sur l’intelligence artificielle (IA). Un volume massif de données – y compris les détails du trafic, des informations sur l’approvisionnement en eau et en gaz, et les changements météorologiques – et bien plus encore sont interconnectés et relayés aux services administratifs et aux individus pour une prise de décision intelligente.

Par exemple, alors que le City Brain a transmis les détails du gouffre aux services gouvernementaux concernés, il les a également envoyés aux résidents via leurs téléphones portables, les avertissant de rester à l’écart de la zone ou d’évacuer s’ils y étaient déjà.

Des progrès rapides
L’initiative de Hangzhou illustre comment la réforme administrative et un nouveau cycle de révolution technologique sont intégrés pour un développement intelligent.

La Chine fait pression pour la modernisation de son système et de sa capacité de gouvernance. Des technologies sophistiquées telles que le big data, le cloud computing et l’IA sont utilisées pour le développement social et économique, modifiant le mode de production et de fonctionnement ainsi que la gouvernance.

C’est l’ère de l’e-gouvernance. «La numérisation est une solution majeure pour la modernisation de la gouvernance», a déclaré Wang Yukai, membre du Comité consultatif pour l’informatisation de l’État, lors d’un forum à Beijing en novembre. «Les données sont devenues une nouvelle énergie pour le développement économique, aussi importante que le charbon, l’électricité, le pétrole et le gaz.»

Les gouvernements locaux explorent leurs propres moyens d’intégrer les technologies modernes de l’information (TI) avec des services et une gouvernance innovants. Par conséquent, de multiples modèles de gouvernance électronique ont été créés.

Par exemple, le Zhejiang a lancé plusieurs applications mobiles grâce auxquelles les gens peuvent accéder à des services tels que la prise de rendez-vous avec des médecins dans les hôpitaux publics ou le paiement des frais de scolarité de leurs enfants. Selon le Bureau de développement et de gestion des données volumineuses du Zhejiang créé l’année dernière, plus de 40% des services gouvernementaux sont disponibles en ligne.

Le Zhejiang illustre le service public Internet Plus, l’un des trois types Les modèles d’e-gouvernance en Chine à l’heure actuelle, a déclaré Wang Yimin, directeur du Centre de recherche sur la gouvernance électronique de l’Académie chinoise de gouvernance, à l’hebdomadaire économique Caijing.

Le second est la numérisation des procédures administratives. Dans la province centrale du Hubei, le partage de données grâce à la numérisation assure la coordination entre les départements. En conséquence, chaque département a les données nécessaires à portée de main au lieu d’avoir à se pencher sur des dossiers papier moisis.

Le troisième est le modèle basé sur les données. La province sud-ouest du Guizhou en fournit un exemple avec sa National Big Data Comprehensive Pilot Zone, qui facilite le partage, l’innovation et la sécurité du Big Data.

D’ici la fin de 2020, le plan est d’établir un système coordonné de gouvernance électronique qui couvrira non seulement les régions administratives individuelles à travers le pays, mais qui les reliera également, jetant une base solide pour la modernisation de la gouvernance.

Source de soutien
L’appui technologique a un grand rôle dans cet ambitieux plan.

«Les provinces qui ont bien performé en matière de transformation numérique ont un point commun: elles abritent des entreprises technologiques géantes», a déclaré Li Xiaobo, chercheur au Centre de recherche sur l’industrie du Big Data du Centre chinois de conseil en développement de l’industrie de l’information. «Il est important qu’une ou deux de ces entreprises, au moins dans la phase préliminaire, coopèrent avec les gouvernements afin de renforcer leur capacité de gouvernance électronique.»

Dans le Zhejiang, le gouvernement collabore avec Alibaba et Foxconn; Guangzhou, pôle industriel de la province méridionale du Guangdong, bénéficie de la présence de Tencent et Huawei; tandis que dans la province du Shandong, berceau de Confucius dans l’est de la Chine, Inspur, l’un des plus grands fournisseurs d’équipements informatiques au monde, s’est fait un nom dans le big data et le cloud computing.

Selon un récent rapport du Tencent Research Institute, en 2018, le cloud computing est devenu le nouvel animal de compagnie des organes gouvernementaux, avec son application au gouvernement. affaires augmentant de 404,7 pour cent d’année en année.

Les affaires gouvernementales sont devenues le plus gros gâteau pour les fournisseurs de services de cloud computing, car il y a une transformation d’Internet orienté consommateur vers Internet orienté vers l’industrie.

L’année dernière, Aliyun, une filiale d’Alibaba spécialisée dans le cloud computing, a remporté l’appel d’offres pour un projet de cerveau urbain dans la province de Hainan, dans le sud de la Chine, d’une valeur de 455 millions de yuans (64,6 millions de dollars); Tencent Cloud a obtenu un projet similaire à Changsha dans la province centrale du Hunan, évalué à 520 millions de yuans (73,8 millions de dollars); tandis que Huawei a emballé un projet de 2,74 milliards de yuans (389 millions de dollars) à Dongguan, Guangdong, en septembre. Les chiffres montrent l’énorme potentiel du domaine.

Selon le fournisseur d’informations commerciales International Data Corp., les dépenses mondiales en matière de services de cloud public et d’infrastructure atteindront 210 milliards de dollars cette année, la Chine étant le deuxième marché après les États-Unis.En 2022, les dépenses en services à elles seules atteindront 370 milliards de dollars dans le monde.

Regardant l’énorme potentiel, les entreprises réforment leurs produits et leurs paysages industriels. Huawei a créé un nouveau département spécifiquement pour les services de gouvernance électronique en 2018 et a changé son rôle de la vente d’équipements à la fourniture de solutions globales. Plusieurs unités commerciales d’Alibaba, dont Alipay, une plate-forme de paiement en ligne, et Amap, une plate-forme de cartographie numérique et de navigation, sont toutes impliquées dans des projets de gouvernance électronique.

Liu Song, chef de l’Institut de recherche Aliyun, a déclaré à Caijing que la mission ultime du projet de ville numérique d’Alibaba est de permettre aux résidents de s’engager dans les affaires gouvernementales en ligne, tout comme les achats sur Taobao, le marché en ligne d’Alibaba.

Défis à venir
Les énormes données impliquées et la vitesse de développement élevée signifient également des défis dans la transformation numérique.

La sécurité est une préoccupation majeure. Les données gouvernementales sont une ressource publique inestimable contenant une grande quantité d’informations personnelles. Prévenir leur vol nécessite d’énormes capitaux et des intrants technologiques et appelle à des efforts à l’échelle de la société.

«La direction de la ville doit développer des méthodes efficaces de supervision, qui incluent le flux de données, les visiteurs et les prestataires de services», a déclaré Jin Zhipeng, chef du bureau de développement et de gestion des données volumineuses du Zhejiang.

La suggestion de Wang est que l’architecture de haut niveau devrait être renforcée pour résoudre les difficultés de partage et de coordination des données. En outre, il est important de tirer le meilleur parti des institutions de gestion du Big Data.

Enfin, les données doivent être utilisées correctement pour les décisions gouvernementales, pour prédire les demandes afin que des politiques appropriées puissent être élaborées et des plans rédigés, ce qui est l’objectif central de la gouvernance électronique.

SEO AGENCE est une agence digitale