Les NFT, une force pour le bien

Comment un groupe d’étudiants en MBA a construit une communauté de pionniers de la crypto et une approche unique de la collecte de fonds.

Les gens recherchent depuis longtemps des objets physiques rares, tels que des peintures, des cartes à collectionner et des souvenirs. Des innovations récentes dans la technologie blockchain ont permis aux gens de posséder et d’échanger exclusivement des jetons uniques qui représentent la propriété d’actifs numériques tels que des images et des fichiers texte, connus sous le nom de jetons non fongibles ou NFT.

Bien que les NFT existent depuis un certain temps, ils n’étaient pas bien compris avant d’exploser dans le grand public l’année dernière, lorsqu’une œuvre d’art numérique a été vendue à la maison d’enchères Christie’s pour 69,3 millions de dollars US. D’ici la fin de l’année 2021, 40,9 milliards de dollars US auront été dépensés pour des NFT. En comparaison, le marché mondial de l’art valait 50,1 milliards de dollars.

Les NFT s’étendent désormais bien au-delà du monde de l’art et peuvent donner aux détenteurs la propriété de musique, de biens immobiliers et de vidéos ou l’accès à des événements ou à des clubs réservés aux membres. Ne se limitant pas à la propriété et au commerce, ces objets numériques apportent des solutions aux problèmes liés à l’échange traditionnel de biens et de services. Par exemple, les billets de concert NFT stockés sur une blockchain sont facilement authentifiés et peuvent ainsi éliminer la falsification, le scalp et la revente illégale.

S’inspirant de cette tendance en pleine évolution, un groupe d’étudiants en MBA de l’INSEAD a développé l’une des premières collections NFT dans une école de commerce.

Le Savvy Salamander Study Club (SSSC) a été lancé en 2021 pour construire et rassembler le réseau d’anciens élèves de l’INSEAD spécialisés dans les crypto-monnaies. Ce groupe d’étudiants en MBA* (dont moi-même, Aditya Rane) a transformé la célèbre mascotte verte de l’école, la salamandre, en visage d’une campagne innovante de NFT où 100 % des ventes nettes servent à financer des bourses d’études et à développer le club.

Les NFT de la salamandre fonctionnent en outre comme un jeton d’adhésion qui donne accès à des événements et des réseaux réservés aux membres. L’idée est de créer une communauté de pionniers de la cryptomonnaie ainsi qu’une approche unique de la collecte de fonds.

Nous décrivons comment nous avons procédé et les leçons que nous avons apprises en cours de route.

 Choisir la bonne place de marché

Dans le monde du commerce électronique, il existe des places de marché privilégiées pour certains produits, comme eBay pour les objets de collection ou Etsy pour les articles artisanaux. Dans le même ordre d’idées, le choix de la bonne place de marché pour les NFT dépend du type de NFT, ainsi que d’une combinaison de facteurs économiques (redevances et commissions) et de fonctionnalités que vous souhaitez intégrer à votre NFT.

Dans notre cas, nous avons lancé nos NFT relativement tôt, à une époque où la plupart des grandes places de marché étaient encore en cours de développement. Nous étions partagés entre trois places de marché populaires : Rarible, Crypto.com et OpenSea.

Crypto.com a simplifié à l’extrême l’accueil des nouveaux acheteurs et leur a permis d’acheter des NFT avec des cartes de crédit. Bien que cela ait facilité la tâche des utilisateurs et entraîné des frais de transaction moins élevés, cela signifiait que les NFT n’étaient pas hébergés sur la populaire blockchain Ethereum et qu’ils étaient limités à la propre blockchain de Crypto.com (des « ponts » faciles à utiliser entre les deux chaînes sont maintenant disponibles, mais ne l’étaient pas à l’époque). La compatibilité avec Ethereum signifie que les acheteurs de NFT ont la possibilité de retirer leurs NFT ou de les déplacer vers toute autre place de marché NFT compatible avec Ethereum, comme OpenSea.

Avec Rarible, nous avions le sentiment que la place de marché était davantage axée sur l’art et les NFT « 1 of 1 » (uniques) que sur les séries génératives à collectionner que nous avions développées. Étant donné la rapidité avec laquelle les choses changent dans le métavers, nous avons opté pour les antécédents et le succès d’OpenSea.

OpenSea prend en charge la blockchain Ethereum et offre une conception sans fioritures pour permettre aux utilisateurs d’acheter et de vendre des actifs. Nous avons été attirés par les niveaux de support d’OpenSea, sa sécurité et son succès dans l’exécution de projets génératifs de collection comme BAYC. Toutefois, nous avons dû accepter le compromis suivant : nos acheteurs devraient supporter des frais de transaction plus élevés, étant donné la popularité et le trafic de la blockchain Ethereum.

Frappe des NFT

La frappe de NFT, dans son sens le plus simple, est la publication du fichier numérique sur la blockchain pour en faire un actif numérique achetable. Pour frapper les NFT de la salamandre, nous devions nous assurer que nous créions le fichier numérique dans le format exact préféré par la plateforme hôte. En ajoutant d’autres points de données tels que le nom, la description, le prix et d’autres métadonnées, nous avons veillé à ce que nos NFT soient indexables et puissent être facilement localisés et différenciés des autres NFT. Si le processus en lui-même est simple, un portefeuille de crypto-monnaies est nécessaire pour couvrir les coûts.

Créer une communauté de pionniers de la crypto-monnaie

Nous nous sommes rapidement rendu compte que les utilisateurs qui n’étaient pas aussi familiers avec les crypto-monnaies avaient des difficultés. Après avoir consulté des professeurs de l’INSEAD et des experts du numérique, il nous a été conseillé de proposer une formation aux nouveaux acheteurs pour les mettre à niveau.

Nous avons créé un manuel expliquant chaque étape du processus, de la création d’un portefeuille de crypto-monnaies à l’achat d’un NFT. Nous avons dû consacrer plus de temps à la formation de notre communauté qu’à sa croissance, car pour beaucoup, il s’agissait de leur première incursion dans le monde de la crypto. L’expérience s’est révélée beaucoup plus riche, car nous avons aidé les utilisateurs à apprendre à fonctionner dans le monde du métavers tout en faisant valoir les NFT de l’INSEAD comme une force du bien.

Aller lentement pour aller vite

En tant qu’étudiants en gestion vivant selon l’idéologie du « move fast and break things », nous nous sommes concentrés sur l’accomplissement des tâches. Rétrospectivement, nous avons reconnu que la lenteur était parfois le choix le plus judicieux, compte tenu du fait que les plateformes de crypto-monnaie n’en sont encore qu’à leurs débuts. Une fois que nous avons commencé à héberger les NFT, nous avons réalisé que nous devions ajouter des métadonnées pour différencier nos NFT et les faire sortir du lot.

Dans le monde du Web2, cette fonctionnalité aurait été facile à mettre en œuvre et presque universellement disponible, mais dans le monde du Web3, ce n’est pas le cas. Nous avons donc été contraints de reporter le lancement ou d’attendre d’une grande plate-forme de plusieurs millions de dollars qu’elle nous apporte son soutien dans les plus brefs délais. Finalement, nous avons gagné du temps en avançant le lancement du NFT (version numérique) et avons réussi à ajouter les attributs manquants avec l’aide d’OpenSea.

Garder le sommet bien en vue

Nous avons parfois eu l’impression de tourner en rond et il était difficile de trouver du temps pour cette ambitieuse activité extra-scolaire. Cependant, nous étions motivés par un objectif plus important : aider les futurs INSEADers à accéder à une éducation de classe mondiale, quelle que soit leur situation financière. Cela a joué un rôle important dans le maintien de la flamme.

Après un lancement réussi en juin de cette année, nous travaillons maintenant à notre prochain dépôt NFT de Savvy Salamanders en décembre. Nous sommes impatients de développer et d’accroître l’engagement avec nos anciens élèves et de contribuer à positionner l’INSEAD comme l’école de commerce du monde – et peut-être même du métavers.

SEO AGENCE est une agence SEO à Lille.

Connaissez-vous Tim Bernes-Lee ?

Tim Berners-Lee,  est un informaticien britannique, généralement crédité comme l’inventeur du World Wide Web. En 2004, il a été fait chevalier par la reine Elizabeth II du Royaume-Uni et a reçu le premier Prix technologique du millénaire (1 million d’euros) de la Fondation finlandaise du prix technologique.

L’informatique est venue naturellement à Tim Berners-Lee, puisque ses deux parents ont travaillé sur le Ferranti Mark I, le premier ordinateur commercial. (Voir ordinateur : Les premières machines à programme enregistré.) Après avoir obtenu son diplôme en 1976 à l’université d’Oxford, Berners-Lee a conçu des logiciels informatiques pendant deux ans chez Plessey Telecommunications Ltd, située à Poole, dans le Dorset, en Angleterre. Il a ensuite occupé plusieurs postes dans l’industrie informatique, dont un passage de juin à décembre 1980 en tant que consultant en ingénierie logicielle au CERN, le laboratoire européen de physique des particules situé à Genève.

Alors qu’il était au CERN, Berners-Lee a développé un programme pour lui-même, appelé Enquire, qui pouvait stocker des informations dans des fichiers contenant des connexions (« liens ») à la fois dans et entre des fichiers séparés – une technique qui est devenue connue sous le nom d’hypertexte. Après avoir quitté le CERN, Berners-Lee a travaillé pour Image Computer Systems Ltd, situé à Ferndown, dans le Dorset, où il a conçu une variété de systèmes informatiques. En 1984, il est retourné au CERN pour travailler à la conception du réseau informatique du laboratoire, développant des procédures qui permettaient à divers ordinateurs de communiquer entre eux et aux chercheurs de contrôler des machines distantes. En 1989, Berners-Lee a élaboré une proposition visant à créer un système mondial de documents hypertextes qui utiliserait l’Internet. Son objectif était de donner aux chercheurs la possibilité de partager leurs résultats, leurs techniques et leurs pratiques sans avoir à échanger constamment des e-mails. Au lieu de cela, les chercheurs placeraient ces informations « en ligne », où leurs pairs pourraient immédiatement les récupérer à tout moment, de jour comme de nuit. Berners-Lee a écrit le logiciel du premier serveur Web (le dépôt central des fichiers à partager) et du premier client Web, ou « navigateur » (le programme permettant d’accéder aux fichiers récupérés sur le serveur et de les afficher), entre octobre 1990 et l’été 1991. La première « application mortelle » du Web au CERN était l’annuaire téléphonique du laboratoire – un début banal pour l’une des merveilles technologiques de l’ère informatique.

De 1991 à 1993, Berners-Lee a évangélisé le Web. En 1994, aux États-Unis, il a créé le consortium World Wide Web (W3) au laboratoire d’informatique du Massachusetts Institute of Technology. Le consortium, en consultation avec d’autres, assure la surveillance du Web et le développement de normes. En 1999, Berners-Lee est devenu le premier titulaire de la chaire des fondateurs 3Com au Laboratory for Computer Science. Parmi ses nombreuses autres distinctions, citons le prestigieux prix Charles Stark Draper de la National Academy of Engineering (2007). Berners-Lee est l’auteur, avec Mark Fischetti, de Weaving the Web : The Original Design and Ultimate Destiny of the World Wide Web (2000).

SEO Agence est une agence seo.

Un historique des moteurs de recherche

AltaVista, le Google de son époque, est désormais englouti par Overture. C’est un nom célèbre qui a connu des jours meilleurs. Mais AltaVista n’est pas le seul acteur majeur de la recherche à avoir disparu, au fil des années. Venez voir les premiers moteurs de recherche qui sont morts, ceux qui ont été transformés, qui a survécu et comment vont les nouveaux joueurs qui ne sont plus si jeunes.
D’intérêt pour les passionnés d’histoire sera également mon La fin des moteurs de recherche ? article, écrit au début de 2001, lorsque de nombreux moteurs de recherche supposés étaient une race en voie de disparition (j’ai argumenté différemment). Consultez également la page Principaux moteurs de recherche pour obtenir des liens vers certains des services mentionnés ci-dessous et un historique supplémentaire.
Repose en paix
Open Text (1995-1997) : le partenaire de recherche d’origine de Yahoo était également un site de recherche Web populaire en 1995. La société a exploré le Web pour rassembler des listes, tout comme Google le fait aujourd’hui. Open Text a décidé de se concentrer plutôt sur les solutions de recherche d’entreprise, où il réussit actuellement. Les opérations de recherche sur le Web ont été fermées à la mi-1997.
Magellan (1995-2001) : Un premier moteur de recherche qui a vu sa popularité chuter immédiatement après avoir été acheté par Excite à la mi-1996. Il a été fermé en avril 2001.
Infoseek (1995-2001) : Lancé au début de 1995, Infoseek espérait à l’origine facturer la recherche. Lorsque cela a échoué, le moteur de recherche populaire est passé à dépendre comme les autres des bannières publicitaires. Disney a pris une participation importante dans la société en 1998 et a emprunté le chemin du portail que d’autres moteurs de recherche de premier plan avaient suivi. Le site a également été renommé Go. Son échec à gagner de l’argent a poussé Disney à arrêter brutalement les capacités de recherche interne de Go au début de 2001. Aujourd’hui, Go continue de fonctionner, alimenté par Google.
Snap (1997-2001) : Lancé par CNET en 1997, Snap a d’abord utilisé Infoseek, puis Inktomi, puis a créé son propre répertoire d’annonces éditées par l’homme, couplées à une technologie de clic qui classait les résultats en partie en fonction de ce sur quoi les gens ont cliqué. NBC a ensuite acquis une participation majoritaire dans la société, puis l’a renommée NBCi et avait l’intention de gagner la guerre des portails »avec le site. Mais comme pour Disney et Infoseek, la technologie de recherche interne du site a été brusquement fermée au début de 2001. Elle est actuellement alimentée par les méta-résultats de recherche d’Infospace.
Direct Hit (1998-2002) : lorsque Google est apparu pour la première fois en tant que nouvelle technologie de recherche en vogue en 1998, Direct Hit a fait de même, offrant la possibilité de mesurer ce sur quoi les gens ont cliqué dans les résultats de recherche afin de les améliorer. Il a conclu un accord avec HotBot et a été proposé en tant que fonction de recherche sur d’autres portails tels que Lycos et MSN. Il a été acheté par Ask Jeeves en 2000, Manawa puis négligé au cours des années suivantes. Le site a été officiellement fermé début 2002.
Ch-Ch-Ch-Changements
Lycos (1994 ; renaissant en 1999) : Lycos exploitait l’un des premiers moteurs de recherche basés sur des robots du Web. Lycos a cessé de dépendre de cette araignée en 1999 et sous-traite maintenant ses résultats de recherche à AllTheWeb.
WebCrawler (1994 ; renaît en 2001) : WebCrawler existe toujours en tant que méta-moteur de recherche qui obtient des résultats d’autres moteurs de recherche, plutôt que par ses propres efforts. Désormais propriété d’Infospace, WebCrawler était sans doute le premier moteur de recherche basé sur des robots du Web tel que nous le connaissons aujourd’hui. Il a été lancé au début de 1994 en tant que projet de recherche de l’Université de Washington, a été acheté par AOL en 1995, puis vendu à Excite à la fin de 1996. L’araignée WebCrawler a été désactivée en décembre 2001.
Ressources
Yahoo (1994 ; renaît en 2002) : Avant Google, avant AltaVista, il y avait Yahoo. Malgré tous les changements dans l’espace de recherche au fil des ans, Yahoo est resté l’une des destinations de recherche les plus populaires sur le Web. Yahoo s’est démarqué de ses premiers concurrents en utilisant des humains pour cataloguer le Web, un système d’annuaire. Les résultats basés sur Crawler de ses partenaires n’ont démarré que s’il n’y avait pas de matchs à propulsion humaine. Cela a en fait rendu Yahoo plus pertinent que ses concurrents pendant de nombreuses années, jusqu’à ce que l’ère Google ouvre la voie à des résultats basés sur des robots qui étaient à la fois complets et très pertinents. Yahoo a rattrapé cette époque en octobre 2002, lorsqu’il a abandonné ses résultats générés par l’homme au lieu de ceux de Google. L’annuaire Yahoo existe toujours et est exploité par l’entreprise, mais Yahoo d’aujourd’hui est une créature bien différente de ce qu’elle était pendant toutes ces années auparavant.
Excite (1995 ; renaît en 2001) : Gagnant rapidement en popularité après son lancement à la fin de 1995, Excite a exploré le Web pour rassembler des listes. En 1996, la société a racheté deux concurrents, Magellan et WebCrawler, puis s’est elle-même transformée via une fusion en Excite protégé par e-mail. Désormais, une nouvelle société Excite Networks possède le site Web Excite, tandis qu’Infospace détient une licence pour fournir des résultats de recherche méta à Excite à perpétuité.
HotBot (1996 ; renaissant en 2002) : Lancé en mai 1996, HotBot était initialement propulsé par Inktomi et soutenu par Wired. Les couleurs sauvages, les excellents résultats et les fonctionnalités impressionnantes de HotBot ont été acclamés. Lycos (maintenant Terra Lycos) a acheté le service dans le cadre de Wired Digital en 1998. Comme l’autre moteur de recherche Lycos, il a souffert d’un manque d’attention de sa société mère. En décembre dernier, il a été revitalisé en tant que moteur de recherche de type méta, offrant un accès aux résultats de quatre principaux moteurs de recherche différents : Google, FAST, Teoma et Inktomi.
Ask Jeeves (1998 ; renaissant en 2002) : à l’origine salué comme le moteur de recherche en langage naturel lorsqu’il a fait ses débuts en 1998, le secret d’Ask Jeeves n’était pas vraiment la capacité de comprendre le langage. Au lieu de cela, Ask Jeeves avait plus de 100 éditeurs surveillant ce que les gens recherchaient, puis sélectionnant manuellement les sites qui semblaient répondre le mieux à ces requêtes. Une telle approche est bonne pour les requêtes les plus populaires mais n’aide pas lorsque les gens veulent des informations inhabituelles. C’est ainsi qu’Ask a racheté Direct Hit début 2000, pour le rendre plus complet. La société n’a pas réussi à capitaliser sur cette technologie, alors a réessayé avec plus de succès en achetant Teoma en 2001. En 2002, elle est passée à compter sur Teoma pour presque tous ses matchs.
Comme ils l’ont toujours été
AltaVista (1995- ) : Le Google de l’époque, AltaVista offrait l’accès à un énorme index de sites Web, lors de son lancement en décembre 1995. Le moteur de recherche a rapidement gagné en popularité, mais son parent Digital ne savait pas quoi faire avec ce. La vente de Digital à Compaq n’a pas arrangé les choses et la situation a empiré lorsque AltaVista a été fusionnée en une société distincte, détenue majoritairement par CMGI. Il a été relancé en tant que portail en octobre 1999, entrant dans un domaine déjà encombré et détournant son attention de la qualité de ses résultats de recherche. Il en a payé le prix car les utilisateurs mécontents ont afflué vers le nouveau venu Google. Tout au long de tout, le robot d’exploration d’AltaVista a continué. Overture a maintenant l’intention de racheter la société.
LookSmart (1996- ) : Lancée en 1996, LookSmart reste la seule société de recherche à dépendre fortement des humains pour rassembler ses listes principales. En 2002, LookSmart a acheté le robot d’exploration WiseNut pour compléter ses résultats générés par l’homme. Peu de gens recherchent sur le site LookSmart lui-même. Au lieu de cela, LookSmart agit en tant que fournisseur pour les autres ayant besoin de résultats de recherche. Son partenaire principal est MSN.
Overture (1998- ) : Anciennement connue sous le nom de GoTo, la société a lancé début 1998, un service de placement rémunéré, dans lequel les sites étaient classés en fonction du montant qu’ils étaient prêts à payer. Le Web avait suffisamment mûri à ce stade pour accepter ce type de commercialisation : des plans similaires essayés par Open Text en 1996 ont été abandonnés après un chœur de plaintes. En 2000, Overture a abandonné sa route initiale consistant à conduire les consommateurs vers son propre site Web en faveur d’un modèle de réseau consistant à fournir ses listes payantes à d’autres sites. Aujourd’hui, il alimente les listes payantes des principaux moteurs de recherche tels que MSN et Yahoo.
La nouvelle race
Google (1998- ) : Paradoxalement, Google est désormais le plus ancien des « nouveaux » acteurs qui ont pris le relais des anciens. Lancé en 1998 en tant que projet de recherche de l’Université de Stanford, la capacité de Google à analyser les liens du Web l’a aidé à produire une nouvelle génération de résultats très pertinents, basés sur des robots. Par de nombreuses mesures différentes, c’est aujourd’hui le moteur de recherche le plus utilisé.
AllTheWeb (1999- ) : C’est un concurrent sérieux de Google en termes de popularité, mais AllTheWeb est loin d’être aussi populaire auprès des utilisateurs. C’était OK avec la société mère FAST. AllTheWeb était uniquement destiné à démontrer la capacité de l’entreprise à exploiter les résultats d’autres moteurs de recherche en explorant le Web. AllTheWeb a été lancé en mai 1999 et compte Lycos comme partenaire principal. Overture a annoncé le mois dernier son intention d’acquérir le moteur de recherche.
Teoma (2000- ) : Lancé en 2000, Teoma est connu pour sa propre approche de l’analyse des liens sur le Web afin de générer des résultats très pertinents. Il a été acheté par Ask Jeeves en septembre 2001 et continue de fonctionner comme son propre site, tout en fournissant des résultats au site Ask Jeeves.
WiseNut (2001- ) : Ce service a attiré l’attention en 2001 et a été repris par LookSmart au début de 2002. L’entreprise a depuis travaillé pour améliorer sa technologie et sa fraîcheur, mais le travail n’est toujours pas terminé.
Le groupe alimenté par les autres
Recherche AOL (1997- ) : AOL propose son propre moteur de recherche à ses membres, qui est actuellement alimenté par Google. Initialement connu sous le nom d’AOL NetFind, un moteur de recherche de marque AOL a été proposé pour la première fois en 1997 et alimenté par Excite. AOL a brièvement possédé sa propre technologie de recherche Web, WebCrawler, mais l’a vendue à Excite en 1996.
Recherche MSN (1998- ) : Microsoft fournit un moteur de recherche à ceux qui accèdent au site MSN ou effectuent une recherche via les fonctionnalités d’Internet Explorer. Beaucoup de choses à faire, faisant de MSN Search l’un des moteurs de recherche les plus populaires sur le Web. Le service a toujours externalisé pour sa technologie de recherche. Il fournit actuellement un mélange de résultats de LookSmart et d’Inktomi.

Des sites web commerciaux

Si vous envisagez de créer votre propre site Web de commerce électronique, prenez le temps de passer en revue les conseils suivants pour aider à faire de votre site une expérience agréable pour tous ceux qui le visitent.

À bien des égards, le commerce électronique a rendu la vente et les achats beaucoup plus faciles. Pourtant, certains sites rendent l’achat si frustrant que vous commencez à vous demander si les achats en ligne sont réellement plus pratiques que d’aller au magasin.

Pour créer une clientèle heureuse et régulière, assurez-vous d’avoir tous les éléments de conception et de développement Web nécessaires dans l’ordre :

Organisation
Tout comme un magasin désordonné, un site Web désordonné peut devenir une expérience déroutante et accablante pour les acheteurs. Essayez de ne pas encombrer chaque page et n’incluez que des informations pertinentes pour les produits répertoriés.

Panier
Les gens achètent en ligne pour plus de commodité avant tout. Ne les obligez pas à trop réfléchir lorsqu’il s’agit du processus d’achat. Gardez votre panier visible et concevez votre site pour informer les clients lorsqu’un article est ajouté. De cette façon, ils n’ont pas à se demander si l’article qu’ils veulent a bien atteint leur panier.

Outil de recherche
Il n’y a rien de plus frustrant que d’essayer de localiser quelque chose sur un site Web et de ne pas trouver l’option de recherche pour le rechercher. Assurez-vous que votre barre de recherche se trouve en haut de chaque page ou au moins au-dessus du pli. Le premier endroit que la plupart des gens regardent est en haut à droite, donc le placer là leur permettra de le trouver beaucoup plus facilement.

Mises à jour des produits épuisés
Les articles se vendent ; c’est un simple fait de la vie. Bien qu’il soit idéal que vous puissiez garder tous vos produits en stock à tout moment, ce n’est pas toujours possible. Pour minimiser la déception de vos clients, configurez une option de notification pour leur faire savoir quand un produit sera à nouveau disponible. Cela montre non seulement que vous vous souciez de leur expérience, meilleure agence seo mais cela les incite à attendre et à ne pas chercher ailleurs.

Options de paiement
Offrez à vos clients la possibilité de payer de différentes manières, par exemple en acceptant à la fois PayPal et les cartes de crédit/débit. Vous pouvez également augmenter vos ventes en configurant un convertisseur de devises pour les clients en dehors de votre pays. En outre, établissez que vous êtes une entreprise digne de confiance en étant franc sur les frais de livraison et en mettant en place toutes les précautions de sécurité nécessaires.

Politique de retour
Peu de choses détournent autant un client d’une entreprise qu’une politique de retour compliquée ou apparemment malhonnête. Ajoutez une page qui inclut les détails des retours et des échanges, comme les éventuels frais de réapprovisionnement ou si les articles peuvent être retournés dans un magasin physique. En étant clair sur votre politique, vous éviterez, espérons-le, la confusion et l’irritation de vos clients, tout en instillant un sentiment de confiance et d’équité.

FAQ
Dans toute entreprise, certaines questions sont souvent posées. Épargnez à vos clients (et à vous-même) la frustration et créez une page de questions fréquemment posées. Ayez une page en place qui peut répondre à ces questions rapidement et de manière approfondie. Cela peut rendre les choses moins frustrantes pour les gens et peut souvent être le point où une personne qui n’est pas sûre d’acheter décide de le faire.

Façons de donner votre avis
Les clients aiment avoir leur mot à dire. Leur fournir un moyen de vous faire part de leurs commentaires ou de faire des suggestions les incitera à revenir à l’avenir. Cela permet au client de savoir qu’il est important pour vous et que ses idées comptent. Une autre chose qui aide est d’offrir une page de témoignages et un moyen pour les clients de laisser leur propre témoignage automatiquement.

Liste de diffusion
Un moyen efficace et rentable pour vous de contacter vos anciens clients consiste à leur envoyer des e-mails. Des mises à jour régulières (mais pas excessives) contribuent à renforcer la relation que vous avez établie depuis leur achat précédent. En les tenant au courant de vos dernières promotions, vous augmentez les chances qu’ils deviennent des clients fidèles.

Média social
Les médias sociaux sont l’un des meilleurs moyens de gagner plus de clients et d’établir une connexion avec eux. En disant aux acheteurs de vous suivre et en installant des boutons de partage sur les pages de produits, les gens peuvent faire passer le mot à propos de vous à leurs amis et abonnés.
Une chose utile à garder à l’esprit lors du développement d’une boutique en ligne est votre expérience en tant que client d’achat en ligne. Parmi les sites sur lesquels vous avez effectué des achats en ligne, quels aspects de leur site ont facilité le processus ? Qu’avez-vous trouvé frustrant dans le processus d’achat en ligne ? Ces informations vous aideront non seulement à créer une meilleure expérience utilisateur, mais vous permettront également de satisfaire vos clients beaucoup plus facilement.

Bien que créer votre propre boutique puisse être gratifiant, cela peut aussi être frustrant. Si vous avez besoin de l’aide de professionnels qui comprennent les besoins de développement Web personnalisés d’un site en ligne, consultez notre service de développement de commerce électronique.

Ils détestent l’internet

Il y a trente ans cette semaine, le scientifique britannique Tim Berners-Lee inventait le World Wide Web au CERN, le centre européen de recherche scientifique. Autant dire que l’idée a décollé. Le Web a permis aux gens ordinaires de créer et de relier facilement des pages sur ce qui était alors un petit réseau. Le langage de programmation était simple et la publication était aussi simple que de télécharger quelque chose sur un serveur contenant quelques balises.

Il y avait un potentiel réel, démocratique et libérateur, et il n’est donc pas du tout surprenant que les gens – notamment Berners-Lee lui-même – choisissent de se souvenir et de célébrer cette époque. C’était l’époque avant les médias sociaux, la suprématie de FAANG et le capitalisme de plateforme, quand Internet n’était pas aussi dépendant de la surveillance et de la publicité qu’aujourd’hui. L’attention était plus largement distribuée. Le web a brisé l’emprise des médias audiovisuels et imprimés sur la diffusion des histoires. HTML ressemblait à une révolution.

Pas à tout le monde, cependant. Quelques années seulement après la création d’Internet, un ensemble de critiques virulentes, notamment dans Resisting the Virtual Life, une anthologie de 1995 publiée par City Lights Books, se sont élevées pour remettre en question les idées qui sous-tendaient la technologie, comme les groupes précédents l’avaient fait avec d’autres technologies antérieures. Ce n’était pas la farce de l’essai Newsweek de Clifford Stoll affirmant qu’Internet était fondamentalement nul. Il s’agissait de critiques plus profondes sur le type de société qui construisait Internet et sur la façon dont les valeurs dominantes de cette culture, une fois encodées dans le réseau, généreraient de nouvelles formes d’oppression et de souffrance, au pays et à l’étranger.

Resisting the Virtual Life s’attaque à « la nouvelle machinerie de domination », envisage un « monde ingouvernable », considère les possibilités discriminatoires de la collecte de données, répertorie l’injustice du genre en ligne, examine le « monde masculin des ingénieurs en logiciel », déplore la « réduction de l’espace public », spécule sur « la forme de la vérité à venir », et propose même une voie démocratique à suivre. Ses essais prévoyait l’instabilité économique qu’Internet pourrait apporter, comment le «culte du garçon ingénieur» finirait par envahir la vie de chacun et les implications de la création d’énormes quantités de données personnelles pour le traitement des entreprises. « Qu’est-ce qui pourrait mal tourner avec le Web ? » ont demandé les auteurs. La réponse qu’ils ont trouvée était : beaucoup. Ils s’appelaient eux-mêmes « la résistance ».

C’était avant que Jeff Bezos ne soit l’homme le plus riche du monde. C’était avant Facebook, avant l’iPhone, avant le Web 2.0, avant que Google ne devienne public, avant l’effondrement des dot-com, avant la bulle dot-com, avant que presque tout le monde en dehors de la Finlande envoie des SMS. Dix-huit millions de foyers américains étaient « en ligne » dans le sens où ils avaient America Online, Prodigy ou CompuServe, mais selon le Pew Research Center, seulement 3% avaient déjà vu le Web. Amazon, eBay et Craigslist venaient de se lancer. Mais les critiques dans Resisting the Virtual Life sont désormais monnaie courante. Vous en entendez parler Facebook, Amazon, Google, Apple, l’écosystème de start-up soutenu par le capital-risque, l’intelligence artificielle, les voitures autonomes, même si l’Internet de 1995 n’a presque aucune ressemblance, techniquement ou institutionnellement, avec l’Internet de 2019.

Peut-être qu’un mouvement technologique majeur commence à s’accélérer, mais avant que son langage, son pouvoir d’entreprise et son économie politique ne commencent à déformer la réalité, un bref moment se produit lorsque les critiques voient le plein et terrible potentiel de tout ce qui arrive dans le monde. Non, la nouvelle technologie n’apportera pas une vie meilleure (du moins pas seulement cela). Il y aura des perdants. L’oppression se frayera un chemin jusque dans les espaces apparemment les plus libérateurs. Le non commercial deviendra accro à une vaste machine à profits. Les personnes de couleur seront discriminées de nouvelles manières. Les femmes auront de nouveaux travaux en plus des anciens. La recombinaison d’horreur d’anciens systèmes et cultures avec de nouvelles surfaces et entrailles technologiques est visible, comme le visage robotique à moitié détruit d’Arnold Schwarzenegger dans Terminator 2.

Ensuite, si l’argent et les gens commencent vraiment à affluer dans la technologie, la résistance sera balayée, poussiéreuse et tousse alors que ce qu’on appelle le progrès se précipite.

Dans le monde de gauche post-2016, le socialisme est de retour et les ordinateurs sont mauvais. Mais les ordinateurs ont été mauvais avant, et, ce n’est pas une coïncidence, lorsque divers socialismes étaient populaires.

Bien avant Internet et Resisting the Virtual Life, les gens se sont battus contre l’idée même d’ordinateurs – les mainframes, au départ – à partir des mouvements étudiants des années 1960. Ce n’était pas du pur luddisme ; les ordinateurs étaient, littéralement, des machines de guerre. A Stanford, alors foyer de radicalisme, les étudiants ont organisé des sit-in et occupé des bâtiments administratifs. Alors même que la guerre du Vietnam refluait, beaucoup à gauche craignaient que la technologie sous forme d’informatisation et d’automatisation détruise les emplois de la classe ouvrière, aide les patrons à écraser les syndicats et aggrave la vie professionnelle de ceux qui restent en emploi.

Mais alors que les années 1970 se sont glissées dans les années 1980, une partie de la puanteur militaro-industrielle a commencé à déteindre. Un ordinateur qui crachait les prédictions de la guerre du Vietnam pour Robert McNamara était une chose, mais qu’en est-il d’un réseau d’ordinateurs qui permet à quiconque de parcourir une frontière numérique, s’associant avec qui il veut au-delà des frontières nationales ou des identités établies ? Le sens de l’informatique en réseau a commencé à changer. Ces 1 et 0 pourraient être pliés à la liberté.

« Pour une génération qui avait grandi dans un monde assailli par des armées massives et par la menace d’un holocauste nucléaire, la notion cybernétique du globe en tant que modèle d’information unique et interconnecté était profondément réconfortante : dans le jeu invisible de l’information, beaucoup pensaient ils pouvaient voir la possibilité d’une harmonie mondiale », a écrit Fred Turner dans From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism.

Le livre de Turner commence par une question : « Comment la signification culturelle des technologies de l’information a-t-elle changé si radicalement ? » depuis la guerre du Vietnam jours de protestation au début du boom des dot-com ? Et sa réponse est qu’un ensemble de personnalités de la Bay Area, dirigée par Stewart Brand, qui a fondé le Whole Earth Catalog, a transformé la notion d’ordinateur d’infrastructure militaro-industrielle en outil personnel dans les années 1970.

Brand a positionné ces technologies comme une aubaine non pas pour les bureaucrates calculant les trajectoires des missiles, mais plutôt pour les hackers qui planifient des manœuvres gagnantes dans les jeux vidéo. Dans Rolling Stone, il a déclaré l’arrivée de l’informatique « une bonne nouvelle, peut-être la meilleure depuis les psychédéliques ».

Cela a aidé les États-Unis à entrer dans une période que l’historien Daniel Rodgers a appelée « l’âge de la fracture ». Les institutions, collectivités et solidarités américaines se sont effondrées au profit d’un modèle d’action de consommation sauvagement individualiste. « On entendait moins parler de société, d’histoire et de pouvoir que d’individus, de contingence et de choix », a écrit Rodgers. « L’importance des institutions économiques a cédé la place à des notions de flexibilité et d’instantanéité marchés agissant.

Le monde était un endroit où les individus pouvaient faire des choix, et ce dont ils avaient besoin pour faire de meilleurs choix, c’était de plus d’informations. Les informations étaient stockées dans des ordinateurs et, par conséquent, la mise en réseau des individus les uns aux autres conduirait à de nouvelles formes d’action collective.

Apple et son charismatique vendeur Steve Jobs étaient là pour commercialiser cette nouvelle idée de l’ordinateur. Les passionnés de technologie libéraux tels qu’Al Gore et les passionnés de technologie conservateurs tels que Newt Gingrich ont rejoint le mouvement pour créer un nouveau consensus selon lequel le seul rôle du gouvernement dans l’industrie serait de créer un environnement favorable au développement des entreprises Internet et des communautés de niche.

Ainsi, lorsque Berners-Lee a écrit sa proposition de 1989 pour le Web, le monde était prêt. Fait révélateur, une rupture institutionnelle a motivé son désir d’un système hypertexte. Les gens n’arrêtaient pas de quitter le CERN et d’emporter des informations avec eux. La mémoire organisationnelle manquait. Parallèlement, des systèmes de création cette mémoire exigeait que les gens acceptent certaines hiérarchies d’informations et de taxonomies de mots clés, ce qu’ils répugnaient à faire. Sa réponse à ce problème est devenue radicalement individuelle : n’importe qui pouvait créer une page et créer un lien vers n’importe quoi. Faites en sorte que suffisamment de personnes le fassent, et le volant de la création de contenu continuerait de tourner. Aucune institution requise. Sans tabou. C’était la liberté personnelle, telle que mise en œuvre dans un protocole réseau.

Les premiers partisans d’Internet ont vu tout ce potentiel. Ils ont jailli dans les pages de Wired, dont le siège est au sud de Market Street, à San Francisco, longtemps un quartier défavorisé de la ville. Mais de l’autre côté du marché et jusqu’à Columbus Avenue, au cœur de North Beach, où les beatniks vieillissants avaient encore quelques petits achats, les poètes et les écrivains de la librairie City Lights n’ont pas été influencés.

« Il existe des alternatives à l’utopie capitaliste de la communication totale, de la lutte des classes réprimée, SEO Agence et des profits et du contrôle toujours croissants qui oublient plutôt que résolvent le problème central. problèmes de notre société », ont écrit James Brook et Iain Boal, les éditeurs de Resisting the Virtual Life. Ces problèmes étaient évidents : « les gens étaient répartis dans des enclaves et des ghettos, des antagonismes de classe et raciaux croissants, des services publics en déclin (y compris les écoles, les bibliothèques et les transports), le chômage causé par l’automatisation et l’errance du capital, etc. »

Et pourtant, pour la plupart des gens, l’ordinateur personnel et l’Internet émergent ont masqué les forces structurelles sous-jacentes de la société. « Les ordinateurs ‘personnels’ et les CD-ROM circulent comme des fétiches pour les adorateurs du ‘libre marché’ et de ‘la libre circulation de l’information’ », ont écrit Brook et Boal.

Ils savaient qu’ils étaient confrontés à « beaucoup – on pourrait dire » tout « – » en essayant de rassembler la résistance à l’explosion d’Internet. Mais leur objectif n’était pas nécessairement de gagner, mais plutôt de « s’attaquer à un objet presque innommable – « l’ère de l’information », « l’autoroute de l’information », « le cyberespace », la « virtualité » et les variantes perspective démocratique.

C’est presque comme s’ils voulaient marquer pour les générations futures qu’il y avait des gens – toutes sortes de personnes différentes – qui ont vu les problèmes. « Résister à la vie virtuelle entend apporter des correctifs plus profonds que ceux générés par les mécanismes de rétroaction cybernétiques du » marché des idées «  », ont écrit les éditeurs, « où les défauts scandaleux sont toujours répondus par des pseudocritiques qui nous assurent que tout va bien, sauf pour les bogues inévitables que le système lui-même corrigera.

Les essais dans le livre sont inégaux, comme vous pouvez vous y attendre. Mais certains d’entre eux sont étonnamment prémonitoires. Dans « C’est la discrimination, stupide ! » qui se lit comme une préquelle à L’ère du capitalisme de surveillance de 2018, le professeur de l’Université de Californie du Sud, Oscar H. Gandy Jr., affirme que « les informations personnelles sont utilisées pour déterminer les changements de notre vie dans notre rôle de citoyens ainsi que dans nos vies d’employés et les consommateurs. Dans une réflexion puissante sur le paysage de la Silicon Valley, Rebecca Solnit conclut que, en tant que lieu, il s’agit d’un nulle part, mais lié par des chaînes d’approvisionnement aux changements à travers le monde. Le professeur de communication et critique des médias de l’Université de Californie à San Diego, Herbert Schiller, souligne comment Internet pourrait réduire le pouvoir des États-nations, les affaiblissant tandis que les sociétés transnationales se renforcent. Des armées améliorées électroniquement pourraient-elles retenir le peuple, écrit-il, « alors que des forces économiques d’initiative privée contribuent à une distribution des revenus extrêmement disproportionnée et à une utilisation des ressources gravement déformée, localement et mondialement ?

Et Ellen Ullman, qui a continué à critiquer le monde de la technologie de l’intérieur, aurait peut-être fait la critique la plus parfaite de la façon dont le désir humain de commodité régirait la façon dont la technologie était perçue. « L’ordinateur est sur le point d’entrer dans nos vies comme du sang dans les capillaires », a-t-elle écrit. « Bientôt, partout où nous regardons, nous verrons de jolies interfaces à l’épreuve des idiots conçues pour nous faire dire ‘OK’. »

Le à la demande l’économie régnerait. « Nous n’avons besoin d’impliquer personne d’autre dans la satisfaction de nos besoins », a-t-elle écrit. « Nous n’avons même pas besoin de parler. » A l’intérieur de ces programmes se serait introduit « le culte du garçon ingénieur », « seul, hors du temps, dédaigneux de toute personne éloignée de la machine ».

Si ces critiques d’une autre époque semblent avoir catalogué tout ce qui pouvait mal tourner, ils avaient aussi le sentiment que les choses pouvaient se passer différemment. L’écrivain et historien Chris Carlsson, par exemple, a vu de l’espoir dans le potentiel d’organisation des communautés en ligne. « Les fils de subversion que nous tisons si discrètement aujourd’hui doivent trouver leur chemin pour transformer les vies autodestructrices, brutales et déshumanisantes que nous menons au travail, à l’école et dans la rue », a-t-il écrit. « La confiance que nous accordons aux liens électroniques doit à nouveau trouver un foyer commun parmi nos liens sociaux, jusqu’à ce que les « expériences » électroniques prennent leur juste place en tant que compléments d’une vie humaine riche et variée.

Puis encore, il a reconnu qu' »il est plus facile d’imaginer beaucoup de verbiage vide et inutile volant dans le monde électronique, égalé uniquement par les piles de données recueillies par nos institutions corporatives et gouvernementales ».

Depuis les élections de 2016, à la fois son déroulement et ses résultats, les Américains se sont engagés dans une nouvelle lutte pour comprendre comment Internet a changé leur pays et le monde. Il n’est tout simplement pas possible de célébrer la naissance du web sans reconnaître que la cyber-utopie n’est jamais arrivée. Regardez le comportement de nombreux titans de la technologie au cours des dernières années et vous verrez à la fois des défauts scandaleux ainsi que des « pseudocritques qui nous assurent que tout va bien ».

Dans ce long moment de réévaluation, l’industrie et ses produits ont été attaqués sous presque tous les angles : de l’intérieur et de l’extérieur, local et mondial, économique et social, législatif et rhétorique, capitaliste et socialiste. Cela n’a pas empêché les profits de pleuvoir. Les plus grandes entreprises technologiques font partie du top 10 des plus valorisées entreprises dans le monde. Selon un classement du capital de marque, les quatre marques les plus fortes au monde sont Apple, Google, Amazon et Microsoft. Mais une fois que le consensus s’est évanoui sur le fait que la technologie Internet était égale au progrès, les gens à l’intérieur et à l’extérieur de l’industrie ont trouvé une source inépuisable de pratiques douteuses. Les gens traitent leur téléphone comme ils le faisaient autrefois avec des cigarettes.

Au fur et à mesure que des diagnostics sont posés et des suggestions faites, ces premières critiques valent la peine d’être rappelées précisément pour lutter contre la nostalgie d’une époque antérieure. Les germes de nos problèmes actuels liés à la technologie étaient évidents pour les critiques avec les yeux pour les voir en 1995.

Examiner l’histoire du Web pourrait donner lieu à un meilleur Internet à l’avenir, mais pas seulement en regardant ce que nous aimions au début. Les prémisses du Web primitif : valoriser le choix individuel, la liberté d’expression maximaliste et les réseaux virtuels dispersés ; en ignorant le pouvoir institutionnel et la politique traditionnelle – pourrait nécessiter une révision pour construire un nouveau web prosocial.

Les liens et le SEO

Un lien ou un hyperlien est un objet cliquable sur une page Web qui mène d’une page à une autre. Les liens peuvent apparaître visiblement sous forme de texte, d’images ou de boutons. Et les liens sont très importants pour un bon classement dans Google.

Les types de liens

Nous pouvons classer les liens en fonction de la destination du lien, qu’il mène les utilisateurs vers une autre page du même site ou vers un site Web différent.

Les liens internes sont des liens entre les pages de votre propre site Web.

Les moteurs de recherche déterminent cela en regardant le nom de domaine; si les liens d’une page renvoient à d’autres pages du même domaine, ils sont considérés comme des liens internes.

Si, pour une raison quelconque, votre site Web a été conçu pour avoir plus d’un domaine, les moteurs de recherche le verront comme un lien externe.

Les liens entrants sont des liens provenant d’autres sites Web ou d’un nom de domaine différent.

Les liens sortants sont les liens sur votre site Web qui renvoient à des sites Web avec un nom de domaine différent.

Focus sur les liens entrants: des liens naturels à partir de pages de haute qualité pour de meilleurs avantages de référencement

Parmi les trois types de liens, les liens entrants sont ceux qui présentent le plus grand avantage pour le référencement, mais ils sont également les plus difficiles à obtenir.

Les pages de haute qualité sont comme des amis auxquels vous vous adressez pour obtenir des conseils: elles sont dignes de confiance, crédibles et ont une certaine autorité sur le sujet.

Chaque fois qu’une page Web est liée à une autre page Web, le créateur du contenu qui a utilisé le lien l’a fait pour une raison.

Souvent, ils aiment la page vers laquelle ils sont liés, car elle contient des informations qui prennent en charge ou s’appuient sur les informations de la première page.

D’un autre côté, certains auteurs créent des liens vers des pages pour la raison opposée; ils peuvent créer un lien vers une page qu’ils souhaitent critiquer ou avec laquelle ils ne sont pas d’accord.

Cependant, ces deux liens sont bons pour la page à laquelle le lien est lié. Que le contenu soit aimé ou méprisé, il a provoqué une forte réaction, ce qui indique un contenu de qualité.

Si le contenu d’une page fait parler quelqu’un, cela indique l’autorité, la crédibilité et / ou la fiabilité. Ainsi, les liens sur les pages sont comme des votes de confiance, de crédibilité et d’autorité.

Plus une page reçoit de liens, plus elle obtient de votes, ce qui peut améliorer son classement.

Cependant, la quantité de liens qu’une page obtient n’est pas tout ce qui compte.

Google évalue également la qualité des liens.

Personne n’aime les faux amis
Parfois, vous identifiez immédiatement de fausses personnes. D’autres fois, ce n’est pas si facile.

Il en va de même lorsque Google consulte des pages Web. Les liens qui semblent être des votes de confiance peuvent facilement être simulés en utilisant des éléments tels que:

Forums en ligne.
Commentaires du blog.
Livres d’or.
Wikis.
Profils de médias sociaux.
Annuaires d’articles.
Sites de questions-réponses.
Référencement social.
Ce sont des liens artificiels.

Parfois, Google identifie tout de suite que les liens sont faux, mais pas toujours. Google peut mettre un certain temps à identifier les liens artificiels.

Ces liens artificiels ont des conséquences négatives sur les pages.

Le classement de ces pages avec des liens artificiels peut être affecté par divers facteurs de classement surveillant la qualité des liens, ainsi que par les mises à jour d’algorithmes ou même par des actions manuelles de Google.

Afin d’avoir de bons liens naturels, un site a besoin d’un contenu de qualité qui soit digne de confiance, crédible et faisant autorité.

Cela permet aux pages d’obtenir des liens naturels de qualité à partir d’autres sites Web, ce qui facilitera leur classement.

Les liens entrants sont toujours importants même après la mise à jour de Google Penguin

Au cours de la dernière décennie, Google a mis en œuvre une série de mises à jour d’algorithmes importantes. L’une de ces mises à jour importantes était Penguin.

La mise à jour de Google Penguin est désormais devenue un élément essentiel de l’algorithme de base.

La mise à jour Penguin permet à Google d’évaluer plus efficacement la qualité des liens.

Juste après cette mise à jour, certains professionnels du référencement ont d’abord eu l’impression que les liens n’avaient plus d’importance; Cependant, ce n’est pas le cas.

Les liens sont importants dans le classement et indiquent toujours les mêmes valeurs qu’auparavant.

Les liens reflètent la qualité du contenu d’une page tant qu’il s’agit de liens naturels.

La mise à jour Penguin a permis à Google d’identifier plus facilement les liens artificiels.

Les liens ont toujours été des facteurs de classement importants; cependant, les méthodes d’obtention des liens ont évolué, surtout après la La mise à jour de Penguin est arrivée.

internet

— SEO AGENCE est une agence de netlinking à Lille.

La sécurité des transactions électroniques

Protocole conçu pour garantir la sécurité et l’intégrité des communications et des achats en ligne, Secure Electronic Transaction (SET) utilise des certificats numériques, émis aux commerçants et autres entreprises et clients, pour effectuer une série de contrôles de sécurité vérifiant que l’identité d’un client ou d’un expéditeur d’informations est valide. SET fournit le cadre de base dans lequel de nombreux composants de sécurisation des transactions numériques fonctionnent. Les certificats numériques, les signatures numériques et les portefeuilles numériques fonctionnent tous selon le protocole SET.

Les composants de la sécurité des transactions

Il existe plusieurs composants pour le protocole SET.

L’application de titulaire de carte, également appelée portefeuille numérique, est détenue par un consommateur en ligne et contient une signature numérique et des informations de carte de crédit qui garantissent son identité et protège ses informations financières grâce à un système de cryptage complexe.

Le composant Merchant Server est le produit de vérification détenu par le commerçant pour traiter le paiement par carte en ligne.

Le composant de passerelle de paiement est détenu par une banque acquéreuse ou un autre tiers de confiance qui accepte et traite la vérification du commerçant et les informations de paiement du client et les filtre vers leurs institutions financières appropriées.

Le composant Autorité de certification, généralement géré par une institution financière, est l’agent de confiance qui émet les certificats numériques et est chargé de s’assurer que tous les utilisateurs de certificats numériques sont en fait des clients sûrs et dignes de confiance.

Un protocole sécurisé

Une fois qu’un produit de sécurité pour l’un de ces composants a passé le test de conformité SET, il porte la marque SET, garantissant à tous les utilisateurs qu’il répond aux normes SET.

SET est une norme ouverte accessible à toute personne engagée dans le commerce électronique. MasterCard International et Visa International, reconnaissant que la sécurité était la clé de l’utilisation généralisée des cartes de crédit pour le commerce électronique, ont développé le protocole SET, qui a été lancé le 1er février 1996. La première version de la spécification SET a été publiée en mai 1997 . En décembre de cette année-là, les géants des cartes de crédit et d’autres acteurs majeurs du monde du commerce électronique, notamment Microsoft, Netscape et IBM, ont créé une société appelée SET Secure Electronic Transaction LLC (SETCo) pour maintenir et mettre en œuvre le SET spécification, administrer les tests de conformité et favoriser l’adoption mondiale accrue de la norme SET.

Suite à la grande fanfare qui a accompagné son lancement, l’adoption du protocole SET s’est avérée très décevante et la norme a été dépassée par des protocoles concurrents tels que le schéma de cryptage Secure Sockets Layer (SSL). Le principal obstacle à l’adoption généralisée de SET aux États-Unis et en Europe à la fin des années 1990 était le manque de sentiment, parmi les banquiers et les commerçants, que la fraude et les atteintes à la sécurité constituaient une menace si importante que le virage vers SET en valait la peine. Les procédures de SET étaient considérées comme trop lourdes à mettre en œuvre par rapport aux protocoles de sécurité comparatifs, et même si SET était en fin de compte la technologie la plus puissante pour sécuriser les paiements en ligne, les entreprises avaient tendance à utiliser les modèles les moins sophistiqués comme moyen d’établir par elles-mêmes une présence en ligne. Comme Barbara Smiley, directrice de recherche chez Meridien Research Inc., basée à Newton, Massachusetts, a déclaré à Computer World en 1999, « pour la plupart des gens, SET est une ogive nucléaire pour un problème qui ne nécessite qu’un missile de croisière. » SET était largement considéré comme trop rigide pour ce que les commerçants considéraient comme une simple menace de fraude aux paiements en ligne.

Cependant, dans les années 2000, des rapports de fraude et d’abus de cartes de crédit ont ravivé l’intérêt pour le protocole SET, et les entreprises et les fournisseurs de cartes ont commencé à intégrer SET dans leurs systèmes de transactions. Un facteur contribuant à la résurgence de la norme SET au début des années 2000 a été le passage des portefeuilles numériques côté client aux portefeuilles côté serveur, permettant une bien plus grande flexibilité dans leur utilisation et pour le stockage des données. Et comme de plus en plus de consommateurs choisissent d’utiliser des cartes de débit, plutôt que des cartes de crédit, pour leurs achats en ligne, la demande d’une sécurité plus stricte ne fera qu’augmenter. Dans les transactions par carte de crédit, le paiement est en fait prélevé sur une ligne de crédit fournie par l’émetteur de la carte, tandis que, pour les paiements par carte de débit, c’est l’argent du consommateur qui est directement impliqué. Par conséquent, les clients nerveux auront besoin du protocole de sécurité le plus solide possible pour leurs paiements en ligne.

— SEO AGENCE est une agence SEO

Reconnaitre les risques d’intelligence

Souvent, dans le monde de la sécurité de l’information et de la gestion des risques, la question qui se pose aux équipes de renseignement sur les menaces se situe au milieu de cette mer de divulgations de vulnérabilités, lesquelles comptent le plus pour mon organisation? Qu’est-ce qui peut nous affecter le plus? Et comment expliquer au mieux les menaces aux parties prenantes internes de manière à minimiser les risques?

Réduire les risques grâce à une bonne gestion des correctifs n’est pas toujours simple. Toutes les vulnérabilités et expositions courantes (CVE) ne sont pas toutes aussi importantes. En juillet 2020, par exemple, le département américain de la Sécurité intérieure a publié plusieurs avis de première priorité. L’un couvrait les exploits connus contre certains systèmes de fourniture d’applications (CVE-2020-5902) et un autre couvrait les vulnérabilités détectées dans un serveur de système de noms de domaine (DNS) (CVE-2020-1350). Bien que les deux soient des priorités absolues, comment s’appliquent-ils au réseau que vous utilisez? Quelles menaces sont les plus susceptibles d’avoir un impact sur votre cœur de métier?

Pour mieux répondre à cela, nous devons être en mesure d’identifier les menaces pertinentes avant de commencer à traiter les correctifs ou gérer les risques. Entrez l’identification des menaces: un processus nécessaire qui est devenu de plus en plus compliqué.

Pourquoi repérer les menaces est-il plus complexe aujourd’hui?
L’identification des menaces est aujourd’hui beaucoup plus complexe qu’à aucun autre moment dans le passé. D’une part, l’infrastructure devient plus complexe à mesure que de plus en plus de groupes adoptent la transformation numérique. De l’autre, nous constatons que le nombre de bogues signalés augmente d’année en année. Le rapport 2020 sur le coût d’une violation de données récemment publié met en évidence ce défi, car 41% des professionnels des technologies de l’information (TI) et de la sécurité signalent une vulnérabilité ou une mauvaise configuration comme étant à l’origine d’une violation de données malveillantes.

Ces facteurs présentent un nombre croissant de surfaces d’attaque. Pour construire un programme efficace d’identification des menaces pour ce domaine complexe, adoptez une approche précise et réfléchie. Sinon, vous risquez d’inonder votre public avec trop de données, ce qui entraînerait une paralysie de la sécurité.

Examinons les piliers de la création d’une identification des menaces plan qui peut être rentable en temps et en argent économisés sur toute la ligne.

Étape 1: Dressez la liste de vos parties prenantes de Threat Intelligence
Pour fournir la valeur la plus élevée, plusieurs équipes et parties du groupe doivent consulter les cyber-menaces. Chaque équipe peut avoir un objectif ou un avantage légèrement différent. Pour un rapport efficace avec les actionnaires et le conseil d’administration, la C-suite peut exiger des rapports de renseignements sur les menaces afin de comprendre, à un niveau élevé, les cyberrisques pour le groupe.

En outre, les équipes des opérations de sécurité (SecOps) peuvent consommer des données sur les menaces pour mieux comprendre quels types d’attaques sont susceptibles de se produire. Cela leur permet d’ajuster leurs contrôles ou d’exécuter des exercices, puis de valider les contrôles et d’identifier les domaines qui peuvent être améliorés. Les équipes de gestion des vulnérabilités utilisent ces données pour choisir les CVE qu’elles doivent traiter et dans quel ordre. Selon le type d’entreprise, cette étape peut également empêcher la fraude ou détecter les fuites de données.

Étape 2: définir le processus et les objectifs de Threat Intelligence
Savoir qui est aller voir et utiliser vos données sur les cybermenaces vous indique comment les examiner et structurer les rapports pour chaque service.

Les rapports pour les groupes non techniques peuvent être de simples graphiques de feux tricolores avec des puces de base. Pour les utilisateurs plus techniques, les rapports peuvent contenir plus d’informations sur les étapes de correction ou une analyse plus avancée. Considérez les questions suivantes pour chaque type:

Comment différenciez-vous l’intelligence en fonction des personas?
Quelles sont leurs principales préoccupations?
Quelles données leur sont utiles?
Que leur fournissez-vous et à quelle fréquence?
Comment pouvons-nous leur donner les moyens d’agir sur les données qu’ils reçoivent?
Les réponses à ces questions façonneront les objectifs de votre programme. Définissez clairement ces objectifs, en les intégrant dans un flux de travail qui couvre l’ensemble du processus. Les étapes du cycle de vie du renseignement sur les menaces sont les suivantes:

Planifiez vos besoins et créez des orientations claires vers les résultats et les objectifs.
Recueillez ce que vous devez savoir pour atteindre ces résultats et objectifs.
Traitez les informations pour faciliter leur analyse.
Analyser données et produire des informations exploitables.
Distribuez les données dans un format facile à lire.
Étape 3: créer une méthodologie d’identification et de renseignement sur les menaces
Commencez par définir vos besoins en intelligence. Ces besoins sont à la base de la gestion du renseignement. Plus précisément, demandez-vous: «Qu’est-ce qui est important pour mon groupe?» et traduisez les réponses en besoins spécifiques.

Ces exigences devraient varier en fonction du groupe. Une banque ou une compagnie d’assurance peut avoir un ensemble de préoccupations qui pourraient ne pas avoir d’incidence sur un service public ou une équipe de soins de santé. Gardez à l’esprit que les attaquants passent plus souvent d’un secteur à un autre car ils se rendent compte qu’un secteur spécifique est plus susceptible de céder à leurs demandes. Par exemple, les attaques de ransomwares ciblaient initialement de nombreuses petites entreprises et les gouvernements des États et locaux. Les attaquants ont rapidement identifié les organisations qui avaient plus d’urgence à reprendre leurs opérations et pourraient potentiellement payer plus en rançon, comme les soins de santé, les organisations industrielles et les cabinets d’avocats, pour exemple.

À partir de là, vous pouvez passer à la définition des besoins techniques pour la collecte d’informations sur les menaces. Cela peut impliquer des paramètres de fichier journal, des flux entrants de services et de plates-formes de renseignement sur les menaces et des résultats de services continus de simulation de violation et d’attaque.

L’Université Carnegie Mellon a publié une excellente série de guides sur la façon de penser à la cyber-intelligence et aux menaces. Ces guides fournissent à la fois des cadres et du matériel sur la façon de développer une méthodologie.

Étape 4: définir les zones de collecte
Une fois que votre méthodologie est présentée à un niveau élevé, vous pouvez ajouter des détails à votre cadre pour affiner les informations de renseignement sur les menaces que votre équipe doit traiter, analyser et recevoir des rapports. Trois aspects clés sont le secteur; ce que veut l’attaquant; et tactiques, techniques et procédures probables (TTP).

Secteur
De nos jours, de nombreuses organisations couvrent plusieurs secteurs. Par conséquent, ils doivent prendre en compte des risques plus importants. Par exemple, les grandes banques sont également des services en ligne fournisseurs avec leurs services de vente au détail. Les fournisseurs de télécommunications gèrent non seulement des réseaux de communication et de données, mais traitent également les paiements des clients, vendent des produits en ligne et stockent des informations client sensibles, y compris l’activité et l’emplacement en ligne. En conséquence, les attaquants se déplacent souvent rapidement d’un secteur à un autre pour atteindre leurs objectifs via des cibles plus souples – pensez aux attaquants de ransomware ciblant les établissements de santé, qui ne peuvent pas supporter même de brèves interruptions et encourent des sanctions beaucoup plus lourdes pour perte de données que les gouvernements municipaux.

Motivation
Ce que veut l’attaquant peut différer selon l’acteur de la menace. Les acteurs des États-nations peuvent chercher à exfiltrer des données sensibles. Les fraudeurs peuvent chercher à reprendre des comptes pour accéder à de l’argent ou à des points de fidélité pour les revendre. Les gangs de ransomwares recherchent des paiements importants et rapides en crypto-monnaies. Des attaques de déni de service distribuées peuvent être menées pour extorquer des victimes, détruire des sites rivaux, faire pression pour protester ou se venger. Les motivations sont souvent floues. Les APT d’acteurs étatiques peuvent à la fois chercher à voler des données sensibles et à commettre des délits financiers.

Ces besoins peuvent également être superposés. Un gang de ransomwares peut d’abord chercher à y accéder via des logiciels malveillants ou des attaques de phishing, puis se déplacer dans les systèmes de la victime pour implanter des ransomwares à des points clés. Comprendre les motivations des attaquants potentiels permet de définir les principales modalités d’attaque potentielles et les TTP auxquels se préparer.

Cibles
Après avoir défini les paramètres de secteur et de motivation, les programmes d’identification des menaces peuvent se concentrer plus étroitement sur les systèmes cibles préférés et les playbooks d’attaque courants et les TTP des acteurs de menace les plus probables. Les équipes de renseignement sur les menaces doivent connaître toutes les surfaces d’attaque de leurs employeurs et concentrer leurs efforts sur les systèmes dont elles disposent.

Par exemple, si votre employeur a des contrôleurs de livraison d’applications (ADC) Citrix Netscaler mais pas des ADC F5, alors la principale préoccupation concerne les menaces pesant sur les équipements Citrix. Les menaces pesant sur l’équipement F5 peuvent être considérées comme faisant partie l’intelligence situationnelle mais laissée en dehors des suggestions exploitables.

En outre, les tactiques d’identification des menaces doivent tenir compte de la probabilité que les systèmes soient exposés et exploités. Si une entreprise utilise les services Microsoft DNS pour le routage interne au sein des systèmes Microsoft mais n’expose pas Microsoft DNS à l’Internet public, les risques pour Microsoft DNS peuvent recevoir une priorité inférieure à celle des menaces sur la surface d’attaque exposée publiquement.

Les équipes de renseignement sur les menaces doivent également mettre l’accent sur les nouveaux types d’attaques qui sont moins susceptibles d’être corrigés ou atténués avec des paramètres de contrôle de sécurité supplémentaires ou des contrôles de compensation autour des systèmes applicables. Nous devons accorder une importance particulière aux types d’attaques qui accordent un accès privilégié et peuvent contourner les défenses de périmètre. La montée en flèche des ouvertures de réseaux privés virtuels et des exploits observés au cours des six derniers mois correspond à ce type.

En gardant ces considérations et objectifs à l’esprit, une équipe de renseignement sur les menaces peut mettre en place une formule de notation des risques pour créer un système numérique, défendable et méthodologie reproductible pour l’identification des menaces. Cette évaluation des risques doit guider la gestion des vulnérabilités sur la priorisation des correctifs et des remédiations et les équipes SecOps pour des domaines d’intérêt spécifiques dans leur travail de surveillance et de sécurité au jour le jour. Le cadre méthodologique du risque binaire peut être une bonne base de référence pour permettre des discussions structurées et rapides sur les risques.

Étape 5: Parlez aux autres parties prenantes
Une fois en place, le programme d’identification des menaces doit être résumé et distribué dans un format pratique et lisible pour les parties prenantes qui ont besoin de détails.

Les graphiques «Stoplight» ou autres graphiques simples à base de couleurs avec une seule ligne de description sont simples et faciles à lire. Au-delà de ce traitement de base, les rapports d’identification des menaces doivent également fournir des conseils détaillés aux parties prenantes plus techniques en fonction des exploits et des risques commerciaux:

Les équipes de gestion des vulnérabilités doivent recevoir une liste pondérée en fonction des risques des correctifs à utiliser.
Les équipes SecOps doivent recevoir une liste des types d’attaques à surveiller. Aussi fournissez-leur une description de la façon dont ces types peuvent se manifester dans les fichiers journaux ou d’autres données de télémétrie et analyses.
Les rapports d’identification des menaces peuvent également guider le déploiement de la simulation de violation et d’attaque et suggérer quels playbooks doivent être chargés pour les simulations et quels contrôles de sécurité doivent être validés contre des attaques plus récentes ou émergentes.
Chaque version du rapport doit comporter les prochaines étapes personnalisées en fonction du lecteur et de son rôle. Au mieux, cette structure de rapport modulaire prendra une forme simple de messages imbriqués qui permet un zoom avant et un zoom arrière faciles pour toute partie prenante.
La création d’un programme d’identification des menaces est une base essentielle pour une cybersécurité proactive. Le faire de la bonne manière peut rapporter des dividendes pour les années à venir. Le programme peut créer des plans, des normes et des modèles de communication clairs et cohérents qui améliorent la sensibilisation et la sécurité.

SEO AGENCE est une agence d’audit SEO

Les mécanismes derrière le clustering de mots clés

La recherche de mots-clés est la tâche principale de toute stratégie de référencement et en plus de trouver les mots-clés les plus rentables pour lesquels vous pouvez vous classer, il y a beaucoup de travail à faire pour les analyser avant de les utiliser. La mise en cluster ou le regroupement est le processus qui vous aide à trier les mots clés que vous avez collectés, à les hiérarchiser et à filtrer ceux qui ne sont pas pertinents. Cela maximise vos chances de bien vous classer et nous vous expliquerons pourquoi.

Qu’est-ce que le clustering de mots clés?
Le clustering de mots clés combine des requêtes similaires et pertinentes en groupes et utilise des groupes entiers au lieu de mots clés séparés pour l’optimisation du site. Il aide à nettoyer le noyau sémantique en le divisant en groupes gérables.

La sémantique de clustering a toujours été une étape majeure dans la construction d’un site Web. Cela est devenu particulièrement évident avec le passage au référencement axé sur le sujet en 2013, lorsque Google a déployé sa mise à jour Hummingbird et que l’algorithme a commencé à se concentrer sur des phrases plutôt que sur des mots-clés uniques. Le changement a été soutenu par le RankBrain 2015 mise à jour: l’algorithme est devenu plus intelligent et pouvait définir des thèmes de requêtes de recherche et trouver plusieurs phrases similaires.

Il existe deux principaux types de clustering de mots clés:

basé sur le lemme – qui trouve des similitudes dans la signification des phrases et leurs correspondances morphologiques
et basé sur SERP – qui recherche des correspondances parmi les résultats de recherche.
Avantages du regroupement de mots-clés sémantiques
L’intérêt du regroupement de mots clés est qu’il vous donne une image plus claire du contenu à créer et de la manière de l’organiser sur les pages, des expressions à classer et de la manière de promouvoir différents segments de votre site.

En regroupant vos mots clés, vous pouvez:

Mieux comprendre l’intention des utilisateurs. Le référencement axé sur les sujets offre une réponse plus approfondie aux utilisateurs: lorsque vous associez des expressions similaires, vous ciblez l’intention de l’utilisateur au lieu d’un seul mot-clé et vous êtes donc plus susceptible de couvrir cette intention.
Maximisez le nombre de mots-clés à classer. Avec les clusters, vous pouvez classer un certain nombre de mots clés associés au lieu de cibler des requêtes uniques séparément.
Supprimez les mots clés inutiles. Le clustering rend une énorme liste de mots-clés plus gérable et plus complète – vous serez en mesure de repérer facilement les requêtes non pertinentes. Le logiciel de regroupement de mots clés de SE Ranking vous fournira des mots clés non groupés qui ne correspondent à aucun sujet que l’outil distingue et vous permettra de vérifier si vous en avez besoin dans votre stratégie.
Comprenez le potentiel des segments. Les clusters que vous recevez en conséquence vous aideront à comprendre comment différents éléments de contenu sont ou doivent être connectés. Ce processus vous permettra de voir votre site du point de vue du moteur de recherche et d’évaluer les différentes catégories que vous possédez ou que vous devriez mieux avoir.
Créez une structure de site efficace ou analysez l’existante. Le clustering vous aide à analyser les relations sémantiques entre vos pages et à améliorer l’architecture de votre site.
Augmentez la visibilité et l’autorité de votre site. Grâce au regroupement de mots-clés, vous pouvez avoir une meilleure compréhension de la sémantique et rendre votre contenu plus puissant, ce qui, dans son tour, rendra votre site Web plus autoritaire aux yeux des moteurs de recherche.
Gagnez du temps et éliminez les erreurs. S’il est effectué automatiquement, le regroupement de mots clés vous offre tous les avantages mentionnés ci-dessus rapidement et efficacement.
Regroupement manuel ou automatisé
Il existe de nombreux outils pour automatiser le processus de regroupement, bien que certains préfèrent encore le faire manuellement à l’aide d’Excel ou d’autres programmes. C’est une chose lorsque vous avez une centaine de mots, mais lorsque la recherche d’un projet vous laisse des milliers de mots-clés, imaginez à quel point il vous faudra du temps pour les gérer tous manuellement. Le regroupement manuel vous obligera à diviser chaque mot-clé en termes, à définir son intention et à créer des listes d’expressions en fonction des paramètres dont vous avez besoin.

L’outil de regroupement de mots-clés automatisé dans SE Ranking vous fera gagner du temps et des efforts et fera le travail pour vous. Vous obtiendrez des informations sur le contenu de vos mots clés et sur la manière de les segmenter en groupes utilisables sans avoir à les passer en revue et toutes les requêtes que vous avez collectées.

Comment regrouper des mots-clés avec le classement SE
Maintenant que nous savons à quel point le regroupement de mots-clés peut être puissant, plongons dans les mécanismes de le faire à l’aide des outils de classement SE.

Recherche initiale de mots clés
Pour trier les mots-clés en groupes thématiques, vous devez d’abord collecter une liste complète de mots-clés. Collecter autant de requêtes que possible est votre première tâche fondamentale dans le processus de création et de promotion de votre site Web. Le processus de recherche initial vous aidera à explorer ce que les utilisateurs recherchent dans votre niche et comment vos concurrents gèrent les mots-clés.

Il existe une gamme d’outils gratuits et payants qui vous aideront à trouver des mots clés pour votre site Web. Utilisez Google Trends et Google Analytics pour suivre les requêtes de recherche les plus fréquentes et les tendances actuelles dans les résultats de recherche. Lors de votre recherche, notez qu’il existe différents types de requêtes de recherche: vous pouvez les distinguer par leur longueur et leur spécificité (phrases à un, deux, trois et quatre mots, ainsi que des mots-clés à longue traîne) et par l’intention de l’utilisateur (navigation, informationnelle, transactionnelle). Ces différences vous donneront une idée de la rudesse de la concurrence pour des mots clés particuliers et des chances de conversion.

La définition et l’analyse de vos concurrents est une autre étape majeure dans la recherche de mots clés. Découvrez qui est leader dans les résultats de recherche organiques et quels sont ses mots clés les plus rentables et découvrez les annonces PPC les plus performantes dans votre créneau. La comparaison sémantique disponible dans SE Ranking peut vous montrer des chevauchements de mots clés entre différents domaines: les expressions courantes pour vos principaux concurrents figureront sur votre liste de cibles incontournables.

Comparaison sémantique dans le classement SE
L’outil de recherche de mots clés de SE Ranking comprend des suggestions de mots clés dans lesquelles vous pouvez trouver des mots clés similaires et connexes. Explorez la liste des expressions à faible volume de recherche pour saisir pleinement votre niche et augmenter le nombre de mots-clés pour lesquels vous souhaitez vous classer. Vous pouvez exporter vos résultats à partir du classement SE, puis trier les mots-clés dans un xls. ou csv. fichier.

Suggestions de mots clés en SE Classement
Créer des clusters
Maintenant que vous disposez d’une liste complète de mots clés dans votre créneau, il est temps de créer des groupes gérables et d’éliminer les requêtes dont vous n’avez pas besoin. L’outil de regroupement de mots-clés de SE Ranking filtre les requêtes en fonction de leurs similitudes SERP. Il recherche des correspondances dans les résultats de recherche pour des mots clés et des expressions de clusters donnés qui se classent pour des pages identiques.

Comparons le fonctionnement du regroupement s’il est effectué manuellement et automatiquement, puis examinons toutes les étapes à suivre pour regrouper vos requêtes dans SE Ranking.

CLUSTERING MANUEL DE MOT-CLÉS
Pour créer manuellement des clusters de mots-clés, vous pouvez filtrer la liste en fonction de leur sémantique ou de leur type d’intention. Par exemple, vous avez une énorme liste de requêtes sur les « logiciels de retouche photo ».

Vous pouvez identifier tous les différents termes apparaissant dans les résultats de recherche (par exemple, « éditeur de photos », « programme photo », « éditeur d’images », « créateur de collages », etc.) et regrouper les mots clés contenant des termes identiques.
Vous pouvez regrouper les requêtes en fonction de leur recherche volume, ce qui vous aidera à travailler sur la structure du site: les mots clés à volume élevé, les mots clés de marque à faible volume et les mots clés à faible volume peuvent représenter, respectivement, les catégories, sous-catégories et filtres de votre site.
Vous pouvez rechercher différents types de phrases en se concentrant sur l’intention de recherche (des questions telles que comment installer un éditeur de photos '', existe-t-il un éditeur de photos pour mac  », des spécifications telles que éditeur de photos gratuit '', meilleur éditeur de photos payé ‘ etc). Pour vérifier l’intention du mot clé, recherchez-le sur Google et visitez les sites les plus populaires à partir des résultats de recherche. De cette façon, vous obtiendrez une image complète des besoins des internautes et serez en mesure de segmenter les requêtes plus efficacement.
Vous pouvez créer des balises pour différents aspects d’un mot-clé: par exemple, le type d’utilisation (en ligne et hors ligne), l’intention transactionnelle (acheter, télécharger, installer, rechercher, etc.), les spécifications de l’appareil (PC, Mac, Android, iOS, etc.) . Ensuite, vous devrez effectuer des correspondances croisées entre les balises et créer des clusters.
Vous pouvez simplement passer en revue chaque mot-clé séparément et les regrouper basé sur tous les autres critères que vous souhaitez. Le regroupement de mots-clés manuel ou automatisé dépend en grande partie de votre niche et de vos objectifs de référencement particuliers.
GROUPEMENT AUTOMATISÉ DE MOTS CLÉS DANS LE CLASSEMENT SE
Pour commencer à regrouper des mots-clés dans SE Ranking, vous devez sélectionner votre région et la langue de l’interface. Concentrez-vous sur les régions dans lesquelles vous souhaitez promouvoir votre site Web et effectuez un regroupement séparément pour chaque langue si vous ciblez plusieurs d’entre elles. Ensuite, vous devez choisir le niveau de précision du regroupement et la méthode de regroupement – ce sont les facteurs qui influenceront vos résultats.

Enfin, vous devez insérer vos mots-clés – vous pouvez les ajouter manuellement ou les importer à partir d’un fichier. Sélectionnez si vous souhaitez vérifier le volume de recherche en plus du regroupement (il peut également être téléchargé séparément) et exécutez l’outil. Vous devez maintenant attendre un peu pendant que notre robot recherche les résultats correspondants et regroupe vos mots-clés en fonction du nombre donné de pages identiques dans les 10 premiers résultats.

Choix de la méthode de clustering et de la précision
Voyons maintenant comment différents paramètres fonctionnent. Il y a deux paramètres principaux à sélectionner: la précision du regroupement et la méthode.

COMMENT FONCTIONNE LA PRÉCISION DU GROUPEMENT DE MOTS CLÉS
La précision du regroupement des mots-clés (entre 1 et 9) indique le nombre minimal d’URL correspondantes pour les requêtes. Par exemple, si vous le définissez sur 3, les phrases ne seront regroupées que si elles ont 3 URL identiques dans les résultats de la recherche. Plus la précision est élevée, moins il y aura de correspondances et moins de mots-clés seront inclus dans chaque cluster.

Les requêtes similaires ont naturellement des similitudes SERP:

Similitudes SERP
Passons le même ensemble de mots clés à différents paramètres de précision et comparons les résultats. Nous avons pris 212 requêtes sur le sujet des logiciels de retouche photo et les avons regroupées à l’aide de la méthode douce avec le niveau de précision maximum (9) et minimum (1).

Le regroupement de haute précision nous donne des catégories plus spécifiques avec lesquelles travailler et laisse également de nombreuses phrases non groupées:

Regroupement de mots clés haute précision
Nous avons l’idée de différent les besoins des chercheurs avec de tels paramètres: nous pouvons voir que les gens recherchent des éditeurs de photos pour différents systèmes d’exploitation, pour le mode de fonctionnement en ligne et hors ligne, etc.

Cependant, de nombreux clusters séparés par l’outil peuvent être regroupés logiquement: le meilleur logiciel de retouche photo '' n'est pas sémantiquement différent du meilleur logiciel de retouche photo  ». Nous devons donc travailler sur ces mots-clés manuellement, ainsi que sur les non groupés. .

En revanche, le regroupement de mots clés à faible précision nous laisse avec des clusters plus larges, ce qui n’aide pas beaucoup à catégoriser les différentes intentions:

Regroupement de mots clés à faible précision
Avec de tels paramètres, vous devrez probablement regrouper manuellement la plupart des mots-clés, correspondant à leur signification. Il est généralement judicieux de mettre en œuvre des techniques de clustering automatisées et manuelles.

COMMENT FONCTIONNENT DIFFÉRENTES MÉTHODES DE GROUPEMENT DE MOTS CLÉS
La méthode (hard et soft) définit comment les requêtes de recherche sont comparées: le soft clustering compare toutes les requêtes à celle avec le plus grand volume de recherche, tandis que le clustering dur compare les requêtes les unes aux autres.

Le clustering souple donne une idée plus générale de la niche et des différents mots-clés ciblés par vos concurrents. Avec cette approche, vous obtiendrez également moins de requêtes non groupées (affichées en bas de la page de résultats dans le cluster Ungrouped) – celles que vous devrez trier manuellement et décider si vous souhaitez les utiliser dans votre référencement.

Le clustering dur peut aider à éliminer les requêtes de recherche non pertinentes et à distinguer de nombreuses intentions des utilisateurs. La comparaison des requêtes les unes par rapport aux autres donne un plus large choix d’intentions spécifiques et crée plus de groupes, même avec le niveau de précision le plus bas:

Regroupement de mots clés dur à faible précision
Cependant, le clustering de faible précision, même lorsqu’il est effectué à l’aide de la méthode dure, ignore de nombreuses différences importantes à l’intérieur de chaque groupe. Par exemple, une liste regroupée sous « logiciel de retouche photo gratuit » comprend des mots clés qui ne sont pas directement liés les uns aux autres: « logiciel de retouche photo Windows », « logiciel de retouche photo facile », « photo téléchargeable logiciel d’édition »représentent différentes intentions de recherche.

Différentes intentions de recherche dans un cluster de mots clés
Le clustering dur de haute précision, à son tour, peut ignorer les similitudes entre plusieurs groupes. Par exemple, nous avons le «meilleur logiciel de retouche photo» et le «meilleur logiciel de retouche photo» en tant que clusters séparés, ce qui n’a pas beaucoup de sens sémantiquement.

SEO AGENCE est une agence de référencement naturel.

Netflix gratuit… en Inde

Netflix prévoit de donner aux utilisateurs en Inde l’accès à son service sans frais pendant un week-end dans le cadre d’un test visant à étendre sa portée dans le pays, a déclaré mardi un haut dirigeant de l’entreprise.

Le géant américain du streaming, qui a annoncé aujourd’hui une croissance lente des utilisateurs pour le trimestre qui s’est terminé en septembre, a récemment cessé d’offrir un accès gratuit au premier mois aux nouveaux utilisateurs aux États-Unis.Mais la société prévoit de continuer à expérimenter de nouvelles façons d’attirer le potentiel dans de nombreux domaines. du monde, a déclaré Greg Peters, COO et directeur des produits chez Netflix lors de l’appel aux résultats de l’entreprise.

L’un de ces nouveaux moyens est de donner l’accès à Netflix sans frais aux clients pendant un week-end sur différents marchés, a-t-il déclaré. La société a choisi l’Inde, où elle est en concurrence avec Disney, Amazon et techniquement trois douzaines de services supplémentaires, comme premier marché sur lequel elle testera cette idée et «verra comment cela se passe», a-t-il déclaré.

«Nous pensons que donner à tout le monde dans un pays un accès gratuit à Netflix pendant un week-end pourrait être un excellent moyen d’exposer un groupe de nouvelles personnes aux histoires incroyables que nous avons, au service et à son fonctionnement … et j’espère en obtenir un tas de ces gens à s’inscrire », a-t-il déclaré, sans préciser quand l’entreprise déploiera ce nouveau test en Inde. (Ce n’était pas le cas au moment de la publication.)

Ce ne sera pas la première fois que Netflix utilise l’Inde comme banc d’essai pour explorer de nouvelles idées. La société a d’abord flirté avec l’idée d’un forfait mensuel de 2,7 $ pour mobile uniquement à New Delhi avant de l’introduire en tant que niveau permanent dans le pays l’année dernière, puis près d’une douzaine de marchés. Il a depuis testé encore plus de plans tarifaires dans le pays.

L’Inde est devenue le plus grand champ de bataille ouvert pour la Silicon Valley et les entreprises chinoises à la recherche de leur prochain milliard d’utilisateurs au cours de la dernière décennie. Disney, Amazon, Google, Apple, Spotify et plusieurs autres entreprises offrent une gamme de leurs services à un prix très abordable en Inde, deuxième marché Internet du monde.

La société, qui a affecté 420 millions de dollars au développement et à la licence de contenu en Inde d’ici la fin de 2020 l’année dernière, approfondit également sa collaboration avec d’autres acteurs de l’industrie dans le pays.

Il s’est récemment associé à Reliance Jio Platforms, le plus grand opérateur de télécommunications de l’Inde, pour intégrer son application aux forfaits haut débit et données mobiles de la société indienne. La société s’est également associée à plusieurs institutions financières en Inde pour faciliter le traitement des paiements pour les utilisateurs du pays, a-t-il déclaré. «Nous prévoyons que [davantage d’options de paiement] auront des avantages de rétention. Toutes ces initiatives sont importantes et fonctionnent de concert avec notre gros investissement dans les originaux locaux pour améliorer l’expérience Netflix pour nos membres », a déclaré la société dans une lettre aux actionnaires (PDF).

SEO AGENCE est une agence de conseil SEO.