Des sites web commerciaux

Si vous envisagez de créer votre propre site Web de commerce électronique, prenez le temps de passer en revue les conseils suivants pour aider à faire de votre site une expérience agréable pour tous ceux qui le visitent.

À bien des égards, le commerce électronique a rendu la vente et les achats beaucoup plus faciles. Pourtant, certains sites rendent l’achat si frustrant que vous commencez à vous demander si les achats en ligne sont réellement plus pratiques que d’aller au magasin.

Pour créer une clientèle heureuse et régulière, assurez-vous d’avoir tous les éléments de conception et de développement Web nécessaires dans l’ordre :

Organisation
Tout comme un magasin désordonné, un site Web désordonné peut devenir une expérience déroutante et accablante pour les acheteurs. Essayez de ne pas encombrer chaque page et n’incluez que des informations pertinentes pour les produits répertoriés.

Panier
Les gens achètent en ligne pour plus de commodité avant tout. Ne les obligez pas à trop réfléchir lorsqu’il s’agit du processus d’achat. Gardez votre panier visible et concevez votre site pour informer les clients lorsqu’un article est ajouté. De cette façon, ils n’ont pas à se demander si l’article qu’ils veulent a bien atteint leur panier.

Outil de recherche
Il n’y a rien de plus frustrant que d’essayer de localiser quelque chose sur un site Web et de ne pas trouver l’option de recherche pour le rechercher. Assurez-vous que votre barre de recherche se trouve en haut de chaque page ou au moins au-dessus du pli. Le premier endroit que la plupart des gens regardent est en haut à droite, donc le placer là leur permettra de le trouver beaucoup plus facilement.

Mises à jour des produits épuisés
Les articles se vendent ; c’est un simple fait de la vie. Bien qu’il soit idéal que vous puissiez garder tous vos produits en stock à tout moment, ce n’est pas toujours possible. Pour minimiser la déception de vos clients, configurez une option de notification pour leur faire savoir quand un produit sera à nouveau disponible. Cela montre non seulement que vous vous souciez de leur expérience, meilleure agence seo mais cela les incite à attendre et à ne pas chercher ailleurs.

Options de paiement
Offrez à vos clients la possibilité de payer de différentes manières, par exemple en acceptant à la fois PayPal et les cartes de crédit/débit. Vous pouvez également augmenter vos ventes en configurant un convertisseur de devises pour les clients en dehors de votre pays. En outre, établissez que vous êtes une entreprise digne de confiance en étant franc sur les frais de livraison et en mettant en place toutes les précautions de sécurité nécessaires.

Politique de retour
Peu de choses détournent autant un client d’une entreprise qu’une politique de retour compliquée ou apparemment malhonnête. Ajoutez une page qui inclut les détails des retours et des échanges, comme les éventuels frais de réapprovisionnement ou si les articles peuvent être retournés dans un magasin physique. En étant clair sur votre politique, vous éviterez, espérons-le, la confusion et l’irritation de vos clients, tout en instillant un sentiment de confiance et d’équité.

FAQ
Dans toute entreprise, certaines questions sont souvent posées. Épargnez à vos clients (et à vous-même) la frustration et créez une page de questions fréquemment posées. Ayez une page en place qui peut répondre à ces questions rapidement et de manière approfondie. Cela peut rendre les choses moins frustrantes pour les gens et peut souvent être le point où une personne qui n’est pas sûre d’acheter décide de le faire.

Façons de donner votre avis
Les clients aiment avoir leur mot à dire. Leur fournir un moyen de vous faire part de leurs commentaires ou de faire des suggestions les incitera à revenir à l’avenir. Cela permet au client de savoir qu’il est important pour vous et que ses idées comptent. Une autre chose qui aide est d’offrir une page de témoignages et un moyen pour les clients de laisser leur propre témoignage automatiquement.

Liste de diffusion
Un moyen efficace et rentable pour vous de contacter vos anciens clients consiste à leur envoyer des e-mails. Des mises à jour régulières (mais pas excessives) contribuent à renforcer la relation que vous avez établie depuis leur achat précédent. En les tenant au courant de vos dernières promotions, vous augmentez les chances qu’ils deviennent des clients fidèles.

Média social
Les médias sociaux sont l’un des meilleurs moyens de gagner plus de clients et d’établir une connexion avec eux. En disant aux acheteurs de vous suivre et en installant des boutons de partage sur les pages de produits, les gens peuvent faire passer le mot à propos de vous à leurs amis et abonnés.
Une chose utile à garder à l’esprit lors du développement d’une boutique en ligne est votre expérience en tant que client d’achat en ligne. Parmi les sites sur lesquels vous avez effectué des achats en ligne, quels aspects de leur site ont facilité le processus ? Qu’avez-vous trouvé frustrant dans le processus d’achat en ligne ? Ces informations vous aideront non seulement à créer une meilleure expérience utilisateur, mais vous permettront également de satisfaire vos clients beaucoup plus facilement.

Bien que créer votre propre boutique puisse être gratifiant, cela peut aussi être frustrant. Si vous avez besoin de l’aide de professionnels qui comprennent les besoins de développement Web personnalisés d’un site en ligne, consultez notre service de développement de commerce électronique.

L’équité du marketing de recherche

Nous comparons la stratégie de marketing numérique à la construction d’un actif solide, qu’il s’agisse d’une maison, d’un immeuble ou d’une entreprise prospère ; en ligne, nous construisons l’équité en marketing de recherche.
Vous construisez des actifs à long terme qui apprécient.
Vous ne prenez pas de raccourcis ou de risques fous.
Le retour sur investissement le plus élevé qu’une entreprise peut atteindre en ligne provient généralement du trafic naturel et organique des moteurs de recherche. Nous permettons la croissance du trafic dans ce domaine important en améliorant la visibilité organique d’une entreprise sur le marché, puis en optimisant la livraison de son site et l’expérience utilisateur qui s’ensuit, conduisant à plus de conversions et à de meilleurs résultats.
Nous avons un processus stratégique éprouvé pour augmenter la visibilité du marché organique grâce à la recherche, des informations sur le contenu alimentées par l’IA, des sites Web performants, de nouveaux flux de contenu pertinent, tous optimisés par des techniques avancées de référencement sur page et hors page allant de Schema Markup à la construction de liens haut de gamme.
L’un des moyens les plus simples de renforcer l’équité du marketing de recherche aujourd’hui consiste à optimiser la vitesse du site et l’expérience utilisateur pour les visiteurs.
Créer un contenu remarquable
Nous aidons nos clients à créer du contenu sur lequel les gens veulent faire des remarques. Et ce type de contenu déplace les prospects à travers les étapes de l’entonnoir de vente.
Augmentez votre visibilité sur Google
Un contenu remarquable correctement balisé pour Schema, associé à une stratégie de référencement intelligente et à des tactiques éprouvées, améliore votre classement dans les recherches, ce qui transforme le potentiel du marché en un trafic accru pour votre entreprise.
Créer du trafic de manière organique
Nous aidons les marques à créer un trafic organique, social et de référence + des liens entrants en créant un contenu remarquable, des sondages interactifs, des quiz et des calculatrices, des articles et des vidéos intrigants que les visiteurs souhaitent partager et promouvoir.
Nous commençons par la recherche. Et dans le domaine de la recherche organique, agence SEO Lille il n’y a pas de meilleure source de données sur votre site Web et son potentiel que Google lui-même sous la forme de Google Search Console.
À partir de là, nous identifions les opportunités, à savoir les phrases clés où Google a déjà reconnu votre potentiel, mais n’a pas encore élevé vos résultats à un niveau où personne ne vous a encore découvert. Nous appelons cela la recherche de vos « adolescents en difficulté », c’est-à-dire l’identification des phrases clés où vous vous présentez #13-#25, juste à côté de la première page riche en trafic de Google.
Il n’y a pas de meilleure source de recherche pour votre site Web et le potentiel qui peut être débloqué que Google lui-même via Google Search Console. Bing Webmaster peut fournir des informations similaires. Nous exploiterons ces sources et bien d’autres pour rechercher et quantifier pleinement votre opportunité de marché et établir une base de référence pour votre visibilité sur le marché.
Nous aidons les clients à comprendre le potentiel de déverrouillage de la recherche Google, y compris une évaluation réaliste des étapes, de l’investissement et du calendrier.

Le contenu et les KPI

L’un des principaux problèmes auxquels sont confrontés les spécialistes du marketing de contenu est de ne pas savoir comment suivre l’efficacité de leur contenu. Beaucoup pensent que le marketing de contenu est subjectif et qu’il dépend de certaines mesures intangibles, mais ce n’est pas vrai. Il existe un large éventail de mesures spécifiques qui peuvent vous indiquer quelles stratégies génèrent réellement plus de trafic sur votre site, stimulent les conversions ou augmentent vos revenus. Tout ce que vous avez à faire est d’apprendre à séparer les bons indicateurs de performance clés de ceux qui peuvent vous distraire.

Dans cette optique, voici huit mesures impressionnantes que tout spécialiste du marketing de contenu devrait surveiller :

1. LE TAUX DE REBOND
Le taux de rebond indique combien de visiteurs quittent votre site après avoir consulté une seule page. Cette mesure vous donne un aperçu inestimable, en vous aidant à comprendre votre public cible. Il vous donne l’occasion de découvrir pourquoi une personne atterrit sur votre site et le quitte avant d’avoir effectué l’action souhaitée. Il peut s’agir d’une mauvaise vitesse de chargement de la page ? Peut-être que votre contenu n’est pas pertinent pour lui ou que l’attrait général du site n’est pas très positif. Qu’en est-il de votre menu et de votre navigation ? Sont-ils clairs et faciles à utiliser ?

Le seul problème avec cette mesure est qu’elle est généralement mal comprise, car elle peut parfois être assez obscure. Par exemple, si une personne clique sur votre lien depuis Facebook et quitte votre site après avoir lu votre article du début à la fin, cela compte quand même comme un rebond – c’est pourquoi vous ne devriez pas vous fier uniquement à cette mesure pour déterminer le succès de votre contenu.

« Rappelez-vous, attirer de nouveaux visiteurs sur votre site est important, mais les retenir et stimuler leur fidélité à votre marque est le fondement de votre stratégie de marketing de contenu. »

2. MESURES DE RÉTENTION
Le nom dit tout – les métriques de rétention montrent combien de personnes reviennent sur votre site. Ces mesures comprennent des éléments tels que les visiteurs qui reviennent et la fréquence des retours. Elles sont extrêmement importantes pour les spécialistes du marketing de contenu car elles montrent dans quelle mesure votre contenu trouve un écho auprès de vos lecteurs. S’il est suffisamment pertinent, informatif et attrayant, ils reviendront. Plus important encore, ils vous considéreront comme une source d’information fiable et digne de confiance. N’oubliez pas que le fait d’attirer de nouveaux visiteurs sur votre site est important, mais que les retenir et les fidéliser à votre marque est le fondement de votre stratégie de marketing de contenu.

3. TEMPS PASSÉ SUR LA PAGE
Il est bon de connaître le temps moyen que vos lecteurs passent sur votre site, car cela montre à quel point ils sont engagés dans votre contenu. Ainsi, si vous avez publié un guide complet de 2000 mots et que vous constatez que les gens le quittent au bout de deux minutes, cela signifie qu’ils ne le lisent pas. Il en va de même pour vos vidéos, infographies et podcasts. Si vos visiteurs n’ont pas envie de lire, regarder ou écouter votre contenu du début à la fin, cela signifie que vous ne ciblez pas les bonnes personnes ou que vous ne leur apportez pas de valeur.

Le problème majeur de cette mesure est qu’elle ne vous indique pas vraiment si vos lecteurs sont activement engagés. Par exemple, si quelqu’un ouvre votre article, mais se laisse distraire par un appel téléphonique et passe 15 minutes sur cette page sans lire une seule phrase, ce n’est pas de l’engagement – mais cela influencerait votre temps moyen sur la page. La seule façon de le rendre pertinent est d’utiliser des outils tels que Mouseflow ou Riveted qui surveillent les défilements, les mouvements de souris, l’utilisation du clavier et les clics des internautes pour mesurer leur engagement.

Vous pourriez même mettre en place un tableau de bord KPI personnalisé et combiner les widgets de différents outils pour surveiller vos KPI simultanément.

« Le marketing de contenu n’est pas seulement une question de créativité. Pour créer un contenu qui résonne vraiment auprès de votre public cible, vous devez suivre régulièrement ses performances. »

4. PAGES PAR VISITE
Pour donner à votre blog un coup de pouce au SEO (optimisation pour les moteurs de recherche) et améliorer l’expérience utilisateur, vous devez créer des liens internes – c’est la règle d’or du marketing de contenu. Les liens internes conduisent vos lecteurs vers d’autres articles pertinents pour eux, ce qui signifie qu’ils passeront plus de temps sur votre site et visiteront plus d’une page par visite. Bien sûr, plus le nombre de pages par session est élevé, plus votre contenu est attrayant, mais ce n’est pas forcément le cas. Si le nombre de pages par visite est élevé mais que le temps passé sur la page est faible, cela peut signifier que vos visiteurs cliquent sur votre site Web mais ne trouvent pas ce qu’ils recherchent.

5. SOURCES DE TRAFIC
La surveillance et le suivi de la source de trafic de votre site Web vous permettent de comprendre quels canaux de promotion du contenu fonctionnent pour vous. Avec Google Analytics, vous pouvez créer des codes de suivi et analyser le volume de trafic provenant de sources spécifiques.

Par exemple, les liens entrants naturels sont extrêmement importants, car ils montrent que vos lecteurs trouvent votre contenu suffisamment intéressant pour créer des liens naturels vers celui-ci. Plus important encore, ils vous indiquent quel contenu retient l’attention de vos lecteurs et vous aident à adapter votre stratégie à leurs besoins.

6. PARTAGES SOCIAUX
Un contenu génial apporte de la valeur. Lorsque vos lecteurs prennent conscience de cette valeur, ils commencent à partager vos articles. Chaque fois qu’ils appuient sur le bouton de partage de votre site, ils disent en fait : « C’est un contenu de grande valeur, regardez-le ». Si votre site est bien établi, vous devez absolument ajouter des boutons de partage social avec des compteurs qui vous indiquent, à vous et à vos visiteurs, dans quelle mesure les gens interagissent avec votre contenu. Avant tout, ce chiffre est un indicateur fort de l’importance de votre article et de la nécessité pour vos visiteurs de le lire.

7. PROSPECTS GÉNÉRÉS
La génération de leads est l’épine dorsale de votre entreprise et l’objectif principal du marketing de contenu. Plus précisément, les « leads générés » sont la mesure des leads qui proviennent directement de votre contenu – qu’il s’agisse d’achèvements, de signatures d’e-mails ou de demandes d’informations supplémentaires, etc. Cette stratégie est extrêmement importante car elle montre si votre contenu génère de réelles opportunités commerciales et s’il a une chance d’augmenter votre retour sur investissement.

8. LE RETOUR SUR INVESTISSEMENT
Pour vous assurer que votre stratégie de marketing de contenu a du sens, vous devez toujours calculer votre retour sur investissement (ROI).

La formule est simple : (bénéfices générés – investissement initial) / (investissement initial).

Ainsi, si vous avez investi 300 euros et généré 1200 euros, votre retour sur investissement sera de trois (ou 300 %). Bien sûr, comme pour tout ce qui concerne le marketing numérique, le calcul du ROI n’est pas si simple. Pour en tirer le meilleur parti, vous devez également prêter attention à votre génération de prospects, au référencement, au trafic sur votre site Web, aux taux de conversion, au coût des logiciels et des outils, au coût de production du contenu, au coût de promotion du contenu et au temps passé à planifier votre stratégie de marketing de contenu, etc.

CONCLUSIONS
Le marketing de contenu n’est pas seulement une question de créativité. Pour créer un contenu qui trouve un réel écho auprès de votre public cible, vous devez suivre régulièrement ses performances. Ces mesures montreront l’efficacité de votre stratégie de marketing de contenu, vous indiqueront les stratégies à utiliser et celles à abandonner et vous aideront à augmenter votre retour sur investissement. Gardez à l’esprit qu’il n’existe pas de valeurs idéales à atteindre. Elles évoluent parallèlement à la croissance de votre stratégie de marketing de contenu.

SEO AGENCE est une agence SEO à Lille.

 

Utiliser les réseaux sociaux pour le business

Les médias sociaux sont un terme plus complexe qu’il n’est immédiatement évident, en particulier dans le paysage Web moderne. Alors que la majorité des jeunes générations ont au moins une certaine expérience de l’utilisation de plateformes comme Facebook, Instagram et Twitter pour rester en contact avec leurs amis et leur famille, de plus en plus d’entreprises les utilisent pour débloquer de nouvelles bases de clients. Contrairement à un site Web personnel, les plateformes sociales nous permettent d’interagir directement avec les clients pour encourager la confiance, l’intérêt et le commerce répété – nous ne devons pas compter uniquement sur les clients qui visitent notre site. Quelles que soient les opportunités commerciales que cela peut révéler, il y a plusieurs considérations lors de l’utilisation des médias sociaux à des fins professionnelles, SEO à savoir l’équilibre entre le contenu social et professionnel. Sans précaution, le matériel que nous publions en ligne peut nuire à notre réputation en tant que photographes et hommes d’affaires. Ici, nous explorons certaines choses à faire et à ne pas faire pour vous permettre de tirer le meilleur parti de votre présence en ligne.

Attirer le bon public
Quelle que soit la stratégie de médias sociaux que vous choisir d’adopter, il est essentiel qu’il vous connecte aux personnes susceptibles d’être intéressées par vos services. Réfléchissez au type de contenu qui vous permettra de fidéliser vos clients potentiels et de les fidéliser. N’oubliez pas que votre liste d’abonnés influencera la perception qu’ont les gens de votre marque.

Marquez intelligemment
La fonction des publications commerciales diffère du contenu social standard. Lors de la publication d’une image sur Facebook, Twitter ou Instagram, un indicateur de son succès n’est pas nécessairement le nombre total de likes, mais le nombre de personnes pertinentes qui la voient. Ajoutez des hashtags en rapport avec votre spécialité photographique, votre domaine de travail et votre type de sujet.

Restez dans le sujet
Bien que vous puissiez choisir d’introduire un ton sociable dans vos publications, il est important de vous rappeler la fonction du contenu que vous partagez. Bien que nous utilisions toujours le terme de médias sociaux, nous devons conserver une image professionnelle, en nous abstenant d’ajouter des commentaires potentiellement incendiaires, des opinions politiques ou d’autres éléments susceptibles d’influencer la façon dont les téléspectateurs vous voient en tant que marque. Restez largement neutre dans vos opinions pour maximiser votre attrait.

Conclusion
La façon dont vous utilisez les médias sociaux peut avoir des implications de grande envergure. Une stratégie bien planifiée peut augmenter votre visibilité vis-à-vis des sources potentielles de revenus, tandis que la négligence ou un contenu erroné peut avoir un impact négatif sur votre image professionnelle.

Comment l’intelligence artificielle a eu son nom

C’est un fait peu connu qu’une partie du nom de Wikipédia vient d’un bus à Hawaï. En 1995, six ans avant le lancement de la célèbre encyclopédie en ligne, un programmeur informatique nommé Ward Cunningham était à l’aéroport international d’Honolulu lors de sa première visite dans les îles. Il était en train de développer un nouveau type de site Web pour aider les concepteurs de logiciels à collaborer, un site que les utilisateurs eux-mêmes pouvaient rapidement modifier à partir d’un navigateur Web. C’était une innovation frappante à l’époque. Mais comment l’appeler ?

« Je voulais un mot inhabituel pour désigner ce qui était une technologie inhabituelle », a déclaré Cunningham à un lexicographe curieux en 2003. « J’ai appris le mot wiki… quand j’ai été dirigé vers la navette de l’aéroport, appelée Wiki Wiki Bus. »

Wiki signifie rapide, et les mots hawaïens sont doublés pour souligner : le bus très rapide. Avec cela, le logiciel de Cunningham avait le son distinctif qu’il recherchait : WikiWikiWeb.

Wikipedia, dont Cunningham n’a pas participé au développement, est l’un des innombrables sites Web basés sur son travail. La seconde moitié de son nom vient du mot encyclopédie, pedia étant le terme grec pour la connaissance : « connaissance rapide ». Pourtant, maintenant, le site connaît un tel succès que sa renommée a éclipsé ses origines, ainsi que le fait qu’une visite fortuite sur une île a donné à l’ère numérique l’un de ses termes les plus emblématiques.

J’aime me plonger dans les origines de nouveaux mots, en particulier autour de la technologie. À l’ère numérique, la technologie peut sembler être un ordre naturel des choses, surgissant pour ses propres raisons. Pourtant, chaque technologie est ancrée dans une histoire et un moment particuliers. Pour moi, l’étymologie met l’accent sur la contingence de choses que je pourrais autrement tenir pour acquises. Sans le sens de ces histoires trop humaines, je suis incapable de voir nos créations pour ce qu’elles sont vraiment : des extensions merveilleuses et imparfaites de la volonté humaine, empêtrées dans toutes sortes de préjugés et de conséquences imprévues.

Je donne des conférences sur la technologie aux adolescents et j’utilise souvent Wikipédia comme incitation à la discussion. Trouvons et améliorons un article pour améliorer Wikipédia, je suggère, et dans le processus, de réfléchir à ce que « mieux » signifie. La réaction de mon public est presque toujours la même. Qu’est-ce que j’entends par améliorer un article ? Ne sont-ils pas tous écrits par des experts ? Non, je dis. C’est tout l’intérêt d’un wiki : les utilisateurs eux-mêmes l’écrivent, ce qui signifie qu’aucune page n’a jamais le dernier mot. Il n’y a pas de réponses définitives et pas de propriété au-delà de la communauté elle-même.

Certains contributeurs au wiki original de Ward Cunningham sont loin d’être élogieux envers Wikipédia précisément parce qu’ils le voient trahir cette intention. En raison de son succès, soutiennent-ils, Wikipédia encourage une illusion d’impartialité et de permanence. Ses pages peuvent devenir des « vérités » autonomes et autoproclamées qui mettent fin au débat ou le restreignent à une caste éditoriale auto-sélectionnée.

Un élan plus important se cache derrière de telles inquiétudes : le passage du temps lui-même. Aucun de mes adolescents ne se souvient d’une époque antérieure à Wikipédia, et le site Web original de Cunningham est plus ancien que tout le monde. d’eux. Comme la plupart des logiciels et du matériel dans leur vie, Wikipédia est simplement une partie du paysage, quelque chose que les gens habitent, s’adaptant à ses contours.

Le numérique entretient un rapport difficile avec le temps. Les anciens formats et plates-formes tombent rapidement en désuétude ; plus récent est par définition meilleur, plus rapide, plus lumineux. Pourtant, des décisions vieilles de plusieurs décennies continuent d’avoir une influence. Si, par exemple, vous voulez comprendre la conception d’une souris d’ordinateur, vous devez vous replonger dans un article de la NASA de 1965 explorant différentes méthodes de contrôle possibles, notamment une sorte de pédale déplacée avec les genoux, une tablette et un stylet « Grafacon », un stylo lumineux, un joystick. En faisant cela, vous vous retrouverez transporté à une époque où il n’était en aucun cas évident de savoir comment les gens pourraient le mieux interagir avec un ordinateur, ou même ce que signifiait interagir avec un ordinateur. Exemple de citation de l’article original : « Bien que le contrôle du genou n’ait été développé qu’à l’époque où il a été testé, il s’est classé élevé à la fois en termes de vitesse et de précision et semble très prometteur.

Qui imaginerait utiliser ses genoux pour contrôler un ordinateur aujourd’hui en parallèle de la frappe, comme travailler sur une machine à coudre à l’ancienne ? Tracer le fil d’un mot est un beau contrepoids à l’obsession souvent implacable de la culture numérique pour le présent, esquissant comment chaque itération de logiciel et de matériel s’appuie sur des idées et des valeurs plus anciennes. Connectez-vous à un réseau sans fil et vous entrez dans le même espace verbal que le télégraphe sans fil développé dans les années 1890. À l’époque comme aujourd’hui, des accords internationaux devaient être établis pour une mise en réseau réussie, ainsi qu’une réglementation, des licences et l’affirmation agressive des normes des marques. Communiquer électroniquement, c’est participer à un vaste consensus négocié, construit et entretenu sur la base de décennies d’hypothèses accumulées.

De même, parler de technologie, c’est assumer : cela demande des notions partagées de sens et d’usage. Pourtant, il y a des termes qui méritent plus de scepticisme que la plupart. Il y a soixante ans, un groupe de scientifiques a élaboré un programme de conférence visant à prédire et à façonner l’avenir, à établir un domaine qui, selon eux, transformerait le monde. Leur mission était d’utiliser la jeune science du calcul numérique pour recréer et dépasser le fonctionnement de l’esprit humain. Leur titre choisi ? Le projet de recherche d’été de Dartmouth sur l’intelligence artificielle.

Les hypothèses de la Conférence de Dartmouth, énoncées dans une proposition de 1955, étaient explicitement impudiques : « [L]’étude doit procéder sur la base de la conjecture que chaque aspect de l’apprentissage ou tout autre élément de a décrit qu’une machine peut être faite pour le simuler. Pourtant, aujourd’hui, le mot même «intelligence» continue de se situer quelque part entre une meule et un homme de paille pour ce domaine. Des véhicules autonomes à la reconnaissance faciale, de la maîtrise de Chess and Go à la traduction basée sur le traitement de milliards d’échantillons, une automatisation de plus en plus intelligente est un source de fascination anxieuse. Pourtant, les mots mêmes qui peuplent chaque titre nous éloignent encore plus de la vision des machines telles qu’elles sont – non pas tant un miroir de l’intellect humain que quelque chose de totalement différent de nous, et d’autant plus puissant pour cela.

Comme Alan Turing lui-même l’a dit dans son article de 1950 sur les machines informatiques et l’intelligence, « nous ne pouvons voir qu’une courte distance, mais nous pouvons voir beaucoup de choses qui doivent être faites ». Si nous voulons affronter l’avenir avec honnêteté, nous avons besoin à la fois d’une idée claire d’où nous venons et d’une description précise de ce qui se passe sous notre nez. L’IA, telle qu’elle est, s’étend sur une multitude de disciplines émergentes pour lesquelles des étiquettes plus précises existent : apprentissage automatique, systèmes symboliques, big data, apprentissage supervisé, réseaux de neurones. Pourtant, une analogie vieille de 60 ans fossilisée dans les mots obscurcit le débat autour de la plupart de ces développements, tout en alimentant des fantasmes inutiles à la place de connaissances pratiques.

Même si on peut se faire piéger dans les mots, aujourd’hui reste un âge d’une extraordinaire fertilité linguistique, marquée non seulement par l’alphabétisation de masse, elle-même un phénomène historique récent, mais par la participation massive au discours écrit et enregistré. À travers les écrans de milliards de téléphones portables, tablettes, ordinateurs portables et ordinateurs de bureau, l’humanité est saturée d’expression de soi comme jamais auparavant.

Tous ces mots disent et révèlent plus que nous ne savons, si nous voulons les interroger. L’étymologie insiste sur le fait que tout était autrefois nouveau, bien que né d’une négociation avec tout ce qui l’a précédé. D’une certaine manière, les histoires derrière de nouveaux mots nous interpellent à repenser : récupérer le choc et l’étrangeté de chaque ajout au monde.

Je ne crois pas que connaître l’origine de Wikipédia nous aide particulièrement à comprendre son succès, ou nous apprend à mieux l’utiliser. Mais cela rappelle que les choses n’ont pas toujours été comme elles sont aujourd’hui, suivies, espérons-le, par l’idée que les choses ne seront pas toujours comme elles sont aujourd’hui non plus.

SEO Agence est une agence SEO à Lille.

Comment il y a plus de robots que d’hommes sur le web

Vérifiez autour de vous, SEO Agence hommes et femmes de votre ligne. Les chenilles Ils sont presque partout. La plupart des visiteurs de sites Web ne sont pas des êtres humains, mais ils sont en quelque sorte des robots d’exploration ou des plans créés pour réaliser des activités programmées. Ce sont les abeilles personnels de votre Internet, ainsi que les hommes de main. Certains robots supportent la mise à jour de votre Fb ou déterminent comment positionner les résultats finaux de la recherche sur Internet; d’autres robots imitent des êtres humains et exécutent des épisodes désastreux de DDoS. Globalement, les robots d’exploration – négatifs et positifs – sont responsables de 52% du trafic en ligne, selon un enregistrement alternatif via le secteur de la sécurité Imperva, qui publie une évaluation annuelle du processus de bot sur Internet. La statistique de 52% est importante car elle représente un pourboire de votre balance depuis la déclaration de l’année précédente selon laquelle le trafic de sites Web humains a dépassé le trafic de robots pour la première fois, puisque pas moins de 2012, quand Imperva a commencé à suivre l’action des robots l’Internet. L’enquête la plus récente, qui repose sur une évaluation de près de 17 milliards de dollars de visites de sites Web provenant de plus de 100 000 domaines, montre que les robots sont en tête du classement. En plus de cela, des chenilles dangereuses gardent le flanc autour des robots d’assistance, qui étaient respectivement responsables de 29% et de 23% du trafic en ligne. «La statistique la plus déconcertante de cette déclaration est également la tendance la plus constante qu’elle observe», déclare Igal Zeifman, directeur de la publicité et du marketing d’Imperva, dans un article sur l’enquête. «Au cours des 5 dernières années, chaque troisième visiteur du site Web était un bot d’attaque.» Dit autrement: plus de 94% des 100 000 domaines inclus dans la déclaration qualifiaient au moins une attaque de bot sur une période de 90 jours ouvrables. dans l’avis de Imperva. Les sites Web qui peuvent être moins populaires, analysés par les visiteurs, ont tendance à attirer davantage de sessions de crawlers. Zeifman a publié: «Les bons robots exploreront votre site Web et les mauvais robots tenteront de le déchiffrer, peu importe à quel point il est apprécié par les hommes. Ils continueront probablement même à visiter un site en l’absence de tout trafic individuel ciblé. »

Les effets secondaires des GAFAs

Attention aux effets secondaires des GAFA

Partenariats avec des laboratoires pharmaceutiques, rachats de sociétés du secteur, développement d’applications dédiées… Depuis quelques mois, les géants du numérique Google, Apple, Facebook, Amazon, Tencent, IBM, Alibaba, Microsoft et d’autres multiplient les incursions dans le secteur de la santé. Tout comme ils le font dans tant d’autres secteurs ? Pas exactement. Le secteur de la santé représente pour eux un enjeu bien plus important que ceux de l’industrie, de la distribution ou de la finance. Pour des raisons que Lambert Lacoste, responsable de mission Santé au cabinet conseil Alcimed, explique : « Il y a d’abord un élément contextuel : le numérique est désormais partout. De fait, les géants du numérique sont de plus en plus présents dans nos vies et, donc, dans notre santé. Ensuite, la médecine du futur repose essentiellement sur les données et, aujourd’hui, les experts en matière de collecte et d’exploitation des données, ce sont eux, pas les industriels de la santé ! » S’ajoute à cela la perspective d’un marché mondial qui croît en moyenne de 5,4 % par an et qui devrait atteindre 10 000 milliards de dollars en 2022, selon le cabinet Deloitte. Le marché de la santé est particulièrement hétérogène. Il va des hôpitaux, des cliniques et de la médecine de ville à l’analyse du génome et à l’imagerie, en passant par les médicaments, les traitements les plus avancés, le soin aux personnes âgées, les assurances et les mutuelles. Quel que soit leur métier, tous les acteurs partagent une certitude : la médecine de demain sera prédictive, préventive, personnalisée et participative. Et c’est grâce au numérique qu’il sera possible de mettre en œuvre cette médecine baptisée « 4P ». « Les géants du numérique sont les mieux placés pour répondre aux besoins dans ce domaine, confirme Arielle Le Bail, analyste chez Fabernovel. Ils possèdent à la fois le savoir-faire et les plates-formes. Si, par exemple, tous les examens sont réunis dans le dossier numérique d’un patient et accessibles facilement aux médecins, il n’est pas utile de les refaire. Cela se traduit par des économies et par une plus grande efficacité. » Jérémy Taïeb, chef de projet chez Fabernovel, qui a étudié l’écosystème de santé avec elle, cite un autre exemple : « En 2017, la revue Health Management Technology estimait à 150 milliards de dollars par an le coût lié au fait de ne pas se présenter aux rendez-vous médicaux et à ses conséquences rien qu’aux Etats-Unis. Gérer une plate-forme de prise de rendez-vous et de suivi en ligne est typiquement ce qu’une entreprise du numérique sait faire ! »

Une assistance médicale virtuelle
En matière de santé, les bénéfices du numérique sont nombreux et très variés. Le système cognitif Watson d’IBM assimile des millions d’informations en quelques secondes et propose un diagnostic ou un traitement que le médecin affine en fonction du patient. L’Apple Watch, grâce à un capteur, surveille le rythme cardiaque d’un patient et peut alerter son médecin en cas de problème. Alexa, l’assistant vocal d’Amazon, soulage les médecins en répondant aux questions simples que les Britanniques posent au NHS, le service de santé publique, et, à en croire un brevet récemment déposé par Amazon, il serait bientôt en mesure de détecter une maladie en analysant la voix de la personne qui appelle. Facebook a pour sa part développé un algorithme de prédiction des suicides qui analyse les messages postés sur le réseau social et met la personne en relation avec un service d’aide et de prévention. Tencent, désigné champion national dans le domaine de la santé par le gouvernement chinois, permet aux patients de prendre rendez-vous et de réserver leur chambre à l’hôpital via la messagerie WeChat. Toutes ces applications sont rendues possibles par la conjonction des algorithmes d’intelligence artificielle (IA), des plates-formes numériques du Cloud et, surtout, par la disponibilité de grands volumes de données qu’il est possible d’analyser. Autant d’atouts qui sont dans les mains des géants du numérique.

Vers une privatisation des savoirs ?

Seuls 11% des Américains seraient prêts à partager leurs données avec les GAFA.
A première vue, ces applications sont plus que positives pour tout le monde. Elles améliorent la qualité des soins et le confort des patients. Elles facilitent le travail des praticiens en leur apportant au bon moment les informations pointues dont ils ont besoin. Elles contribuent à réduire les dépenses de santé en optimisant les traitements et leur observance, en évitant des hospitalisations ou tout au moins en réduisant leur durée au strict nécessaire. Pourtant, l’intérêt des grandes entreprises du numérique pour la santé et la médecine commence à inquiétercertainsobservateurs.«La question que nous devons nous poser en tant que société est : voulons-nous que les savoirs en matière de santé soient privatisés ou qu’ils deviennent un bien public ? » n’hésite pas à interroger Bart De Witte. DansuneinterviewaumagazineThe Innovator, cet ancien directeur de la santé numérique chez IBM et titulaire de la chaire de médecine du futur à Futur/io, un institut européen de recherche, explique qu’on dispose à présent de suffisamment de données pour nourrir les algorithmes d’IA, qui deviennent de plus en plus intelligents et opérationnels, et peuvent vraiment transformer les connaissances en médecine. Mais les investissements dans ce domaine sont actuellement réalisés par le privé – en grande partie par les géants du numérique – et le risque existe de voir ces connaissances peu à peu privatisées. Bart De Witte propose de créer une plate-forme sans but lucratif où les algorithmes développés seraient en accès libre, en mode open source, « sans quoi, SEO la santé risque de ne plus être accessible à tous »… Les initiatives des géants du numérique suscitent aussi des inquiétudes quant à leurs ambitions hégémoniques. Jusqu’où iront-ils ? En 2018, Amazon a créé Haven, une coentreprise avec Berkshire Hathaway, le conglomérat de Warren Buffett, et la banque JPMorgan Chase. Cette société va gérer les prestations santé et fournir soins et médicaments aux 1,2 million d’employés des trois entités. Pour l’instant… La même année, Amazon a racheté PillPack, une start-up de livraison de médicaments sur ordonnance. Le géant du commerce et de la distribution en 24 heures se positionne ainsi sur toute la chaîne de valeur du secteur. Quant à Google, ses filiales DeepMind, Verily ou Calico Labs, qui travaillent sur la santé, ont déjà déposé près de 200 brevets. Début 2019, Apple a développé une application pour Aetna, filiale de CVS Health qui assure les employés des entreprises américaines. L’application Attain récompense les clients d’Aetna qui portent une Apple Watch en fonction de leurs efforts pour augmenter leur activité physique ou améliorer leur alimentation… Les craintes portent aussi, bien évidemment, sur la confidentialité des données. Depuis mai 2018, l’Europe applique le règlement général sur la protection des données (RGPD), qui prévoit d’informer les internautes sur l’usage qui est fait de leurs données et d’obtenir leur consentement. Le scandale Cambridge Analytica et l’amende de 5 milliards de dollars infligée l’été dernier à Facebook par la Federal Trade Commission (FTC) pour ne pas avoir informé suffisamment ses utilisateurs sur la protection de leurs données personnelles montrent que la perception de ce sujet évolue également aux Etats-Unis. « Savoir à qui appartiennent les données de santé est crucial ; cela détermine qui peut les revendre, les utiliser et à quelles fins », souligne Arielle Le Bail. Une étude de Rock Health sur l’acceptation de la santé numérique aux Etats-Unis pointe que seulement 11 % des Américains interrogés seraient prêts à partager leurs données avec les grandes entreprises technologiques, alors qu’ils sont 72 % à accepter de les partager avec leur médecin. Cela n’empêche pas ces géants de négocier avec les hôpitaux. Ainsi, Facebook a conclu un partenariat avec le service radiologie de l’université de New York pour récupérer des données anonymisées sur les patients et entraîner l’algorithme qui pilotera son projet d’IRM.

Des millions de données de clients de GoDaddy compromises

Des millions de données de clients de GoDaddy compromises lors d’une attaque.

Le géant de l’enregistrement de noms de domaine et fournisseur d’hébergement GoDaddy a révélé hier à la Securities and Exchange Commission (SEC) qu’il avait subi une violation de sécurité. Cela montre aujourd’hui que la cybercriminalité est partout.

Dans sa notification, il explique avoir été compromis par un « accès tiers non autorisé à notre environnement d’hébergement Managed WordPress ». Le coupable inconnu à l’origine de l’attaque a volé jusqu’à 1,2 million de données de clients actifs et inactifs, notamment des adresses électroniques, des mots de passe d’administrateur WordPress originaux, des identifiants de protocole de transfert de fichiers sécurisés (sFTP) et de base de données, ainsi que des clés privées SSL.

La société a déclaré avoir pris des mesures pour sécuriser les comptes et l’environnement, notamment en réinitialisant les mots de passe et en empêchant le tiers non autorisé d’accéder à son système, et a indiqué qu’elle allait émettre de nouveaux certificats pour certains clients.

GoDaddy a d’abord détecté une activité suspecte dans son environnement d’hébergement Managed WordPress mercredi de la semaine dernière. Selon les premières investigations, l’intrus a utilisé un mot de passe compromis pour accéder à un code hérité dans l’environnement de GoDaddy afin de voler des données. Les enquêtes se poursuivent.

« Nous sommes sincèrement désolés de cet incident et de l’inquiétude qu’il suscite chez nos clients », a écrit Demetrius Comes, directeur de la sécurité informatique (CISO) de GoDaddy. « Nous, dirigeants et employés de GoDaddy, prenons très au sérieux notre responsabilité de protéger les données de nos clients et ne voulons jamais les laisser tomber. Nous tirerons les leçons de cet incident et nous prenons déjà des mesures pour renforcer notre système d’approvisionnement avec des couches de protection supplémentaires. »

Selon les chercheurs de Defiant Inc, développeurs de Wordfence-un plugin pour sécuriser les sites WordPress-GoDaddy a géré sFTP d’une manière qui ne suit pas les pratiques standard : « Il semble que GoDaddy stockait les informations d’identification sFTP soit en texte clair, soit dans un format qui pouvait être inversé en texte clair. Ils ont procédé ainsi au lieu d’utiliser un hachage salé ou une clé publique, qui sont tous deux considérés comme les meilleures pratiques de l’industrie pour sFTP. Cela permettait à un attaquant d’accéder directement aux informations d’identification du mot de passe sans avoir besoin de les craquer. »

Vous êtes client de GoDaddy ? Voici ce qu’il faut faire:
Si vous utilisez le service d’hébergement de GoDaddy et que vous ne savez pas si votre compte pourrait faire partie de ceux qui sont touchés, ne laissez pas cela au hasard. Agissez maintenant avant que quelqu’un ne profite de l’occasion pour prendre le contrôle de votre compte.

GoDaddy a fourni une bonne liste de mesures à prendre pour verrouiller un compte qui pourrait être potentiellement compromis :

Changez votre mot de passe et votre code PIN
Activez l’authentification à deux facteurs (2FA) si vous ne l’avez pas encore fait.
Modifiez les méthodes de paiement que vous avez enregistrées sur votre compte et supprimez celles que vous n’utilisez pas. Il serait également bon de garder un œil sur les transactions de votre compte bancaire et d’être prêt à signaler celles qui sont frauduleuses.
Supprimez l’accès délégué de toute personne que vous avez autorisée à accéder à votre compte.
Supprimez toute clé d’API inconnue en la supprimant.
Vérifiez que les coordonnées de votre domaine sont correctes pour éviter que quelqu’un ne s’en empare.
Déconnectez-vous à distance de votre compte GoDaddy, ce qui vous déconnectera de tous les appareils et navigateurs.
Soyez prudent !

SEO Agence est une agence web à Lille.

Ils détestent l’internet

Il y a trente ans cette semaine, le scientifique britannique Tim Berners-Lee inventait le World Wide Web au CERN, le centre européen de recherche scientifique. Autant dire que l’idée a décollé. Le Web a permis aux gens ordinaires de créer et de relier facilement des pages sur ce qui était alors un petit réseau. Le langage de programmation était simple et la publication était aussi simple que de télécharger quelque chose sur un serveur contenant quelques balises.

Il y avait un potentiel réel, démocratique et libérateur, et il n’est donc pas du tout surprenant que les gens – notamment Berners-Lee lui-même – choisissent de se souvenir et de célébrer cette époque. C’était l’époque avant les médias sociaux, la suprématie de FAANG et le capitalisme de plateforme, quand Internet n’était pas aussi dépendant de la surveillance et de la publicité qu’aujourd’hui. L’attention était plus largement distribuée. Le web a brisé l’emprise des médias audiovisuels et imprimés sur la diffusion des histoires. HTML ressemblait à une révolution.

Pas à tout le monde, cependant. Quelques années seulement après la création d’Internet, un ensemble de critiques virulentes, notamment dans Resisting the Virtual Life, une anthologie de 1995 publiée par City Lights Books, se sont élevées pour remettre en question les idées qui sous-tendaient la technologie, comme les groupes précédents l’avaient fait avec d’autres technologies antérieures. Ce n’était pas la farce de l’essai Newsweek de Clifford Stoll affirmant qu’Internet était fondamentalement nul. Il s’agissait de critiques plus profondes sur le type de société qui construisait Internet et sur la façon dont les valeurs dominantes de cette culture, une fois encodées dans le réseau, généreraient de nouvelles formes d’oppression et de souffrance, au pays et à l’étranger.

Resisting the Virtual Life s’attaque à « la nouvelle machinerie de domination », envisage un « monde ingouvernable », considère les possibilités discriminatoires de la collecte de données, répertorie l’injustice du genre en ligne, examine le « monde masculin des ingénieurs en logiciel », déplore la « réduction de l’espace public », spécule sur « la forme de la vérité à venir », et propose même une voie démocratique à suivre. Ses essais prévoyait l’instabilité économique qu’Internet pourrait apporter, comment le «culte du garçon ingénieur» finirait par envahir la vie de chacun et les implications de la création d’énormes quantités de données personnelles pour le traitement des entreprises. « Qu’est-ce qui pourrait mal tourner avec le Web ? » ont demandé les auteurs. La réponse qu’ils ont trouvée était : beaucoup. Ils s’appelaient eux-mêmes « la résistance ».

C’était avant que Jeff Bezos ne soit l’homme le plus riche du monde. C’était avant Facebook, avant l’iPhone, avant le Web 2.0, avant que Google ne devienne public, avant l’effondrement des dot-com, avant la bulle dot-com, avant que presque tout le monde en dehors de la Finlande envoie des SMS. Dix-huit millions de foyers américains étaient « en ligne » dans le sens où ils avaient America Online, Prodigy ou CompuServe, mais selon le Pew Research Center, seulement 3% avaient déjà vu le Web. Amazon, eBay et Craigslist venaient de se lancer. Mais les critiques dans Resisting the Virtual Life sont désormais monnaie courante. Vous en entendez parler Facebook, Amazon, Google, Apple, l’écosystème de start-up soutenu par le capital-risque, l’intelligence artificielle, les voitures autonomes, même si l’Internet de 1995 n’a presque aucune ressemblance, techniquement ou institutionnellement, avec l’Internet de 2019.

Peut-être qu’un mouvement technologique majeur commence à s’accélérer, mais avant que son langage, son pouvoir d’entreprise et son économie politique ne commencent à déformer la réalité, un bref moment se produit lorsque les critiques voient le plein et terrible potentiel de tout ce qui arrive dans le monde. Non, la nouvelle technologie n’apportera pas une vie meilleure (du moins pas seulement cela). Il y aura des perdants. L’oppression se frayera un chemin jusque dans les espaces apparemment les plus libérateurs. Le non commercial deviendra accro à une vaste machine à profits. Les personnes de couleur seront discriminées de nouvelles manières. Les femmes auront de nouveaux travaux en plus des anciens. La recombinaison d’horreur d’anciens systèmes et cultures avec de nouvelles surfaces et entrailles technologiques est visible, comme le visage robotique à moitié détruit d’Arnold Schwarzenegger dans Terminator 2.

Ensuite, si l’argent et les gens commencent vraiment à affluer dans la technologie, la résistance sera balayée, poussiéreuse et tousse alors que ce qu’on appelle le progrès se précipite.

Dans le monde de gauche post-2016, le socialisme est de retour et les ordinateurs sont mauvais. Mais les ordinateurs ont été mauvais avant, et, ce n’est pas une coïncidence, lorsque divers socialismes étaient populaires.

Bien avant Internet et Resisting the Virtual Life, les gens se sont battus contre l’idée même d’ordinateurs – les mainframes, au départ – à partir des mouvements étudiants des années 1960. Ce n’était pas du pur luddisme ; les ordinateurs étaient, littéralement, des machines de guerre. A Stanford, alors foyer de radicalisme, les étudiants ont organisé des sit-in et occupé des bâtiments administratifs. Alors même que la guerre du Vietnam refluait, beaucoup à gauche craignaient que la technologie sous forme d’informatisation et d’automatisation détruise les emplois de la classe ouvrière, aide les patrons à écraser les syndicats et aggrave la vie professionnelle de ceux qui restent en emploi.

Mais alors que les années 1970 se sont glissées dans les années 1980, une partie de la puanteur militaro-industrielle a commencé à déteindre. Un ordinateur qui crachait les prédictions de la guerre du Vietnam pour Robert McNamara était une chose, mais qu’en est-il d’un réseau d’ordinateurs qui permet à quiconque de parcourir une frontière numérique, s’associant avec qui il veut au-delà des frontières nationales ou des identités établies ? Le sens de l’informatique en réseau a commencé à changer. Ces 1 et 0 pourraient être pliés à la liberté.

« Pour une génération qui avait grandi dans un monde assailli par des armées massives et par la menace d’un holocauste nucléaire, la notion cybernétique du globe en tant que modèle d’information unique et interconnecté était profondément réconfortante : dans le jeu invisible de l’information, beaucoup pensaient ils pouvaient voir la possibilité d’une harmonie mondiale », a écrit Fred Turner dans From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism.

Le livre de Turner commence par une question : « Comment la signification culturelle des technologies de l’information a-t-elle changé si radicalement ? » depuis la guerre du Vietnam jours de protestation au début du boom des dot-com ? Et sa réponse est qu’un ensemble de personnalités de la Bay Area, dirigée par Stewart Brand, qui a fondé le Whole Earth Catalog, a transformé la notion d’ordinateur d’infrastructure militaro-industrielle en outil personnel dans les années 1970.

Brand a positionné ces technologies comme une aubaine non pas pour les bureaucrates calculant les trajectoires des missiles, mais plutôt pour les hackers qui planifient des manœuvres gagnantes dans les jeux vidéo. Dans Rolling Stone, il a déclaré l’arrivée de l’informatique « une bonne nouvelle, peut-être la meilleure depuis les psychédéliques ».

Cela a aidé les États-Unis à entrer dans une période que l’historien Daniel Rodgers a appelée « l’âge de la fracture ». Les institutions, collectivités et solidarités américaines se sont effondrées au profit d’un modèle d’action de consommation sauvagement individualiste. « On entendait moins parler de société, d’histoire et de pouvoir que d’individus, de contingence et de choix », a écrit Rodgers. « L’importance des institutions économiques a cédé la place à des notions de flexibilité et d’instantanéité marchés agissant.

Le monde était un endroit où les individus pouvaient faire des choix, et ce dont ils avaient besoin pour faire de meilleurs choix, c’était de plus d’informations. Les informations étaient stockées dans des ordinateurs et, par conséquent, la mise en réseau des individus les uns aux autres conduirait à de nouvelles formes d’action collective.

Apple et son charismatique vendeur Steve Jobs étaient là pour commercialiser cette nouvelle idée de l’ordinateur. Les passionnés de technologie libéraux tels qu’Al Gore et les passionnés de technologie conservateurs tels que Newt Gingrich ont rejoint le mouvement pour créer un nouveau consensus selon lequel le seul rôle du gouvernement dans l’industrie serait de créer un environnement favorable au développement des entreprises Internet et des communautés de niche.

Ainsi, lorsque Berners-Lee a écrit sa proposition de 1989 pour le Web, le monde était prêt. Fait révélateur, une rupture institutionnelle a motivé son désir d’un système hypertexte. Les gens n’arrêtaient pas de quitter le CERN et d’emporter des informations avec eux. La mémoire organisationnelle manquait. Parallèlement, des systèmes de création cette mémoire exigeait que les gens acceptent certaines hiérarchies d’informations et de taxonomies de mots clés, ce qu’ils répugnaient à faire. Sa réponse à ce problème est devenue radicalement individuelle : n’importe qui pouvait créer une page et créer un lien vers n’importe quoi. Faites en sorte que suffisamment de personnes le fassent, et le volant de la création de contenu continuerait de tourner. Aucune institution requise. Sans tabou. C’était la liberté personnelle, telle que mise en œuvre dans un protocole réseau.

Les premiers partisans d’Internet ont vu tout ce potentiel. Ils ont jailli dans les pages de Wired, dont le siège est au sud de Market Street, à San Francisco, longtemps un quartier défavorisé de la ville. Mais de l’autre côté du marché et jusqu’à Columbus Avenue, au cœur de North Beach, où les beatniks vieillissants avaient encore quelques petits achats, les poètes et les écrivains de la librairie City Lights n’ont pas été influencés.

« Il existe des alternatives à l’utopie capitaliste de la communication totale, de la lutte des classes réprimée, SEO Agence et des profits et du contrôle toujours croissants qui oublient plutôt que résolvent le problème central. problèmes de notre société », ont écrit James Brook et Iain Boal, les éditeurs de Resisting the Virtual Life. Ces problèmes étaient évidents : « les gens étaient répartis dans des enclaves et des ghettos, des antagonismes de classe et raciaux croissants, des services publics en déclin (y compris les écoles, les bibliothèques et les transports), le chômage causé par l’automatisation et l’errance du capital, etc. »

Et pourtant, pour la plupart des gens, l’ordinateur personnel et l’Internet émergent ont masqué les forces structurelles sous-jacentes de la société. « Les ordinateurs ‘personnels’ et les CD-ROM circulent comme des fétiches pour les adorateurs du ‘libre marché’ et de ‘la libre circulation de l’information’ », ont écrit Brook et Boal.

Ils savaient qu’ils étaient confrontés à « beaucoup – on pourrait dire » tout « – » en essayant de rassembler la résistance à l’explosion d’Internet. Mais leur objectif n’était pas nécessairement de gagner, mais plutôt de « s’attaquer à un objet presque innommable – « l’ère de l’information », « l’autoroute de l’information », « le cyberespace », la « virtualité » et les variantes perspective démocratique.

C’est presque comme s’ils voulaient marquer pour les générations futures qu’il y avait des gens – toutes sortes de personnes différentes – qui ont vu les problèmes. « Résister à la vie virtuelle entend apporter des correctifs plus profonds que ceux générés par les mécanismes de rétroaction cybernétiques du » marché des idées «  », ont écrit les éditeurs, « où les défauts scandaleux sont toujours répondus par des pseudocritiques qui nous assurent que tout va bien, sauf pour les bogues inévitables que le système lui-même corrigera.

Les essais dans le livre sont inégaux, comme vous pouvez vous y attendre. Mais certains d’entre eux sont étonnamment prémonitoires. Dans « C’est la discrimination, stupide ! » qui se lit comme une préquelle à L’ère du capitalisme de surveillance de 2018, le professeur de l’Université de Californie du Sud, Oscar H. Gandy Jr., affirme que « les informations personnelles sont utilisées pour déterminer les changements de notre vie dans notre rôle de citoyens ainsi que dans nos vies d’employés et les consommateurs. Dans une réflexion puissante sur le paysage de la Silicon Valley, Rebecca Solnit conclut que, en tant que lieu, il s’agit d’un nulle part, mais lié par des chaînes d’approvisionnement aux changements à travers le monde. Le professeur de communication et critique des médias de l’Université de Californie à San Diego, Herbert Schiller, souligne comment Internet pourrait réduire le pouvoir des États-nations, les affaiblissant tandis que les sociétés transnationales se renforcent. Des armées améliorées électroniquement pourraient-elles retenir le peuple, écrit-il, « alors que des forces économiques d’initiative privée contribuent à une distribution des revenus extrêmement disproportionnée et à une utilisation des ressources gravement déformée, localement et mondialement ?

Et Ellen Ullman, qui a continué à critiquer le monde de la technologie de l’intérieur, aurait peut-être fait la critique la plus parfaite de la façon dont le désir humain de commodité régirait la façon dont la technologie était perçue. « L’ordinateur est sur le point d’entrer dans nos vies comme du sang dans les capillaires », a-t-elle écrit. « Bientôt, partout où nous regardons, nous verrons de jolies interfaces à l’épreuve des idiots conçues pour nous faire dire ‘OK’. »

Le à la demande l’économie régnerait. « Nous n’avons besoin d’impliquer personne d’autre dans la satisfaction de nos besoins », a-t-elle écrit. « Nous n’avons même pas besoin de parler. » A l’intérieur de ces programmes se serait introduit « le culte du garçon ingénieur », « seul, hors du temps, dédaigneux de toute personne éloignée de la machine ».

Si ces critiques d’une autre époque semblent avoir catalogué tout ce qui pouvait mal tourner, ils avaient aussi le sentiment que les choses pouvaient se passer différemment. L’écrivain et historien Chris Carlsson, par exemple, a vu de l’espoir dans le potentiel d’organisation des communautés en ligne. « Les fils de subversion que nous tisons si discrètement aujourd’hui doivent trouver leur chemin pour transformer les vies autodestructrices, brutales et déshumanisantes que nous menons au travail, à l’école et dans la rue », a-t-il écrit. « La confiance que nous accordons aux liens électroniques doit à nouveau trouver un foyer commun parmi nos liens sociaux, jusqu’à ce que les « expériences » électroniques prennent leur juste place en tant que compléments d’une vie humaine riche et variée.

Puis encore, il a reconnu qu' »il est plus facile d’imaginer beaucoup de verbiage vide et inutile volant dans le monde électronique, égalé uniquement par les piles de données recueillies par nos institutions corporatives et gouvernementales ».

Depuis les élections de 2016, à la fois son déroulement et ses résultats, les Américains se sont engagés dans une nouvelle lutte pour comprendre comment Internet a changé leur pays et le monde. Il n’est tout simplement pas possible de célébrer la naissance du web sans reconnaître que la cyber-utopie n’est jamais arrivée. Regardez le comportement de nombreux titans de la technologie au cours des dernières années et vous verrez à la fois des défauts scandaleux ainsi que des « pseudocritques qui nous assurent que tout va bien ».

Dans ce long moment de réévaluation, l’industrie et ses produits ont été attaqués sous presque tous les angles : de l’intérieur et de l’extérieur, local et mondial, économique et social, législatif et rhétorique, capitaliste et socialiste. Cela n’a pas empêché les profits de pleuvoir. Les plus grandes entreprises technologiques font partie du top 10 des plus valorisées entreprises dans le monde. Selon un classement du capital de marque, les quatre marques les plus fortes au monde sont Apple, Google, Amazon et Microsoft. Mais une fois que le consensus s’est évanoui sur le fait que la technologie Internet était égale au progrès, les gens à l’intérieur et à l’extérieur de l’industrie ont trouvé une source inépuisable de pratiques douteuses. Les gens traitent leur téléphone comme ils le faisaient autrefois avec des cigarettes.

Au fur et à mesure que des diagnostics sont posés et des suggestions faites, ces premières critiques valent la peine d’être rappelées précisément pour lutter contre la nostalgie d’une époque antérieure. Les germes de nos problèmes actuels liés à la technologie étaient évidents pour les critiques avec les yeux pour les voir en 1995.

Examiner l’histoire du Web pourrait donner lieu à un meilleur Internet à l’avenir, mais pas seulement en regardant ce que nous aimions au début. Les prémisses du Web primitif : valoriser le choix individuel, la liberté d’expression maximaliste et les réseaux virtuels dispersés ; en ignorant le pouvoir institutionnel et la politique traditionnelle – pourrait nécessiter une révision pour construire un nouveau web prosocial.

Référencement: les stratégies de contenu

Quel est le profil d’un spécialiste du marketing de contenu moderne, le meilleur de sa catégorie ? Par moderne, j’entends quelqu’un qui utilise les nouveaux outils et ressources (médias sociaux, vidéo et données) de concert avec les programmes de marketing traditionnels. Et par meilleur de sa catégorie, j’entends quelqu’un qui obtient des résultats concrets.

À quoi cela ressemble-t-il ? Que savent les grands spécialistes du marketing de contenu que vous ne connaissez pas ? Et surtout, que pouvez-vous leur voler afin de reproduire leurs succès dans votre propre entreprise ?

MarketingProfs et le Content Marketing Institute ont voulu le savoir. Le 1er octobre, nous avons publié notre cinquième étude annuelle,  » B2B Content Marketing : 2015 Benchmarks, Budgets and Trends-North America « , en examinant plus de 5 000 spécialistes du marketing dans 109 pays. Voici quelques points clés qui en ressortent.

Les grands spécialistes du marketing de contenu ont une stratégie documentée et la suivent de près. Selon l’étude, seuls 35 % des spécialistes du marketing de contenu ont une stratégie documentée (48 % disent en avoir une, mais elle n’est pas documentée). Soixante pour cent de ceux qui ont une stratégie documentée se considèrent comme des spécialistes du marketing de contenu efficaces, contre seulement 7 % de ceux qui n’ont pas de stratégie, écrite ou autre.

Une idée que vous pouvez voler : Définissez une stratégie de marketing de contenu pour vous-même, enregistrez-la et consultez-la fréquemment. Ne la laissez pas prendre la poussière sur une étagère métaphorique. Commencez par répondre à quelques questions de base sur votre entreprise et votre public : Qui voulez-vous atteindre ? Quelle valeur pouvez-vous apporter ? Comment allez-vous fournir cette information ? Qui va gérer le processus ? Comment allez-vous mesurer le succès et affiner vos efforts ?

Les grands spécialistes du marketing disposent d’une équipe dédiée au contenu. Moins de la moitié des spécialistes du marketing disposent d’un groupe dédié au marketing de contenu. Mais 69 % de ceux qui sont les plus efficaces en matière de contenu sont susceptibles de disposer d’un groupe structuré. (Ces structures peuvent varier. Certaines entreprises disposent d’une équipe de marketing de contenu qui fonctionne de manière indépendante ; dans d’autres cas, les membres de l’équipe de marketing se voient confier la responsabilité des fonctions de contenu de manière horizontale à travers les départements d’une entreprise).

Idée que vous pouvez voler : Donnez les moyens à une équipe dédiée (ou, dans le cas des petites entreprises, à une personne clé) d’être responsable du succès de votre programme de marketing de contenu et d’en rendre compte.

Les grands spécialistes du marketing utilisent un large éventail de tactiques et de plateformes de médias sociaux. Les meilleurs spécialistes du marketing moderne ne se contentent pas d’une ou deux approches pour atteindre et engager leur public. En fait, les plus efficaces utilisent en moyenne 14 tactiques et sept plateformes de médias sociaux.

Les tactiques utilisées par les spécialistes du marketing B2B comprennent les événements en personne, les webinaires ou les webcasts, les vidéos, les blogs, les études de cas, les livres blancs ou les livres électroniques, les rapports de recherche, les lettres d’information électroniques et les microsites. Les canaux sociaux les plus efficaces pour les spécialistes du marketing B2B sont (par ordre décroissant) LinkedIn, Twitter, Facebook, YouTube et SlideShare.

Une idée que vous pouvez voler : Créez une grande variété de contenus – et ne vous contentez pas des articles de blog ou des études de cas qui ont fait leurs preuves. Ayez un plan d’engagement/distribution varié sur les médias sociaux afin d’élargir votre champ d’action en ligne.

Les grands spécialistes du marketing de contenu publient régulièrement. Les spécialistes du marketing de contenu les plus efficaces publient du nouveau contenu quotidiennement, ou au moins plusieurs fois par semaine.

Une idée que vous pouvez reprendre : Créez un calendrier éditorial en prévoyant au moins trois mois (ou, idéalement, six mois). Si vous avez un plan pour savoir ce que vous allez publier et quand vous allez le faire, il est beaucoup plus probable que vous le fassiez réellement.

Les grands spécialistes du marketing de contenu dépensent plus pour le contenu. C’est une évidence : plus de budget, c’est un marketing plus efficace. Les spécialistes du marketing les plus efficaces consacrent, en moyenne, 37 % de leur budget marketing aux programmes de contenu.

Une idée que vous pouvez voler : Je suppose que c’est une directive facile à donner pour moi : Trouvez plus d’argent ! Au minimum, envisagez d’allouer un certain pourcentage de votre budget 2015 à un programme de contenu pilote (si vous n’en avez pas déjà un).

Les grands spécialistes du marketing de contenu itèrent et expérimentent. Les spécialistes du marketing de contenu les plus efficaces manigancent en permanence pour découvrir de nouvelles idées et de nouveaux processus, et pour améliorer et affiner ce qu’ils font déjà. Les plus performants travaillent sur plus d’une douzaine d’initiatives à la fois, notamment la création d’un contenu de meilleure qualité, l’amélioration des taux de conversion et de l’efficacité globale du contenu, la création d’un contenu plus visuel, la réimagination ou la réaffectation du contenu, la mesure du retour sur investissement et l’amélioration de la narration.

La bonne nouvelle, c’est que les spécialistes du marketing de contenu les moins efficaces sont ambitieux : ils prévoient de travailler sur un plus grand nombre d’initiatives en 2015 que leurs homologues déjà compétents – en moyenne neuf, contre six.

SEO Agence est une agence SEO à Lille.