Google et le Search

Poussée à son paroxysme, cette logique a redéfini la notion de vie privée au XXIe siècle numérique. « Notre conception de l’intime a changé. Il y a eu un déplacement de la frontière vie publique/vie privée, amorcé à la fin des années 1980 et accéléré avec le développement d’Internet », explique le sociologue Emmanuel Kessous. Dans le secteur de la publicité en ligne, là encore, Google écrase la concurrence. Seul Facebook, lui aussi entièrement tourné vers l’exploitation des données personnelles, se détache. Avec ce business florissant, le pionnier dans la recherche sur Internet va-t-il se contenter de son rôle de régie publicitaire mondiale pour les vingt prochaines années ? Pas du tout. « Nous sommes concentrés sur la construction d’une seconde vague de croissance chez Google à moyen et long termes », annonçait Ruth Porat, directrice financière d’Alphabet, lors de la présentation des résultats annuels en janvier dernier. La maison mère mise sur « les activités qui progressent bien en termes de chiffre d’affaires, comme le cloud, les appareils et YouTube ». Pour éviter de se faire « ubériser » à son tour, l’entreprise veut être sur tous les fronts. Son fonds GV (anciennement Google Ventures) investit à tout va dans les entreprises les plus innovantes au monde, à l’image d’Uber ou de Slack, positionnant Google comme un partenaire incontournable. L’entreprise n’hésite pas non plus à investir pour développer les écosystèmes d’innovation étrangers, à l’image de ses nombreuses actions en France. Ainsi, pour une startup, collaborer avec Google représente une opportunité en or pour accélérer son développement commercial et/ou technologique. Beaucoup rêvent même de se faire racheter par le géant, qui a déjà avalé plus de 200 entreprises depuis sa création. Via son activité d’infrastructures Google Cloud, une priorité pour le groupe, Google entend aussi devenir un fournisseur majeur pour les entreprises du monde entier. Une manière de cannibaliser l’innovation à son profit et de devenir indispensable à chaque individu et à chaque organisation.

Des essais précédents ont recouru à des démonstrations faites par des humains pour entraîner l’algorithme et faciliter son processus d’apprentissage par l’erreur. Néanmoins, comme les chercheurs de Google le notent, il est difficile d’avoir des démonstrations qui correspondent à chaque type de site. Ils ont donc opté pour deux méthodes d’apprentissage par renforcement. La première, quand des démonstrations sont disponibles, Agence SEO Lille consiste en un entraînement qui commence avec des suites de tâches simplifiées qui gagnent en complexité peu à peu. La seconde recourt à une autre méthode, qui permet à l’algorithme d’aborder une navigation aléatoire comme si elle était décrite par des instructions. Tout cela grâce à un meta trainer, baptisé INET. Un formateur artificiel qui est capable de générer des instructions et des démonstrations à partir d’une page Web aléatoire sous la forme d’un DOM (Document-Object Model). Car, selon les chercheurs, il est plus simple d’établir des instructions que de les suivre et d’interagir avec une page, par exemple. Par ailleurs, les chercheurs utilisent une autre approche nouvelle, appelée curriculum learning, qui transforme les tâches complexes en plus petites étapes, afin de faciliter la vie du réseau neuronal.

Référencement SEO : qu’est-ce-que c’est? Le référencement SEO (de l’anglais « Search Engine Optimization », optimisation pour les moteurs de recherche) est une démarche permettant d’améliorer le positionnement d’un site dans la liste de réponses à une requête sur un moteur de recherche. Ce concept a commencé à émerger dans les années 1992, alors que les annuaires prenaient encore le pas sur les moteurs de recherche. En 1999, avec l’apparition de Google, les moteurs de recherche ont pris leur revanche et occupent désormais le devant de la scène, Google en tête. C’est alors que la nécessité du SEO a pris tout son sens et que son évolution a débuté. Le référencement SEO de divise en deux écoles: white hat, et black hat (respectivement: chapeau blanc, chapeau noir), qui correspondent pour le blanc au « bien » et le noir au « mal ». On peut donc optimiser son référencement par des stratégies de type spamming ou squatting de nom de domaine, ou au contraire rendre son contenu le plus cohérent possible. Pour le dernier outil d’analyse de liens, je vous fais découvrir un petit outil français créé par le consultant SEO Kevin Richard. Très performant et particulièrement innovant, il est très pratique pour tous ceux qui veulent mettre en place des stratégies de netlinking assez poussés. Cet outil SEO est une véritable révolution dans le monde du netlinking. Il regroupe en effet dans une solution, plusieurs autres. SeObserver vous permet de suivre certains mots-clés et l’évolution de positions des sites. Si certains d’entre eux évoluent de manière positive, vous allez pouvoir analyser leurs profils de linking et les derniers liens qu’ils ont fait. Lorsque l’on fait du netlinking, il arrive parfois de se rendre compte plusieurs semaines après un échange ou après avoir posé un backlink que le lien a tout simplement disparu ! Les raisons peuvent être multiples (suppression de la part du partenaire, passage du lien en nofollow, erreur technique, disparition du site, etc.), mais le résultat est toujours le même : vous avez perdu du temps pour rien !

Yooda Insight est accessible gratuitement avec ou sans compte, mais vous serez limités en nombre de résultats. Pour avoir l’ensemble des données et pouvoir les télécharger, il faudra payer 19 € HT par mois. Très pratique et rapide l’outil de métrics Yooda Insight est très utile pour faire des audits ou tout simplement pour analyser rapidement les performances d’un site. Parmi les outils SEO les plus complexes, mais les plus utiles, il y a les analyseurs de logs. Mais qu’est-ce que c’est et surtout à quoi cela sert ? Les logs sont des fichiers textes qui enregistrent les requêtes adressées à un serveur. En référencement naturel, nous nous en servons pour voir le passage des robots d’indexation des moteurs de recherche sur votre site et pour déterminer le niveau de profondeur, les erreurs http, l’indexation des pages, etc. Cependant, pour analyser et savoir lire les logs, il est nécessaire d’avoir un logiciel qui permet de les décrypter. C’est le principal analyseur de log du marché, car il est très complet, très puissant et il permet d’apprendre plein de choses sur son site.

Petit plus, OnCrawl propose un analyseur de logs qui peut combiner ses valeurs avec le crawleur. Ce crawleur en SAAS, c’est-à-dire accessible depuis un site internet, est très pratique, esthétique et performant. Il est idéal pour obtenir des informations sur le contenu et la technique d’un site, tout cela sans faire tourner votre ordinateur. Malheureusement pour nous, le crawleur Botify Analytics est relativement cher, car il vous faudra compter entre 39 euros et 899 euros par mois pour en profiter. Le tout est quand même assorti d’une période d’essai de 30 jours gratuits. Permet d’analyse les codes http, les balises (H1, title, meta description, etc.), le niveau de profondeur, etc. Tout en anglais, ce qui est bête pour un outil développé par une entreprise française ! Botify est très pratique et ergonomique. Il permet de faire un crawl de site en seulement quelques minutes et d’obtenir des informations très utiles au niveau de l’optimisation interne.