Les algos de contenu de Google

Bill Slawski et moi avons eu une discussion par courrier électronique sur un algorithme récent. Bill a suggéré qu’un document de recherche spécifique et un brevet pourraient être intéressants à examiner. Ce que Bill a suggéré m’a incité à penser au-delà de Neural Matching et RankBrain. Des recherches récentes sur les algorithmes sont axées sur la compréhension du contenu et les requêtes de recherche. Il peut être utile de réfléchir à la manière dont ils pourraient aider à expliquer certains changements. La différence entre RankBrain et Neural Matching Ce sont des déclarations officielles de Google sur ce que sont RankBrain et Neural Matching via les tweets de Danny Sullivan (aka SearchLiaison). – RankBrain aide Google à mieux relier les pages aux concepts … Travaille principalement (en quelque sorte) pour nous aider à trouver des synonymes pour les mots écrits sur une page…. – L’appariement neuronal permet à Google de mieux associer les mots aux recherches. … Travaille principalement pour (en quelque sorte) nous aider à trouver des synonymes de choses que vous avez tapées dans le champ de recherche. … « En quelque sorte » parce que nous avons (et avons longtemps eu) des systèmes de synonymes. Ceux-ci vont au-delà de ceux-ci et font des choses dans différentes manières, aussi. Mais c’est un moyen facile (espérons-le) de les comprendre. Par exemple, l’appariement neuronal nous aide à comprendre que la recherche de «pourquoi mon téléviseur a-t-elle l’air étrange» est-elle liée au concept de «l’effet de soap opera»? Nous pouvons alors retourner des pages sur l’effet de feuilleton, même si les mots exacts ne sont pas utilisés… » Le document dont Bill Slawski a parlé avec moi s’intitulait Modèles de mémoire contextuelle à long terme (CLSTM) pour les tâches de traitement de langage naturel à grande échelle (NLP). Le document de recherche PDF est ici. Le brevet que Bill a suggéré était lié à celui-ci est ici. C’est un document de recherche de 2016 et c’est important. Bill ne suggérait pas que le document et le brevet représentaient Neural Matching. Mais il a dit que ça avait l’air lié d’une certaine manière. Le document de recherche utilise un exemple de machine formée pour comprendre le contexte du mot «magie» à partir des trois phrases suivantes, afin de montrer ce qu’il fait: “1) Sir Ahmed Salman Rushdie est un romancier et essayiste indien britannique. On dit qu’il combine le réalisme magique avec la fiction historique. 2) Calvin Harris & HAIM associent leurs pouvoirs pour créer un clip vidéo magique. 3) Les herbes ont un pouvoir magique énorme, car elles retiennent l’énergie de la Terre.  » Le document de recherche explique ensuite comment cette méthode comprend le contexte du mot «magie» dans une phrase et une phrase. paragraphe: «Une façon de saisir succinctement le contexte consiste à utiliser le sujet du segment de texte (par exemple, le sujet de la phrase, Formation referencement naturel Lille le paragraphe). Si le contexte a pour thème «littérature», le mot suivant le plus probable devrait être «réalisme». Cette observation nous a motivés à explorer l’utilisation de rubriques de segments de texte pour capturer le contexte hiérarchique et à long terme du texte dans les modèles de texte. … Nous intégrons des fonctionnalités contextuelles (à savoir des sujets basés sur différents segments de texte) dans le modèle LSTM et appelons le modèle résultant LSTM contextuel (CLSTM). ”