Microsoft Bing dévoile son nom modèle d’IA : Make Every Feature Binary (MEB)

Mathieu Chartier SEO 0 commentaire

MEB, nouveau modèle de langage automatique de Microsoft Bing

Microsoft Bing a dévoilé un nouveau modèle d'intelligence artificielle appelé MEB, pour Make Every Feature Binary (oui, ce n'est pas MEFB, ne me demandez pas pourquoi... ^^). L'objectif est de rendre les résultats de recherche encore plus pertinents et précis selon les requêtes tapées par les usagers. Actuellement, déjà 100% des recherches sur Bing dans tous les pays et toutes les langues utilisent ce procédé intelligent pour rendre les résultats plus efficients.

Dans le monde de l'algorithmie, nous entendons régulièrement parler de GPT-3, un modèle de langage basé sur Transformer, un modèle d'apprentissage en profondeur introduit en 2017 pour effectuer des traitements automatiques du langage. Microsoft Bing s'est déjà appuyé sur ces technologies mais a souhaité développer son propre modèle de langage, MEB, lui-même basé sur Transformer. "MEB est un modèle clairsemé à grande échelle qui complète les modèles de production Transformer" d'après Microsoft, le système cherche à mieux calquer la manière dont l'esprit humain traite des réponses, en créant des relations affinées entre des caractéristiques fines et des faits. MEB tente de discerner les intentions cachées dans une requête (les "non-dits") grâce à son réseau de neurones évaluant jusqu'à 200 milliards de caractéristiques binaires. Loin de moi la capacité de vous expliquer tout dans les détails (tout est expliqué dans l'annonce officielle), mais l'idée générale est de pouvoir affiner encore davantage l'interprétation des requêtes (donc le sens "caché") pour restituer les meilleures résultats possibles.

MEB en détails (Microsoft Bing)

Globalement, la mise en place de MEB a entraîné une augmentation de près de 2% du taux de clics (CTR) sur les premiers résultats de recherche (au-dessus de la ligne de flottaison), une réduction de la reformulation des requêtes de près de 1% et une réduction des clics dans les liens de pagination d'environ 1,5%. Cela démontre déjà que la qualité des résultats et leur pertinence s'est fait ressentir, au point que les utilisateurs ont changé leur comportement dans certains cas. Certes, on pourrait se dire que des améliorations de l'ordre du pourcent ne sont que mitigées, mais à ce niveau de précision, c'est déjà extrêmement important, et il ne faut clairement pas prendre cela à la légère. MEB apporte donc son lot de bonnes nouvelles en matière de traitement du langage, et il faut espérer qu'il booste à nouveau le développement d'autres modèles toujours plus efficaces. En contrepartie, on peut aussi se dire qu'avec ce type de réseaux de neurones, il va être de plus en plus important de proposer des contenus pertinents pour espérer ressortir dans les quelques premiers résultats (surtout si le taux de clics sur la pagination faiblit encore...).