Le bon endroit pour l'apprentissage en profondeur et le traitement du langage naturel – TechTalks – formations Blackhat SEO

vérification des erreurs de grammaire de texte
Crédit d'image: Depositphotos

La semaine dernière, Grammarly a reçu 90 millions de dollars pour sa grammaire et ses outils d'écriture basés sur l'intelligence artificielle. Je ne suis généralement pas intéressé par les nouvelles sur le financement de l'IA. Mais ce cas particulier a attiré mon attention car au milieu de tout le battage médiatique et la confusion entourant l'intelligence artificielle, je crois que Grammarly résout un vrai problème.

La compréhension et le traitement du langage naturel sont parmi les domaines les plus difficiles de l'IA. De nombreuses entreprises se sont engagées dans d'ambitieux projets linguistiques basés sur l'IA. Mais un nombre important d'entre eux ont misérablement échoué car ils n'ont pas considéré les limites des technologies d'IA actuelles.

Entre-temps, Grammarly a trouvé une niche qui convient aux possibilités limitées d'apprentissage en profondeur, les saignements actuels de l'IA. Et avec les bons éléments, il est passé d'une petite application au premier vérificateur de grammaire basé sur l'IA, d'une valeur de plus d'un milliard de dollars.

Les limites de l'apprentissage profond

Les grandes avancées des réseaux de neurones artificiels ces dernières années ont ravivé l'intérêt pour l'apprentissage en profondeur. L'apprentissage en profondeur imprègne désormais de nombreux domaines que l'on pensait auparavant interdits d'ordinateurs.

Malheureusement, les réalisations de l'apprentissage en profondeur ont également causé de la confusion et une excitation injustifiée au sujet des possibilités. Les réseaux de neurones surpassent les humains dans de nombreuses tâches complexes, telles que la détection du cancer ou la reconnaissance d'objets. Par conséquent, il est facile de s'attendre à ce que l'apprentissage profond puisse résoudre des problèmes plus faciles à résoudre pour les gens.

Un exemple clair est le traitement automatique du langage naturel (PNL), la science de l'extraction du sens du langage écrit et parlé. La plupart des gens apprennent la langue et ses différentes nuances dès le plus jeune âge. Alors pourquoi une IA capable de prédire le cancer cinq ans à l'avance – une tâche que les gens devraient apprendre à maîtriser pendant des années – ne résoudrait pas le même problème?

L'apprentissage profond et les réseaux de neurones sont très faibles pour résoudre les problèmes de bon sens. Les réseaux de neurones sont des machines statistiques très avancées. Ils peuvent traiter de grandes quantités de données et trouver toutes sortes de corrélations et de schémas complexes. Il s'agit d'une approche qui fonctionne bien pour les tâches qui nécessitent une correspondance de motifs, telles que la classification d'images ou la reconnaissance vocale et faciale.

Malheureusement, la reconnaissance des formes et les statistiques ont des applications limitées en PNL. Bien qu'il nous vienne très naturellement, le traitement du langage est l'une des fonctions les plus compliquées de notre cerveau. Lorsque nous entendons ou lisons une phrase, nous utilisons nos vastes connaissances de base sur le monde pour raisonner sur ses significations cachées et implicites. Ce sont les types de fonctions qui ne peuvent pas être représentées par des statistiques.

Les algorithmes approfondis échouent lorsqu'ils traitent du sens des phrases et des relations sémantiques des mots. Dans ce cas, le réglage des modèles d'IA avec plus de données ne résout pas le problème, car chaque nouvelle phrase est unique.

La bataille des chatbots et des assistants IA

chatbots

Les chatbots et les assistants d'IA sont l'une des études de cas les plus intéressantes sur les capacités des technologies d'IA actuelles en matière de langues. Au cours des dernières années, de nombreuses entreprises ont développé des interfaces de conversation basées sur l'IA pour effectuer diverses tâches. Mais le domaine a connu de nombreuses déceptions.

Dans plusieurs cas, les entreprises qui ont effectué des tâches linguistiques ont finalement engagé des personnes pour corriger les erreurs de leurs modèles d'IA. Dans d'autres, comme l'assistant M de Facebook, les entreprises ont dû arrêter complètement leurs projets d'IA.

Mais le domaine a également fait des progrès très intéressants. Les assistants en IA Alexa, Siri et Cortana sont devenus très populaires auprès de millions d'utilisateurs, et ils doivent leur succès à l'apprentissage en profondeur et aux réseaux de neurones.

Il est intéressant de noter, cependant, que les applications réussies des assistants IA sont celles qui traitent de domaines très limités. Malgré les milliers d'applications développées pour ces assistants, celles qui restent populaires sont les plus simples. Les assistants IA sont très bons pour dire la météo, fixer une heure ou rechercher le nom du président américain.

Mais ils commencent à se briser dès qu'ils s'engagent dans des conversations et des interactions en plusieurs étapes. Ils ne peuvent pas non plus avoir des conversations informelles générales sur lesquelles les gens sont très doués. En fait, l'un des plus grands défis des assistants IA est qu'ils ont tendance à migrer vers de vastes domaines qui transcendent les possibilités d'apprentissage en profondeur au cours de leur développement.

De plus, l'utilisation des interfaces vocales des assistants IA et de leurs noms humains a ici un effet négatif. Les utilisateurs ont tendance à anthropomorphiser l'IA et s'attendent à ce que leurs assistants et chatbots affichent le comportement humain, conduisant à toutes sortes de scénarios frustrants et déroutants.

L'application IA étroite de Grammarly réussit

Cela me ramène à l'IA de Grammarly. Le succès de l'entreprise est largement dû à sa concentration sur une application limitée de l'IA NLP: le support grammatical. La grammaire peut être très frustrante et difficile pour les gens, mais c'est en fait une tâche où les modèles jouent un rôle important et l'apprentissage en profondeur peut être très utile. Dans la plupart des cas, la recherche et la résolution d'erreurs grammaticales ne sont pas liées à la compréhension de la signification du texte, là où l'apprentissage profond a du mal.

Un corps suffisamment grand de texte bien écrit peut fournir des données de formation suffisantes pour un assistant de grammaire basé sur l'apprentissage en profondeur. L'apprentissage en profondeur peut détecter et corriger la plupart, sinon la totalité, des erreurs grammaticales. Dans mon expérience de l'utilisation de Grammarly, je suis d'accord avec la plupart des correctifs qu'il me donne, en ignorant uniquement ceux qui ont plus à voir avec le style et les préférences personnelles.

L'interface minimaliste de Grammarly garantit également qu'elle ne s'éloigne pas du domaine de l'IA étroite. Contrairement aux assistants IA, Grammarly n'a pas de nom humain, n'essaie pas de parler en prose humaine occasionnelle et n'a pas d'interface vocale. Ce sont des suggestions de grammaire simples. Il n'y a pas de place pour les malentendus ou les attentes exagérées.

Grammarly n'est pas la seule entreprise dans l'espace d'aide à la grammaire pris en charge par l'IA. Il prend Microsoft et Google, qui ont de plus grands ensembles de données et une histoire plus approfondie en IA. Microsoft utilise le machine learning depuis plusieurs années pour améliorer son vérificateur de grammaire. Google a également intégré l'apprentissage en profondeur dans les applications Docs et G Suite ces dernières années.

Mais grâce à la stratégie d'intégration de Grammarly, elle a pu rivaliser avec les géants et prendre sa place. L'extension de navigateur de Grammarly en fait une entité omniprésente dans chaque élément de texte que vous rencontrez sur vos pages Web, vous aidant à rédiger des e-mails, des articles de blog, des commentaires et plus encore. Google et Microsoft, en revanche, se sont limités à leurs propres applications. Grammarly a également ajouté l'intégration avec des applications telles que MS Word et Google Docs, donnant aux utilisateurs la possibilité de comparer les performances avec celles de ses concurrents. Cette stratégie d'intégration complète offre également à l'entreprise de nombreuses opportunités d'élargir son corps de texte pour former ses algorithmes d'IA.

La grammaire peut ne pas utiliser les meilleurs scientifiques de l'IA ou les dernières techniques d'apprentissage en profondeur développées chez Google et OpenAI. Mais il a certainement trouvé une très bonne utilisation pour l'apprentissage en profondeur dans le traitement de texte, qui reconnaît les limites des technologies d'IA actuelles et embrasse leurs forces.

Le black hat référencement est une collection de procédés et d’automatisations visant à cultiver les rainure des algorithmes pour manipuler les bénéfices en sa faveur. Les résultats peuvent ainsi être surprenants. Les sites s’adonnant à de telles pratiques se retrouver frais d’or lendemain en première page Google, aussi en première position. Avec de tels résultats, c’est évidemment tentant. Mais radical faille est immanquablement vocation à être comblée, Google procédant en obstination à des mises à journée plus ou bien moins importantes de son algorithme. Quand la faille est corrigée, ce qui n’est ne pas mal long, totaux ceux qui s’en sont servis pour grimper artificiellement dans SERPS sont alors démasqués pendant Google et sanctionnés. Selon l’importance des pratiques douteuses utilisées, cela va du déclassement à la disparition totale du site.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *