Note :
Il n'y a actuellement aucun avis de lecteur. La note est basée sur 3 votes.
Embeddings in Natural Language Processing: Theory and Advances in Vector Representations of Meaning
Le codage de l'information dans une représentation vectorielle de faible dimension, facilement intégrable dans les modèles modernes d'apprentissage automatique, a joué un rôle central dans le développement du traitement du langage naturel (NLP). Le codage de l'information dans une représentation vectorielle à faible dimension, facilement intégrable dans les modèles modernes d'apprentissage automatique, a joué un rôle central dans le développement du TAL. Les techniques d'intégration se sont d'abord concentrées sur les mots, mais l'attention s'est rapidement portée sur d'autres formes : des structures de graphe, telles que les bases de connaissances, à d'autres types de contenu textuel, tels que les phrases et les documents.
Ce livre propose une synthèse de haut niveau des principales techniques d'intégration dans le domaine du TAL, au sens large. Le livre commence par expliquer les modèles conventionnels d'espace vectoriel de mots et les ancrages de mots (par exemple, Word2Vec et GloVe), puis passe à d'autres types d'ancrages, tels que les ancrages de sens de mots, de phrases et de documents, et de graphes. Le livre fournit également une vue d'ensemble des développements récents dans les représentations contextualisées (par exemple, ELMo et BERT) et explique leur potentiel dans le domaine du TAL.
Tout au long de l'ouvrage, le lecteur trouvera à la fois des informations essentielles pour comprendre un sujet donné à partir de zéro et une vue d'ensemble des techniques les plus performantes développées dans la littérature.
© Book1 Group - tous droits réservés.
Le contenu de ce site ne peut être copié ou utilisé, en tout ou en partie, sans l'autorisation écrite du propriétaire.
Dernière modification: 2024.11.14 07:32 (GMT)