Explore l'indexation sémantique latente, la construction de vocabulaire, la création de matrices de documents, la transformation de requêtes et la récupération de documents en utilisant la similarité cosinus.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Explore le traitement de grands textes numériques, révélant des modèles et des structures cachés, et la convergence des sciences humaines et de la linguistique computationnelle.
Introduit des intégrations de mots, expliquant comment ils capturent les significations des mots en fonction du contexte et de leurs applications dans les tâches de traitement du langage naturel.
Présente les bases du traitement de données textuelles, couvrant la récupération de documents, la classification, l'analyse des sentiments et la détection de sujets.
Couvre l'extraction des relations et la construction de graphes dans l'induction de la taxonomie, en mettant l'accent sur la réduction du bruit pour des graphes précis.
Explore la recherche de documents, la classification, l'analyse des sentiments, les matrices TF-IDF, les méthodes de voisinage les plus proches, la factorisation matricielle, la régularisation, LDA, les vecteurs de mots contextualisés et BERT.
Explore les techniques d'indexation, les fichiers inversés, les modèles map-reduce et l'utilisation de trie pour une récupération d'informations efficace.
Couvre l'extraction de phrases clés, une méthode pour extraire des phrases importantes du texte pour la synthèse, l'indexation et la recherche de documents.
Plongez dans le traitement de grandes collections de textes numériques, en explorant les régularités cachées, la réutilisation du texte et l'analyse TF-IDF.
Couvre les bases de la récupération d'informations à l'aide de modèles d'espace vectoriel et d'exercices pratiques sur la rétroaction de pertinence et la numérisation de la liste de publication.
Couvre la récupération d'informations probabilistes, la pertinence de la modélisation en tant que probabilité, l'expansion des requêtes et la génération automatique de thésaurus.
Fournit un aperçu du traitement du langage naturel, en se concentrant sur les transformateurs, la tokenisation et les mécanismes d'auto-attention pour une analyse et une synthèse efficaces du langage.