Explore le modèle Vector Space, le sac de mots, tf-idf, cosine similarité, Okapi BM25, et la précision et le rappel dans la récupération d'information.
Explore l'indexation sémantique latente dans la récupération d'information, en discutant des algorithmes, des défis dans la récupération spatiale vectorielle et des méthodes de récupération axées sur le concept.
Introduit les bases de la récupération d'informations, couvrant l'indexation, les schémas de pondération, la similarité cosinus et l'évaluation des requêtes.
Explore la sémantique lexicale, le sens des mots, les relations sémantiques et WordNet, en mettant en évidence les applications dans l'ingénierie du langage et la récupération d'informations.
Introduit les bases du NLP moderne, couvrant l'intégration de mots, les modèles neuraux, et les tâches comme l'étiquetage de séquence et la génération de texte.
Présente l'attribution des dirichlets latents pour la modélisation des sujets dans les documents, en discutant de son processus, de ses demandes et de ses limites.
Explore l'indexation sémantique latente, la construction de vocabulaire, la création de matrices de documents, la transformation de requêtes et la récupération de documents en utilisant la similarité cosinus.
Couvre l'indexation sémantique latente, une méthode pour améliorer la récupération d'informations en cartographiant des documents et des requêtes dans un espace conceptuel de dimension inférieure.
Explore les intégrations de mots, les modèles de sujet, Word2vec, les réseaux bayésiens et les méthodes d'inférence telles que l'échantillonnage Gibbs.
Explore les intégrations de mots, les modèles tels que CBOW et Skipgram, Fasttext, Glove, les intégrations de sous-mots et leurs applications dans la recherche et la classification de documents.
Présente les bases de la récupération d'informations, couvrant la récupération basée sur le texte, les caractéristiques du document, les fonctions de similarité et la différence entre la récupération booléenne et la récupération classée.