Это какие то совсем древние технологии.
Погугли World2vec, FastText, GloVe (Global Vectors for Word Representation), ELMo (Embeddings from Language Models), Universal Sentence Encoder (USE), Graph-Based Embeddings (SynGCN)
или на основе трансформера, типа BERT (Bidirectional Encoder Representations from Transformers), Sentence-BERT
сравнение эмбендингов проводят простым евклидовым расстоянием или к примеру вычислением угла между векторами
p.s. скоро вместо 'ты что гуглить не умеешь' можно будет презрительно бросать - 'ты что с chatgpt общаться не умеешь'... мне кажется первое, чему учат все gpt ИИ сети, это технологиям работы с текстами, ИИ и т.п., так как это дает призрачную надежду что в будущем ИИ сможет улучшать себя если не полностью самостоятельно, то хотя бы частиично.