Я использую модель word2vec для обучения нейронной сети и построения нейронного вложения для поиска похожих слов в векторном пространстве. Но мой вопрос касается размеров встраивания слов и контекста (матриц), которые мы инициализируем случайными числами (векторами) в начале обучения, например https://iksinc.wordpress.com/13апреля2015г./words-as-vectors/
Допустим, мы хотим отобразить слова {книга, бумага, записная книжка, роман} на графике, прежде всего мы должны построить матрицу с размерами 4x2, 4x3 или 4x4 и т. Д., Я знаю, что первое измерение матрицы имеет размер наш словарь | v |. Но второе измерение матрицы (количество измерений вектора), например, это вектор для слова «книга» [0.3,0.01,0.04], что это за числа? Имеют ли они какое-то значение? Например, число 0,3, связанное с относительно отношения между словом «книга» и «бумага» в словаре, 0,01 - это отношение между книгой и записной книжкой и т. д. Точно так же, как TF-IDF или матрицы соприсутствия, в которых каждое измерение (столбец) Y имеет значение - это слово или документ, относящийся к слову в строке X.