Вопросы по теме 'word-embedding'

embedding_lookup Tensorflow
Я пытаюсь изучить словесное представление набора данных imdb «с нуля» с помощью функции TensorFlow tf.nn.embedding_lookup() . Если я правильно понимаю, мне нужно настроить слой встраивания перед другим скрытым слоем, а затем, когда я выполню...
12974 просмотров

Откуда берутся размеры в Word2Vec?
Я использую модель word2vec для обучения нейронной сети и построения нейронного вложения для поиска похожих слов в векторном пространстве. Но мой вопрос касается размеров встраивания слов и контекста (матриц), которые мы инициализируем случайными...
2530 просмотров

Есть ли предложение, встраивающее языковую модель Tensorflow?
Я нашел проект tensorflow 1b_lm: https://github.com/tensorflow/models/tree/master/lm_1b Я просто совсем запутался в четвертом примере Дайте предложение, дамп встраивания из состояния LSTM. Однако результаты этого примера включают 7...
1352 просмотров

Tensorflow: GraphDef не может быть больше 2 ГБ. ошибка при сохранении модели после присвоения переменных
Я хочу использовать предварительно обученную модель, чтобы тепло запустить другую модель с небольшой разницей. Просто я создаю новую модель и присваиваю переменным с одинаковым именем предварительно обученные веса модели. Но при сохранении модели...
8515 просмотров

Как учебник по тензорному потоку word2vec обновляет вложения?
Этот поток приближается: Для чего нужны веса и смещения в примере с tensorflow word2vec? Но мне все еще чего-то не хватает в моей интерпретации этого:...
434 просмотров

Перезагрузка токенизатора Keras во время тестирования
Я следовал руководству здесь: ( https://blog.keras.io/using-pre-trained-word-embeddings-in-a-keras-model.html ) Однако я изменил код, чтобы можно было сохранить сгенерированную модель через h5py . Таким образом, после запуска обучающего скрипта у...
2583 просмотров

Word Embedded, LookupTable, Word Embedded Visualizations
Мне нужно задать несколько вопросов о встраивании слов ..... может быть простым. Когда мы преобразуем однократный вектор слова, например, король [0 0 0 1 0] , во встроенный вектор E = [0.2, 0.4, 0.2, 0.2] .... имеет ли значение каждый индекс в...
5084 просмотров

Встраивание предложения в keras
Я пытаюсь выполнить простую классификацию документов, используя вложения предложений в keras. Я знаю, как передавать векторы слов в сеть, но у меня проблемы с встраиванием предложений. В моем случае у меня есть простое представление предложений...
1613 просмотров
schedule 19.07.2022

Каков эффект добавления новых встраиваний векторных слов в существующее пространство встраивания для нейронных сетей?
В Word2Vector вложения слов изучаются с помощью совместного появления и обновления размеров вектора, так что слова, встречающиеся в контексте друг друга, сближаются. Мои вопросы следующие: 1) Если у вас уже есть предварительно обученный набор...
1629 просмотров
schedule 20.11.2022

Оценка модели Word2Vec путем нахождения линейной алгебраической структуры слов
Я построил Word2Vecmodel, используя библиотеку gensim в python. Я хочу оценить встраивание своего слова следующим образом. Если A связано с B, а C связано с D, то A-C+B должно быть равно D. Например, вложение векторной арифметики...
221 просмотров
schedule 19.03.2023

Объясните на примере: как работает встраивание слоев в keras
Я не понимаю слой встраивания Keras. Хотя есть много статей, объясняющих это, я все еще в замешательстве. Например, приведенный ниже код взят из анализа тональности imdb: top_words = 5000 max_review_length = 500 embedding_vecor_length = 32...
8599 просмотров

Почему функция most_similar () Word2Vec дает бессмысленные результаты при обучении?
Я запускаю код gensim word2vec в корпусе резюме (стоп-слова удалены), чтобы идентифицировать похожие контекстные слова в корпусе из списка заранее определенных ключевых слов. Несмотря на несколько итераций с входными параметрами, удалением...
677 просмотров

Как преобразовать модель gensim Word2Vec в модель FastText?
У меня есть модель Word2Vec, которая была обучена на огромном корпусе. При использовании этой модели для приложения нейронной сети я наткнулся на довольно много слов «вне словарного запаса». Теперь мне нужно найти вложения слов для этих слов "вне...
2299 просмотров
schedule 29.03.2023

сделать часть встраивания слова обучаемой
Есть ли способ обновить только небольшое подмножество предварительно обученных вложений перчаточных слов в TensorFlow . Я ищу указатели на то, как реализовать такой случай в TensorFlow . Причина, по которой я хочу обновить вложение только...
355 просмотров
schedule 26.04.2023

встраивание позиций слов в керас
Я пытаюсь построить систему извлечения отношений для взаимодействий между лекарствами с помощью CNN, и мне нужно сделать вложения для слов в моих предложениях. План состоит в том, чтобы представить каждое слово в предложениях в виде комбинации трех...
340 просмотров
schedule 19.02.2022

Как сделать вложения концентратора тензорного потока доступными с помощью обслуживания тензорного потока?
Я пытаюсь использовать модуль встраивания из концентратора тензорного потока как обслуживаемый. Я новичок в тензорном потоке. В настоящее время я использую вложения Universal Sentence Encoder в качестве поиска для преобразования предложений во...
2947 просмотров

Могу ли я токенизировать с помощью spacy, а затем извлекать векторы для этого токена, используя предварительно обученные вложения слов fastext
Я токенизирую свой текстовый корпус на немецком языке, используя немецкую модель Spacy. Поскольку в настоящее время в spacy есть только небольшая немецкая модель, я не могу извлечь векторы слов, используя сам spacy. Итак, я использую предварительно...
527 просмотров
schedule 19.04.2022

Как получить векторы слов из слоя встраивания Keras
В настоящее время я работаю с моделью Keras, в которой слой встраивания является первым слоем. Чтобы визуализировать отношения и сходство слов между собой, мне нужна функция, которая возвращает отображение слов и векторов каждого элемента в словаре...
11916 просмотров

Как повернуть word2vec на другое word2vec?
Я обучаю несколько моделей word2vec с помощью Gensim. Каждый из word2vec будет иметь одинаковый параметр и размер, но обучен с немного разными данными. Затем я хочу сравнить, как изменение данных повлияло на векторное представление некоторых слов....
181 просмотров
schedule 08.08.2022

Серализация модели keras с помощью слоя встраивания
Я обучил модель с предварительно обученными встраиваниями слов, например: embedding_matrix = np.zeros((vocab_size, 100)) for word, i in text_tokenizer.word_index.items(): embedding_vector = embeddings_index.get(word) if embedding_vector is...
1150 просмотров
schedule 19.05.2022