Слой встраивания создает векторы встраивания из входных слов (сам я до сих пор не понимаю математику) так же, как это сделали бы word2vec или предварительно рассчитанная перчатка.
Прежде чем я перейду к вашему коду, давайте сделаем небольшой пример.
texts = ['This is a text','This is not a text']
Сначала мы превращаем эти предложения в вектор целых чисел, где каждое слово — это число, присвоенное слову в словаре, а порядок вектора создает последовательность слов.
from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.utils import to_categorical
max_review_length = 6 #maximum length of the sentence
embedding_vecor_length = 3
top_words = 10
#num_words is tne number of unique words in the sequence, if there's more top count words are taken
tokenizer = Tokenizer(top_words)
tokenizer.fit_on_texts(texts)
sequences = tokenizer.texts_to_sequences(texts)
word_index = tokenizer.word_index
input_dim = len(word_index) + 1
print('Found %s unique tokens.' % len(word_index))
#max_review_length is the maximum length of the input text so that we can create vector [... 0,0,1,3,50] where 1,3,50 are individual words
data = pad_sequences(sequences, max_review_length)
print('Shape of data tensor:', data.shape)
print(data)
[Out:]
'This is a text' --> [0 0 1 2 3 4]
'This is not a text' --> [0 1 2 5 3 4]
Теперь вы можете ввести их в слой внедрения
from keras.models import Sequential
from keras.layers import Embedding
model = Sequential()
model.add(Embedding(top_words, embedding_vecor_length, input_length=max_review_length,mask_zero=True))
model.compile(optimizer='adam', loss='categorical_crossentropy')
output_array = model.predict(data)
output_array содержит массив размера (2, 6, 3): 2 входных отзыва или предложения в моем случае, 6 — максимальное количество слов в каждом отзыве (max_review_length) и 3 — embedding_vecor_length. Например.
array([[[-0.01494285, -0.007915 , 0.01764857],
[-0.01494285, -0.007915 , 0.01764857],
[-0.03019481, -0.02910612, 0.03518577],
[-0.0046863 , 0.04763055, -0.02629668],
[ 0.02297204, 0.02146662, 0.03114786],
[ 0.01634104, 0.02296363, -0.02348827]],
[[-0.01494285, -0.007915 , 0.01764857],
[-0.03019481, -0.02910612, 0.03518577],
[-0.0046863 , 0.04763055, -0.02629668],
[-0.01736645, -0.03719328, 0.02757809],
[ 0.02297204, 0.02146662, 0.03114786],
[ 0.01634104, 0.02296363, -0.02348827]]], dtype=float32)
В вашем случае у вас есть список из 5000 слов, который может создать обзор максимум 500 слов (больше будет обрезано) и превратить каждое из этих 500 слов в вектор размера 32.
Вы можете получить сопоставление между индексами слов и векторами встраивания, запустив:
model.layers[0].get_weights()
В приведенном ниже случае top_words было 10, поэтому у нас есть сопоставление 10 слов, и вы можете видеть, что сопоставление для 0, 1, 2, 3, 4 и 5 равно выходному_массиву выше.
[array([[-0.01494285, -0.007915 , 0.01764857],
[-0.03019481, -0.02910612, 0.03518577],
[-0.0046863 , 0.04763055, -0.02629668],
[ 0.02297204, 0.02146662, 0.03114786],
[ 0.01634104, 0.02296363, -0.02348827],
[-0.01736645, -0.03719328, 0.02757809],
[ 0.0100757 , -0.03956784, 0.03794377],
[-0.02672029, -0.00879055, -0.039394 ],
[-0.00949502, -0.02805768, -0.04179233],
[ 0.0180716 , 0.03622523, 0.02232374]], dtype=float32)]
Как указано в https://stats.stackexchange.com/questions/270546/how-does-keras-embedding-layer-work эти векторы инициируются как случайные и оптимизируются оптимизаторами сетевого слова, как и любой другой параметр сети.
person
Vaasha
schedule
23.10.2017