我在尝试使用embedding_vector实现时遇到了AttributeError:
from gensim.models import KeyedVectors
embeddings_dictionary = KeyedVectors.load_word2vec_format('model', binary=True)
embedding_matrix = np.zeros((vocab_size, 100))
for word, index in tokenizer.word_index.items():
embedding_vector = embeddings_dictionary.get(word)
if embedding_vector is not None:
embedding_matrix[index] = embedding_vector
AttributeError:'Word2VecKeyedVectors'对象没有属性'get']
embedding_matrix
中。 KeyedVectors
实例已经具有一个原始数组,每个矢量都按KeyedVectors
.index2entity
列表的顺序排列在一行中–在其vectors
属性中:embedding_dictionary.vectors
它没有get方法,将其更改为:
embeddings_dictionary[word]
它没有get方法,将其更改为:embeddings_dictionary[word]