使用embedding_vector实现Word2Vec模型时出错

问题描述 投票:0回答:2

我在尝试使用embedding_vector实现时遇到了AttributeError

from gensim.models import KeyedVectors
embeddings_dictionary = KeyedVectors.load_word2vec_format('model', binary=True)

embedding_matrix = np.zeros((vocab_size, 100))
for word, index in tokenizer.word_index.items():
    embedding_vector = embeddings_dictionary.get(word)
    if embedding_vector is not None:
        embedding_matrix[index] = embedding_vector

AttributeError:'Word2VecKeyedVectors'对象没有属性'get']

python machine-learning keras gensim word2vec
2个回答
1
投票
尽管,您的循环实际上没有理由将每个向量复制到您自己的embedding_matrix中。 KeyedVectors实例已经具有一个原始数组,每个矢量都按KeyedVectors .index2entity列表的顺序排列在一行中–在其vectors属性中:

embedding_dictionary.vectors

它没有get方法,将其更改为:embeddings_dictionary[word]


1
投票

它没有get方法,将其更改为:embeddings_dictionary[word]

© www.soinside.com 2019 - 2024. All rights reserved.