训练 Fasttext 模型

问题描述 投票:0回答:2

我想使用“gensim”库在 Python 中训练 Fasttext 模型。首先,我应该将每个句子标记为其单词,从而将每个句子转换为单词列表。然后,该列表应附加到最终列表中。因此,最后,我将有一个包含所有标记化句子的嵌套列表:

word_punctuation_tokenizer = nltk.WordPunctTokenizer()
word_tokenized_corpus = []
for line in open('sentences.txt'):
   new = line.strip()
   new = word_punctuation_tokenizer.tokenize(new)
   if len(new) != 0:
       word_tokenized_corpus.append(new)

然后,模型应构建如下:

embedding_size = 60
window_size = 40
min_word = 5
down_sampling = 1e-2
ft_model = FastText(word_tokenized_corpus,
                  size=embedding_size,
                  window=window_size,
                  min_count=min_word,
                  sample=down_sampling,
                  sg=1,
                  iter=100)

但是,“word_tokenized_corpus”中的句子数量非常大,程序无法处理。我是否可以通过将每个标记化的句子一一赋予模型来训练模型,例如以下内容:?

 for line in open('sentences.txt'):
  new = line.strip()
  new = word_punctuation_tokenizer.tokenize(new)
  if len(new) != 0:
   ft_model = FastText(new,
              size=embedding_size,
              window=window_size,
              min_count=min_word,
              sample=down_sampling,
              sg=1,
              iter=100)

这对最终结果有什么影响吗?是否可以训练模型而无需构建如此大的列表并将其保留在内存中?

python gensim fasttext
2个回答
2
投票

由于数据量很大,最好将文本文件转换为COR文件。然后,按照以下方式阅读:

from gensim.test.utils import datapath
corpus_file = datapath('sentences.cor')

至于下一步:

model = FastText(size=embedding_size,
                  window=window_size,
                  min_count=min_word,
                  sample=down_sampling,
                  sg=1,
                  iter=100)
model.build_vocab(corpus_file=corpus_file)
total_words = model.corpus_total_words
model.train(corpus_file=corpus_file, total_words=total_words, epochs=5)

1
投票

如果您想使用默认的

fasttext
API,请按以下步骤操作:

root = "path/to/all/the/texts/in/a/single/txt/files.txt"

training_param = {
    'ws': window_size,
    'minCount': min_word,
    'dim': embedding_size,
    't': down_sampling,
    'epoch': 5,
    'seed': 0
}
# for all the parameters: https://fasttext.cc/docs/en/options.html

model = fasttext.train_unsupervised(path, **training_param)
model.save_model("embeddings_300_fr.bin")

使用

fasttext
API 的优点是 (1) 在 C++ 中实现,并使用 Python 中的包装器(比
Gensim
快得多)(也是多线程的)(2) 更好地管理文本的阅读。也可以直接从命令行使用它。

© www.soinside.com 2019 - 2024. All rights reserved.