nlp 相关问题

自然语言处理(NLP)是人工智能的子领域,涉及从自然语言数据转换或提取有用信息。方法包括机器学习和基于规则的方法。

有泰米尔语的词性标注器和分词器吗?

我是自然语言处理的初学者。我必须研究不同的语言,泰米尔语就是其中之一。请问专家是否有泰米尔语分词器代码(java,c,...

回答 2 投票 0

如何理解 Transformer 中的上下文嵌入?

如,变压器的输入本质上是一系列标记,每个标记都表示为单热向量。这些向量随后乘以嵌入矩阵 (E) 以生成输入

回答 1 投票 0

如何使节词形还原器仅返回引理而不是字典?

我正在实现 stanza 的词形还原器,因为它可以很好地处理西班牙语文本,但是词形还原器会重新调整整个字典,其中包含 ID 和我暂时不关心的其他特征。我

回答 1 投票 0

从高频管道获得注意面罩

如何从Huggingface中的FeatureExtractionPipeline访问返回的注意力掩码? 下面的代码采用嵌入模型,将其和拥抱脸数据集分布在

回答 1 投票 0

使用新数据集重新训练机器学习模型。我怎样才能执行它?

我使用 SVM 分类器模型创建了一个文本分类模型,该模型使用对具有 12 个类别的 20000 行数据的数据集进行批量学习,现在,我在该类别上获得了 10000 行新数据集...

回答 1 投票 0

为什么BERT中使用“GELU”激活函数而不是ReLu?

流行的 NLP 模型 BERT 中使用了激活函数高斯误差线性单元(GELU)。有什么实在的理由吗?

回答 2 投票 0

OpenNLP 词形还原示例

有谁知道我在哪里可以找到如何使用 OpenNLP 库中的 SimpleLemmatizer() 类的示例,以及在哪里可以找到示例英语词典?

回答 3 投票 0

如何在低内存 GPU 上运行 NLP+Transformers LLM?

我正在尝试加载一个AI预训练模型,来自intel的huggingface,我使用了Colab,其资源超出了,使用了Kaggle资源增加,使用了paperspace,这向我显示了一个错误: k...

回答 1 投票 0

Java 中德语的词形还原

我正在尝试用 Java 进行德语词形还原,但找不到任何库。我可能对此很愚蠢,但我现在已经在这方面花了一些时间,并且希望得到帮助。 这是我尝试的...

回答 1 投票 0

使用非默认分词器在 TensorFlow 中初始化自定义解码器类时出现 AttributeError

我在尝试使用 TensorFlow 在 Python 中创建 Decoder 类的实例时遇到了 AttributeError。我收到的错误消息如下: ------------------------------------------------...

回答 1 投票 0

如何可视化注意力权重?

使用此实现 我已经将注意力纳入了我的 RNN(它将输入序列分为两类),如下所示。 可见=输入(形状=(250,)) 嵌入=嵌入(vocab_size,100)(可见...

回答 2 投票 0

给定上下文中最相似的单词

我想创建一个可以生成上下文感知同义词的深度学习模型。我一直在考虑使用 BERT,因为它是双向的并且可以创建良好的表示,我的想法是...

回答 2 投票 0

正则表达式捕获新行的意外行为(python)

我正在尝试在大量文本中查找包含 4 个单词或更少且以“:”结尾的行。文本混乱,因此任何空格都可能出现在行的开头或结尾(我...

回答 2 投票 0

如何从字符串中提取“单词形式的数字”

有人知道从哪里开始吗? 例如,从“我有两个苹果”中提取“二”。 我正在寻找NLP或QDA的方向。任何有关如何进行的线索将不胜感激。

回答 3 投票 0

注意层在推理时改变批量大小

我使用编码器-解码器架构训练了序列到序列模型。我正在尝试在给定输入上下文的情况下生成输出序列,并且我正在尝试对一批输入上下文向量执行此操作。 ...

回答 1 投票 0

AutoModelForSequenceClassification 与 AutoModel 之间有什么区别

我们可以通过 AutoModel(TFAutoModel) 函数创建模型: 从 Transformers 导入 AutoModel 模型 = AutoModel.from_pretrained('distilbert-base-uncase') 另一方面,模型是由

回答 2 投票 0

Transformer 培训如何实施教师强制?

在 Tensorflow 教程的这一部分中,他们提到他们正在使用教师强制进行训练。据我所知,教师强迫涉及将目标输出输入到模型中,以便它

回答 2 投票 0

带有步幅的预训练模型不能预测长文本

我的目标是用bioformer-8L注释长文档。据说我使用了跨步和截断,这样我就不必将我的文档分成 512 个标记的块。 在训练阶段,我...

回答 1 投票 0

用于 TensorFlow 中大型数据集预处理的内存高效 BERT 文本嵌入

我正在处理包含大约 920,614 行和多列的数据集,包括“orig_item_title”、“sub_item_title”、“is_brand_same”和“

回答 1 投票 0

使用langchain和LLaMA2对大型SQL数据库进行QA

我正在使用为大型数据集(约 150k 行)创建的 sqlite 数据库。 代码片段: db = SQLDatabase.from_uri("sqlite:///MLdata.sqlite") SQLITE_PROMPT_TEXT = '''你是一个 SQLite

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.