如何在训练 Huggingface Transformers (Pegasus) 模型时防止 VRAM 中途丢失?
我正在通过 Huggingface 变压器使用预训练的 pegasus 模型,(具体来说,google/pegasus-cnn_dailymail,我正在通过 Pytorch 使用 Huggingface 变压器)我想微调 ...
HuggingFace Transformers Trainer._maybe_log_save_evaluate IndexError:标量变量的索引无效
所以,我正在为问题生成微调 BART 模型,它似乎正在接受培训。然后突然间,它在第一次验证结束时用 IndexE 停止...
Huggingface 使用来自集线器的数据集微调来自集线器的自定义模型 - 如何?
我想用“dxiao/requirements-ner-id”数据集训练“flax-community/t5-large-wikisplit”模型。 (仅用于一些实验) 我认为我的一般程序不正确...
我正在关注这篇文章: https://huggingface.co/blog/wav2vec2-with-ngram 我正在运行以下命令: kenlm/build/bin/lmplz -o 5 <"text.txt" > "5gram.arpa" 一个...
我正在尝试安装 adapter-transformers=3.1.0,然后出现以下错误。我如何找到 tokenizers==0.9.2 的兼容适配器转换器版本? 错误:pip 的依赖解析...
AttributeError: 'Wav2Vec2FeatureExtractor' 对象没有属性 'decode'
我正在尝试运行 wav2vec2 的简单示例并出现错误: 进口手电筒 从变压器导入 Wav2Vec2ForCTC,Wav2Vec2FeatureExtractor 进口图书馆 模型 = Wav2Vec2ForCTC.from_pretrained...
例如类BertForSequenceClassification定义中,分类器只使用了一个Linear层。如果只用一个Linear layer,不就是给pool做线性投影吗……
如何防止transformer generate函数产生某些词?
我有以下代码: 从变形金刚导入 T5Tokenizer,T5ForConditionalGeneration tokenizer = T5Tokenizer.from_pretrained("t5-small") 模型 = T5ForConditionalGeneration.
huggingface重新加载后如何使用fine-tuned模型进行实际预测?
我正在尝试重新加载我已经微调的 DistilBertForSequenceClassification 模型,并使用它来将一些句子预测到它们适当的标签中(文本分类)。 在谷歌 Colab 中,在
我正在尝试训练音频数据的一致性模型,但不断出现以下错误。 “ValueError:无法创建张量,你应该激活截断和/或填充......
在使用 BLOOM LLM 模型进行 token 分类时面对使用
我正在尝试导入 BloomTokenizer: 从变形金刚导入 BloomTokenizer,BloomModel 但收到以下错误消息: ImportError Traceback(最近的 ...
huggingFace bert模型中的embedding元素代表什么?
在通过 BERT 模型中的编码器传递我的令牌之前,我想对它们的嵌入执行一些处理。我使用以下方法提取了嵌入权重: 从变压器导入 TFBertModel ...
我正在使用预训练的 Transformer 进行序列分类,我使用 Trainer 类对我的数据集进行了微调。当我使用 Trainer 类评估模型时,我获得了 94% 的准确率
我训练了一个包含 38 个类别的 BERT 文本分类模型。现在,对于这 38 个类别中的每一个,我想找出前 N 个词。 为此,我使用了 sklearn 的 CountVectorizer 来创建一个 voca...
How to solve ValueError: expected sequence of length 15 at dim 1 (got 18) error in python
我正在使用拥抱面模型训练一个简单的自定义 NER 模型。我的输入长度不同,我通过截断和填充来解决。 我在 2 个 GPU 上训练这个。 我收到以下错误信息
在使用 huggingface--Helsinki-NLP--opus-mt-ROMANCE-en 模型时,有没有办法防止 NLP 翻译掉落表情符号?期望的行为: “Bonjour ma France 🇫🇷”@fr --> &...
HuggingFace load_dataset config_kwargs
尝试从 S3 存储桶动态加载数据集进行训练。这些将是位于 S3 存储桶内子文件夹中的 json 文件。 在我的主要训练脚本中,我有这个: train_ds,dev_ds,
如何为huggingface的diffusers.StableDiffusionInpaintPipeline定义提示权重?
我正在使用扩散器修复管道调整 python 脚本以实现自定义视频生成想法。 我想逐渐改变提示中某些单词的权重。 据我了解
higher work with huggingface(拥抱脸,HF)模型吗?例如ViT?
ViT 的当前错误: 追溯(最近一次通话): 文件“/lfs/ampere3/0/brando9/diversity-for-predictive-success-of-meta-learning/div_src/diversity_src/experiment_mains/main_maml_tor ...
我有数千条评论,我使用 Hugging Face 的 bart-large-mnli (https://huggingface.co/facebook/bart-large-mnli) 将评论分类为我在代码中输入的几个主题。 ..
Spacy Entity Linker with Transformer Listener 问题
我有一个由转换器和 NER 组件组成的预训练管道,我正在尝试创建一个实体链接器,该实体链接器能够使用转换器生成的嵌入表示,而不是使用...
无法加载模型,使用 Xcode 或 `MLModel.compileModel(at:)` 编译模型。 SwiftUI 稳定扩散
我正在尝试使用 SwiftUI 应用程序在装有 MacOS Ventura 13.2.1 的 M2 pro mac 上运行 Stable Diffusion 的 CoreML 模型。我已经从 Hugging Face Hub 下载了 Core ML 稳定扩散模型,并且...
我不确定接下来要采取的步骤,并且想了解我的 ML 设置有什么问题。我已经看到很多关于同一个错误的问题,但上下文都略有不同。 设置...