在下游任务输出上训练此模型,而不是变压器库的预期输出

问题描述 投票:0回答:1

我在我的 Mac 上编写了以下代码来运行我使用 unsloth 训练的经过微调的 Mistra7b 模型,

` 进口火炬 从 Transformer 导入 AutoModel、AutoTokenizer

加载模型和分词器

model_path = 'Directory_to_model_files'

模型 = AutoModel.from_pretrained(model_path)

tokenizer = AutoTokenizer.from_pretrained(model_path)

def query_model(文本):

inputs = tokenizer(text, return_tensors='pt')

with torch.no_grad():

    outputs = model(**inputs)

return outputs

查询示例

output = query_model("使用 Windows 表中的事件代码创建表")

打印(输出) `

我期望的输出是一些 json,应该由后端用来构建一些图表,但我得到了以下内容

MistralModel 的一些权重未从 /Users/sarannathreddy/Downloads/content/fine_tune_blumistral 的模型检查点初始化,而是新初始化的:['embed_tokens.weight', 'layers.0.input_layernorm.weight', 'layers.0。 mlp.down_proj.weight'、'layers.0.mlp.gate_proj.weight'、'layers.0.mlp.up_proj.weight'、'layers.0.post_attention_layernorm.weight'、'layers.0.self_attn.k_proj。重量',...'layers.9.self_attn.k_proj.weight','layers.9.self_attn.o_proj.weight','layers.9.self_attn.q_proj.weight','layers.9.self_attn .v_proj.weight', 'norm.weight'] 您可能应该在下游任务上训练这个模型,以便能够将其用于预测和推理。

之后它运行一段时间并返回模型权重

我想获得模型训练的原始输出而不是模型权重

pytorch huggingface-transformers large-language-model fine-tuning mistral-7b
1个回答
-4
投票

动手实践:开始编写简单的应用程序以掌握 Swift 的语法和结构。重点理解视图、视图控制器、[数据][1]模型和交互等概念。 [1]:https://lasrslogin.com/benefits/

© www.soinside.com 2019 - 2024. All rights reserved.