提问人:Magos Xiaomi 提问时间:10/11/2023 更新时间:10/11/2023 访问量:6
如何使用预训练的多任务 NLP 模型 - 简化?根据上下文 #based
How to to use a PRE-trained multi-tasking NLP model - simplified? #based on the context
问:
因此,假设我在 Colab 上的 GPU 上训练后,在本地本地下载了一些模型* .bin(如 BERT、llama-2)。
我不明白的是以下几点: 该模型在 xy 数据集上进行了预训练,并且能够提供编码、nlp 输出,正如在 colab 上测试的那样。
之后,将对自己的数据集进行微调。
从这一点来看,模型将如何工作? 这意味着它是否需要访问它经过训练的数据集以提供预期的 coplex 多任务答案?
我想象的是将预训练作为基础“理解”,并在自己的数据集上进行训练。
然后提供对自己的数据集的访问。 这些应该使用模型的基本记忆或知识库(如何思考)。 示例数据集集合 1:推理、Q/A、索引、词典 数据集集合 2:自己的数据(文件、文档、手册、项目等)
数据库是否更适合此目的?
我对整个概念有什么误解?
答: 暂无答案
评论