打造领域专属的大语言模型

简介

大模型具有生成和理解自然语言的强大能力,但在专属领域中,通用模型往往表现不尽如人意。为了解决这一问题,越来越多的人希望能够使用基于专业或行业领域的大语言模型,以提高回答问题的准确性。

从零开始训练一个大模型所需的算力、成本以及数据质量和数量的要求都非常高,因此并不适用于所有人。

然而,我们可以选择在已有的大模型(例如GPT系列)上进行微调。微调是指在已经训练好的大模型的基础上,使用专业领域的数据进行进一步训练。通过在原有大模型的基础上添加专业领域的数据,可以对模型进行微调,从而减少大模型出错的概率和降低模型出现幻觉的次数。这种方法不仅能够显著提升模型在特定领域的表现,还能够在一定程度上控制成本,是一种切实可行的解决方案。

微调模型的优点

  1. 赋予大模型新的数据

微调允许我们在已有大模型的基础上,加入特定领域的新数据,从而增强模型在该领域的知识和表现能力。例如,通过加入医学领域的数据,模型可以更准确地回答医学相关的问题。

  1. 帮助大模型修正错误信息

通用大模型在某些专业领域可能会出现错误或不准确的信息。通过微调,我们可以利用高质量的领域特定数据来修正这些错误,从而提高模型的准确性和可靠性。

  1. 微调成本可控

与从零开始训练一个大模型相比,微调所需的资源和成本大大降低。微调只需要在已有模型的基础上进行进一步训练,这使得微调的成本和算力需求更容易计算和管理,对于中小型企业和个人用户来说尤其实用。

微调前的准备工作

在开始微调之前,需要确认微调的方向并收集相应的专业知识,以便模型能够学习该领域的专业内容,这样,经过多次微调后,模型才能给出令人满意的结果。需要包含如下步骤:

  1. 确定微调方向:明确希望模型在什么领域表现出色(例如,医学、法律、金融等)。
  2. 收集数据:收集该领域的专业知识和数据,确保数据的准确性和全面性。
  3. 准备数据格式:
  4. 整合数据,使其符合 OpenAI 可接受的格式,即一组演示对话。对话应包括希望在实际使用过程中出现的相应类型。
  5. 格式化对话
  6. 数据需要符合 Chat Completions 的消息格式。每条消息应包含角色、内容和可选名称。添加预期和辅助消息,帮助模型提供更理想的响应。

可微调的模型如下:

  • gpt-3.5-turbo-0125(推荐)
  • gpt-3.5-turbo-1106
  • gpt-3.5-turbo-0613
  • babbage-002
  • davinci-002(实验)
  • gpt-4o-2024-05-13

数据示例格式如下:


{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "What's the capital of France?"}, {"role": "assistant", "content": "Paris, as if everyone doesn't know that already."}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "Who wrote 'Romeo and Juliet'?"}, {"role": "assistant", "content": "Oh, just some guy named William Shakespeare. Ever heard of him?"}]}
{"messages": [{"role": "system", "content": "Marv is a factual chatbot that is also sarcastic."}, {"role": "user", "content": "How far is the Moon from Earth?"}, {"role": "assistant", "content": "Around 384,400 kilometers. Give or take a few, like that really matters."}]}

模型微调过程

示例文件下载:点击下载 jsonl 文件

在准备好数据之后,就可以开始模型的微调。主要分为以下几个步骤:

  1. 上传数据

上述准备好的数据可以保存进jsonl文件,主要在这个文件中,每行都是完整的一条json数据,即每一行都是完整的一次对话。使用文件 API 上传文件,以便与微调作业一起使用。


from openai import OpenAI
client=OpenAI()
client.files.create(
    file=open('<jsonl文件路径>','rb'),
    purpose='fine-tune'
)

一次上传文件的大小最大为 1G,但是不建议使用这么大的数据量进行微调,上传文件需要时间并且不太可能需要那么大的数据量才能看到改进。

  1. 微调模型

确保数据集上传正确后,就可以创建微调作业,可以通过界面化或者编程的方式来创建微调作业。示例如下:


from openai import OpenAI
client = OpenAI()

client.fine_tuning.jobs.create(
  training_file="file-abc123", # 训练文件上传到 OpenAI API 时返回的文件 ID。可以使用后缀参数自定义微调模型的名称
  model="gpt-3.5-turbo" # 要微调的模型的名称
)

  1. 查看微调状态

使用上述创建微调任务后,一般情况下会有一个等待微调成功的时间,可以使用以下的 API 随时查看微调的结果:


# 检查微调任务的状态
job_retrieved = client.fine_tuning.jobs.retrieve('ftjob-abc123')
# 列出存在的10条job
client.fine_tuning.jobs.list(limit=10)
# 列出微调中的10条事件
client.fine_tuning.jobs.list_events(fine_tuning_job_id="ftjob-abc123", limit=10)
# 删除一个微调的模型
client.models.delete("ft:gpt-3.5-turbo:abc276")

  1. 模型验证与测试

等待模型微调成功后,即可直接调用该模型进行测试,为了方便看出差异,可以同时调用 gpt-3.5-turbo 和微调后的模型并且询问同一个问题,便能看出微调的效果:

completion = client.chat.completions.create(
    model="gpt-3.5-turbo",
   # 修改调用的模型类型
   # model="<微调后的模型>",
    messages=[
        {"role": "system", "content": "<给出系统角色需要提前给出的提问背景信息>"},
        {"role": "user", "content": "<用户提问的问题>"}
    ],
   #  控制生成文本时的随机性
    temperature=0.7,
   #  生成的响应数量
    n=1,
   #  用于终止生成的令牌列表或字符串。
    stop=None
)
# 打印看出答案
print(completion_fine.choices[0].message.content)

微调后数据的评估

为了完成对模型的微调,需考虑到一次微调的结果很可能不如预期,因此可以通过不断调整训练数据集来提高模型输出的质量。具体可参考内容如下:

检查现有示例:

  1. 确保训练示例包含响应所需的信息:每个示例应明确并充分地涵盖预期地回答内容,确保模型有足够的信息来生成准确的响应。
  2. 查看训练示例中的一致性:确保所有示例在格式、语调和结构上保持一致,以便模型能从中学习到统一的风格和逻辑。
  3. 确保所有实例都使用相同的格式:一致的格式有助于模型更好的理解和学习。

追加新的示例:

  1. 收集预期不对的示例:将模型输出的预期不正确的示例收集起来,并将修改后的预期回答作为新的训练示例,补充进下一次微调的数据集中。
  2. 检查现有示例:根据回答的内容判断示例是否存在语法、逻辑等问题,确保每个示例都是高质量的。
  3. 考虑数据地平衡性和多样性:不同类型的回答应该均衡分布,并且包含各种不同类型的内容,以确保模型在各种情境下都能生成适当的响应。

总结

  • 微调的概念
  • 微调的优点
  • 微调前的准备工作
  • 模型微调过程
  • 微调后数据的评估
全部评论

相关推荐

今天周一休息,突发奇想写一篇阶段总结。如题,我已经去了一个和Java彻底毫无关联的行业。曾经我以为自己能在计算机行业发光发热,没想到刚入行一年多就当了逃兵。从最开始的热爱到现在一看到代码就厌恶,不知道自己经历了什么。所以我去干什么了?答案是:在成都当了租房销售。上班那会压力大了就念叨着去干租房中介,但是一直下不去这个决心,想着自己学了四年多的计算机知识,终究还是不甘心。终于在某一天准备八股文的时候,看着无数篇和工作内容关系不大的理论知识,那一刻下定决心,决定尝试一下销售行业,也算是给自己一个交代。后面阴差阳错的投了成都自如去当租房管家,没想到面试很顺利,在当天一百多个面试的人里面,我成为了为数不多通过的几个幸运儿之一。目前已经培训通过,正式入职,也开了单,也有压力但是每天过得很开心,真心喜欢那种和人交流的感觉,哪怕是最后没有选择找我租房。说这些也是想告诉那些大三,大四正在找Java实习而焦虑的同学:你们现在还年轻,选择很多,容错率也很高,可以尽情去尝试自己喜欢的行业和工作。不用因为某一次的面试没通过或者简历石沉大海而焦虑,更不用因为身边人都在挤编程的独木桥就强迫自己跟风。也算是自己的碎碎念吧,也希望自己能在新的领域取得一点小成就。也祝牛油工作顺利!
沉淀小子:干啥都不丢人啊,生存是必须要的,销售很考验一个人综合素质能力的,好的销售人脉和资源可不比写字楼的白领差啊
点赞 评论 收藏
分享
有很多问题,求大佬们解答,谢谢大佬们:不知道现在该怎么投实习,该怎么准备内心很纠结学校课程和实习到底怎么选择,&nbsp;自己也不想课程学业这边出问题,&nbsp;是不是只能投暑期实习,具体时间该怎么安排前端面试也需要准备算法么,&nbsp;自己的算法能力很薄弱,&nbsp;面试题需要准备到什么程度?没有ai项目经验的话,我该如何去补充,如何去找好的ai项目
smile丶snow:1.简历尽量一页,比如教育经历那里,全日制,计算机学院这些可以去掉没啥用好浪费空间。 熟悉三件套就没必要写了吧。js基本上是这样写 * JavaScript核心:深入理解 JS 运行机制(事件循环 Event Loop、微任务/宏任务),熟练掌握 Promise/Async 异步编程 模型。 熟悉可以改成熟练掌握。组件库写一个ant感觉就行,多写了浪费空间。 旅游项目是不是jonas的natours啊,我之前简历也有这个。我之前是这样写的 全栈思维: 熟悉 Node.js/Express 后端架构,掌握 MongoDB 数据库设计与聚合查询 工程化我觉得还是少些吧,不写就问的少,如果你真的了解的话可以写。 1.实习的话推荐大厂官网和aoob上面投,我自己有写一个校招网站的小网站可以直达~github主页上面有,顺便求个关注( 2.大三下一般课程比较少了吧,如果学校比较严的话可以多沉淀一会,如果不太严可以请dai课然后去实习,尽量找个近一些的就行。暑期实习不是暑假才实习哦,基本是上3月底4月初发offer就可以过去了,然后大概暑假的时候走转正流程答辩。 3.大厂算法题+js手写体。hot100+常见的比如数组转树,Promise.all,deepClone,之类 js手写都不难其实。算法看自己能力吧,我其实算法能力也不行。 4.自己平时没有用AI Coding吗?自己想一下怎么让AI帮你更好的写代码~比如Skill的诞生,OpenSpec的诞生,不都是我们想让AI更好帮我们写代码吗。
我的实习日记
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务