本文是官方翻译稿,官方链接,本文将告诉用户如何为应用程序定制模型。
ChatGPT 注册,请参考此篇,无注册可使用国内镜像站点,插件集合在这里。
介绍
微调可让您从 API 提供的模型中获得更多收益,收益有以下内容:
- 对比提示语(Prompt)方式,能获取更高质量的结果。
- 能够训练更多范例,而不是简单一个提示语。
- 能够节省提问时发送的字符。
- 更低的请求延迟。
GPT-3 已经用开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并给出合理的回答,这通常称为“小样本学习”。
微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。
纵观全局,微调包含以下步骤:
- 准备和上传训练数据
- 训练新的微调模型
- 使用您的微调模型
请访问我们的定价页面,详细了解微调模型训练和使用的收费方式。
哪些模型可以微调
微调目前仅适用于以下基本模型: davinci
、 curie
、 babbage
和 ada
。这些是没有任何训练后指令的原始模型(例如 text-davinci-003
)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。
安装
建议使用我们的 OpenAI 命令行界面 (CLI)。要安装这个,运行命令:
pip install --upgrade openai
(以下指令适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3。)
将以下内容添加到您的 shell 初始化脚本(例如 .bashrc、zshrc 等)或在微调命令之前的命令行中运行。
设置您的 OPENAI_API_KEY
环境变量:
export OPENAI_API_KEY="<OPENAI_API_KEY>"
准备训练数据
训练数据是如何教 GPT-3 说你喜欢的内容。
您的数据必须是 JSONL 类型文档,其中的每一行都是一个训练数据,格式:提示-补全
。您可以使用我们 CLI 数据准备工具轻松地将您的数据转换成这种文件格式。
{"prompt": "<prompt text>", "completion": "<ideal generated text>"} {"prompt": "<prompt text>", "completion": "<ideal generated text>"} {"prompt": "<prompt text>", "completion": "<ideal generated text>"} ...
设计用于微调的提示和补全
,不同于设计用于我们的基本模型(Davinci、Curie、Babbage、Ada)的提示语,虽然基础模型的提示通常包含多个示例(“小样本学习”),但对于微调,每个训练示例通常包含一个输入示例及其相关输出,无需给出详细说明或在同一提示中包含多个示例。
有关如何为各种任务准备训练数据的更多详细指导,请参阅我们准备数据集的最佳实践。
您拥有的训练示例越多越好。我们建议至少有几百个示例。一般来说,我们发现数据集大小每增加一倍都会导致模型质量线性增加。
CLI 数据准备工具
我们开发了一个工具来验证、提供建议和重新格式化您的数据:
openai tools fine_tunes.prepare_data -f <LOCAL_FILE>
此工具接受不同的格式,唯一的要求是它们包含提示和补全。您可以传递 CSV、TSV、XLSX、JSON 或 JSONL 文件,它会在指导您完成后将结果保存到 JSONL 文件中,方便微调时使用。
创建微调模型
当您准备好一微调数据后,可以进行下面的操作。
使用 OpenAI CLI 开始微调工作:
openai api fine_tunes.create -t <TRAIN_FILE_ID_OR_PATH> -m <BASE_MODEL>
其中 BASE_MODEL
是您开始使用的基础模型的名称(ada、babbage、curie 或 davinci)。您可以使用后缀参数自定义微调模型的名称。
运行上面的命令会做几件事:
- 使用文件 API 上传文件(或使用已经上传的文件)
- 创建微调作业
- 流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)
每个微调工作都从一个默认的curie
基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是以下之一: ada
、 babbage
、 curie
或 davinci
。请访问我们的定价页面,了解有关微调费率的详细信息。
开始微调作业后,可能需要一些时间才能完成。在我们的系统中,您的工作可能排在其他工作之后,训练我们的模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行以下命令恢复它:
openai api fine_tunes.follow -i <YOUR_FINE_TUNE_JOB_ID>
工作完成后,它应该显示微调模型的名称。
除了创建微调作业外,您还可以列出现有作业、检索作业状态或取消作业。
# 列出所有创建的微调模型 openai api fine_tunes.list # 检索一个微调的状态。结果对象包括 # 工作状态(可以是待定、运行、成功或失败)。 # 其他信息 openai api fine_tunes.get -i <YOUR_FINE_TUNE_JOB_ID> # 取消一个作业 openai api fine_tunes.cancel -i <YOUR_FINE_TUNE_JOB_ID>
使用微调模型
当作业成功时, fine_tuned_model
字段将填充模型名称。您现在可以将此模型指定为我们的 Completions API 的参数,并使用 Playground 发出请求。
微调完成后,您的模型可能需要几分钟时间才能准备好处理请求。如果使用您的模型的 Completion 请求超时,可能是因为您的模型仍在加载中。如果发生这种情况,请在几分钟后重试。
您可以通过将模型名称作为 Completion API 的 model
参数:
OpenAI CLI:
openai api completions.create -m <FINE_TUNED_MODEL> -p <YOUR_PROMPT>
cURL:
curl https://api.openai.com/v1/completions \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -H "Content-Type: application/json" \ -d '{"prompt": YOUR_PROMPT, "model": FINE_TUNED_MODEL}'
Python:
import openai openai.Completion.create( model=FINE_TUNED_MODEL, prompt=YOUR_PROMPT)
Node.js:
const response = await openai.createCompletion({ model: FINE_TUNED_MODEL prompt: YOUR_PROMPT, });
对于微调模型的这些请求,您可以继续使用所有其他完成参数,如 temperature
、 frequency_penalty
、 presence_penalty
等。
删除微调模型
要删除微调模型,您必须在您的组织中被指定为“所有者”。
OpenAI CLI:
openai api models.delete -i <FINE_TUNED_MODEL>
cURL:
curl -X "DELETE" https://api.openai.com/v1/models/<FINE_TUNED_MODEL> \ -H "Authorization: Bearer $OPENAI_API_KEY"
Python:
import openai openai.Model.delete(FINE_TUNED_MODEL)
准备数据集
微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,我们强烈建议您阅读以下针对您的用例的最佳实践和具体指南(下方)。
数据格式
要微调模型,您需要一组训练示例,每个训练示例都包含一个输入(“提示”)及其关联的输出(“补全”)。这与使用我们的基本模型明显不同,在基本模型中,您可能会在单个提示中输入详细说明或多个示例。
- 每个提示都应以固定分隔符结尾,以便告知模型,提示结束和补全开始。通常效果很好的简单分隔符是
\n\n###\n\n
。分隔符不应出现在任何提示中的其他地方。 - 由于我们的标记化(tokenization),每个补全都应该以空格开头,它用前面的空格标记大多数单词。
- 每次补全都应以固定的停止序列结束,以便告知模型。停止序列可以是
\n
、###
或任何其他未出现在任何完成中的标记。 - 推理部分,您应该以与创建训练数据集相同的方式,格式化提示语,包括相同的分隔符。还要指定相同的停止序列以正确截断补全。
最佳实践
使用更多高质量的示例进行微调效果更好。要微调一个比我们的基本模型(使用高质量提示)更好执行的模型,您应该提供至少几百个高质量的示例,最好由专家(非 AI )审查。这样,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。
分类器是最容易上手的模型。对于分类问题,我们建议使用 ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。
如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。
具体指南
微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。下面,我们列出了最常见的微调用例和相应的指南。
分类
在分类问题中,提示中的每个输入都应分类到预定义的类别之一。对于此类问题,我们建议:
- 在提示末尾使用分隔符,例如
\n\n###\n\n
。当您最终向您的模型发出请求时,请记住还要附加此分隔符。 - 选择映射到单个标记的分类。在推理时,指定
max_tokens=1
,因为您只需要第一个标记进行分类。 - 确保提示+完成不超过 2048 个标记,包括分隔符
- 目标是每个分类至少 ~100 个例子
- 在使用模型时,若需要获取分类的对数概率值,可以指定
logprobs=5
(表示5类)作为参数。 - 确保用于微调的数据集在结构和任务类型上与模型将要用于的数据集非常相似。
案例研究:模型是否做出了不真实的陈述?
假设您希望确保您网站上的广告文字提及正确的产品和公司。换句话说,您要确保模型没有胡编乱造。您可能想要微调过滤掉不正确广告的分类器。
数据集可能类似于以下内容:
{"prompt":"Company: BHFF insurance\nProduct: allround insurance\nAd:One stop shop for all your insurance needs!\nSupported:", "completion":" yes"} {"prompt":"Company: Loft conversion specialists\nProduct: -\nAd:Straight teeth in weeks!\nSupported:", "completion":" no"}
在上面的示例中,我们使用了包含公司名称、产品和相关广告的结构化输入。作为分隔符,我们使用了 \nSupported:
,它清楚地将提示与完成分开。对于足够数量的示例,分隔符不会产生太大影响(通常小于 0.4%),只要它没有出现在提示或完成中即可。
对于这个用例,我们微调了一个 ada 模型,因为它会更快、更便宜,而且性能将与更大的模型相当,因为它是一个分类任务。
现在我们可以通过发出完成请求来查询我们的模型。
curl https://api.openai.com/v1/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "prompt": "Company: Reliable accountants Ltd\nProduct: Personal Tax help\nAd:Best advice in town!\nSupported:", "max_tokens": 1, "model": "YOUR_FINE_TUNED_MODEL_NAME" }'
API 的结果,将返回 yes
或 no
。
案例研究:情感分析
假设您想要了解特定推文的正面或负面程度。数据集可能类似于以下内容:
{"prompt":"Overjoyed with the new iPhone! ->", "completion":" positive"} {"prompt":"@lakers disappoint for a third straight night https://t.co/38EFe43 ->", "completion":" negative"}
对模型进行微调后,您可以通过在完成请求上设置 logprobs=2
来取回第一个完成标记的对数概率。正类别的概率越高,相对情绪就越高。
现在我们可以通过发出完成请求来查询我们的模型。
curl https://api.openai.com/v1/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -d '{ "prompt": "https://t.co/f93xEd2 Excited to share my latest blog post! ->", "max_tokens": 1, "model": "YOUR_FINE_TUNED_MODEL_NAME" }'
结果将返回:
{ "id": "cmpl-COMPLETION_ID", "object": "text_completion", "created": 1589498378, "model": "YOUR_FINE_TUNED_MODEL_NAME", "choices": [ { "logprobs": { "text_offset": [ 19 ], "token_logprobs": [ -0.03597255 ], "tokens": [ " positive" ], "top_logprobs": [ { " negative": -4.9785037, " positive": -0.03597255 } ] }, "text": " positive", "index": 0, "finish_reason": "length" } ] }
案例研究:电子邮件分类以便分类处理
假设您希望将收到的电子邮件归入大量预定义类别之一。对于大量类别的分类,我们建议您将这些类别转换为数字,最多可处理约 500 个类别。我们观察到,由于标记化,在数字前添加一个空格有时会对性能略有帮助。您可能希望按如下结构构建训练数据:
{"prompt":"Subject: <email_subject>\nFrom:<customer_name>\nDate:<date>\nContent:<email_body>\n\n###\n\n", "completion":" <numerical_category>"}
训练数据示例:
{"prompt":"Subject: Update my address\nFrom:Joe Doe\nTo:[email protected]\nDate:2021-06-03\nContent:Hi,\nI would like to update my billing address to match my delivery address.\n\nPlease let me know once done.\n\nThanks,\nJoe\n\n###\n\n", "completion":" 4"}
在上面的示例中,我们使用了一封上限为 2043 个字符的传入电子邮件作为输入。 (这允许一个 4 标记分隔符和一个标记完成,总计为 2048。)我们使用 \n\n###\n\n
作为分隔符,我们删除了电子邮件中出现的任何 ###
。
条件生成
条件生成是需要在给定某种输入的情况下生成内容的问题。这包括释义、总结、实体提取、编写给定规范的产品描述、聊天机器人等。对于此类问题,我们建议:
- 在提示末尾使用分隔符,例如
\n\n###\n\n
。当您最终向您的模型发出请求时,请记住还要附加此分隔符。 - 在完成结束时使用结束标记,例如
END
- 请记住在推理过程中将结束标记添加为停止序列,例如
stop=[" END"]
- 目标是至少 ~500 个示例
- 确保提示+完成不超过 2048 个标记,包括分隔符
- 确保示例具有高质量并遵循相同的所需格式
- 确保用于微调的数据集在结构和任务类型上与模型将用于的数据集非常相似
- 对于这些用例,使用较低的学习率和仅1-2个epoch通常效果更好。
案例研究:根据维基百科文章撰写引人入胜的广告
这是一个生成用例,因此您需要确保提供的样本具有最高质量,因为微调模型将尝试模仿给定示例的风格(和错误)。一个好的起点是大约 500 个示例。示例数据集可能如下所示:
{"prompt":"<Product Name>\n<Wikipedia description>\n\n###\n\n", "completion":" <engaging ad> END"}
示例数据集:
{"prompt":"Samsung Galaxy Feel\nThe Samsung Galaxy Feel is an Android smartphone developed by Samsung Electronics exclusively for the Japanese market. The phone was released in June 2017 and was sold by NTT Docomo. It runs on Android 7.0 (Nougat), has a 4.7 inch display, and a 3000 mAh battery.\nSoftware\nSamsung Galaxy Feel runs on Android 7.0 (Nougat), but can be later updated to Android 8.0 (Oreo).\nHardware\nSamsung Galaxy Feel has a 4.7 inch Super AMOLED HD display, 16 MP back facing and 5 MP front facing cameras. It has a 3000 mAh battery, a 1.6 GHz Octa-Core ARM Cortex-A53 CPU, and an ARM Mali-T830 MP1 700 MHz GPU. It comes with 32GB of internal storage, expandable to 256GB via microSD. Aside from its software and hardware specifications, Samsung also introduced a unique a hole in the phone's shell to accommodate the Japanese perceived penchant for personalizing their mobile phones. The Galaxy Feel's battery was also touted as a major selling point since the market favors handsets with longer battery life. The device is also waterproof and supports 1seg digital broadcasts using an antenna that is sold separately.\n\n###\n\n", "completion":"Looking for a smartphone that can do it all? Look no further than Samsung Galaxy Feel! With a slim and sleek design, our latest smartphone features high-quality picture and video capabilities, as well as an award winning battery life. END"}
这里我们使用了多行分隔符,因为维基百科文章包含多个段落和标题。我们还使用了一个简单的结束标记,以确保模型知道何时应该完成。
案例研究:实体提取
这类似于语言转换任务。为了提高性能,最好按字母顺序或按照它们在原始文本中出现的相同顺序对不同的提取实体进行排序。这将有助于模型跟踪需要按顺序生成的所有实体。数据集可能如下所示:
{"prompt":"<any text, for example news article>\n\n###\n\n", "completion":" <list of entities, separated by a newline> END"}
示例数据集:
{"prompt":"Portugal will be removed from the UK's green travel list from Tuesday, amid rising coronavirus cases and concern over a \"Nepal mutation of the so-called Indian variant\". It will join the amber list, meaning holidaymakers should not visit and returnees must isolate for 10 days...\n\n###\n\n", "completion":" Portugal\nUK\nNepal mutation\nIndian variant END"}
多行分隔符效果最好,因为文本可能包含多行。理想情况下,输入提示的类型会高度多样化(新闻文章、维基百科页面、推文、法律文件),这反映了提取实体时可能遇到的文本。
案例研究:客服支持聊天机器人
一个聊天机器人通常会包含有关对话的相关上下文(订单详情)、迄今为止的对话摘要以及最近的消息。对于这种用例,同一过去的对话可以在数据集中生成多个行,每次都带有稍微不同的上下文,用于客服生成消息。这种用例将需要几千个示例,因为它可能涉及到不同类型的请求和客户问题。为了确保性能具有高品质,我们建议审查对话样本以确保客服消息的质量。摘要可以使用单独的文本转换fine-tuned模型生成。数据集可能如下所示:
{"prompt":"Summary: <summary of the interaction so far>\n\nSpecific information:<for example order details in natural language>\n\n###\n\nCustomer: <message1>\nAgent: <response1>\nCustomer: <message2>\nAgent:", "completion":" <response2>\n"} {"prompt":"Summary: <summary of the interaction so far>\n\nSpecific information:<for example order details in natural language>\n\n###\n\nCustomer: <message1>\nAgent: <response1>\nCustomer: <message2>\nAgent: <response2>\nCustomer: <message3>\nAgent:", "completion":" <response3>\n"}
在这里,我们有意分离不同类型的输入信息,但在提示和完成之间以相同的格式维护客户代理对话框。所有的补全只能由代理完成,我们可以在进行推理时使用 \n
作为停止序列。
案例研究:基于技术属性清单的产品描述
在这里,将输入数据转换为自然语言很重要,这可能会带来卓越的性能。例如,以下格式:
{"prompt":"Item=handbag, Color=army_green, price=$99, size=S->", "completion":" This stylish small green handbag will add a unique touch to your look, without costing you a fortune."}
不会像这样:
{"prompt":"Item is a handbag. Colour is army green. Price is midrange. Size is small.->", "completion":" This stylish small green handbag will add a unique touch to your look, without costing you a fortune."}
为了获得高性能,请确保完成是基于所提供的描述。如果经常查阅外部内容,则以自动方式添加此类内容将提高性能。如果描述基于图像,则使用算法提取图像的文本描述可能会有所帮助。由于补全只有一个句子长,我们可以在推理过程中使用 .
作为停止序列。
高级使用
自定义您的模型名称
您可以使用后缀参数将最多 40 个字符的后缀添加到经过微调的模型名称中。
OpenAI CLI:
openai api fine_tunes.create -t test.jsonl -m ada --suffix "custom model name"
结果名称将是:
ada:ft-your-org:custom-model-name-2022-02-15-04-21-04
分析您的微调模型
我们会在每个作业完成后附上一个结果文件。当您检索微调时以及查看微调中的事件时,将列出此结果文件 ID。您可以下载这些文件:
OpenAI CLI:
openai api fine_tunes.results -i <YOUR_FINE_TUNE_JOB_ID>
CURL:
curl https://api.openai.com/v1/files/$RESULTS_FILE_ID/content \ -H "Authorization: Bearer $OPENAI_API_KEY" > results.csv
_results.csv
文件中,一行为每个训练步骤,其中一个步骤指的是对一批数据的一次前向和反向传递。除步骤编号外,每行还包含与该步骤对应的以下字段:
- elapsed_tokens:到目前为止模型已经看到的令牌数(包括重复)
- elapsed_examples:到目前为止模型已经看到的示例数量(包括重复),其中一个示例是您的批次中的一个元素。例如,如果
batch_size = 4
,每一步都会将elapsed_examples
增加 4。 - training_loss:训练批次的损失
- training_sequence_accuracy:训练批次中模型的预测标记与真实完成标记完全匹配的完成百分比。例如,
batch_size
为 3,如果您的数据包含补全 [[1, 2], [0, 5], [4, 2]] 和模型预测 [[1, 1], [0, 5], [4, 2]], 这个精度将是 2/3 = 0.67 - raining_token_accuracy:模型正确预测的训练批次中的标记百分比。例如,
batch_size
为 3,如果您的数据包含补全 [[1, 2], [0, 5], [4, 2]] 和模型预测 [[1, 1], [0, 5], [4, 2]], 这个精度将是 5/6 = 0.83
分类特定指标
我们还提供了在结果文件中生成额外的分类特定指标的选项,例如准确率和加权F1得分。这些指标会定期针对整个验证集进行计算,并在微调结束时进行计算。作为额外的列展示在结果文件中。
要启用此功能,请设置参数--compute_classification_metrics
。此外,您必须提供一个验证文件,并设置classification_n_classes
参数以进行多类分类,或者设置classification_positive_class
参数以进行二元分类。
OpenAI CLI:
# For multiclass classification openai api fine_tunes.create \ -t <TRAIN_FILE_ID_OR_PATH> \ -v <VALIDATION_FILE_OR_PATH> \ -m <MODEL> \ --compute_classification_metrics \ --classification_n_classes <N_CLASSES> # For binary classification openai api fine_tunes.create \ -t <TRAIN_FILE_ID_OR_PATH> \ -v <VALIDATION_FILE_OR_PATH> \ -m <MODEL> \ --compute_classification_metrics \ --classification_n_classes 2 \ --classification_positive_class <POSITIVE_CLASS_FROM_DATASET>
如果设置了--compute_classification_metrics
参数,则结果文件将显示以下指标:
**对于多类分类 **
- classification/accuracy:准确率
- classification/weighted_f1_score:加权F-1分数
**对于二元分类 **
以下指标基于分类阈值为0.5(即当概率> 0.5时,示例被归类为正类)。
- classification/accuracy
- classification/precision
- classification/recall classification/f{beta}
- classification/auroc – AUROC
- classification/auprc – AUPRC
请注意,这些评估假定您使用文本标签进行分类,这些标签可以令牌化为单个令牌,如上所述。如果不符合这些条件,则可能得到错误的数字。
验证
您可以为验证保留一些数据。验证文件与训练文件具有完全相同的格式,并且您的训练和验证数据应该是互斥的。
如果在创建微调作业时包括验证文件,则生成的结果文件将包括对微调模型在训练期间定期针对验证数据表现如何的评估。
OpenAI CLI:
openai api fine_tunes.create -t <TRAIN_FILE_ID_OR_PATH> \ -v <VALIDATION_FILE_ID_OR_PATH> \ -m <MODEL>
如果您提供了一个验证文件,在训练期间我们会定期在验证数据批次上计算指标。您将在结果文件中看到以下额外的指标:
- validation_loss:验证批次的损失
- validation_sequence_accuracy:模型预测令牌与真实完成令牌完全匹配的验证批次中的完成百分比。例如,对于batch_size为3的数据,如果您的完成包含[[1, 2],[0, 5],[4, 2]],而模型预测[[1, 1],[0, 5],[4, 2]],则此准确率将为2/3 = 0.67。
- validation_token_accuracy:模型正确预测的验证批次中的令牌百分比。例如,对于batch_size为3的数据,如果您的完成包含[[1, 2],[0, 5],[4, 2]],而模型预测[[1, 1],[0, 5],[4, 2]],则此准确率将为5/6 = 0.83。
超参数
我们选择了在各种用例中表现良好的默认超参数。唯一必需的参数是训练文件。
尽管如此,调整用于微调的超参数通常会导致产生更高质量输出的模型。特别是,您可能希望配置以下内容:
model
:要微调的基础模型的名称。您可以选择其中之一:“ada”,“babbage”,“curie”或“davinci”。有关这些模型的更多信息,请参见模型文档。n_epochs
-默认为4。模型训练的周期数。一个epoch指的是完整训练数据集的一次循环。batch_size
-默认为训练集中示例数量的0.2%,上限为256。批处理大小是用于训练单个前向和后向传递的训练示例数。一般来说,我们发现对于较大的数据集,较大的批量大小往往效果更好。learning_rate_multiplier
-默认为0.05、0.1或0.2,具体取决于最终的batch_size。微调学习率是用于预训练的原始学习率与该乘子相乘得到的结果。我们建议尝试范围在0.02到0.2之间的值,以查看哪些值能产生最佳结果。根据经验,我们发现较大的学习率通常在较大的批量大小下表现更好。compute_classification_metrics
-默认为False。如果为True,则针对分类任务进行微调,在每个epoch结束时计算验证集上的特定于分类的指标(准确率、F-1分数等)。
要配置这些附加超参数,请通过OpenAI CLI传递命令行标志,例如:
openai api fine_tunes.create \ -t file-JD89ePi5KMsB3Tayeli5ovfW \ -m ada \ --n_epochs 1
从已微调的模型继续微调
如果您已经针对您的任务微调了一个模型,并且现在有其他训练数据需要加入,您可以从该模型继续微调。这将创建一个已从所有训练数据中学习到的模型,而无需从头开始重新训练。
要实现此操作,请在创建新的微调作业时传递已经微调的模型名称(例如-m curie:ft-<org>-<date>
)。其他训练参数不必更改,但是如果您的新训练数据远小于以前的训练数据,则可能会发现将learning_rate_multiplier
减少2到4倍是有用的。
Weights & Biases
您可以将微调与 Weights&Biases 同步以跟踪实验、模型和数据集。
要开始使用,您需要一个 Weights&Biases 帐户和一个付费的 OpenAI 计划。为确保您正在使用 openai和 wandb 的最新版本,请运行:
pip install --upgrade openai wandb
要将微调与 Weights&Biases 同步,请运行:
openai wandb sync
您可以阅读 Weights&Biases文档,以获取有关此集成的更多信息。
Notebook 示例
分类
finetuning-classification.ipynb
这个notebook将演示如何微调一个模型,该模型可以对输入文本是否与棒球或曲棍球相关进行分类。我们将在笔记本中执行以下四个步骤:
- 数据探索 将概述数据源以及示例的外观
- 数据准备 将转换我们的数据源为可用于微调的jsonl文件
- 微调 将启动微调作业并解释生成模型的性能
- 使用模型 将演示请求微调模型以获取预测。
问题回答
olympics-1-collect-data.ipynb olympics-2-create-qa.ipynb olympics-3-train-qa.ipynb
这个项目的想法是创建一个基于提供的几段文本来回答问题的问答模型。基础GPT-3模型在答案包含在段落中时回答问题做得很好,但是如果答案不包含在内,则基础模型通常会尽力回答,从而导致混乱的答案。
为了创建一个只有在有足够上下文时才回答问题的模型,我们首先创建了一个基于文本段落的问题和答案数据集。为了训练模型仅在答案存在时回答问题,我们还添加了对抗性示例,其中问题与上下文不匹配。在这些情况下,我们要求模型输出“没有足够的上下文来回答问题”。
我们将在三个笔记本中执行这个任务:
- 第一个笔记本 专注于收集GPT-3在预训练期间没有看到的最新数据。我们选择了2020年奥运会(实际上是在2021年夏季举行),并下载了713个独特页面。我们按单个部分组织数据集,这些部分将用作提出问题和回答问题的上下文。
- 第二个笔记本 将利用Davinci-instruct根据维基百科的一个章节提出几个问题,并根据该章节回答这些问题。
- 第三个笔记本 将利用上下文、问题和答案对的数据集,另外创建问题和上下文对的对抗性示例,其中问题不是在该上下文中生成的。 在这些情况下,模型将被提示回答“没有足够的上下文来回答问题”。我们还将训练一个鉴别器模型,该模型根据上下文预测是否可以回答问题。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。