chatgpt训练自己的模型过程笔记
GPT-3 已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成。这通常称为“小样本学习”。
微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。
在高层次上,微调涉及以下步骤:
准备和上传训练数据
训练新的微调模型
使用您的微调模型
哪些模型可以微调?
微调目前仅适用于以下基本型号:davinci、curie、babbage和ada。这些是原始模型,在训练后没有任何说明(例如text-davinci-003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。
一、安装
我们建议使用我们的 OpenAI 命令行界面 (CLI)。要安装这个,运行
pip install --upgrade openai
(以下说明适用于0.9.4及更高版本。此外,OpenAI CLI 需要 python 3。)
OPENAI_API_KEY通过将以下行添加到您的 shell 初始化脚本(例如 .bashrc、zshrc 等)或在微调命令之前的命令行中运行它来设置您的环境变量:
export OPENAI_API_KEY="<OPENAI_API_KEY>"
二、准备训练数据
训练数据是你如何教 GPT-3 你想让它说什么。
您的数据必须是JSONL文档,其中每一行都是一个提示完成对,对应于一个训练示例。您可以使用我们的CLI 数据准备工具轻松地将您的数据转换成这种文件格式。
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
...
点击查看剩余70%
网友评论