多年來,人工智能以各種形式盛行——從Alexa等虛擬助手到客戶服務聊天機器人——但隨著ChatGPT的推出,人工智能迎來了關鍵時刻。這款人工智能應用程序不僅吸引了數(shù)百萬人的想象力,還成為我們今天正在經(jīng)歷的人工智能革命的催化劑。最近的估計顯示,ChatGPT 的用戶群超過 1.8 億,它不僅是最受歡迎的人工智能應用程序,而且是全球使用最廣泛的應用程序之一。它還獲得了歷史上增長最快的消費者應用程序的稱號。
盡管 ChatGPT 具有非凡的功能,或者更具體地說是 GPT(為其提供支持的生成式預訓練 Transformer 模型)仍具有某些局限性,尤其是在商業(yè)環(huán)境中應用時。
了解 GPT 在商業(yè)應用中的局限性
GPT 的第一個限制是缺乏專業(yè)知識。正如預期的那樣,一個在龐大但通用的數(shù)據(jù)上訓練的模型不可能知道一切,尤其是考慮到人類知識的快速擴展。此外,GPT 的知識是靜態(tài)的,當訓練結束時就會終止。例如,最新的 GPT-4-o 模型的知識庫在 2023 年 10 月結束。
另一個重大限制涉及專有或機密數(shù)據(jù)的使用。GPT 可能無法完全理解組織的獨特數(shù)據(jù)格式或用戶特定請求,從而導致專業(yè)任務的效果不佳。此外,還有數(shù)據(jù)隱私方面的擔憂。OpenAI 利用輸入 GPT 的數(shù)據(jù)來訓練未來的模型,這意味著使用敏感數(shù)據(jù)的組織可能會無意中共享機密信息,從而可能違反數(shù)據(jù)隱私法規(guī)。
盡管如此,生成式 AI 的變革潛力(提高生產(chǎn)力和成本效率)已促使組織尋求將 GPT 等 LLM 集成到其專業(yè)工作流程中并安全地整合專有數(shù)據(jù)的方法。這就是微調發(fā)揮作用的地方。
微調:根據(jù)您的特定需求定制 GPT
微調是采用預先訓練好的語言模型,并在針對特定任務或知識領域的專用數(shù)據(jù)集上進一步訓練它的過程。初始預訓練階段涉及向模型提供來自不同來源的大量非結構化數(shù)據(jù)。相比之下,微調利用針對目標領域或任務的較小、更精心策劃和標記的數(shù)據(jù)集。
在本指南中,我們將引導您逐步了解針對對話數(shù)據(jù)微調 GPT 的過程。這包括訪問 OpenAI 的界面、上傳適當?shù)臄?shù)據(jù)集、選擇正確的模型、對其進行微調、監(jiān)控進度以及進行必要的調整。
步驟 1:設置開發(fā)環(huán)境
首先,您需要安裝 OpenAI SDK 來設置開發(fā)環(huán)境。我們將在本指南中使用 Python SDK 作為示例,但它也可以在 Node.js 和 .NET 中使用。此外,您還需要安裝python-dotenv來管理環(huán)境變量。
pip install openai python-dotenv
# For Python 3 and above
pip3 install openai python-dotenv
接下來,導入 OpenAI 類并創(chuàng)建一個客戶端對象來與 OpenAI 接口交互,該接口充當各種 API 調用的包裝器。
import os
from openai import OpenAI
client = OpenAI(
api_key=os.environ['OPENAI_API_KEY'],
)
要訪問 OpenAI 的 API,您需要一個 API 密鑰,該密鑰可通過在 OpenAI 開發(fā)者平臺上注冊獲得。API 密鑰安全地存儲在一個.env文件中,可以使用os模塊訪問該文件,如上所示。
第 2 步:選擇正確的模型進行微調
設置好環(huán)境后,下一步是選擇要微調的模型。OpenAI 目前提供了幾種微調模型:
davinci-002
babbage-002
GPT-4-o-mini-2024-07-18
GPT-3.5-turbo
在研究OpenAI 的定價時,您會注意到,盡管最新模型 GPT-4-o-mini 是上下文長度最長的最新模型,但價格相對便宜,僅次于 babbage-002。成本較低的原因是 GPT-4-o-mini 是 GPT 的縮小版,參數(shù)更少,從而降低了計算需求。相比之下,GPT-3.5-turbo 和 davinci-002 是更大的模型,具有更多參數(shù)和更復雜的架構,這反映在它們更高的訓練成本上。最終,您選擇的模型應該符合您的特定對話需求和預算限制。
步驟 3:準備微調數(shù)據(jù)集
選擇模型后,下一個關鍵步驟是準備微調數(shù)據(jù)。在本指南中,我們將使用My_Custom_Conversational_DataHuggingFace 上提供的數(shù)據(jù)集,這是一個強大的 AI 開發(fā)資源平臺,包括數(shù)據(jù)集。
該數(shù)據(jù)集非常適合我們的微調場景,因為它包含廣泛的對話數(shù)據(jù),并且格式化為符合 OpenAI 的聊天完成 API 所需的結構 - 提示完成對,如下所示:
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
{"prompt": "<prompt text>", "completion": "<ideal generated text>"}
此外,該數(shù)據(jù)集已分為訓練和評估子集,省去了我們手動拆分的任務。這種劃分對于確保模型在微調和評估期間接觸不同的數(shù)據(jù)至關重要,這有助于防止過度擬合(即模型無法推廣到新的、未見過的數(shù)據(jù))。
要下載數(shù)據(jù)集,請使用以下命令從 HuggingFace 克隆其存儲庫:
git clone https://huggingface.co/datasets/Unified-Language-Model-Alignment/Anthropic_HH_Golden
步驟 4:上傳數(shù)據(jù)集進行微調
準備好數(shù)據(jù)集后,下一步是使用OpenAI 的文件 API上傳它們。下面是如何上傳訓練和評估數(shù)據(jù)集的示例,創(chuàng)建將在微調過程中使用的文件對象。
training_dataset = client.files.create(
file=open("training.jsonl", "rb"),
purpose="fine-tune"
)
evaluation_dataset = client.files.create(
file=open("evaluation.jsonl", "rb"),
purpose="fine-tune"
)
上傳成功后,返回的文件對象將包含一個id唯一標識該文件的屬性。
步驟 5:啟動微調過程
上傳數(shù)據(jù)集后,就可以使用微調 API 創(chuàng)建微調作業(yè)了。所需的主要參數(shù)是模型名稱和訓練文件的id。如果您還上傳了評估數(shù)據(jù)集,則可以將其包含在微調作業(yè)中,如下所示:
ft_job = client.fine_tuning.jobs.create(
model="model_name",
training_file=training_dataset.id,
validation_file=evaluation_dataset.id,
)
您還可以指定超參數(shù),例如 epoch 數(shù)、批處理大小和學習率乘數(shù)。但是,建議允許 OpenAI 的 API 根據(jù)您首次運行的數(shù)據(jù)集大小自動配置這些設置。如果您希望手動設置這些參數(shù),您的代碼將如下所示:
ft_job = client.fine_tuning.jobs.create(
model="model_name",
training_file=training_dataset.id,
validation_file=evaluation_dataset.id,
hyperparameters={
"n_epochs": 5,
"batch_size": 16,
"learning_rate_multiplier": 0.2
}
)
一旦啟動,微調作業(yè)將返回一個包含 的作業(yè)對象id,這對于跟蹤作業(yè)的進度至關重要。完成后,您將收到一封電子郵件通知,但所需時間將根據(jù)模型和數(shù)據(jù)集大小而有所不同。
步驟 6:監(jiān)控微調過程
在微調過程中,您可以通過列出與您的作業(yè)相關的事件來監(jiān)控狀態(tài)。OpenAI 提供了幾個訓練指標:
訓練損失:衡量模型預測值與訓練數(shù)據(jù)中的實際值之間的差異。損失越低,表示性能越好。
訓練 token 準確率:訓練期間預測正確的 token 的百分比。
驗證損失:評估模型在未見數(shù)據(jù)上的性能,表明其泛化能力。
驗證令牌準確度:評估數(shù)據(jù)集上令牌預測的準確度。
您可以使用以下代碼檢索這些指標:
client.fine_tuning.jobs.list_events(
fine_tuning_job_id=ft_job.id,
limit=5
)
步驟 7:訪問和使用微調模型
微調作業(yè)完成后,可能需要一些時間才能完全訪問模型。如果模型無法立即使用,則可能仍在加載中。您可以使用其作業(yè)檢索微調后的模型id:
ft_retrieve = client.fine_tuning.jobs.retrieve(ft_job.id)
print(ft_retrieve)
該fine_tuned_model屬性現(xiàn)在將包含您定制的模型的名稱,并且該status屬性應該指示成功。
您現(xiàn)在可以通過在 GPT-3.5-turbo 和 GPT-4-o-mini 的聊天完成 API 中指定它或通過使用 babbage-002 或 davinci-002 的舊式完成 API 來使用此微調模型:
completion = client.chat.completions.create(
model="your fine-tuned model",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the 2024 World Series?"}
]
)
步驟 8:使用專有數(shù)據(jù)進行微調:確保隱私和安全
如果您使用專有或機密數(shù)據(jù)進行微調,則必須采取措施保護這些數(shù)據(jù),因為 OpenAI 可能會使用它來訓練未來的模型。降低這種風險的一種方法是使用 OpenAI 的非訓練端點:
completion = client.chat.completions.create(
model="your fine-tuned model",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Who won the 2024 World Series?"}
],
do_not_train=True
)
另一個有效的策略是采用data on-premises開源開發(fā)人員的解決方案,從而實現(xiàn)對數(shù)據(jù)處理管道的完全控制。
增強你的微調模型
在測試微調模型后,您可能會發(fā)現(xiàn)其性能不太符合您的期望,或者不如您所希望的那樣一致。在這種情況下,是時候完善和增強您的模型了。OpenAI 提供了幾種方法來幫助您改進微調模型,重點關注三個關鍵領域:
1. 質量:增強微調數(shù)據(jù)
確保格式正確:仔細檢查所有數(shù)據(jù)點的格式是否正確。結構正確的數(shù)據(jù)對于模型的學習過程至關重要。
解決弱點:如果您的模型在特定提示上遇到困難,請整合數(shù)據(jù)點來展示模型應如何應對這些場景。這種有針對性的方法可以顯著提高性能。
多樣化數(shù)據(jù)集:確保您的數(shù)據(jù)集包含各種各樣的示例,這些示例可以準確反映您的模型可能遇到的各種提示和響應。多樣化的數(shù)據(jù)集有助于模型在不同場景中更好地泛化。
2. 數(shù)量:擴大數(shù)據(jù)集
復雜任務處理:任務越復雜,所需的數(shù)據(jù)集就越大。增加數(shù)據(jù)集大小有助于模型處理更廣泛的情況。
邊緣案例包含:通過擴展數(shù)據(jù)集,您更有可能包含非常規(guī)數(shù)據(jù)點或邊緣案例。這有助于模型更有效地學習概括,增強其處理意外輸入的能力。
防止過度擬合:更大的數(shù)據(jù)集也可以減輕過度擬合,因為模型有更多不同的數(shù)據(jù)可供學習,確保它捕捉到真正的底層關系,而不僅僅是記住正確的響應。
3.超參數(shù):微調訓練過程
調整微調作業(yè)的超參數(shù)是另一個關鍵步驟。以下是如何有效地調整它們:
歷元數(shù):
如果出現(xiàn)以下情況則增加:模型在訓練和驗證數(shù)據(jù)上的表現(xiàn)均不佳(欠擬合),或者模型的損失正在減少但尚未穩(wěn)定(收斂緩慢)。
如果:模型在訓練數(shù)據(jù)上表現(xiàn)良好,但在評估數(shù)據(jù)上表現(xiàn)不佳(過度擬合),或者在初始改進后損失增加(早期收斂),則減少。
學習率乘數(shù):
如果模型收斂緩慢或者您正在處理特別大的數(shù)據(jù)集,則增加。
如果模型的損失出現(xiàn)大幅波動(振蕩)或出現(xiàn)過度擬合的跡象,則減少。
批次大小:
如果出現(xiàn)以下情況則增加:模型微調成功,允許使用更大的批量來加快進程,或者損失正在波動。
如果:模型收斂得不太好,則減少,因為較小的批次可以幫助模型更徹底地學習數(shù)據(jù),或者盡管進行了其他調整,過度擬合仍然存在。
結論:微調之旅
微調是一個復雜但強大的過程,如果操作正確,可以顯著提高生成式AI應用程序的效率。我們鼓勵您通過進一步的實驗來加深您的理解和技能。這可能涉及調整不同的超參數(shù)、試驗各種數(shù)據(jù)集或嘗試 OpenAI 提供的不同模型。