Jaeaiot捷易科技-日本在线一区二区三区-英伟达AI显卡模组/日本在线天堂/GPU整机服务器供应商

如何微調 GPT 以提高對話性能?GPT大模型微調指南全步驟詳解
發(fā)布時間: 2024-08-20 10:13

多年來,人工智能以各種形式盛行——從Alexa等虛擬助手到客戶服務聊天機器人——但隨著ChatGPT的推出,人工智能迎來了關鍵時刻。這款人工智能應用程序不僅吸引了數(shù)百萬人的想象力,還成為我們今天正在經(jīng)歷的人工智能革命的催化劑。最近的估計顯示,ChatGPT 的用戶群超過 1.8 億,它不僅是最受歡迎的人工智能應用程序,而且是全球使用最廣泛的應用程序之一。它還獲得了歷史上增長最快的消費者應用程序的稱號。


盡管 ChatGPT 具有非凡的功能,或者更具體地說是 GPT(為其提供支持的生成式預訓練 Transformer 模型)仍具有某些局限性,尤其是在商業(yè)環(huán)境中應用時。


了解 GPT 在商業(yè)應用中的局限性


GPT 的第一個限制是缺乏專業(yè)知識。正如預期的那樣,一個在龐大但通用的數(shù)據(jù)上訓練的模型不可能知道一切,尤其是考慮到人類知識的快速擴展。此外,GPT 的知識是靜態(tài)的,當訓練結束時就會終止。例如,最新的 GPT-4-o 模型的知識庫在 2023 年 10 月結束。


另一個重大限制涉及專有或機密數(shù)據(jù)的使用。GPT 可能無法完全理解組織的獨特數(shù)據(jù)格式或用戶特定請求,從而導致專業(yè)任務的效果不佳。此外,還有數(shù)據(jù)隱私方面的擔憂。OpenAI 利用輸入 GPT 的數(shù)據(jù)來訓練未來的模型,這意味著使用敏感數(shù)據(jù)的組織可能會無意中共享機密信息,從而可能違反數(shù)據(jù)隱私法規(guī)。


盡管如此,生成式 AI 的變革潛力(提高生產(chǎn)力和成本效率)已促使組織尋求將 GPT 等 LLM 集成到其專業(yè)工作流程中并安全地整合專有數(shù)據(jù)的方法。這就是微調發(fā)揮作用的地方。


如何微調 GPT 以提高對話性能?


微調:根據(jù)您的特定需求定制 GPT


微調是采用預先訓練好的語言模型,并在針對特定任務或知識領域的專用數(shù)據(jù)集上進一步訓練它的過程。初始預訓練階段涉及向模型提供來自不同來源的大量非結構化數(shù)據(jù)。相比之下,微調利用針對目標領域或任務的較小、更精心策劃和標記的數(shù)據(jù)集。


在本指南中,我們將引導您逐步了解針對對話數(shù)據(jù)微調 GPT 的過程。這包括訪問 OpenAI 的界面、上傳適當?shù)臄?shù)據(jù)集、選擇正確的模型、對其進行微調、監(jiān)控進度以及進行必要的調整。


步驟 1:設置開發(fā)環(huán)境


首先,您需要安裝 OpenAI SDK 來設置開發(fā)環(huán)境。我們將在本指南中使用 Python SDK 作為示例,但它也可以在 Node.js 和 .NET 中使用。此外,您還需要安裝python-dotenv來管理環(huán)境變量。


pip install openai python-dotenv

# For Python 3 and above

pip3 install openai python-dotenv


接下來,導入 OpenAI 類并創(chuàng)建一個客戶端對象來與 OpenAI 接口交互,該接口充當各種 API 調用的包裝器。


import os

from openai import OpenAI


client = OpenAI(

  api_key=os.environ['OPENAI_API_KEY'],

)


要訪問 OpenAI 的 API,您需要一個 API 密鑰,該密鑰可通過在 OpenAI 開發(fā)者平臺上注冊獲得。API 密鑰安全地存儲在一個.env文件中,可以使用os模塊訪問該文件,如上所示。


第 2 步:選擇正確的模型進行微調


設置好環(huán)境后,下一步是選擇要微調的模型。OpenAI 目前提供了幾種微調模型:


  • davinci-002

  • babbage-002

  • GPT-4-o-mini-2024-07-18

  • GPT-3.5-turbo


在研究OpenAI 的定價時,您會注意到,盡管最新模型 GPT-4-o-mini 是上下文長度最長的最新模型,但價格相對便宜,僅次于 babbage-002。成本較低的原因是 GPT-4-o-mini 是 GPT 的縮小版,參數(shù)更少,從而降低了計算需求。相比之下,GPT-3.5-turbo 和 davinci-002 是更大的模型,具有更多參數(shù)和更復雜的架構,這反映在它們更高的訓練成本上。最終,您選擇的模型應該符合您的特定對話需求和預算限制。


步驟 3:準備微調數(shù)據(jù)集


選擇模型后,下一個關鍵步驟是準備微調數(shù)據(jù)。在本指南中,我們將使用My_Custom_Conversational_DataHuggingFace 上提供的數(shù)據(jù)集,這是一個強大的 AI 開發(fā)資源平臺,包括數(shù)據(jù)集。


該數(shù)據(jù)集非常適合我們的微調場景,因為它包含廣泛的對話數(shù)據(jù),并且格式化為符合 OpenAI 的聊天完成 API 所需的結構 - 提示完成對,如下所示:


{"prompt": "<prompt text>", "completion": "<ideal generated text>"}

{"prompt": "<prompt text>", "completion": "<ideal generated text>"}


此外,該數(shù)據(jù)集已分為訓練和評估子集,省去了我們手動拆分的任務。這種劃分對于確保模型在微調和評估期間接觸不同的數(shù)據(jù)至關重要,這有助于防止過度擬合(即模型無法推廣到新的、未見過的數(shù)據(jù))。


要下載數(shù)據(jù)集,請使用以下命令從 HuggingFace 克隆其存儲庫:


git clone https://huggingface.co/datasets/Unified-Language-Model-Alignment/Anthropic_HH_Golden


步驟 4:上傳數(shù)據(jù)集進行微調


準備好數(shù)據(jù)集后,下一步是使用OpenAI 的文件 API上傳它們。下面是如何上傳訓練和評估數(shù)據(jù)集的示例,創(chuàng)建將在微調過程中使用的文件對象。


training_dataset = client.files.create(

  file=open("training.jsonl", "rb"),

  purpose="fine-tune"

)


evaluation_dataset = client.files.create(

  file=open("evaluation.jsonl", "rb"),

  purpose="fine-tune"

)


上傳成功后,返回的文件對象將包含一個id唯一標識該文件的屬性。


步驟 5:啟動微調過程


上傳數(shù)據(jù)集后,就可以使用微調 API 創(chuàng)建微調作業(yè)了。所需的主要參數(shù)是模型名稱和訓練文件的id。如果您還上傳了評估數(shù)據(jù)集,則可以將其包含在微調作業(yè)中,如下所示:


ft_job = client.fine_tuning.jobs.create(

  model="model_name",

  training_file=training_dataset.id,

  validation_file=evaluation_dataset.id,

)


您還可以指定超參數(shù),例如 epoch 數(shù)、批處理大小和學習率乘數(shù)。但是,建議允許 OpenAI 的 API 根據(jù)您首次運行的數(shù)據(jù)集大小自動配置這些設置。如果您希望手動設置這些參數(shù),您的代碼將如下所示:


ft_job = client.fine_tuning.jobs.create(

  model="model_name",

  training_file=training_dataset.id,

  validation_file=evaluation_dataset.id,

  hyperparameters={

    "n_epochs": 5,

    "batch_size": 16,

    "learning_rate_multiplier": 0.2

  }

)


一旦啟動,微調作業(yè)將返回一個包含 的作業(yè)對象id,這對于跟蹤作業(yè)的進度至關重要。完成后,您將收到一封電子郵件通知,但所需時間將根據(jù)模型和數(shù)據(jù)集大小而有所不同。


步驟 6:監(jiān)控微調過程


在微調過程中,您可以通過列出與您的作業(yè)相關的事件來監(jiān)控狀態(tài)。OpenAI 提供了幾個訓練指標:


  • 訓練損失:衡量模型預測值與訓練數(shù)據(jù)中的實際值之間的差異。損失越低,表示性能越好。

  • 訓練 token 準確率:訓練期間預測正確的 token 的百分比。

  • 驗證損失:評估模型在未見數(shù)據(jù)上的性能,表明其泛化能力。

  • 驗證令牌準確度:評估數(shù)據(jù)集上令牌預測的準確度。


您可以使用以下代碼檢索這些指標:


client.fine_tuning.jobs.list_events(

  fine_tuning_job_id=ft_job.id,

  limit=5

)


步驟 7:訪問和使用微調模型

微調作業(yè)完成后,可能需要一些時間才能完全訪問模型。如果模型無法立即使用,則可能仍在加載中。您可以使用其作業(yè)檢索微調后的模型id:


ft_retrieve = client.fine_tuning.jobs.retrieve(ft_job.id)

print(ft_retrieve)

該fine_tuned_model屬性現(xiàn)在將包含您定制的模型的名稱,并且該status屬性應該指示成功。


您現(xiàn)在可以通過在 GPT-3.5-turbo 和 GPT-4-o-mini 的聊天完成 API 中指定它或通過使用 babbage-002 或 davinci-002 的舊式完成 API 來使用此微調模型:


completion = client.chat.completions.create(

  model="your fine-tuned model",

  messages=[

    {"role": "system", "content": "You are a helpful assistant."},

    {"role": "user", "content": "Who won the 2024 World Series?"}

  ]

)


步驟 8:使用專有數(shù)據(jù)進行微調:確保隱私和安全


如果您使用專有或機密數(shù)據(jù)進行微調,則必須采取措施保護這些數(shù)據(jù),因為 OpenAI 可能會使用它來訓練未來的模型。降低這種風險的一種方法是使用 OpenAI 的非訓練端點:


completion = client.chat.completions.create(

  model="your fine-tuned model",

  messages=[

    {"role": "system", "content": "You are a helpful assistant."},

    {"role": "user", "content": "Who won the 2024 World Series?"}

  ],

  do_not_train=True

)


另一個有效的策略是采用data on-premises開源開發(fā)人員的解決方案,從而實現(xiàn)對數(shù)據(jù)處理管道的完全控制。


增強你的微調模型


測試微調模型后,您可能會發(fā)現(xiàn)其性能不太符合您的期望,或者不如您所希望的那樣一致。在這種情況下,是時候完善和增強您的模型了。OpenAI 提供了幾種方法來幫助您改進微調模型,重點關注三個關鍵領域:


1. 質量:增強微調數(shù)據(jù)


確保格式正確:仔細檢查所有數(shù)據(jù)點的格式是否正確。結構正確的數(shù)據(jù)對于模型的學習過程至關重要。

解決弱點:如果您的模型在特定提示上遇到困難,請整合數(shù)據(jù)點來展示模型應如何應對這些場景。這種有針對性的方法可以顯著提高性能。

多樣化數(shù)據(jù)集:確保您的數(shù)據(jù)集包含各種各樣的示例,這些示例可以準確反映您的模型可能遇到的各種提示和響應。多樣化的數(shù)據(jù)集有助于模型在不同場景中更好地泛化。


2. 數(shù)量:擴大數(shù)據(jù)集


復雜任務處理:任務越復雜,所需的數(shù)據(jù)集就越大。增加數(shù)據(jù)集大小有助于模型處理更廣泛的情況。

邊緣案例包含:通過擴展數(shù)據(jù)集,您更有可能包含非常規(guī)數(shù)據(jù)點或邊緣案例。這有助于模型更有效地學習概括,增強其處理意外輸入的能力。

防止過度擬合:更大的數(shù)據(jù)集也可以減輕過度擬合,因為模型有更多不同的數(shù)據(jù)可供學習,確保它捕捉到真正的底層關系,而不僅僅是記住正確的響應。


3.超參數(shù):微調訓練過程


調整微調作業(yè)的超參數(shù)是另一個關鍵步驟。以下是如何有效地調整它們:


歷元數(shù):

  • 如果出現(xiàn)以下情況則增加:模型在訓練和驗證數(shù)據(jù)上的表現(xiàn)均不佳(欠擬合),或者模型的損失正在減少但尚未穩(wěn)定(收斂緩慢)。

  • 如果:模型在訓練數(shù)據(jù)上表現(xiàn)良好,但在評估數(shù)據(jù)上表現(xiàn)不佳(過度擬合),或者在初始改進后損失增加(早期收斂),則減少。


學習率乘數(shù):

  • 如果模型收斂緩慢或者您正在處理特別大的數(shù)據(jù)集,則增加。

  • 如果模型的損失出現(xiàn)大幅波動(振蕩)或出現(xiàn)過度擬合的跡象,則減少。


批次大小:

  • 如果出現(xiàn)以下情況則增加:模型微調成功,允許使用更大的批量來加快進程,或者損失正在波動。

  • 如果:模型收斂得不太好,則減少,因為較小的批次可以幫助模型更徹底地學習數(shù)據(jù),或者盡管進行了其他調整,過度擬合仍然存在。


結論:微調之旅


微調是一個復雜但強大的過程,如果操作正確,可以顯著提高生成式AI應用程序的效率。我們鼓勵您通過進一步的實驗來加深您的理解和技能。這可能涉及調整不同的超參數(shù)、試驗各種數(shù)據(jù)集或嘗試 OpenAI 提供的不同模型。

粵公網(wǎng)安備 44030502006483號、 粵ICP備15047669號
  • 捷易科技聯(lián)系人
  • 主站蜘蛛池模板: 欧版反击式破碎机-欧版反击破-矿山石料破碎生产线-青州奥凯诺机械 | 细石混凝土泵_厂家_价格-烟台九达机械有限公司 | 环讯传媒,永康网络公司,永康网站建设,永康小程序开发制作,永康网站制作,武义网页设计,金华地区网站SEO优化推广 - 永康市环讯电子商务有限公司 | PE拉伸缠绕膜,拉伸缠绕膜厂家,纳米缠绕膜-山东凯祥包装 | 热熔胶网膜|pes热熔网膜价格|eva热熔胶膜|热熔胶膜|tpu热熔胶膜厂家-苏州惠洋胶粘制品有限公司 | 杭州顺源过滤机械有限公司官网-压滤机_板框压滤机_厢式隔膜压滤机厂家 | 广州小程序开发_APP开发公司_分销商城系统定制_小跑科技 | 电杆荷载挠度测试仪-电杆荷载位移-管桩测试仪-北京绿野创能机电设备有限公司 | 武汉EPS线条_EPS装饰线条_EPS构件_湖北博欧EPS线条厂家 | 拉力机-万能试验机-材料拉伸试验机-电子拉力机-拉力试验机厂家-冲击试验机-苏州皖仪实验仪器有限公司 | 电池挤压试验机-自行车喷淋-车辆碾压试验装置-深圳德迈盛测控设备有限公司 | 一体化隔油提升设备-餐饮油水分离器-餐厨垃圾处理设备-隔油池-盐城金球环保产业发展有限公司 | 江苏皓越真空设备有限公司| 苏州注册公司_苏州代理记账_苏州工商注册_苏州代办公司-恒佳财税 | 硬齿面减速机[型号全],ZQ减速机-淄博久增机械 | 衬氟旋塞阀-卡套旋塞阀-中升阀门首页| 冷却塔减速机器_冷却塔皮带箱维修厂家_凉水塔风机电机更换-广东康明冷却塔厂家 | 冷凝锅炉_燃气锅炉_工业燃气锅炉改造厂家-北京科诺锅炉 | 智能终端_RTU_dcm_北斗星空自动化科技 | 高压管道冲洗清洗机_液压剪叉式升降机平台厂家-林君机电 | 活动策划,舞台搭建,活动策划公司-首选美湖上海活动策划公司 | 标准品网_标准品信息网_【中检计量】 | 回转支承-转盘轴承-回转驱动生产厂家-洛阳隆达轴承有限公司 | 新材料分散-高速均质搅拌机-超声波分散混合-上海化烁智能设备有限公司 | CXB船用变压器-JCZ系列制动器-HH101船用铜质开关-上海永上船舶电器厂 | 代写标书-专业代做标书-商业计划书代写「深圳卓越创兴公司」 | 广东机电安装工程_中央空调工程_东莞装饰装修-广东粤标建设有限公司 | 分轨 | 上传文件,即刻分离人声和伴奏 | 艺术生文化课培训|艺术生文化课辅导冲刺-济南启迪学校 | 冷凝水循环试验箱-冷凝水试验箱-可编程高低温试验箱厂家-上海巨为(www.juweigroup.com) | 苗木价格-苗木批发-沭阳苗木基地-沭阳花木-长之鸿园林苗木场 | 烟台游艇培训,威海游艇培训-烟台市邮轮游艇行业协会 | 岛津二手液相色谱仪,岛津10A液相,安捷伦二手液相,安捷伦1100液相-杭州森尼欧科学仪器有限公司 | 车件|铜件|车削件|车床加工|五金冲压件-PIN针,精密车件定制专业厂商【东莞品晔】 | 进口便携式天平,外校_十万分之一分析天平,奥豪斯工业台秤,V2000防水秤-重庆珂偌德科技有限公司(www.crdkj.com) | 江苏远邦专注皮带秤,高精度皮带秤,电子皮带秤研发生产 | 泰安塞纳春天装饰公司【网站】 | 山东锐智科电检测仪器有限公司_超声波测厚仪,涂层测厚仪,里氏硬度计,电火花检漏仪,地下管线探测仪 | 2025世界机器人大会_IC China_半导体展_集成电路博览会_智能制造展览网 | 加热制冷恒温循环器-加热制冷循环油浴-杭州庚雨仪器有限公司 | 热处理温控箱,热处理控制箱厂家-吴江市兴达电热设备厂 |