自 ChatGPT 發(fā)布以來,大模型的強大讓人們看見了通用人工智能的曙光,各個科技大廠也紛紛開源自家的大語言模型。然而,大模型也意味著高昂的硬件成本,讓不少平民玩家望而卻步。
為了讓大模型走入千家萬戶,賦能百業(yè),上海人工智能實驗室開發(fā)了低成本大模型訓(xùn)練工具箱 XTuner,旨在讓大模型訓(xùn)練不再有門檻。通過 XTuner,最低只需 8GB 顯存,就可以打造專屬于你的 AI 助手。
X 種選擇
XTuner 提供了豐富的功能,上圖中的各項功能都可以隨意組合搭配。
除單點功能外,XTuner 還有以下三個黑科技,讓開發(fā)者可以做到真正的“面向數(shù)據(jù)”工作。
高效的數(shù)據(jù)引擎
XTuner 適配了多個熱門開源數(shù)據(jù)集格式,開發(fā)者如已有對應(yīng)格式的數(shù)據(jù)集,可以直接使用,并支持多種格式數(shù)據(jù)源的混合使用:
Alpaca 格式,斯坦福大學開源數(shù)據(jù)集的格式,也是社區(qū)開源項目使用較多的一種格式
MOSS 格式,復(fù)旦大學開源指令微調(diào)數(shù)據(jù)集的格式,包含多輪對話和工具調(diào)用
Gunacao 格式,QLoRA 項目中所使用數(shù)據(jù)集的格式
OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的數(shù)據(jù)集格式
更多數(shù)據(jù)集格式正在持續(xù)添加中......
pip install xtuner # 訓(xùn)練混合了 Alpaca 格式和 Gunacao 格式的數(shù)據(jù) xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3
除了支持多種數(shù)據(jù)集格式外,XTuner 還針對大語言模型數(shù)據(jù)的特點,對各種數(shù)據(jù)集格式做了充分的解耦,相較于其他的 Finetune 開源項目,可以在不破壞 Chat 模型對話模版的情況下,對 Chat 模型進行 Finetune。
pip install xtuner # 不破壞 Chat 模型對話模版,繼續(xù)增量指令微調(diào) xtuner train internlm_chat_7b_qlora_oasst1_e3
針對 GPU 計算特點,在顯存允許的情況下,XTuner 支持將多條短數(shù)據(jù)拼接至模型最大輸入長度,以此最大化 GPU 計算核心的利用率,可以顯著提升訓(xùn)練速度。例如,在使用 oasst1 數(shù)據(jù)集微調(diào) Llama2-7B 時,數(shù)據(jù)拼接后的訓(xùn)練時長僅為普通訓(xùn)練的 50%。
多種訓(xùn)練引擎
XTuner 首次嘗試將 HuggingFace 與 OpenMMLab 進行結(jié)合,兼顧易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 兩種訓(xùn)練引擎,開發(fā)者如有深度定制化需求,可根據(jù)使用習慣靈活配置。
pip install xtuner # 使用 MMEngine Runner 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3 # 使用 HugingFace Trainer 訓(xùn)練 xtuner train internlm_7b_qlora_oasst1_e3_hf
一鍵啟動訓(xùn)練
XTuner 內(nèi)置了增量預(yù)訓(xùn)練、單輪&多輪對話指令微調(diào)、工具類指令微調(diào)的標準化流程,讓開發(fā)者只需聚焦于數(shù)據(jù)本身。
同時, XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技術(shù),提供各種尺寸模型在各種規(guī)格硬件下的訓(xùn)練解決方案,通過 XTuner 一鍵式啟動訓(xùn)練,僅需 8GB 顯存即可微調(diào) 7B 模型。
pip install 'xtuner[deepspeed]' # 8G 顯存微調(diào) Llama2-7B xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2
基于此,開發(fā)者可以專注于數(shù)據(jù),其他環(huán)節(jié)放心交給 XTuner,抽出更多精力去奔向大模型的星辰大海!
X 種玩法
通過 XTuner,開發(fā)者可以給大模型添加插件,補足大模型欠缺的能力,甚至獲得某些 ChatGPT 才有的技能。
XTuner 在 HuggingFace Hub 上提供了豐富的大模型插件,以下示例都可以在 Hub 中找到,歡迎大家下載體驗!
ColoristLlama -- 你的專屬調(diào)色師
通過在少量顏色注釋數(shù)據(jù)集上對 Llama2-7B 進行指令微調(diào)訓(xùn)練,XTuner 成功解鎖了其調(diào)色能力。最終得到的模型甚至可以像“你的甲方”一樣反復(fù)修訂!
pip install xtuner xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist
Llama "聯(lián)網(wǎng)" -- 更可靠及時的回答
借助 XTuner 及插件開源數(shù)據(jù)集,我們還解鎖了 Llama 2、QWen 等開源模型的隱藏能力, 使其可以像 ChatGPT 一樣聯(lián)網(wǎng)搜索、調(diào)用工具,獲得更可靠的回復(fù)。
-
gpu
+關(guān)注
關(guān)注
27文章
4639瀏覽量
128474 -
顯存
+關(guān)注
關(guān)注
0文章
108瀏覽量
13633 -
大模型
+關(guān)注
關(guān)注
2文章
2225瀏覽量
2254
原文標題:8G顯存一鍵訓(xùn)練,解鎖Llama2隱藏能力!XTuner帶你玩轉(zhuǎn)大模型
文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論