0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python失寵!Hugging Face用Rust新寫(xiě)了一個(gè)ML框架

jf_WZTOguxH ? 來(lái)源:AI前線 ? 2023-08-11 16:24 ? 次閱讀

近期,Hugging Face 低調(diào)開(kāi)源了一個(gè)重磅 ML 框架:Candle。Candle 一改機(jī)器學(xué)習(xí)慣用 Python 的做法,而是 Rust 編寫(xiě),重點(diǎn)關(guān)注性能(包括 GPU 支持)和易用性。

根據(jù) Hugging Face 的介紹,Candle 的核心目標(biāo)是讓 Serverless 推理成為可能。像 PyTorch 這樣的完整機(jī)器學(xué)習(xí)框架非常大,這使得在集群上創(chuàng)建實(shí)例的速度很慢。Candle 允許部署輕量級(jí)二進(jìn)制文件。另外,Candle 可以讓用戶從生產(chǎn)工作負(fù)載中刪除 Python。Python 開(kāi)銷會(huì)嚴(yán)重影響性能,而 GIL 是眾所周知的令人頭疼的問(wèn)題。

Rust 真的可以嗎?

Pytorch 框架是用 Python 編寫(xiě)的,API 也是基于 Python 的,這讓用戶上手開(kāi)發(fā)會(huì)非???。另外,Python 本身就是一種簡(jiǎn)潔而易于學(xué)習(xí)的編程語(yǔ)言,很適合初學(xué)者和專業(yè)開(kāi)發(fā)者使用。

但基于 Python 的 Pytorch 框架問(wèn)題也很明顯。相對(duì)于一些靜態(tài)圖框架(如 TensorFlow),Python 在某些情況下可能會(huì)導(dǎo)致性能問(wèn)題。Python 的全局解釋器鎖(GIL)可能會(huì)在多線程的情況下影響性能,尤其是在涉及 CPU 密集型任務(wù)時(shí)。Python 的解釋性質(zhì)還可能會(huì)引入一些運(yùn)行時(shí)開(kāi)銷。另外,將基于 Python 的 PyTorch 模型部署到生產(chǎn)環(huán)境中可能需要一些額外的步驟,不如其他編譯型語(yǔ)言那么方便。

顯然,Hugging Face 一直在尋找解決辦法,它給出的答案是用時(shí)下最快的語(yǔ)言 Rust 重寫(xiě)一個(gè) ML 框架?!白羁岬氖?,這是來(lái)自 Hugging Face 的,不僅僅是某人的愛(ài)好項(xiàng)目。”有網(wǎng)友贊嘆道。實(shí)際上,許多 HF 生態(tài)系統(tǒng)已經(jīng)使用 Rust,例如 safetensors、tokenizer。

不過(guò),Rust 的難度也讓一些開(kāi)發(fā)者望而卻步,“編寫(xiě) Rust 是一件艱難的事情,你必須跳來(lái)跳去,花更多的時(shí)間思考編程語(yǔ)言的抽象,而不是思考要解決的問(wèn)題。所以,我現(xiàn)在還不著急重寫(xiě)任何 Python 的東西?!?/p>

開(kāi)發(fā)者“fooblaster”指出,Pytorch 部署模型有多個(gè)生產(chǎn)路徑無(wú)需 Python 解釋器,如 torchscript 和 libtorch,或是更煩人的路徑如 onnx export 和 onnx runtime,所以不需要 Rust 來(lái)解決這個(gè)問(wèn)題。另外很人知道,現(xiàn)在可以使用 C++ 編寫(xiě) Torch 訓(xùn)練代碼,并與推理和訓(xùn)練共享一種通用語(yǔ)言。

對(duì)此,開(kāi)發(fā)者“malcolmgreaves”表示,這些是使模型推理獨(dú)立于 Python 的偉大技術(shù)。然而,總是有大量的預(yù)處理、后處理或其他業(yè)務(wù)邏輯需要圍繞模型推理。這種事情需要在通用編程語(yǔ)言中完成,因此 Python 經(jīng)常被使用(因?yàn)橹С帜P偷拇a通常是由同一個(gè)人編寫(xiě)的,并且這些代碼很可能是 Python,因?yàn)槟哪P陀?xùn)練和 eval 代碼很可能也是 Python)。這就是非 Python PL(如 Rust)可以在簡(jiǎn)化生產(chǎn)部署 / 維護(hù)以及具有真正高效的生產(chǎn)推理方面發(fā)揮巨大作用的地方。

當(dāng)然,也有開(kāi)發(fā)者為 Python 打抱不平。

“任何編程語(yǔ)言在生產(chǎn)環(huán)境中都可能是一種痛苦。Python 的缺點(diǎn)之一也是它的優(yōu)點(diǎn)之一。使用 Python 或 JavaScript 等‘混亂’語(yǔ)言很容易陷入糟糕的生產(chǎn)環(huán)境,因此避免這些痛點(diǎn)的工具已經(jīng)非常成熟。有了這些,Python 在生產(chǎn)中就會(huì)變得很棒?!遍_(kāi)發(fā)者“devjab”進(jìn)一步表示,“是的,這將要求您的組織做出一些嚴(yán)肅的 CI 文化決策并強(qiáng)制執(zhí)行。但問(wèn)題是,雖然使用某些編程語(yǔ)言可以不必如此,但當(dāng)企業(yè)達(dá)到一定規(guī)模時(shí),總是會(huì)需要它們。因此,更早建立這個(gè)流程就會(huì)容易得多,而且如果您認(rèn)真使用 Python,早就會(huì)這樣做了。我認(rèn)為,如果在生產(chǎn)環(huán)境中工作很痛苦,那么問(wèn)題不在于技術(shù),而在于流程?!?/p>

實(shí)際上,業(yè)內(nèi)一直在努力解決 Python 帶來(lái)的問(wèn)題。

5 月份,LLVM 和 Swift 編程語(yǔ)言聯(lián)合創(chuàng)始人 Chris Lattner 創(chuàng)辦的新公司 Modular AI 發(fā)布了一個(gè)名為 Mojo 的新編程語(yǔ)言。Mojo 將 Python 特性與 C、C++ 和 CUDA 的系統(tǒng)編程功能結(jié)合了起來(lái),并通過(guò)其所謂“極限加速”與其他 Python 速度增強(qiáng)方案區(qū)分了開(kāi)來(lái)。據(jù)悉,憑借著硬件加速,Mojo 在運(yùn)行 Mandelbrot 等數(shù)字算法時(shí)比原始 Python 快上 3.5 萬(wàn)倍。

另一方面,Python 自身也在做改進(jìn)。最近,Python 終于宣布要?jiǎng)h GIL,Python 默認(rèn)版本將逐漸過(guò)渡到無(wú) GIL 版本。這一決定能否鞏固其在機(jī)器學(xué)習(xí)領(lǐng)域的地位,也需要時(shí)間驗(yàn)證。

與 PyTorch 對(duì)比

據(jù)悉,當(dāng)前 Candle 已經(jīng)支持如今的前沿模型,像 Llama2。經(jīng)過(guò)改寫(xiě)的模型,比如 Llama2 能夠方便、快速的運(yùn)行在容器環(huán)境,甚至可以運(yùn)行在瀏覽器中。Candle 結(jié)構(gòu)包括:

Candle-core:核心操作、設(shè)備和 Tensor 結(jié)構(gòu)定義。

Candle-nn:構(gòu)建真實(shí)模型的工具。

Candle-examples:在實(shí)際設(shè)置中使用庫(kù)的示例。

Candle-kernels:CUDA 自定義內(nèi)核;

Candle-datasets:數(shù)據(jù)集和數(shù)據(jù)加載器。

Candle-Transformers:與 Transformers 相關(guān)的實(shí)用程序。

Candle-flash-attn:Flash attention v2 層。

cd4f865e-3808-11ee-9e74-dac502259ad0.png

Pytorch 和 Candle 對(duì)比

該項(xiàng)目正在處于快速迭代過(guò)程中,更新非常頻繁,很多功能在不斷開(kāi)發(fā)中,目前包含如下功能和特點(diǎn):

語(yǔ)法簡(jiǎn)單, 風(fēng)格與 PyTorch 相似。

CPU 和 Cuda Backend:m1、f16、bf16。

支持 Serverless(CPU)、小型和快速部署

支持 WASM,可在瀏覽器中運(yùn)行模型。

模型訓(xùn)練

使用 NCCL 進(jìn)行分布式計(jì)算。

開(kāi)箱即用的模型:Llama、Whisper、Falcon、StarCoder...

嵌入用戶定義的操作 / 內(nèi)核,如 flash-attention v2。

對(duì)于 Hugging Face 的這一新 ML 框架,大家有什么感想或使用感受?歡迎在評(píng)論區(qū)分享!

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    397

    瀏覽量

    17369
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13091
  • Rust
    +關(guān)注

    關(guān)注

    1

    文章

    228

    瀏覽量

    6530

原文標(biāo)題:Python 失寵!Hugging Face 用 Rust 新寫(xiě)了一個(gè) ML框架,現(xiàn)已低調(diào)開(kāi)源

文章出處:【微信號(hào):AI前線,微信公眾號(hào):AI前線】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何使用 Llama 3 進(jìn)行文本生成

    服務(wù)。以下是主要的幾種方法: 方法:使用現(xiàn)成的API服務(wù) 許多平臺(tái)提供了LLaMA 3的API接口,例如Hugging Face的Transformers庫(kù)和Inference API
    的頭像 發(fā)表于 10-27 14:21 ?121次閱讀

    如何用Rust編寫(xiě)個(gè)ChatGPT桌面應(yīng)用(保姆級(jí)教程)

    為什么我們需要個(gè)桌面應(yīng)用 原因?qū)嵲谔?,我們需要便捷?導(dǎo)出 記錄,需要在回答長(zhǎng)度超長(zhǎng)的時(shí)候自動(dòng)加上“繼續(xù)”,需要 收藏 些很酷很實(shí)用的prompt...... (首先我假設(shè)你是
    的頭像 發(fā)表于 09-25 11:19 ?243次閱讀
    如何用<b class='flag-5'>Rust</b>編寫(xiě)<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>ChatGPT桌面應(yīng)用(保姆級(jí)教程)

    Hugging Face科技公司推出SmolLM系列語(yǔ)言模型

    7月22日最新資訊,Hugging Face科技公司在語(yǔ)言模型領(lǐng)域再創(chuàng)新高,正式推出了SmolLM系列——款專為適應(yīng)多樣計(jì)算資源而設(shè)計(jì)的緊湊型語(yǔ)言模型家族。該系列包含三個(gè)版本,分別搭
    的頭像 發(fā)表于 07-23 16:35 ?243次閱讀

    Python中的人工智能框架與實(shí)例

    在人工智能(AI)領(lǐng)域,Python因其簡(jiǎn)潔的語(yǔ)法、豐富的庫(kù)和強(qiáng)大的社區(qū)支持,成為了最受歡迎的編程語(yǔ)言之。本文將詳細(xì)介紹Python中的人工智能框架,并通過(guò)具體實(shí)例展示如何使用這些
    的頭像 發(fā)表于 07-15 14:54 ?1262次閱讀

    亞馬遜云攜手AI新創(chuàng)企業(yè)Hugging Face,提升AI模型在定制芯片計(jì)算性能

    Hugging Face作為家估值為45億美元的公司現(xiàn)已成為了眾多AI研究員和開(kāi)發(fā)者分享Chatbot和相關(guān)軟件的核心平臺(tái),受到亞馬遜、谷歌、英偉達(dá)等巨頭的青睞。
    的頭像 發(fā)表于 05-23 14:24 ?358次閱讀

    Hugging Face提供1000萬(wàn)美元免費(fèi)共享GPU

    全球最大的開(kāi)源AI社區(qū)Hugging Face近日宣布,將提供價(jià)值1000萬(wàn)美元的免費(fèi)共享GPU資源,以支持開(kāi)發(fā)者創(chuàng)造新的AI技術(shù)。這舉措旨在幫助小型開(kāi)發(fā)者、研究人員和初創(chuàng)公司,對(duì)抗大型AI公司的市場(chǎng)壟斷,推動(dòng)AI領(lǐng)域的公平競(jìng)
    的頭像 發(fā)表于 05-20 09:40 ?576次閱讀

    Hugging Face推出開(kāi)源機(jī)器人代碼庫(kù)LeRobot

    AI領(lǐng)域的佼佼者Hugging Face近日宣布重磅推出并全面開(kāi)源其機(jī)器人工具包——LeRobot。這創(chuàng)新工具包基于史上最大規(guī)模的眾包機(jī)器人數(shù)據(jù)集,為開(kāi)發(fā)者提供了
    的頭像 發(fā)表于 05-09 10:32 ?512次閱讀

    Python自動(dòng)化測(cè)試框架及其應(yīng)用

    Pytest是個(gè)非常成熟的全功能的Python測(cè)試框架,與python自帶的unittest測(cè)試框架
    的頭像 發(fā)表于 04-03 16:15 ?486次閱讀
    <b class='flag-5'>Python</b>自動(dòng)化測(cè)試<b class='flag-5'>框架</b>及其應(yīng)用

    ServiceNow、Hugging Face 和 NVIDIA 發(fā)布全新開(kāi)放獲取 LLM,助力開(kāi)發(fā)者運(yùn)用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    2024 年 2 月 28 日 - ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為系列用于代碼生成的開(kāi)放獲取大語(yǔ)言模型(LLM
    發(fā)表于 02-29 11:12 ?225次閱讀
    ServiceNow、<b class='flag-5'>Hugging</b> <b class='flag-5'>Face</b> 和 NVIDIA 發(fā)布全新開(kāi)放獲取 LLM,助力開(kāi)發(fā)者運(yùn)用生成式 AI 構(gòu)建企業(yè)應(yīng)用

    Transformers.js 2.13、2.14 發(fā)布,新增8個(gè)新的架構(gòu)

    請(qǐng)參閱此處了解可用模型的列表。首先,我們?cè)?Hugging Face Hub 上轉(zhuǎn)換了約 1140 個(gè)模型中的 12 個(gè)。如果其中沒(méi)有你想要的,可以使用我們的轉(zhuǎn)換腳本自行轉(zhuǎn)換。
    的頭像 發(fā)表于 01-23 16:31 ?1254次閱讀
    Transformers.js 2.13、2.14 發(fā)布,新增8<b class='flag-5'>個(gè)</b>新的架構(gòu)

    Python Web框架Django 5.0新特性

    根據(jù) JetBrains 公布的 2022 Python 開(kāi)發(fā)者調(diào)查結(jié)果,Python Web 框架的三巨頭依舊是 Flask、Django 和 FastAPI。Django 和 Flask 的使用率排名并列第
    的頭像 發(fā)表于 12-06 13:37 ?1055次閱讀

    python輸出list的每一個(gè)元素

    使用for循環(huán)來(lái)遍歷列表,并輸出其中的每一個(gè)元素。接下來(lái),我將詳盡、詳實(shí)、細(xì)致地介紹Python輸出列表的每一個(gè)元素的方法,希望能對(duì)你有所幫助。 首先,我們需要明確
    的頭像 發(fā)表于 11-21 16:16 ?1304次閱讀

    Hugging Face LLM部署大語(yǔ)言模型到亞馬遜云科技Amazon SageMaker推理示例

    Open Assistant Model,這是款由開(kāi)放助手計(jì)劃訓(xùn)練的開(kāi)源Chat LLM。 ?這個(gè)示例包括: 設(shè)置開(kāi)發(fā)環(huán)境 獲取全新Hugging Face LLM DLC 將開(kāi)放助手12B部署到
    的頭像 發(fā)表于 11-01 17:48 ?866次閱讀
    <b class='flag-5'>Hugging</b> <b class='flag-5'>Face</b> LLM部署大語(yǔ)言模型到亞馬遜云科技Amazon SageMaker推理示例

    使用Rust優(yōu)化Python性能

    在數(shù)據(jù)分析領(lǐng)域Python無(wú)疑是最流行的編程語(yǔ)言,但是Python個(gè)硬傷就是作為個(gè)編譯語(yǔ)言
    的頭像 發(fā)表于 11-01 15:59 ?803次閱讀
    使用<b class='flag-5'>Rust</b>優(yōu)化<b class='flag-5'>Python</b>性能

    Kivy :開(kāi)源跨平臺(tái)的Python 框架

    教你如何使用 Kivy 編寫(xiě)款乒乓球游戲。我們將從個(gè)基本的應(yīng)用程序開(kāi)始,描述創(chuàng)建這個(gè)游戲的每個(gè)步驟。 Kivy 是 Python
    的頭像 發(fā)表于 10-31 15:27 ?968次閱讀
    Kivy :開(kāi)源跨平臺(tái)的<b class='flag-5'>Python</b> <b class='flag-5'>框架</b>