0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA NeMo 如何支持對話式 AI 任務(wù)的訓練與推理?

NVIDIA英偉達企業(yè)解決方案 ? 來源:未知 ? 2023-05-11 20:16 ? 次閱讀

編輯推薦

大模型驅(qū)動的對話式 AI 正在引發(fā)新一輪的商業(yè)增量。對話式機器人正在不同領(lǐng)域發(fā)揮著越來越大的作用,幫助企業(yè)用戶解決客戶服務(wù)等難題,提高客戶的體驗。然而,盡管技術(shù)已經(jīng)趨近成熟,門檻大大降低,開發(fā)和運行可落地的語音人工智能服務(wù)仍然是一項復雜而艱巨的任務(wù),通常需要面臨實時性、可理解性、自然性、低資源、魯棒性等挑戰(zhàn)。

本期分享我們邀請到了NVIDIA 的解決方案架構(gòu)師丁文,分享如何使用 NVIDIA NeMo 進行對話式 AI 任務(wù)的訓練和推理,從而幫助開發(fā)者快速構(gòu)建、訓練和微調(diào)對話式人工智能模型。

本文轉(zhuǎn)載自DataFunSummit
01?

NeMo 背景介紹

1. NeMo 和對話式 AI 的整體介紹

NeMo 工具是一個用于對話式 AI 的深度學習工具,它可以用于自動語音識別( ASR,Automatic Speech Recognition)、自然語言處理(NLP,Natural Language Processing)、語音合成( TTS,Text to Speech)等多個對話式 AI 相關(guān)任務(wù)的訓練和推理。下面的這張圖給出了一個對話式 AI 的全流程。

9f2e0aa6-ec82-11ed-90ce-dac502259ad0.png

對話式 AI 的輸入是一個音頻,音頻首先會進入 ASR 模塊,ASR 模塊包括了特征提取、聲學模型、語言模型以及解碼器,識別出來的文本接著進入 NLU 模塊,根據(jù)不同的業(yè)務(wù)需求進行相應(yīng)的處理,如機器翻譯或者是 query 匹配等。以機器翻譯為例,我們將英文文本翻譯成中文文本,接著將中文文本輸入 TTS 模塊,最終輸出一個語音段。整個 pipeline 均可在 NeMo 中實現(xiàn)。NeMo 希望協(xié)助 AI 從業(yè)者利用已有的代碼或 pretrained模型,加快搭建語音語言相關(guān)的任務(wù)。整個 pipeline 的開始和結(jié)束分別是 ASR 和 TTS。這兩個部分屬于 speech AI 的一個領(lǐng)域,也是今天重點討論的范圍。

2. Speech AI—— ASR 的背景介紹

9f3ccff0-ec82-11ed-90ce-dac502259ad0.png

本節(jié)主要對 ASR 進行簡單的回顧和概述。ASR是將語音轉(zhuǎn)換成文字的一個過程。傳統(tǒng)的 ASR 建模方法是基于隱馬爾可夫( HMM )和混合高斯模型(GMM)進行建模。2015 年微軟首次將神經(jīng)網(wǎng)絡(luò)引入到語音識別建模當中,使用神經(jīng)網(wǎng)絡(luò)來建?;诮o定的音頻幀,HMM 狀態(tài)的后驗概率分布,并使用 HMM 進行混合解碼得到文本。

近些年,得益于算力和數(shù)據(jù)的豐富,端到端的 ASR 得到了廣泛的關(guān)注。端到端的 ASR 也使得整個語音建模過程的 pipeline 更加簡潔。上圖給出了一個典型 ASR 的 pipeline。輸入的語音首先進入特征提取和前處理模塊,以獲得頻譜特征。接著輸入到神經(jīng)網(wǎng)絡(luò)的聲學模型里。最后解碼器結(jié)合語言模型輸出一個文本。近年流行的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)包括 Wav2letter,DeepSpeech,LAS,Citrinet 以及現(xiàn)在非常熱門的 Conformer。常見的語音識別工具包括 Kaldi,它也是語音識別當中最重要的工具之一, NVIDIA 針對 Kaldi 做了一系列的優(yōu)化。Kaldi 主要支持 hybrid 系統(tǒng)及部分常見神經(jīng)網(wǎng)絡(luò)的訓練。第二類的工具是基于 PyTorch 或者是 Tensorflow 的開源工具,例如 OpenSeq2Seq、EspNet、WeNet 以及 NeMo。

3. NeMo 對 ASR 的支持

下面介紹 NeMo 目前支持的 ASR 的幾個方面。

9f45c54c-ec82-11ed-90ce-dac502259ad0.png

它主要支持的模型結(jié)構(gòu)包括傳統(tǒng)的 LSTM 以及由 NVIDIA 的 NeMo 團隊提出的 Jasper 家族(包括 Jasper,QuartzNet,Citrinet 等純 CNN 的結(jié)構(gòu)),以及現(xiàn)在比較主流的模型如 Conformer 和 Squeezeformer 等。

NeMo 支持 CTC 和 Transducer/RNNT 兩種,也是目前學術(shù)和工業(yè)界較為關(guān)注的兩種解碼器。語言模型方面,NeMo 支持 N-gram 進行 LM fusion 以及神經(jīng)網(wǎng)絡(luò)語言模型進行 Rescoring 兩種方式。此外,NeMo 也支持流式訓練及解碼,可以配置不同的 chunk size 來適配不同的業(yè)務(wù)需求。

02

案例:基于 NeMo 訓練 ASR 模型

1. ASR 的數(shù)據(jù)準備

9f4d33ae-ec82-11ed-90ce-dac502259ad0.png

本節(jié)中將以語音識別為例,介紹如何在 NeMo 里快速地搭建語音識別模型,會按照前面所提的語音 ASR 各個模塊逐一介紹。

NeMo 中通過配置 config 文件來使用不同的模塊和參數(shù)。首先,需要準備數(shù)據(jù)集的 manifest,它是一個JSON文件。例子如上圖所示,audio_filepath 需提供各條音頻地址。Duration 是音頻長度,text 是標注好的文本。我們也提供了不同數(shù)據(jù)集的預處理腳本,例如 Librispeech、中文數(shù)據(jù)集 Aishell-1/2 等。也可以使用 Kaldi2json 腳本將 Kaldi 格式的數(shù)據(jù)轉(zhuǎn)換成 NeMo 訓練所需要的格式。配置時需要指定 train,validation 和 test 三個部分。上圖右下角給出了示例 train_ds 的配置寫法。用戶根據(jù)自己數(shù)據(jù)的情況來進行相應(yīng)配置。它主要包括:manifest_filepath 音頻的路徑;采樣率 sample_rate,通常是 16K 或者是 8K;labels 為訓練時的建模單元;max_duration 是最大音頻長度,中文里我們通常選取 0.1 秒到 20 秒的長度區(qū)間,超過則會被丟棄。

NeMo 主要支持字(character)、子詞(subword)或者是 BPE(Byte Pair Encoding)作為建模單元。如上圖示例所示,左側(cè)一個子詞作為一個建模單元,右側(cè)是一個字作為單元。若我們以字作為建模單元,則需要在 labels 處指定字典即可。若我們以子詞、BPE 作為建模單元,則需要在 config 中指定對應(yīng)的 tokenizer。我們也提供從文本中獲得 tokenizer 的腳本。詳見圖片下方的鏈接,可以直接用來獲取根據(jù)個人數(shù)據(jù)訓練出的 tokenizer。

2. 特征和增強

9f5e0eae-ec82-11ed-90ce-dac502259ad0.png

準備好數(shù)據(jù)后,首先需要做特征提取,將語音段轉(zhuǎn)換成特征例如梅爾譜或者是 MFCC 特征。NeMo 中用于特征提取模塊有兩個:使用 AudioToMelSpectrogramPreprocessor 提取梅爾譜或者使用 AudioToMFCCPreprocessor 提取 MFCC 特征。上圖右邊給出了一個示例。如使用梅爾譜特征,需要在 preprocessor 模塊的 target 部分賦值為 AudioToMelSpectrogramPreprocessor。此外,在 ASR 中常用的特征增強與數(shù)據(jù)增強的方式,NeMo 也是支持的。例如 Spec Augmentation,只需在target 處賦值為 SpectrogramAugmentation 即可。NeMo 也支持其他的數(shù)據(jù)增強方式,包括 Speed perturbation 等。

3. 模型結(jié)構(gòu)

9f6678be-ec82-11ed-90ce-dac502259ad0.png

處理好特征后,接下來介紹 NeMo 中如何配置神經(jīng)網(wǎng)絡(luò)模型。以 Conformer 為例,主要的配置是在 encoder 部分。將 target 設(shè)置成 ConformerEncoder。我們可以通過配置不同的 number of layers(n_layers) 和 dimension(d_model) 來構(gòu)建不同參數(shù)量的 Conformer 模型。也可以通過配置 self-attention 相關(guān)參數(shù),如 number of heads(n_heads),以直接調(diào)整參數(shù)量。同時也支持相對位置編碼。

NeMo 支持流式的訓練和解碼。在這里我們可以通過配置 att_context_size 來調(diào)整。[-1,-1] 表示左右可以看到的長度為無限長,所以此處是一個離線模型的配置。

右圖給出了當前 NeMo ASR 支持的全部模型,以及任務(wù)的配置文件的列表。比如想訓練一個 Conformer 模型,只需要點開 Conformer 的 folder 就可以看到現(xiàn)在可以支持哪些配置。

9f716a94-ec82-11ed-90ce-dac502259ad0.png

NeMo 支持CTCRNN-Transducer兩種 decoder。如果使用的是 CTC loss,需在 decoder 部分的 target 處設(shè)置成 Conv ASR Decoder。num_classes 指字典或者是 BPE 的詞表大小。如果使用 RNN Transducer loss,需在 decoder 的 target 處設(shè)置為 RNNT Decoder,同時需要配置 prediction network(prednet) 的 hidden size(pred_hidden)和 number of layers(pred_rnn_layers),同時還需要配置 joint network。如上圖右側(cè)所示,前往 conformer 文件夾下可以看我們能夠同時支持 CTC 和 Transducer 的 loss,character 和 BPE 的建模基本單元。另外,若需訓練流式 conformer 模型,只需前往 streaming 文件夾內(nèi)便可看到如何操作。

4. Conformer-CTC 配置

9f77934c-ec82-11ed-90ce-dac502259ad0.png

結(jié)合上面的介紹,如果想啟動一個基于 Conformer CTC 的語音識別模型訓練,只需前往 NeMo 的 git 倉庫內(nèi) examples/ ASR /conf/conformer,選擇 conformer_ctc_char.yaml,即可進行相應(yīng)的配置。需要自行指定的部分,包括最重要的 Dataset。默認 Spec Augment 是開啟的。默認 Decoder 是 CTC(因為前面選擇了 CTC 配置)。默認的優(yōu)化器是 Adam。訓練使用 PyTorch Lightning。訓練時可以指定 GPU 還是 CPU、以及最大的 epoch。此外,其他的訓練配置可以在 Exp_manager 里面進行設(shè)置。

5. 訓練和評估

9f80abb2-ec82-11ed-90ce-dac502259ad0.png

配置完成后,便可以啟動訓練。只需要調(diào)用 Python 腳本 examples/ASR/ASR_ctc/speech_to_text_ctc.py。config-name 需要設(shè)置成前面配置好的 conformer_ctc_char.yaml。

如果有一些其他參數(shù)需要配置或者是替代,可以在啟動訓練時給定一個值。如想替換訓練數(shù)據(jù)集 manifest 的地址,以及指定訓練的具體某個 GPU,如果想使用混合精度訓練,只需將 trainer.precision 設(shè)置成 16,它就會用 FP32 和 FP16 的混合精讀訓練來加速整個訓練流程。

訓練好模型后,需要測試評估,主要使用 speech_to_text_eval.py 文件,可以把訓練好的 NeMo 的 checkpoint 填入 model_path。dataset_manifest 填入希望去測試的一個集合,格式也是 JSON 文件。如果 metrics 是 CER,這里需要配置 user_cer=True。這樣即可使用 CER 來衡量語音識別模型的性能。

6. 部署

9f8b96b2-ec82-11ed-90ce-dac502259ad0.png

NeMo 具有可以直接部署的方案。NeMo 首先可以支持直接導出到 ONNX。NVIDIA 也有提供相應(yīng)的模型部署的方案,主要是使用 Riva 這個產(chǎn)品。Riva 使用的是 NVIDIA TensorRT 加速神經(jīng)網(wǎng)絡(luò)模型,并且使用 NVIDIA Triton 進行服務(wù)。訓練好的 NeMo 模型是可以直接使用 NeMo2riva 命令進行轉(zhuǎn)換,從而可以在 Riva 中使用該模型。Riva 中的 ASR 部分也提供流式解碼功能,可以滿足不同的業(yè)務(wù)的需求。

03

?中文支持

1. NeMo 內(nèi)的中文模型及應(yīng)用

9f97f3b2-ec82-11ed-90ce-dac502259ad0.png

下面主要介紹 NeMo 里中文語音支持的情況。首先在 ASR 部分提供了 Aishell-1 和 Aishell-2 兩個預處理的腳本,以及一些 pretrained 的模型,包括 Citrinet-CTC 和 Conformer-Transducer。大家可以去 NGC 下載預訓練好的模型進行測試或 finetune。上圖也給出了現(xiàn)在 Conformer transducer 在 Aishell-2 的性能??傮w表現(xiàn)較好。此外,如果想使用其他的網(wǎng)絡(luò)結(jié)構(gòu),只需要在配置文件的 labels 處替換成相應(yīng)的字典或者是 BPE 詞表即可。NeMo 加入了對中文的文本正則化的支持(基于 WFST),便于使用者對于一些中文數(shù)據(jù)的預處理。此外,中文的 TTS 也在計劃支持中。

2. Riva 內(nèi)的中文模型及應(yīng)用

9fa2364c-ec82-11ed-90ce-dac502259ad0.png

Riva 主要是支持 Citrinet-CTC 和 Conformer-CTC 兩種 ASR 的模型,支持 N-gram LM fusion 的解碼方式,也支持中文標點模型。

04

NeMo 對其他 Speech AI 相關(guān)應(yīng)用的支持

接下來需要討論的是,已經(jīng)有了一個 ASR 模型,正式去搭建一個語音識別服務(wù)時,還需要 Speech AI 其他的哪些功能。

1. 語音端點檢測

9fad2d54-ec82-11ed-90ce-dac502259ad0.png

首先需要一個VAD(Voice Activity Detection)模塊。VAD 是語音端點檢測,可以檢測出音頻中的人聲段,通常是很多語音識別任務(wù)的前置模塊,用來過濾出有效的人聲段。它能夠節(jié)省很多資源,使 ASR 或者后續(xù)的其他語音任務(wù)更加高效,同時面對不同噪聲能夠更加魯棒,讓 ASR 能夠 focus 在識別的任務(wù)本身。它可以看作是把音頻判斷出 Label 為“是人聲”和“不是人聲”的一個二分類任務(wù)。在 NeMo 中,我們主要使用的 VAD 模型是 MarbleNet。它的結(jié)構(gòu)見上圖右側(cè),它也是 Jasper 家族的一個變種,一個純卷積網(wǎng)絡(luò)的結(jié)構(gòu),它達到了在 AVA speech 數(shù)據(jù)集上的一個 SOTA 的結(jié)果。并且使用了更少的參數(shù)量,取得了更好的性能表現(xiàn)。

2. 說話人日志

9fb807ce-ec82-11ed-90ce-dac502259ad0.png

第二個要介紹的 speech AI 任務(wù)是Speaker Diarization,即說話人日志。它主要想解決的問題是 ” who spoke when?” (什么人在什么時候說話了?)。即給定一段音頻,需要給出屬于不同說話人的音頻段,以及相應(yīng)的時間戳。這個任務(wù)在很多場景中都有應(yīng)用,例如在會議轉(zhuǎn)寫場景里面,SD 模塊可給出不同參會者所說出的音頻段。

上圖右側(cè)給出了 SD 和 ASR 結(jié)合的示例。最上側(cè)是一個語音識別模塊所做的事情,它識別出了音頻中對應(yīng)的文本。最下側(cè)是 SD 模塊,它需要給出 speaker1 說了 “hey” 和 “quite busy” 兩段音頻,speaker2 說了 “how are you”,并且給出了對應(yīng)話的在音頻段中的開始和結(jié)束時間點。SD 模塊可以在原始的 ASR 識別出的文本中加入說話人的信息,能夠捕捉到不同說話人的特征,并且區(qū)分錄音中哪一段屬于哪個說話人。它通過提取說話人的語音特征,統(tǒng)計說話人的數(shù)量,將音頻的片段分配給對應(yīng)的說話人,得到一個索引。

9fd13532-ec82-11ed-90ce-dac502259ad0.png

接下來展示 NeMo 中 Speaker Diarization 是如何實現(xiàn)的。上圖展示了它的 pipeline。首先是一個前置的 VAD 模塊,會從一個長音頻中檢測出各個人聲段的開始和結(jié)束。第二步進行說話人的 Embedding 提取。NeMo 當中采用的模型就是 TitaNet,也是在最新發(fā)表在 ICASSP 2022 的論文里提出的模型,根據(jù)聲學特征來提取說話人的信息。接下來是聚類模塊,它對提取完畢的說話人的 Embedding 進行聚類,分成不同的類別。

最后一步,我們需要將前面的信息進行匯總,來得到不同的說話人時間戳信息。NeMo 中采用的是 Multi-scale Speaker Diarization 的方式,這也是在我們最新發(fā)表在 InterSpeech 2022 的論文內(nèi)容,感興趣的同學可以看一下。

3. NeMo 提供的 SD 開源資源

9fdd8224-ec82-11ed-90ce-dac502259ad0.png

上圖中給出了 Speaker Diarization 方向目前由 NeMo 開源出來的 pretrained 模型,包括基于不同數(shù)據(jù)訓練出來的 VAD 模型,以及提取說話人 Embedding 特征 的 Titanet 和 Ecapa_tdnn。前文提到的 Multi-scale Speaker Diarization 模型,也進行了開源,大家可以到對應(yīng)的 NGC 鏈接來下載相應(yīng)的模型進行測試和 finetune。

05

?問答環(huán)節(jié)

Q1:Kaldi 單機多卡訓練問題,如何避免任務(wù)互相搶占?

A1:把 GPU 的模式設(shè)成 Exclusive status,他就不會發(fā)生任務(wù)互相搶占。

Q2:對中文 TTS 的支持情況如何?

A2:應(yīng)該是年底就會完成支持。我們已經(jīng)在去推進這個事情了。

Q3:有什么通用的數(shù)據(jù)集,如果強行的把詞表放在 GPU 顯存,會不會給不夠?

A3:我們現(xiàn)在 NeMo 里面中文用的是漢字,大概是 5000 個常用字(最核心的應(yīng)該是 3000 個左右),其實 GPU 是可以放下的。

Q4:MarbleNet 的資源消耗和并發(fā)情況如何,以及模型的大???

A4:它的模型非常小,可能幾百 k。其實在 Riva 里面已經(jīng)支持了 MarbleNet,集成到整個 pipeline 當中。

Q5:NeMo 的 ASR、VAD、SD 如何同時使用,有相關(guān)的腳本嗎?

A5:有的,在 NeMo 的 tutorial 里面有這樣的一個示例,怎么把 VAD 加 SD 串聯(lián)起來。

Q6:什么是預訓練模型?用預訓練模型后怎么操作可以快速地滿足業(yè)務(wù)應(yīng)用語音識別的需求?

A6:比如我們在 Aishell-2 上面訓練了一個 Conformer,然后把 Conformer 模型開源出來,大家就可以再根據(jù)自己數(shù)據(jù)的情況或者業(yè)務(wù)的情況,把它作為一個初始的模型來做 finetune,這樣會加速整個模型的迭代和收斂的速度。方便大家做后續(xù)的任務(wù)。

Q7:在 NeMo 的 pipeline 中,后處理的部分,CTC 測試部分,是用的 GPU 還是 CPU?

A7:我們現(xiàn)在 language model 的 fusion 是放在 CPU 上的,但我們其實也有一些 GPU 的解決方案。

Q8:具備對齊功能嗎?效果如何?

A8:沒有的,因為我們支持的是 CTC 和 RNNT,沒有 hybrid 系統(tǒng)里面的 alignment。

Q9:去噪模型有相應(yīng)的成果嗎?比如預訓練模型。

A9:我們默認 Spec Augmentation 都是加的,但是其他的一些數(shù)據(jù)增強的方式,比如混響,加噪和變速默認都是沒有開的。我們的 pretrained 模型一般都是加了 Spec Augmentation 的。

Q10:看大 NeMo 還支持 NLP 相關(guān)的任務(wù),請問如果是做關(guān)系抽取應(yīng)該怎么配置?

A10:關(guān)系抽取,NLP 上面的一些任務(wù),大家可以直接去 NeMo 的 Github官網(wǎng)上面看。它的 README 里面有寫目前支持的模型以及方法。

Q11:ASR 同一模型可以在 inference 時設(shè)置 chunk size 同時滿足流式和離線嗎?

A11:在 inference 的時候,chunk size 需要設(shè)置成固定的,是不支持動態(tài)的加 chunk size 的。

Q12:NeMo 對變長的輸入會做什么特殊處理嗎?

A12:沒有什么特殊處理。我們一般在訓練時會對數(shù)據(jù)做一次排序,這樣每個 batch 的長度是基本一致的,padding 就不會打得長度不一致。基本上每個 batch 大小是比較固定的,能夠提高吞吐和訓練速度。

今天的分享就到這里,謝謝大家。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英偉達
    +關(guān)注

    關(guān)注

    22

    文章

    3684

    瀏覽量

    90497

原文標題:NVIDIA NeMo 如何支持對話式 AI 任務(wù)的訓練與推理?

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMoNVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進的指導和獎勵模型,以及一個用于生成
    的頭像 發(fā)表于 09-06 14:59 ?216次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron-4 340B模型幫助開發(fā)者生成合成<b class='flag-5'>訓練</b>數(shù)據(jù)

    Mistral AINVIDIA推出全新語言模型Mistral NeMo 12B

    Mistral AINVIDIA 于近日共同發(fā)布了一款全新的領(lǐng)先語言模型Mistral NeMo 12B。開發(fā)者可以輕松定制和部署該模型,令其適用于支持聊天機器人、多語言
    的頭像 發(fā)表于 07-27 11:04 ?587次閱讀

    NVIDIA攜手Meta推出AI服務(wù),為企業(yè)提供生成AI服務(wù)

    NVIDIA近日宣布了一項重大舉措,正式推出NVIDIA AI Foundry服務(wù)與NVIDIA NIM(NVIDIA Inference
    的頭像 發(fā)表于 07-25 16:57 ?442次閱讀

    英偉達推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?611次閱讀

    進一步解讀英偉達 Blackwell 架構(gòu)、NVlink及GB200 超級芯片

    成為處理萬億參數(shù)生成AI模型的理想選擇。 NVL72 機架級系統(tǒng)支持萬億參數(shù) LLM 訓練和實時推理 GB200 NVL72 的機架級設(shè)計
    發(fā)表于 05-13 17:16

    AI推理,和訓練有什么不同?

    如果要用一句話概括AI訓練推理的不同之處,我覺得用“臺上一分鐘,臺下十年功”最為貼切。話說小明已經(jīng)和心目中的女神交往數(shù)年,在邀約女神出門這件事上積累了大量的經(jīng)驗數(shù)據(jù),但卻依然捉摸不透其中的玄機
    的頭像 發(fā)表于 04-29 08:06 ?210次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>,和<b class='flag-5'>訓練</b>有什么不同?

    利用NVIDIA組件提升GPU推理的吞吐

    本實踐中,唯品會 AI 平臺與 NVIDIA 團隊合作,結(jié)合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)將
    的頭像 發(fā)表于 04-20 09:39 ?576次閱讀

    使用NVIDIA Triton推理服務(wù)器來加速AI預測

    這家云計算巨頭的計算機視覺和數(shù)據(jù)科學服務(wù)使用 NVIDIA Triton 推理服務(wù)器來加速 AI 預測。
    的頭像 發(fā)表于 02-29 14:04 ?508次閱讀

    NVIDIA 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供訓練支持

    GPU 和海量的數(shù)據(jù)集上所訓練而成。 不過這可能會給想要使用生成 AI 的企業(yè)帶來很多巨大的挑戰(zhàn)。 NVIDIA NeMo (一個用于構(gòu)
    的頭像 發(fā)表于 11-29 21:15 ?482次閱讀
    <b class='flag-5'>NVIDIA</b> 為部分大型亞馬遜 Titan 基礎(chǔ)模型提供<b class='flag-5'>訓練</b><b class='flag-5'>支持</b>

    NVIDIA 通過企業(yè)級生成 AI 微服務(wù)為聊天機器人、AI 助手和摘要工具帶來商業(yè)智能

    Cadence、Dropbox、SAP、ServiceNow 率先使用 NVIDIA NeMo Retriever 優(yōu)化語義檢索,實現(xiàn)準確的 AI 推理
    的頭像 發(fā)表于 11-29 21:05 ?558次閱讀

    NVIDIA 通過企業(yè)級生成 AI 微服務(wù) 為聊天機器人、AI 助手和摘要工具帶來商業(yè)智能

    Cadence、Dropbox、SAP、ServiceNow 率先使用 NVIDIA NeMo Retriever 優(yōu)化語義檢索,實現(xiàn)準確的 AI 推理 ? ? 亞馬遜云科技 re:I
    發(fā)表于 11-29 14:37 ?238次閱讀
    <b class='flag-5'>NVIDIA</b> 通過企業(yè)級生成<b class='flag-5'>式</b> <b class='flag-5'>AI</b> 微服務(wù) 為聊天機器人、<b class='flag-5'>AI</b> 助手和摘要工具帶來商業(yè)智能

    NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的生成 AI Foundry 服務(wù)

    應(yīng)用。 這項 NVIDIA AI foundry 服務(wù)整合了? NVIDIA AI Foundation Models 、 NVIDIA
    的頭像 發(fā)表于 11-16 21:15 ?463次閱讀

    NVIDIA 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的 生成 AI Foundry 服務(wù)

    Models、NVIDIA NeMo? 框架和工具,以及 NVIDIA DGX? 云 AI 超算服務(wù)三大要素,為企業(yè)提供創(chuàng)建自定義生成
    發(fā)表于 11-16 14:13 ?298次閱讀
    <b class='flag-5'>NVIDIA</b> 在 Microsoft Azure 上推出面向全球企業(yè)和初創(chuàng)公司的 生成<b class='flag-5'>式</b> <b class='flag-5'>AI</b> Foundry 服務(wù)

    利用 NVIDIA Jetson 實現(xiàn)生成 AI

    近日,NVIDIA 發(fā)布了 Jetson 生成 AI 實驗室(Jetson Generative AI Lab),使開發(fā)者能夠通過 NVIDIA
    的頭像 發(fā)表于 11-07 21:25 ?852次閱讀
    利用 <b class='flag-5'>NVIDIA</b> Jetson 實現(xiàn)生成<b class='flag-5'>式</b> <b class='flag-5'>AI</b>

    周四研討會預告 | 注冊報名 NVIDIA AI Inference Day - 大模型推理線上研討會

    由 CSDN 舉辦的 NVIDIA AI Inference Day - 大模型推理線上研討會,將幫助您了解 NVIDIA 開源大型語言模型(LLM)
    的頭像 發(fā)表于 10-26 09:05 ?308次閱讀