0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

開發(fā)和部署ML模型介紹

jf_pJlTbmA9 ? 來源:NVIDIA ? 作者:NVIDIA ? 2023-07-05 16:30 ? 次閱讀

本系列介紹 開發(fā)和部署 ( M L ) 模型 。本文概述了 ML 工作流,考慮到使用機(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)來實(shí)現(xiàn)業(yè)務(wù)價(jià)值所涉及的各個(gè)階段。在第 2 部分中,訓(xùn)練并保存 ML 模型 可以將其部署為 ML 系統(tǒng)的一部分。第 3 部分向您展示了 如何部署 ML 模型到 Google 云平臺(tái) ( GCP )。

當(dāng)使用 machine learning 解決問題并提供業(yè)務(wù)價(jià)值時(shí),您使用的技術(shù)、工具和模型會(huì)根據(jù)用例而變化。然而,當(dāng)從一個(gè)想法轉(zhuǎn)移到一個(gè)已部署的模型時(shí),需要經(jīng)過一組通用的工作流階段。

之前,我討論過 如何搭建機(jī)器學(xué)習(xí)微服務(wù) 和 如何使用 Streamlit 和 FastAPI 構(gòu)建即時(shí)機(jī)器學(xué)習(xí) Web 應(yīng)用程序 。在這兩個(gè)教程中, ML 模型僅在本地運(yùn)行。這對(duì)于演示來說已經(jīng)足夠了,但如果您的模型必須在互聯(lián)網(wǎng)上持續(xù)提供預(yù)測(cè),則這是不切實(shí)際的。

機(jī)器學(xué)習(xí)工作流

ML 工作流包含以下主要組件:

勘探和數(shù)據(jù)處理

建模

部署

每個(gè)階段都可以細(xì)分為更小的程序。

ml-workflow-udacity-625x337.png 圖 1. 機(jī)器學(xué)習(xí)工作流
(Source: Become a Machine Learning Engineer Nanodegree (Udacity) )

圖 1 顯示了典型機(jī)器學(xué)習(xí)項(xiàng)目的端到端工作流的可視化表示。下面是有關(guān)每個(gè)組件的更多信息。

勘探和加工

重要的工作是確保用于 ML 項(xiàng)目的數(shù)據(jù)集質(zhì)量良好,因?yàn)檫@些數(shù)據(jù)是建模階段可靠性能的基礎(chǔ)。如果您向模型提供低質(zhì)量的數(shù)據(jù),則可能會(huì)產(chǎn)生較差或錯(cuò)誤的結(jié)果。

這部分工作流程通常占用最多的時(shí)間。數(shù)據(jù)勘探和處理可進(jìn)一步分為以下幾個(gè)階段:

Data retrieval : ML 項(xiàng)目需要高質(zhì)量的數(shù)據(jù),而這些數(shù)據(jù)并不總是可以立即訪問的。您可能需要實(shí)施數(shù)據(jù)采集技術(shù),例如刮取或手動(dòng)數(shù)據(jù)采集。

數(shù)據(jù)清理和探索 :數(shù)據(jù)也很少能夠立即處理。您必須對(duì)其進(jìn)行清理,以在所需的用例中獲得最佳性能。您還應(yīng)該了解正在使用的數(shù)據(jù)集,因此需要進(jìn)行探索。

數(shù)據(jù)準(zhǔn)備或轉(zhuǎn)換 :在最后階段,對(duì)數(shù)據(jù)進(jìn)行設(shè)計(jì),以提取正在解決的現(xiàn)實(shí)世界問題的代表性特征。然后將數(shù)據(jù)轉(zhuǎn)換為 ML 模型可以使用的格式。

建模

當(dāng)大多數(shù)數(shù)據(jù)從業(yè)者想到機(jī)器學(xué)習(xí)時(shí),他們的注意力都集中在建模組件上。建模階段包括以下階段:

模型開發(fā)和培訓(xùn) :這一階段是關(guān)于向機(jī)器學(xué)習(xí)模型提供數(shù)據(jù),然后調(diào)整超參數(shù),以便模型可以很好地推廣到不可見的數(shù)據(jù)輸入。

模型驗(yàn)證和評(píng)估 :必須評(píng)估機(jī)器學(xué)習(xí)模型的性能,以確定其行為是否符合預(yù)期。這涉及到確定一個(gè)數(shù)字度量,以評(píng)估模型對(duì)未知數(shù)據(jù)輸入的性能。

模型部署

最后,部署階段涉及使最終用戶可以訪問 ML 模型,監(jiān)控模型在生產(chǎn)中的性能,并更新模型。

部署 ML 模型不僅僅是孤立的模型。數(shù)據(jù)從業(yè)者部署整個(gè) ML 管道,這決定了如何編碼和自動(dòng)化端到端工作流。

如何實(shí)現(xiàn)這一點(diǎn)有幾個(gè)選項(xiàng)。

不同的模型部署選項(xiàng)

生成 ML 應(yīng)用程序是為了解決特定問題。因此,任何 ML 應(yīng)用程序的真正價(jià)值通常只有在模型或算法在生產(chǎn)環(huán)境中被積極使用時(shí)才能實(shí)現(xiàn)。

將 ML 模型從離線研究環(huán)境轉(zhuǎn)換到實(shí)時(shí)生產(chǎn)環(huán)境的過程稱為 deployment 。

部署是 ML 工作流的一個(gè)關(guān)鍵組件。它使模型能夠達(dá)到其預(yù)期目的。在項(xiàng)目規(guī)劃階段,必須考慮如何部署 ML 模型。在決定部署類型時(shí)要考慮的因素超出了本文的范圍。然而,我提供了一些關(guān)于可用選項(xiàng)的見解。

Web 服務(wù)

部署機(jī)器學(xué)習(xí)模型最直接的選擇是創(chuàng)建 web 服務(wù)。這意味著通過查詢 web 服務(wù)來獲得來自模型的預(yù)測(cè)。

使用 web 服務(wù)部署機(jī)器學(xué)習(xí)模型包括以下主要步驟:

Building the model: 必須創(chuàng)建 ML 模型,然后將其包裝在 web 服務(wù)中。然而,模型構(gòu)建通常需要與主 web 服務(wù)應(yīng)用程序不同的一組資源。將模型培訓(xùn)和 web 服務(wù)應(yīng)用程序環(huán)境分開是有意義的。

構(gòu)建 web 應(yīng)用程序: 訓(xùn)練模型后,必須將其持久化,以便將其導(dǎo)入 web 應(yīng)用程序。 web 應(yīng)用程序是使用開發(fā) web 服務(wù)的框架(如 Flask 、 FastAPI 和 Django )包裝的推理邏輯。

托管 web 服務(wù): 為了讓您的 web 服務(wù)全天候、自動(dòng)化和可擴(kuò)展,您必須托管應(yīng)用程序。這可以通過使用托管提供商來完成。在本系列的第三部分中,您將使用 Google App Engine 。

有關(guān)前兩個(gè)步驟的更多信息,請(qǐng)參見 Building a Machine Learning Microservice with FastAPI 。

無服務(wù)器計(jì)算

使用無服務(wù)器計(jì)算部署機(jī)器學(xué)習(xí)模型意味著您希望為模型預(yù)測(cè)提供服務(wù),而不必?fù)?dān)心如何管理底層基礎(chǔ)設(shè)施,例如計(jì)算資源。

仍然有一個(gè)服務(wù)器。所發(fā)生的一切是,您將管理服務(wù)器的責(zé)任交給了云提供商?,F(xiàn)在,您可以更加專注于編寫性能更好的代碼。

無服務(wù)器計(jì)算提供程序的示例包括:

Amazon Web Services (AWS) Lambda

Microsoft Azure

Google Cloud Functions

要使用 Google Cloud Functions 部署機(jī)器學(xué)習(xí)模型,請(qǐng)參閱本系列的第 3 部分“實(shí)踐中的機(jī)器學(xué)習(xí):在 Google Cloud Provider 上部署 ML 模型[LINK]”。

托管 AI

一個(gè)管理的人工智能云正是它在錫上所說的。您提供了一個(gè)串行化模型,云提供商以較少的控制為代價(jià),為您完全管理基礎(chǔ)架構(gòu)。換句話說,您可以獲得云計(jì)算的優(yōu)化好處,而不必成為任何方面的專家。

托管 AI 云提供商的示例包括:

Amazon SageMaker

Google Cloud AI Platform

IBM Watson

Microsoft Azure Machine Learning

接下來是什么?

現(xiàn)在您已經(jīng)了解了端到端 ML 工作流,并且已經(jīng)看到了部署 ML 模型的可能方法,請(qǐng)繼續(xù)第 2 部分 Machine Learning in Practice: Build an ML Model ,在這里您將根據(jù)一些數(shù)據(jù)訓(xùn)練模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4814

    瀏覽量

    102632
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29359

    瀏覽量

    267647
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8320

    瀏覽量

    132165
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號(hào)STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)
    發(fā)表于 12-14 09:05

    eIQ軟件對(duì)ML模型有何作用

    隨著產(chǎn)品越來越復(fù)雜,具有了更強(qiáng)大的處理能力和更高的速度,使得機(jī)器學(xué)習(xí)(ML)技術(shù)逐漸擴(kuò)展到邊緣應(yīng)用。借助eIQ軟件,現(xiàn)在可以非常輕松地將新的ML模型引入邊緣設(shè)備。機(jī)器學(xué)習(xí)...
    發(fā)表于 12-20 07:01

    介紹一種Arm ML嵌入式評(píng)估套件

    開發(fā)人員能夠優(yōu)化 ML 模型,以便在內(nèi)存、功率限制和存儲(chǔ)限制的設(shè)備上進(jìn)行部署。有不同的優(yōu)化技術(shù),包括量化、修剪和聚類, 它們是 TensorFlow
    發(fā)表于 08-12 15:35

    通過Cortex來非常方便的部署PyTorch模型

    到軟件中。如何從“跨語言語言模型”轉(zhuǎn)換為谷歌翻譯?在這篇博客文章中,我們將了解在生產(chǎn)環(huán)境中使用 PyTorch 模型意味著什么,然后介紹一種允許部署任何 PyTorch
    發(fā)表于 11-01 15:25

    部署基于嵌入的機(jī)器學(xué)習(xí)模型

    1、如何在生產(chǎn)中部署基于嵌入的機(jī)器學(xué)習(xí)模型  由于最近大量的研究,機(jī)器學(xué)習(xí)模型的性能在過去幾年里有了顯著的提高。雖然這些改進(jìn)的模型開辟了新的可能性,但是它們只有在可以
    發(fā)表于 11-02 15:09

    如何將ML模型部署到微控制器?

    大家好,的我正在嘗試將 ML 模型部署到微控制器,我有兩塊 STM32L4R9I-Discovery 和 STM32H7B3I-Discovery 板。實(shí)驗(yàn)及相關(guān)結(jié)果如下所示:我使用 TFLite
    發(fā)表于 12-29 13:09

    如何使用TensorFlow將神經(jīng)網(wǎng)絡(luò)模型部署到移動(dòng)或嵌入式設(shè)備上

    、iOS和Linux。每個(gè)框架和操作系統(tǒng)的部署過程是相似的,但每個(gè)框架和系統(tǒng)可能使用不同的工具。本演練專門介紹在Android、Linux和iOS上部署TensorFlow模型的準(zhǔn)備工
    發(fā)表于 08-02 06:43

    使用Flask和Docker容器化一個(gè)簡(jiǎn)單的ML模型評(píng)分服務(wù)器

    我們將使用兩種不同的方法演示 ML 模型部署:使用 Docker 和 Kubernetes 的第一原則方法;然后使用 Seldon Core Kubernetes 本機(jī)框架來簡(jiǎn)化 ML
    的頭像 發(fā)表于 04-15 16:56 ?3420次閱讀

    NVIDIA創(chuàng)建physics-ML模型

    NVIDIA創(chuàng)建physics-ML模型,該模型可以模擬全球天氣模式的動(dòng)態(tài)變化,由傅里葉神經(jīng)算子提高動(dòng)力支持。
    的頭像 發(fā)表于 03-23 15:08 ?1265次閱讀
    NVIDIA創(chuàng)建physics-<b class='flag-5'>ML</b><b class='flag-5'>模型</b>

    GTC2022大會(huì)亮點(diǎn):Modulus用于開發(fā)physics-ML模型的AI框架

    GTC2022大會(huì)亮點(diǎn):Modulus用于開發(fā)physics-ML模型的AI框架,速度比數(shù)值方法快許多個(gè)數(shù)量級(jí)。
    的頭像 發(fā)表于 03-24 17:30 ?1724次閱讀
    GTC2022大會(huì)亮點(diǎn):Modulus用于<b class='flag-5'>開發(fā)</b>physics-<b class='flag-5'>ML</b><b class='flag-5'>模型</b>的AI框架

    管理 ML 模型部署中的權(quán)衡

    情況的軟件、固件、開發(fā)工具和硬件的正確組合。在 Samsara 的機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺 (ML/CV) 團(tuán)隊(duì)中,我們構(gòu)建模型開發(fā)算法,幫助我們的客戶提高其運(yùn)營的安全性、效率和可持續(xù)性
    的頭像 發(fā)表于 07-21 09:19 ?584次閱讀

    用于區(qū)分人類和大象的ML模型

    電子發(fā)燒友網(wǎng)站提供《用于區(qū)分人類和大象的ML模型.zip》資料免費(fèi)下載
    發(fā)表于 06-14 11:02 ?0次下載
    用于區(qū)分人類和大象的<b class='flag-5'>ML</b><b class='flag-5'>模型</b>

    如何部署ML模型到Google云平臺(tái)

    實(shí)踐中的機(jī)器學(xué)習(xí):在 Google 云平臺(tái)上部署 ML 模型
    的頭像 發(fā)表于 07-05 16:30 ?610次閱讀
    如何<b class='flag-5'>部署</b><b class='flag-5'>ML</b><b class='flag-5'>模型</b>到Google云平臺(tái)

    機(jī)器學(xué)習(xí)構(gòu)建ML模型實(shí)踐

    實(shí)踐中的機(jī)器學(xué)習(xí):構(gòu)建 ML 模型
    的頭像 發(fā)表于 07-05 16:30 ?654次閱讀

    PerfXCloud大模型開發(fā)部署平臺(tái)開放注冊(cè)

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)部署平臺(tái)。它專注于滿足大模型的微調(diào)和推理需求,為
    的頭像 發(fā)表于 07-02 10:27 ?317次閱讀
    PerfXCloud大<b class='flag-5'>模型</b><b class='flag-5'>開發(fā)</b>與<b class='flag-5'>部署</b>平臺(tái)開放注冊(cè)