0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

混合方案部署AI / ML并為其提供合理的布線方案

牽手一起夢 ? 來源:網(wǎng)絡整理 ? 作者:佚名 ? 2020-04-03 15:26 ? 次閱讀

在本文中,康寧光通信與達拉斯的Citadel Analytics展開了合作,而后者一直在托管數(shù)據(jù)中心(MTDC)中部署AI平臺。

在互聯(lián)網(wǎng)上通常有這樣的一句話:“知識告訴你說應該把雞蛋放進籃子,智慧則是叫你不要把所有雞蛋都放進一個籃子” 。機器學習(ML)會引導我們認識雞蛋并放進籃子,但是人工智能(AI)建議我們不要將其放入一個籃子。

撇開笑話而言,從語言翻譯到對復雜疾病的診斷,AI和ML的應用非常廣泛,遠遠不止于視覺領域。 為了讓您了解AI和ML需要多少計算能力,百度在2017年展示了一種中文語音識別模型,在整個訓練周期內(nèi),不僅需要4TB的培訓數(shù)據(jù),而且還需要2000億億次的運算。

我們需要把握一個平衡點,那就是既要滿足AI和ML需求,還需要以最低的成本提供最高的服務質(zhì)量。那么如何提供最高的服務質(zhì)量呢?通過減少數(shù)據(jù)在終端設備和處理器之間傳輸?shù)奈锢砭嚯x,以改善延遲對傳輸?shù)挠绊?。我們可以把邊緣?shù)據(jù)中心建設在更靠近創(chuàng)建和使用數(shù)據(jù)的地方,這樣可以優(yōu)化傳輸成本和服務質(zhì)量。其次是尋求最低的成本。傳輸成本會隨著傳輸?shù)臄?shù)據(jù)量、距離或“跳數(shù)”的增加而增加。 而AI和ML大大增加了傳輸?shù)臄?shù)據(jù)量,從而導致更高的傳輸成本。邊緣數(shù)據(jù)中心靠近數(shù)據(jù)創(chuàng)建的地方,因此日益成為重要的解決方案,而一大部分邊緣計算都部署在MTDC中。MTDC可以提供最低的本地數(shù)據(jù)中心部署風險,而且可以最快實現(xiàn)收益。

什么是AI、ML、MTDC?

在討論AI,ML,邊緣數(shù)據(jù)中心和MTDC之前,有必要仔細研究一下它們的概念,以確保每個人都在同一個理解層面上。

人工智能是計算機系統(tǒng)理論的延伸發(fā)展,它能夠執(zhí)行通常需要人類執(zhí)行的智能任務,例如視覺感知,語音識別,決策和語言之間的翻譯。如果利用玩具套娃來描述這些關系,那么 AI是最大的那個套娃,機器學習位于其中,而深度學習則位于機器學習套娃中。機器學習是AI的一種應用,它使系統(tǒng)能夠自動學習并從經(jīng)驗中進行改進,而無需進行編程。

邊緣數(shù)據(jù)中心是通過從核心數(shù)據(jù)中心分散一些對延遲較敏感的應用程序,使數(shù)據(jù)中心的計算和處理能力更接近創(chuàng)建數(shù)據(jù)的地方。

多租戶數(shù)據(jù)中心(MTDC)也稱為托管數(shù)據(jù)中心,用戶可以通過租用空間來托管其設施。 MTDC提供了空間和網(wǎng)絡設備,以最小的成本將用戶連接到服務提供商。 用戶可以租用空間、服務器機架或完整的專用模塊,來滿足其各種需求。

AI有那么厲害?

AI和ML是自電力出現(xiàn)以來我們所見過的最具革命性的技術。 它比互聯(lián)網(wǎng)和移動革命的總和還要強大。 AI技術之所以如此強大和如此具有影響力,是因為它們可以快速、有效地理解大量數(shù)據(jù)。 我們生活在一個數(shù)據(jù)不斷生成并且由數(shù)據(jù)驅(qū)動的世界中(市場分析師預測,如今存在的數(shù)據(jù)中有80%以上是在最近兩年內(nèi)創(chuàng)建的),如果沒有能夠理解這些數(shù)據(jù)的工具,我們將會淹沒在這些數(shù)據(jù)中。

舉個簡單的例子,今年全世界將創(chuàng)造大約40兆字節(jié)的信息。 那就是40萬億GB的信息。 人類無法理解所有這些信息,即使每個人晝夜不停地工作,從理論上講也是不可能的。

那么我們?nèi)绾卫斫馑羞@些數(shù)據(jù)呢? 答案是使用AI和ML。 這些技術偏愛數(shù)據(jù),數(shù)據(jù)就像是它們的氧氣。 通過使用功能強大且經(jīng)過適當培訓的AI / ML模型,我們可以準確地處理大量信息,從而揭示非常有價值的數(shù)據(jù)來指導我們的行動。

核磁共振(MRI)的ML模型就是一個很好的例子。 他們針對已知的癌癥或非癌癥結(jié)果進行了測試(陽性和陰性結(jié)果), 這個過程被稱為訓練。之后將一組新的MRI加載到經(jīng)過訓練的模型中并進行分析。這些新的MRI被稱為驗證數(shù)據(jù)集。 該數(shù)據(jù)通過已經(jīng)訓練有素的模型運行,計算并顯示結(jié)果,然后再根據(jù)為該模型選擇的性能指標評估結(jié)果。 如果結(jié)果可接受,則對模型進行培訓,并準備進行更多測試和驗證。 如果驗證數(shù)據(jù)不符合指標,則我們回過頭來,要么重新設計模型,要么為它提供更多數(shù)據(jù),以便為下一次驗證測試提供更好的培訓。 此階段稱為驗證階段。

人工智能的好處有時會帶來額外的驚喜。 例如,Citadel Analytics處理過的大多數(shù)業(yè)務都是客戶期望通過AI技術提高效率來實現(xiàn)銷售增長或降低成本。但他們很快發(fā)現(xiàn),通過AI可以大大提高員工的工作效率和愉悅性,最大的受益者居然是員工。一家懂得利用AI / ML的公司,其員工往往也對工作更加滿意,這一點比不使用AI的公司高得多。

這很有意義,因為AI / ML就是要使“無聊”的東西自動化,并讓您的員工在不降低效率的情況下做他們擅長和充滿熱情的事情。 使用AI技術帶來的巨大好處是,使員工擁有更多快樂,并減少員工的流失。但是這一點許多企業(yè)一開始并不重視。

如何部署AI / ML并為其提供合理的布線方案

AI需要巨大的處理能力,這一直是一個問題。值得慶幸的是,像NVIDIA,IntelAMD等公司正在縮小處理能力的差距。 這使BMW,沃爾瑪,Target等公司以及更多公司都可以部署邊緣AI功能。 這需要以安裝功能強大的硬件為前提,這些硬件將使用預先訓練的模型來處理本地數(shù)據(jù)。 這大大減少了等待時間和對實時帶寬的需求。

但問題在于,沒有人能真正做到邊緣的AI / ML部署,因為雖然硬件的預訓練模型可以處理數(shù)據(jù),但它的能力不足以更新此模型,并使其功能更強大。

因此,混合方案便應用而生。

在混合方案設計中,邊緣服務器將使用經(jīng)過訓練的模型來處理所有本地數(shù)據(jù)。 而這些“最適合的服務器”則可能位于不同的MTDC,從而實現(xiàn)網(wǎng)絡和應用程序選擇的靈活性。MTDC的光網(wǎng)絡基礎架構通常采用單模光纖來部署,目的是滿足最終用戶對未來擴展的需求。 對于部署AI / ML的公司,重要的是需要同時考慮現(xiàn)在和未來網(wǎng)絡中的帶寬需求。 Citadel Analytics通常有一個經(jīng)驗法則,即取期望帶寬的平均值并乘以4倍,就是應該在其系統(tǒng)內(nèi)部署的帶寬。 在當前的AI / ML部署中,帶寬尤其重要,是首要考量的因素。

帶寬的增加也凸顯了MTDC和最終用戶對高密度解決方案的需求。 高密度方案可以使MTDC空間實現(xiàn)最大化收益,而最終用戶可以更有效地利用他們投資的空間。由于基礎架構會隨著不同用戶的需求而變化,因此尋找具有產(chǎn)品寬度(單?;蚨嗄#琇C或MTP等)和擴展靈活性的產(chǎn)品供應商顯得尤為重要。對于最終用戶,降低成本的一種方法是增加密度并降低功耗。這可以通過并行光學器件和端口分離來實現(xiàn),即通過使用分支線纜來實現(xiàn)將一個高速帶寬端口分解為多個低帶寬端口。比如使用一個40g并行收發(fā)器端口分解為4個單獨的10g收發(fā)器端口,以實現(xiàn)高密度的線纜轉(zhuǎn)換。

通過減小10公里以內(nèi)的傳輸距離,通??梢詫⒀舆t減少45%。 這意味著什么?這將推動更多的和更小的區(qū)域性數(shù)據(jù)中心部署,使其更靠近產(chǎn)生數(shù)據(jù)的地方。 MTDC將成為這些較小數(shù)據(jù)中心的主要承載工具。 邊緣數(shù)據(jù)中心將托管在這些互連密集型MTDC中,兩者相互配合,為客戶提供更全面的服務。 擁有互聯(lián)的基礎設施、生態(tài)系統(tǒng)和豐富的客戶組合的MTDC,將能把握邊緣計算發(fā)展的商業(yè)機遇。

期望

AI和ML技術將持續(xù)為采用者創(chuàng)收和提高生產(chǎn)率。未來我們將看到更多公司將應用程序運行在邊緣MTDC。 對于這些公司而言,MTDC提供了較低的風險和較快的收益增長。 這將導致會出現(xiàn)更多的邊緣區(qū)域數(shù)據(jù)中心,而不是像我們以前看到的那樣集中的大型數(shù)據(jù)中心,同時也將帶來更多的互聯(lián)設施和更高密度的解決方案。

責任編輯:gt

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19048

    瀏覽量

    228529
  • AI
    AI
    +關注

    關注

    87

    文章

    29435

    瀏覽量

    267747
  • ML
    ML
    +關注

    關注

    0

    文章

    144

    瀏覽量

    34533
收藏 人收藏

    評論

    相關推薦

    混合部署 | 在迅為RK3568上同時部署RT-Thread和Linux系統(tǒng)

    和安全性的同時,靈活處理復雜的任務場景。 混合部署 在一般情況下,iTOP-RK3568 的四個 Cortex-A55 核心通常運行 Linux系統(tǒng),這種架構稱為對稱多處理(SMP)。而 AMP
    發(fā)表于 09-18 10:54

    芯科科技前沿的MCU+AI/ML開發(fā)工具解決方案

    人工智能(AI)和機器學習(ML)是使系統(tǒng)能夠從數(shù)據(jù)中學習,進行推斷并隨著時間的推移提高性能的關鍵技術。這些技術通常用于大型數(shù)據(jù)中心和功能強大的GPU,但是將它們部署在資源有限的設備
    的頭像 發(fā)表于 08-20 11:38 ?534次閱讀

    全新Reality AI Explorer Tier,免費提供強大的AI/ML開發(fā)環(huán)境綜合評估“沙盒”

    包含Reality AI Tools?的自動AI模型構建、驗證和部署模塊,以及教程、應用示例與電子郵件支持 2024 年 7 月 16 日,中國北京訊 - 全球半導體解決方案供應商瑞薩
    的頭像 發(fā)表于 07-16 13:19 ?200次閱讀

    BOXER-8645AI:憑借卓越邊緣AI解決方案,使車載部署更加智能

    的AMR和車載解決方案。BOXER-8645AI與研揚合作伙伴e-conSystems的NileCAM25高清全局快門GMSL2彩色相機搭配使用,為您提供更高質(zhì)量
    的頭像 發(fā)表于 06-01 08:05 ?58次閱讀
    BOXER-8645<b class='flag-5'>AI</b>:憑借卓越邊緣<b class='flag-5'>AI</b>解決<b class='flag-5'>方案</b>,使車載<b class='flag-5'>部署</b>更加智能

    使用 Renesas RA8M1 MCU 快速地部署強大高效的 AIML 功能

    新的工作負載會增加功耗,盡管要求設計人員盡量降低功耗并加快產(chǎn)品上市時間。 設計人員需要一個計算選項,既能保持 MCU 的效率,又能增加專為低功耗應用定制的高性能功能。這一選項還應保留與傳統(tǒng) MCU 相關的簡單部署模式,同時增加足夠的功能,以支持 AI
    的頭像 發(fā)表于 05-05 10:14 ?485次閱讀
    使用 Renesas RA8M1 MCU 快速地<b class='flag-5'>部署</b>強大高效的 <b class='flag-5'>AI</b> 和 <b class='flag-5'>ML</b> 功能

    政務外網(wǎng)IPv6深化部署解決方案

    的困難和問題。二、部署方案1.科學合理規(guī)劃地址:可按政府區(qū)域、部門或按現(xiàn)網(wǎng)vlan等本地屬性進行劃分。2.網(wǎng)絡基礎設施升級:對網(wǎng)絡交換機、路由器、防火墻等進行配置或替換升級。3.構建IPv6安全體系:
    的頭像 發(fā)表于 04-24 10:41 ?752次閱讀
    政務外網(wǎng)IPv6深化<b class='flag-5'>部署</b>解決<b class='flag-5'>方案</b>

    基于 Renesas 的 RA8M1 實現(xiàn) AIML 部署

    新的工作負載會增加功耗,盡管要求設計人員盡量降低功耗并加快產(chǎn)品上市時間。 設計人員需要一個計算選項,既能保持 MCU 的效率,又能增加專為低功耗應用定制的高性能功能。這一選項還應保留與傳統(tǒng) MCU 相關的簡單部署模式,同時增加足夠的功能,以支持 AI
    的頭像 發(fā)表于 04-23 15:04 ?1090次閱讀
    基于 Renesas 的 RA8M1 實現(xiàn) <b class='flag-5'>AI</b> 和 <b class='flag-5'>ML</b> <b class='flag-5'>部署</b>

    聯(lián)想攜手英偉達,推出混合人工智能方案

    該項混合人工智能解決方案已針對 NVIDIA AI Enterprise 軟件予以優(yōu)化打造,致力于實現(xiàn)“安全、可靠且穩(wěn)定”級別的AI生產(chǎn)環(huán)境。聯(lián)想同時也向開發(fā)者開放了最新發(fā)布的 NVI
    的頭像 發(fā)表于 03-19 14:31 ?456次閱讀

    利用OpenVINO實現(xiàn)混合AI部署:邁向無所不在的人工智能

    隨著人工智能技術的飛速發(fā)展,AI的應用已經(jīng)滲透到日常生活的各個方面。為了更有效地利用AI技術,混合AI部署成為了一個重要趨勢。
    的頭像 發(fā)表于 03-18 15:10 ?637次閱讀
    利用OpenVINO實現(xiàn)<b class='flag-5'>混合</b>式<b class='flag-5'>AI</b><b class='flag-5'>部署</b>:邁向無所不在的人工智能

    Supermicro推新AI存儲方案,助力AIML應用加速

    Supermicro首席執(zhí)行官梁見后先生高瞻遠矚地指出:針對AIML應用的加速處理,我們推薦配置以每機柜20 PB高速閃存為主,配備四個NVIDIA HGX H100系列優(yōu)化版8-GPU氣冷服務器或者八個同款液冷服務器。
    的頭像 發(fā)表于 02-03 14:46 ?554次閱讀

    深入探討工業(yè)AI/ML技術的發(fā)展趨勢及相關解決方案

    芯科科技已經(jīng)創(chuàng)建了一套完整的硬件和軟件解決方案,可支持開發(fā)用于工業(yè)市場的工業(yè)AI/ML解決方案。具體來說,我們的Sub-GHz、藍牙和802.15.4產(chǎn)品內(nèi)置了硬件加速功能,可優(yōu)化邊緣
    的頭像 發(fā)表于 01-29 09:42 ?427次閱讀

    以太網(wǎng)or非以太網(wǎng)?各家AI/ML網(wǎng)絡技術盤點

    Nvidia 的 GPU 及其全棧 AI/ML 解決方案使其成為市場中無可爭議的上流玩家。 Nvidia DGX Cloud 解決方案將 Quantum-2 (25.6Tbs) Inf
    發(fā)表于 12-13 14:46 ?785次閱讀
    以太網(wǎng)or非以太網(wǎng)?各家<b class='flag-5'>AI</b>/<b class='flag-5'>ML</b>網(wǎng)絡技術盤點

    什么是混合AI混合AI優(yōu)勢在哪?

    生成式 AI 模型對計算基礎設施需求極高,模型的推理隨著用戶數(shù)量和使用頻率的增加而不斷上升,云端推理成本劇增,這導致規(guī)?;瘮U展難以持續(xù)。混合AI為此提供了解決
    發(fā)表于 11-20 16:26 ?911次閱讀
    什么是<b class='flag-5'>混合</b><b class='flag-5'>AI</b>?<b class='flag-5'>混合</b><b class='flag-5'>AI</b>優(yōu)勢在哪?

    愛立信推出全新AI解決方案,傳輸網(wǎng)絡性能再升級

    愛立信宣布推出智能云原生傳輸網(wǎng)控制器。 該產(chǎn)品采用AI(人工智能)與ML(機器學習)技術,可實現(xiàn)對微波、IP和光網(wǎng)絡的分析和自動化管理,為運營商提供先進的解決方案,實現(xiàn)移動傳輸網(wǎng)絡效率
    的頭像 發(fā)表于 11-16 16:10 ?521次閱讀

    800G AI互連應用產(chǎn)品組合方案

    AI以并行計算為主,接下來,本文將介紹800G數(shù)據(jù)中心的DAC、AOC和光模塊的并行布線解決方案。
    的頭像 發(fā)表于 11-10 15:42 ?531次閱讀
    800G <b class='flag-5'>AI</b>互連應用產(chǎn)品組合<b class='flag-5'>方案</b>