0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI CEO:我屯了很多H100

旺材芯片 ? 來源:半導(dǎo)體芯聞 ? 2023-11-15 17:57 ? 次閱讀

OpenAI首席執(zhí)行官 Sam Altman 在 11 月 13 日接受英國《金融時(shí)報(bào)》采訪時(shí)表示,OpenAI 已經(jīng)收到了令人垂涎的 H100 芯片訂單,預(yù)計(jì)很快會有更多訂單,并補(bǔ)充說,在獲得更多芯片方面,“明年看起來會更好” 。

可以說,今年對 OpenAI 的ChatGPT和谷歌的 Bard 等人工智能聊天機(jī)器人的關(guān)注程度與對Nvidia價(jià)值 40,000 美元的 H100 芯片的關(guān)注程度不相上下。與許多其他人工智能公司一樣,OpenAI 使用 Nvidia 最新型號的芯片來訓(xùn)練其模型。

從 OpenAI 采購更多芯片表明,更復(fù)雜的人工智能模型將在不久的將來準(zhǔn)備就緒,這些模型將超出為當(dāng)前版本的聊天機(jī)器人提供支持的范圍。

對 Nvidia H100 芯片的巨大需求

生成式人工智能系統(tǒng)接受大量數(shù)據(jù)的訓(xùn)練,以生成對問題的復(fù)雜響應(yīng),這需要大量的計(jì)算能力。Nvidia 的 H100 芯片專為生成式 AI 量身定制,運(yùn)行速度比以前的芯片型號快得多。哈佛商學(xué)院教授 Willy Shih此前告訴Quartz,芯片功能越強(qiáng)大,處理查詢的速度就越快。

在此背景下,初創(chuàng)公司、AMD 等芯片競爭對手以及谷歌和亞馬遜等大型科技公司一直在致力于打造更高效的人工智能應(yīng)用芯片以滿足需求,但迄今為止還沒有一家能夠超越 Nvidia。

一家公司對特定芯片的如此強(qiáng)烈的需求已經(jīng)在一定程度上對英偉達(dá)造成了購買狂潮,不僅僅是科技公司競相搶購這些熱門芯片,政府和風(fēng)險(xiǎn)投資公司也在競相搶購。但如果 OpenAI 能夠獲得訂單,也許這種趨勢終于會扭轉(zhuǎn),芯片流向 AI 公司的情況正在改善。

雖然 Nvidia 占據(jù)主導(dǎo)地位,但就在上周,SymphonyAI 公司(一家正在構(gòu)建供制造商內(nèi)部使用的人工智能聊天機(jī)器人的公司)的首席執(zhí)行官 Prateek Kathpal 告訴 Quartz,盡管其人工智能應(yīng)用程序運(yùn)行在 Nvidia 的芯片上,但該公司也一直在討論AMD 和Arm的技術(shù)。

更多芯片對 OpenAI 意味著什么?

OpenAI 不斷增長的芯片庫存意味著幾件事。

H100 芯片將有助于為該公司的下一代人工智能模型 GPT-5 提供動(dòng)力,Altman 表示該模型目前正在開發(fā)中。他告訴英國《金融時(shí)報(bào)》,新模型將需要更多數(shù)據(jù)進(jìn)行訓(xùn)練,這些數(shù)據(jù)將來自公開信息和公司的專有情報(bào)。他補(bǔ)充說,GPT-5 可能會比其前身更加復(fù)雜,盡管目前還不清楚它能做什么 GPT-4 不能做的事情。

Altman 沒有透露 GPT-5 的發(fā)布時(shí)間表。但繼2020 年發(fā)布其前身 GPT-3 后,GPT-4 于 8 個(gè)月前發(fā)布,一系列快速發(fā)布凸顯了快速的開發(fā)周期。

采購更多芯片還表明,該公司距離創(chuàng)建通用人工智能(簡稱AGI)越來越近,這是一種基本上可以完成人類可以完成的任何任務(wù)的人工智能系統(tǒng)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4816

    瀏覽量

    102632
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46324

    瀏覽量

    236495
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1012

    瀏覽量

    6345

原文標(biāo)題:Open AI CEO:我屯了很多H100

文章出處:【微信號:wc_ysj,微信公眾號:旺材芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    英偉達(dá)發(fā)布新一代H200,搭載HBM3e,推理速度是H100兩倍!

    電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)日前,英偉達(dá)正式宣布,在目前最強(qiáng)AI芯片H100的基礎(chǔ)上進(jìn)行一次大升級,發(fā)布新一代H200芯片。H200擁有141GB的內(nèi)存、4.8TB/秒的帶寬,并將與H100
    的頭像 發(fā)表于 11-15 01:15 ?3276次閱讀
    英偉達(dá)發(fā)布新一代<b class='flag-5'>H</b>200,搭載HBM3e,推理速度是<b class='flag-5'>H100</b>兩倍!

    首批1024塊H100 GPU,正崴集團(tuán)將建中國臺灣最大AI計(jì)算中心

    中國臺灣當(dāng)?shù)卣思瘓F(tuán)5月27日宣布,將與日本公司Ubitus共同打造人工智能(AI)計(jì)算中心,其中第一期將導(dǎo)入128個(gè)機(jī)柜,共計(jì)1024張英偉達(dá)H100旗艦計(jì)算卡,旨在構(gòu)建臺灣最大的AI計(jì)算中心。
    的頭像 發(fā)表于 05-29 10:05 ?891次閱讀

    OpenAI Sora模型需大量AI加速卡及電力支持

    若以每片H100加速卡3萬美元市價(jià)估算,總花費(fèi)將高達(dá)216億美元(相當(dāng)于1561.68億元人民幣),這僅是H100加速卡采購費(fèi)用。該模型在運(yùn)營時(shí)還會產(chǎn)生極高的能耗,每片H100能耗達(dá)到700瓦,72萬片則意味著能耗高達(dá)50.4億
    的頭像 發(fā)表于 03-27 15:58 ?478次閱讀

    英偉達(dá)H200顯卡價(jià)格

    英偉達(dá)H200顯卡的具體價(jià)格尚未公布。根據(jù)上一代H100顯卡的價(jià)格范圍,預(yù)計(jì)H200的單片價(jià)格將超過40000美元。由于新芯片通常定價(jià)較高,因此可以推斷H200的價(jià)格會比
    的頭像 發(fā)表于 03-07 16:09 ?3387次閱讀

    英偉達(dá)H200和H100的比較

    英偉達(dá)H200和H100是兩款不同的AI芯片,它們各自具有獨(dú)特的特點(diǎn)和優(yōu)勢。以下是關(guān)于這兩款芯片的一些比較。
    的頭像 發(fā)表于 03-07 15:53 ?3777次閱讀

    H100 GPU供應(yīng)改善,AI市場需求依舊強(qiáng)勁

    值得注意的是,H100 GPU的供求關(guān)系已經(jīng)緩解,且維護(hù)成本高起,部分客戶正在置換這類硬件以轉(zhuǎn)向云服務(wù),這種轉(zhuǎn)變在過去的市場緊縮中很少見到。同時(shí),市場上雖然有其他選擇如AMD的MI300 GPU,性能穩(wěn)定且價(jià)格低廉。
    的頭像 發(fā)表于 02-29 16:10 ?597次閱讀

    Meta計(jì)劃至2024年末購買35萬張H100加速卡

    扎克伯格并未披露BIN為應(yīng)對日益增加的人工智能需求添購的具體數(shù)量。市場研究機(jī)構(gòu)雷蒙德詹姆斯的分析師根據(jù)推測,每顆H100系列芯片單價(jià)可能在2.5萬至3萬美金之間,若按照最低標(biāo)準(zhǔn)計(jì)算,購置成本將超過10億美金。
    的頭像 發(fā)表于 01-19 10:25 ?652次閱讀

    AI計(jì)算需求激增,英偉達(dá)H100功耗成挑戰(zhàn)

    根據(jù)預(yù)測,若H100的年利用率保持在61%,那么單臺設(shè)備每年將耗電3740千瓦小時(shí)左右。如果英偉達(dá)在2023年售出150萬塊H100,2024年再增加至200萬塊,那么到2024年底,將有350萬塊H100芯片投入使用,其總年用
    的頭像 發(fā)表于 12-28 09:29 ?2009次閱讀

    英偉達(dá)H100 GPU Q3售出50萬塊,科技巨頭爭搶

    這款產(chǎn)品最大購買客戶是Meta與微軟,各自購買了15萬塊;谷歌、亞馬遜、甲骨文、騰訊各自購買了5萬塊,榜單中還出現(xiàn)百度、阿里巴巴、字節(jié)跳動(dòng)這幾家中國公司。集微網(wǎng)了解到,目前H100 80GB單卡售價(jià)將近4萬美元,約合28萬元人民幣。
    的頭像 發(fā)表于 12-07 15:18 ?1025次閱讀
    英偉達(dá)<b class='flag-5'>H100</b> GPU Q3售出50萬塊,科技巨頭爭搶

    英偉達(dá)H100,沒那么缺貨 !RTX 4090 ,大漲

    這樣,在云端使用 H100 GPU 的排隊(duì)時(shí)間可能會縮短。數(shù)據(jù)中心提供商和前比特幣挖礦公司正在開設(shè)具有 H100 集群的數(shù)據(jù)中心。這些公司承諾以大型云提供商成本的一小部分提供 H100 GPU 計(jì)算,而大型云提供商對
    的頭像 發(fā)表于 11-23 15:59 ?1549次閱讀

    英偉達(dá)特供版芯片將上市:性能最高不到H100的20%

    本周四,一些媒體首次報(bào)道英偉達(dá)特供芯片的消息。報(bào)道稱,這三款新產(chǎn)品是在 H100 GPU 的基礎(chǔ)版本基礎(chǔ)上進(jìn)行修改的,采用的是最新架構(gòu),但性能大幅度縮減。H100 GPU 是一種用于人工智能訓(xùn)練的高端 GPU,已于 2022
    的頭像 發(fā)表于 11-13 16:44 ?860次閱讀
    英偉達(dá)特供版芯片將上市:性能最高不到<b class='flag-5'>H100</b>的20%

    揭秘:英偉達(dá)H100最強(qiáng)替代者

    目前,用于高端推理的 GPU 主要有三種:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我們將跳過NVIDIA L4 24GB,因?yàn)樗袷堑投送评砜ā?/div>
    的頭像 發(fā)表于 11-13 16:13 ?1432次閱讀
    揭秘:英偉達(dá)<b class='flag-5'>H100</b>最強(qiáng)替代者

    傳英偉達(dá)新AI芯片H20綜合算力比H100降80%

    但據(jù)悉,三種新型AI芯片不是“改良型”,而是“縮小型”。用于ai模型教育的hgx h20的帶寬和計(jì)算速度是有限的。整體計(jì)算能力理論上比nvidia的h100 gpu芯片低80%左右。h20是h
    的頭像 發(fā)表于 11-13 09:41 ?1561次閱讀

    英偉達(dá)H100的最強(qiáng)替代者

    首先,我們首先要說的是,如果您現(xiàn)在想要訓(xùn)練基礎(chǔ)模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首選 GPU。一旦基礎(chǔ)模型經(jīng)過訓(xùn)練,通??梢栽诔杀竞凸娘@著降低的部件上根據(jù)特定領(lǐng)域的數(shù)據(jù)或推理來定制模型。
    的頭像 發(fā)表于 11-08 15:35 ?935次閱讀
    英偉達(dá)<b class='flag-5'>H100</b>的最強(qiáng)替代者

    瘋狂的H100:現(xiàn)代GPU體系結(jié)構(gòu)淺析,從算力焦慮開始聊起

    昂貴 H100 的一時(shí)洛陽紙貴,供不應(yīng)求,大模型訓(xùn)練究竟需要多少張卡呢?GPT-4 很有可能是在 10000 到 20000 張 A100 的基礎(chǔ)上訓(xùn)練完成的[8]。按照 Elon Musk 的說法
    的頭像 發(fā)表于 10-29 09:48 ?8473次閱讀
    瘋狂的<b class='flag-5'>H100</b>:現(xiàn)代GPU體系結(jié)構(gòu)淺析,從算力焦慮開始聊起