0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能深度學習的成功

汽車玩家 ? 來源:今日頭條 ? 作者:愛生活愛快樂愛自 ? 2020-04-02 09:20 ? 次閱讀

在過去的十年中,圍繞人工智能的突破,投資和企業(yè)家活動的爆炸式增長完全由深度學習驅動,深度學習是一種復雜的統(tǒng)計分析技術,用于發(fā)現(xiàn)大量數(shù)據(jù)中的隱藏模式。1955年創(chuàng)造的一個術語(人工智能)被應用到(或錯誤地應用到了)深度學習,這是一種訓練計算機執(zhí)行某些任務的方法的更高級版本- 機器學習,這個術語是在1959年創(chuàng)造的。

深度學習的最新成功是由于大量數(shù)據(jù)(大數(shù)據(jù))的可用性增加以及圖形處理單元(GPU)的出現(xiàn),顯著增加了用于訓練計算機的數(shù)據(jù)的廣度和深度,并減少了所需的時間用于訓練深度學習算法

“大數(shù)據(jù)”一詞最早出現(xiàn)在1997年10月由Michael Cox和David Ellsworth撰寫的計算機科學文獻中,該文章發(fā)表在IEEE第八屆可視化會議論文集中,“ 針對核心外可視化的應用程序控制的需求分頁 ” 。他們寫道:“可視化給計算機系統(tǒng)帶來了一個有趣的挑戰(zhàn):數(shù)據(jù)集通常很大,這給主內(nèi)存,本地磁盤甚至遠程磁盤的容量增加了負擔。我們稱此為大數(shù)據(jù)問題 。當數(shù)據(jù)集不能容納在主存儲器(核心)中,或者甚至不能容納在本地磁盤中時,最常見的解決方案是獲取更多資源?!痹撔g語在學術界之外也曾使用過。

SGI的創(chuàng)始人吉姆·克拉克(Jim Clark)于1974年在“計算機圖形之父”伊萬·薩瑟蘭(Ivan Sutherland)的指導下在猶他大學完成了博士學位論文??死撕髞韯?chuàng)立了Netscape Communications,其成功的網(wǎng)絡瀏覽器和1995年的IPO引發(fā)了“互聯(lián)網(wǎng)熱潮”。蒂姆·伯納斯·李(Tim Berners-Lee)在1989年發(fā)明了網(wǎng)絡,并成功地使全世界數(shù)十億人成為數(shù)字數(shù)據(jù)的消費者和創(chuàng)造者,這為數(shù)十億廣泛共享的數(shù)字圖像(例如,將貓的照片識別為一只貓”)。

2007年, 普林斯頓大學的計算機科學家Fei-Fei Li和她的同事開始組裝ImageNet,ImageNet是一個帶注釋的圖像的大型數(shù)據(jù)庫,旨在幫助視覺對象識別軟件研究。五年后,即2012年10月,由多倫多大學研究人員設計的深度學習人工神經(jīng)網(wǎng)絡在ImageNet大規(guī)模視覺識別挑戰(zhàn)賽中的錯誤率僅達到16%,大大超過了25%的錯誤率。一年前最好的進入,預示著“人工智能”的興起。

大數(shù)據(jù)確實很大。 RJT Morris和BJ Truskowski在“ 存儲系統(tǒng)的發(fā)展 ”一書中說,在1996年,數(shù)字存儲在存儲數(shù)據(jù)方面比在紙上更具成本效益。在2002年,數(shù)字信息存儲首次超過了非數(shù)字存儲。根據(jù)馬丁·希爾伯特(Martin Hilbert)和普里西拉·洛佩茲(Priscila Lopez)的“世界存儲,通信和計算信息的技術能力 ”,在1986年至2007年之間,世界的信息存儲能力以每年25%的復合年增長率增長。他們還估計, 1986年,所有存儲容量中有99.2%是模擬存儲,但在2007年,有94%的存儲容量是數(shù)字存儲,這完全顛倒了角色。

2000年10月,加州大學伯克利分校的Peter Lyman和Hal Varian發(fā)表了“ 多少信息?”,這是第一個以計算機存儲量來量化世界上每年創(chuàng)建的新信息和原始信息(不計算副本)總量的綜合研究。1999年,全世界產(chǎn)生了1.5艾字節(jié)的原始數(shù)據(jù)。2007年3月,John Gantz,David Reinsel和IDC的其他研究人員發(fā)布 了第一項研究, 以估計和預測每年創(chuàng)建和復制的數(shù)字數(shù)據(jù)的數(shù)量-2006年為161艾字節(jié),據(jù)估計,該數(shù)字將增加六倍,達到988艾字節(jié)。 2010年,或每18個月翻一番。

信息爆炸(根據(jù)牛津英語詞典的說法,該術語在1941年首次使用)已經(jīng)變成了大型數(shù)字數(shù)據(jù)爆炸。但是,可用數(shù)據(jù)的數(shù)量只是使深度學習成功的兩個催化劑之一。另一個是GPU。

雖然深度學習算法的開發(fā)及其實際應用在1980年代和1990年代穩(wěn)步發(fā)展,但它們受到計算機能力不足的限制。1986年10月,David Rumelhart,Geoffrey Hinton和Ronald Williams出版了“ 通過反向傳播錯誤學習表示法 ”,其中描述了“一種新的學習過程,即反向傳播,用于神經(jīng)元樣單元網(wǎng)絡,”是一個概念性突破。在深度學習的發(fā)展中。三年后,Yann LeCun和AT&T貝爾實驗室的其他研究人員成功地應用了反向傳播算法到多層神經(jīng)網(wǎng)絡,識別手寫的郵政編碼。但是鑒于當時的硬件限制,培訓網(wǎng)絡大約花了3天的時間(與以前的工作相比有很大的改進)。

大數(shù)據(jù)誕生的計算機圖形學得以拯救。到1990年代,實時3D圖形在街機,計算機和游戲機游戲中變得越來越普遍,導致對硬件加速3D圖形的需求增加。索尼在1994年推出家用視頻游戲機PS1時,首先將GPU一詞稱為 “幾何處理單元”。

視頻游戲渲染需要快速并行執(zhí)行許多操作。圖形卡具有較高的并行度和較高的內(nèi)存帶寬,但相對于傳統(tǒng)CPU而言,其時鐘速度較低且分支能力較低。碰巧,在人工神經(jīng)網(wǎng)絡上運行的深度學習算法需要類似的特性-并行性,高內(nèi)存帶寬,無分支。

到2000年代末,許多研究人員已經(jīng)證明了GPU在深度學習(特別是對于人工神經(jīng)網(wǎng)絡訓練)中的實用性。由新的編程語言(如NVIDIA的CUDA)支持的通用GPU已應用于各種深度學習任務。此類應用程序中最明顯的是上述2012年ImageNet挑戰(zhàn)賽的冠軍。

2020年3月18日,計算機技術協(xié)會(ACM)將Patrick M.(Pat)Hanrahan和Edwin E.(Ed)Catmull提名為2019 ACM AM圖靈獎的獲得者,以表彰其對3D計算機圖形學的基本貢獻,以及這些技術對電影制作和其他應用中的計算機生成圖像(CGI)產(chǎn)生了革命性的影響。

根據(jù)ACM新聞稿,今天,“ 3-D計算機動畫電影代表了在價值1380億美元的全球電影行業(yè)中廣受歡迎的類型。3-D計算機圖像對于蓬勃發(fā)展的視頻游戲行業(yè)以及新興的虛擬現(xiàn)實和增強現(xiàn)實領域也至關重要。Catmull和Hanrahan做出了開創(chuàng)性的技術貢獻,這些貢獻仍然是當今CGI圖像開發(fā)方式不可或缺的部分。此外,他們對編程圖形處理單元(GPU)的見解不僅對計算機圖形學產(chǎn)生了影響,還影響了包括數(shù)據(jù)中心管理和人工智能在內(nèi)的各個領域。”

像吉姆·克拉克(Jim Clark)一樣,卡特姆(Catmull)是伊萬·薩瑟蘭(Ivan Sutherland)的學生,并于1974年獲得猶他大學的博士學位。正如羅伯特·里夫林(Robert Rivlin)在1986年的著作《算法圖像:計算機時代的圖形視覺》中所寫的那樣,“現(xiàn)代計算機中幾乎每個有影響力的人圖形社區(qū)要么通過了猶他大學,要么以某種方式與之接觸?!?/p>

在2010年對 Pat Hanrahan的采訪中,Catmull描述了U U工作環(huán)境:

“戴夫·埃文斯(Dave Evans)是該系主任,伊萬(Ivan)在教書,但他們的公司埃文斯(Evans)和薩瑟蘭(Sutherland)花費了所有多余的時間。這些學生幾乎是獨立的,這是我真正的肯定,因為學生必須自己做一些事情。我們期望創(chuàng)造原創(chuàng)作品。我們處于前沿,我們的工作是擴展它。他們基本上說:“您可以每隔一段時間與我們聯(lián)系,我們將與您聯(lián)系,但我們將關閉這家公司?!?/p>

我認為效果很好!它建立了相互支持,共同工作的環(huán)境?!?/p>

在同一討論的稍后部分,Hanrahan說:

“當我第一次對研究生院的圖形感興趣時,我聽說過要制作完整的計算機生成圖片的要求。當時,我對人工智能非常感興趣,因為人工智能具有圖靈測試和模仿思維的想法。我認為制作計算機生成圖片的想法是對人的思維進行建模的先驅,或者至少與之類似,因為您必須對整個虛擬世界進行建模,并且必須在該世界中擁有人-如果虛擬世界和其中的人們看起來并不聰明,那么該世界將無法通過圖靈測試,因此看起來似乎不太合理。

我想我很聰明,以為我們一生中實際上無法建立人類智力模型。因此,我對圖形感興趣的原因之一是我認為它具有良好的長期職業(yè)發(fā)展?jié)摿?。?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1789

    文章

    46401

    瀏覽量

    236630
  • 深度學習
    +關注

    關注

    73

    文章

    5442

    瀏覽量

    120801
收藏 人收藏

    評論

    相關推薦

    人工智能、機器學習深度學習存在什么區(qū)別

    人工智能指的是在某種程度上顯示出類似人類智能的設備。AI有很多技術,但其中一個很大的子集是機器學習——讓算法從數(shù)據(jù)中學習。
    發(fā)表于 10-24 17:22 ?2376次閱讀
    <b class='flag-5'>人工智能</b>、機器<b class='flag-5'>學習</b>和<b class='flag-5'>深度</b><b class='flag-5'>學習</b>存在什么區(qū)別

    《AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    、優(yōu)化等方面的應用有了更清晰的認識。特別是書中提到的基于大數(shù)據(jù)和機器學習的能源管理系統(tǒng),通過實時監(jiān)測和分析能源數(shù)據(jù),實現(xiàn)了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學中
    發(fā)表于 10-14 09:27

    《AI for Science:人工智能驅動科學創(chuàng)新》第一章人工智能驅動的科學創(chuàng)新學習心得

    人工智能:科學研究的加速器 第一章清晰地闡述了人工智能作為科學研究工具的強大功能。通過機器學習深度學習等先進技術,AI能夠處理和分析海量
    發(fā)表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    人工智能推薦系統(tǒng)中強大的圖形處理器(GPU)一爭高下。其獨特的設計使得該處理器在功耗受限的條件下仍能實現(xiàn)高性能的圖像處理任務。 Ceremorphic公司 :該公司開發(fā)的分層學習處理器結合了
    發(fā)表于 09-28 11:00

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內(nèi)外大咖齊聚話AI

    ,得到了華為、騰訊、優(yōu)必選、中煤科工、中國聯(lián)通、云天勵飛、考拉悠然、智航、力維智聯(lián)等國內(nèi)人工智能企業(yè)的深度參與和大力支持。 報名后即可到現(xiàn)場領取禮品,總計5000份,先到先選! 點擊報名:https://bbs.elecfans.com/jishu_2447254_1
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應用有哪些?

    FPGA(現(xiàn)場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現(xiàn)在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度
    發(fā)表于 07-29 17:05

    人工智能、機器學習深度學習是什么

    在科技日新月異的今天,人工智能(Artificial Intelligence, AI)、機器學習(Machine Learning, ML)和深度學習(Deep Learning,
    的頭像 發(fā)表于 07-03 18:22 ?905次閱讀

    人工智能深度學習的五大模型及其應用領域

    隨著科技的飛速發(fā)展,人工智能(AI)技術特別是深度學習在各個領域展現(xiàn)出了強大的潛力和廣泛的應用價值。深度學習作為人工智能的一個核心分支,通過
    的頭像 發(fā)表于 07-03 18:20 ?3075次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V2)

    https://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例_Part1 13分59秒 https://t.elecfans.com/v
    發(fā)表于 05-10 16:46

    機器學習怎么進入人工智能

    人工智能(Artificial Intelligence,AI)是一門涉及計算機、工程、數(shù)學、哲學和認知科學等多個領域的交叉學科,旨在構建智能化計算機系統(tǒng),使之能夠自主感知、理解、學習和決策。如今
    的頭像 發(fā)表于 04-04 08:41 ?203次閱讀

    5G智能物聯(lián)網(wǎng)課程之Aidlux下人工智能開發(fā)(SC171開發(fā)套件V1)

    ://t.elecfans.com/v/25653.html 人工智能 初學者完整學習流程實現(xiàn)手寫數(shù)字識別案例 28分55秒 https://t.elecfans.com/v/27184.html
    發(fā)表于 04-01 10:40

    為什么深度學習的效果更好?

    導讀深度學習是機器學習的一個子集,已成為人工智能領域的一項變革性技術,在從計算機視覺、自然語言處理到自動駕駛汽車等廣泛的應用中取得了顯著的成功
    的頭像 發(fā)表于 03-09 08:26 ?544次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學習</b>的效果更好?

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時代背景下,嵌入式人工智能成為國家新型基礎建設與傳統(tǒng)產(chǎn)業(yè)升級的核心驅動力。同時在此背景驅動下,眾多名企也紛紛在嵌入式人工智能領域布局
    發(fā)表于 02-26 10:17

    生成式人工智能和感知式人工智能的區(qū)別

    生成新的內(nèi)容和信息的人工智能系統(tǒng)。這些系統(tǒng)能夠利用已有的數(shù)據(jù)和知識來生成全新的內(nèi)容,如圖片、音樂、文本等。生成式人工智能通常基于深度學習技術,如生成對抗網(wǎng)絡(GANs)、變分自編碼器(
    的頭像 發(fā)表于 02-19 16:43 ?1381次閱讀

    深度學習人工智能中的 8 種常見應用

    深度學習簡介深度學習人工智能(AI)的一個分支,它教神經(jīng)網(wǎng)絡學習和推理。近年來,它解決復雜問題
    的頭像 發(fā)表于 12-01 08:27 ?3127次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>在<b class='flag-5'>人工智能</b>中的 8 種常見應用