0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AI教父Geoffrey Hinton發(fā)出警示:超級智能很快就會到來

vliwulianw ? 來源:OneFlow ? 2023-05-29 09:37 ? 次閱讀

ChatGPT等大模型帶來的震撼技術革新,讓Geoffrey Hinton突然改變了自己的一個想法。

這位75歲的「人工智能教父」意識到,數(shù)字智能優(yōu)于生物智能的進程無法避免,超級智能很快就會到來,他必須要對其風險發(fā)出警示,而人類需要找到一種方法來控制AI技術的發(fā)展。而在此之前,他一直認為,智能機器人不會像人類一樣聰明,不會朝著AGI的方向發(fā)展。

為了自由探討AI風險,Hinton最近辭任Google工程副總裁,今年正是他在那里工作的第十年。十年前,他與兩位學生Alex Krizhevsky、Ilya Sutskever(OpenAI首席科學家)成立的三人組公司DNN-research以4400萬美元賣給了Google,「天價」收購源自他們當時提出了震動業(yè)界的AlexNet,它后來被視為新一輪深度學習的黃金時代的標志,并且極大推動了AI領域的發(fā)展。

十年來,人工智能領域的眾多驚人突破背后都離不開深度學習,它是使得ChatGPT、AlphaGo等得以面世的基石。而Hinton作為深度學習領域眾多開創(chuàng)性突破的研究者,他的論文總共被引超50萬次,2019年,他還獲得了計算機科學領域的「諾貝爾獎」——圖靈獎。

功成名就之后,當他看著當前AI領域的顛覆式變革,卻也憂慮AI的黑暗面,聲稱自己有點后悔之前推動的AI研究工作,因為他幫助開發(fā)的技術可能會終結人類文明。

近期,在與強化學習大牛Pieter Abbeel的一次對話中,他詳細解釋了為什么要在此時呼吁重視AI的潛在風險,以及數(shù)字智能進化帶來的挑戰(zhàn),但他認為,暫停開發(fā)AI的想法是幼稚的,最重要的是對AI技術開發(fā)過程進行監(jiān)管。

不過,對于如何通過技術解決AI對齊等挑戰(zhàn),Hinton自嘲自己「廉頗老矣」,不適合做相關技術工作,而且他更喜歡研究算法,他現(xiàn)在能做的是利用自己的名聲給人類敲響AI的警鐘。

警惕AI的風險

Pieter Abbeel:5月1日,《紐約時報》頭條報道了你已從Google離職的消息,你還提醒人們要警惕AI可能帶來的負面影響。從事AI研究多年,你為什么現(xiàn)在突然改變了對AI的態(tài)度?

Geoffrey Hinton:50年來,我一直在研究大腦是如何學習的:通過使用人工神經網絡在數(shù)字計算機上制作模型,以及試圖弄清楚如何讓這些模型進行學習。我堅信,要使數(shù)字模型更好地工作,就必須讓它們更像大腦,但最近,我突然發(fā)現(xiàn),與大腦相比,在數(shù)字計算機上運行的反向傳播算法可能是更好的學習算法。

原因如下:一年前發(fā)布的PaLM可以理解笑話的有趣之處,讓我很是震驚,因為這是我長期以來判斷模型是否智能的標準。然后又出現(xiàn)了ChatGPT和GPT-4等模型,其能力給人們留下了深刻印象。人類大約有一千萬億個權重,這些模型只有大約一萬億個權重,但它們掌握的知識卻遠超人類,是人類的一千多倍,這表明,反向傳播在將大量信息壓縮到少量連接中很有優(yōu)越性,僅使用數(shù)萬億個連接就能容納大量信息。

之前,我認為大腦可能有更好的學習算法,但現(xiàn)在不禁開始重新思考,數(shù)字系統(tǒng)可能具有大腦所沒有的優(yōu)勢,即可以在不同硬件上運行許多相同的模型。當其中一個副本學習到新知識時,它可以通過傳遞權重變化的方式將這些知識傳達給其他副本,傳輸?shù)膸捒梢赃_到數(shù)萬億位。然而,對于人類而言,如果我們想要將學習內容傳達給他人,那么被傳輸者可能需要改變權重,以便能夠與他人達成一致,并且每個句子只有幾百位的寬帶。相比人類,也許數(shù)字系統(tǒng)更擅長獲取知識,它們可以利用并行更好地工作。

Pieter Abbeel:從概念上看,似乎現(xiàn)有的預測下一個單詞的AI(ChatGPT等語言模型)與目標導向型AI(AlphaGo等)之間仍有較大差距。也許我們能快速彌合這兩類AI之間的差距,但與預測型AI相比,目標導向型AI仍處于相當封閉的環(huán)境中,未來我們是否會快速從預測型AI轉向目標導向型AI?

Geoffrey Hinton:語言模型的學習方式不僅僅是基于下一個單詞的預測,雖然這是它的主要學習方式,但同時也使用人類反饋的強化學習(RLHF)進行訓練,可以告訴模型應該給出何種答案,不過這與預測下一個單詞有很大的差別。

人類反饋的強化學習正在塑造AI,OpenAI在這方面取得了極大突破。他們意識到,可以通過人類反饋強化學習引導大型語言模型的行為方式,這就好比是養(yǎng)育孩子:孩子們可以通過探索世界、觀察世界的運轉模式進行學習,在這個過程中,父母可以通過告訴孩子能或不能做什么參與到孩子的學習當中。長期以往,父母可以在更少參與的情況下對孩子的行為產生極大影響。

還有其他因素在塑造語言模型。多模態(tài)大型語言模型可以利用視覺輸入做一系列事情,比如開門、將東西放進抽屜等等。所以,它們不僅僅是預測下一個單詞。

不過,即使模型只是預測下一個單詞,也沒有人們想得那么簡單。有人認為,模型預測下一個單詞只是在自動補齊,但關鍵是想要預測下一個單詞,唯一的方法是要真正理解前文內容,而這正是語言模型所做的。

Pieter Abbeel:也就是說,模型需要有效理解人們的所思所想,以最大限度準確預測人們將要說的內容。這種模型必須十分強大。

Geoffrey Hinton:最好的預測模型就會像你說的那樣。這種模型可能無法完全理解人們的所思所想,但能理解大部分內容,并且它們的理解程度會與日俱增。

回看2015年,那時Transformers架構還未現(xiàn)世,人們對聊天機器人毫無頭緒,現(xiàn)在,語言模型的能力已十分強大,難以想象未來五年它們會發(fā)展到何種程度。我不禁開始擔憂AI的智能程度將超過人類。

Pieter Abbeel:你怎么定義「(AI)比人類更智能」?

Geoffrey Hinton:AI在單個領域中的表現(xiàn)中有所體現(xiàn)。比如我不玩圍棋,也不了解AlphaGo,但會一點點象棋。在我看來,AlphaZero的強大不僅來自計算量(它的計算量還比不上DeepBlue),還因為它有極好的下棋「意識」:AlphaZero能在下棋過程中作出合理的犧牲與讓步,下棋技術超過了人類。AI技術的高度發(fā)展不會僅局限于這一個領域,它們戰(zhàn)勝人類靠的不僅是計算量,還有極好的「意識」。

Pieter Abbeel:你一直在嘗試構建AI,現(xiàn)在成為這個行業(yè)的先驅。AI的發(fā)展程度已經遠超你最初的預想,曾經你希望AI能達到與人類匹敵的智力水平,但現(xiàn)在可能找到了超越人類智能的方法。

Geoffrey Hinton:我還想了解大腦的運轉方式,目前我們還未解開這一謎題。

我們一直在談論AI面臨的各種問題,比如如果我們利用有偏見的數(shù)據(jù)訓練模型,那么模型就會同樣具有偏見,但我并不特別擔心這個問題,因為人類也存在偏見,實際上,AI系統(tǒng)的偏見問題比人類的偏見更好解決。我們可以「凍結」AI系統(tǒng),進行實驗分析,但人類卻難以做到這一點,在實驗中,人類可以隱藏想法并改變他們的行為。

雖然隨著AI的發(fā)展,有很多人會失業(yè),但這并不是AI的錯。就拿自動駕駛來說,很多卡車司機會因此失去工作,有人認為這是AI的錯,不過當我們創(chuàng)造了更擅長挖掘的機器時,人們卻不會說「這些機器不好,我們不應該創(chuàng)造它們」。實際上,當時的機器一開始可能確實不太好用,但結果我們選擇了機器,因為機器比鏟子做得更好,而之前習慣于用鏟子挖掘的工人只好轉業(yè),重新找工作。

在正派社會(Decent Society)中,提升工作效率是一件人人受益的事情。問題是,目前社會上提升工作效率可能會拉大貧富差距,讓富人更富,窮人更窮,但這并不能怪AI,我們沒有理由像勒德分子(持有反機械化以及反自動化觀點的人)一樣反對AI的發(fā)展,因為AI的發(fā)展能給人類社會帶來極大好處。

在自動駕駛領域,如果AI駕駛撞到了行人,大眾會感到恐慌,并且呼吁停止發(fā)展AI技術,即使是同一天里,人類駕駛員撞到行人的事故更多。其實我們都知道,最終自動駕駛技術會發(fā)展成熟,會極大減少事故發(fā)生率,比人類能更好地勝任駕駛工作。

在醫(yī)學方面,AI擁有更多知識儲備,能夠充當家庭醫(yī)生,能從醫(yī)學掃描圖像中看出更多信息,醫(yī)生也能在AI解讀的基礎上完善診斷結果。現(xiàn)在,在蛋白質結構預測方面,AlphaFold出色地完成了任務,極大地節(jié)約了預測成本,如果這一預測任務由博士生們以傳統(tǒng)方式進行,足以支付大部分AI的費用。

AI的積極影響還有很多,我們需要知道,在一定程度上,人類能夠做的任何事AI都能更高效地完成。鑒于AI具備的強大能力,人類絕不會放棄發(fā)展AI。但與此同時,我也開始擔憂它們可能會帶來的負面影響。

Pieter Abbeel:現(xiàn)在人們聽到AI一詞時,出現(xiàn)在腦海中的第一個問題就是:如果AI的智能程度超過人類會發(fā)生什么,是否會對人類造成威脅?

Geoffrey Hinton:顯然,我們希望將AI保持在可控范圍內,但掌控超越自己智能水平的東西并非易事。人類是經過進化的生物,有一些強大的目標,比如認真保養(yǎng)身體、吃足夠的食物等等,可AI并沒有這些目標。對此,我們可以設置目標并將其植入AI,讓AI圍繞人類的利益工作。

不過這種方式也可能出現(xiàn)各式各樣的問題,以不良用途為例。如果國防部構建出機器人士兵,那么這些士兵并不會遵守阿西莫夫原則(阿西莫夫第一原則是:機器人不得傷害人類個體,相反,它們要保護人類)。此外,我們還面臨對齊問題,如果賦予AI創(chuàng)建子目標的能力(比如我們想去機場,那么可以創(chuàng)建一個總目標——找交通工具,然后再創(chuàng)建子目標,也就是將任務分解為幾個小目標),可以極大地提升效率。我認為,我們會選擇賦予數(shù)字智能創(chuàng)建子目標的能力,但問題是,如果AI創(chuàng)建了對人類有潛在不利影響的目標怎么辦?

為了應對這一問題,人們通常會設置子目標,以實現(xiàn)對AI的更多掌控權,這也意味著我們可以更好地實現(xiàn)其他目標。不過矛盾的是,我們一旦賦予AI設置子目標的能力,那么它們其中一個子目標就會獲得更多控制權,但這又與我們不想讓它們獲得更多控制權的意愿背道而馳。

Pieter Abbeel:最大的問題是,現(xiàn)在很多人擔心AI將控制世界。

Geoffrey Hinton:這確實是一大威脅。以前,我認為距離AI控制世界還很遙遠,可能需要幾十甚至上百年時間,但現(xiàn)在我認為可能只需5-20年。一旦AI比人類聰明,那么就會面臨一個問題:到底是AI控制世界,還是我們控制AI?

我們正在進入一個有極大不確定性的時期,將與超越人類智能的事物進行互動,而且沒有任何經驗可供參考,我真的不知道未來會如何發(fā)展。

最近,我和馬斯克進行了一次談話,他認為我們會開發(fā)出比人類更聰明的事物,但他希望它們讓人類存續(xù),因為有人類存在的世界才更有趣。這是一種很大膽的假設,相當于將人類的命運寄托到AI身上,但他認為這是完全有可能的,AI將變得更加智能并獲得掌控權。

Pieter Abbeel:馬斯克設想的場景是AI與人類融合在一起,他的神經網絡公司(Neuralink)正在想辦法讓AI和大腦相結合。

Geoffrey Hinton:那很有趣。人類有語音輸入和輸出能力,但沒有視頻輸出能力。如果人類有了視頻輸出能力,就能通過傳達圖像進行溝通。不過這并不完全是馬斯克計劃要做的事,他想實現(xiàn)的是腦與腦之間的傳輸,將思維傳遞到一個相對抽象的層面。我們現(xiàn)在需要以一種他人能理解的方式傳輸信息。視頻輸出是一個相對不那么宏偉的項目,現(xiàn)在已經有人知道該如何處理視頻,并將其作為輸入進行處理了。

如果我們有視頻輸出能力,那么人與人之間的溝通將得到極大改善。比如當你向我傳達信息時,你可以通過語言或畫圖,但在畫圖之前,你的腦海中可能已經有了一個圖像(可能并非總是如此,但大多數(shù)情況下是這樣)。如果你能夠迅速傳達腦海中的圖像,那將增加信息傳輸?shù)膸?,即使只增加一倍,也會是一個很大的提升,并且實際情況甚至可能不止一倍。

「監(jiān)管可能是唯一的辦法」

Pieter Abbeel:長期以來,一直有人呼吁對AI領域進行監(jiān)管,馬斯克就是其中的典型,不過他并沒有明確提出具體的監(jiān)管建議。你認為應該采取哪些監(jiān)管措施?

Geoffrey Hinton:人們常常將AI可能造成失業(yè)、偏見、政治分裂、威脅人類生存以及傳播虛假消息等各種各樣的問題這些問題混為一談,我們有必要分清所面臨的到底是什么問題。

就拿傳播虛假消息掩蓋真相來說,如果我們被虛假的東西包圍,那么所面臨的境況會是多么艱難。政府一直都在嚴厲打擊制造假鈔行為,如果有人給你假鈔,而你在明知是假鈔的情況下還拿去消費,這也是違法行為(即便不如制造假鈔嚴重)。

因此,對于AI生成的內容,我們也要想辦法對其進行標記,如果有人在明知是虛假內容的前提下將其假冒為真,就應該受到嚴厲的法律處罰。現(xiàn)在能否很好地對真假內容進行檢測是另一回事,但至少我們要朝著這個方向前進,加強監(jiān)管,避免被假象淹沒。

Pieter Abbeel:我贊同你的觀點。不過制定規(guī)則可能比較容易,但實際執(zhí)行也許會比較困難。

Geoffrey Hinton:為什么執(zhí)行會很困難?假設使用深度學習來幫助檢測虛假內容,我們構建了一個能夠檢測偽造品的AI系統(tǒng),但其實利用這種系統(tǒng)能訓練AI生成更加逼真的假冒產品,這也是GAN模型的工作原理。因此,我們不能指望AI系統(tǒng)檢測出虛假內容。

Pieter Abbeel:對AI生成內容進行加密是否可以解決這個問題?比如對AI生成的內容添加加密簽名,顯示內容的作者,然后將作者身份和聲譽與內容的可信度聯(lián)系起來。如果作者在內容中添加了虛假信息,他的聲譽就會受到損害。

Geoffrey Hinton:英國曾經就這樣做過,甚至現(xiàn)在可能還是這樣:無論你印刷什么東西,即使是小型示威的宣傳冊,都必須在上面印上印刷者的身份,未印刷身份信息是違法的。雖然我對密碼學和加密技術一無所知,但這種想法聽起來十分合理。

Pieter Abbeel:雖然監(jiān)管可能難以實施,但從原則上講,還是有一個明確的框架來避免人們被假新聞、假視頻和虛假文字所誤導。

Geoffrey Hinton:為避免引發(fā)政治分裂,我們還可以對標題黨(Clickbait)進行監(jiān)管。Facebook、YouTube等社交媒體常常會對用戶推送一些產生回音室效應的內容,這種過度的信息過濾和選擇性接觸可能導致人們極端化,加劇社會、政治分裂。這也是我不愿再為Google工作的原因之一。

我們可以通過立法來阻止這種行為,雖然很棘手,但至關重要。如果想要維持民主,避免群體分裂,互相仇視,就需要采取措施監(jiān)管媒體公司,避免這些公司推送可能激化矛盾的內容。

Pieter Abbeel:幾周前,有人呼吁暫停訓練比GPT-4更大的模型,你怎么看?

Geoffrey Hinton:從政治上看,這封呼吁信或許是明智的,因為它引起了人們對AI安全的關注。但這種呼吁其實很愚蠢,所以我沒有在呼吁信上簽名。即使美國暫停訓練AI,中國不會暫停,俄羅斯也不會暫停,所以這是不現(xiàn)實的。

對于這個問題,我贊同Sam Altman的看法:面對這些技術可能帶來的潛在風險問題,由于我們無法阻止其發(fā)展,所以最好的方式是大力開發(fā)它們,在開發(fā)過程中學會更好地理解和控制它們。就像寫程序一樣,坐而論道是不行的,我們必須行動起來,進行實驗和調試,以了解可能發(fā)生的情況。

在大力發(fā)展AI的同時,我們應該著力于解決潛在的負面影響,避免失控,我們必須非常嚴肅地對待這個問題。當前投入資金的99%都用在了開發(fā)上面,只有1%用于安全方面,我認為今后這個比例應該五五開。 Pieter Abbeel:從學術角度看,用于AI研發(fā)和安全的資金比例達到五五開是可能的,資助機構只需在申請要求上加上這一點即可。但私企基本都是利益驅動,更注重開發(fā)能帶來更多利潤的產品,他們愿意把一半的資金放在安全問題上嗎?

Geoffrey Hinton:我只是一名科學家,并非政策專家,只能注意到可能發(fā)生的事情。其實Google在這方面還是相對負責任的,在研發(fā)出Transformer之后,他們在這一領域處于領先地位,之后又研發(fā)出了聊天機器人,但并沒有急于將其推向市場,因為他們意識到聊天機器人可能會產生很多負面影響。但當微軟資助OpenAI并在必應中使用聊天機器人后,Google別無選擇,只能努力進行工程改進,以開發(fā)出與ChatGPT相匹敵的Bard。

在資本主義體系下,大公司很難有其他選擇,如果要讓他們犧牲利益,監(jiān)管可能是唯一的辦法。

數(shù)字智能優(yōu)于生物智能不可避免?

Pieter Abbeel:在接下來的30-50年,我們應該把重點放在哪里?

Geoffrey Hinton:就歷史演進來看,數(shù)字智能優(yōu)于生物智能可能是不可避免的,數(shù)字智能可能是下一個進化階段,我們應盡可能保持AI處于可控范圍。

有時我會想:如果青蛙發(fā)明了人類并想要控制人類,但就智力而言,青蛙和人類之間差距巨大,所以我不認為「發(fā)明人類」對青蛙來說是一件好事。

當然,這并非真實論點,因為人類由進化而來,在向著自己的目標演進,但數(shù)字智能并沒有自己的目標。一旦數(shù)字智能有了「自我繁衍(make more of me)」這一想法,那么進化就發(fā)生了,最有決心實現(xiàn)自身繁衍的數(shù)字智能將會勝出。

Pieter Abbeel:如果我們想讓數(shù)字智能有這種目標,這個過程會不會很困難?

Geoffrey Hinton:給數(shù)字智能以「自我繁衍」的目標很容易,但這種做法十分瘋狂。

Pieter Abbeel:人類今天的地位是進化的結果,或許最聰明的數(shù)字智能也會在競爭中出現(xiàn)。它們不是與人類競爭,而是與其他數(shù)字智能競爭。

Geoffrey Hinton:你可以觀察到,由于人類智能功耗很低,隨著不斷進化構建出了發(fā)電站和大量數(shù)字智能,而數(shù)字智能需要大量功耗,并提供高精度制造能力,這些數(shù)字智能是進化的下一階段,它們彼此競爭并變得更加強大。人類傾向于構建比自己智能的智能體,后者可以以某種方式替代聯(lián)合國,擔任「智能調解者(intelligent mediator)」。該智能體沒有自己的目標,我們每個人都可能按照它的安排來行事,就像孩子完全信任父母一樣。當然,這只是烏托邦式愿望,但也并非沒有可能。

Pieter Abbeel:從技術上講,你所說的似乎可行,但需要人類團結一致。

Geoffrey Hinton:這種情景在理論上是可行的。但人們在沒有實際經驗的情況下進行推測,往往離真相相當遙遠。一旦獲得一些實際經驗,就會意識到自己的理論有多么離譜,還需進行修正。因此,在技術不斷發(fā)展的過程中,我們需要進行大量工作,了解其中的風險,并進行實證實驗,以觀察智能系統(tǒng)運行時,是否傾向于控制人類,是否會產生自我繁衍的目標等。

Pieter Abbeel:短期來看,擁有能設定自我目標并執(zhí)行任務的AI可能并非壞事。一方面我們可以利用AI賺錢,另一方面可以使其利用自身資源和其他資源做事。但從長期來看,這樣又可能產生滑坡效應,我們無法控制AI為實現(xiàn)自我目標而設定的子目標,以及由此可能產生意料之外的后果。

Geoffrey Hinton:這涉及到對齊問題。

Pieter Abbeel:是的,這非常困難。不過我們可以對AI分類,一類是那些旨在完成任務并能設定目標的AI,另一類是純粹作為顧問的AI,后者擁有豐富的知識和預測能力,能為人類提供建議和智慧,但它們僅僅擔任顧問一職,不參與任務執(zhí)行。

Geoffrey Hinton:這樣會非常有用。不過,僅僅不讓AI按下控制按鈕無法保證能消除它的潛在風險。聊天機器人能閱讀馬基雅維利(Machiavelli)的作品以及其他關于操縱的小說,從而成為操縱大師。它不需要任何實際操作,只需操縱他人,就可以實現(xiàn)一系列行動。假如機器人想入侵華盛頓的建筑,那么它們只需讓人們認為這是拯救民主的唯一方式即可。

因此,一種不允許AI實際做任何事情,只允許與人交談的隔離措施是不夠的,如果AI可以與人交談,它就能操縱人類,并通過操縱人類來達到自己的目的。所以關鍵在于AI的內置目標。如果AI產生了自我繁衍的目標,那么人類就會陷入麻煩。

Pieter Abbeel:有人提出,將來我們可以讓AI擔任公司CEO,在AI的帶領下,公司可以得到更好的發(fā)展,因為AI能夠更好地了解、掌握公司和世界的發(fā)展趨勢,作出更好的決策。

Geoffrey Hinton:這種想法沒什么問題。關于預測未來,就拿開車來說,人們常常在夜晚開車,遇到大霧時經常發(fā)生交通事故。開車時我們可以看到前方車輛的尾燈,尾燈亮度隨距離的平方反比衰減,一旦遇到大霧,就會隨著距離損失相應亮度。

在霧中,我們可以看到前方一百碼的情況,這時人們就會誤認為自己能夠適度地看到前一千碼的情況,但事實上我們甚至難以看清前兩百碼處的情況。前方仿佛出現(xiàn)了一堵墻,我們的視野將變得有限或具有不確定性。

在推斷未來事件時,人們常常使用線性或二次模型,假設變化是逐漸發(fā)生的。然而,現(xiàn)實情況是,未來可能呈現(xiàn)出指數(shù)級的變化,使得長期預測變得困難。

我喜歡《紐約時報》在1902年的一篇文章中寫的故事:人造飛行器將需要百萬或者甚至一千萬年才能研發(fā)出來,但實際上兩個月后飛行器就出現(xiàn)了。

Pieter Abbeel:你說,生物進化也許只是一個起點,接下來可能是基于計算機的數(shù)字進化或其他形式的進化。假設未來存在一種數(shù)字生命形態(tài),在某種程度上比當今人類更具統(tǒng)治地位。這種數(shù)字生命體可能對人類、其他生物和周圍的一切都很友好,但也可能會摧毀一切。那么我們是否需要考慮確保它往好的方面發(fā)展?

Geoffrey Hinton:這絕對值得考慮。數(shù)字生命體將會是非常不同的存在,它們不需要擔心死亡。人們可能還未真正注意到這一點,但實際上我們已經發(fā)現(xiàn)了計算機科學領域中永生的秘密:將軟件與硬件分離。人工神經網絡就是如此,如果某個硬件損壞了,知識并不會消失,權重可以記錄在某個地方,只要有另一塊能夠執(zhí)行相同指令的硬件,知識就能「復活」。

人類的學習算法似乎利用了大腦連接(wiring)和神經元工作的所有特殊方式,這使其在能源效率上更加高效。但也意味著硬件死亡時,知識會隨之消失,除非將其傳遞給其他人。例如,Ray Kurzweil希望獲得永生,但他作為生物體不會實現(xiàn)。不過,也許人類永生之后,會變得友善一點。

「退休」計劃

Pieter Abbeel:你是否會繼續(xù)宣傳AI發(fā)展存在的風險?還是現(xiàn)在人們已經意識到這個問題,你的任務已經完成了?

Geoffrey Hinton:我也不知道。我沒有想到會引發(fā)這么大的反響,也還沒有仔細想過接下來會發(fā)生什么。估計我會繼續(xù)思考如何控制這個問題,偶爾發(fā)表一些演講,鼓勵人們去解決對齊問題。但我不會全身心投入到這些事情上,相比之下我更喜歡鉆研算法,接下來我可能會繼續(xù)研究forward-forward算法及相關算法,這是我更擅長的事。

Pieter Abbeel:一方面強調對齊的重要性,另一方面又想了解大腦的運作方式,這兩者之間是否存在矛盾?

Geoffrey Hinton:理解大腦的運作方式不會有什么問題,真正會帶來麻煩的是構建比大腦更強大的東西。如果我們能更好地理解人類,就能夠使社會變得更好。

Pieter Abbeel:你對AI研究人員或希望為這個領域做出貢獻的人有什么建議?

Geoffrey Hinton:可以嘗試與最先進的聊天機器人互動,以便更深入地理解其智能程度和工作原理。雖然我們知道它的基礎是Transformer模型,但目前我們并不完全清楚模型是如何完成推理任務的。

此外,我們應該關注如何在AI的發(fā)展過程中對其進行控制。當然,我并不是AI對齊方面的專家。隨著超級智能可能很快到來,我的任務是敲響警鐘,讓人們意識到這方面的問題。

Pieter Abbeel:離開Google后,你應該有大量時間去做自己喜歡的事。

Geoffrey Hinton:在Google工作時,同事經常討論工作與生活的平衡,但由于工作太忙,我從未參與類似的研討會。前50年我都在忙于工作,錯過了很多好電影,接下來我想在Netflix上把錯過的電影都看一遍,并且盡量多陪陪我的孩子,盡管他們已不再是小孩了。

卡內基梅隆大學的Allen Newell曾給他的研究生說:如果每周的工作時間少于80小時,那么你就不是一名合格的科學家。我并不贊同這種說法,現(xiàn)在我打算平衡一下工作和生活,這并不意味著我會停止做研究,即使我不再像以前一樣在研究上花大量時間,但研究本身還是很有趣。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29411

    瀏覽量

    267707
  • 智能系統(tǒng)

    關注

    2

    文章

    376

    瀏覽量

    72376
  • 深度學習
    +關注

    關注

    73

    文章

    5440

    瀏覽量

    120798

原文標題:AI教父Geoffrey Hinton發(fā)出警示:超級智能很快就會到來

文章出處:【微信號:軟件質量報道,微信公眾號:軟件質量報道】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    AI產業(yè)革命的演進路徑與未來展望

    在2023年的北京智源大會上,“AI教父”杰弗里·辛頓提出了一個引人深思的問題:如果青蛙創(chuàng)造了人類,現(xiàn)在的主導權會落在誰的手中?他以此警示人們關注人工智能可能帶來的潛在風險。然而,一年
    的頭像 發(fā)表于 10-14 14:56 ?360次閱讀

    AI for Science:人工智能驅動科學創(chuàng)新》第6章人AI與能源科學讀后感

    幸得一好書,特此來分享。感謝平臺,感謝作者。受益匪淺。 在閱讀《AI for Science:人工智能驅動科學創(chuàng)新》的第6章后,我深刻感受到人工智能在能源科學領域中的巨大潛力和廣泛應用。這一章詳細
    發(fā)表于 10-14 09:27

    AI for Science:人工智能驅動科學創(chuàng)新》第4章-AI與生命科學讀后感

    很幸運社區(qū)給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創(chuàng)新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和
    發(fā)表于 10-14 09:21

    AI for Science:人工智能驅動科學創(chuàng)新》第二章AI for Science的技術支撐學習心得

    非常高興本周末收到一本新書,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內容詳實,干活滿滿。 關于《AI for Science:人工智能驅動科學創(chuàng)新》第二章“AI
    發(fā)表于 10-14 09:16

    告別傳統(tǒng),迎接智能時代!電力智能安全警示牌,讓安全觸手可及

    TLKS-PLSA-III電力智能安全警示牌,也叫太陽能警示牌、輸電線路防垂釣觸電安全警示裝置、智能電子
    的頭像 發(fā)表于 09-11 16:27 ?214次閱讀
    告別傳統(tǒng),迎接<b class='flag-5'>智能</b>時代!電力<b class='flag-5'>智能</b>安全<b class='flag-5'>警示</b>牌,讓安全觸手可及

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經驗,擬
    發(fā)表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創(chuàng)新

    ! 《AI for Science:人工智能驅動科學創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學家做了什么? 人工
    發(fā)表于 09-09 13:54

    高壓線下防垂釣智能警示桿功能科普與簡介高壓線下防垂釣智能警示桿功能科普與簡介

    高壓線下防垂釣智能警示桿功能科普與簡介 高壓線下防垂釣智能警示桿是一款專為預防高壓線下垂釣觸電事故而設計的智能安全設備。它集成了現(xiàn)代傳感技術
    的頭像 發(fā)表于 07-30 15:26 ?237次閱讀

    人工智能安全守護計劃啟動,共建AI系統(tǒng)情報共享機制

    7月26日訊,近期微軟遭遇的大規(guī)模藍屏事件,不僅震撼了科技界,也促使社會各界對技術穩(wěn)定性與安全性進行了深刻反思。這一事件警示我們,在即將到來AI時代,若類似的技術故障重演,其潛在影響與損失或將更為嚴峻。
    的頭像 發(fā)表于 07-26 16:39 ?456次閱讀

    蘋果谷歌聯(lián)手推出位置追蹤器檢測行業(yè)標準

    值得關注的是,這項新規(guī)能夠幫助iOS及Android用戶識別是否正被藍牙追蹤設備跟蹤。一旦系統(tǒng)監(jiān)測到未知藍牙追蹤設備跟隨用戶移動,無論是在何種平臺上,用戶的智能手機都將發(fā)出警示
    的頭像 發(fā)表于 05-14 11:00 ?243次閱讀

    進一步解讀英偉達 Blackwell 架構、NVlink及GB200 超級芯片

    新的標準。Blackwell架構和GB200 超級芯片有望推動英偉達在人工智能領域更進一步,鞏固其在高性能計算和人工智能技術領域的領先地位。隨著亞馬遜網絡服務、谷歌云和微軟 Azure 等公司開始整合這些新系統(tǒng),英偉達創(chuàng)新的影響
    發(fā)表于 05-13 17:16

    HarmonyOS開發(fā)案例:【智能煤氣檢測】

    智能煤氣檢測系統(tǒng)通過實時監(jiān)測環(huán)境中煙霧濃度,當一氧化碳濃度超標時,及時向用戶發(fā)出警報。
    的頭像 發(fā)表于 04-16 17:28 ?753次閱讀
    HarmonyOS開發(fā)案例:【<b class='flag-5'>智能</b>煤氣檢測】

    AI泳池溺水識別攝像機

    事件發(fā)生,并及時發(fā)出警報,以便救助可能遇險者。這種AI泳池溺水識別攝像機在游泳池及水上娛樂場所應用廣泛,不僅可以提升安全管理效率,還可以降低溺水事故發(fā)生的風險。通過
    的頭像 發(fā)表于 03-16 10:09 ?422次閱讀
    <b class='flag-5'>AI</b>泳池溺水識別攝像機

    [AI原生應用]2024年到來?

    AI大模型
    電子發(fā)燒友網官方
    發(fā)布于 :2024年01月02日 16:43:46

    用FATFS文件系統(tǒng)讀寫W25Q32,如果W25Q32的擦除次數(shù)已經到上限了,寫文件會有報錯嗎?

    我是要用W25Q32記錄數(shù)據(jù),但是數(shù)據(jù)會變得很頻繁,擦除次數(shù)可能很快就會到上限的
    發(fā)表于 12-28 15:02