0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT,人類認(rèn)知力延伸的競(jìng)賽

AI智勝未來 ? 來源:學(xué)習(xí)時(shí)報(bào) ? 2023-03-06 11:30 ? 次閱讀

2022年11月30日,OpenAI發(fā)布了ChatGPT,在全球范圍內(nèi)引發(fā)了人工智能熱潮。ChatGPT(Chat Generative Pre-trained Transformer),即聊天生成式預(yù)訓(xùn)練轉(zhuǎn)換器。它通過與人類做文字對(duì)話的方式,“與人進(jìn)行實(shí)時(shí)對(duì)話,即時(shí)回答問題;可以做到理解上下文,實(shí)現(xiàn)連續(xù)對(duì)話;可以撰寫和修改計(jì)算機(jī)代碼;編寫文案、腳本、大綱、策劃;快速生成新聞報(bào)道、創(chuàng)作詩歌”等,提供相應(yīng)的文字回答,且回答的內(nèi)容“形式上合理”。

創(chuàng)新困境者的突圍

人類從誕生開始,就一直不斷地認(rèn)識(shí)自然,改造自然。但當(dāng)人類感到自己本體機(jī)能受限時(shí),技術(shù)就應(yīng)運(yùn)而生。技術(shù)加強(qiáng)了人類的本體技能,其本質(zhì)是人類的延伸。體力(手腳、軀干)的延伸促進(jìn)了機(jī)械化的產(chǎn)生,感知力(眼耳鼻舌身)的延伸促進(jìn)了信息化的產(chǎn)生,從工具到汽車,從PC機(jī)到AlphaGo,再到ChatGPT,認(rèn)知力(意即大腦)的延伸促進(jìn)了智能化的發(fā)展。

AI技術(shù)層面來看,ChatGPT所能實(shí)現(xiàn)的人類意圖,來自于機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、轉(zhuǎn)換器和多層感知機(jī)模型的多種技術(shù)架構(gòu)及模型積累,最終形成針對(duì)人類反饋信息學(xué)習(xí)的大規(guī)模自然語言處理模型。截至2023年1月,ChatGPT的用戶超過1億,成為迄今為止增長(zhǎng)最快的消費(fèi)者應(yīng)用程序。這是因?yàn)槿藗冎饔^的認(rèn)知和表達(dá),以及自然科學(xué)和社會(huì)科學(xué)都要以具有實(shí)質(zhì)性的內(nèi)容作為基礎(chǔ)和前提,沒有內(nèi)容就沒有人類文明。ChatGPT的500多位開發(fā)科學(xué)家突破的就是“內(nèi)容”這個(gè)困境!

突破困境,就會(huì)形成質(zhì)的突變。數(shù)據(jù)表明,ChatGPT用了5天漲粉到100萬,而蘋果用了74天,推特用了2年,奈飛用了3年半。

理想主義者的堅(jiān)持

ChatGPT是由OpenAI團(tuán)隊(duì)研發(fā)創(chuàng)造,OpenAI是由SpaceX創(chuàng)業(yè)者埃隆·馬斯克、美國創(chuàng)業(yè)孵化器Y Combinator總裁阿爾特曼、全球在線支付平臺(tái)PayPal聯(lián)合創(chuàng)始人彼得·蒂爾等人于2015年在舊金山創(chuàng)立。OpenAI的創(chuàng)立目標(biāo)是與其他機(jī)構(gòu)合作進(jìn)行AI的相關(guān)研究,并開放研究成果以促進(jìn)AI技術(shù)的發(fā)展。

ChatGPT經(jīng)歷多類技術(shù)路線演化,逐步成熟與完善。其GPT(Generative Pre-trained Transformer,生成式預(yù)訓(xùn)練轉(zhuǎn)換器)模型是一種自然語言處理模型,使用轉(zhuǎn)換器來預(yù)測(cè)下一個(gè)單詞的概率分布,通過訓(xùn)練在大型文本語料庫上學(xué)習(xí)到的語言模式來生成自然語言文本。

從1950年AI始祖圖靈提出基于規(guī)則的少量數(shù)據(jù)處理,給出判斷機(jī)器是否具有“智能”的方法——圖靈測(cè)試開始,AI技術(shù)開始了漫長(zhǎng)的探索。直到30年后,機(jī)器學(xué)習(xí)出現(xiàn),才以可根據(jù)一定范圍的數(shù)據(jù)進(jìn)行參數(shù)分類,但受限于技術(shù)水平,AI僅限于小范圍實(shí)驗(yàn)。到了20世紀(jì)90年代,基于機(jī)器學(xué)習(xí)延伸出來的一個(gè)新的領(lǐng)域——深度學(xué)習(xí)出現(xiàn)了,它是以受人大腦結(jié)構(gòu)為啟發(fā)的神經(jīng)網(wǎng)絡(luò)算法為起源加之模型結(jié)構(gòu)深度的增加發(fā)展,并伴隨大數(shù)據(jù)和計(jì)算能力的提高而產(chǎn)生的一系列新的算法。進(jìn)入21世紀(jì),獲得突破的卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其后來發(fā)展的生成式對(duì)抗網(wǎng)絡(luò)(GAN)開始模仿人腦進(jìn)行大量數(shù)據(jù)的標(biāo)記和訓(xùn)練,分別在計(jì)算機(jī)視覺和自然語言處理領(lǐng)域得到廣泛使用,帶動(dòng)了人工智能領(lǐng)域的蓬勃發(fā)展。

深度學(xué)習(xí)的發(fā)展讓我們第一次看到并接近人工智能的終極目標(biāo),AI從實(shí)驗(yàn)性向?qū)嵱眯赞D(zhuǎn)變,但缺陷是受限于算法瓶頸,無法直接進(jìn)行內(nèi)容生成。

2017年,Ashish Vaswani et.al的論文《Attention Is All You Need》中,提出了一種新的簡(jiǎn)單架構(gòu)——轉(zhuǎn)換器(Transformer),徹底顛覆了過去的理念,沒用到卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò),它完全基于注意力機(jī)制,不用重復(fù)和卷積,因而這些模型在質(zhì)量上更優(yōu),同時(shí)更易于并行化,并且需要的訓(xùn)練時(shí)間明顯更少。該論文被評(píng)為自然語言處理領(lǐng)域的年度最佳論文。

Transformer出現(xiàn)以后,迅速躋身主流模型架構(gòu)基礎(chǔ),使深度學(xué)習(xí)模型參數(shù)達(dá)到了上億的規(guī)模。AI技術(shù)的發(fā)展也呈現(xiàn)出模型之爭(zhēng),重大研究方向就是自然語言處理任務(wù)。隨之,自然語言處理任務(wù)就轉(zhuǎn)入了兩大流派的競(jìng)賽,按轉(zhuǎn)換器架構(gòu)可分OpenAI的自回歸系列(例如GPT-3,偏好生成性任務(wù));谷歌的雙向Transformer+Mask的自編碼系列(例如BERT,偏好自然語言理解)。

從2018年開始,谷歌率先提出了3億參數(shù)模型BERT,陸續(xù)又推出了ELNet、RoBERTa、T5等,到了2021年則推出高達(dá)1.6萬億的參數(shù)量的Switch Transformer模型。2023年2月4日,谷歌注資3億美元投資Anthropic,Anthropic 開發(fā)了一款名為Claude的智能聊天機(jī)器人,據(jù)稱可與ChatGPT相媲美(仍未發(fā)布)。

而OpenAI也在兩年左右的時(shí)間,先后推出了GPT- 1到GPT- 3,再到ChatGPT,參數(shù)實(shí)現(xiàn)了從億級(jí)到上千億級(jí)的突破,并能夠?qū)崿F(xiàn)作詩、聊天、生成代碼等功能。作為OpenAI最大投資方的微軟,開始利用ChatGPT提高產(chǎn)品競(jìng)爭(zhēng)力,將ChatGPT整合進(jìn)Bing搜索引擎、Office全家桶、Azure云服務(wù)、Teams程序等產(chǎn)品中。

此外包括微軟、Meta、英偉達(dá)、華為、百度、阿里等巨頭在內(nèi)的全球領(lǐng)先企業(yè)紛紛參與其中,預(yù)訓(xùn)練大模型已經(jīng)成為整個(gè)AI領(lǐng)域的競(jìng)爭(zhēng)焦點(diǎn)。

混沌和近臨界邊緣者的沖浪

2022年,在ChatGPT溫和聚變式的科技革命中,人工智能生成內(nèi)容后來居上,以超出人們預(yù)期的速度成為科技?xì)v史上的重大事件,迅速催生了全新的科技生態(tài)。

在國內(nèi),2021年成為中國AI大模型的爆發(fā)年。眾多公司和研究機(jī)構(gòu)正在積極開展對(duì)大模型的研發(fā)。代表性的有華為云聯(lián)合循環(huán)智能發(fā)布的基于昇思MindSpore打造的1000億參數(shù)盤古NLP模型、聯(lián)合北京大學(xué)發(fā)布2000億參數(shù)的盤古α模型;百度推出基于PaddlePaddle 開發(fā)的2600億參數(shù)ERNIE3.0 Titan模型;而阿里達(dá)摩院聯(lián)合清華大學(xué)發(fā)布的中文多模態(tài)模型M6參數(shù)達(dá)到10萬億,將大模型參數(shù)直接提升了一個(gè)量級(jí)。

2022年,基于清華大學(xué)、阿里達(dá)摩院等研究成果以及超算基礎(chǔ)實(shí)現(xiàn)的“腦級(jí)人工智能模型”——八卦爐(BAGUALU)完成建立,其模型參數(shù)模型突破了174萬億個(gè),完全可以與人腦中的突觸數(shù)量相媲美。

目前,大模型參數(shù)規(guī)模最高可達(dá)百萬億級(jí)別,數(shù)據(jù)集達(dá)到TB量級(jí),且面向多模態(tài)場(chǎng)景(同時(shí)支持文字、圖像、聲音、視頻、觸覺等兩種及以上形態(tài))的大模型已成為趨勢(shì)。大模型生態(tài)已初具規(guī)模。

值得期待的是,百度宣布將在2023年3月的某個(gè)時(shí)候推出一項(xiàng)中文名為“文心一言”或英文名為“ERNIE Bot”的ChatGPT式服務(wù)。

新一輪認(rèn)知力延伸的競(jìng)賽是否又開始了呢?

《Attention Is All You Need》幾位作者的選擇或許有一定的代表性:時(shí)隔5年,8位作者僅有一位還留在谷歌。其中6人選擇創(chuàng)業(yè)或加入創(chuàng)業(yè)公司,還有一位去了OpenAI。

2022年4月26日,一家名為Adept的公司官宣成立,以Ashish Vaswani為首的共同創(chuàng)始人有9位,Ashish Vaswani在南加州大學(xué)拿到博士學(xué)位,師從華人學(xué)者蔣偉和黃亮,主要研究現(xiàn)代深度學(xué)習(xí)在語言建模中的早期應(yīng)用。2016年,他加入了谷歌大腦并領(lǐng)導(dǎo)了Transformer的研究。

Adept是一家致力于用AI來增強(qiáng)人類能力并最終實(shí)現(xiàn)通用智能的公司。在闡述公司創(chuàng)立初衷時(shí),Ashish Vaswani寫道:“在Google,我們訓(xùn)練出了越來越大的Transformer,夢(mèng)想著有朝一日構(gòu)建一個(gè)通用模型來支持所有ML用例。但是,這其中有一個(gè)明顯的局限:用文本訓(xùn)練出的模型可以寫出很棒的文章,但它們無法在數(shù)字世界中采取行動(dòng)。你不能要求GPT-3給你訂機(jī)票,給供應(yīng)商開支票,或者進(jìn)行科學(xué)實(shí)驗(yàn)”。

因此,他們打算創(chuàng)建一個(gè)通用系統(tǒng),“你可以把它想象成你電腦里的一個(gè)overlay,它和你一起工作,使用和你一樣的工具。使用Adept,你能專注于你真正喜歡的工作,并要求模型承擔(dān)其他任務(wù)”。

也許,對(duì)于國內(nèi)大多數(shù)在混沌和近臨界邊緣上沖浪的人來說,都應(yīng)該好好思索一個(gè)問題:“是沿著Transformer和ChatGPT競(jìng)賽,還是換一個(gè)類似Adept的新賽道呢?”

審核編輯 :李倩


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46401

    瀏覽量

    236631
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1536

    瀏覽量

    7273

原文標(biāo)題:ChatGPT,人類認(rèn)知力延伸的競(jìng)賽

文章出處:【微信號(hào):AI智勝未來,微信公眾號(hào):AI智勝未來】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ChatGPT 與人工智能的未來發(fā)展

    模型的出現(xiàn),標(biāo)志著人工智能在理解和生成人類語言方面取得了重大突破。 1. ChatGPT的工作原理 ChatGPT基于一種稱為“變換器”(Transformer)的架構(gòu),這種架構(gòu)最初是為了處理序列數(shù)據(jù)而設(shè)計(jì)的,如文本或語音。變換
    的頭像 發(fā)表于 10-25 16:30 ?209次閱讀

    怎樣搭建基于 ChatGPT 的聊天系統(tǒng)

    搭建一個(gè)基于ChatGPT的聊天系統(tǒng)是一個(gè)涉及多個(gè)步驟的過程,包括理解ChatGPT的API、設(shè)計(jì)用戶界面、處理數(shù)據(jù)和集成ChatGPT模型。以下是一個(gè)簡(jiǎn)化的指南,用于創(chuàng)建一個(gè)基本的聊天系統(tǒng)。 1.
    的頭像 發(fā)表于 10-25 16:23 ?241次閱讀

    ChatGPT 適合哪些行業(yè)

    ChatGPT 是一種基于人工智能的自然語言處理技術(shù),它能夠理解和生成人類語言。這種技術(shù)在多個(gè)行業(yè)中都有廣泛的應(yīng)用潛力。以下是一些ChatGPT特別適合的行業(yè),以及它在這些行業(yè)中可能的應(yīng)用方式
    的頭像 發(fā)表于 10-25 16:11 ?230次閱讀

    數(shù)據(jù)智能系列講座第3期—交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類認(rèn)知的對(duì)齊

    鷺島論壇數(shù)據(jù)智能系列講座第3期「交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類認(rèn)知的對(duì)齊」(25日)20:00精彩開播期待與您云相聚,共襄學(xué)術(shù)盛宴!|直播信息報(bào)告題目交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與人類
    的頭像 發(fā)表于 09-25 08:06 ?118次閱讀
    數(shù)據(jù)智能系列講座第3期—交流式學(xué)習(xí):神經(jīng)網(wǎng)絡(luò)的精細(xì)與或邏輯與<b class='flag-5'>人類</b><b class='flag-5'>認(rèn)知</b>的對(duì)齊

    大模型LLM與ChatGPT的技術(shù)原理

    在人工智能領(lǐng)域,大模型(Large Language Model, LLM)和ChatGPT等自然語言處理技術(shù)(Natural Language Processing, NLP)正逐步改變著人類
    的頭像 發(fā)表于 07-10 10:38 ?578次閱讀

    用launch pad燒錄chatgpt_demo項(xiàng)目會(huì)有api key報(bào)錯(cuò)的原因?

    我用launch pad燒錄chatgpt_demo項(xiàng)目問題會(huì)有api key報(bào)錯(cuò);請(qǐng)問用launch pad要如何設(shè)置api key和調(diào)試?還是只能通過idf?
    發(fā)表于 06-27 07:59

    使用espbox lite進(jìn)行chatgpt_demo的燒錄報(bào)錯(cuò)是什么原因?

    我使用espbox lite進(jìn)行chatgpt_demo的燒錄 我的idf是v5.1release版本的,espbox是master版本的 在編譯時(shí)似乎沒有什么問題 在燒錄時(shí)報(bào)錯(cuò) 請(qǐng)問這是什么原因
    發(fā)表于 06-11 08:45

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    在FPGA設(shè)計(jì)中是否可以應(yīng)用ChatGPT生成想要的程序呢

    當(dāng)下AI人工智能崛起,很多開發(fā)領(lǐng)域都可看到ChatGPT的身影,F(xiàn)PGA設(shè)計(jì)中,是否也可以用ChatGPT輔助設(shè)計(jì)呢?
    發(fā)表于 03-28 23:41

    亞馬遜加碼投資Anthropic,AI競(jìng)賽再掀波瀾

    亞馬遜正在掀起其30年歷史中最大規(guī)模的外部投資風(fēng)暴,以在人工智能領(lǐng)域的競(jìng)賽中搶占先機(jī)。據(jù)最新消息,這家科技巨頭已決定再向初創(chuàng)公司Anthropic投入27.5億美元。Anthropic作為生成人工智能領(lǐng)域的領(lǐng)跑者,其大型模型Claude與OpenAI的ChatGPT形成激
    的頭像 發(fā)表于 03-28 14:16 ?432次閱讀

    【國產(chǎn)FPGA+OMAPL138開發(fā)板體驗(yàn)】(原創(chuàng))6.FPGA連接ChatGPT 4

    OMAP-L138(定點(diǎn)/浮點(diǎn)DSP C674x+ARM9)+ FPGA處理器的開發(fā)板。 編寫一個(gè)用于FPGA訪問ChatGPT 4的程序代碼是一個(gè)相當(dāng)復(fù)雜的任務(wù),涉及到硬件設(shè)計(jì)、網(wǎng)絡(luò)通信、數(shù)據(jù)處理等多個(gè)
    發(fā)表于 02-14 21:58

    芯科技,解密ChatGPT暢聊之算芯片

    的GPU服務(wù)器,尤其是英偉達(dá)的A100 GPU,提供了強(qiáng)大而精確的計(jì)算能力。ChatGPT的功能遠(yuǎn)超日常對(duì)話,它能夠?qū)W習(xí)、理解并生成人類般的文本,是人工智能領(lǐng)域的一個(gè)重要突破。但其真正力量的源泉,是背后那些不斷工作的算芯片,它
    的頭像 發(fā)表于 12-27 07:45 ?892次閱讀
    芯科技,解密<b class='flag-5'>ChatGPT</b>暢聊之算<b class='flag-5'>力</b>芯片

    ChatGPT原理 ChatGPT模型訓(xùn)練 chatgpt注冊(cè)流程相關(guān)簡(jiǎn)介

    ChatGPT注冊(cè)沒有外國手機(jī)號(hào)驗(yàn)證怎么辦? ChatGPT作為近期火爆網(wǎng)絡(luò)的AI項(xiàng)目,受到了前所未有的關(guān)注。我們可以與AI機(jī)器人實(shí)時(shí)聊天,獲得問題的答案。但受ChatGPT服務(wù)器及相關(guān)政策
    的頭像 發(fā)表于 12-06 16:28 ?791次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b>模型訓(xùn)練 <b class='flag-5'>chatgpt</b>注冊(cè)流程相關(guān)簡(jiǎn)介

    不到1分鐘開發(fā)一個(gè)GPT應(yīng)用!各路大神瘋狂整活,網(wǎng)友:ChatGPT就是新iPhone

    的能力仍然是不可替代的。 此外,ChatGPT等語言模型的應(yīng)用也需要大量的數(shù)據(jù)和算支持,以及專業(yè)的技術(shù)人員進(jìn)行開發(fā)和維護(hù)。因此,雖然ChatGPT等語言模型在某些方面具有一定的優(yōu)勢(shì),但它們并不能完全取代
    發(fā)表于 11-19 12:06

    認(rèn)知域作戰(zhàn)新利器—ChatGPT認(rèn)知剖析及對(duì)策

    ChatGPT是在GPT(Generative Pre-trained Transformer)模型的基礎(chǔ)上通過改進(jìn)優(yōu)化得到的,針對(duì)對(duì)話場(chǎng)景利用“人在回路”進(jìn)行了優(yōu)化。GPT是一種大型語言模型,是現(xiàn)階段對(duì)于自然語言進(jìn)行機(jī)器學(xué)習(xí)的主流思路,能夠生成各種不同的文本類型。
    的頭像 發(fā)表于 10-29 10:49 ?1264次閱讀
    <b class='flag-5'>認(rèn)知</b>域作戰(zhàn)新利器—<b class='flag-5'>ChatGPT</b><b class='flag-5'>認(rèn)知</b>剖析及對(duì)策