0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

ChatGPT→LLaMA→Apple GPT:盤點(diǎn)國外大模型產(chǎn)業(yè)發(fā)展之路

通信世界 ? 來源:《通信世界》 ? 2023-09-19 18:00 ? 次閱讀

大模型是“大算力+強(qiáng)算法”的產(chǎn)物,是人工智能發(fā)展的趨勢(shì)和未來。大模型助力AI實(shí)現(xiàn)從“手工作坊”到“工廠模式”的轉(zhuǎn)變,從而使得AI從實(shí)驗(yàn)室走向規(guī)?;漠a(chǎn)業(yè)應(yīng)用。大模型通?;诖笠?guī)模無標(biāo)注數(shù)據(jù)進(jìn)行訓(xùn)練,掌握某種特征和規(guī)則;基于大模型進(jìn)行應(yīng)用開發(fā)時(shí),將大模型進(jìn)行微調(diào),或者不進(jìn)行微調(diào),就可以完成多個(gè)應(yīng)用場景的任務(wù)。與此同時(shí),大模型具有自監(jiān)督學(xué)習(xí)能力,不需要或很少需要通過人工標(biāo)注的數(shù)據(jù)進(jìn)行訓(xùn)練,降低了訓(xùn)練成本,因而能夠加快AI的產(chǎn)業(yè)化進(jìn)程,降低AI應(yīng)用的門檻。通過不斷迭代,大模型能夠具有更強(qiáng)的通用性以及更高的智能程度,從而使得AI更廣泛地賦能各行業(yè)應(yīng)用。

ChatGPT掀起通用人工智能浪潮

2019年,OpenAI推出參數(shù)量高達(dá)15億的通用語言模型GPT-2,能夠生成連貫的文本段落,實(shí)現(xiàn)初步的閱讀理解、機(jī)器翻譯等。2020年,OpenAI推出超大規(guī)模語言訓(xùn)練模型GPT-3,參數(shù)量達(dá)到了1750億,用兩年左右的時(shí)間實(shí)現(xiàn)了模型規(guī)模從億級(jí)到千億級(jí)的突破,并能夠?qū)崿F(xiàn)作詩、聊天、生成代碼等功能。2021年1月,谷歌推出的Switch Transformer模型以高達(dá)1.6萬億的參數(shù)量成為史上首個(gè)萬億級(jí)語言模型。同年12月,谷歌還推出了1.2萬億參數(shù)量的通用稀疏語言模型GLaM。可以看到,大型語言模型的參數(shù)量保持著指數(shù)級(jí)增長的勢(shì)頭。2022年,OpenAI推出的ChatGPT是由比GPT-3更強(qiáng)大的GPT-3.5系列模型提供支持,并且這些模型使用微軟AzureAI超級(jí)計(jì)算基礎(chǔ)設(shè)施上的文本和代碼數(shù)據(jù)進(jìn)行訓(xùn)練。

2022年,ChatGPT突然走紅,這是人工智能大規(guī)模展示通用應(yīng)用場景的開始。在此基礎(chǔ)上,生成式人工智能(AIGC)成為了推動(dòng)行業(yè)領(lǐng)域發(fā)展的重要力量。AIGC既是內(nèi)容的分類方式和生產(chǎn)方式,又是用于內(nèi)容自動(dòng)生成的一類技術(shù)集合,AIGC帶動(dòng)了LLM、GPT等大模型的發(fā)展應(yīng)用,為人工智能產(chǎn)業(yè)帶來了新的變革機(jī)會(huì)。

大模型與AIGC為人工智能領(lǐng)域帶來了新變化。從當(dāng)前大模型的發(fā)展趨勢(shì)看,大模型企業(yè)更傾向于搭建平臺(tái),對(duì)傳統(tǒng)企業(yè)進(jìn)行賦能。具體而言,大模型企業(yè)憑借對(duì)組織型用戶“痛點(diǎn)”的了解,搭建大模型平臺(tái),而組織型用戶只需加入自己獨(dú)有的場景數(shù)據(jù),即可快速生成解決自身問題的“專屬模型”。不過,這種提供定制解決方案的模式也面臨開源模式帶來的挑戰(zhàn)。

LLaMA2開源改變大模型游戲規(guī)則

ChatGPT發(fā)布后,Meta緊跟著推出了類GPT大語言模型LLaMA。模型公布后不久,LLaMA因?yàn)樵创a泄露引來了大量開發(fā)者的關(guān)注,在ChatGPT熱度下降的情況下,LLaMA成為產(chǎn)業(yè)關(guān)注的“新寵”。

2023年前5個(gè)月,ChatGPT全球訪問量增長幅度明顯下降,6月的訪問量更是環(huán)比下滑9.7%,為其自推出以來首次大幅度下滑。7月,Meta發(fā)布首個(gè)開源人工智能模型LLaMA的商業(yè)版本LLaMA2,該商用大模型可為企業(yè)提供OpenAI和谷歌的替代方案,該模型也因此被視為“最強(qiáng)平替”。需要特別說明的是,LLaMA2運(yùn)行在Windows操作系統(tǒng)之上,整合了Azure云,原本與OpenAI長期深入合作的微軟已成為LLaMA2的“首選合作伙伴”。

Meta針對(duì)LLaMA2的開源模式做了如下表述:“我們相信,開源的方法是當(dāng)今人工智能模型發(fā)展的正確途徑,尤其是在技術(shù)進(jìn)步日新月異的生成式人工智能領(lǐng)域。”通過開源的方式吸引足夠的參與者,從而搭建一套完善的生態(tài)系統(tǒng),是Meta這類互聯(lián)網(wǎng)企業(yè)的一貫作風(fēng),但對(duì)于已投入大量成本而期望采用定制化解決方案的玩家而言,卻不是什么好消息。

Meta的操作讓人聯(lián)想到Facebook的開源計(jì)算項(xiàng)目OCP,該項(xiàng)目被用于改變服務(wù)器硬件的制造方式,以更好地適應(yīng)互聯(lián)網(wǎng)時(shí)代。OCP除了對(duì)應(yīng)的機(jī)架規(guī)范Open Rack,還包括服務(wù)器、網(wǎng)絡(luò)、存儲(chǔ),乃至數(shù)據(jù)中心的設(shè)計(jì)。OCP被視為Facebook最為重要的科技項(xiàng)目之一,旨在把“開源”概念引入數(shù)據(jù)中心硬件,為數(shù)據(jù)中心提供更快、更便宜、用材更少的硬件。

OCP的開放性體現(xiàn)在免費(fèi)提供設(shè)計(jì),任何企業(yè)都可以使用它,并對(duì)其進(jìn)行調(diào)整,這意味著,惠普、戴爾和思科這類傳統(tǒng)硬件供應(yīng)商將不再控制產(chǎn)品設(shè)計(jì),取而代之是由用戶自己控制。這給思科等硬件制造市場的老玩家?guī)砹撕艽笸{,因?yàn)镺CP很有可能為企業(yè)提供更便宜、更靈活的替代方案,從而淘汰傳統(tǒng)的昂貴方案。微軟、蘋果等科技巨頭都加入了OCP陣營,開始把OCP的一些概念整合到自身的數(shù)據(jù)中心,形成新的生態(tài)。Facebook也通過構(gòu)建在OCP基礎(chǔ)上的各種技術(shù),大大減少了對(duì)“思科們”的依賴。

LLaMA2的開源模式可能會(huì)影響OpenAI等公司在生成式人工智能軟件市場中取得的早期主導(dǎo)地位。因?yàn)镸eta意在借助LLaMA2構(gòu)建人工智能開源生態(tài)系統(tǒng),快速擴(kuò)大其市場規(guī)模并建立口碑,同時(shí)阻礙競爭對(duì)手從其專有技術(shù)中賺取收入。

Apple GPT入局,前路未知

在Meta、微軟、OpenAI等公司各出奇招的同時(shí),以封閉系統(tǒng)作為競爭優(yōu)勢(shì)的Apple等公司也在借助Siri等人機(jī)交互觸點(diǎn)的優(yōu)勢(shì)向上游拓展。近期,業(yè)內(nèi)傳出Apple秘密研發(fā)Apple GPT的消息。

據(jù)了解,Apple GPT是一款基于蘋果自研Ajax框架開發(fā)的人工智能工具,這一產(chǎn)品已在蘋果內(nèi)部小范圍內(nèi)投入使用。與其他解決方案不同的是,目前Apple尚未決定Apple GPT未來的開發(fā)方向,甚至嚴(yán)格規(guī)定了Apple GPT的使用場景,禁止將其輸出用于開發(fā)面向用戶的功能。這體現(xiàn)了不同企業(yè)對(duì)大模型市場發(fā)展的不同理解和判斷,同時(shí)也體現(xiàn)了“利用大模型做未來物聯(lián)網(wǎng)入口的可能性和交互能力的升級(jí)”這種定位和發(fā)展方向的選擇。

大模型時(shí)代的人工智能倫理風(fēng)險(xiǎn)

開源大模型將加速人工智能市場的應(yīng)用拓展,但與此同時(shí),人工智能哲學(xué)尤其是科技倫理方面的爭議甚囂塵上,大模型的可靠性、安全性、知識(shí)產(chǎn)權(quán)等也成為了產(chǎn)業(yè)亟待解決的新課題。大模型目前還面臨較大的挑戰(zhàn),包括大模型“幻覺”、“一本正經(jīng)地胡說八道”、政企私有數(shù)據(jù)的保密性要求、大模型存在封閉性等,同時(shí)信息壟斷、知識(shí)產(chǎn)權(quán)等問題也不容忽視。

知識(shí)可靠性及信息誤導(dǎo)等問題

ChatGPT不能保證回答問題的可靠性和準(zhǔn)確性,對(duì)于“如果相同的問題在不同時(shí)間問你有不同的結(jié)果,我怎么知道哪一個(gè)比較可信,或者哪一個(gè)更為接近真相”這個(gè)問題時(shí),ChatGPT給出了如下答復(fù):“作為一種人工智能系統(tǒng),我是基于一組固定的算法和數(shù)據(jù)運(yùn)行的,并且在回答問題時(shí)會(huì)遵循程序化的邏輯。因此,如果對(duì)同一個(gè)問題多次詢問,答案應(yīng)該是一致的,除非模型的數(shù)據(jù)或算法發(fā)生了更改。不過,即使我的回答是一致的,也不能完全保證答案的正確性和可靠性,因?yàn)槲业挠?xùn)練數(shù)據(jù)和算法可能存在偏見或錯(cuò)誤,我并不能獨(dú)立判斷我回答的問題是否符合真實(shí)情況。”

ChatGPT要學(xué)習(xí)大量的文本數(shù)據(jù),并以特定的算法處理數(shù)據(jù),因此可通過提供誤導(dǎo)性訓(xùn)練數(shù)據(jù)或者改變算法,操控處理結(jié)果。也就是說,我們不能準(zhǔn)確理解作為“黑盒”的數(shù)據(jù)處理模型,以及信任ChatGPT采用的訓(xùn)練數(shù)據(jù)集的“權(quán)威性”,即便在一個(gè)我們熟悉的領(lǐng)域,細(xì)微的差別也可能導(dǎo)致巨大的結(jié)論偏差。

從知識(shí)可靠性的角度看,知識(shí)應(yīng)用的場景需要非常謹(jǐn)慎,尤其是在學(xué)術(shù)研究領(lǐng)域,必須嚴(yán)格限制ChatGPT信息的引用。

信息壟斷問題

如果模型的使用和控制都是不透明的,就有可能出現(xiàn)信息壟斷。信息壟斷是指一個(gè)或一些組織及個(gè)人控制著信息的生產(chǎn)、流通和使用,從而有效地排除競爭。因此,如果行業(yè)不采用透明公開的方式去評(píng)估和監(jiān)督使用信息,那么就可能存在信息壟斷的風(fēng)險(xiǎn)。

知識(shí)產(chǎn)權(quán)問題

ChatGPT由OpenAI訓(xùn)練,數(shù)據(jù)集是從互聯(lián)網(wǎng)上收集來的大量文本數(shù)據(jù),包含新聞報(bào)道、維基百科條目、小說、博客、論壇帖子、技術(shù)文檔、社交媒體內(nèi)容等信息,這些數(shù)據(jù)可能存在著作權(quán)侵權(quán)的風(fēng)險(xiǎn)。

具體而言,OpenAI嘗試遵循合法、道德的原則來獲取數(shù)據(jù),但并不能保證所有數(shù)據(jù)的著作權(quán)擁有者都同意OpenAI將其數(shù)據(jù)用來訓(xùn)練語言模型。風(fēng)險(xiǎn)在于數(shù)據(jù)的處理結(jié)果是構(gòu)建在未經(jīng)授權(quán)的第三方經(jīng)驗(yàn)之上,而通過這些經(jīng)驗(yàn)獲得的價(jià)值并沒有與第三方共享,或者說他們甚至都沒有意識(shí)到自己的數(shù)據(jù)被使用。在現(xiàn)實(shí)世界中肖像權(quán)被侵犯是比較明顯的,在數(shù)字世界中經(jīng)過多重加工以后,這樣的侵權(quán)行為就不是那么明顯。

在現(xiàn)實(shí)世界中可能會(huì)出現(xiàn)這樣的情況:ChatGPT的回答可能無意之間引用了作者聲明需要分享商業(yè)收益的內(nèi)容,在不知情的情況下侵犯了作者的知識(shí)產(chǎn)權(quán)。此外,經(jīng)過復(fù)雜的模型處理之后,文本的所有者可能很難知道ChatGPT對(duì)他的資產(chǎn)進(jìn)行了處理,也就是說,盡管理論上文本的所有者可以去維權(quán),但實(shí)踐成本會(huì)非常高。

針對(duì)這個(gè)問題,ChatGPT是這樣回應(yīng)的:“確實(shí)存在難以識(shí)別使用者行為的問題。不過我是一個(gè)由OpenAI制作并管理的計(jì)算機(jī)程序,并且OpenAI是一個(gè)認(rèn)真對(duì)待知識(shí)產(chǎn)權(quán)和隱私的公司,他們遵循相關(guān)法律法規(guī),努力確保這些法律法規(guī)在用戶使用我的過程中得到遵循。當(dāng)然,如果您發(fā)現(xiàn)有任何違反知識(shí)產(chǎn)權(quán)的情況,建議您及時(shí)聯(lián)系OpenAI,以幫助他們解決問題?!?/p>

能否用于解決具有創(chuàng)造性的問題

這個(gè)問題看起來更像是一個(gè)人工智能的哲學(xué)問題??茖W(xué)發(fā)展的傳統(tǒng)看法是:科學(xué)知識(shí)是不斷增加的,發(fā)展是一個(gè)直線的、知識(shí)積累的過程。這是為大多數(shù)人所接受的科學(xué)發(fā)展觀,也是ChatGPT體現(xiàn)出來的知識(shí)“歸納”,其文字編碼的概率讓結(jié)果體現(xiàn)出這樣的特征。波普證偽主義強(qiáng)調(diào)的不是知識(shí)的積累,而是科學(xué)理論的更替,舊理論不斷被推翻,新理論取而代之。

大模型帶來了強(qiáng)大的智能,能夠推動(dòng)人工智能向更高級(jí)的智能應(yīng)用邁進(jìn),例如AIGC、更智能的對(duì)話客服等。GPT-3等大模型在新聞文本生成、商業(yè)文本分析、法律文本分析等領(lǐng)域具有較高的產(chǎn)業(yè)應(yīng)用價(jià)值。除問答以外,ChatGPT能夠完成編程、寫稿等眾多超出人們想象的任務(wù)。谷歌公司曾表示:“如果ChatGPT參加谷歌的面試,理論上會(huì)得到入門級(jí)程序員的聘任。因此,更為關(guān)鍵的是我們?cè)趺蠢斫狻畡?chuàng)造性’這個(gè)詞的含義?!?/p>

結(jié)語

無論如何,大模型僅僅是生成式人工智能大規(guī)模商用的前奏,許多領(lǐng)域的企業(yè)都在嘗試將大模型能力與自身的優(yōu)勢(shì)、定位和戰(zhàn)略發(fā)展方向結(jié)合起來。無論是從打造難以被模仿的技術(shù)優(yōu)勢(shì)、大模型能力與復(fù)雜場景結(jié)合構(gòu)建更強(qiáng)的解決方案能力、借助開源模式降低大模型使用門檻形成規(guī)?;瘔艛?,還是借助傳統(tǒng)的觸點(diǎn)優(yōu)勢(shì)進(jìn)一步提升終端用戶的體驗(yàn),市場上不同的玩家都在根據(jù)自身的理解嘗試定義大模型的未來。而在通向未來的道路上,大模型將比其他領(lǐng)域面臨更多的倫理、法律、道德方面的難題,這也是大模型企業(yè)在打造市場競爭力的同時(shí),面臨的新課題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1789

    文章

    46397

    瀏覽量

    236601
  • ChatGPT
    +關(guān)注

    關(guān)注

    28

    文章

    1536

    瀏覽量

    7267
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2225

    瀏覽量

    2254

原文標(biāo)題:ChatGPT→LLaMA→Apple GPT:盤點(diǎn)國外大模型產(chǎn)業(yè)發(fā)展之路

文章出處:【微信號(hào):txshj123,微信公眾號(hào):通信世界】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    如何使用 ChatGPT 進(jìn)行內(nèi)容創(chuàng)作

    ChatGPT平臺(tái)。 選擇模型ChatGPT目前支持GPT3.5和GPT4兩個(gè)模型。根據(jù)
    的頭像 發(fā)表于 10-25 16:08 ?157次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺(tái)上正式上線。該模型包括Meta首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMak
    的頭像 發(fā)表于 10-11 18:08 ?367次閱讀

    llm模型chatGPT的區(qū)別

    ,有許多不同的LLM模型,如BERT、GPT、T5等。 ChatGPT是一種基于GPT(Generative Pre-trained Transformer)
    的頭像 發(fā)表于 07-09 09:55 ?731次閱讀

    國內(nèi)直聯(lián)使用ChatGPT 4.0 API Key使用和多模態(tài)GPT4o API調(diào)用開發(fā)教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的強(qiáng)大工具,可用于自然語言處理和多模態(tài)任務(wù)。在國內(nèi)直聯(lián)使用這些服務(wù)需要一些配置和技巧。本文將詳細(xì)介紹GPT-4o模型以及如何獲取
    的頭像 發(fā)表于 06-08 00:33 ?4054次閱讀
    國內(nèi)直聯(lián)使用<b class='flag-5'>ChatGPT</b> 4.0 API Key使用和多模態(tài)<b class='flag-5'>GPT</b>4o API調(diào)用開發(fā)教程!

    名單公布!【書籍評(píng)測(cè)活動(dòng)NO.34】大語言模型應(yīng)用指南:以ChatGPT為起點(diǎn),從入門到精通的AI實(shí)踐教程

    了備受矚目的ChatGPT。在接下來的不到一年的時(shí)間里,大語言模型的生態(tài)系統(tǒng)迅速壯大并蓬勃發(fā)展。 大語言模型的生態(tài)系統(tǒng)可以分為 模型層、框架
    發(fā)表于 06-03 11:39

    ChatGPT免費(fèi)用戶可試駕自定義GPT模型及分析圖表等功能

    據(jù)悉,自今年 5 月 30 日起,免費(fèi)版 ChatGPT 的使用者可使用自定義 GPT 模型、圖表分析等GPT-4o新增功能。盡管 OpenAI 早前承諾
    的頭像 發(fā)表于 05-30 11:20 ?525次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。在GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。在發(fā)布會(huì)的演示中,OpenAI展示該模型的高級(jí)
    發(fā)表于 05-27 15:43

    OpenAI推出面向所有用戶的AI模型GPT-4o

    在周一的直播盛會(huì)上,OpenAI揭開了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大、更經(jīng)濟(jì)的支持。
    的頭像 發(fā)表于 05-15 09:23 ?340次閱讀

    Meta Llama 3基礎(chǔ)模型現(xiàn)已在亞馬遜云科技正式可用

    亞馬遜云科技近日宣布,Meta公司最新發(fā)布的兩款Llama 3基礎(chǔ)模型——Llama 3 8B和Llama 3 70B,現(xiàn)已正式上線并集成至Amazon SageMaker JumpS
    的頭像 發(fā)表于 05-09 10:39 ?325次閱讀

    蘋果擬推出自研大語言模型Ajax,以優(yōu)化iOS 18,但排除ChatGPT等選項(xiàng)

    早在2023年7月,Ajax模型就曾引發(fā)關(guān)注。該模型采用Google的Jax機(jī)器學(xué)習(xí)框架,運(yùn)行在谷歌Cloud平臺(tái)上,被部分工程師稱為“Apple GPT”,與OpenAI的
    的頭像 發(fā)表于 05-06 15:25 ?347次閱讀

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT

    Meta推出最強(qiáng)開源模型Llama 3 要挑戰(zhàn)GPT Facebook母公司Meta Platforms(META.US)推出了開源AI大模型Ll
    的頭像 發(fā)表于 04-19 17:00 ?756次閱讀

    【飛騰派4G版免費(fèi)試用】仙女姐姐的嵌入式實(shí)驗(yàn)室之五~LLaMA.cpp及3B“小模型”O(jiān)penBuddy-StableLM-3B

    和1750億參數(shù)的GPT-3都是非常由有競爭力的 MetaAI研究人員認(rèn)為,當(dāng)前大模型的高成本阻礙了學(xué)術(shù)研究,因此,開發(fā)出這個(gè)更小更強(qiáng)的模型將有利于學(xué)術(shù)研究的發(fā)展。使用較少參數(shù)的
    發(fā)表于 12-22 10:18

    ChatGPT原理 ChatGPT模型訓(xùn)練 chatgpt注冊(cè)流程相關(guān)簡介

    的影響,其注冊(cè)相對(duì)繁瑣。那么國內(nèi)如何注冊(cè)ChatGPT賬號(hào)?本文跟大家詳細(xì)分享GPT賬戶注冊(cè)教程,手把手教你成功注冊(cè)ChatGPT。 ChatGPT是一種自然語言處理
    的頭像 發(fā)表于 12-06 16:28 ?787次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b><b class='flag-5'>模型</b>訓(xùn)練 <b class='flag-5'>chatgpt</b>注冊(cè)流程相關(guān)簡介

    不到1分鐘開發(fā)一個(gè)GPT應(yīng)用!各路大神瘋狂整活,網(wǎng)友:ChatGPT就是新iPhone

    這個(gè)說法并不準(zhǔn)確。盡管ChatGPT等語言模型已經(jīng)在一定程度上改變了我們獲取信息、學(xué)習(xí)知識(shí)的方式,但它們并不能替代人類進(jìn)行創(chuàng)造性思考和創(chuàng)造性活動(dòng)。 雖然一些人可能會(huì)利用ChatGPT等語言模型
    發(fā)表于 11-19 12:06

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3 目前OpenAI算是全球大模型的引領(lǐng)者,一舉一動(dòng)都牽動(dòng)著大家的關(guān)注,現(xiàn)在
    的頭像 發(fā)表于 11-07 18:20 ?2723次閱讀
    <b class='flag-5'>ChatGPT</b>重磅更新 OpenAI發(fā)布<b class='flag-5'>GPT</b>-4 Turbo<b class='flag-5'>模型</b>價(jià)格大降2/3