0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

蘋(píng)果ReALM模型在實(shí)體識(shí)別測(cè)試中超越OpenAI GPT-4.0

微云疏影 ? 來(lái)源:綜合整理 ? 作者:綜合整理 ? 2024-04-02 11:23 ? 次閱讀

4月2日?qǐng)?bào)道,盡管Siri在描述圖片信息的能力上不夠完善,但蘋(píng)果公司并未停止對(duì)人工智能領(lǐng)域的深入探索。其最新研究論文詳述了一種大幅提升Siri智能化水平的模型——ReALM。該模型在測(cè)試中超越了OpenAI的GPT-4.0著名語(yǔ)言模型。

據(jù)悉,ReALM的獨(dú)特特性是同時(shí)理解用戶屏幕內(nèi)容及正在執(zhí)行的操作。依據(jù)信息類型,論文將信息細(xì)分成三類:

(1)屏幕實(shí)體: 即當(dāng)前顯示在用戶屏幕上的內(nèi)容。

(2)對(duì)話實(shí)體: 指與對(duì)話相關(guān)的內(nèi)容。如,用戶請(qǐng)求“撥打母親的電話”,那么,母親的聯(lián)系信息便屬于此類。

(3)背景實(shí)體: 與用戶當(dāng)前操作或屏幕顯示內(nèi)容未必直接相關(guān)的實(shí)體,如正在播放的音樂(lè)或即將發(fā)出的報(bào)警鈴聲。

一旦成功實(shí)現(xiàn),ReALM將賦予Siri更高的智能化和實(shí)用性。該團(tuán)隊(duì)將ReALM與OpenAI的GPT-3.5和GPT-4.0進(jìn)行了性能比拼:

“我們以上下文信息作為輸入,對(duì)比了OpenAI的GPT-3.5和GPT-4.0模型預(yù)測(cè)實(shí)體的準(zhǔn)確程度。由于GPT-3.5僅支持文本輸入,故我們僅提供文字提示;而GPT-4允許理解圖片信息,所以我們給它提供了屏幕截圖,從而有效提高了屏幕實(shí)體識(shí)別的效率?!?/p>

那蘋(píng)果的ReALM是否具備如此強(qiáng)大的性能優(yōu)勢(shì)呢?

“我們的模型在識(shí)別各種類型實(shí)體方面都有顯著提升,即使是小尺寸模型,在屏幕實(shí)體識(shí)別準(zhǔn)確性上也已超過(guò)原有的系統(tǒng)5%以上。在與GPT-3.5和GPT-4.0的比較中,小型模型與GPT-4.0相媲美;更大的模型則表現(xiàn)更佳。”

論文得出的結(jié)論之一便是,有比GPT-4參數(shù)少許多的ReALM,卻仍可在性能上與之匹敵。在處理某些特定領(lǐng)域的用戶指令時(shí),ReALM甚至優(yōu)于其他模型,使其成為一款高效、實(shí)用且可本地運(yùn)行的實(shí)體識(shí)別系統(tǒng)。

而關(guān)鍵問(wèn)題在于,蘋(píng)果需尋求無(wú)損性能的方法來(lái)將此技術(shù)運(yùn)用至設(shè)備之中。據(jù)了解,預(yù)計(jì)6月10日舉行的WWDC 2024開(kāi)發(fā)者大會(huì)上,蘋(píng)果將會(huì)在iOS 18等新系統(tǒng)中展現(xiàn)更多人工智能技術(shù)創(chuàng)新成果,令人頗為期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3058

    瀏覽量

    48570
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    347

    瀏覽量

    15243
  • 蘋(píng)果公司
    +關(guān)注

    關(guān)注

    2

    文章

    447

    瀏覽量

    22561
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    OpenAI宣布啟動(dòng)GPT Next計(jì)劃

     9月4日最新資訊,OpenAI Japan KDDI峰會(huì)上亮相,揭開(kāi)了其即將問(wèn)世的下一代AI模型的神秘面紗,并正式宣布了旨在2024年啟動(dòng)的GPT Next宏偉計(jì)劃。
    的頭像 發(fā)表于 09-04 14:51 ?474次閱讀

    OpenAI api key獲取并可調(diào)用GPT-4.0、GPT-4o、GPT-4omini

    前言 在這篇文章,我們將詳細(xì)介紹如何申請(qǐng)OpenAIGPT-4.0 API Key。通過(guò)這個(gè)教程,你將能夠輕松獲取OpenAI API KEY并使用
    的頭像 發(fā)表于 08-06 15:16 ?1723次閱讀
    <b class='flag-5'>OpenAI</b> api key獲取并可調(diào)用<b class='flag-5'>GPT-4.0</b>、<b class='flag-5'>GPT</b>-4o、<b class='flag-5'>GPT</b>-4omini

    OpenAI 推出 GPT-4o mini 取代GPT 3.5 性能超越GPT 4 而且更快 API KEY更便宜

    OpenAI推出了GPT-4o mini模型,用來(lái)取代GPT-3.5.這是目前市場(chǎng)上最具成本效益的小模型。 ? 該
    的頭像 發(fā)表于 07-21 10:20 ?785次閱讀
    <b class='flag-5'>OpenAI</b> 推出 <b class='flag-5'>GPT</b>-4o mini 取代<b class='flag-5'>GPT</b> 3.5 性能<b class='flag-5'>超越</b><b class='flag-5'>GPT</b> 4 而且更快 API KEY更便宜

    OpenAI推出新模型CriticGPT,用GPT-4自我糾錯(cuò)

    基于GPT-4的模型——CriticGPT,這款模型專為捕獲ChatGPT代碼輸出的錯(cuò)誤而設(shè)計(jì),其獨(dú)特的作用在于,讓人們能夠用GPT-4來(lái)
    的頭像 發(fā)表于 06-29 09:55 ?468次閱讀

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來(lái)了

    當(dāng)?shù)貢r(shí)間5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前邁出的一大步。GPT-4turbo的強(qiáng)大基礎(chǔ)上,這種迭代擁有顯著的改進(jìn)。發(fā)布會(huì)的演示
    發(fā)表于 05-27 15:43

    OpenAI發(fā)布全新GPT-4o模型

    近日,OpenAI宣布推出全新的GPT-4o模型,標(biāo)志著人工智能領(lǐng)域的一大技術(shù)飛躍。這款模型不僅具備強(qiáng)大的生成能力,還能精準(zhǔn)理解用戶意圖,提供智能化的回答。
    的頭像 發(fā)表于 05-17 11:48 ?571次閱讀

    OpenAI推出面向所有用戶的AI模型GPT-4o

    周一的直播盛會(huì)上,OpenAI揭開(kāi)了其最新的人工智能模型GPT-4o的神秘面紗。這款新模型旨在為其著名的聊天機(jī)器人ChatGPT提供更強(qiáng)大
    的頭像 發(fā)表于 05-15 09:23 ?336次閱讀

    OpenAI發(fā)布GPT-4o模型,供全體用戶免費(fèi)使用

    OpenAI首席技術(shù)官穆里·穆拉蒂(Muri Murati)指出,GPT-4o具備與GPT-4相同的智能水平,且文本、圖像及語(yǔ)音處理方面有顯著進(jìn)步。
    的頭像 發(fā)表于 05-14 11:17 ?407次閱讀

    OpenAI API Key獲取與充值教程:助開(kāi)發(fā)者解鎖GPT-4.0 API

    人工智能的浪潮,OpenAIGPT-4.0 模型以其卓越的語(yǔ)言理解和生成能力引領(lǐng)了技術(shù)的新高潮。為開(kāi)發(fā)者提供了強(qiáng)大的工具來(lái)創(chuàng)建更智
    的頭像 發(fā)表于 04-28 16:35 ?9274次閱讀
    <b class='flag-5'>OpenAI</b> API Key獲取與充值教程:助開(kāi)發(fā)者解鎖<b class='flag-5'>GPT-4.0</b> API

    OpenAI有望在年中推出全新GPT-5模型

    近日,人工智能領(lǐng)域的領(lǐng)軍企業(yè)OpenAI傳來(lái)了令人振奮的消息。據(jù)悉,他們有望今年的年中,大約是夏季時(shí)分,推出全新的GPT-5模型。這一消息引發(fā)了業(yè)界的廣泛關(guān)注與期待。
    的頭像 發(fā)表于 03-22 11:29 ?699次閱讀

    OpenAI預(yù)計(jì)最快今年夏天發(fā)布GPT-5

    OpenAI正計(jì)劃在未來(lái)數(shù)月內(nèi),可能是今年夏季,發(fā)布備受矚目的GPT-5模型。據(jù)悉,部分企業(yè)客戶已提前體驗(yàn)了OpenAI最新模型及其Chat
    的頭像 發(fā)表于 03-22 10:40 ?667次閱讀

    全球最強(qiáng)大模型易主,GPT-4被超越

    近日,AI領(lǐng)域的領(lǐng)軍企業(yè)Anthropic宣布推出全新的Claude 3系列模型,其中包括最強(qiáng)版Claude 3 Opus。據(jù)該公司稱,Claude 3系列推理、數(shù)學(xué)、編碼、多語(yǔ)言理解和視覺(jué)方面全面超越了包括
    的頭像 發(fā)表于 03-05 09:58 ?570次閱讀

    OpenAI GPT 商店即將亮相,SpaceX 新型 Starlink 衛(wèi)星發(fā)射上天

    大家好,歡迎收看河套 IT WALK 第 135 期。 2024 年第一周即將結(jié)束之際,OpenAI 宣布即將推出備受期待的 GPT 商店。SpaceX 衛(wèi)星通信領(lǐng)域?qū)崿F(xiàn)了重大突
    的頭像 發(fā)表于 01-05 21:15 ?565次閱讀
    <b class='flag-5'>OpenAI</b> <b class='flag-5'>GPT</b> 商店即將亮相,SpaceX 新型 Starlink 衛(wèi)星發(fā)射上天

    OpenAI發(fā)布的GPT-4 Turbo版本ChatGPT plus有什么功能?

    OpenAIGPT-4 Turbo以前所未有的功能和價(jià)格改變?nèi)斯ぶ悄艿奈磥?lái) 人工智能領(lǐng)域的一次里程碑式活動(dòng),OpenAI開(kāi)發(fā)者大會(huì)上發(fā)
    的頭像 發(fā)表于 12-05 17:57 ?2294次閱讀
    <b class='flag-5'>OpenAI</b>發(fā)布的<b class='flag-5'>GPT</b>-4 Turbo版本ChatGPT plus有什么功能?

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3

    發(fā)布GPT-4 Turbo模型 北京時(shí)間11月7日凌晨?jī)牲c(diǎn),OpenAI首屆開(kāi)發(fā)者大會(huì)在洛杉磯正式開(kāi)幕。 Sam Altman分享了ChatGPT取得的成就?!坝写蠹s200萬(wàn)開(kāi)發(fā)人員,
    的頭像 發(fā)表于 11-07 18:20 ?2695次閱讀
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b>發(fā)布<b class='flag-5'>GPT</b>-4 Turbo<b class='flag-5'>模型</b>價(jià)格大降2/3