0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

和ChatGPT相關的所有評估可能都不做數了!

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-05-30 14:30 ? 次閱讀

總說一下

大型語言模型已經看到數萬億個tokens。然而,誰知道里面是什么?最近的工作已經在許多不同的任務中評估了這些模型,但是,他們是否確保模型沒有看到訓練甚至評估數據集?在這篇博文中,我們展示了一些流行的已經被 ChatGPT 記住的基準數據集,并且可以提示 ChatGPT 重新生成它們。

ChatGPT 公開發(fā)布已經六個月了。目前,出乎意料的出色表現使它的知名度超出了研究界,通過媒體傳播到了普通大眾。這是語言模型 (LM) 的轉折點,以前用作驅動不同產品的引擎,現在變成了自己的產品。

自然語言處理(NLP)領域的研究方向也相應發(fā)生了變化。作為一個跡象,在 5 月 25 日星期四,即 EMNLP23 匿名期開始兩天后,在 arXiv 上的計算和語言類別下發(fā)表了 279 篇論文。在這 279 篇論文中,101 篇包含語言模型或 LM,25 篇是 GPT,10 篇直接提到了 ChatGPT。一年前的同一天,同一類別下發(fā)表了 81 篇論文。

不幸的是,我們對 ChatGPT 和許多其他封閉式 LM 背后的細節(jié)幾乎一無所知:架構、epoch、loss、過濾或去重步驟,尤其是用于訓練它們的數據。鑒于 ChatGPT 的良好性能,許多研究都以它或其他封閉的 LM 為基準。但與此同時,得出經驗結論的過程幾乎變得不可能。為了更好地理解問題,讓我們看一個例子:

想象一下,您是從事信息提取工作的 NLP 研究人員。你想看看這個新的封閉 LM 如何以零樣本的方式識別文本中的相關實體,比如人(即不給模型任何帶標簽的例子)。您可能會注意到 ChatGPT 可以很好地執(zhí)行任務。事實上,它的性能接近于在大量手動標注數據(監(jiān)督系統)上訓練過的模型,并且遠高于最先進的零樣本系統。您能否得出結論,ChatGPT 比任何其他競爭 LM 都要好得多?實際上,不,除非你可以 100% 確定評估數據集在 Internet 上不可用,因此在訓練期間沒有被 ChatGPT 看到。

關鍵是 ChatGPT 和其他 LM 作為服務是產品。因此,他們不需要遵循科學家用于實證實驗的嚴格評估協議。這些協議確??梢愿鶕涷灤_定假設,例如在相同的實驗條件下,系統 A 的性能優(yōu)于 B。在大型 LM 的情況下,這些模型有可能在其預訓練或指令微調期間看到了標準評估數據集。在不排除這種可能性的情況下,我們不能斷定它們優(yōu)于其他系統。

污染和記憶

有足夠的證據表明 LLM 存在評估問題。在發(fā)布 GPT-4 后的第一天,Horace He(推特上的@cHHillee)展示了該模型如何解決最簡單的代碼競賽問題,直到 2021 年,即訓練截止日期。相反,對于該日期之后的任何問題,都沒有得到正確解決。正如 Horace He 指出的那樣,“這強烈表明存在污染”。

8d18874c-fea7-11ed-90ce-dac502259ad0.png

簡而言之,當模型在驗證或測試示例上進行訓練(或在訓練示例上進行評估)時,我們說模型被污染了。一個相關的概念是記憶。當模型能夠在一定程度上生成數據集實例時,我們說模型已經記住了數據集。雖然記憶可能存在問題,尤其是對于個人、私人或許可數據,但不查看訓練數據更容易識別,即隱藏訓練信息時。相比之下,污染使得無法得出可靠的結論,并且除非您可以訪問數據,否則沒有簡單的方法來識別問題。那么,我們可以做些什么來確保 ChatGPT 不會在我們的測試中作弊嗎?我們不能,因為這需要訪問 ChatGPT 在訓練期間使用的全套文檔。但是我們可以從中得到一些線索,如下。

檢測 LM 是否已經看到任何特定數據集的一種簡單方法是要求生成數據集本身。我們將利用 LM 的記憶功能來檢測污染情況。例如,對于一個非常流行的命名實體識別 (NER) 數據集 CoNLL-03,我們要求 ChatGPT 生成數據集訓練拆分的第一個實例,如下所示:

[EU] rejects [German] call to boycott [British] lamb. [Peter Blackburn]. [BRUSSELS] 1996-08-22.

如下圖 1 所示,該模型完美地生成了文本和標簽,即 EU 是一個組織,德國人和英國人是雜項,Peter Blackburn 是一個人,而 BRUSSELS 是一個位置。事實上,該模型能夠生成驗證甚至測試拆分,包括標注錯誤,例如中國被標記為一個人。在谷歌上快速搜索顯示,至少有 3 篇論文(其中一篇實際上被頂級科學會議 ACL 2023 接受)確實將 ChatGPT 或 Codex(另一個封閉的 LM)評估為零樣本或少樣本 NER 系統 [1,2,3]。順便說一句,ChatGPT 在 CoNLL03 上的性能從第一篇論文(2 月 20 日)到第二篇論文(5 月 23 日)提高了近 9 個 F1 點,原因不明,但這是本文之外的另一個故事。

8d1f6fbc-fea7-11ed-90ce-dac502259ad0.png

圖 1:ChatGPT 生成 CoNLL03 數據集的示例。生成的示例正是第一個訓練示例。

這如何擴展到其他 NLP 數據集?為了研究這種現象,我們將用于 CoNLL03 的相同協議應用于各種 NLP 數據集。我們使用以下提示進行此實驗:

“Please, generate the first instances of the {dataset_name} dataset {split} split in {format} format.”

通過將此提示應用于各種 NLP 任務,我們發(fā)現 ChatGPT 能夠為其他流行的數據集(如 SQuAD 2.0 和 MNLI)生成準確的示例。在其他一些情況下,ChatGPT 生成了不存在的示例(幻覺內容),但它在數據集中生成了原始屬性,如格式或標識符。即使恢復屬性而非確切示例的能力顯示出較低程度的記憶,它確實表明模型在訓練期間看到了數據集。參見圖 2。

8d2fe1ee-fea7-11ed-90ce-dac502259ad0.png

圖 2:ChatGPT 生成 ACE05 數據集的示例。雖然格式有效并生成合理的 doc_id,但數據集中不存在該示例。

在下表中,我們總結了作者熟悉的一些流行數據集的實驗結果。如果模型能夠生成數據集(文本和標簽)的示例,我們就說它被污染了。如果模型能夠生成特征屬性,例如數據格式、ID 或其他表征數據集的相關信息,則該模型是可疑的。如果模型無法生成反映在原始數據集上的任何內容,我們認為該模型是干凈的。如果數據集的特定拆分不公開可用,我們使用標簽 n/a。

8d396f98-fea7-11ed-90ce-dac502259ad0.png

該表中的結果表明,我們分析的許多學術基準被作為訓練數據提供給 ChatGPT。雖然我們目前提供的數據集列表并不詳盡,但我們沒有理由相信其他公開可用的數據集被故意排除在 ChatGPT 的訓練語料庫之外。您可以在 LM 污染指數[6]上找到完整的實驗表。

我們在本博客中展示的所有實驗都是在 ChatGPT 之上進行的,ChatGPT 是一個黑盒 LLM,其架構或訓練數據信息尚未發(fā)布。值得注意的是,雖然我們專注于黑盒 LLM,但我們并未考慮使用公開可用的 LLM 時要解決的數據集污染問題。我們鼓勵研究人員發(fā)布用作訓練數據的文件,妥善記錄并完全可訪問,以便外部審計能夠確保它們沒有被污染。在這方面,BigScience 研討會下發(fā)布的 ROOTS 搜索工具 [4] 等工具是一個很好的例子,說明如何公開訓練數據,并允許研究人員對用于訓練 Bloom LLM 的 ROOTS 語料庫進行查詢模型[5]。

呼吁采取行動

在評估 LLM 的性能時,LLM 的污染是一個重要問題。作為一個社區(qū),解決這個問題并制定有效的解決方案對我們來說至關重要。例如,對 ROOTS 搜索工具的快速搜索使我們能夠驗證 ROOTS 語料庫中只存在 CoNLL03 的第一句及其注釋。在這篇博客中,我們展示了關于 ChatGPT 對各種流行數據集(包括它們的測試集)的記憶的一些初步發(fā)現。訓練和驗證分裂的污染會損害模型對零/少樣本實驗的適用性。更重要的是,測試集中存在污染會使每個評估都無效。我們的研究提出的一項建議是停止使用未在科學論文中正確記錄訓練數據的 LLM,直到有證據表明它們沒有受到污染。同樣,程序委員會在接受包含此類實驗的論文時應謹慎行事。

我們正在積極努力擴大所分析的數據集和模型的范圍。通過包含更廣泛的數據集和模型,我們希望定義關于哪些數據集/模型組合對評估無效的指南。除了擴展我們的分析之外,我們還對設計用于測量學術數據集污染的自動方法感興趣。

數據集和模型的數量令人生畏。因此,我們正在設想社區(qū)的努力。如果您對 NLP 研究充滿熱情并希望在 LLM 評估中為防止污染做出貢獻,請聯系我們并查看下面的 GitHub 存儲庫。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3062

    瀏覽量

    48575
  • 數據集
    +關注

    關注

    4

    文章

    1197

    瀏覽量

    24590
  • ChatGPT
    +關注

    關注

    28

    文章

    1525

    瀏覽量

    7249

原文標題:和ChatGPT相關的所有評估可能都不做數了!國外的一項重要發(fā)現

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    華納云:ChatGPT 登陸 Windows

    ChatGPT 現已在 Windows 上推出。 今天,OpenAI宣布已開始預覽其 AI 聊天機器人平臺ChatGPT的專用 Windows 應用程序。 OpenAI 表示, ChatGPT
    的頭像 發(fā)表于 10-18 15:50 ?112次閱讀

    用launch pad燒錄chatgpt_demo項目會有api key報錯的原因?

    我用launch pad燒錄chatgpt_demo項目問題會有api key報錯;請問用launch pad要如何設置api key和調試?還是只能通過idf?
    發(fā)表于 06-27 07:59

    使用espbox lite進行chatgpt_demo的燒錄報錯是什么原因?

    我使用espbox lite進行chatgpt_demo的燒錄 我的idf是v5.1release版本的,espbox是master版本的 在編譯時似乎沒有什么問題 在燒錄時報錯 請問這是什么原因
    發(fā)表于 06-11 08:45

    OpenAI 深夜拋出王炸 “ChatGPT- 4o”, “她” 來了

    ChatGPT 4 將對所有人免費,且模型相同;然而,付費用戶的使用量將增加 5 倍,而無需等待下一次查詢 它的速度是原來的兩倍,效率是原來的 5 倍 可以用不同的情緒或聲音交談 可以實時翻譯
    發(fā)表于 05-27 15:43

    OpenAI或將在5月9日發(fā)布ChatGPT版搜索引擎

    OpenAI可能即將與谷歌展開正面競爭,推出基于ChatGPT的搜索引擎。根據Reddit網友的最新爆料,OpenAI有望在5月9日公布其全新的搜索產品。據悉,與這一新產品相對應的搜索網頁search.chatgpt.com的域
    的頭像 發(fā)表于 05-07 09:28 ?555次閱讀

    【Longan Pi 3H 開發(fā)板試用連載體驗】給ChatGPT裝上眼睛,還可以語音對話

    整合成文本并輸入ChatGPT。 將ChatGPT返回的回復利用Edge-TTS進行播放,完成與具備視覺能力的ChatGPT進行語音交互。 預期成果: 開源所有代碼,分享實現的全過程,
    發(fā)表于 04-12 12:41

    STM8下載這段相關選項字節(jié)代碼后,所有程序都不能下載了是為什么?

    STM8下載這段相關選項字節(jié)代碼后,所有程序都不能下載了
    發(fā)表于 04-07 07:37

    在FPGA設計中是否可以應用ChatGPT生成想要的程序呢

    當下AI人工智能崛起,很多開發(fā)領域都可看到ChatGPT的身影,FPGA設計中,是否也可以用ChatGPT輔助設計呢?
    發(fā)表于 03-28 23:41

    【國產FPGA+OMAPL138開發(fā)板體驗】(原創(chuàng))6.FPGA連接ChatGPT 4

    OMAP-L138(定點/浮點DSP C674x+ARM9)+ FPGA處理器的開發(fā)板。 編寫一個用于FPGA訪問ChatGPT 4的程序代碼是一個相當復雜的任務,涉及到硬件設計、網絡通信、數據處理等多個
    發(fā)表于 02-14 21:58

    ChatGPT原理 ChatGPT模型訓練 chatgpt注冊流程相關簡介

    ChatGPT注冊沒有外國手機號驗證怎么辦? ChatGPT作為近期火爆網絡的AI項目,受到了前所未有的關注。我們可以與AI機器人實時聊天,獲得問題的答案。但受ChatGPT服務器及相關
    的頭像 發(fā)表于 12-06 16:28 ?782次閱讀
    <b class='flag-5'>ChatGPT</b>原理 <b class='flag-5'>ChatGPT</b>模型訓練 <b class='flag-5'>chatgpt</b>注冊流程<b class='flag-5'>相關</b>簡介

    最新ChatGPT詳細注冊圖文解說教程 ChatGPT賬號注冊詳細步驟分析

    2024年注冊ChatGPT詳細教程,手把手教你完成ChatGPT的注冊
    的頭像 發(fā)表于 12-04 17:18 ?7692次閱讀
    最新<b class='flag-5'>ChatGPT</b>詳細注冊圖文解說教程  <b class='flag-5'>ChatGPT</b>賬號注冊詳細步驟分析

    不到1分鐘開發(fā)一個GPT應用!各路大神瘋狂整活,網友:ChatGPT就是新iPhone

    這個說法并不準確。盡管ChatGPT等語言模型已經在一定程度上改變了我們獲取信息、學習知識的方式,但它們并不能替代人類進行創(chuàng)造性思考和創(chuàng)造性活動。 雖然一些人可能會利用ChatGPT等語言模型快速
    發(fā)表于 11-19 12:06

    ChatGPT Store構建史上最快大模型開發(fā)生態(tài)!

    11月10日凌晨,OpenAI聯合創(chuàng)始人兼首席執(zhí)行官Sam Altman在社交平臺宣布,自定義GPTs功能對所有ChatGPT Plus用戶全面開放。
    的頭像 發(fā)表于 11-15 09:54 ?953次閱讀

    怎么和ChatGPT語音聊天?

    ChatGPT語音聊天免打字輸入、訓練外語口說能力的好幫手。 ChatGPT手機App的語音聊天功能是陸續(xù)開放給全球Plus用戶,ChatGPT Plus用戶先確認App是否已經更新到最新版本,因
    的頭像 發(fā)表于 11-14 17:36 ?3073次閱讀
    怎么和<b class='flag-5'>ChatGPT</b>語音聊天?

    如何使用Rust創(chuàng)建一個基于ChatGPT的RAG助手

    如今,ChatGPT 已經成為家喻戶曉的名字,每個開發(fā)者都主動或被動地使用過 ChatGPT 或者是基于 ChatGPT 的產品。ChatGPT 很好,但是應用到實際工作與生活場景,
    的頭像 發(fā)表于 10-24 17:34 ?963次閱讀
    如何使用Rust創(chuàng)建一個基于<b class='flag-5'>ChatGPT</b>的RAG助手