Microsoft于本周正式推出并開(kāi)放源代碼的新一代大規(guī)模語(yǔ)言模型WizardLM-2,據(jù)稱其性能已超越GPT-4及Mistral。然而,在模型上線后不久,微軟卻在未經(jīng)通知的情況下撤回了所有項(xiàng)目文檔與代碼,至今尚未恢復(fù)上線。
對(duì)此,微軟技術(shù)人員在X平臺(tái)發(fā)表聲明,表示因?qū)π履P桶l(fā)布流程不夠了解,且忽略了幻覺(jué)測(cè)試環(huán)節(jié),導(dǎo)致模型被緊急下線。目前,開(kāi)發(fā)團(tuán)隊(duì)正在全力以赴進(jìn)行測(cè)試,預(yù)計(jì)完成后將盡快重新上線。
盡管模型已暫時(shí)下線,但根據(jù)微軟官方提供的模型介紹頁(yè)面信息,WizardLM-2 8x22B被譽(yù)為當(dāng)前最先進(jìn)的模型,超越了Claude 3 Opus&Sonnet以及GPT-4等競(jìng)爭(zhēng)對(duì)手,性能優(yōu)于規(guī)模比其大10倍的開(kāi)源模型。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。
舉報(bào)投訴
相關(guān)推薦
TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡(jiǎn)稱TaD),京東聯(lián)合清華大學(xué)針對(duì)大語(yǔ)言模型幻覺(jué)問(wèn)題提出的一項(xiàng)技術(shù),成果收錄于IJCAI2024。 RAG:檢索增強(qiáng)生成技術(shù)
發(fā)表于 07-16 15:01
?1819次閱讀
近日,阿里巴巴達(dá)摩院(湖畔實(shí)驗(yàn)室)攜手新加坡南洋理工大學(xué)等研究機(jī)構(gòu),共同推出了大模型知識(shí)鏈(CoK)框架。該框架不僅可實(shí)時(shí)檢索異構(gòu)知識(shí)源,還能逐步糾正推理錯(cuò)誤,有效提高了大模型在回答知識(shí)型問(wèn)題時(shí)的準(zhǔn)確率,并顯著降低了所謂的“幻覺(jué)
發(fā)表于 05-10 11:46
?613次閱讀
據(jù)最新消息,微軟正積極開(kāi)發(fā)一款新型AI語(yǔ)言模型MAI-1,以提升在快速發(fā)展的AI市場(chǎng)中的競(jìng)爭(zhēng)力。
發(fā)表于 05-08 10:27
?397次閱讀
微軟近期傳出消息,正在秘密研發(fā)一款全新的人工智能語(yǔ)言模型,這款模型在規(guī)模上預(yù)計(jì)將具備與谷歌和OpenAI等業(yè)界巨頭相抗衡的實(shí)力。據(jù)悉,這款新模型
發(fā)表于 05-08 09:30
?378次閱讀
類任務(wù)上表現(xiàn)出色,甚至在零樣本條件下也能取得良好效果。另一類則需要逐步推理才能完成的任務(wù),類似于人類的系統(tǒng)2,如數(shù)字推理等。然而,隨著參數(shù)量的增加,大語(yǔ)言模型在這類任務(wù)上并未出現(xiàn)質(zhì)的飛
發(fā)表于 05-07 17:21
計(jì)算和代碼糾錯(cuò)等。這些場(chǎng)景覆蓋日常生活和學(xué)習(xí)的多個(gè)方面,使得對(duì)話能力評(píng)測(cè)變得尤為復(fù)雜和關(guān)鍵。為了全面評(píng)估大語(yǔ)言模型在各種應(yīng)用場(chǎng)景下的對(duì)話能力,研究人員和使用者需要一套綜合性的評(píng)測(cè)框架。該框架主要包括評(píng)測(cè)
發(fā)表于 05-07 17:12
大語(yǔ)言模型的核心特點(diǎn)在于其龐大的參數(shù)量,這賦予了模型強(qiáng)大的學(xué)習(xí)容量,使其無(wú)需依賴微調(diào)即可適應(yīng)各種下游任務(wù),而更傾向于培養(yǎng)通用的處理能力。然而,隨著學(xué)習(xí)容量的增加,對(duì)預(yù)訓(xùn)練數(shù)據(jù)的需求也相應(yīng)
發(fā)表于 05-07 17:10
向量可以隨著任務(wù)更新、調(diào)整。這類語(yǔ)言模型一般分為靜態(tài)詞向量語(yǔ)言模型(如Word2vec、GloVe)和動(dòng)態(tài)詞向量
發(fā)表于 05-05 12:17
NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開(kāi)源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開(kāi)源庫(kù),用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大
發(fā)表于 04-28 10:36
?437次閱讀
據(jù)了解,人工智能安全企業(yè) DeepKeep日前發(fā)表了一份評(píng)估報(bào)告。報(bào)告指出,Meta公司旗下LlamA 2大型語(yǔ)言模型在13個(gè)風(fēng)險(xiǎn)評(píng)估類別中的表現(xiàn)僅為4項(xiàng)合格。
發(fā)表于 04-18 14:45
?413次閱讀
對(duì)于語(yǔ)言模型(LLM)幻覺(jué),知識(shí)圖譜被證明優(yōu)于向量數(shù)據(jù)庫(kù)。知識(shí)圖譜提供更準(zhǔn)確、多樣化、有趣、邏輯和一致的信息,減少了LLM中出現(xiàn)幻覺(jué)的可能性。
發(fā)表于 02-22 14:13
?1024次閱讀
Phi-2 是微軟 “小語(yǔ)言模型(SLM)” 系列中的最新版本。第一個(gè)版本是擁有 13 億參數(shù)的 Phi-1,針對(duì)基本的 Python 編碼任務(wù)進(jìn)行了微調(diào)。
發(fā)表于 12-15 09:46
?228次閱讀
先后和 OpenAI、Meta 牽手推動(dòng)大模型發(fā)展的微軟,也正在加快自家小模型的迭代。
發(fā)表于 12-14 15:45
?739次閱讀
幻覺(jué)被描述為無(wú)意義或不忠實(shí)于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺(jué)又進(jìn)一步分為內(nèi)在幻覺(jué)和外在幻覺(jué)。在LLMs中,幻覺(jué)的范圍包含
發(fā)表于 11-22 17:40
?959次閱讀
視覺(jué)幻覺(jué)是常見(jiàn)于多模態(tài)大語(yǔ)言模型 (Multimodal Large Language Models, MLLMs) 的一個(gè)典型問(wèn)題,它指的是"模型輸出的描述與圖片內(nèi)容不相符"
發(fā)表于 10-30 11:05
?400次閱讀
評(píng)論