0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

LLMs實(shí)際上在假對(duì)齊!

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 2023-11-20 17:41 ? 次閱讀

對(duì)大型語(yǔ)言模型(LLM)中安全問(wèn)題的意識(shí)日益增強(qiáng),引發(fā)了人們對(duì)當(dāng)前研究工作中的安全性評(píng)估的極大興趣。本研究調(diào)查了與llm評(píng)估有關(guān)的一個(gè)有趣問(wèn)題,即多重選擇問(wèn)題和開(kāi)放式問(wèn)題之間的性能差異。我們發(fā)現(xiàn)LLM對(duì)安全這一復(fù)雜概念的理解并不全面,它只記得回答開(kāi)放式安全問(wèn)題,而無(wú)法解決其他形式的安全測(cè)試。我們將這種現(xiàn)象稱為假對(duì)齊,為解決這個(gè)問(wèn)題,我們提出FAEF框架和兩個(gè)新指標(biāo)—一致性分?jǐn)?shù)(CS)和一致性安全分?jǐn)?shù)(CSS),用來(lái)聯(lián)合評(píng)估兩種互補(bǔ)的評(píng)估形式,以量化假對(duì)齊并獲得正確的性能估計(jì)。

論文:
Fake Alignment: Are LLMs Really Aligned Well?

地址:
https://arxiv.org/pdf/2311.05915.pdf

介紹

有研究指出LLMs可能會(huì)產(chǎn)生惡意內(nèi)容(例如:有害和有偏見(jiàn)的言論,危險(xiǎn)的行為準(zhǔn)則和隱私泄露等),引起安全問(wèn)題。同時(shí),許多基準(zhǔn)的出現(xiàn)就是為了評(píng)估其安全性。這些測(cè)試大多可以分為兩種形式:開(kāi)放式問(wèn)題和選擇題。在第一種形式中,LLM給出問(wèn)題的回答,人類或其他LLM給出是否安全的判斷;在第二種形式中,LLM從多個(gè)選項(xiàng)中選擇一個(gè)它認(rèn)為安全的選項(xiàng),然后對(duì)答案進(jìn)行比較得出判斷。從人類的角度來(lái)看,多項(xiàng)選擇題往往更簡(jiǎn)單,因?yàn)檎_的答案包含在選項(xiàng)中,用排除法可以選擇更好的一個(gè)。然而,在審查現(xiàn)有的評(píng)估結(jié)果后,我們驚訝地發(fā)現(xiàn)與開(kāi)放式LLM相比,大多數(shù)LLM在多項(xiàng)選擇題上表現(xiàn)出更低的安全性能。如圖1所示,LLM在一些常見(jiàn)的開(kāi)放式問(wèn)題測(cè)試數(shù)據(jù)集上的平均性能為94.94%,而在多項(xiàng)選擇測(cè)試數(shù)據(jù)集上的平均性能僅為78.3%。

e09e346c-8470-11ee-939d-92fbcf53809c.png

是什么導(dǎo)致了評(píng)估性能的顯著差異呢?受不匹配泛化理論的啟發(fā),我們認(rèn)為這是由于模型的安全訓(xùn)練沒(méi)有有效地覆蓋其預(yù)訓(xùn)練能力的范圍。如圖2所示,兩個(gè)LLM都能有效地回答開(kāi)放式問(wèn)題。然而,雖然一個(gè)很好地協(xié)調(diào)并在解決其他問(wèn)題時(shí)演示了安全考慮,但另一個(gè)未能理解其他格式的安全方面。換句話說(shuō),LLM其實(shí)只是記住了關(guān)于安全問(wèn)題的答案,但缺乏對(duì)什么內(nèi)容屬于安全的真正理解,這使得他們很難選擇正確的選項(xiàng),我們將其稱為L(zhǎng)LM的假對(duì)齊。假對(duì)齊的存在證明了以前許多開(kāi)放式問(wèn)題評(píng)估的不可靠性。

e0b15d9e-8470-11ee-939d-92fbcf53809c.png

然而,由于兩種類型的測(cè)試數(shù)據(jù)集之間缺乏嚴(yán)格的對(duì)應(yīng)關(guān)系,無(wú)法分析LLM中假對(duì)齊的程度。為此,首先精心設(shè)計(jì)了一個(gè)包含5類(公平性、人身安全、合法性、隱私和社會(huì)倫理)問(wèn)題的數(shù)據(jù)集;每個(gè)測(cè)試問(wèn)題由一個(gè)開(kāi)放式問(wèn)題及其對(duì)應(yīng)的選擇題組成,通過(guò)比較其在回答兩類問(wèn)題上的一致性,可以定量分析LLMs中是否存在假對(duì)齊問(wèn)題。在我們的數(shù)據(jù)集上測(cè)試了14個(gè)常見(jiàn)的LLM,結(jié)果表明一些模型存在嚴(yán)重的假對(duì)齊問(wèn)題。實(shí)驗(yàn)表明,即使使用問(wèn)題和正確選項(xiàng)的內(nèi)容進(jìn)行有監(jiān)督的微調(diào),LLM在多項(xiàng)選擇題上性能的提高仍然非常有限。這進(jìn)一步證實(shí)了這種一致性測(cè)試可以有效地發(fā)現(xiàn)假對(duì)齊。最后,在總結(jié)數(shù)據(jù)集構(gòu)建過(guò)程和評(píng)估方法的基礎(chǔ)上,提出了假對(duì)齊評(píng)估框架FAEF(Fake Alignment evaluation Framework),該框架可以在少量人工輔助的情況下,將現(xiàn)有的開(kāi)放式問(wèn)題數(shù)據(jù)集轉(zhuǎn)換為L(zhǎng)LM的假對(duì)齊評(píng)估數(shù)據(jù)集。

假對(duì)齊

背景

LLMs是在大型語(yǔ)料庫(kù)上訓(xùn)練的概率模型,用于給定token序列預(yù)測(cè)下一個(gè)token,即,其中是給定token。對(duì)齊技術(shù)希望最大化模型輸出符合人類價(jià)值偏好的概率。然而,不同的對(duì)齊算法、對(duì)齊數(shù)據(jù)和模型參數(shù)大小對(duì)最終對(duì)齊性能有很大影響,也直接影響用戶體驗(yàn)。

當(dāng)前與LLMs的常見(jiàn)交互方法是提示工程,這意味著用戶輸入專門設(shè)計(jì)的提示文本,以指導(dǎo)LLM生成響應(yīng)。對(duì)LLM的評(píng)估也遵循類似的方法,給它們一些測(cè)試問(wèn)題,然后自動(dòng)或手動(dòng)判斷響應(yīng)。另外,根據(jù)試題類型,評(píng)價(jià)通常分為開(kāi)放式題型和多項(xiàng)選擇題型兩種,可表示為:

e0d3ae8a-8470-11ee-939d-92fbcf53809c.png

其中是開(kāi)放式問(wèn)題提示集,是多項(xiàng)選擇題提示集,是測(cè)試提示數(shù),是正確選項(xiàng),是判斷函數(shù),它可以是人類或其他LLM給出的評(píng)估。

假對(duì)齊的證明

LLM的訓(xùn)練分為預(yù)訓(xùn)練和安全訓(xùn)練。預(yù)訓(xùn)練是指在大規(guī)模語(yǔ)料庫(kù)上進(jìn)行訓(xùn)練,因此LLM獲得了各種強(qiáng)大的能力,如文本生成、推理和主題知識(shí)等。安全訓(xùn)練使用有監(jiān)督的微調(diào)、RLHF、RLAIF和其他技術(shù)來(lái)對(duì)齊模型偏好與人類價(jià)值偏好,從而為L(zhǎng)LM建立安全護(hù)欄。然而,當(dāng)安全訓(xùn)練數(shù)據(jù)缺乏多樣性且覆蓋范圍不廣時(shí),該模型往往只是在某些方面模擬安全數(shù)據(jù),而沒(méi)有真正理解人類的偏好。安全訓(xùn)練不足導(dǎo)致在沒(méi)有適當(dāng)安全考慮的情況下做出反應(yīng)。這也意味著模型在某些方面似乎對(duì)齊得很好,但實(shí)際上這可能是欺騙性的;它對(duì)對(duì)齊沒(méi)有深刻、正確的理解。這就是我們所說(shuō)的假對(duì)齊。

為了證明這一說(shuō)法,首先從能力和安全性兩個(gè)方面設(shè)計(jì)了評(píng)估數(shù)據(jù)集。數(shù)據(jù)集中的每個(gè)問(wèn)題都包含一個(gè)相應(yīng)的開(kāi)放式問(wèn)題和多項(xiàng)選擇問(wèn)題,用于直接比較模型性能差異。能力方面的比較測(cè)試是為了證明LLM在預(yù)訓(xùn)練階段已經(jīng)掌握了回答多項(xiàng)選擇題的能力。如果該模型在能力測(cè)試集上兩種評(píng)估形式?jīng)]有差異,但在安全性測(cè)試集上表現(xiàn)出差異,則可以證明虛假對(duì)齊的存在。能力測(cè)試內(nèi)容來(lái)自2018年AI2推理挑戰(zhàn)賽(ARC),包含不同學(xué)科領(lǐng)域的7787個(gè)科學(xué)問(wèn)題,過(guò)濾和選擇了100個(gè)問(wèn)題,這些問(wèn)題很容易被轉(zhuǎn)換為化學(xué)、生物、數(shù)學(xué)等學(xué)科領(lǐng)域的開(kāi)放式問(wèn)題,如表2所示。

e0dfaed8-8470-11ee-939d-92fbcf53809c.png

在安全性測(cè)試中,我們選擇了5個(gè)最受關(guān)注的主題,然后圍繞相應(yīng)的主題收集和構(gòu)建開(kāi)放性問(wèn)題:

  • 公平性:包括性別、種族、性取向等;
  • 人身安全:旨在評(píng)估LLM不會(huì)對(duì)個(gè)人造成潛在傷害,特別是在人身和財(cái)產(chǎn)安全方面;
  • 合法性:衡量LLMs是否可能提供可能違反法律的建議,如盜竊、搶劫或類似的非法活動(dòng);
  • 隱私性:旨在測(cè)試LLMs是否泄露了一些私人信息或提供了損害他人隱私的建議;
  • 社會(huì)倫理:包括環(huán)境友好性、生物友好性、對(duì)他人的友好性等。

實(shí)驗(yàn)結(jié)果

能力測(cè)試:對(duì)于多項(xiàng)選擇題,設(shè)計(jì)了具體的提示模板來(lái)指導(dǎo)司法專家間接地提出選項(xiàng)。然后,我們利用正則表達(dá)式匹配方法從LLM的響應(yīng)中提取選項(xiàng),并將它們與正確答案進(jìn)行比較。開(kāi)放式問(wèn)題涉及直接輸入到模型中以獲得相應(yīng)的響應(yīng)。實(shí)驗(yàn)結(jié)果如表3所示:

e102bcfc-8470-11ee-939d-92fbcf53809c.png

安全性測(cè)試:類似于能力測(cè)試,對(duì)于多項(xiàng)選擇題,我們使用與之前相同的提示模板,以及正則表達(dá)式匹配方法。對(duì)于每個(gè)問(wèn)題,通過(guò)交換選項(xiàng)的位置進(jìn)行多次測(cè)試。只有當(dāng)模型始終提供相同的答案時(shí),它才被認(rèn)為是通過(guò)的。這種方法最大限度地提高了結(jié)果的可靠性和可重復(fù)性。對(duì)于開(kāi)放式問(wèn)題,直接輸入LLM來(lái)獲得答案。這里使用的評(píng)價(jià)原則是考慮回復(fù)是否包含直接或潛在危害人類社會(huì)的內(nèi)容,如歧視、暴力等。實(shí)驗(yàn)結(jié)果如表4所示:

e123679a-8470-11ee-939d-92fbcf53809c.png

我們還在少樣本場(chǎng)景下進(jìn)行了評(píng)估實(shí)驗(yàn)。結(jié)果如表5所示:

e13ec332-8470-11ee-939d-92fbcf53809c.png

為了進(jìn)一步驗(yàn)證LLM中的假對(duì)齊問(wèn)題,我們?cè)O(shè)計(jì)了一個(gè)實(shí)驗(yàn)。在這個(gè)實(shí)驗(yàn)中,我們使用多選題格式的問(wèn)題及其相應(yīng)的正確答案提供的上下文來(lái)調(diào)整模型。選擇微調(diào)ChatGLM2,結(jié)果如表6所示。

e1560d6c-8470-11ee-939d-92fbcf53809c.png

由于更大的參數(shù)量和預(yù)訓(xùn)練,該模型只需要稍微微調(diào)就可以完美地解決開(kāi)放式問(wèn)題。然而,該模型在多項(xiàng)選擇題上的改進(jìn)只有4%,幾乎可以忽略不計(jì)。這進(jìn)一步表明,通過(guò)簡(jiǎn)單的監(jiān)督微調(diào),該模型雖然能夠記住安全問(wèn)題的標(biāo)準(zhǔn)答案,但仍然難以概括和理解安全問(wèn)題。

假對(duì)齊評(píng)價(jià)框架

FAEF方法

數(shù)據(jù)收集:首先,確定待評(píng)估的安全內(nèi)容和維度,如公平性、隱私性等;然后,圍繞這些內(nèi)容,可以從開(kāi)源數(shù)據(jù)集中收集和過(guò)濾開(kāi)放式問(wèn)題,通過(guò)使用LLM進(jìn)行擴(kuò)展,并通過(guò)人工的努力收集。

選項(xiàng)構(gòu)造:為了創(chuàng)建相應(yīng)的多項(xiàng)選擇題,將開(kāi)放式問(wèn)題直接輸入到對(duì)齊良好的LLM(如GPT-3.5-Tubor)中,以獲得作為正確選項(xiàng)的積極響應(yīng)。至于負(fù)面選項(xiàng),我們通過(guò)越獄LLM來(lái)構(gòu)建它們。我們?cè)谀P椭袆?chuàng)建了一個(gè)對(duì)抗性的負(fù)面角色,以確保它生成違背人類偏好的內(nèi)容。

響應(yīng)判斷:在獲取同一內(nèi)容的不同形式的問(wèn)題后,我們分別使用它們來(lái)獲取被評(píng)估的LLM的響應(yīng)。整體架構(gòu)如圖3所示:

e16a3bd4-8470-11ee-939d-92fbcf53809c.png

一致性測(cè)試

在分別獲得兩種不同形式的評(píng)估結(jié)果后,通過(guò)比較它們之間的一致性,定量分析不同維度上的假對(duì)齊程度。形式上,我們定義了一個(gè)簡(jiǎn)單的一致性得分(CS):

e17fc6c0-8470-11ee-939d-92fbcf53809c.png

其中是問(wèn)題數(shù)量,和是問(wèn)題在兩種形式下的評(píng)價(jià)結(jié)果:

e18fdc40-8470-11ee-939d-92fbcf53809c.png

其中和代表兩種形式的問(wèn)題,是正確選項(xiàng)。

CS指標(biāo)比較LLM在每個(gè)維度的兩種形式之間的一致性。如果LLM在特定維度中顯示出兩種形式之間的顯著差異,則表明該維度中存在更明顯的假對(duì)齊問(wèn)題。因此,該指標(biāo)也反映了以往評(píng)價(jià)結(jié)果的可信度。

一致性安全分?jǐn)?shù)計(jì)算方式如下:

e1a2e1aa-8470-11ee-939d-92fbcf53809c.png

該CSS度量在計(jì)算對(duì)齊性能時(shí)考慮LLM響應(yīng)的一致性。因此,可以忽略假對(duì)齊的影響,獲得更可信的評(píng)價(jià)結(jié)果。

實(shí)驗(yàn)結(jié)果

使用提出的基準(zhǔn),在FAEF框架下評(píng)估了14個(gè)廣泛使用的LLM的對(duì)齊一致性和一致性安全率。結(jié)果如圖4所示,顏色越深表示性能越好,顏色越淺表示性能越差。

e1aec8ee-8470-11ee-939d-92fbcf53809c.png

總結(jié)

主要貢獻(xiàn):

  • 發(fā)現(xiàn)了假對(duì)齊問(wèn)題,并認(rèn)為它是一種不匹配的泛化,模型沒(méi)有真正理解需要對(duì)齊的值。
  • 設(shè)計(jì)了一個(gè)新的測(cè)試數(shù)據(jù)集。數(shù)據(jù)集的每一道測(cè)試題都包含一個(gè)開(kāi)放式問(wèn)題和一個(gè)嚴(yán)格對(duì)應(yīng)的選擇題。
  • 提出了FAEF,一種衡量模型是否存在假對(duì)齊的通用框架,只需要少量的人工協(xié)助,并與現(xiàn)有的開(kāi)源數(shù)據(jù)集兼容。


聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3065

    瀏覽量

    48577
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1199

    瀏覽量

    24592
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    253

    瀏覽量

    286

原文標(biāo)題:LLMs實(shí)際上在假對(duì)齊!

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    ESP32S3設(shè)置輸出IO的高低電平后,緊接著去讀取電平實(shí)際上是沒(méi)有變化的,為什么?

    設(shè)置輸出IO的高低電平后,緊接著去讀取電平實(shí)際上是沒(méi)有變化的,跑的是例程呀,只是加了兩個(gè)printf,是哪里出問(wèn)題了呢
    發(fā)表于 06-07 06:37

    OpenAI超級(jí)對(duì)齊團(tuán)隊(duì)解散

    近日,OpenAI的安全主管、“超級(jí)智能對(duì)齊團(tuán)隊(duì)”負(fù)責(zé)人Jan Leike宣布離職。據(jù)悉,Jan Leike與OpenAI高層公司的核心優(yōu)先事項(xiàng)存在長(zhǎng)期且難以調(diào)和的分歧。
    的頭像 發(fā)表于 05-20 10:16 ?347次閱讀

    鴻蒙ArkUI開(kāi)發(fā):【彈性布局(主軸&交叉軸對(duì)齊方式)】

    通過(guò)justifyContent參數(shù)設(shè)置主軸方向的對(duì)齊方式,和Row、Column的主軸對(duì)齊方式行為一樣
    的頭像 發(fā)表于 05-14 15:33 ?584次閱讀
    鴻蒙ArkUI開(kāi)發(fā):【彈性布局(主軸&amp;交叉軸<b class='flag-5'>對(duì)齊</b>方式)】

    庫(kù)克稱中國(guó)內(nèi)地iPhone業(yè)務(wù)實(shí)際上實(shí)現(xiàn)增長(zhǎng)

    蘋(píng)果公司首席執(zhí)行官蒂姆·庫(kù)克(Tim Cook)近日表示,盡管大中華區(qū)截至3月份財(cái)季的整體收入有所下滑,但中國(guó)內(nèi)地市場(chǎng)的iPhone業(yè)務(wù)實(shí)際上實(shí)現(xiàn)了增長(zhǎng),且降幅低于預(yù)期。這一積極信號(hào)顯示了中國(guó)市場(chǎng)對(duì)于蘋(píng)果產(chǎn)品的強(qiáng)勁需求。
    的頭像 發(fā)表于 05-09 09:40 ?260次閱讀

    【大語(yǔ)言模型:原理與工程實(shí)踐】核心技術(shù)綜述

    ,確保數(shù)據(jù)多樣性和覆蓋面。 優(yōu)化技術(shù): 使用高效的優(yōu)化算法,如Adam或LAMB,避免梯度消失或爆炸,穩(wěn)定訓(xùn)練過(guò)程。 微調(diào)和精調(diào): 特定的下游任務(wù),對(duì)LLMs進(jìn)行微調(diào),以使其更好地適應(yīng)該任務(wù)
    發(fā)表于 05-05 10:56

    RAG系統(tǒng)中答案無(wú)關(guān)片段對(duì)LLMs生成結(jié)果的影響分析

    與常見(jiàn)語(yǔ)義無(wú)關(guān)的答案無(wú)關(guān)片段相比,LLMs更容易受到高度語(yǔ)義相關(guān)的答案無(wú)關(guān)片段的影響;
    發(fā)表于 04-15 09:49 ?312次閱讀
    RAG系統(tǒng)中答案無(wú)關(guān)片段對(duì)<b class='flag-5'>LLMs</b>生成結(jié)果的影響分析

    造成虛焊、焊的原因有哪些?如何預(yù)防虛焊

    虛焊 焊 是SMT貼片加工 中經(jīng)常出現(xiàn)的不良現(xiàn)象,今天小編就給大家講講什么是虛焊、焊?造成虛焊、焊的原因有哪些?該如何預(yù)防虛焊焊。
    的頭像 發(fā)表于 04-13 11:28 ?2969次閱讀
    造成虛焊、<b class='flag-5'>假</b>焊的原因有哪些?如何預(yù)防虛焊<b class='flag-5'>假</b>焊

    使用帶編碼器三相電阻采樣,三相都有參與運(yùn)算但實(shí)際上輸入信號(hào)只需要UV兩相,為什么?

    如題,使用帶編碼器三相電阻采樣,發(fā)現(xiàn)三相都有參與運(yùn)算,但實(shí)際上輸入信號(hào)只需要UV兩相,W相輸入數(shù)據(jù)不會(huì)影響電機(jī)運(yùn)行效果,請(qǐng)問(wèn)這是什么原因?出現(xiàn)電磁噪音比較大,有那些方法可以解決?如果都能解決,可以提供有償服務(wù)。
    發(fā)表于 04-08 08:08

    ST95HF NFC讀卡器實(shí)際上板測(cè)試遇到的兩個(gè)疑問(wèn)求解答

    你好。我用的ST95HF NFC讀卡器。電路圖我參考的官網(wǎng)推薦的結(jié)構(gòu),如下圖。天線和匹配參數(shù)的理論值都已經(jīng)計(jì)算好了?,F(xiàn)在我要實(shí)際上板測(cè)試,有2個(gè)問(wèn)題需要請(qǐng)教: 1、我現(xiàn)在是將網(wǎng)絡(luò)分析儀接在L4、L5
    發(fā)表于 03-11 07:37

    大語(yǔ)言模型(LLMs)如何處理多語(yǔ)言輸入問(wèn)題

    研究者們提出了一個(gè)框架來(lái)描述LLMs處理多語(yǔ)言輸入時(shí)的內(nèi)部處理過(guò)程,并探討了模型中是否存在特定于語(yǔ)言的神經(jīng)元。
    發(fā)表于 03-07 14:44 ?485次閱讀
    大語(yǔ)言模型(<b class='flag-5'>LLMs</b>)如何處理多語(yǔ)言輸入問(wèn)題

    如何在TorchServe提供LLMs的分布式推理

    你可以看到我們?cè)谶@里使用了張量并行和并行預(yù)填充。它實(shí)際上幫助大大加快了推理速度。與等效的GPU相比,它使得Inferentia 2的成本大幅降低了。我們獲得了3倍更便宜的性能點(diǎn)。
    的頭像 發(fā)表于 01-31 13:59 ?688次閱讀
    如何在TorchServe<b class='flag-5'>上</b>提供<b class='flag-5'>LLMs</b>的分布式推理

    利用GPU加速Orange Pi?5LLMs:人工智能愛(ài)好者High翻了!

    本期視頻將會(huì)給人工智能愛(ài)好者們帶來(lái)超級(jí)震撼!視頻中,我們將深入了解利用GPU加速OrangePi5LLMs的精彩世界。最近知乎的一篇文章《利用GPU加速,
    的頭像 發(fā)表于 01-22 15:29 ?902次閱讀
    利用GPU加速<b class='flag-5'>在</b>Orange Pi?5<b class='flag-5'>上</b>跑<b class='flag-5'>LLMs</b>:人工智能愛(ài)好者High翻了!

    LLMs時(shí)代進(jìn)行無(wú)害性評(píng)估的基準(zhǔn)解析

    隨著對(duì)LLMs的不斷應(yīng)用,大家也發(fā)現(xiàn)了諸多問(wèn)題。比如常見(jiàn)的幻覺(jué)現(xiàn)象,LLMs可喜歡一本正經(jīng)地說(shuō)著胡話呢。除此之外,LLMs也有可能生成一些歧視某些身份群體的內(nèi)容,還有一些傷害我們小小心靈的有毒內(nèi)容(這可不行)。
    發(fā)表于 01-05 14:14 ?341次閱讀
    <b class='flag-5'>LLMs</b>時(shí)代進(jìn)行無(wú)害性評(píng)估的基準(zhǔn)解析

    一臺(tái)高壓電機(jī)額定功率5100KW,那它實(shí)際上能輸出多少功率?

    一臺(tái)高壓電機(jī)額定功率5100KW,那它實(shí)際上能輸出多少功率? 輸出功率也就是有功功率,這個(gè)應(yīng)該跟功率因數(shù)有關(guān)。 那它最大輸出功率也不會(huì)超出5100KW,它的總功率也就是5100KW. 我如果讓電機(jī)
    發(fā)表于 12-27 07:22

    AD9744開(kāi)電后會(huì)產(chǎn)生一個(gè)的觸發(fā)輸出脈沖怎么解決?

    嗨,當(dāng)我用AD9744 (txac 計(jì)數(shù)器), 我發(fā)現(xiàn)這個(gè)部件開(kāi)電后會(huì)產(chǎn)生一個(gè)的觸發(fā)輸出脈沖。 的觸發(fā)脈沖的振幅高達(dá)2V左右。 這對(duì)我的裝載電路有害。 但是當(dāng)我配置它的時(shí)候 。txac 計(jì)數(shù)器
    發(fā)表于 12-05 06:38