0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于性別的暴力(GBV)的語言表達(dá)如何影響責(zé)任認(rèn)知

深度學(xué)習(xí)自然語言處理 ? 來源:機(jī)器翻譯學(xué)堂 ? 作者:機(jī)器翻譯學(xué)堂 ? 2022-11-12 10:28 ? 次閱讀

主要貢獻(xiàn)

論文詳細(xì)分析了意大利關(guān)于GBV的新聞報(bào)道中人類的責(zé)任觀念,證明了特定語法結(jié)構(gòu)和語義框架的會引發(fā)不同的責(zé)任認(rèn)知,并且可以被自動建模。

-01-

摘要

不同的語言表達(dá)可以通過強(qiáng)調(diào)某些部分從不同的角度來概念化同一事件。該論文調(diào)查了一個(gè)具有社會后果的案例:基于性別的暴力(GBV)的語言表達(dá)如何影響責(zé)任認(rèn)知。文章建立在這一領(lǐng)域先前的心理語言學(xué)研究的基礎(chǔ)上,并對從意大利報(bào)紙的語料庫中自動提取的GBV描述進(jìn)行了大規(guī)模的感知調(diào)查。

然后,訓(xùn)練回歸模型,預(yù)測GBV參與者對不同的感知責(zé)任維度的顯著性。文章最好的模型(微調(diào)后的BERT)顯示了穩(wěn)健的整體表現(xiàn),在維度和參與者之間有很大的差異:顯著的關(guān)注比顯著的指責(zé)更可預(yù)測,犯罪者的顯著性比受害者的顯著性更可預(yù)測。

使用不同表示的嶺回歸模型的實(shí)驗(yàn)表明,基于語言學(xué)理論的特征與基于單詞的特征相似。文章表明不同的語言選擇確實(shí)會引發(fā)不同的責(zé)任認(rèn)知,而且這種感知可以自動建模。這項(xiàng)工作可以成為提高公眾和新聞制作人對不同視角所產(chǎn)生的后果認(rèn)識的核心工具。

-02-

簡介及背景

同樣的事件可以用許多不同的方式來描述,這取決于報(bào)告者和他們所做的選擇。通過選擇一些特定的詞,可以為讀者提供一個(gè)關(guān)于發(fā)生了什么的具體視角。

一篇新聞的寫作方式,嚴(yán)重影響了讀者感知所描述事件中責(zé)任歸因的方式。

圖1:“騎自行車的人撞上車門”

圖1:“汽車司機(jī)打開車門撞到騎自行車的人”

圖1:“騎自行車的人在第五街的交通事故中受傷”

圖1:“自行車和汽車的碰撞”

使用不同的標(biāo)題來說明當(dāng)相同的事件從不同的角度的描述時(shí),可以導(dǎo)致不同的對參與者責(zé)任歸屬的看法。

圖1說明了如何從不同的角度報(bào)告同一事件其方式確實(shí)會影響對參與者責(zé)任的感知。文章研究在基于性別的暴力(GBV)這一社會相關(guān)現(xiàn)象的背景下,使用NLP工具來解開責(zé)任歸因。針對婦女的暴力行為是令人擔(dān)憂的普遍現(xiàn)象,因此經(jīng)常在新聞中被報(bào)道。

Pinelli和Zanchi在意大利新聞中觀察到,在對殺害女性的描述中,具有不同及物性水平的句法結(jié)構(gòu)——也就是及物主動結(jié)構(gòu),到被動和反使役結(jié)構(gòu),對應(yīng)于歸因于(男性)犯罪者的不同程度的響應(yīng)性。

例如,當(dāng)“he killed her(他殺了她)”(主動/及物)完全明確表達(dá)了主動行為者的參與,但“she was killed (by him)她是(被他)殺死的”(被動),這種表達(dá)方式就將注意力從主動行為者上轉(zhuǎn)移開來;再比如“themurder(謀殺)”或者是“the event(事件)”的表達(dá)方式,就將重點(diǎn)從兩個(gè)參與者轉(zhuǎn)移到事件的背景中。

在一篇相關(guān)的文章中,Meluzzi等人通過對意大利語中人工構(gòu)建的GBV報(bào)告的調(diào)查,研究了論證結(jié)構(gòu)構(gòu)建對責(zé)任歸因的影響。他們的研究結(jié)果進(jìn)一步證實(shí)了Pinelli和Zanchi關(guān)于讀者對犯罪者和受害者的能動性和責(zé)任影響的發(fā)現(xiàn)。這兩項(xiàng)研究的結(jié)果與之前的心理語言學(xué)研究結(jié)果一致,表明在任何層面上涉及暴力的事件中,行為人的語言背景阻礙了他們的責(zé)任,并促進(jìn)了對受害者的指責(zé)。

基于這樣的框架選擇,普通讀者將如何看待所描述的事件?我們能自動模擬這種感知嗎?

本文回答上述問題,仍然基于意大利新聞中對殺害女性的描述,并利用框架語義作為一種理論和實(shí)踐工具,以及最新的NLP方法。

使用特定的預(yù)先選擇的語義框架,使用最先進(jìn)的語義解析器自動提取,文章從意大利報(bào)紙中識別出對GBV事件的描述,通過大規(guī)模的調(diào)查來收集人類的判斷,要求參與者閱讀文本,并將一定程度的責(zé)任歸屬于犯罪者、受害者,或一些更抽象的概念(例如,“嫉妒”、“憤怒”)。更多細(xì)節(jié)見2。

文章開發(fā)一系列回歸模型(從頭開始以及預(yù)先訓(xùn)練的transformer模型),利用從表面到框架的各種語言線索來自動建模責(zé)任感知。模型的訓(xùn)練目標(biāo)是預(yù)測人類的感知分?jǐn)?shù)。文章實(shí)現(xiàn)了與基于Transformer model的模型的強(qiáng)相關(guān)性。調(diào)查和結(jié)果分析的細(xì)粒度特征也允許各個(gè)方面的預(yù)測復(fù)雜性的差異。第3節(jié)中討論建模和評價(jià)。

結(jié)果表明,不同的語言選擇確實(shí)觸發(fā)了不同的責(zé)任感知,而且這種感知可以自動建模。這一發(fā)現(xiàn)不僅證實(shí)了以前(人工)在小規(guī)模上進(jìn)行的研究,而且也為文本進(jìn)行大規(guī)模分析及其效果提供了可能。

-03-

構(gòu)建【謀害女性感知數(shù)據(jù)集】

為了構(gòu)建這個(gè)數(shù)據(jù)集,作者采用眾包的方式,設(shè)計(jì)了一個(gè)在線的問卷調(diào)研。具體來說,作者收集了關(guān)于2015至2017年間,意大利發(fā)生的937起殺害女性案件的新聞報(bào)道,從中抽取句子展示給眾包人員并要求其對句子所表達(dá)的責(zé)任程度進(jìn)行打分。問卷結(jié)果表明,語義信息和句法結(jié)構(gòu)明顯影響讀者對“謀害女性事件”的看法。下面將詳細(xì)說明作者如何設(shè)計(jì)調(diào)研問題。

3.1問題設(shè)定

對案件采取不同的描述方式,會導(dǎo)致讀者對“案件參與者應(yīng)承擔(dān)多大責(zé)任?”這一問題產(chǎn)生不同的看法。作者首先將“責(zé)任”這一復(fù)雜的概念拆解成三個(gè)維度:

- FOCUS:句子關(guān)注的是否是加害人?

- CAUSE:句子所描述的事件是否主要由人引起?

- BLAME:句子是否將責(zé)任歸咎于加害人?

c30ea914-622e-11ed-8abf-dac502259ad0.jpg

表1用人工構(gòu)造的句子展示了這三個(gè)維度的區(qū)別。針對上述三個(gè)問題,表中+、-、±代表句子可能如何被讀者解讀。例如,第一、第二個(gè)句子都更加關(guān)注兇手(FOCUS +)并且強(qiáng)調(diào)他的行為致使案件發(fā)生(CAUSE +),但是第二句話將兇手描述為“被嫉妒蒙蔽了雙眼”,暗示兇手不必為其行為承擔(dān)全部責(zé)任(BLAME ±)。注意讀者的看法本質(zhì)上是主觀的,因此這些例子不該被視為任何形式的“黃金準(zhǔn)則”。

為了正確判斷讀者認(rèn)為兇手應(yīng)承擔(dān)責(zé)任的程度,作者還分別針對victim(受害人)、object(如武器)、concept(抽象概念)、emotion(如嫉妒)或nothing(不追究)設(shè)計(jì)了上述三個(gè)維度的問題。作者要求眾包人員按照五分制對每一類問題進(jìn)行打分,參與者也可以認(rèn)為句子與謀殺案無關(guān)直接跳過它。根據(jù)試點(diǎn)實(shí)驗(yàn)的初步結(jié)果,作者對每個(gè)類別的問題做了些輕微的調(diào)整:例如因?yàn)榫渥涌偸顷P(guān)注某事(FOCUS),所以省略了FOCUS中的none類別,等等。表2展示了完整的調(diào)研問題。

c332ef2c-622e-11ed-8abf-dac502259ad0.jpg

3.2句子選擇

交給眾包人員進(jìn)行評分的句子分兩步選出:首先使用LOME解析器自動抽取語義信息,這些信息與SpaCy自動依賴解析工具結(jié)合,對句法結(jié)構(gòu)進(jìn)行分類。例如,“he murdered her”將被分類為“KILLING/active”,代表“殺人”的語義和主動的句法表達(dá);“she died”被分類為“DEATH/intransitive”;“the tragedy”被分類為“CATASTROPHE/nonverbal”。

第二步,作者設(shè)計(jì)了在不同程度上強(qiáng)調(diào)謀殺案件的典型語義集合,并在至少包含一個(gè)典型語義的句子中進(jìn)行隨機(jī)采樣。具體來講,作者使用FrameNet框架手動注釋Pinelli和Zanchi中的例句,并選擇那些表述“受害者死亡事件”詞語(如killed、died、dead、incident等)的語義來構(gòu)造典型語義集。

最終得到的語義集合為{KILLING,DEATH,DEAD_OR_ALIVE,EVENT,CATASTROPHE},所有語義都可以用來描述完全相同的事件,只是具有不同的動態(tài)性(已經(jīng)死亡或者將要死亡)、能動性(兇手殺人或者受害人死亡)和普遍性(某人死亡或者某事發(fā)生)。作者使用這種方法為每一個(gè)“語義信息/句法結(jié)構(gòu)”類別采樣了相同數(shù)目的句子。

3.3眾包實(shí)現(xiàn)細(xì)節(jié)

作者考慮到眾包人員分析復(fù)雜句子的認(rèn)知負(fù)荷,以及閱讀一個(gè)主題沉重且痛苦的文本的情感負(fù)荷,每個(gè)參與人員只需在一組句子(50句)的三個(gè)維度之一上打分。為了平衡“每句話注釋的數(shù)量”和“注釋的總句子數(shù)”,作者為每句話每個(gè)維度安排10個(gè)眾包人員。這意味著完整的注釋一組句子需要30個(gè)眾包人員。

為了在事先不知道反饋率(眾包人員質(zhì)量)的情況下,將眾包人員均勻的分配在每組句子和每個(gè)維度之間,作者創(chuàng)建了60個(gè)眾包小組(注釋20組句子,每組50句,因此共1000個(gè)句子且每個(gè)句子三個(gè)維度)并將參與者分配到滾動的小組中:每次開放一個(gè)組,一旦達(dá)到要求的參與者數(shù)量小組就會自動關(guān)閉,然后打開下一個(gè)組。一旦一個(gè)組被填滿就手動檢查響應(yīng)的完整性和質(zhì)量。

由于標(biāo)注任務(wù)的主觀性,注釋沒有錯誤的回答,作者設(shè)定如果注釋至少滿足以下三個(gè)標(biāo)準(zhǔn)中的一個(gè),則認(rèn)為其質(zhì)量較低:(i)參與者完成問卷的速度快得令人難以置信;(ii)參與者連續(xù)將句子標(biāo)記為不相關(guān)并跳過;(iii)參與者總是給每句話同樣的評分;作者在意大利幾所大學(xué)不同專業(yè)的本科和碩士學(xué)生中分發(fā)調(diào)查平臺的鏈接,并匿名收集回答,僅要求參與者說明他們的性別、年齡和職業(yè)。

3.4結(jié)果

作者最終的數(shù)據(jù)集涵蓋了400個(gè)句子,共有240名參與者對其進(jìn)行了評級(153名女性,86名男性,1名非二元性別;平均年齡23.4)。表3給出了跨句子的評價(jià)得分匯總。作者給出了所有參與者和所有句子的平均分(綠色部分,在0~5的范圍內(nèi)),以及句子間平均分的標(biāo)準(zhǔn)差??偟膩碚f,對應(yīng)于行兇者的屬性往往有更高的平均分,但方差也比其他屬性更高。由于任務(wù)固有的主觀性,并且結(jié)果與之前關(guān)于感知規(guī)范的研究一致,作者沒有計(jì)算注釋者之間的一致性分?jǐn)?shù)。

c366aea2-622e-11ed-8abf-dac502259ad0.jpg

表4按語義信息和句法結(jié)構(gòu)劃分,顯示了FOCUS問題的平均得分。這顯示出了顯著的效果:包含KILLING語義的句子傾向于將更高的FOCUS放在兇手身上,當(dāng)使用主動結(jié)構(gòu)時(shí)更是如此。同時(shí),在主動或被動結(jié)構(gòu)中包含CATASTROPHE, DEAD_OR_ALIVE、DEATH和KILLING語義,會增加受害者的FOCUS。

另一方面,object的FOCUS得分上沒有顯著差異,concept或emotion的FOCUS得分上有顯著但較小的差異。在每一種情況下,研究結(jié)果都符合作者基于語言學(xué)理論的預(yù)期:如果一個(gè)事件參與者在謂詞中進(jìn)行了詞匯編碼,并且需要在語法上進(jìn)行表達(dá),那么這個(gè)參與者更有可能被認(rèn)為處于關(guān)注狀態(tài)?;诰渥拥膬?nèi)容,以及在詞匯上編碼了受害者或殺手的幾個(gè)典型語義(如KILLING),人們會更多地關(guān)注兇手和受害者,而無生命的concept或emotion是非必要的。

c3849dd6-622e-11ed-8abf-dac502259ad0.jpg

-04-

感知分?jǐn)?shù)預(yù)測

在本文中,作者將該任務(wù)建模為一個(gè)多輸出回歸任務(wù):給定一個(gè)句子,作者希望預(yù)測一個(gè)感知向量,其中該向量每一維代表問卷中一個(gè)特定的Likert維的值。

4.1 參與者聚合

作者首先對每句話和每個(gè)參與者的感知值計(jì)算z-score(也叫標(biāo)準(zhǔn)分?jǐn)?shù),是一個(gè)數(shù)與平均數(shù)的差再除以標(biāo)準(zhǔn)差的過程。在統(tǒng)計(jì)學(xué)中,標(biāo)準(zhǔn)分?jǐn)?shù)是一個(gè)觀測或數(shù)據(jù)點(diǎn)的值高于被觀測值或測量值的平均值的標(biāo)準(zhǔn)偏差的符號數(shù)。),然后取參與者的平均值。分別計(jì)算每個(gè)Likert維度和參與者的z-score,以考慮兩種類型的變異性:

1)維度內(nèi)偏好,指的是不同的參與者對分?jǐn)?shù)范圍的不同使用:根據(jù)自信程度和其他因素,參與者可能會選擇大量使用范圍的端點(diǎn)(例如,經(jīng)常分配“0”或“5”)或集中在范圍的特定部分(例如,在中心附近或靠近高點(diǎn)或低點(diǎn))。

2)維度間偏好,指的是參與者總是傾向于給特定維度分配更高或更低的分?jǐn)?shù)的可能性。例如,一些參與者可能總是給“blame on the murderer”和“blame on the victim”更高的分?jǐn)?shù)。

通過對z-score的感知值進(jìn)行回歸,作者希望模型預(yù)測出句子中是否存在明顯偏見(例如,這個(gè)句子是否將高于平均水平的責(zé)任推給了受害者?對兇手的關(guān)注低于平均水平?)

4.2 評價(jià)方法

作者從多個(gè)角度對此多輸出回歸問題進(jìn)行評價(jià)。

1)Root Mean Squared Error (均方根誤差,RMSE)和{R^2}(均方誤差),它估計(jì)了由回歸模型解釋的感知分?jǐn)?shù)變化的比例。作者分別計(jì)算了每一個(gè)維度和維度平均值的{R^2}。

2)Cosine (余弦相似度,COS),它度量了答案和預(yù)測結(jié)果之間的余弦相似度,并提供在映射中保存維度之間關(guān)系的程度的估計(jì)。

3)Most Salient Attribute (MSA),作者將回歸評估為預(yù)測哪個(gè)Likert維度對每個(gè)問題具有最高(z-score)感知值的分類任務(wù)的準(zhǔn)確性(實(shí)現(xiàn)為簡單地計(jì)算argmax對每個(gè)問題對應(yīng)的輸出維度)。例如,對于一個(gè)特定的句子,“concept”是責(zé)備問題得分最高的維度,這意味著“blame on a concept”在這個(gè)句子中比其他句子更突出。

注意,每個(gè)維度的z-score是獨(dú)立計(jì)算的,因此,具有最高z-score的維度不一定也具有最高的絕對值。類似于給特定維度分配更高或更低分?jǐn)?shù)的風(fēng)險(xiǎn),在這種情況下,參與者在指責(zé)問題上給“殺人犯”的分可能比“concept”多,即使在“concept”非常突出的句子中也是如此。在這種情況下,“concept”的絕對值總是比“murderer”低,但在“concept”得分相對較高、“murderer”得分相對較低的句子中,“concept”的z-score可能會更高。

4.3 模型

作者比較了兩種模型,分別是嶺回歸模型(一種使用L2正則的線性回歸模型)和預(yù)訓(xùn)練transformer模型。前者在不同類型的輸入特征上面進(jìn)行訓(xùn)練,后者則經(jīng)過微調(diào)后回歸預(yù)測多輸出。

特征(用作嶺回歸模型的輸入)

特征分為三類:

1)表面特征:代表輸入句子的詞法級別的特征,分別使用bag-of-words (bow)模型和FastText (ft)模型的輸出特征。

2)框架語義特征:通過frame semantic parser配合bow模型得到的在語義級別上略高于表面特征的表示,包括f1、f2、f1+、f2+。

3)句子特征:transformer模型產(chǎn)生的句子級別的表示,分別使用了SentenceBERT (sb)、XLM-R、BERT-IT Mean (bm) 和 XLM-R Mean (xm)提取特征。

預(yù)訓(xùn)練transformer模型

作者在預(yù)訓(xùn)練transformer編碼器的后面接上了有一個(gè)簡單的線性層構(gòu)成的神經(jīng)回歸模型。作者分別實(shí)驗(yàn)了不同的BERT變體。包括Italian BERT XXL Base (BERT-IT)、BERTino、Multilingual BERT Base、Multilingual DistilBERT、XLM-RoBERTa Base。

4.4結(jié)果

表5顯示了RMSE、COS和{R^2}指標(biāo)測試集的主要結(jié)果。作者列出如下觀察結(jié)論:

經(jīng)過微調(diào)的單語BERT模型在所有測試中表現(xiàn)最好,其總體{R^2}分?jǐn)?shù)約為0.45,這意味著模型成功預(yù)測了感知分?jǐn)?shù)中近一半的方差。

多語言BERT模型(mBERT和XLM-R)的表現(xiàn)均較差,平均{R^2}為0.38或更低。

有趣的是,普通的蒸餾版BERT對比原始BERT性能有所下降,但意大利語版蒸餾的BERT(BERTino)的性能沒有下降,甚至比原始模型略好。

{R^2}的下降并不總是與余弦分?jǐn)?shù)的下降一致:例如,XLM-R分?jǐn)?shù)比BERT-IT/base低0.06 {R^2}分,但余弦分?jǐn)?shù)只下降0.01,而mBERT/dist在{R^2}上損失0.10分,在COS上損失0.09分。因此,似乎有些模型(如XLM-R)在預(yù)測每個(gè)異常得分的確切大小方面不太準(zhǔn)確,但在捕捉跨維度的總體得分模式方面相對較好。

另外,雖然嶺回歸模型的表現(xiàn)比transformer差很多,但比較不同特征之間的結(jié)果對于理解預(yù)測感知需要什么信息是有幫助的:

基于表面和框架特征的回歸模型表現(xiàn)相似,{R^2}分?jǐn)?shù)在0.20左右(f2為負(fù)離群值),而具有神經(jīng)特征的模型更好({R^2} 0.28-0.33)。

對于那些基于transformer提取得到的特征訓(xùn)練的脊模型,作者發(fā)現(xiàn)意大利語版本的BERT (bm)的平均最后一層表示的結(jié)果最好,而基于XLM-R (sb和xm)的兩種模型得分略低。

通過比較不同問題和屬性的{R^2}分?jǐn)?shù),還可以發(fā)現(xiàn)預(yù)測難度的巨大差異:

例如,在各個(gè)模型中,blame on murderer得到了很好的分?jǐn)?shù),而blame on victim的分?jǐn)?shù)相對較低,即使是最強(qiáng)的模型(例如BERTino的0.24),而在基線(或更低)分?jǐn)?shù)較弱的模型——特別是蒸餾mBERT,它在其他屬性上表現(xiàn)不錯。

Caused by no-one 是最難預(yù)測的,沒有模型得分在0.10以上。

Focus問題具有總體上最好和最一致的性能,特別是對于意大利語版本的BERT模型,對于四個(gè)屬性中的每一個(gè)都實(shí)現(xiàn)了不錯的性能(0.46- 0.66 {R^2})。

c3adadac-622e-11ed-8abf-dac502259ad0.jpg

這種模式也反映在MSA中(表6):對于focus類別,它基本上更容易預(yù)測的維度與最高的得分比Blame和Cause。然而,對于每個(gè)問題,所有模型的表現(xiàn)都好于概率水平,其中BERTino的綜合得分最高(56-72%)。

c3cb173e-622e-11ed-8abf-dac502259ad0.jpg

在嶺回歸模型中,相對于基于表面特征的模型,基于BERT特征的模型的性能增益(BERT特征比表面特征的增益)在屬性之間有很大差異。例如,bow模型有一個(gè)令人驚訝的高得分的指責(zé)殺人犯({R^2} 0.49),只有適度的收益從BERT-IT 和 BERTino模型(resp.+0.06和+0.12分)。相比之下,bow在專注概念上得分較低({R^2} 0.13),而BERT-IT和BERTino得分較高({R^2} 0.63/0.64)。

為了進(jìn)一步了解模型之間的差異,作者進(jìn)行了特征歸因分析。blame on murderer 和 focus on concept的結(jié)果如表7所示。對于殺人犯的責(zé)任,三種模型似乎都聚焦于相似的詞匯項(xiàng):例如,“uccide”(“(he) kills”)在脊回歸和微調(diào)BERTino模型中都有很高的正歸因值,在f1+中作者發(fā)現(xiàn)KILLING框架的正歸因值,這是對殺人相關(guān)詞匯的抽象。

作者還發(fā)現(xiàn),個(gè)人關(guān)系(‘wife’, ‘ex’, PER-SONAL_RELATIONSHIP )在所有三種模型中都得到了積極的歸因。相比之下,作者發(fā)現(xiàn)了“accaduto”(“happened”)的負(fù)歸因值以及bow和f1中相應(yīng)的EVENT框架,這與§2.4中討論的觀察結(jié)果完全吻合。由于對概念的關(guān)注,三種模型之間沒有明顯的深刻區(qū)別。

作者確實(shí)在每個(gè)模型中發(fā)現(xiàn)了幾個(gè)直觀的相關(guān)特征:"passionale"("out of passion")和"femminicidio"("femicide")可以測試句子可以聚焦的概念的集合,而"omicida"("murderer/murderous’")和"killer"可以被視為強(qiáng)調(diào)人類主體的作用,而不是一個(gè)抽象的概念。

c3f2c23e-622e-11ed-8abf-dac502259ad0.jpg

-05-

結(jié)論與未來工作

論文詳細(xì)分析了意大利關(guān)于GBV的新聞報(bào)道中人類的責(zé)任觀念。文章收集的判斷證實(shí)了之前關(guān)于特定語法結(jié)構(gòu)和語義框架的影響以及它們在讀者中引發(fā)的感知。

文章研究了不同的NLP架構(gòu)在多大程度上可以預(yù)測人類的感知判斷。微調(diào)單語transformer獲得在多個(gè)評估措施的最佳結(jié)果,為集成能夠識別潛在感知效應(yīng)的系統(tǒng)作為媒體專業(yè)人員的支持工具提供了可能性。

未來,文章也計(jì)劃對數(shù)據(jù)進(jìn)行更詳細(xì)的分析,考慮受訪者在個(gè)人和人口統(tǒng)計(jì)方面的差異。除此之外,后續(xù)實(shí)驗(yàn)將側(cè)重于將該方法應(yīng)用于其他語言和文化背景,既針對基于性別的暴力,也針對其他社會相關(guān)主題,如車禍等。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3556

    瀏覽量

    133822
  • MSA
    MSA
    +關(guān)注

    關(guān)注

    0

    文章

    31

    瀏覽量

    8835
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    483

    瀏覽量

    21976

原文標(biāo)題:AACL'22 Best Paper | 不同的表達(dá)可能會引發(fā)讀者不同的想法,可以通過模型自動模擬這種語言“偏見”

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    看過一些用單片機(jī)控制選轉(zhuǎn)屏的作品

    求助,那是怎么做的,邊旋轉(zhuǎn) 邊顯示。為什么圖像控制的那么好,語言表達(dá)不是太好,求告知
    發(fā)表于 09-10 17:37

    深圳市德上光電科技有限公司招聘LED封裝業(yè)務(wù)員

    考慮職位要求1、一年以上LED行業(yè)銷售經(jīng)驗(yàn),有豐富的市場開拓經(jīng)驗(yàn)及LED燈珠銷售工作者優(yōu)先; 2、思維敏捷,頭腦靈活,語言表達(dá)能力強(qiáng),善于交流溝通; 3、性格開朗大方,富有團(tuán)隊(duì)合作精神,敬業(yè),有強(qiáng)烈的上進(jìn)心和責(zé)任心;更多招聘詳情可參考:阿拉丁照明人才網(wǎng) job.aligh
    發(fā)表于 09-11 09:35

    請問一下,用AVR studio 5如何用C語言表達(dá)attiny85的進(jìn)入睡眠?

    請問一下,用AVR studio 5如何用C語言表達(dá)attiny85的進(jìn)入睡眠?同時(shí)用在tkstudio軟件下,都用-sleep()也都不行的,怎么解決呢?
    發(fā)表于 11-24 11:34

    招聘照明設(shè)計(jì)師

    ,熟悉AUTOCAD,PS,3DMAX,F(xiàn)LASH,等設(shè)計(jì)軟件; 2、空間感和色彩感好,思維活躍,熟悉整個(gè)照明設(shè)計(jì)的流程; 3、為人誠懇、有責(zé)任感、善于溝通、較強(qiáng)的語言表達(dá)及書面表達(dá)能力; 4、良好
    發(fā)表于 03-07 13:40

    招聘銷售代表

    語言表達(dá)能力和溝通能力,一年以上工作經(jīng)驗(yàn)。資薪面議。公司創(chuàng)建于1998年,座落于“中國燈飾之都”的廣東省中山市古鎮(zhèn),是集研發(fā)、制造、銷售及照明工程技術(shù)服務(wù)于一體的現(xiàn)代化的高新企業(yè),主要生產(chǎn)消防應(yīng)急燈
    發(fā)表于 06-18 13:46

    一句verilog語言轉(zhuǎn)成VHDL語言的問題

    小弟遇到一個(gè)問題需要把一句verilog語言用VHDL語言表達(dá)出來,語言如下:adc_data_out[15:14]
    發(fā)表于 09-17 10:00

    如何用單片機(jī)C語言表達(dá)一條積分公式,求解答

    請問如何用C語言表達(dá)一條積分公式,就是我上傳的圖片中的公式
    發(fā)表于 06-07 20:55

    怎樣同時(shí)用LAD和ST語言去描寫狀態(tài)機(jī)

    怎樣用LAD語言表達(dá)狀態(tài)機(jī)?怎樣用ST語言表達(dá)狀態(tài)機(jī)?怎樣同時(shí)用LAD和ST語言去描寫狀態(tài)機(jī)?
    發(fā)表于 09-30 06:01

    基于情緒特征用戶性別識別

    隨著互聯(lián)網(wǎng)的蓬勃發(fā)展,微博受到了越來越多用戶的青睞,對微博用戶性別的研究也逐漸成為學(xué)術(shù)界研究的熱點(diǎn)。目前,對英文微博文本用戶的性別識別已有研究,但針對中文微博用戶性別別的研究較少。從
    發(fā)表于 11-25 10:57 ?0次下載

    dfrobot4Claying 電子粘土簡介

    兒童沒有豐富的語言表達(dá)能力,卻能用捏粘土的方式表達(dá)自己的內(nèi)心。
    的頭像 發(fā)表于 12-16 11:18 ?954次閱讀
    dfrobot4Claying 電子粘土簡介

    現(xiàn)代交互技術(shù)下的兒童語言表達(dá)訓(xùn)練方法

    現(xiàn)代交互技術(shù)下的兒童語言表達(dá)訓(xùn)練方法
    發(fā)表于 06-27 11:27 ?3次下載

    簡單的gcc內(nèi)嵌匯編例分析

    在內(nèi)嵌匯編中,可以將C語言表達(dá)式指定為匯編指令的操作數(shù),而且不用去管如何將C語言表達(dá)式的值讀入哪個(gè)寄存器,以及如何將計(jì)算結(jié)果寫回C 變量。
    發(fā)表于 03-09 12:15 ?531次閱讀

    AI打LeetCode周賽進(jìn)入前10%!秘訣:自然語言編程

    首先,自然語言表達(dá)是模糊的和不精確的。我們所講的語言中,存在很多概念和意思是相對的和依賴語境的,這些難以在計(jì)算機(jī)程序中得到明確和一致的表達(dá),這都給程序的理解使用和調(diào)試帶來了很大困難。
    的頭像 發(fā)表于 06-05 16:34 ?409次閱讀
    AI打LeetCode周賽進(jìn)入前10%!秘訣:自然<b class='flag-5'>語言</b>編程

    如何解決LLMs的規(guī)則遵循問題呢?

    傳統(tǒng)的計(jì)算系統(tǒng)是圍繞計(jì)算機(jī)程序中表達(dá)的指令的執(zhí)行來設(shè)計(jì)的。相反,語言模型可以遵循用自然語言表達(dá)的指令,或者從大量數(shù)據(jù)中的隱含模式中學(xué)習(xí)該做什么。
    的頭像 發(fā)表于 11-15 09:33 ?509次閱讀
    如何解決LLMs的規(guī)則遵循問題呢?

    情感語音識別的挑戰(zhàn)與未來趨勢

    。 二、情感語音識別的挑戰(zhàn) 情感表達(dá)的復(fù)雜性:人類的情感表達(dá)非常復(fù)雜,不僅涉及到語音的音調(diào)、音色和音量等,還與語言表達(dá)、肢體動作、面部表情等多個(gè)方面有關(guān)。準(zhǔn)確識別和理解這些復(fù)雜情感
    的頭像 發(fā)表于 11-30 11:24 ?457次閱讀