西方及中國前沿的AI科學(xué)家強(qiáng)烈警示,應(yīng)對科技潛力巨大且充滿潛在風(fēng)險(xiǎn)的人工智能,亟需全球范圍內(nèi)的深度協(xié)同。
近期,諸多國際知名學(xué)者齊聚首都北京,秉持關(guān)懷意識,為人工智能的未來劃定基線,諸如生物武器制造及網(wǎng)絡(luò)入侵等均被納入其中。
在此份聲明中,學(xué)者們強(qiáng)調(diào)必須聯(lián)手建立起立體的人工智能安全防線,預(yù)防可能在人類壽命周期內(nèi)帶來無法承受的風(fēng)險(xiǎn)。人們須要團(tuán)結(jié)協(xié)作,以規(guī)避未知技術(shù)可能引發(fā)的災(zāi)難后果。
參與簽名的包括榮獲圖靈獎,被譽(yù)為人工智能領(lǐng)域?qū)煹?Geoffrey Hinton 和 Yoshua Bengio;加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)名譽(yù)教授 Stuart Russell;以及中國最卓越的計(jì)算機(jī)科學(xué)家之一姚期智。
此番聲明系于北京舉辦的人工智能安全國際對話后發(fā)布,多名中國相關(guān)機(jī)構(gòu)官員亦受邀參會。
專家學(xué)者呼吁科技企業(yè)與相關(guān)部門為保障人工智能安全通力合作,特別是在薈萃世界兩大科技強(qiáng)國中國及美國的基礎(chǔ)上。
近幾月來,眾多國際頂尖AI企業(yè)已與中國的AI專家展開密集交流。
2023年11月,在英國召開的人工智能安全高峰論壇上,除中國外,共有28個國家和領(lǐng)軍AI企業(yè)共同立下誓言,致力于消除先進(jìn)人工智能所帶來的潛在生存危機(jī)。
當(dāng)前,專家學(xué)者正在深入探討與通用人工智能(AGI)發(fā)展過程中的潛在威脅。
Bengio闡明:討論重心在于需設(shè)立任何強(qiáng)大人工智能不能逾越的底線,以及借由世界各國政府在研發(fā)及推行人工智能時作出規(guī)定的準(zhǔn)則。
聲明強(qiáng)調(diào),無論何種人工智能系統(tǒng),未經(jīng)人授權(quán),不得自行復(fù)制或提升其功能,或者實(shí)現(xiàn)不當(dāng)操作加強(qiáng)自我勢力。
科學(xué)家進(jìn)一步指出,任何系統(tǒng)不應(yīng)極大地拓展設(shè)計(jì)大規(guī)模破壞性武器、違反生化武器公約,或是獨(dú)立發(fā)起網(wǎng)絡(luò)攻擊的能耐,從而導(dǎo)致慘重的經(jīng)濟(jì)損失或相同程度的傷害。
-
AI
+關(guān)注
關(guān)注
87文章
29359瀏覽量
267643 -
人工智能
+關(guān)注
關(guān)注
1789文章
46316瀏覽量
236479
發(fā)布評論請先 登錄
相關(guān)推薦
評論