英國(guó)已故科學(xué)家斯蒂芬·霍金的遺作《對(duì)大問(wèn)題的簡(jiǎn)明回答》于10月16日發(fā)售。在書(shū)中,霍金暗示,不久的未來(lái),富人可以選擇編輯他們自己和孩子的DNA,讓自己和孩子變成擁有更強(qiáng)記憶力、抗病力、智力和更長(zhǎng)壽命的“超人”。
霍金遺著封面
富人將有能力選擇變成“超級(jí)物種”
霍金寫(xiě)道:“我敢肯定,本世紀(jì)之內(nèi),人們將找到修改智力和天資的辦法,比如攻擊性?!薄翱赡軙?huì)制定禁止人類(lèi)基因工程的法律。但是,有人肯定抵制不了改進(jìn)人類(lèi)特征的誘惑,比如記憶力、疾病抵抗力和壽命?!?/p>
他還表示,這將對(duì)未修改基因的人造成嚴(yán)重后果,導(dǎo)致他們沒(méi)有競(jìng)爭(zhēng)力。這位教授甚至警告說(shuō)這可能導(dǎo)致人類(lèi)走向滅絕。“他們可能會(huì)絕種,或淪為可有可無(wú)。”霍金談到了普通人。未來(lái)1000年的某個(gè)時(shí)刻,核戰(zhàn)爭(zhēng)或環(huán)境災(zāi)難將“嚴(yán)重破壞地球”??墒牵侥菚r(shí),“我們的天才種族將已經(jīng)發(fā)現(xiàn)了擺脫地球粗暴束縛的辦法,因此能夠戰(zhàn)勝災(zāi)難”。
不過(guò),地球上的其他物種可能做不到。
書(shū)中還提到,成功逃離地球的人很可能是新的“超人”,他們利用諸如“規(guī)律成簇間隔短回文重復(fù)系統(tǒng)(CRISPR)”這樣的基因編輯技術(shù)超過(guò)其他人?;艚鹫f(shuō),他們會(huì)不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預(yù)期壽命。
“已經(jīng)沒(méi)有時(shí)間留給達(dá)爾文的進(jìn)化論來(lái)提高我們的智力、改善我們的天性了?!?/p>
這位《時(shí)間簡(jiǎn)史》作者還提到了相關(guān)基因編輯方法,比如“規(guī)律成簇間隔短回文重復(fù)系統(tǒng)(CRISPR)”,科學(xué)家可以借此修復(fù)有害基因并加入其他基因。報(bào)道稱(chēng),盡管這類(lèi)方法可能促進(jìn)醫(yī)學(xué)發(fā)展,但是一些批評(píng)者擔(dān)心它也可能導(dǎo)致優(yōu)生學(xué)式的運(yùn)動(dòng),弱勢(shì)者將被社會(huì)淘汰。
人工智能:別讓人類(lèi)陷入“螞蟻窘境”
報(bào)道稱(chēng),霍金對(duì)規(guī)范管理人工智能的重要性提出了嚴(yán)重警告,指出“未來(lái)人工智能可能形成自己的意志,與我們?nèi)祟?lèi)相沖突的意志”。
他在書(shū)中寫(xiě)道,應(yīng)當(dāng)制止可能出現(xiàn)的自動(dòng)武器軍備競(jìng)賽,提出如果發(fā)生類(lèi)似于2010年股市閃電崩盤(pán)那樣的武器崩盤(pán),其后果將會(huì)如何的疑問(wèn)。他接著寫(xiě)道:“總之,對(duì)人類(lèi)來(lái)說(shuō),超級(jí)智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。人工智能的真正危險(xiǎn)并非在于惡意,而在于能力。超級(jí)智慧的人工智能將極其擅長(zhǎng)實(shí)現(xiàn)目標(biāo)。如果這些目標(biāo)與我們不一致,那我們就麻煩了。你可能不是出于惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負(fù)責(zé)一項(xiàng)水力環(huán)保能源項(xiàng)目,而洪水淹沒(méi)地區(qū)有一個(gè)蟻丘,那么螞蟻就慘了。別讓人類(lèi)陷入螞蟻的境況。”
地球面臨的最大威脅
未來(lái),地球面臨的頭號(hào)威脅就是小行星碰撞,類(lèi)似那種導(dǎo)致恐龍滅絕的碰撞?;艚饘?xiě)道:“我們(對(duì)此)無(wú)法防御?!?/p>
更直接的威脅是氣候變化?!昂Q鬁囟壬仙龑⑷诨舯?,釋放出大量二氧化碳。雙重效應(yīng)可能導(dǎo)致我們的氣候類(lèi)似于金星,氣溫達(dá)到250攝氏度。”
這些年來(lái),霍金做過(guò)的預(yù)言
除了以上幾點(diǎn),霍金在世時(shí)還做過(guò)這些預(yù)言,值得深思。
“外星人”在看著你
在2015年倫敦皇家科學(xué)學(xué)會(huì)尋找外星生命跡象的啟動(dòng)儀式上,霍金就說(shuō)過(guò):“在無(wú)限的茫茫宇宙中,一定存在著其它形式的生命。”
他說(shuō):“或許外星生命會(huì)正盯著我們看呢。”“不管最終地外智慧生命到底存在、還是不存在,現(xiàn)在該是有人正式投入進(jìn)來(lái)。這個(gè)問(wèn)題,我們必須要弄個(gè)明白?!?/p>
據(jù)介紹,目前已有相關(guān)項(xiàng)目,該項(xiàng)目將動(dòng)用部分目前世界上最大的望遠(yuǎn)鏡,更遠(yuǎn)地深入宇宙中去捕捉任何無(wú)線電波和激光信號(hào)。
地球?qū)⒆兂梢粋€(gè)“熊熊燃燒的火球”
霍金預(yù)言稱(chēng),稱(chēng)人類(lèi)可能在2600年前就會(huì)滅絕。霍金認(rèn)為,隨著地球人口增長(zhǎng),能源消耗將會(huì)增加,地球?qū)⒆兂梢粋€(gè)“熊熊燃燒的火球”。
霍金表示相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類(lèi)在其他星球上生活的可能。就如同1492年的歐洲,探索新大陸對(duì)舊世界帶來(lái)了深遠(yuǎn)的影響。人類(lèi)向太空的拓展,甚至將會(huì)產(chǎn)生更深遠(yuǎn)的影響,這將徹底改變?nèi)祟?lèi)的未來(lái),甚至?xí)Q定我們是否還有未來(lái)。
千年內(nèi)人類(lèi)須移民外星否則“滅絕”
霍金在美國(guó)洛杉磯發(fā)表演講時(shí)稱(chēng),他認(rèn)為,未來(lái)1000年內(nèi),基本可以確定的是地球會(huì)因某場(chǎng)大災(zāi)難而毀滅,如核戰(zhàn)爭(zhēng)或者溫室效應(yīng)。因此,他強(qiáng)調(diào)人類(lèi)必須移居其它星球。美國(guó)航空航天局局長(zhǎng)格里芬也表示,單獨(dú)一顆行星上的物種,是不可能永久生存下來(lái)的。
在太陽(yáng)系中,火星是除地球之外可供人類(lèi)居住的最佳選擇。但火星載人探測(cè)要幾十年之后才能實(shí)施,探測(cè)一次往返要450天。
霍金表示:“人類(lèi)滅絕是可能發(fā)生的,但卻不是不可避免的,我是個(gè)樂(lè)觀主義者,我相信科學(xué)技術(shù)的發(fā)展和進(jìn)步最終可以帶人類(lèi)沖出太陽(yáng)系,到達(dá)宇宙中更遙遠(yuǎn)的地方?!?/p>
智能機(jī)器是真正人類(lèi)“終結(jié)者”
如上面所說(shuō),“超級(jí)智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一?!被艚鹪啻伪硎荆皬氐组_(kāi)發(fā)人工智能可能導(dǎo)致人類(lèi)滅亡”。
按照霍金的說(shuō)法,人工智能科技在初級(jí)發(fā)展階段的確為人類(lèi)生活帶來(lái)便利,但是,機(jī)器將可能以不斷加快的速度重新設(shè)計(jì)自己。而人類(lèi)則受制于生物進(jìn)化速度,無(wú)法與其競(jìng)爭(zhēng),最終被超越??茖W(xué)界把這種人工智能超越人類(lèi)智慧的轉(zhuǎn)折點(diǎn)命名為“奇點(diǎn)”。
事實(shí)上,美國(guó)Space X首席執(zhí)行官埃隆·馬斯克,微軟創(chuàng)始人兼慈善家比爾·蓋茨,也都警告過(guò)要注意人工智能的“危害”。麻省理工學(xué)院教授、科學(xué)家、谷歌、IBM和微軟等企業(yè)員工及與人工智能領(lǐng)域有關(guān)的投資者,也聯(lián)名發(fā)出公開(kāi)信,表達(dá)同樣的憂慮。
這是我們星球最危險(xiǎn)的時(shí)刻
英國(guó)《衛(wèi)報(bào)》網(wǎng)站2016年12月1日刊載霍金的文章《這是我們星球最危險(xiǎn)的時(shí)刻》。文章指出,英國(guó)脫歐公投和特朗普當(dāng)選總統(tǒng),都代表了那些自認(rèn)為被領(lǐng)導(dǎo)人拋棄的民眾的怒吼。這些被遺忘的民眾拒絕了所有專(zhuān)家和精英的建議和指導(dǎo)。西方精英須以謙遜之心看待民粹,切實(shí)彌補(bǔ)貧富差距。
“選票背后暗藏著人們對(duì)全球化與技術(shù)加速革新所造成的經(jīng)濟(jì)后果的擔(dān)憂,而這種心理完全可以理解。自動(dòng)化工廠已經(jīng)裁減了大批傳統(tǒng)制造業(yè)崗位,人工智能的崛起很可能使就業(yè)遭破壞的情況蔓延到中產(chǎn)階級(jí),只有最需要護(hù)理能力、創(chuàng)造力或者管理能力的崗位才能保留下來(lái)?!?/p>
“我們應(yīng)不應(yīng)該反過(guò)來(lái)把投票結(jié)果看成是在宣泄粗魯?shù)拿翊庵髁x,認(rèn)定民粹主義無(wú)法認(rèn)清現(xiàn)實(shí),并企圖規(guī)避或者限制選票所代表的選擇結(jié)果?我認(rèn)為如果這樣做將是大錯(cuò)特錯(cuò)的?!?/p>
“世界各國(guó)領(lǐng)導(dǎo)人必須承認(rèn),他們從過(guò)去到現(xiàn)在都在辜負(fù)大眾的期望。隨著資源日益集中到少數(shù)人手中,我們必須變得比現(xiàn)在更懂得如何分享。當(dāng)消失的不只是崗位,還包括整個(gè)行業(yè)時(shí),我們必須幫助人們接受再教育,迎接新的世界,必須在他們接受再教育的過(guò)程中提供經(jīng)濟(jì)支持?!?/p>
“我非常看好我們?nèi)祟?lèi)。但這需要所有精英,從倫敦到哈佛,從劍橋到好萊塢,都吸取教訓(xùn)。而且首先要學(xué)會(huì)保持一定程度的謙遜態(tài)度。”
-
人工智能
+關(guān)注
關(guān)注
1789文章
46368瀏覽量
236541 -
霍金
+關(guān)注
關(guān)注
0文章
40瀏覽量
10480
原文標(biāo)題:霍金臨終擔(dān)憂曝光!富人編輯基因成為“超人”,窮人無(wú)法競(jìng)爭(zhēng),“階級(jí)固化”無(wú)法避免
文章出處:【微信號(hào):WUKOOAI,微信公眾號(hào):悟空智能科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論