“我在這個(gè)星球上過著不平凡的生活,同時(shí)用我的頭腦和物理定律穿越宇宙。我去過銀河系最遠(yuǎn)的地方,進(jìn)入了黑洞,回到了時(shí)間的起源。在地球上,我經(jīng)歷過高潮和低谷,動(dòng)蕩和和平,成功和痛苦。我富有過,貧窮過,我健全過,殘疾過。我受到過贊揚(yáng)也受到過批評(píng),但我從未被忽視?!?/p>
——霍金《Brief Answers to the Big Questions》
近日,霍金生前最后一本著作“Brief Answers to the Big Questions”正式出版,在書中,霍金試圖回答幾個(gè)問題:人類會(huì)在挑戰(zhàn)之下活下來嗎?我們應(yīng)該在太空中殖民嗎?上帝真的存在嗎?
創(chuàng)造AI可能是人類歷史上最后一個(gè)大事件
人類犯下的最大的錯(cuò)誤就在于,認(rèn)定科幻只是科幻,高度智能機(jī)器是不可能普及在人們生活中的。
霍金認(rèn)為,當(dāng)AI在人工智能設(shè)計(jì)領(lǐng)域變得比人類更優(yōu)秀,以至于它可以在沒有人類幫助的情況下遞歸地自我改進(jìn)時(shí),我們可能會(huì)面臨一場(chǎng)智能爆炸,最終導(dǎo)致機(jī)器的智能遠(yuǎn)遠(yuǎn)超出我們。
迄今為止,人工智能的原始形式已被證明非常有用,霍金擔(dān)心,如果創(chuàng)造出一種能與人類匹敵或超越人類的東西,后果將不堪設(shè)想。人類受到緩慢的生物進(jìn)化的限制,無法競(jìng)爭(zhēng),將被取代。在未來,人工智能可以發(fā)展出自己的意志,一種與我們的意志相沖突的意志。
未來,超級(jí)智能的出現(xiàn),將給人類帶來爆炸性的轉(zhuǎn)變,一個(gè)超級(jí)智能的人工智能會(huì)非常擅長(zhǎng)實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)與我們的不一致,人類就有巨大的麻煩了。
霍金認(rèn)為,創(chuàng)造人工智能將是人類歷史上最大的事件。不幸的是,它也可能是最后一個(gè),除非我們學(xué)會(huì)如何規(guī)避風(fēng)險(xiǎn)。
星際擴(kuò)張也許是人類拯救自己的唯一辦法
霍金認(rèn)為,在未來1000年的某個(gè)時(shí)間點(diǎn),核對(duì)抗或環(huán)境災(zāi)難將使地球癱瘓是不可避免的。到那時(shí),霍金希望并且相信,人類這個(gè)聰明的種族將會(huì)找到一種方法來擺脫地球上粗暴的束縛,從而在這場(chǎng)災(zāi)難中幸存下來。
現(xiàn)在看來,挖掘其他星球的生存機(jī)會(huì),是人類在面對(duì)達(dá)災(zāi)難的唯一選擇。人類需要重燃20世紀(jì)60年代早期太空旅行的熱情,去探索其他太陽系。
星際擴(kuò)張也許是唯一能把人類拯救自己辦法。
新生命形式的星際旅行機(jī)器會(huì)出現(xiàn)
根據(jù)相對(duì)論,人類到達(dá)星系中心大約需要10萬年。
在科幻小說中,人們通過太空扭曲或者穿越維度來克服這個(gè)困難。但霍金認(rèn)為這些都不可能實(shí)現(xiàn),無論生命變得多么聰明。
而未來還可能出現(xiàn)一種更簡(jiǎn)單的方法——幾乎已經(jīng)在我們的能力范圍內(nèi)——設(shè)計(jì)出能夠持續(xù)足夠長(zhǎng)的機(jī)器用于星際旅行。當(dāng)人們到達(dá)一顆新恒星時(shí),他們可以在合適的行星上著陸,開采出更多的物質(zhì)來制造更多的機(jī)器,這些機(jī)器可以被送往更多的恒星。
這樣的機(jī)器將會(huì)是一種新的生命形式,基于機(jī)械和電子元件而不是大分子。它們最終可能取代以DNA為基礎(chǔ)的生命,就像DNA可能取代了早期生命一樣。
本世紀(jì)出現(xiàn)基因編輯后的超人
在達(dá)爾文的進(jìn)化論中,時(shí)間會(huì)讓人變得更加聰明、善良,但是顯然,人類沒有那么多時(shí)間,等待自然進(jìn)化,我們正在進(jìn)入一個(gè)新的階段,這個(gè)階段可能被稱為“自我設(shè)計(jì)進(jìn)化”——人類將能夠改變和改善我們的DNA,改善我們?cè)谠綝NA控制下,顯示的缺陷。
由多個(gè)基因控制的智力,改善起來會(huì)困難的多,但是也不是不可能?;艚鸫_信在本世紀(jì)人們將會(huì)發(fā)現(xiàn)如何修正智力和本能,比如攻擊性。因此,他預(yù)測(cè)反對(duì)人類基因工程的法律可能會(huì)通過。但有些人無法抗拒改善人類特征的誘惑,比如記憶力大小、抗病性和壽命長(zhǎng)短。
一旦人們嘗試這種“誘惑”,就會(huì)出現(xiàn)超人。一旦這樣的超人出現(xiàn),那些無法與之競(jìng)爭(zhēng)的人類將面臨重大的問題,他們將會(huì)消亡,或者變得不重要。相反,那些靠自我設(shè)計(jì)改變基因的人,會(huì)以越來越快的速度提升自己。
宇宙中還有其他智慧生命嗎?
這個(gè)問題爭(zhēng)論已久。
霍金提出了幾種可能。
我們習(xí)慣于認(rèn)為智能生命是進(jìn)化的必然結(jié)果,但更有可能的是,進(jìn)化是一個(gè)隨機(jī)的過程,智力只是眾多可能結(jié)果中的一個(gè)。
從進(jìn)化的年表來看,也許智力對(duì)地球上的生命來說是不太可能的發(fā)展,因?yàn)閺膯蝹€(gè)細(xì)胞到多細(xì)胞生物需要很長(zhǎng)時(shí)間——25億年——這是智力的必要前體,所以這與生命發(fā)展智力的概率很低的假設(shè)是一致的。在這種情況下,我們可能期望在銀河系中找到許多其他的生命形式,但我們不太可能找到智慧生命。
另一種無法發(fā)展到智能階段的生命可能是小行星或彗星與行星相撞。一部分觀點(diǎn)認(rèn)為,大約6600萬年前,一個(gè)相對(duì)較小的天體與地球相撞,導(dǎo)致了恐龍的滅絕。一些早期的小型哺乳動(dòng)物幸存下來,但是任何像人類一樣大的動(dòng)物幾乎肯定會(huì)被消滅。
還有一種可能性是,生命有合理的可能性形成并進(jìn)化為智能生物,但系統(tǒng)變得不穩(wěn)定,智能生命毀滅了自己。這將是一個(gè)悲觀的結(jié)論,霍金說,我希望這不是真的。
他更傾向于第四種可能性:我們忽略了其他形式的智慧生命。在我們目前的階段,與一個(gè)更先進(jìn)的文明相遇,可能有點(diǎn)像當(dāng)初的美洲居民與哥倫布相遇,霍金認(rèn)為對(duì)方會(huì)因此而更先進(jìn)。
霍金生前曾經(jīng)有很多預(yù)言,在人類發(fā)展過程中一一應(yīng)驗(yàn),你對(duì)本書猜想持怎樣的觀點(diǎn)?
-
AI
+關(guān)注
關(guān)注
87文章
29382瀏覽量
267664 -
人工智能
+關(guān)注
關(guān)注
1789文章
46348瀏覽量
236505
原文標(biāo)題:霍金留給人類的最后警告:超級(jí)智能和超人將會(huì)降臨
文章出處:【微信號(hào):nq6819,微信公眾號(hào):AI聶潛】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論