據(jù)國(guó)外媒體報(bào)道,,斯蒂芬·霍金警告稱,技術(shù)的發(fā)展需要得到控制,,以阻止其毀滅人類,。在此之前,這位世界知名的物理學(xué)家就曾警告過(guò)人工智能的危險(xiǎn),。他認(rèn)為,,人類必須找到一種方法,在重大破壞造成之前迅速發(fā)現(xiàn)所面臨的威脅,。
“從文明開始之時(shí),,侵略就一直是很有用處,因?yàn)樗兄^對(duì)的生存優(yōu)勢(shì),,”霍金說(shuō),,“通過(guò)達(dá)爾文式的演化過(guò)程,侵略性深深根植于我們的基因之中,。然而,,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,,使這種侵略性可能會(huì)以核戰(zhàn)爭(zhēng)或生物戰(zhàn)爭(zhēng)的形式毀滅人類。我們需要用邏輯和理性來(lái)控制這種與生俱來(lái)的本能,?!?/p>
不過(guò),霍金也表示,,盡管人類面臨著各種各樣的問(wèn)題,,但依然有希望存活下去,而這需要我們所有人都一起努力,?!拔覀冃枰斓卣J(rèn)識(shí)這些威脅,并在它們失去控制之前采取行動(dòng),。這可能意味著需要建立某種形式的世界政府,,”霍金說(shuō)道。
世界政府可能也會(huì)產(chǎn)生各種各樣的問(wèn)題,?!埃ㄊ澜缯┛赡軙?huì)變成一種暴政,”霍金說(shuō),,“所有這些聽起來(lái)似乎是在說(shuō)人類已經(jīng)在劫難逃,,但我是一個(gè)樂(lè)觀主義者。我認(rèn)為人類將奮起應(yīng)對(duì)這些挑戰(zhàn),?!?/p>
在2015年的一次網(wǎng)絡(luò)問(wèn)答中,,霍金就曾指出人工智能可能會(huì)成長(zhǎng)到非常強(qiáng)大的程度,,甚至可能在完全無(wú)意的情況下毀滅人類?!叭斯ぶ悄艿恼嬲{并不在于它們的惡意,,而是它們所具有的能力,”霍金說(shuō),,“一個(gè)超級(jí)聰明的人工智能在完成目標(biāo)時(shí)具有極強(qiáng)的能力,,而一旦這些目標(biāo)與我們?nèi)祟惒灰恢拢俏覀兙陀新闊┝??!?/p>
他繼續(xù)說(shuō)道:“你可能并不是一個(gè)討厭螞蟻的人,但也會(huì)無(wú)意中踩死螞蟻,,而如果你負(fù)責(zé)一個(gè)水力發(fā)電的綠色能源項(xiàng)目,,項(xiàng)目所在的區(qū)域內(nèi)也可能會(huì)有許多螞蟻巢穴被水淹沒,對(duì)螞蟻來(lái)說(shuō)就非常不幸,。我們要避免人類處于這些螞蟻的境地,。”
特斯拉公司的首席執(zhí)行官伊隆·馬斯克也提出了類似的觀點(diǎn),他曾警告稱,,人工智能的發(fā)展必須受到控制,。“隨著時(shí)間推移,,我認(rèn)為我們可能會(huì)看到生物智能和數(shù)字智能出現(xiàn)更加密切的融合,,”馬斯克說(shuō)道。他還提出,,人類在未來(lái)可能會(huì)與機(jī)器實(shí)現(xiàn)結(jié)合,,以跟上人工智能的發(fā)展步伐。