隨著人工智能的不斷發(fā)展,,一些科學(xué)家擔(dān)心:在不久的未來,,人工智能技術(shù)會(huì)超越人類的智慧,甚至?xí)催^來控制或毀滅人類,。對(duì)這一災(zāi)難性的預(yù)測(cè)來自一群 世界上公認(rèn)“最聰明的人”,,包括微軟創(chuàng)始人比爾·蓋茨、英國科學(xué)家史蒂芬·霍金以及美國的“科技狂人”伊隆·馬斯克,。甚至有學(xué)者認(rèn)為,,人工智能超過人類的 時(shí)間點(diǎn)——“奇點(diǎn)”已經(jīng)逼近,很可能就在十幾年后。這一切真的會(huì)發(fā)生嗎,?
人類面臨的危險(xiǎn):機(jī)器人比人類還聰明
什么樣的機(jī)器人才是有危險(xiǎn)的人工智能,?英國計(jì)算機(jī)先驅(qū)阿蘭·圖靈設(shè)計(jì)了一個(gè)甄別實(shí)驗(yàn):一臺(tái)計(jì)算機(jī)和一個(gè)人做競(jìng)賽,說服一個(gè)看不到它們的觀察者,,使其相信 自己才是真正的人類,。當(dāng)機(jī)器人至少把半數(shù)觀察者蒙騙了,才算通過了測(cè)試,。目前,,尚無一臺(tái)計(jì)算機(jī)接近于通過測(cè)試。但圖靈也指出,,當(dāng)超級(jí)智能機(jī)器人通過圖靈測(cè) 試時(shí),,人類的報(bào)應(yīng)就來到了。
人類所擔(dān)心的智能機(jī)器人是能夠像人一樣思考,、行動(dòng),。這里行動(dòng)應(yīng)廣義地理解為采取行動(dòng),或制定行動(dòng)的決策,,而不是肢體動(dòng)作,而且它們具有知覺和自我意識(shí),。
人工智能對(duì)人類的毀滅能力是什么,?牛津大學(xué)的研究人員給出了解釋,人工智能不是像核武器一樣消滅人類,,而是會(huì)逐步取代人類,,真正可怕的是智力。它們將比人類更聰明,、更擅長社交,、更有工作能力。
比爾·蓋茨說:“如果我們能夠很好地駕馭機(jī)器人,,機(jī)器能夠?yàn)槿祟愒旄?,但如果若干年后機(jī)器發(fā)展得超過人類的智能,那么它們就將成為人類的心頭大患,?!?/p>
機(jī)器人會(huì)比人類還聰明嗎?
機(jī)器的智商能有多高,?機(jī)器是否會(huì)產(chǎn)生自我意識(shí),?機(jī)器人會(huì)比人類還聰明嗎?一些科學(xué)家認(rèn)為,,機(jī)器人的智商超過人類是遲早的事情,,甚至還有美國學(xué)者明確提出了人工智能超過人類的時(shí)間點(diǎn)。
首位用“奇點(diǎn)”這一術(shù)語描述這種技術(shù)大變革的人是美國數(shù)學(xué)家、科幻小說家弗諾·文奇,,此后,,高科技企業(yè)家雷·庫茲韋爾在其著作《奇點(diǎn)迫近》一書中進(jìn)一步 提升了這一概念。庫茲韋爾認(rèn)為,,技術(shù)的指數(shù)級(jí)發(fā)展將不可避免地導(dǎo)致超人類智能的出現(xiàn),。庫茲韋爾對(duì)自己的預(yù)測(cè)很有信心,他甚至將到達(dá)“奇點(diǎn)”的時(shí)間定為 2029年,。到了2029年,,電腦不僅能夠理解我們的語言,甚至能夠和我們開玩笑,。1990年,,庫茲韋爾預(yù)測(cè)稱電腦將在1998年之前打敗國際象棋冠軍。 1997年,,IBM公司研制的電腦“深藍(lán)”成功擊敗國際象棋冠軍加里·卡斯帕羅夫,。
麻省理工學(xué)院的機(jī)器人學(xué)教授羅德尼·布魯克斯說: “在越過‘奇點(diǎn)’后,我們和我們的世界將與現(xiàn)在大不一樣,,對(duì)什么是人,、什么是機(jī)器人的定義也將變得不同?!币恍┪磥韺W(xué)家稱,,正如黑洞中心存在著一個(gè)讓一切 已知物理定律都失效的“奇點(diǎn)”一樣,信息技術(shù)也正在朝著這樣一個(gè)“奇點(diǎn)”邁進(jìn),。屆時(shí),,人工智能機(jī)器將比其制造者——人更加聰明。這些未來學(xué)家認(rèn)為,,過了這 個(gè)點(diǎn),,一切都將以現(xiàn)在不可預(yù)測(cè)、無法想象的速度和形式發(fā)展了,。人工智能奇點(diǎn)研究所的創(chuàng)辦人之一伊利澤·尤德庫斯基目前正在研究所謂的“友好人工智能”,。他 說,他最擔(dān)心的是,,一些科技怪才會(huì)發(fā)明一種能夠自我進(jìn)化但卻沒有道德感的機(jī)器人,,這將給人類帶來災(zāi)難。
機(jī)器人會(huì)毀滅人類嗎,?
一些科學(xué)家擔(dān)心:人工智能正在以令人害怕的步伐發(fā)展,,它將導(dǎo)致人類走向最終的滅亡。
不久前,,著名科學(xué)家史蒂芬·霍金發(fā)出警告——未來100年內(nèi),,人工智能將比人類更為聰明,機(jī)器人將控制人類?;艚鹪c特斯拉CEO伊隆·馬斯克共同發(fā)表 公開信,,他們認(rèn)為,人工智能的發(fā)展應(yīng)該受到控制,。信中稱,,如果智能機(jī)器無法保障安全,人類可能陷入黑暗的未來,。一方面人工智能讓人類越來越缺乏思考,,另一 方面其自身則有可能越來越聰明,從而威脅到人類的生存,。
馬斯克也提出警告,,最少只需5年,智能機(jī)器可能就會(huì)帶來極端危險(xiǎn),。他說:“應(yīng)該保持高度警惕,。如果讓我猜測(cè)人類生存的最大威脅,那可能就是人工智能,?!?/p>
牛津大學(xué)哲學(xué)教授尼克·博斯特倫與詹姆斯·巴拉特認(rèn)為,“現(xiàn)在我們?nèi)祟惥拖褚蝗簲[弄著一顆危險(xiǎn)炸彈的無知孩童,。即便是出于好意而創(chuàng)造的人工智能,,它仍有 犯下種族滅絕罪行的傾向。如果沒有小心謹(jǐn)慎的制衡指令,,一個(gè)有著自我意識(shí)、不斷自我完善并追尋目標(biāo)的系統(tǒng)將發(fā)展到在我們看來非?;闹嚨某潭?,以完成它的目 標(biāo)”。
不論如何,,科學(xué)家認(rèn)為未來對(duì)于人工智能的制造,,一定要將不得傷害人類設(shè)定為其最重要的行事規(guī)則。美國科幻小說家艾薩克·阿西莫夫在他的機(jī)器人相關(guān)小說中為機(jī)器人設(shè)定了行為準(zhǔn)則(也就是機(jī)器人三定律)——
法則一,,也是最為重要的一條法則:機(jī)器人不得傷害人類,,也不得因不作為而使人類受到傷害;
法則二,,機(jī)器人必須服從人類的命令,,除非違背第一法則;
法則三,,在不違背第一,、二法則的前提下,機(jī)器人必須保護(hù)自己。
機(jī)器人會(huì)成為我們的朋友,?
對(duì)于馬斯克,、霍金等人的言論,谷歌董事長施密特率先發(fā)起反駁,。施密特的身份很特殊,,作為谷歌的董事長,他曾親身參與許多世界上最復(fù)雜的人工智能系統(tǒng)的研 發(fā),,從自動(dòng)駕駛汽車到谷歌的預(yù)測(cè)性搜索引擎等,。施密特認(rèn)為,所有對(duì)機(jī)器將搶走人類工作,、占領(lǐng)世界的恐懼都毫無根據(jù),,并且希望人們能夠意識(shí)到:機(jī)器人會(huì)成為 我們的朋友。施密特說:“對(duì)于人工智能的擔(dān)憂,,都是正常的,。但是回顧歷史你會(huì)發(fā)現(xiàn),這些絕對(duì)是錯(cuò)誤的,。歷史的經(jīng)驗(yàn)已經(jīng)證明,,過去的經(jīng)濟(jì)繁榮時(shí)期,大多數(shù)是 因?yàn)椴捎眯录夹g(shù)而引發(fā)的,?!?/p>
科技取得突飛猛進(jìn)的成果時(shí),總是讓人感到害怕,,但真正重要的是掌握技術(shù)的人,。總之,,對(duì)于新技術(shù)的發(fā)展,,難免會(huì)存在爭(zhēng)論,但科學(xué)的進(jìn)步總歸是為人類帶來更美好的未來,。但是有一點(diǎn)卻不能忽視,,隨著科學(xué)技術(shù)的進(jìn)步,自動(dòng)化的人工智能會(huì)越來越多地出現(xiàn)在我們的工作,、生活中,,機(jī)器代替人類工作很有可能在不遠(yuǎn)的將來成為現(xiàn)實(shí)。