據(jù)國(guó)外媒體報(bào)道,,在今年一月份,,來自加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)家Stuart Russell起草了致全體人工智能研究員的公開信,并第一個(gè)在上面簽名,。Stuart呼吁研究者不能只注重讓人工智能變得更強(qiáng)大,,同樣要保證其健康性和有益性:AI必須遵從人類的意愿,不能胡作非為,。
公開信發(fā)表后,,已有數(shù)千人在上面簽名。其中不乏來自谷歌,、Facebook,、微軟等頂尖人工智能研究機(jī)構(gòu)的科學(xué)家,。同時(shí)來自全世界的物理學(xué)家,、哲學(xué)家也在上面留下了自己的名字,。
Stuart是加州大學(xué)伯克利分校的智能系統(tǒng)中心的創(chuàng)始人,他一直在關(guān)注機(jī)器自主思考可能給人類帶來的危害,。他發(fā)表了超過200篇相關(guān)文章,,還是業(yè)內(nèi)標(biāo)準(zhǔn)教科書《人工智能:現(xiàn)代方法》的合作作者之一。但當(dāng)下迅速發(fā)展的人工智能技術(shù)給Stuart帶來了長(zhǎng)遠(yuǎn)的擔(dān)憂,,而驚人的發(fā)展速度無疑加深了這種憂慮,。Stuart表示目前的AI技術(shù)已經(jīng)有了長(zhǎng)足的進(jìn)步,神經(jīng)元算法帶來的改善不容小視,。這些智能算法被應(yīng)用在人臉識(shí)別系統(tǒng),、智能手機(jī)助理系統(tǒng)以及谷歌自動(dòng)駕駛汽車中。甚至,,《自然》雜志的一篇報(bào)道稱一個(gè)模擬神經(jīng)元人工智能網(wǎng)絡(luò)在一款A(yù)tari公司的游戲中的表現(xiàn)已經(jīng)超過了人類,,而這個(gè)系統(tǒng)的輸入僅僅是電腦屏幕上顯示的內(nèi)容和一個(gè)“得到盡可能高的分?jǐn)?shù)”的目標(biāo)。沒有任何預(yù)設(shè)的程序,,這個(gè)智能網(wǎng)絡(luò)懂得分辨屏幕上的外星人,、子彈,會(huì)在合適的時(shí)機(jī)進(jìn)行左移,、右移,。
《QUANTA》雜志采訪了Stuart,詢問了他對(duì)當(dāng)前人工智能發(fā)展的幾點(diǎn)看法,。讓我們來看看該領(lǐng)域的大師如何評(píng)價(jià)這一革命性技術(shù)吧,。
QUANTA:你為什么堅(jiān)持人工智能研究必須以可證實(shí)對(duì)人類有益為前提?
Stuart:我認(rèn)為這是一個(gè)錯(cuò)誤的問題,,因?yàn)椤叭祟悆r(jià)值”不能被“證實(shí)”,。當(dāng)然,人類價(jià)值本身也沒有準(zhǔn)確的定義,,誰又知道人類為什么存在呢,,可能這永遠(yuǎn)都是個(gè)迷。但考慮到我們?nèi)祟惖男袨榈囊饬x,,你會(huì)希望機(jī)器人至少能體會(huì)到其中的大部分精髓,。人工智能可能不能完全理解我們的所作所為,但它們至少要和我們站在同一戰(zhàn)線上,,有著共同的基本原則,。換句話說,它們不能成為我們的絆腳石甚至傷害我們,。
QUANTA:你打算怎么實(shí)現(xiàn)這一點(diǎn)?
Stuart:我現(xiàn)在正在這方面努力,。目前我覺得一種名為“逆強(qiáng)化學(xué)習(xí)”的技術(shù)可以派上用場(chǎng),。平常的學(xué)習(xí)原理很簡(jiǎn)單,,基于你的表現(xiàn)好壞,你會(huì)得到獎(jiǎng)勵(lì)或者懲罰,,你的目標(biāo)也很明確,,就是想方設(shè)法獲得盡可能多的獎(jiǎng)勵(lì)。Atari的游戲就是一個(gè)這樣的典型的系統(tǒng),。逆向?qū)W習(xí)則是完全相反的過程,,你首先得到結(jié)果,然后你去思考什么樣的行為最可能帶來這樣的結(jié)果,。比如,,你的機(jī)器人看到你早上艱難的從床上爬起來,沖了一杯咖啡,,在一個(gè)嗡嗡作響的箱子里加熱了點(diǎn)煎餅,,而且在吃這些東西時(shí)你臉上浮現(xiàn)出了愉快的深情,那么它的人工智能就會(huì)告訴它:人早上喝咖啡是好的,。
逆強(qiáng)化學(xué)習(xí)有著海量的資料可以使用,,無論是書籍、電影還是網(wǎng)絡(luò),,上面有著成千上萬的人類活動(dòng)記錄,,智能體可以從中感受到人類追求的基本價(jià)值和遵循的基本原則。
QUANTA:你的研究生涯主要關(guān)注了理解人工智能是什么,,并認(rèn)為這是實(shí)現(xiàn)人工智能的前提,。那么你目前有什么收獲呢?
Stuart:在八十年代的研究中我開始思考理性決策的問題,,后來我發(fā)現(xiàn)這是一個(gè)不可能完成的任務(wù),。如果你是理性的,你會(huì)判斷自己目前的狀況,、可選擇做法,、每種做法帶來的結(jié)果,但是又有哪一種做法是百分之百確保得到想要的結(jié)果的呢,?世界上的事情變化多的讓人眼花繚亂,,沒有那么多事是確定的。理性行為的定義就要求你的能力蓋過整個(gè)未來和宇宙,,換句話說,,它在計(jì)算上是不可能的。所以我換了思路:那么人類是怎樣做決定的呢,?
QUANTA:人類怎么做的,?
Stuart:人類的大腦是一部效率驚人的概率運(yùn)算機(jī)器。它的訣竅不是準(zhǔn)確掌握每一條信息,,而是對(duì)未來有一個(gè)大概的預(yù)測(cè),,并推測(cè)最可能帶來好結(jié)果的做法,。拿下棋來說,如果是理性決策的人,,他就只會(huì)走那些可以將軍的棋子?,F(xiàn)實(shí)中沒有人這么下棋,人們不會(huì)考慮十幾步之后的事情,,他們會(huì)考慮幾個(gè)可能的走法,,看哪一種最可能帶來優(yōu)勢(shì)。人一生大約會(huì)做20萬億的動(dòng)作,,做一次演講會(huì)有13億個(gè)動(dòng)作,,理性決策要求你預(yù)測(cè)13億個(gè)動(dòng)作后的準(zhǔn)確狀況,這太瘋狂了,。我們從不會(huì)想“我要先邁左腳再動(dòng)右腳,,再打開門……”而是想“我該去做演講了”。
QUANTA:你可以證明人工智能系統(tǒng)不會(huì)重寫自己的軟件,,覆蓋人類預(yù)設(shè)的目標(biāo)嗎,?
Stuart:計(jì)算機(jī)程序有著許多不確定性。阿蘭圖靈曾指出一個(gè)計(jì)算機(jī)程序不可能判斷另一個(gè)程序是陷入了無限循環(huán)還是最終會(huì)產(chǎn)生輸出,。因此,,如果你有一個(gè)可以重寫自身的程序,你就有了一個(gè)矛盾,,你不能證明這個(gè)新程序是否具有某些性質(zhì),,這個(gè)程序也不知道自己寫了一個(gè)什么。所以,,問題不是“AI是否會(huì)重寫自己”而是“AI寫出的程序會(huì)對(duì)我們有怎樣的影響”,。我們目前對(duì)人工智能的設(shè)計(jì)能力所知甚少。
QUANTA:目前有什么很有前景的研究領(lǐng)域嗎,?
Stuart:最近出現(xiàn)了一種叫做“網(wǎng)絡(luò)現(xiàn)實(shí)系統(tǒng)”的研究領(lǐng)域,,它們的研究?jī)?nèi)容是計(jì)算機(jī)與現(xiàn)實(shí)世界相聯(lián),讓電腦通過網(wǎng)絡(luò)控制機(jī)器手臂等等,。許多電影中出現(xiàn)了人工智能掌控交通的劇情,,也是該領(lǐng)域的研究?jī)?nèi)容。另外,,空中交通管制也是其應(yīng)用的一種,。