《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計 > 業(yè)界動態(tài) > 要是人工智能殺了人 我們應(yīng)該怪誰,?

要是人工智能殺了人 我們應(yīng)該怪誰,?

2015-08-19

2015081810295214a07_550.jpg

  關(guān)于人工智能倫理問題,,特別是涉及到開發(fā)機(jī)器人武器之類的問題,我們已經(jīng)討論過很多次了,。實(shí)際上,之前我們更多的是把人工智能作為一種人類已知威脅來展開討論的,。那些喜歡電影《終結(jié)者》的粉絲應(yīng)該對它的情節(jié)還記憶猶新吧,,片中人工智能“天網(wǎng)”希望終結(jié)人類,如果這一幕真的發(fā)生,,那么我們現(xiàn)在討論什么監(jiān)管啊,,責(zé)任啊,似乎都毫無意義,。但所謂千里之堤毀于蟻穴,,尤其在法律哲學(xué)家John Donaher的眼里,如果能夠仔細(xì)思考這些問題的話,,說不定會有助于減少未來可能存在的風(fēng)險,。

  人工智能的監(jiān)管與責(zé)任,其實(shí)和安全與公共福利一樣,,都像是硬幣的正反面,。監(jiān)管的目的,是為了確保人工智能系統(tǒng)盡可能的安全,;而責(zé)任,,其實(shí)就是為了當(dāng)人工智能系統(tǒng)出錯時,我們可以找到可以追究問題的人,,或者再說的準(zhǔn)確一點(diǎn)兒,,就是找誰可以獲得法律上的賠償,。

  應(yīng)該向誰追責(zé)呢?

  讓我們先來談?wù)勜?zé)任問題吧,。首先,,我們可以模擬一個侵權(quán)(民事)責(zé)任問題,想象下,,在不遠(yuǎn)的將來可能會發(fā)生這樣一個場景:一輛無人駕駛拖拉機(jī)原本應(yīng)該按照指令在A農(nóng)民的田里播種,,但是奇怪的是,它卻把種子播種到了B農(nóng)民家的田里,。

  讓我們先假設(shè)A農(nóng)民是完全按照操作手冊來使用那輛無人播種拖拉機(jī)的,,同時,我們也假設(shè)A農(nóng)民無需再做其他額外的操作,,比如在農(nóng)田交界處設(shè)置無線電信標(biāo),,等等。那么現(xiàn)在,,假設(shè)農(nóng)民B要來控告這次錯誤播種事件(我們暫且不考慮諸如滋擾和侵犯等問題),,會遇到哪些問題呢?,。

  實(shí)際上,,有很多問題需要被回答,這個事故是農(nóng)民A的責(zé)任嗎,?可能不是,;那么,是無人播種拖拉機(jī)廠商的責(zé)任嗎,?有可能,,但在此之前,我們是不是該明確與這些問題相關(guān)的責(zé)任和標(biāo)準(zhǔn)呢,?比如無人播種拖拉機(jī)的行業(yè)標(biāo)準(zhǔn)是什么,,制造商的產(chǎn)品規(guī)格是否符合相關(guān)標(biāo)準(zhǔn)呢?不僅如此,,如果自己的土地被他人種植上了其他農(nóng)作物,,這是否算是財產(chǎn)損失,又是否能否追溯經(jīng)濟(jì)賠償呢,?

  在一連串問題之前,,我們其實(shí)是先假定了無人播種拖拉機(jī)里面的系統(tǒng)軟件是由制造商開發(fā)的。那么接下來又有新的問題出現(xiàn)了,,如果那套人工智能系統(tǒng)是由第三方開發(fā)公司完成開發(fā)的,,該如何處理?還有,,系統(tǒng)內(nèi)部的軟件代碼是由多人合作完成的,,又該如何界定各自的職責(zé),?

  隨著時間的推移,人工智能系統(tǒng)將會越來越不依靠傳統(tǒng)的經(jīng)典算法和代碼,,而且他們也會展示出更多我們無法預(yù)料到的行為,,值得一提的是,這些行為沒有人可能預(yù)測得到,,甚至包括人工智能系統(tǒng)的創(chuàng)造者也無法預(yù)料,。但重要的是,可預(yù)見性,,其實(shí)是處理責(zé)任過失問題中一個非常關(guān)鍵的組成部分,。

  為了能夠讓讀者更好地理解可預(yù)見性問題,我們才會假設(shè)了上面那個無人播種拖拉機(jī)的案例,,或許十年、二十年之后,,人工智能已經(jīng)不再是簡單的種錯莊稼這件事兒了,,它可能會是某個意外讓人們受傷,更嚴(yán)重一些,,人工智能可能會不小心殺人,。所以,如果我們的法律無法適時作出改變,,那么未來將會導(dǎo)致更多問題出現(xiàn),。就拿上面那個人工智能種錯莊稼的事情為例,當(dāng)無法實(shí)現(xiàn)可預(yù)見性,,最終的結(jié)果就是沒人承擔(dān)責(zé)任,!

  責(zé)怪人工智能機(jī)器人

  為什么我們不干脆去責(zé)怪機(jī)器人呢?畢竟,,關(guān)于人工智能人格也有過討論,,而且人工智能系統(tǒng)本身也有擔(dān)負(fù)刑事責(zé)任的可能。

  但是,,這種方法在實(shí)際應(yīng)用時又有什么不一樣呢,?這里,還是借用別人曾經(jīng)說過的一句話吧,?!叭斯ぶ悄芟到y(tǒng)真的會像著名小說家艾薩克·阿西莫夫筆下的機(jī)器管家那樣嗎?遵守法律,,遵從道德良知,,還能保護(hù)銀行存款?”

  我們姑且不去討論人工智能系統(tǒng)是否可以被起訴,,但人工智能制造商和開發(fā)商們必須受到監(jiān)管,。只有這樣,,才有可能將一些無法歸責(zé)的各方,用嚴(yán)格責(zé)任賠償(注:嚴(yán)格責(zé)任賠償是指只要造成了損害,,不論行為人有無過錯,,都要承擔(dān)賠償責(zé)任。 常見的適用于無過錯責(zé)任原則的,,有從事高壓,、劇毒、高速,、放射等作業(yè)造成他人損害的,。工傷是典型的適用無過錯責(zé)任原則的,也就是說只要勞動者在工作期間因公受傷了,,排除勞動者個人主觀故意的因素之外,,雇用單位無論有無過錯都要承擔(dān)工傷賠償?shù)呢?zé)任的。)約束起來,,

  實(shí)際上,,在我們的日常生活里,嚴(yán)格責(zé)任賠償已經(jīng)應(yīng)用到了很多地方,。當(dāng)然除了這種責(zé)任賠償之外,,如果需要對人工智能追責(zé),其實(shí)也可以采用無過錯責(zé)任賠償和賠償方案池等方式,。

  規(guī)章制度

  如果從監(jiān)管的角度來看人工智能,,那么你會發(fā)現(xiàn),嚴(yán)格的安全標(biāo)準(zhǔn),,以及建立完善的安全認(rèn)證流程也都是非常必要的,。不過,如何設(shè)計一個合適的機(jī)構(gòu)與流程框架,,并且讓這個框架得以有效運(yùn)行,,依然是一個非常棘手的問題。

  人工智能領(lǐng)域復(fù)雜難懂,,而且外部世界對于人工智能研發(fā)圈子普遍缺乏認(rèn)識,,這也就是人工智能專家需要盡快創(chuàng)建行業(yè)框架的原因所在。實(shí)際上,,這里所說的框架,,就是規(guī)章制度,說通俗些也就是游戲規(guī)則,。因此,,這意味著人工智能顧問委員會需要和政府一起,盡快立法,,建設(shè)行業(yè)標(biāo)準(zhǔn),。

  我們不得不承認(rèn),,人工智能行業(yè)存在巨大的潛在效益;但是標(biāo)準(zhǔn)和流程,,需要不斷的創(chuàng)建,、更新、并且執(zhí)行,,這樣才能達(dá)到一種持續(xù)性平衡,,繼而最大限度地提高公共福利和安全;當(dāng)然,,也只有這樣,,才不會扼殺創(chuàng)新,更不會出現(xiàn)不必要的法律負(fù)擔(dān),。

  事實(shí)上,,站在國家的角度上,建立任何一個法律框架或游戲規(guī)則,,都必須要足夠靈活,,監(jiān)管機(jī)構(gòu)不僅需要考慮到本國利益,也要從全球角度出發(fā),。這意味著在某種程度上,你不僅要考慮本國的人工智能產(chǎn)量,,以權(quán)衡進(jìn)口其他各國人工智能技術(shù),,同時,你還要思考該如何任何不同國家之間的安全標(biāo)準(zhǔn)和認(rèn)證,,必要的時候,,你是否還需要遵守未來可能出現(xiàn)的國際條約或公約,等等,。所有這一切,,遠(yuǎn)比我們想象的要復(fù)雜得多。

  因此,,當(dāng)我們沿著人工智能研發(fā)的道路上前行,,圍繞人工智能構(gòu)建規(guī)章制度是必須要去做的事情,不要當(dāng)一切都來不及時再后悔莫及,。

  現(xiàn)在,,我們已經(jīng)開始對無人駕駛汽車所涉及到的問題展開討論了,那么未來人工智能還需要受到哪些法律法規(guī)的約束呢,?


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。