8月11日報道 外媒稱,“在我們的世界被能夠殺人的機器取代之前,,我們必須嚴肅承諾,。永遠不能出于憐憫而啟用與人類截然不同的機器人戰(zhàn)士”。發(fā)出這段警告的是南非人克里斯托弗·海恩斯--聯(lián)合國人權理事會負責法外處決問題顧問,。
據(jù)西班牙《萬象》月刊6月號報道,說起殺人機器人總是能令人想起科幻電影,,但實際上它卻具有十分真實的可能性,。美軍已經在阿富汗戰(zhàn)場大量使用無人機,并宣布未來20年要裁軍12萬,,目的就是用機器人戰(zhàn)士取而代之,。為此,美國國防部高級研究項目局已經開始了這方面的工作,。
報 道稱,,多數(shù)專家一致認為,或許說20年太短,,但如果沒有人阻止的話,,第一代機器人戰(zhàn)士遲早會出現(xiàn)在戰(zhàn)場上。今年4月,,《非常規(guī)武器公約》締約國在日內瓦召 開會議,,一些機器人和人工智能設備領域的專家獲邀出席了會議。召開此次會議是為未來就禁止研發(fā)專家們稱為“致命自主武器系統(tǒng)”簽訂協(xié)議奠定必要的基礎,。大 赦國際負責武器控制,、安全和人權事務的專家拉莎·阿卜杜勒-拉希姆表示,“我們所說的是除無人機以外的東西”,。她表示,,“我們現(xiàn)在擔心的是完全有自主性的 機器人武器系統(tǒng),,它可以有選擇性地攻擊目標,在沒有人類的有效控制之下殺死或致人受傷”,。目前,,這樣的武器系統(tǒng)尚未在任何國家使用過,但是開始出現(xiàn)的首批 模型已經足以讓我們預見等待我們的將會是怎樣一個未來,。
最轟動的機器人武器系統(tǒng)來自于日本,,被稱為Kurata。這是一個重達4噸的巨型機器人,,身高約4米,,配有可以遠程操控的帶輪子的4只腳。
報道稱,,Kurata機器人最特別之處是,,配備了兩架機關槍,能夠在1分鐘內發(fā)射6000發(fā)子彈,,此外還有一套追蹤移動目標的系統(tǒng),。其售價超過100萬美元,雖然從其發(fā)布以來至今尚未售出過一臺,,但它的出現(xiàn)已經足以證明,,機器人戰(zhàn)士的時代已經開始。這到底是好事還是壞事,?
這 要看怎么說,。機器人應用領域最具權威的專家之一、美國密歇根大學教授羅納德·阿金就認為,,機器人戰(zhàn)士的出現(xiàn)不僅是一個已經停不下來的事實,,而且也是非常積 極的一件事?!懊恳粓鰬?zhàn)爭制造的暴行都是說也說不完的,,而制造者永遠都是人?!卑⒔鹫f,“戰(zhàn)場上人類的行為很多時候從道德和法律上說都是令人懷疑的,。歷史 上出現(xiàn)過無數(shù)的戰(zhàn)爭犯,,他們制造戰(zhàn)爭的原因也是各種各樣。面對這一切的混亂,,機器人將可以大大地解決問題,,至少可以讓問題減少到最少?!?/p>
報道稱,,他認為,,用機器人替代真的士兵幾乎可以稱得上是一種道德責任?!笆紫?,使用機器人的軍隊可以大幅度減少在戰(zhàn)場上必須犧牲掉的士兵人數(shù);其次還可以避免給平民造成傷亡,,他們都是戰(zhàn)爭的‘附帶犧牲品’”,。
阿 金支持研發(fā)“致命自主武器系統(tǒng)”的理由是,“為了在戰(zhàn)場上讓士兵的判斷不至于受到情緒的影響,。潛在的恐懼感和情緒狂躁是戰(zhàn)場上士兵們面臨的最大敵人,,往往 他們無法承受這種壓力,最終做出了可怕的決定,。相反,,如果是機器人戰(zhàn)士,如果給它們設定適當?shù)某绦?,在產生疑慮時它們就不會采取行動,。與人類不同,機器人 不會是先射擊再產生問題”,。因此,,在阿金看來問題的關鍵并不在于機器本身,而是設定程序的標準,?!皺C器人戰(zhàn)士和烤面包機一樣,它們沒有靈魂,,也沒有區(qū)分好 壞的意識,。如果給它設定大開殺戒的程序,它就會大開殺戒,。關鍵在于設計是否能讓它們有效,,在盡可能避免流血的前提下完成任務”。
報道稱,,英國設菲爾德大學人工智能和機器人項目榮譽退休教授諾埃爾·夏基則持完全相反的觀點,。他是“停止殺人機器人”運動的創(chuàng)立者,也是國際機器人武器控制委員會成員,,該委員會由科學家和人權方面的律師組成,。
夏基表示,“從道德的角度講,,很多人認為將生殺大權交給一臺機器是十分可怕的想法,。而且,雖然完全自主的武器系統(tǒng)不會被恐懼或憤怒牽著鼻子走,,但它們也缺乏憐憫之心,,而憐憫卻是避免平民遭屠殺的最關鍵的一種保護傘”,。
報 道稱,目前,,美軍已經將大量作戰(zhàn)任務交給了無人機來執(zhí)行,,韓國軍隊也已經開始使用遠程操控的裝甲車在邊境巡邏,但是這些機器沒有一樣是完全自主性的,,開火 的決策權依然掌握在人類手中,。因此,在日內瓦開會的各國專家所尋求的是在成為現(xiàn)實之前就禁止使用“致命自主武器系統(tǒng)”達成一項國際性協(xié)議,。雖然專家們知道 這不是件簡單的事,,就像大赦國際的米格爾·安赫爾·卡爾德龍所言,在下定決心研發(fā)這樣的武器系統(tǒng)時,,企業(yè)的利益往往超越了一切,。
事實上,決 定已經有了,。如前所述,,在美國國防部高級研究項目局的資助下,一個被命名為“Atlas”的機器人已經于2013年正式亮相,。這是一個看上去和“終結者” 頗為相似的雙足人形機器人,。它的身體靠液壓啟動的28個關節(jié)組成,這使其能夠在各種路面環(huán)境中靈活的移動,。當然,,它還可以攜帶武器。
報道 稱,,俄羅斯也加入到這場競賽當中,。總參謀長瓦列里·格拉西莫夫已經表示過想在車臣戰(zhàn)場上裝備機器人戰(zhàn)士的想法?,F(xiàn)在,,俄羅斯軍方已經實現(xiàn)了他強大的技術武 器庫,其中最引人注目的就是“MRK-27BT”戰(zhàn)斗機器人,。這是一種履帶式移動機器人,,配備了1挺機關槍、兩個發(fā)射筒,、兩個噴火器和6個煙霧彈,。此外, 俄羅斯還在今年1月發(fā)布了第一款自主戰(zhàn)斗機器人,,這也是一個可以在平地移動的具人形狀的的機器人。但是,,這次表演并無特別之處,,攝像機甚至還記錄下了俄羅 斯總統(tǒng)普京在現(xiàn)場打哈欠的鏡頭,,這也從一個側面證明,他對俄軍隊的第一個戰(zhàn)斗機器人的印象并不深刻,。
除了道德因素,,經濟問題也是研發(fā)此類武 器系統(tǒng)時要考慮的問題。美國國防部聯(lián)合部隊司令部機器人項目負責人,、智能戰(zhàn)“教父”戈登·約翰遜表示,,“一名士兵一生平均將花費國防部400萬美元,而且 這個數(shù)字還在逐年上升,。而據(jù)我們的估算,,一名機器人戰(zhàn)士的花銷卻只有這個數(shù)額的1/10”。為了能讓人們對任何軍隊使用機器人戰(zhàn)士都能省錢形成概念,,只要 看看美國政府今年對退役士兵欠下的錢就可以了——6530億美元,。如果使用機器人戰(zhàn)士,這筆錢將可以節(jié)省下來,。此外,,機器人的服役時間也能比人更久。當 然,,軍方也不能逃避因使用越來越具有自主性的機器人戰(zhàn)士所帶來的法律和道德后果,。約翰遜表示,“我常常想,,如果這樣的機器人摧毀的是一部校車,,而不是坦克 該怎么辦?因此,,在我們確定機器人可以準確無誤地瞄準一個目標之前,,我們不能讓機器擁有射擊的能力”。
報道稱,,這雖然是一個理智的立場,,但 事情卻沒那么簡單。西班牙薩拉戈薩大學信息與系統(tǒng)工程學教授曼努埃爾·岡薩雷斯·貝迪亞認為,,“任何機器都有可能出錯,,根本不存在百分之百的有效性。這是 適用于個人電腦或造價超過千萬美元的機器人超級戰(zhàn)士的有效規(guī)律,。最大的區(qū)別在于,,機器人在戰(zhàn)場上制造的錯誤更加嚴重,與人類生命息息相關”,。
諾 埃爾·夏基認為,,最有可能產生的極端結果是,“在出現(xiàn)錯誤的情況下,,我們原本用來攻擊敵軍的這些機器會反過來攻擊我們自己,。各種風險都是可能存在的”,。此 外,該如何執(zhí)行法律也是爭論的焦點之一,。大赦國際的卡爾德龍表示,,“誰該為不受控制的致命自主武器系統(tǒng)可能犯的戰(zhàn)爭罪行負責?國際法制定的問責制規(guī)定誰是 行動的負責者,,誰就該為賠償負責,。但是應用到機器人身上,事情沒有這么簡單,,因為機器本身并不是殺人行為的責任者”,。
但是以軍用目的開發(fā)機 器人技術的支持者之一阿金卻認為,“的確如此,,一旦發(fā)生這樣的情況,,我們不會看到有哪個具體的士兵受到審判,并因這樣的罪行而被判有罪,。然而,,最高指揮應 該為這樣的機器負責,相應的政府也應該為犧牲者支付賠償,。另一方面,,我堅信有一天會制定這方面的法律,彌補現(xiàn)在的漏洞”,。
報道稱,,此外,阿 金還認為完全禁止研發(fā)這樣的武器是沒有任何實際效果的做法,?!叭绻麢C器人戰(zhàn)士真的能被運用在戰(zhàn)場,就一定會有人加以利用”,。他回顧了在1899年,,盡管歐 洲國家都簽訂了《禁止使用散布窒息性或有毒氣質為唯一目的之投射物的海牙宣言》,德國人還是在二戰(zhàn)中使用了這種氣體,。阿金表示,,“必須要做的是通過可信的 研究證實,這樣的機器能夠依照國際法的規(guī)定行動”,。
像電影《終結者》講述的那種由殺人機器人統(tǒng)治世界的未來情景離實現(xiàn)還很遙遠,。阿金表示, “把機器人當成無所不能的奇跡是荒唐的想法,。機器就是機器,,它們不可能有是非觀念”。因此,面對斯蒂芬·霍金等一些科學家對失控的人工智能設備的質疑,,工 程師兼程序員默里·沙納漢表示,,“如果說存在一種能夠自己拿主意的機器人,那這還純屬臆想當中的完美事情,。我們還不知道怎樣造這樣一臺機器。我們能夠造出 的軍用人工設備完全是不具備任何自主行動的工具,,因此要認清長期內這種設備到底意味著怎樣的風險是最重要的,。所以,有人認為我們是在傷害發(fā)生之前綁繃帶,, 但是這個問題的重要性是值得我們具備這樣的前瞻性的”,。
報道稱,日內瓦峰會的召開是想讓聯(lián)合國各成員國就不使用“非人類軍隊”簽署一項備忘錄,,盡管似乎正在開展這項工作的國家并不多,。2015年初美國軍方宣布,希望首批機器人戰(zhàn)士能在2030年運用于實戰(zhàn),,到2040年美軍中每4名戰(zhàn)士中就有1個是機器人,。
不 遠的將來會發(fā)生什么?禁止使用殺人機器人的支持者們十分樂觀,,認為他們的愿望一定能實現(xiàn),。諾埃爾·夏基表示,“既然我們已經在禁用化學武器和激光致盲武器 方面取得了成功,,我們也有理由認為在殺人機器人問題上獲得我們想要的結果”,。而以阿金為代表的支持使用機器人戰(zhàn)士的一方也在堅持著自己的觀點。雙方至少在 一點上是能達成共識的:機器人造成的世界末日離我們還很遙遠,。