據(jù)國(guó)外媒體報(bào)道, 頂尖的人工智能研究人員警告大眾,,“AI軍備競(jìng)賽”可能對(duì)人類是災(zāi)難性的,,并敦促聯(lián)合國(guó)審議關(guān)于禁止“進(jìn)攻性自控制武器”的提案,。生命未來研究所給出的公開信表示,,那些自動(dòng)“選擇并打擊目標(biāo),,無需人工干預(yù)”的武器可能成為明天的AK 47,,成為助長(zhǎng)戰(zhàn)爭(zhēng),、恐怖主義的全球不穩(wěn)定因素,。這封公開信由許多科技界的知名人物聯(lián)署,,其中包括斯蒂芬·霍金、伊隆·馬斯克和美國(guó)哲學(xué)家諾姆·喬姆斯,。
該公開信表示,,“人工智能(AI)技術(shù)已經(jīng)達(dá)到如果沒有法律約束,幾年內(nèi)就可部署的程度,,而不是幾十年,。” 該信表示帶有武器的四軸無人機(jī)就是一個(gè)很好的例子,。雖然人工智能武器可以減少戰(zhàn)場(chǎng)上的人員傷亡,,但這本身就是一個(gè)錯(cuò)誤,因?yàn)樗鼤?huì)降低走向戰(zhàn)爭(zhēng)的門檻,。
“不像核武器,,AI武器無需昂貴或難以取得原料,所以他們會(huì)變得無處不在,。廉價(jià)到所有的軍事強(qiáng)國(guó)都會(huì)大批量生產(chǎn),。 他們出現(xiàn)在黑市和恐怖分子手中只是時(shí)間的問題?!?/p>
這封信結(jié)尾警告AI武器的發(fā)展可能會(huì)損害人工智能領(lǐng)域的發(fā)展,,并引起“公眾的強(qiáng)烈反對(duì)”,將阻礙有益的人工智能研究,。聯(lián)署人表示“應(yīng)對(duì)超越人類控制的進(jìn)攻武器采取禁令”,,并敦促聯(lián)合國(guó)采取行動(dòng)。
目前半自動(dòng)武器系統(tǒng)已經(jīng)大幅增加,,美國(guó)空軍預(yù)測(cè),,“到2030年機(jī)械性能將極大增強(qiáng),人類反而將成為最弱的系統(tǒng)組件,?!?無論是人工智能的批評(píng)者和支持者都表示,人工智能武器系統(tǒng)的界限很難拿捏,。
公開信的其他聯(lián)署人還包括蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,,Skype的聯(lián)合創(chuàng)始人Jaan Talinn,Demis Hassabis,英國(guó)人工智能公司DeepMind的CEO,。