雷鋒網(wǎng)AI科技評論按:IEEE(美國電氣和電子工程師協(xié)會)最新宣布了三項(xiàng)新的人工智能發(fā)展標(biāo)準(zhǔn),。
IEEE 號稱為“世界上最大的先進(jìn)技術(shù)專業(yè)組織”,。根據(jù)最近發(fā)布的一份報(bào)告,,他們的人工智能標(biāo)準(zhǔn)將優(yōu)先考慮人類,因?yàn)樗麄兂兄Z要跟上AI領(lǐng)域不斷發(fā)展的腳步,。
IEEE發(fā)布三項(xiàng)人工智能新標(biāo)準(zhǔn),,涉及高層次倫理問題
在發(fā)布的《合乎倫理的設(shè)計(jì):將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》報(bào)告中,,共分為八個部部分闡述了新的人工智能發(fā)展問題,。分別是:一般原則,人工智能系統(tǒng)賦值,;指導(dǎo)倫理學(xué)研究和設(shè)計(jì)的方法學(xué),;通用人工智能和超級人工智能的安全與福祉;個人數(shù)據(jù)和個人訪問控制,;重新構(gòu)造自動武器系統(tǒng),;經(jīng)濟(jì)/人道主義問題;法律,。
IEEE發(fā)布三項(xiàng)人工智能新標(biāo)準(zhǔn),,涉及高層次倫理問題
一般原則涉及高層次倫理問題,適用于所有類型的人工智能和自主系統(tǒng),。在確定一般原則時,,主要考慮三大因素:體現(xiàn)人權(quán);優(yōu)先考慮最大化對人類和自然環(huán)境的好處,;削弱人工智能的風(fēng)險(xiǎn)和負(fù)面影響,。
人類利益原則要求考慮如何確保AI不侵犯人權(quán)。責(zé)任原則涉及如何確保AI是可以被問責(zé)的,。為了解決過錯問題,,避免公眾困惑,AI系統(tǒng)必須在程序?qū)用婢哂锌韶?zé)性,,證明其為什么以特定方式運(yùn)作,。透明性原則意味著自主系統(tǒng)的運(yùn)作必須是透明的。AI是透明的意味著人們能夠發(fā)現(xiàn)其如何以及為何做出特定決定,。
在關(guān)于如何將人類規(guī)范和道德價值觀嵌入AI系統(tǒng)中,,報(bào)告中表示由于AI系統(tǒng)在做決定、操縱其所處環(huán)境等方面越來越具有自主性,,讓其采納,、學(xué)習(xí)并遵守其所服務(wù)的社會和團(tuán)體的規(guī)范和價值是至關(guān)重要的??梢苑秩絹韺?shí)現(xiàn)將價值嵌入AI系統(tǒng)的目的:
第一,,識別特定社會或團(tuán)體的規(guī)范和價值;
第二,,將這些規(guī)范和價值編寫進(jìn)AI系統(tǒng),;
第三,評估被寫進(jìn)AI系統(tǒng)的規(guī)范和價值的有效性,,即其是否和現(xiàn)實(shí)的規(guī)范和價值相一致、相兼容。
雖然上述的相關(guān)研究一直在持續(xù),,這些研究領(lǐng)域包括機(jī)器道德(Machine Morality),、機(jī)器倫理學(xué)(Machine Ethics)、道德機(jī)器(Moral Machine),、價值一致論(Value Alignment),、人工道德(Artificial Morality)、安全AI,、友好AI等,,但開發(fā)能夠意識到并理解人類規(guī)范和價值的計(jì)算機(jī)系統(tǒng),并讓其在做決策時考慮這些問題,,一直困擾著人們,。當(dāng)前主要存在兩種路徑:自上而下的路徑和自下而上的路徑。這一領(lǐng)域的研究需要加強(qiáng),。
報(bào)告中還指出需要指導(dǎo)倫理研究和設(shè)計(jì)的方法論,,通用人工智能和超級人工智能的安全與福祉,重構(gòu)自主武器系統(tǒng),,以及經(jīng)濟(jì)/人道主義問題等八個人工智能發(fā)展面臨的問題,。報(bào)告中收集了超過一百位來自人工智能領(lǐng)域?qū)W術(shù)界,科學(xué)界,,以及政府相關(guān)部門的思想領(lǐng)袖的意見,,整合了人工智能、倫理學(xué),、哲學(xué)和政策等多個領(lǐng)域?qū)I(yè)知識,。它的修訂版EAD(Ethically Aligned Design) 版本將會在2017年底推出,報(bào)告增至為十三個章節(jié),,含二百五十多個全球思想領(lǐng)袖的精華分享,。
IEEE 機(jī)器人和自動化協(xié)會的主席Satoshi Tadokoro 解釋了他們?yōu)槭裁聪胍贫ㄟ@樣的標(biāo)準(zhǔn):“機(jī)器人和自動系統(tǒng)將為社會帶來重大創(chuàng)新。最近,,公眾越來越關(guān)注可能發(fā)生的社會問題,,以及可能產(chǎn)生的巨大潛在利益。不幸的是,,在這些討論中,,可能會出現(xiàn)一些來自虛構(gòu)和想象的錯誤信息?!?/p>
Tadokoro 繼續(xù)說道:“IEEE 將基于科學(xué)和技術(shù)的公認(rèn)事實(shí)來引入知識和智慧,,以幫助達(dá)成公共決策,使人類的整體利益最大化,?!背薃I倫理標(biāo)準(zhǔn)外,,還有其他兩個人工智能標(biāo)準(zhǔn)也被引入報(bào)告中,每個項(xiàng)目都由領(lǐng)域?qū)<翌I(lǐng)導(dǎo),。
第一個標(biāo)準(zhǔn)是:“機(jī)器化系統(tǒng),、智能系統(tǒng)和自動系統(tǒng)的倫理推動標(biāo)準(zhǔn)”。這個標(biāo)準(zhǔn)探討了“推動”,,在人工智能世界里,,它指的是AI會影響人類行為的微妙行動。
第二個標(biāo)準(zhǔn)是“自動和半自動系統(tǒng)的故障安全設(shè)計(jì)標(biāo)準(zhǔn)”,。它包含了自動技術(shù),,如果它們發(fā)生故障,可能會對人類造成危害,。就目前而言,,最明顯的問題是自動駕駛汽車。
第三個標(biāo)準(zhǔn)是“道德化的人工智能和自動系統(tǒng)的福祉衡量標(biāo)準(zhǔn)”,。它闡述了進(jìn)步的人工智能技術(shù)如何有益于人類的益處,。
這些標(biāo)準(zhǔn)的實(shí)施可能比我們想象的要早,因?yàn)橄?OpenAI 和 DeepMind 這樣的公司越來越快地推進(jìn)人工智能的發(fā)展,,甚至創(chuàng)造出能夠自我學(xué)習(xí)又?jǐn)U大“智能”領(lǐng)域的人工智能系統(tǒng),。專家們認(rèn)為,這樣的人工智能會破壞世界穩(wěn)定,,導(dǎo)致大規(guī)模的失業(yè)和戰(zhàn)爭,,甚至轉(zhuǎn)向創(chuàng)造“殺人武器”。最近,,聯(lián)合國的重要討論促使人們開始認(rèn)真思考,,需對將人工智能技術(shù)當(dāng)作武器使用進(jìn)行更嚴(yán)格的監(jiān)管。
雷鋒網(wǎng)小結(jié):2017年是AI發(fā)展最快的一年,,AI 威脅論一波未平,,一波又起。這其中牽扯到AI濫用,、AI透明性,、算法公平、AI倫理,、AI監(jiān)管和責(zé)任,、AI信任等問題,我們看到其中有一部分正在擬定相關(guān)的標(biāo)準(zhǔn)和規(guī)范,。不過,,未來AI的發(fā)展還需要更多的討論和對話,一方面需要確保法律和政策不會阻礙創(chuàng)新進(jìn)程,,另一方面,,對新出現(xiàn)的諸如倫理,、責(zé)任、安全,、隱私等問題,,需要在跨學(xué)科的基礎(chǔ)上,,以及在政府,、企業(yè)、民間機(jī)構(gòu),、公眾密切合作的基礎(chǔ)上,,共同削弱AI的不利影響,創(chuàng)建人類和AI彼此信任的未來,。