圖片來源@視覺中國
文|學(xué)術(shù)頭條
歐盟委員會 (European Commission) 近日發(fā)布《人工智能白皮書》,計(jì)劃制定一套人工智能的新法規(guī),,以保護(hù)公民免受濫用人工智能技術(shù)的傷害,。
同時(shí),歐盟表示新法規(guī)將側(cè)重于透明度和監(jiān)督,,以區(qū)別該地區(qū)與美國和中國的做法,。有趣的是,歐美委員會將目前 AI 發(fā)展的現(xiàn)狀比作「蠻荒的西部」,,并表示將重點(diǎn)關(guān)注「高風(fēng)險(xiǎn)」案例,。
AI 現(xiàn)狀:蠻荒的西部?
如今,,人臉識別已經(jīng)成為一些執(zhí)法機(jī)關(guān)追蹤嫌犯時(shí)最強(qiáng)有力的武器,;還有些醫(yī)療機(jī)構(gòu)正通過分析人的臉部特征,來診斷某些罕見遺傳疾病……但它對公民隱私權(quán)構(gòu)成的威脅,,也前所未有,。
相較指紋等其他生物特征,人臉識別的最大不同就在于,,它能遠(yuǎn)距離發(fā)生作用,,而無需直接接觸。這意味著,,政府,、公司等機(jī)構(gòu)和個(gè)人可能未經(jīng)當(dāng)事人同意、甚至完全不知情的情況下讀取并搜集其數(shù)據(jù),,進(jìn)而非法使用,。
事實(shí)上,,人臉不僅僅能表明身份,讓人覺得美或丑,,還泄露許多其他信息,。有研究表明,通過大數(shù)據(jù)和算法,,有相當(dāng)大概率能通過人臉特征來測算一個(gè)人的智力水平,、性取向,甚至政治傾向……
因此,,一旦這種技術(shù)被不恰當(dāng)?shù)厥褂?,就有可能產(chǎn)生嚴(yán)重后果——例如,,保險(xiǎn)公司或可更精確判定一個(gè)人的健康狀況,,從而制定出包賺不賠的保單價(jià)格;雇主可能會雇傭或拒絕一些特定的雇員,,以滿足其偏見,;一些政府則可能更加主動(dòng)有效地對某些特定人群進(jìn)行追蹤、監(jiān)控甚至迫害,;在人種多元的國家,,臉部特征數(shù)據(jù)的運(yùn)算結(jié)果還可能造成對某些族群人士的不公正認(rèn)知……
還有人認(rèn)為,人臉識別會反過來影響人們的現(xiàn)實(shí)交往和信任關(guān)系,。如果都知道自己的臉部特征會對自己將在社會上遭遇怎樣的對待產(chǎn)生重大影響時(shí),,人們就會被訓(xùn)練成「表演大師」。長此以往,,整個(gè)社會將陷入巨大的信任危機(jī)之中,。
再比如,近幾年來,,基于 AI 技術(shù)的 Deepfake 視頻在網(wǎng)絡(luò)上有泛濫之勢,,該技術(shù)能夠生成逼真的假視頻或音頻片段,很多時(shí)候足以亂真,。這些逼真的視頻讓人們發(fā)出「技術(shù)無所不能」的贊嘆,,同時(shí),也引發(fā)了更多的人對技術(shù)濫用和不可控的擔(dān)憂,,甚至是恐懼,。
Deepfake 的出現(xiàn)實(shí)現(xiàn)了「以假亂真」的合成技術(shù)
與惡搞娛樂和公益相比,Deepfake 更多地顯示了技術(shù)的「陰暗獠牙」,。利用 Deepfake 偽造的演講視頻已經(jīng)對馬來西亞和加蓬的政治丑聞產(chǎn)生影響,。
據(jù) Deepfake 檢測軟件的 Deeptrace Labs 的一份報(bào)告稱,目前在線的 Deepfake 視頻中有96%是非自愿拍攝的「換頭」色情片,,片中人的臉往往被換成了女性名人的臉,。這已經(jīng)超出了惡搞的范疇,,觸及違法的邊緣。
禁用人臉識別,?
根據(jù)歐盟發(fā)布的白皮書內(nèi)容,,在未來的五年中,歐盟委員會將專注于數(shù)字化的三個(gè)關(guān)鍵目標(biāo):為人民服務(wù)的技術(shù),;公平競爭的經(jīng)濟(jì),;開放、民主和可持續(xù)的社會,,白皮書還提出一系列人工智能研發(fā)和監(jiān)管的政策措施,,并提出建立「可信賴的人工智能框架」。
近年來,,歐洲一直在尋求在技術(shù)政策方面強(qiáng)調(diào)公平和倫理,。
歐洲內(nèi)部市場和服務(wù)專員蒂森·布雷頓(Thierry Breton)表示,新法規(guī)將與《一般數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation) 相媲美,。這部影響深遠(yuǎn)的數(shù)據(jù)隱私法于2018年生效,,也被稱為史上最嚴(yán)數(shù)據(jù)保護(hù)法,對侵犯網(wǎng)民隱私的違法企業(yè),,罰金最高可達(dá)2000萬歐元(約合1.5億元人民幣)或者其全球營業(yè)額的4%,,以高者為準(zhǔn)。法規(guī)出臺不久,,F(xiàn)acebook 和谷歌等美國企業(yè)也都成為 GDPR 法案下的第一批被告,。
根據(jù)新規(guī),歐盟將建議禁止在公共場所使用面部識別技術(shù),,并且提到這些系統(tǒng)的運(yùn)行將需要人的監(jiān)督和審計(jì),。作為建議的一部分,歐盟還希望成員國任命相關(guān)部門監(jiān)督人工智能政策規(guī)則的執(zhí)行情況,。
當(dāng)然,,這些規(guī)定嚇壞了硅谷的公司。即使 GDPR 這樣的法規(guī)只針對歐洲,,也往往具有全球影響,。布雷頓表示:「與 GDPR 一樣,我們有自己的規(guī)則,,我們將在這里執(zhí)行,。他們將確保我們在歐洲珍視的個(gè)人和基本權(quán)利得到尊重?!?/p>
歐洲是世界上最大的工業(yè)大陸,,盡管人工智能等轉(zhuǎn)型技術(shù)被稱為關(guān)鍵技術(shù),但人們普遍認(rèn)為歐洲落后于美國,,美國的發(fā)展由財(cái)力雄厚的科技巨頭主導(dǎo)?,F(xiàn)在,,通過歐盟引入有關(guān)人工智能和面部識別等技術(shù)數(shù)據(jù)收集透明度的規(guī)則,將領(lǐng)先邁出重要一步,。
歐盟科技主管瑪格麗特維斯特格 ( Margrethe Vestager ) 在之前的新聞發(fā)布會上指出,,該規(guī)則將涵蓋自動(dòng)駕駛汽車和生物識別 ID 等用途。歐盟以外想要在歐洲部署其技術(shù)的公司,,可能需要采取具體步驟,,例如使用歐洲數(shù)據(jù)集重新訓(xùn)練面部識別功能。歐盟希望積累在制造業(yè),,交通運(yùn)輸,,能源和醫(yī)療保健等領(lǐng)域收集的數(shù)據(jù),以保護(hù)公眾利益,,并加速歐洲自己的初創(chuàng)公司,。
同時(shí),歐盟將提議每年花費(fèi)近220億美元用于構(gòu)建可以用作 AI 開發(fā)基礎(chǔ)的新數(shù)據(jù)生態(tài)系統(tǒng),。該計(jì)劃假設(shè)歐洲擁有大量的政府和工業(yè)數(shù)據(jù),,并且希望提供監(jiān)管和財(cái)務(wù)激勵(lì)措施以匯總這些數(shù)據(jù),,然后這些數(shù)據(jù)將提供給同意遵守歐盟法規(guī)的 AI 開發(fā)人員,。
谷歌:支持政府監(jiān)管,但制定規(guī)則應(yīng)謹(jǐn)慎
谷歌 CEO Pichai 近日在布魯塞爾舉行的 Bruegel 智庫組織的一次會議上說:「我認(rèn)為政府和監(jiān)管法規(guī)應(yīng)盡早解決此問題,,并出臺管理的框架規(guī)定,,這是很重要的?!?/p>
「現(xiàn)在這樣做可能會立竿見影,,但也可能要等待一段時(shí)間才能見效,屆時(shí)我們才能真正考慮如何使用它,。使用這種技術(shù)取決于政府制定的路線,。」
Pichai 表示,,監(jiān)管機(jī)構(gòu)在起草規(guī)則時(shí)應(yīng)謹(jǐn)慎行事,。歐盟委員會在該問題上發(fā)布的建議將在很大程度上決定人臉識別技術(shù)未來在歐洲的命運(yùn)。
微軟:不應(yīng)一刀切
相比之下,,微軟總裁 Brad Smith 對此表達(dá)了兩點(diǎn)不同的觀點(diǎn),,他認(rèn)為,面部識別技術(shù)在某些情況下是可以造福社會的,,比如非政府組織可以使用它來尋找失蹤的孩子,。
Smith 說:「我真的不愿意討論讓人們禁用某項(xiàng)技術(shù),人臉識別技術(shù)可以讓久別的家人團(tuán)聚,?!?/p>
他還說,,如果能有一個(gè)合理的選擇,讓我們能用「手術(shù)刀」,,而不是「切肉刀」來解決這個(gè)問題,,那就不要一刀切都禁了。
現(xiàn)在重要的是首先確定問題所在,,然后制定規(guī)則,,確保該技術(shù)不會用于大規(guī)模監(jiān)視。他認(rèn)為,,最終要讓一項(xiàng)技術(shù)變得更好的方法只有一種,,就是多用,而不是禁用,。
Faceboo:呼吁加強(qiáng)監(jiān)管
Facebook 首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)近日還專門到訪布魯塞爾與 Vestager 會晤并討論擬議的法規(guī),。扎克伯格在《金融時(shí)報(bào)》周末發(fā)表的觀點(diǎn)文章中再次呼吁加強(qiáng)對 AI 和其他技術(shù)的監(jiān)管,以幫助建立公眾信任,。
「我們需要更多的監(jiān)督和問責(zé),,」扎克伯格寫道?!溉藗冃枰杏X到,,全球技術(shù)平臺是對某人的回應(yīng),因此監(jiān)管應(yīng)該讓企業(yè)在犯錯(cuò)時(shí)承擔(dān)責(zé)任,?!?/p>
據(jù)了解,公眾有12周時(shí)間就這些規(guī)定發(fā)表評論,,歐盟委員會將在今年晚些時(shí)候正式提出立法,。
前進(jìn)還是倒退?
白皮書標(biāo)志著一個(gè)新進(jìn)程的開始,,這一進(jìn)程可能引導(dǎo)針對人工智能系統(tǒng)及其企業(yè)的新立法,。「這將使大規(guī)模(對人工智能的)監(jiān)控合法化,,」獨(dú)立研究員斯蒂芬妮·黑爾博士說,。
黑爾博士認(rèn)為,委員會應(yīng)暫停使用面部識別技術(shù)多年,,以便就如何或是否可以合乎道德地使用這類系統(tǒng)征詢專家的意見,。
而實(shí)際上,一些英國警察已經(jīng)在公共場合使用面部識別系統(tǒng),。英國警方使用人臉識別攝像頭監(jiān)控威爾士足球比賽的人群時(shí),,一些球迷捂著臉抗議。這項(xiàng)技術(shù)存在爭議的一個(gè)跡象是,甚至一個(gè)鄰近警察局的負(fù)責(zé)人也表示反對這項(xiàng)技術(shù),。
南威爾士警方在卡迪夫體育場外部署了裝有人臉識別的貨車,,作為長期試驗(yàn)的一部分。在這個(gè)試驗(yàn)項(xiàng)目中,,警方實(shí)時(shí)掃描球迷,,并拘留因過去行為不端而被列入黑名單的任何人。維權(quán)人士和球隊(duì)支持者在卡迪夫市和斯旺西城之間的比賽前舉行了抗議,,他們戴著口罩,、頭套或圍巾。
「這與風(fēng)險(xiǎn)不相稱,,」威爾士足球支持者協(xié)會主席文斯·阿爾姆說,,該協(xié)會幫助組織了這次抗議活動(dòng)?!盖蛎詡冇X得他們好像被選中當(dāng)做試驗(yàn)品,。」
英國擁有世界上最高密度的監(jiān)控?cái)z像頭之一,,幾十年來,,英國安全部門一直在公共場所使用攝像頭,但是在2001年9月11日之后,,英國還遭遇了國內(nèi)恐怖襲擊,。
倫敦大學(xué)學(xué)院 (University College London) 的邁克爾維爾 (Michael Veale) 表示,這份白皮書是一個(gè)「錯(cuò)失發(fā)展機(jī)會的計(jì)劃」,?!杆^于專注于孤立的系統(tǒng),,而沒有考慮周圍的環(huán)境,、商業(yè)模式、它的用途,,以及推動(dòng)人工智能的經(jīng)濟(jì)和政治體系,。」
Veale 博士補(bǔ)充說,,包括 GDPR 在內(nèi)的現(xiàn)有法律為防止濫用面部識別提供了保護(hù),,但是他認(rèn)為,與其制定新的法律,,不如把重點(diǎn)放在執(zhí)行這些法律上,。
他個(gè)人已經(jīng)向監(jiān)管機(jī)構(gòu)提交了針對科技公司的「幾起」投訴,但他還沒有被告知任何由此導(dǎo)致的行動(dòng),。
數(shù)字權(quán)益組織 Access Now 的丹尼爾洛伊弗 (Daniel Leufer) 也在 twitter 上發(fā)帖稱,,這份白皮書在面部識別和人工智能生物識別方面的內(nèi)容「令人失望」地薄弱。
也有些人對目前在人臉識別方面缺乏具體的建議表示歡迎,。
法國格勒諾布爾阿爾卑斯大學(xué) (Grenoble Alpes) 的西奧多克里斯塔基斯 (Theodore Christakis) 是法國國家數(shù)字委員會 (French National Digital Council) 的成員,。他在采訪中表示:「歐盟委員會需要更多時(shí)間來研究如此復(fù)雜的問題,,并在這一領(lǐng)域謹(jǐn)慎推進(jìn),這似乎是合理的,?!?/p>
AI 未來何去何從?
根據(jù)一份新的政府報(bào)告,,英國將不會設(shè)立專門的人工智能監(jiān)管機(jī)構(gòu),,但需要對公共部門的使用和道德規(guī)范給予更明確的說明。
這份名為《人工智能與公共標(biāo)準(zhǔn):公共生活標(biāo)準(zhǔn)委員會》的報(bào)告稱,,政府「在開放性上失敗了」,,人們對「人工智能黑箱」的擔(dān)憂在很大程度上是錯(cuò)誤的。
報(bào)告指出:「公共部門組織在使用人工智能方面不夠透明,,而且很難發(fā)現(xiàn)政府目前在哪些領(lǐng)域使用了機(jī)器學(xué)習(xí),。」
該報(bào)告主張,,「所有公營機(jī)構(gòu)在提供公共服務(wù)前,,應(yīng)發(fā)表聲明,說明使用人工智能是否符合有關(guān)法例及規(guī)例,;不需要特定的人工智能監(jiān)管機(jī)構(gòu),,但應(yīng)成立監(jiān)管保證機(jī)構(gòu),以確定監(jiān)管領(lǐng)域的空白,,并就與人工智能相關(guān)的問題向個(gè)別監(jiān)管機(jī)構(gòu)和政府提供建議」
IT 服務(wù)提供商 Insight 的技術(shù)策略師亞歷克斯·吉蘭 (Alex Guillen) 在報(bào)告發(fā)布后評論稱,,「首先,公共部門需要記住,,目前人工智能和機(jī)器學(xué)習(xí)等技術(shù)的最有效使用,,是為了提高而不是取代人類。幫助公共部門的工作人員做出更明智的決定,,以改善公共服務(wù),。然而,無論人工智能如何應(yīng)用于公共部門,,它都需要被當(dāng)作雇員對待——并給予必要的培訓(xùn)和信息,,以完成其工作?!?/p>
Guillen 補(bǔ)充說,,「與任何依賴數(shù)據(jù)的技術(shù)一樣,垃圾輸入意味著垃圾輸出,。從警務(wù)中的面部識別,,到幫助國民保健服務(wù) (NHS) 診斷和治療病人,人工智能需要正確的數(shù)據(jù)和正確的治理,以避免造成比解決更多的問題,。否則,,任何執(zhí)行都會受到道德問題和數(shù)據(jù)偏見或歧視指控的困擾?!?/p>
在美國,,一些政界人士對人臉識別軟件的準(zhǔn)確性和越來越多的使用也表示擔(dān)憂。一些人臉識別技術(shù)錯(cuò)誤地識別了女性和有色人種,,公民自由和隱私團(tuán)體對如何收集這些項(xiàng)目的數(shù)據(jù)表示擔(dān)憂,。
但與歐盟的謹(jǐn)慎作風(fēng)不同,美國白宮在2020年1月7日提出10條人工智能監(jiān)管原則,,要求避免聯(lián)邦機(jī)構(gòu)對人工智能應(yīng)用的過度干預(yù),,強(qiáng)調(diào)監(jiān)管的靈活性。
其中,,靈活性原則指出,,大多數(shù)情況下,試圖規(guī)定死板的人工智能應(yīng)用規(guī)則是不切實(shí)際且無效的,,因?yàn)槿斯ぶ悄軐⒁灶A(yù)期的速度發(fā)展,,機(jī)構(gòu)需要對新的信息和證據(jù)做出反應(yīng)。
熟悉此事的官員告訴《國防一號》(Defense One),,美國國防部 (Defense Department) 也將很快制定一套詳細(xì)的規(guī)則,,以管理如何開發(fā)和使用人工智能。2019年10月,,美國國防創(chuàng)新委員會 (DIB) 發(fā)布了一份規(guī)則草案,,名為「關(guān)于人工智能的道德使用的建議」。
「國防部已經(jīng)進(jìn)入采用人工智能原則的最后階段,,這些原則將在美國軍方全面實(shí)施,。」五角大樓聯(lián)合人工智能中心 (Joint Artificial Intelligence Center) 發(fā)言人阿羅·亞伯拉罕森中校 (Lt. Cmdr. Arlo Abrahamson) 說,。
DIB 的指導(dǎo)方針和附帶的實(shí)現(xiàn)方針,,遠(yuǎn)遠(yuǎn)超出了谷歌、Facebook 和微軟等科技巨頭發(fā)布的有關(guān)人工智能的簡短而基本上是膚淺的愿景聲明,。一些人工智能和武器領(lǐng)域的倫理學(xué)家和學(xué)者對美國國防部采用人工智能的消息表示歡迎,但他們補(bǔ)充稱,,這方面還有進(jìn)一步的工作要做,,人工智能在軍事上使用的風(fēng)險(xiǎn)和擔(dān)憂仍將存在。
參考資料:
歐盟擬在公共場所禁用人臉識別五年,,防止濫用. (n.d.). Retrieved February 24, 2020, from https://www.secrss.com/article/16692
EU plans new rules for AI but experts seek more detail. (2020, February 19). BBC News. https://www.bbc.com/news/technology-51559010
Pentagon to Adopt Detailed Principles for Using AI - Defense One. (n.d.). Retrieved February 24, 2020, from https://www.defenseone.com/technology/2020/02/pentagon-adopt-detailed-principles-using-ai/163185/?oref=d-channelriver
UK govt 'failing on openness' around public sector AI – but specific regulator not the answer—AI News. (n.d.). Retrieved February 24, 2020, from https://artificialintelligence-news.com/2020/02/11/uk-govt-failing-on-openness-around-public-sector-ai-but-specific-regulator-not-the-answer/