隨著技術研究不斷深入,、水平不斷提高, 人工智能(Artificial Intelligence,AI)技術正在數字經濟發(fā)展中發(fā)揮越來越重要的作用,。在AI 技術發(fā)展過程中,,倫理道德、數據隱私和安全性等問題一開始就作為頂層設計的重要內容,保障 AI發(fā)展的底線,。近年來,歐美主要經濟體認識到 AI 技術競爭的重要性,,提出多項措施激勵 AI 發(fā)展,;也不斷探索 AI 發(fā)展與監(jiān)管的平衡,明確提出 AI 倫理,、隱私保護和安全的相關立法與倡議,。其中的若干思路值得我國參考借鑒,以切實保障 AI 技術安全,、可靠發(fā)展,。
一、AI 發(fā)展應充分重視數據治理與隱私保護問題
AI 的運用涉及大量的數據,,尤其是 AI 訓練時使用的數據集以及運作后產生的大量數據,。這些數據可能是結構化或是非結構化的數據,若需要對這些數據加以利用,,必然涉及傳輸,、處理及存儲等環(huán)節(jié),面臨著跨境數據流通,、數據泄露等風險,。尤其是更多的數據位于傳統(tǒng) IT 的邊界之外,或存儲于混合云和多云環(huán)境中,,或是分布式存儲,,更加大了數據保護的難度。
然而,,現實情況比想象中更為復雜,。美國網絡安全公司 Imperva 的一份調查報告顯示,2020 年全球在線數據泄露事件的數量達到 170 萬次,,同比增長 93%,。2021 年 4 月,106 個國家和地區(qū)的超 5 億臉書用戶的數據暴露于一個黑客論壇,,其中包含用戶的電話號碼,、居住地址等。數據的非正當利用,,有可能危害國家安全,、個人權益,并帶來一系列不可預知的后果,。
為加強數據保護,,各國均提出了數據保護立法,。美國加利福尼亞州于 2018 年提出《加州消費者隱私法案》(California Consumer Privacy Act of 2018,CCPA),,對受保護數據的類型作出規(guī)定,,并賦予消費者數據訪問權、數據刪除權和知情權等權利,。歐盟于 2018 年施行《通用數據保護條例》(GeneralData Protection Regulation,,GDPR),規(guī)范數據使用,,賦予個人用戶數據“刪除權”和“移植權”,,并加強對數據傳輸至歐盟以外的“第三國”的管控。這兩項立法在全球引發(fā)廣泛的關注,,其中的許多條款為多個國家的數據保護立法提供參考,。我國《網絡安全法》和《個人信息保護法(草案)》等法規(guī)條款,也對數據的邊界,、個人信息的定義等內容進行規(guī)范,,明確數據使用的權利和義務。
除去數據的非正常利用情況,,企業(yè)和組織掌握數據量的多寡,,將帶來 AI 效能的高低不同,這是一件顯而易見的事情,。擁有更多數據的企業(yè)和組織,,將有更多機會發(fā)展自身的 AI 業(yè)務,進一步提高服務水準,,形成規(guī)模優(yōu)勢。數據量的差異,,有可能在周而復始的周期性運作中進一步擴大,,進而形成數據壟斷的局面,不利于數字經濟健康,、均衡發(fā)展,。
二、AI 技術應受到倫理道德約束
科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1950 年出版的小說《我,,機器人》中提出“阿西莫夫三大定律”(又稱“機器人學三大法則”),。這三大定律分別為:“第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀”“第二定律:機器人必須服從人給予它的命令,,當該命令與第一定律沖突時例外”“第三定律:機器人在不違反第一,、第二定律的情況下要盡可能保護自己的生存”。這三大定律為人類探討 AI 倫理準則提供了較為早期的參考,。目前,,各國之間廣泛認同的 AI 倫理準則可總結為以下四個方面,,分別為可靠性與安全性;透明度與可解釋性,;非歧視原則,;負責任的 AI。
?。ㄒ唬┛煽啃耘c安全性
可靠與安全是 AI 進行一切活動的前提,,是最基本的要求。正如前文“阿西莫夫三大定律”所述,,機器在進行運作活動,、服務于人類生產生活時,應確保人類的安全且不具有威脅性,。在后期的 AI 倫理研究中,,研究者也從安全出發(fā),不斷擴充這類研究的內涵,,以應對發(fā)展中的諸多挑戰(zhàn),。
(二)透明度與可解釋性
由于傳統(tǒng) AI 系統(tǒng)的處理方式為人類無法了解的“黑箱”模式,,人類僅能知道系統(tǒng)的輸入(特定的數據與激勵)和輸出內容(處理后的數據與決策信息),,無法理解 AI 做出特定決策的原因。線性回歸,、決策樹和貝葉斯網絡等傳統(tǒng)算法可被解釋,,但其精確度十分有限,而深度學習,、神經網絡等算法的精度較高,,但可解釋性差、參數規(guī)模龐大,,人類無法了解 AI 系統(tǒng)的運行路徑,、無法在必要時候獲取有關信息。這就導致人類無法完全設計,、控制敏感領域所使用的 AI,,如自主武器、自動駕駛汽車等系統(tǒng)發(fā)生事故時,,難以判斷其失誤原因,;在 AI 信貸評分系統(tǒng)拒絕某人的貸款時,無法給予明確的解釋,。
美國國防部高級研究計劃局(Defense AdvancedResearch Projects Agency,,DARPA) 自 2016 年起啟動“可解釋的人工智能”(Explainable AI,XAI)項目,,力爭解決人工智能透明度的挑戰(zhàn),,打開人工智能的“黑匣子”,。這一項目在三個方面開展工作:深度解釋、構建更多可解釋模型和模型歸納,。在這一項目下,,研究人員嘗試通過可視化等方式對現有 AI 進行解釋,并創(chuàng)建本身就可解釋的 AI 模型,,以便于幫助用戶和開發(fā)人員理解 AI 算法,,了解 AI 所作的決定,最終設法提高 AI 的可信度,。
?。ㄈ┓瞧缫曉瓌t
AI 的部署應當遵循多樣性、公平性與包容性的非歧視原則,,無論是出于道德原因還是實際需求都非常重要,。舉例來說,對大量的數據進行匯總分析,,可以利用 AI 技術幫助分析貸款申請人的信譽,,決定是否給予貸款以及額度;同時也可以對應聘者進行評估,,決定是否錄?。贿€可以預測犯罪分子再次犯罪的幾率,,等等,。然而,有些 AI 系統(tǒng)或存在歧視與偏見,。舉例而言,,許多面部識別系統(tǒng)的準確率欠佳,尤其是在識別深色皮膚面孔時,。根據美國國家標準與技術研究院(National Institute of Standardsand Technology,,NIST)發(fā)布的一份報告,2010 年至2018 年間,,算法在大型數據庫中精確識別人臉的能力提升了 25 倍,,只有 0.2% 的概率會出現無法匹配人臉的情況,,而算法在識別深色人種面孔方面的能力較差,,即使是性能最佳的人臉識別系統(tǒng),識別深色人種的錯誤率也比白種人高 5~10 倍,。
AI 產生歧視的原因來自兩個方面:一是當前 AI技術的發(fā)展水平仍然較為有限,,其模式識別的能力未能實現對特有模式(較深的膚色、多樣化的行為特征等)的有效識別,;二是部分 AI 在設計之初并未針對特殊模式(“模式”為環(huán)境和客體的統(tǒng)稱)進行設計,,如人臉識別系統(tǒng)在訓練時可能并未針對有色人種進行優(yōu)化,,亦或是其訓練數據集中并沒有足夠數量、保證質量的深色人種面部數據,。更甚者,,AI 系統(tǒng)可能在自我學習的過程中接受了存在偏見的信息,最終形成了含有偏見的處理模式,。這一擔憂并非空穴來風,,英國倫敦大都會警察局曾于 2020 年初宣布開始大規(guī)模部署面部識別系統(tǒng)以打擊犯罪,而由于這一系統(tǒng)的誤報率曾一度高達 98%,,引發(fā)了民眾的抗議,。
(四)負責任的 AI
AI 在運作過程中,,很有可能會產生錯誤決策或失誤,,從而引起人員傷害、財產損害等狀況,。如何對 AI 所擔負的責任進行明確與劃分,,一直以來是業(yè)界關注的問題。一旦發(fā)生糾紛,,責任具體是歸于設計者還是使用者,,亦或是歸咎于 AI 本身。當前,,這類討論尚無明確的結果和較為廣泛的共識,,導致目前許多因使用 AI 系統(tǒng)而產生的案件無法明確責任方。例如,,2016 年,,我國發(fā)生的一起輔助駕駛汽車撞擊致死案件至今懸而未決。一輛開啟輔助駕駛功能的小轎車在高速公路上撞擊前方的道路清掃車,,導致小轎車駕駛員當場身亡,。然而,在案件調查過程中,,汽車生產廠商始終拒絕承擔責任,,并表示無法提供充足的行駛數據以配合調查。此類案件引起了較大爭議,,也表明 AI 責任的劃分仍需要長期的研究和討論,。而面對復雜的情形,也應當遵循“一案一審”的原則,,根據實際情況,,通過審慎的調查來明確。
三,、歐美主要經濟體正探索 AI 創(chuàng)新與監(jiān)管的平衡
近年來,,歐美行政機構相繼提出多項倡議與監(jiān)管措施,,以預防倫理和數據隱私問題、規(guī)范 AI 技術的研發(fā)與部署,。一方面,,對 AI 采取必要監(jiān)管是這一行業(yè)長期健康發(fā)展的必然要求;另一方面,,歐美國家已經意識到中國人工智能技術的崛起,,為應對激烈競爭,愈發(fā)重視人工智能治理和數據可利用性,,以期更安全,、更規(guī)范地進行人工智能研發(fā),激發(fā)人工智能應用活力,,推動技術革新和行業(yè)進步,。
(一)美國的相關立法與倡議
2020 年 1 月,,美國白宮科技政策辦公室(Officeof Science and Technology Policy,,OSTP)發(fā)布美國人工智能監(jiān)管原則提案,敦促聯邦法規(guī)放寬對人工智能的限制,,以推動創(chuàng)新并避免監(jiān)管過度,。提案中主要包括初步規(guī)范私人部門人工智能技術開發(fā)和使用的 10 項監(jiān)管原則,指示各個聯邦監(jiān)管機構在考慮實施與人工智能相關的監(jiān)管行動時,,堅持“公平,、非歧視、公開,、透明,、安全和保障”等原則,并聽取公眾對擬出臺法規(guī)的反饋,。2020 年 2 月,,美國國防部(United States Department of Defense,DoD)正式采用國防創(chuàng)新委員會(Defense Innovation Board)于2019 年 10 月提出的“負責任,、公平,、可溯源、可信賴和可控”等人工智能倫理準則,。2020 年 8 月,,美國國家標準 與技術研究院(National Institute ofStandards and Technology,NIST)提出 4 項原則,,以確定人工智能所做決定的“可解釋”程度,。具體的4 項原則為:人工智能系統(tǒng)應為所有輸出提供相關證據或原因,;人工智能系統(tǒng)應向個體用戶提供有意義且易于理解的解釋,;所提供的解釋應正確反映人工智能系統(tǒng)生成輸出結果的過程,;人工智能系統(tǒng)僅在預設或系統(tǒng)對其輸出有足夠信心的情況下運行。該工作旨在通過理解人工智能的理論能力和局限性以及通過提高人工智能使用的準確性(Accuracy),、可靠性(Reliability),、安全性(Security)、魯棒性(Robustness)和可解釋性(Explainability)來建立對人工智能系統(tǒng)的信任,。
?。ǘW盟的相關立法與倡議
2020 年 2 月,歐盟委員會在布魯塞爾發(fā)布《人工智能白皮書》(White Paper on Artificial Intelligence),,旨在促進歐洲在人工智能領域的創(chuàng)新能力,,推動道德和可信賴人工智能的發(fā)展。白皮書提出一系列人工智能研發(fā)和監(jiān)管的政策措施,,并提出構建“卓越生態(tài)系統(tǒng)”和“信任生態(tài)系統(tǒng)”,。2020 年 2 月,歐盟委員會宣布將放棄為期 5 年的面部識別禁令,,并鼓勵各成員國制定自己的面部識別法規(guī),。關于面部識別技術是否壓制人權的討論迫使歐盟放棄全面施行面部識別禁令,轉而建議各成員國評估面部識別技術的影響后,,再將其推廣到公共場所,。2020 年 11月,歐盟提出《數據治理法案》(Data GovernanceAct),。該法案將促進整個歐盟以及各部門之間的數據共享,,從而在增強公民和企業(yè)對數據掌控力度和信任程度的同時,為歐盟經濟發(fā)展和社會治理提供支撐,。法案的相關條款將允許企業(yè)獲取公共和個人數據,,旨在促進歐洲企業(yè)與美國和亞洲的同行競爭。一旦獲取大量真實數據,,歐洲企業(yè)將能夠分析市場的實際需求,,從而推出更好的人工智能產品和服務,提升自身競爭力,。在該立法下,,企業(yè)和研究機構將能夠訪問通常因隱私、商業(yè)機密或知識產權而被屏蔽的數據,。同時,,歐盟數據隱私保護法規(guī)《通用數據保護條例》(GDPR)仍將適用。2020 年 12月,,歐盟基本權利機構(European Union Agency forFundamental Rights,,FRA)發(fā)布《走向正確的未來》(Getting The Future Right)報告,深入討論必須考慮的人工智能技術倫理問題。報告稱,,算法存在偏見和歧視,,這可能帶來社會問題。如果沒有適當的透明度,,這些偏見可能會對人類產生不利影響,。FRA 敦促決策者就現有規(guī)則如何適用于人工智能提供更多指導,并確保未來的人工智能法律保護人的基本權利,。
2021 年 4 月,,歐盟委員會發(fā)布《人工智能法律監(jiān)管框架》(Legal framework on AI)與《2021 年人工智能協調計劃》(Coordinated Plan on ArtificialIntelligence 2021 Review)政策提案,旨在規(guī)范 AI 技術風險并加強全歐洲對 AI 技術的利用,、投資和創(chuàng)新,。《監(jiān)管框架》按照風險級別將 AI 技術及其應用分為四類,,一是具有不可接受風險的技術,,包括鼓勵未成年人危險行為的語音系統(tǒng)、政府“社會評分系統(tǒng)”等操縱人類行為的 AI 系統(tǒng)或應用程序,,該類技術被禁止,;二是高風險技術,包括用于運輸,、教育,、輔助手術、招聘,、移民管理等事項的技術,,該類技術在進入市場前需進行風險評估、使用高質量數據集測試,、提供詳細的記錄文件等檢驗保護措施,,其中具有遠程生物特征識別的系統(tǒng)使用前需司法授權并受時間和地理位置的限制;三是聊天機器人等風險有限的系統(tǒng),,需履行透明披露義務,;四是視頻游戲等風險最小的應用程序,法規(guī)不予以干預,?!秴f調計劃》將統(tǒng)籌“數字歐洲”(Digital Europe)和“地平線歐洲”(Horizon Europe)計劃,以促使各國就促進 AI 技術使用和創(chuàng)新提出聯合行動計劃,。歐盟委員會建議由各成員國市場監(jiān)督主管機構對《監(jiān)管框架》進行監(jiān)督,,成立歐洲人工智能委員會促進其實施。
?。ㄈ┘幽么蟮南嚓P倡議
2020 年 11 月,,加拿大隱私事務專員辦公室(Officeof the Privacy Commissioner of Canada,,OPC)呼吁制定法律,使加拿大人能夠負責任地創(chuàng)新并從人工智能中受益,,同時確?;緳嗬玫阶鹬亍T撧k公室還建議對《個人信息保護和電子文檔法案》(PersonalInformation Protection and Electronic Documents Act,,PIPEDA)進行修訂,允許將受保護的個人信息用于研究目的,,以促進人工智能創(chuàng)新和社會進步,。加拿大隱私事務專員辦公室認為,盡管 AI 可能有助于應對與醫(yī)學診斷,、能源效率提升,、個性化學習以及疏導交通流量有關的緊迫挑戰(zhàn),但 AI 系統(tǒng)利用個人信息來分析和預測行為并針對個人作出自動決策可能引起嚴重后果,。因此,,需要解決有關公平、準確,、偏見和歧視的問題,,使 AI 技術以尊重隱私、平等和其他人權的方式部署,。
四,、對中國的啟示
中國是 AI 技術的后起之秀,項目轉化快,、應用場景豐富,,應用層成為 AI 發(fā)展的重要支撐。若將算力,、算法,、算據作為人工智能成功發(fā)展的三大要素,中國在算據方面有著最為突出的優(yōu)勢,。憑借著眾多的人口,、機構和復雜的應用場景,以及多年來數字經濟發(fā)展奠定的基礎,,中國有大量的數據可供支持人工智能算法與系統(tǒng)創(chuàng)新,,這也是中國 AI 技術與數字經濟長期快速發(fā)展的重要原因之一。
參考歐美在激勵創(chuàng)新和監(jiān)管方面的舉措,,我國應按照自身發(fā)展現狀和路徑,,堅持走發(fā)展和監(jiān)管并重的道路,確保 AI 行業(yè)高質量創(chuàng)新,,服務于經濟建設這一中心,。
?。ㄒ唬冀K重視數據和隱私的保護
AI 發(fā)展中,需始終堅守數據和隱私保護的底線,。隨著數字經濟不斷發(fā)展,,數據這一生產要素的產生、流動和處理將愈發(fā)活躍,,對數據保護的要求進一步提高,。而數據的海量增長,很可能顛覆傳統(tǒng)的數據保護機制,,那么必須探索新的路徑,,如大數據合法交易、探索聯邦學習機制等,,保障“數據可用不可見,,用途可控可計量”的安全使用。
?。ǘ浞种匾?AI 倫理道德規(guī)范
AI 的運用場景進一步豐富,,與百行百業(yè)交融,促進行業(yè)發(fā)展繁榮,。這一過程中,,應重視 AI 倫理道德若干準則的探討,不斷豐富,、完善其內涵,。進而,在這些準則的基礎上形成規(guī)范化的監(jiān)管和立法,,保障 AI 技術可控,、可靠。
?。ㄈ剿靼l(fā)展范式創(chuàng)新,,不斷激發(fā)行業(yè)活力
隨著時代發(fā)展不斷向前,技術的進步也將帶來發(fā)展范式的變化,。企業(yè)和組織的運作模式很可能因為 AI 技術的出現而發(fā)生顛覆性的改變,,數字技術與實體經濟深度融合,生產效率,、服務效能將得到極大地提高,,帶來社會生產力的大跨度發(fā)展。這也意味著 AI 及相關行業(yè)的競爭將愈發(fā)激烈,,唯有政策激勵,、持續(xù)投入、堅持創(chuàng)新,,才能在國際競爭中引領重要發(fā)展方向,。