《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 業(yè)界動態(tài) > 人工智能有負(fù)能量,,難以根治的的算法歧視

人工智能有負(fù)能量,,難以根治的的算法歧視

2018-01-03
關(guān)鍵詞: 黑客 機(jī)器學(xué)習(xí) AI

  我們在一片對18歲照片的花樣贊美中,,迎來了又一個(gè)新年,。

  按說新年應(yīng)該是開心的時(shí)候,,但是剛剛跨年結(jié)束,,抬頭一看居然要上班了…不由得悲從心來…所以今天我們打算說點(diǎn)不那么開心的事,。

  最近幾天,,各種對2018年的科技預(yù)測層出不窮,,其中對AI的暢想占了大頭,內(nèi)容差不多是一片喜慶祥和,。

  但事有兩來,,當(dāng)我們開始從AI中收獲價(jià)值的時(shí)候,技術(shù)升級后帶來的潛在風(fēng)險(xiǎn)也在升溫。這就像汽車當(dāng)然好過牛車,,但汽車也會帶來各種各樣的交通事故,。我們當(dāng)然不能因此禁止汽車上路,但是也不能對交通問題視而不見,。

  今天我們來預(yù)測幾個(gè),,很可能在2018年進(jìn)入我們眼簾的“人工智能負(fù)能量”。

  畢竟做好準(zhǔn)備,,是解決問題的前提條件,。

  一、人工智能倫理問題開始出現(xiàn)個(gè)案

  2017年1月,,在加利福尼亞州阿西洛馬舉行的Beneficial Al會議上,,近千名人工智能相關(guān)領(lǐng)域的專家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》,。

  隨后,,各種關(guān)于人工智能倫理道德的討論、會議,,以及相關(guān)協(xié)會和科技組織開始出現(xiàn)在公眾視野里,。

  《23條原則》的主要內(nèi)容,就是呼吁人工智能不能損害人類的利益和安全,,同時(shí)人工智能必須可以被人類控制,,同時(shí)人類要盡量尊重人工智能和機(jī)器人的安全。

  聽起來頗有點(diǎn)科幻的味道,,但是在各行各業(yè)開始部署AI,,尤其開始利用AI進(jìn)行自動化決策的時(shí)候,人工智能的倫理與道德問題或許真的會浮出水面,。

  比如說,,自動駕駛車輛在馬上要發(fā)生事故時(shí),是優(yōu)先保護(hù)路人還是乘客,?假如AI診斷系統(tǒng),,給出的建議是安樂死,那么它算是殺人嗎,?為了避免更大損失,,AI系統(tǒng)是否能打破規(guī)則,自行其是,?

  這其中最著名的,,大概就是去年谷歌批評上海交大某團(tuán)隊(duì)進(jìn)行的“看臉定罪犯”研究。引發(fā)了媒體對于AI價(jià)值觀的大量討論,。

  在各個(gè)產(chǎn)業(yè)場景開始使用AI技術(shù)時(shí),,隨之而來的邊界問題、責(zé)權(quán)問題、道德選擇問題這些在實(shí)驗(yàn)室中不會出現(xiàn)的矛盾將很可能被引發(fā),。

  人類還從未真正討論過這些,。假如2018年人工智能的落地化足夠快,倫理問題的苗頭或許會臨近,。

  二,、難以根治的的算法歧視

  記得2016年,微軟推出過聊天機(jī)器人Tay,,卻因?yàn)橛脩艚探o它大量種族歧視和臟話,,一天內(nèi)就被暫時(shí)下線。這引出了一個(gè)極具爭議的話題:機(jī)器學(xué)習(xí)會吸收人類的知識和信息來塑造自己,,那么假如它吸收的信息含有大量“不那么純良”的東西呢,?

  2017年,算法歧視問題非但沒有被解決,,各種各樣新的問題還應(yīng)運(yùn)而生,。比如谷歌大腦會給女性圖片打上很多關(guān)于家庭、弱勢的標(biāo)簽,,顯然有悖于女權(quán)主義精神,;而把黑人識別為大猩猩,則點(diǎn)燃了AI種族歧視的話題關(guān)注度,。

  所謂的算法歧視,,對于普通消費(fèi)者來說,最有可能在內(nèi)容推薦和電商推薦兩個(gè)地方感覺到,。比如說消費(fèi)者剛看過寬大的衣服,,電商就推薦減肥藥,很可能讓消費(fèi)者聯(lián)想到算法在歧視自己胖,;再比如打開今日頭條這類軟件的時(shí)候,,大家可能都出現(xiàn)過這種情況:偶爾點(diǎn)了一個(gè)推薦來的獵奇或者偽色情內(nèi)容,然后再一刷新,。好嘛,,蜂擁而至的類似內(nèi)容啊,你本來想看的興趣內(nèi)容和專業(yè)內(nèi)容瞬時(shí)間化為烏有,。甚至你怎么點(diǎn)我不關(guān)心不喜歡,,平臺還是給你推薦。這就是因?yàn)樗惴ǖ臍w類方式給你貼上了標(biāo)簽,。這種歧視感也蠻嚴(yán)重的,,好像背后有個(gè)人奸笑著對你說:“承認(rèn)吧,,你就是這么低俗…”

  這類問題的根源,,是機(jī)器學(xué)習(xí)技術(shù)進(jìn)行個(gè)性推薦,今天還必須建立在兩個(gè)邏輯的基礎(chǔ)上:以過去算將來,以群體算個(gè)體,。算法會吸收以前有過的經(jīng)驗(yàn)來給你特定的某些東西,,但很有可能歧視信息就包含在機(jī)器吸收的經(jīng)驗(yàn)里。

  在個(gè)性推薦系統(tǒng)越來越多場景應(yīng)用可能的今天,,我們恐怕短期內(nèi)還難以根治算法的歧視,。

  三、私人數(shù)據(jù)與機(jī)器學(xué)習(xí)的矛盾日益凸顯

  人工智能和個(gè)人隱私,,似乎從來都是一對天敵,。

  因?yàn)槿斯ぶ悄芗夹g(shù)假如想要提供個(gè)性化、完全符合個(gè)人習(xí)慣的服務(wù),,那么就必然要學(xué)習(xí)和理解用戶本身,。而這其中,就涉及對用戶私人數(shù)據(jù)的學(xué)習(xí),。

  但出于隱私的考慮,,以及對網(wǎng)絡(luò)安全的不信任,大部分用戶顯然是不希望透露自己數(shù)據(jù)給機(jī)器的,。

  從而“雞生蛋蛋生雞”的矛盾就產(chǎn)生了,。

  近兩年,用AI來讀取用戶個(gè)人數(shù)據(jù)這件事一直處在被壓抑和不能提的狀態(tài),。更早一點(diǎn)的時(shí)候,,蘋果和谷歌等大公司都推出過讓AI讀懂用戶的產(chǎn)品,但很快就被輿論抨擊給關(guān)停了,。即使這樣,,谷歌去年推出的家用AI相機(jī)還是飽受詬病。

  在2017年后半段,,我們看到了AI芯片拉開了風(fēng)云際會的爭奪序幕,。但是搭載AI芯片的硬件一定要有的放矢,有任務(wù)可以完成,。于是讓硬件讀懂用戶,、讓系統(tǒng)根據(jù)用戶數(shù)據(jù)提供千人千面的服務(wù),勢必會重新回到公共視野里,。

  其實(shí)從大趨勢上看,,把個(gè)人數(shù)據(jù)交給機(jī)器似乎是人類不可避免的歸宿。無論是醫(yī)療健康,、金融服務(wù)還是社會安全,,機(jī)器肯定都比人類更靠譜。只是這其中經(jīng)歷的不適感和安全風(fēng)險(xiǎn)是巨大的,。

  在2018年,,無論是手機(jī),、音箱、穿戴設(shè)備,、VR,,在啟用了機(jī)器學(xué)習(xí)能力后,似乎都要重新沾惹隱私數(shù)據(jù)這條紅線,。

  究竟怎么處理這個(gè)矛盾,,也是挺讓人頭疼的。

  四,、真假越來越難分

  就目前來看,,希望AI能像人一樣對話和理解,顯然還是為時(shí)過早的一件事,。但是讓AI來造假,,似乎已經(jīng)問題不大了。

  此前我們討論過視頻和直播換臉的可能,,其實(shí)從整個(gè)技術(shù)進(jìn)度來看,,基于GAN的仿真和替換技術(shù)正在整體成熟。無論是模擬替換音頻還是視頻文件,,AI都已經(jīng)能夠得心應(yīng)手的處理,。

  但這肯定不會是什么好事。在著名的Face2Face軟件推出的時(shí)候,,國外網(wǎng)友就驚呼,,假如跟我視頻聊天的人被替換了怎么辦?

  而在開發(fā)框架和數(shù)據(jù)資源越來越豐富,、算法越來越強(qiáng)勁的今天,,大概我們可以很肯定的說:2018年用AI來偽造視頻音頻將更加天衣無縫。

  這是AI對未來技術(shù)的探索,,卻很可能引發(fā)社交媒體和網(wǎng)絡(luò)傳播的動蕩:當(dāng)我們看到的視頻都可以完全造假的時(shí)候,,這個(gè)世界還有什么可以相信呢?

  假作真時(shí)真亦假,,只能期望反AI造假的AI系統(tǒng)也盡快出現(xiàn)吧,。

  五、黑客攻擊有更多花樣

  2017年年末,,谷歌TensorFlow被驚人的爆出框架漏洞,,雖然是被白帽子找到,沒有造成危險(xiǎn),,但這還是點(diǎn)醒了我們一點(diǎn):AI并不安全,。

  至此,我們已經(jīng)見識過了各種黑客攻擊和AI技術(shù)結(jié)合的可能性:用AI來偽造文件信息實(shí)施攻擊和詐騙,;利用AI技術(shù)來提升黑客攻擊效率,;以AI系統(tǒng)為目標(biāo)的攻擊,。隨著AI和物聯(lián)網(wǎng)體系的結(jié)合,未來物聯(lián)網(wǎng)攻擊中很可能也會加入AI的身影,。

  AI技術(shù)的成熟,讓網(wǎng)絡(luò)黑客們找到了更多的目標(biāo),、更多的工具以及更多的技巧,。雖然AI同樣給我們提供了各種保護(hù)互聯(lián)網(wǎng)安全的方式。但無論如何,,AI帶給了黑客更多可能性是毫無疑問的,。

  2017年的網(wǎng)絡(luò)安全世界并不平穩(wěn),各種各樣的病毒和黑客肆虐不絕于耳,。進(jìn)入2018,,我們很可能會在這個(gè)戰(zhàn)場看到更激烈的搏殺。

  結(jié)束語

  就像任何一種技術(shù)革新一樣,,AI也同樣在帶來價(jià)值的同時(shí)創(chuàng)造了危險(xiǎn),。而且憑借著識別和學(xué)習(xí)能力的特征,AI帶來的負(fù)面影響說不定會比過往更大,。

  但是無論如何,,技術(shù)就是這么一步步推進(jìn)的。更好的風(fēng)景總是伴隨著更難走的路途,。認(rèn)識風(fēng)險(xiǎn),,并探索解決方案,或許才是人類與AI相處時(shí)更舒服的方式,。

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時(shí)通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]