Gartner發(fā)布了一系列《Predicts 2021》研究報(bào)告,,其中一份報(bào)告概述了人工智能(AI)將在未來(lái)幾年引發(fā)的重大影響,,包括廣泛的道德和社會(huì)問(wèn)題。
Gartner的五位分析師在《2021年預(yù)測(cè):人工智能對(duì)人類和社會(huì)的影響》的報(bào)告中預(yù)測(cè)了2025年將會(huì)產(chǎn)生的變化,,該報(bào)告特別關(guān)注了所謂的人工智能的二級(jí)后果,,這種后果是非預(yù)期的新技術(shù)的成果,。
例如,生成式AI現(xiàn)在可以創(chuàng)建出實(shí)際上并不存在的人物和物體的非常逼真的照片,。
Gartner:Deepfake和生成式AI讓我們進(jìn)入零信任世界
Gartner預(yù)測(cè),,到2023年,將有20%的賬戶被這種由AI產(chǎn)生的Deepfake接管,。報(bào)告指出:“可以創(chuàng)建和生成超逼真的內(nèi)容的AI能力,,將對(duì)人們相信自己的眼睛所看到的產(chǎn)生變革性的影響?!?/p>
該報(bào)告從AI市場(chǎng)的5個(gè)角度進(jìn)行了預(yù)測(cè),,并就企業(yè)如何應(yīng)對(duì)和適應(yīng)這些未來(lái)的挑戰(zhàn)提出了建議:
到2025年,預(yù)先訓(xùn)練的AI模型將主要集中在1%的供應(yīng)商中,,這將使AI的負(fù)責(zé)任地使用成為社會(huì)關(guān)注的問(wèn)題
在2023年,,成功的賬戶接管攻擊將有20%使用Deepfake,它將會(huì)成為社會(huì)工程學(xué)攻擊的一部分
到2024年,,將有60%的AI提供商會(huì)將緩解危害/濫用行為作為其軟件的一部分
到2025年,,將有10%的政府通過(guò)使用合成AI來(lái)避免隱私和安全問(wèn)題
到2025年,工作場(chǎng)所75%的對(duì)話將被記錄和分析,,以用于增加組織價(jià)值和評(píng)估風(fēng)險(xiǎn)
這些分析中的每一個(gè)都足以使AI觀察者引起足夠的關(guān)注,,如果將這些預(yù)測(cè)結(jié)合起來(lái)時(shí),就可以勾勒出未來(lái)的嚴(yán)峻形勢(shì),,其中涉及道德問(wèn)題,,潛在的AI濫用以及工作場(chǎng)所隱私的喪失,。
如何應(yīng)對(duì)
如果Gartner的分析師的預(yù)測(cè)準(zhǔn)確無(wú)誤,那么關(guān)于AI帶來(lái)的隱私和真相的影響的擔(dān)憂必將成為未來(lái)幾年的主要話題,,成功的企業(yè)將需要準(zhǔn)備迅速適應(yīng)這些擔(dān)憂,。
該報(bào)告中的一個(gè)重要的主題是,在依賴AI的公司(無(wú)論是服務(wù)還是產(chǎn)品)中建立道德委員會(huì),。Gartner說(shuō),,對(duì)于計(jì)劃記錄和分析工作場(chǎng)所對(duì)話的企業(yè),尤其要注意這一點(diǎn),,應(yīng)建立具有員工代表的董事會(huì),,以確保公平使用對(duì)話數(shù)據(jù)。
Gartner還建議企業(yè)建立負(fù)責(zé)任的AI使用標(biāo)準(zhǔn),,并優(yōu)先考慮“可以證明AI能夠清晰發(fā)展和解決相關(guān)社會(huì)問(wèn)題”的供應(yīng)商,。
至于圍繞Deepfake和生成式AI的安全問(wèn)題,Gartner建議組織安排有關(guān)Deepfake的培訓(xùn),。報(bào)告說(shuō):“我們現(xiàn)在正在進(jìn)入零信任的世界,。除非使用加密的數(shù)字簽名證明它是經(jīng)過(guò)認(rèn)證的,否則任何事物都不能被信任,。”
該報(bào)告有很多內(nèi)容值得關(guān)注,,有數(shù)據(jù)說(shuō),,最好的Deepfake檢測(cè)軟件從長(zhǎng)期來(lái)看將以50%的識(shí)別率達(dá)到頂峰。還預(yù)測(cè)到2023年,,一家大型美國(guó)公司將采用對(duì)話分析來(lái)確定員工薪酬,。這些分析中有很多需要擔(dān)心的地方,也包括潛在的解決方案,。