《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 業(yè)界動態(tài) > 用聲音獲得信任,,黑客利用擬真語音機器人詐騙,,竊取用戶更多信息

用聲音獲得信任,,黑客利用擬真語音機器人詐騙,,竊取用戶更多信息

2021-11-09
來源:安全圈
關(guān)鍵詞: 聲音 黑客 機器人

  關(guān)鍵詞 黑客

  用聲音獲取使用者信任,,黑客開始利用擬真語音機器人詐騙,,借此獲取用戶更多信息

  雖然目前許多安全廠商開始提倡通過兩步驟驗證方式強化個人網(wǎng)絡(luò)賬號安全,,但隨著人工智能技術(shù)持續(xù)提升,,不少黑客也開始利用擬真的語音機器人偽裝網(wǎng)絡(luò)客服,,借助與真人相仿聲音獲取使用者信任,進而從中獲取用戶登入密碼,、一次性認證碼,,或是兩步驟驗證比對數(shù)據(jù),借此取得更多用戶網(wǎng)絡(luò)帳戶信息,。

  按照Motherboard網(wǎng)站報道指稱,,目前已經(jīng)有黑客開始通過擬真的語音機器人偽裝成網(wǎng)絡(luò)客服,其中包含通過警告使用者賬號被盜刷,,因此需要重新進行身分驗證,,同時在通過與真人相仿的語音互動過程,,借助騙取使用者自行輸入的認證密碼、一次性認證碼,,或是兩步驟驗

  證比對數(shù)據(jù)等,,從而取得使用者賬號取用權(quán),進而竊取與賬號關(guān)聯(lián)的銀行數(shù)據(jù),,或是PayPal等金融服務(wù)賬號,。

  而目前此類攻擊主要仿真一般網(wǎng)絡(luò)服務(wù)的自動化在線客服系統(tǒng),亦即常見的語音機器人,,但在越來越多類似Google Duplex,,或是LINE AiCall等通過人工智能模仿真人互動的語音技術(shù)問世后,意味未來將會有更多運用此類技術(shù)進行網(wǎng)絡(luò)詐騙的攻擊出現(xiàn),。

  因此,,除了目前提倡的兩步驟驗證方式,越來越多安全防護廠商呼吁用戶通過高強度密碼保護個人賬號,,甚至通過兩步驟以上驗證方式確保賬號使用安全,。而更多平臺廠商則是提倡無密碼形式認證,亦即通過代表個人的設(shè)備進行認證,,例如通過手機號碼與簡單互動完成在線認證,,使用者在操作過程中無須輸入任何密碼,而是通過平臺服務(wù)比對帳戶信息是否正確,,但缺點就是使用設(shè)備不能損壞或遺失,。

  但無論是哪一種安全防護信息,都還是有可能會被黑客破解,,并且轉(zhuǎn)向用于欺騙更多使用者,,因此最好作法還是提高個人警戒心態(tài),碰上異常要求輸入個人賬號密碼,,或是一次性認證碼及兩步驟驗證比對數(shù)據(jù)等情況,,最好多加確認,,避免直接將此類信息直接對外提供,。




電子技術(shù)圖片.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]