《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 模擬設(shè)計(jì) > 業(yè)界動(dòng)態(tài) > GMIC大會(huì):霍金表示對(duì)人工智能發(fā)展的擔(dān)憂

GMIC大會(huì):霍金表示對(duì)人工智能發(fā)展的擔(dān)憂

2017-05-03
關(guān)鍵詞: 人工智能 GMIC

  一年一度的GMIC大會(huì)今日在北京國(guó)家會(huì)議中心舉行。在上午的領(lǐng)袖峰會(huì)上,世界著名物理學(xué)家斯蒂芬·威廉·霍金做了演講并回答了一些關(guān)于人工智能的問題,。

  雖然霍金的演講的題目為《讓人工智能造福人類及其賴以生存的家園》,但是霍金一再表示了其對(duì)人工智能發(fā)展的擔(dān)憂,。

  霍金稱,我目前見證的最深刻的社會(huì)變化是人工智能的崛起,?;艚鹫J(rèn)為,人工智能的崛起要么成為人類歷史上最好的事,,要么成為最糟糕的事情,。所以,霍金呼吁人類研究人工智能一定要規(guī)避風(fēng)險(xiǎn),,并警告人類意志轉(zhuǎn)變的人工智能可能會(huì)毀滅人類,。

  為了支持這一論點(diǎn),霍金解釋到,,文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,,從國(guó)際象棋和圍棋人機(jī)大戰(zhàn)的結(jié)果來看,,霍金認(rèn)為生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒有本質(zhì)區(qū)別,。因此,,它遵循了“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”這一原則,。人工智能一旦脫離束縛,,以不斷加速的狀態(tài)重新設(shè)計(jì)自身,。人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,,無法與之競(jìng)爭(zhēng),將被取代,。

  霍金呼吁,,研究人員必須能夠創(chuàng)造出可控的人工智能。在具體的問題上,,霍金稱自己短期的擔(dān)憂在無人駕駛方面,,從民用無人機(jī)到自主駕駛汽車。比如說,,在緊急情況下,,一輛無人駕駛汽車不得不在小風(fēng)險(xiǎn)的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔(dān)憂在致命性智能自主武器,。他們是否該被禁止,?如果是,那么“自主”該如何精確定義,。如果不是,,任何使用不當(dāng)和故障的過失應(yīng)該如何問責(zé)。還有另外一些擔(dān)憂,,由人工智能逐漸可以解讀大量監(jiān)控?cái)?shù)據(jù)引起的隱私和擔(dān)憂,,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟(jì)影響。而長(zhǎng)期擔(dān)憂主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),,隨著不遵循人類意愿行事的超級(jí)智能的崛起,,那個(gè)強(qiáng)大的系統(tǒng)威脅到人類。

  “人工智能的成功有可能是人類文明史上最大的事件,,但是人工智能也有可能是人類文明史的終結(jié),。”霍金總結(jié)道,。

  以下為霍金在GMIC2017上的演講實(shí)錄:

  在我的一生中,,我見證了社會(huì)深刻的變化。其中最深刻的,,同時(shí)也是對(duì)人類影響與日俱增的變化,,是人工智能的崛起,。簡(jiǎn)單來說,我認(rèn)為強(qiáng)大的人工智能的崛起,,要么是人類歷史上最好的事,,要么是最糟的。我不得不說,,是好是壞我們?nèi)圆淮_定,。但我們應(yīng)該竭盡所能,確保其未來發(fā)展對(duì)我們和我們的環(huán)境有利,。我們別無選擇,。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢(shì),,而這些問題必須在現(xiàn)在和將來得到解決,。

  人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會(huì)效益上面,。基于這樣的考慮,,美國(guó)人工智能協(xié)會(huì)(AAAI)于2008至2009年,,成立了人工智能長(zhǎng)期未來總籌論壇,他們近期在目的導(dǎo)向的中性技術(shù)上投入了大量的關(guān)注,。但我們的人工智能系統(tǒng)須要按照我們的意志工作,。跨學(xué)科研究是一種可能的前進(jìn)道路:從經(jīng)濟(jì),、法律,、哲學(xué)延伸至計(jì)算機(jī)安全、形式化方法,,當(dāng)然還有人工智能本身的各個(gè)分支,。

  文明所產(chǎn)生的一切都是人類智能的產(chǎn)物,我相信生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,,沒有本質(zhì)區(qū)別,。因此,它遵循了“計(jì)算機(jī)在理論上可以模仿人類智能,,然后超越”這一原則,。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,,還是被藐視并被邊緣化,,或者很可能被它毀滅。的確,我們擔(dān)心聰明的機(jī)器將能夠代替人類正在從事的工作,,并迅速地消滅數(shù)以百萬計(jì)的工作崗位,。

  在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時(shí),,我也在擔(dān)憂創(chuàng)造一個(gè)可以等同或超越人類的事物所導(dǎo)致的結(jié)果:人工智能一旦脫離束縛,,以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,,無法與之競(jìng)爭(zhēng),,將被取代。這將給我們的經(jīng)濟(jì)帶來極大的破壞,。未來,,人工智能可以發(fā)展出自我意志,一個(gè)與我們沖突的意志,。盡管我對(duì)人類一貫持有樂觀的態(tài)度,,但其他人認(rèn)為,人類可以在相當(dāng)長(zhǎng)的時(shí)間里控制技術(shù)的發(fā)展,,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定,。

  2015年1月份,,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關(guān)于人工智能的公開信,,目的是提倡就人工智能對(duì)社會(huì)所造成的影響做認(rèn)真的調(diào)研,。在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,,但是如果部署不當(dāng),,則可能給人類帶來相反的效果。我和他同在“生命未來研究所”的科學(xué)顧問委員會(huì),,這是一個(gè)為了緩解人類所面臨的存在風(fēng)險(xiǎn)的組織,,而且之前提到的公開信也是由這個(gè)組織起草的。這個(gè)公開信號(hào)召展開可以阻止?jié)撛趩栴}的直接研究,,同時(shí)也收獲人工智能帶給我們的潛在利益,,同時(shí)致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。此外,,對(duì)于決策者和普通大眾來說,,這封公開信內(nèi)容翔實(shí),并非危言聳聽,。人人都知道人工智能研究人員們?cè)谡J(rèn)真思索這些擔(dān)心和倫理問題,,我們認(rèn)為這一點(diǎn)非常重要。比如,人工智能是有根除疾患和貧困的潛力的,,但是研究人員必須能夠創(chuàng)造出可控的人工智能,。那封只有四段文字,題目為《應(yīng)優(yōu)先研究強(qiáng)大而有益的人工智能》的公開信,,在其附帶的十二頁文件中對(duì)研究的優(yōu)先次序作了詳細(xì)的安排,。

  在過去的20年里,人工智能一直專注于圍繞建設(shè)智能代理所產(chǎn)生的問題,,也就是在特定環(huán)境下可以感知并行動(dòng)的各種系統(tǒng),。在這種情況下,智能是一個(gè)與統(tǒng)計(jì)學(xué)和經(jīng)濟(jì)學(xué)相關(guān)的理性概念,。通俗地講,,這是一種做出好的決定、計(jì)劃和推論的能力,?;谶@些工作,大量的整合和交叉孕育被應(yīng)用在人工智能,、機(jī)器學(xué)習(xí),、統(tǒng)計(jì)學(xué)、控制論,、神經(jīng)科學(xué),、以及其它領(lǐng)域。共享理論框架的建立,,結(jié)合數(shù)據(jù)的供應(yīng)和處理能力,,在各種細(xì)分的領(lǐng)域取得了顯著的成功。例如語音識(shí)別,、圖像分類,、自動(dòng)駕駛、機(jī)器翻譯,、步態(tài)運(yùn)動(dòng)和問答系統(tǒng),。

  隨著這些領(lǐng)域的發(fā)展,從實(shí)驗(yàn)室研究到有經(jīng)濟(jì)價(jià)值的技術(shù)形成良性循環(huán),。哪怕很小的性能改進(jìn),,都會(huì)帶來巨大的經(jīng)濟(jì)效益,進(jìn)而鼓勵(lì)更長(zhǎng)期,、更偉大的投入和研究,。目前人們廣泛認(rèn)同,人工智能的研究正在穩(wěn)步發(fā)展,,而它對(duì)社會(huì)的影響很可能擴(kuò)大,,潛在的好處是巨大的,,既然文明所產(chǎn)生的一切,都是人類智能的產(chǎn)物;我們無法預(yù)測(cè)我們可能取得什么成果,,當(dāng)這種智能是被人工智能工具放大過的,。但是,正如我說過的,,根除疾病和貧窮并不是完全不可能,,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風(fēng)險(xiǎn)是非常重要的,。

  現(xiàn)在,,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長(zhǎng)期來討論,。一些短期的擔(dān)憂在無人駕駛方面,,從民用無人機(jī)到自主駕駛汽車。比如說,,在緊急情況下,,一輛無人駕駛汽車不得不在小風(fēng)險(xiǎn)的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔(dān)憂在致命性智能自主武器,。他們是否該被禁止,?如果是,那么“自主”該如何精確定義,。如果不是,,任何使用不當(dāng)和故障的過失應(yīng)該如何問責(zé)。還有另外一些擔(dān)憂,,由人工智能逐漸可以解讀大量監(jiān)控?cái)?shù)據(jù)引起的隱私和擔(dān)憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟(jì)影響,。

  長(zhǎng)期擔(dān)憂主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),,隨著不遵循人類意愿行事的超級(jí)智能的崛起,那個(gè)強(qiáng)大的系統(tǒng)威脅到人類,。這樣錯(cuò)位的結(jié)果是否有可能,?如果是,這些情況是如何出現(xiàn)的,?我們應(yīng)該投入什么樣的研究,,以便更好的理解和解決危險(xiǎn)的超級(jí)智能崛起的可能性,或智能爆發(fā)的出現(xiàn),?

  當(dāng)前控制人工智能技術(shù)的工具,,例如強(qiáng)化學(xué)習(xí),簡(jiǎn)單實(shí)用的功能,,還不足以解決這個(gè)問題,。因此,我們需要進(jìn)一步研究來找到和確認(rèn)一個(gè)可靠的解決辦法來掌控這一問題。

  近來的里程碑,,比如說之前提到的自主駕駛汽車,,以及人工智能贏得圍棋比賽,都是未來趨勢(shì)的跡象,。巨大的投入傾注到這項(xiàng)科技,。我們目前所取得的成就,和未來幾十年后可能取得的成就相比,,必然相形見絀,。而且我們遠(yuǎn)不能預(yù)測(cè)我們能取得什么成就,當(dāng)我們的頭腦被人工智能放大以后,。也許在這種新技術(shù)革命的輔助下,,我們可以解決一些工業(yè)化對(duì)自然界造成的損害。關(guān)乎到我們生活的各個(gè)方面都即將被改變,。簡(jiǎn)而言之,,人工智能的成功有可能是人類文明史上最大的事件。

  但是人工智能也有可能是人類文明史的終結(jié),,除非我們學(xué)會(huì)如何避免危險(xiǎn),。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,,比如最大化使用智能性自主武器,。今年早些時(shí)候,我和一些來自世界各國(guó)的科學(xué)家共同在聯(lián)合國(guó)會(huì)議上支持其對(duì)于核武器的禁令,。我們正在焦急的等待協(xié)商結(jié)果,。目前,九個(gè)核大國(guó)可以控制大約一萬四千個(gè)核武器,,它們中的任何一個(gè)都可以將城市夷為平地,,放射性廢物會(huì)大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天

  ,,火和煙霧會(huì)導(dǎo)致全球的小冰河期,。這一結(jié)果使全球糧食體系崩塌,末日般動(dòng)蕩,,很可能導(dǎo)致大部分人死亡,。我們作為科學(xué)家,對(duì)核武器承擔(dān)著特殊的責(zé)任,,因?yàn)檎强茖W(xué)家發(fā)明了它們,,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。

  現(xiàn)階段,,我對(duì)災(zāi)難的探討可能驚嚇到了在座的各位,。很抱歉,。但是作為今天的與會(huì)者,重要的是,,你們要認(rèn)清自己在影響當(dāng)前技術(shù)的未來研發(fā)中的位置,。我相信我們團(tuán)結(jié)在一起,來呼吁國(guó)際條約的支持或者簽署呈交給各國(guó)政府的公開信,,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起,。

  一個(gè)新的機(jī)構(gòu),試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題,?!袄バ菽分悄芪磥碇行摹笔且粋€(gè)跨學(xué)科研究所,致力于研究智能的未來,,這對(duì)我們文明和物種的未來至關(guān)重要,。我們花費(fèi)大量時(shí)間學(xué)習(xí)歷史,深入去看——大多數(shù)是關(guān)于愚蠢的歷史,。所以人們轉(zhuǎn)而研究智能的未來是令人欣喜的變化,。雖然我們對(duì)潛在危險(xiǎn)有所意識(shí),但我內(nèi)心仍秉持樂觀態(tài)度,,我相信創(chuàng)造智能的潛在收益是巨大的,。也許借助這項(xiàng)新技術(shù)革命的工具,我們將可以削減工業(yè)化對(duì)自然界造成的傷害,。

  我們生活的每一個(gè)方面都會(huì)被改變,。我在研究所的同事休·普林斯承認(rèn),“利弗休姆中心”能建立,,部分是因?yàn)榇髮W(xué)成立了“存在風(fēng)險(xiǎn)中心”,。后者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點(diǎn)研究范圍則相對(duì)狹窄,。

  人工智能的最新進(jìn)展,,包括歐洲議會(huì)呼吁起草一系列法規(guī),以管理機(jī)器人和人工智能的創(chuàng)新,。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,,以確保最有能力和最先進(jìn)的人工智能的權(quán)利和責(zé)任,。歐洲議會(huì)發(fā)言人評(píng)論說,隨著日常生活中越來越多的領(lǐng)域日益受到機(jī)器人的影響,,我們需要確保機(jī)器人無論現(xiàn)在還是將來,,都為人類而服務(wù)。向歐洲議會(huì)議員提交的報(bào)告,,明確認(rèn)為世界正處于新的工業(yè)機(jī)器人革命的前沿,。報(bào)告中分析的是否給機(jī)器人提供作為電子人的權(quán)利,,這等同于法人(的身份),也許有可能,。報(bào)告強(qiáng)調(diào),,在任何時(shí)候,研究和設(shè)計(jì)人員都應(yīng)確保每一個(gè)機(jī)器人設(shè)計(jì)都包含有終止開關(guān),。在庫布里克的電影《2001太空漫游》中,,出故障的超級(jí)電腦哈爾沒有讓科學(xué)家們進(jìn)入太空艙,但那是科幻,。我們要面對(duì)的則是事實(shí),。奧斯本·克拉克跨國(guó)律師事務(wù)所的合伙人,洛納·布拉澤爾在報(bào)告中說,,我們不承認(rèn)鯨魚和大猩猩有人格,,所以也沒有必要急于接受一個(gè)機(jī)器人人格。但是擔(dān)憂一直存在,。報(bào)告承認(rèn)在幾十年的時(shí)間內(nèi),,人工智能可能會(huì)超越人類智力范圍,人工智能可能會(huì)超越人類智力范圍,,進(jìn)而挑戰(zhàn)人機(jī)關(guān)系,。報(bào)告最后呼吁成立歐洲機(jī)器人和人工智能機(jī)構(gòu),以提供技術(shù),、倫理和監(jiān)管方面的專業(yè)知識(shí),。如果歐洲議會(huì)議員投票贊成立法,該報(bào)告將提交給歐盟委員會(huì),。它將在三個(gè)月的時(shí)間內(nèi)決定要采取哪些立法步驟,。

  我們還應(yīng)該扮演一個(gè)角色,確保下一代不僅僅有機(jī)會(huì)還要有決心,,在早期階段充分參與科學(xué)研究,,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個(gè)更加美好的的世界,。這就是我剛談到學(xué)習(xí)和教育的重要性時(shí),,所要表達(dá)的意思。我們需要跳出“事情應(yīng)該如何”這樣的理論探討,,并且采取行動(dòng),,以確保他們有機(jī)會(huì)參與進(jìn)來。我們站在一個(gè)美麗新世界的入口,。這是一個(gè)令人興奮的,、同時(shí)充滿了不確定性的世界,而你們是先行者,。我祝福你們,。

  謝謝,!

  以下為中國(guó)科技大咖、科學(xué)家,、投資家和網(wǎng)友與霍金問答實(shí)錄:

  創(chuàng)新工場(chǎng)的CEO李開復(fù)(問):互聯(lián)網(wǎng)巨頭擁有巨量的數(shù)據(jù),,而這些數(shù)據(jù)會(huì)給他們各種以用戶隱私和利益換取暴利的機(jī)會(huì)。在巨大的利益誘惑下,,他們是無法自律的,。而且,這種行為也會(huì)導(dǎo)致小公司和創(chuàng)業(yè)者更難創(chuàng)新,。您常談到如何約束人工智能,,但更難的是如何約束人本身。您認(rèn)為我們應(yīng)該如何約束這些巨頭,?

  霍金:據(jù)我了解,,許多公司僅將這些數(shù)據(jù)用于統(tǒng)計(jì)分析,但任何涉及到私人信息的使用都應(yīng)該被禁止,。會(huì)有助于隱私保護(hù)的是,,如果互聯(lián)網(wǎng)上所有的信息,均通過基于量子技術(shù)加密,,這樣互聯(lián)網(wǎng)公司在一定時(shí)間內(nèi)便無法破解,。但安全服務(wù)會(huì)反對(duì)這個(gè)做法。

  第二個(gè)問題來自于獵豹移動(dòng)CEO傅盛(問):靈魂會(huì)不會(huì)是量子的一種存在形態(tài),?或者是高維空間里的另一個(gè)表現(xiàn),?

  霍金:我認(rèn)為近來人工智能的發(fā)展,比如電腦在國(guó)際象棋和圍棋的比賽中戰(zhàn)勝人腦,,都顯示出人腦和電腦并沒有本質(zhì)差別,。這點(diǎn)上我和我的同事羅杰·彭羅斯正好相反。會(huì)有人認(rèn)為電腦有靈魂嗎,?對(duì)我而言,,靈魂這個(gè)說法是一個(gè)基督教的概念,它和來世聯(lián)系在一起,。我認(rèn)為這是一個(gè)童話故事,。

  第三個(gè)問題來自于百度總裁張亞勤(問):人類觀察和抽象世界的方式不斷演進(jìn),從早期的觀察和估算,,到牛頓定律和愛因斯坦方程式,,到今天數(shù)據(jù)驅(qū)動(dòng)的計(jì)算和人工智能,下一個(gè)是什么,?

  霍金:我們需要一個(gè)新的量子理論,將重力和其他自然界的其它力量整合在一起,。許多人聲稱這是弦理論,,但我對(duì)此表示懷疑,,目前唯一的推測(cè)是,時(shí)空有十個(gè)維度,。

  第四個(gè)問題來自于斯坦福大學(xué)物理學(xué)教授張首晟(問):如果讓你告訴外星人我們?nèi)祟惾〉玫淖罡叱删?,寫在一張明信片的背面,您?huì)寫什么,?

  霍金:告訴外星人關(guān)于美,,或者任何可能代表最高藝術(shù)成就的藝術(shù)形式都是無益的,因?yàn)檫@是人類特有的,。我會(huì)告訴他們哥德爾不完備定理和費(fèi)馬大定理,。這才是外星人能夠理解的事情。

  文廚(問):我們希望提倡科學(xué)精神,,貫穿GMIC全球九站,,清您推薦三本書,讓科技屆的朋友們更好的理解科學(xué)及科學(xué)的未來,。

  霍金:他們應(yīng)該去寫書而不是讀書,。只有當(dāng)一個(gè)人關(guān)于某件事能寫出一本書,才代表他完全理解了這件事,。

  微博用戶(問):您認(rèn)為一個(gè)人一生中最應(yīng)當(dāng)做的一件事和最不應(yīng)當(dāng)做的一件事是什么,?”

  霍金:我們絕不應(yīng)當(dāng)放棄,我們都應(yīng)當(dāng)盡可能多的去理解(這個(gè)世界),。

  微博用戶(問):人類在漫漫的歷史長(zhǎng)河中,,重復(fù)著一次又一次的革命與運(yùn)動(dòng)。從石器,、蒸汽,、電氣……您認(rèn)為下一次的革命會(huì)是由什么驅(qū)動(dòng)的?

  霍金:(我認(rèn)為是)計(jì)算機(jī)科學(xué)的發(fā)展,,包括人工智能和量子計(jì)算,。科技已經(jīng)成為我們生活中重要的一部分,,但未來幾十年里,,它會(huì)逐漸滲透到社會(huì)的每一個(gè)方面,為我們提供智能地支持和建議,,在醫(yī)療,、工作、教育和科技等眾多領(lǐng)域,。但是我們必須要確保是我們來掌控人工智能,,而非它(掌控)我們。

  最后一個(gè)問題來自于音樂人,、投資者胡海泉(問):如果星際移民技術(shù)的成熟窗口期遲到,,有沒有完全解決不了的內(nèi)發(fā)災(zāi)難導(dǎo)致人類滅絕,?拋開隕星撞地球這樣的外來災(zāi)難。

  霍金:是的,。人口過剩,、疾病、戰(zhàn)爭(zhēng),、饑荒,、氣候變化和水資源匱乏,人類有能力解決這些危機(jī),。但很可惜,,這些危機(jī)還嚴(yán)重威脅著我們?cè)诘厍蛏系纳妫@些危機(jī)都是可以解決的,,但目前還沒有,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容,、版權(quán)和其它問題,,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118;郵箱:[email protected],。