6 月 17 日消息,,最新研究稱,,越來越多的人難以在圖靈測試中區(qū)分 GPT-4 和人類。
" 圖靈測試 " 由計算機科學(xué)家艾倫?圖靈在 1950 年提出,又被稱為 " 模仿游戲 ",。測試的標(biāo)準(zhǔn)是機器能否像人類一樣進(jìn)行對話,讓對方誤以為其是真人,。
加州大學(xué)圣地亞哥分校的研究人員招募了 500 名參與者,,讓他們與四位 " 對話者 " 進(jìn)行五分鐘的交流,這四位 " 對話者 " 分別是真人,、上世紀(jì) 60 年代的初代聊天機器人 ELIZA,、以及驅(qū)動聊天機器人 ChatGPT 的 GPT-3.5 和 GPT-4。參與者在對話結(jié)束后需判斷對方是人還是機器,。
這項測試的結(jié)果發(fā)表于預(yù)印網(wǎng)站 arXiv 上,,結(jié)果顯示,有 54% 的參與者將 GPT-4 誤認(rèn)為真人,。相比之下,,預(yù)先設(shè)定好回復(fù)的 ELIZA 只有 22% 的人將其認(rèn)作真人,GPT-3.5 則為 50%,,而人類對話者被正確辨認(rèn)的比例則為 67%,。
研究人員指出,圖靈測試過于簡單,,對話的風(fēng)格和情感因素在測試中扮演著比傳統(tǒng)智能認(rèn)知更重要的角色,。
電氣和電子工程師協(xié)會 ( IEEE ) 的人工智能研究員內(nèi)爾?沃森 ( Nell Watson ) 表示,,單純的智力并不能代表一切,真正重要的是足夠智能地理解情境,、他人的技能并具備同理心將這些要素結(jié)合起來,。能力僅僅是 AI 價值的一部分,理解人類的價值觀,、偏好和界限也同樣重要,,正是這些品質(zhì)才能讓 AI 成為我們生活中忠誠可靠的管家。
沃森還提到,,這項研究對未來的人機交互提出了挑戰(zhàn),,人們將會對互動對象的真實性愈發(fā)疑慮,尤其是在涉及敏感話題時,。同時,,這項研究也凸顯了 GPT 時代人工智能的巨大進(jìn)步。