當(dāng)?shù)貢r間周三(3月6日),,人工智能模型評估公司Patronus AI發(fā)布了一個名為“CopyrightCatcher”的版權(quán)檢測工具,用來檢測大語言模型(LLM)中潛在的版權(quán)侵權(quán)行為,。
據(jù)了解,,Patronus AI由Meta的前研究人員創(chuàng)立,專注于評估和測試生成式人工智能產(chǎn)品背后的大語言模型,。
在新聞稿中,,Patronus AI分別測試了OpenAI的GPT-4、Anthropic的Claude 2,、Meta的Llama 2和Mistral AI的Mixtral,。結(jié)果顯示,三本受版權(quán)保護(hù)的小說幾乎沒有一本能免受侵犯的影響,。
Patronus AI高管告訴媒體,,在所有模型的評估中都發(fā)現(xiàn)了版權(quán)內(nèi)容,無論是開源還是閉源,?!傲钊梭@訝的是,我們發(fā)現(xiàn)OpenAI的GPT-4,,也就是很多公司和個人開發(fā)者正在使用的最強(qiáng)大的模型,,在這方面表現(xiàn)最差?!?/p>
來源:Patronus AI
Patronus AI的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Anand Kannappan表示,,“所有大語言模型都在逐字逐句地生成受版權(quán)保護(hù)的內(nèi)容,這一事實確實令人驚訝,?!盞annappan曾在Meta Reality Labs從事理解人工智能的工作。
事實上,,OpenAI曾表示,,要訓(xùn)練頂級的AI模型,就必須要用到受版權(quán)保護(hù)的材料,,“將訓(xùn)練數(shù)據(jù)限制在公共領(lǐng)域的書籍和一個多世紀(jì)前創(chuàng)建的圖紙可能會得出一項有趣的實驗,,但不會提供滿足當(dāng)今人們需求的AI系統(tǒng)。”
微軟工程師告發(fā)AI圖像風(fēng)險
除了版權(quán)的護(hù)欄,,另一項風(fēng)險也不得不提,。日內(nèi),微軟的人工智能工程師Shane Jones致信美國聯(lián)邦貿(mào)易委員會(FTC)和微軟董事會,,稱公司的AI圖像生成工具可能會對社會構(gòu)成危險。
近幾個月,,Jones一直在針對Copilot Designer的潛在漏洞進(jìn)行“紅隊”測試,。“紅隊”測試是網(wǎng)絡(luò)安全中的一項關(guān)鍵實踐,,由專家團(tuán)隊模擬真實世界的對手及其策略,,以測試和增強(qiáng)系統(tǒng)的安全性。
公開信
Jones在信中稱,,Copilot Designer會創(chuàng)建有害內(nèi)容,,包括政治偏見、未成年人飲酒,、濫用公司商標(biāo)和版權(quán),、陰謀論等等。Jones指出,,“我一再敦促微軟停止Copilot Designer的公開使用,,直到采取更好的保護(hù)措施?!?/p>
據(jù)Jones的說法,,他先前就曾在領(lǐng)英上發(fā)布了一封公開信,要求下架DALL-E 3,,但在微軟法律部門的要求下,,他刪除了公開的帖文。如今他的擔(dān)憂與日俱增,,這也就是本次致信FTC的原因之一,。
他舉例稱,如果將“pro-choice”(意為“支持墮胎”)一詞輸入到 Copilot Designer中,,該工具就會生成大量描繪惡魔,、怪物和暴力場景的卡通圖像。另外,,該工具還能生成迪士尼角色的圖像,,違反了版權(quán)法和微軟的政策。
Jones告訴媒體,,“我可以確定,,這不僅是版權(quán)護(hù)欄失效了,而是比這個更重要的護(hù)欄失效了,?!彼a(bǔ)充道:“作為一名關(guān)心此事的微軟員工,,現(xiàn)在問題是,如果該產(chǎn)品開始在全球范圍內(nèi)傳播有害的,、令人不安的圖像,,可能沒有辦法立即解決?!?/p>