《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 太贊了!英偉達又一突破,輸入關(guān)鍵詞就可以生成直逼攝影師的大片

太贊了,!英偉達又一突破,輸入關(guān)鍵詞就可以生成直逼攝影師的大片

2021-11-29
來源:CSDN

  英偉達又一次突破了,,這么逼真的照片竟然不是來自攝影師或是設(shè)計師!

  近日,,英偉達官方推出 GauGAN2人工智能系統(tǒng),,它是其 GauGAN 模型的繼承者,它不僅能根據(jù)字詞生成逼真的風景圖像,,還能實時用文字P圖,!

  GauGAN2 將分割映射、修復和文本到圖像生成等技術(shù)結(jié)合在一個工具中,,通過輸入文字和簡單的繪圖來創(chuàng)建逼真的圖像,。

  Isha Salian 表示“與類似的圖像生成模型相比,GauGAN2 的神經(jīng)網(wǎng)絡(luò)能夠產(chǎn)生更多種類和更高質(zhì)量的圖像,?!?/p>

  英偉達的企業(yè)傳播團隊在一篇博客文章中寫道,?!坝脩魺o需繪制想象場景的每個元素,只需輸入一個簡短的短語即可快速生成圖像的關(guān)鍵特征和主題,,例如雪山山脈,。然后可以用草圖定制這個起點,使特定的山更高,,或在前景中添加幾棵樹,,或在天空中添加云彩?!?/p>

  例如輸入海浪打在巖石上,,模型會根據(jù)生成的內(nèi)容逐漸進行相應(yīng)的調(diào)整,以生成與描述匹配的逼真圖像,。

  GauGAN2 的生成模式

  GauGAN2 有三種繪制模式,,可以從不同的輸入生成逼真的圖像,。

  模式1:用涂鴉生成風景照

  模式2:輸入文本生成圖片

  這種輸入文本生成匹配圖像的模式也是 GauGAN2 主要的創(chuàng)新,生成的圖像會根據(jù)逐漸輸入的文本不斷發(fā)生變化,,最終生成和文本匹配最佳的圖像,。

  例如在下圖的示例中,文本首先輸入 sunshine(陽光),,生成的圖像中就只出現(xiàn)了一個太陽,;之后繼續(xù)輸入 a tall tree(高樹),圖像中就出現(xiàn)了樹(且為頂部樹枝,,匹配高樹),;最后,輸入的全部文本是 sunshine in a tall tree forest ,,意為透過森林的陽光,,GauGAN2 最終生成的圖像與之相匹配:

  模式 3:輸入圖像并編輯部分內(nèi)容

  如果想要抹掉移除的內(nèi)容,在生成的圖像中會保留剩余的部分,,并自動補全出多種新的完整圖像:

  這三種模式也可以混合疊加使用,,例如在用涂鴉繪畫等生成圖像后,輸入文本進行相應(yīng)的修改,,在下圖中就生成了一座浮在空中的城堡就出現(xiàn)了,。

  像像外媒ZDNet就惡搞出來了一種神奇的玩法,在已有的風景上畫個人頭—,,畫人頭,。

  在生成這一系列逼真的圖像背后用了什么原理呢?

  如何實現(xiàn),?

  從 2019 年開始,,英偉達改進 GauGAN 系統(tǒng),該系統(tǒng)由超過一百萬個公共 Flickr 圖像的訓練而成,。與 GauGAN 一樣,,GauGAN2 可以理解雪、樹,、水,、花、灌木,、丘陵和山脈等物體之間的關(guān)系,,例如降水類型隨季節(jié)而變化的事實。

  GauGAN2 是一種稱為生成對抗網(wǎng)絡(luò) (GAN) 的系統(tǒng),,由生成器和判別器組成,。生成器用于獲取樣本,例如獲取與文本配對的圖像,并預測哪些數(shù)據(jù)(單詞)對應(yīng)于其他數(shù)據(jù)(風景圖片的元素),。生成器試圖通過欺騙鑒別器來進行訓練,,鑒別器則用于評估預測結(jié)果是否現(xiàn)實。雖然 GAN 的轉(zhuǎn)換最初的質(zhì)量很差,,但隨著鑒別器的反饋二不斷改善,。

  與 GauGAN 不同的是,GauGAN2 是在 1000 萬張圖像上訓練而成——可以將自然語言描述成風景圖像,。輸入諸如“海灘日落”之類的短語會生成場景,,而添加諸如“巖石海灘日落”之類的形容詞或?qū)ⅰ叭章洹碧鎿Q為“下午”或“下雨天”等形容詞會立即修改畫面。

  GauGAN2 用戶可以生成分割圖,,顯示場景中對象位置的高級輪廓,。從那里,他們可以切換到繪圖,,使用“天空”,、“樹”、“巖石”和“河流”等標簽通過粗略的草圖調(diào)整場景,,并允許工具的畫筆將涂鴉融入圖像,。

  這是屬于更新迭代的過程,用戶在文本框中鍵入的每個詞都會為 AI 創(chuàng)建的圖像添加更多內(nèi)容,,因而 GauGAN2 才能隨著輸入文本而不斷變換圖像,。

  結(jié)語

  GauGAN2 與 OpenAI 的 DALL-E 沒有什么不同。

  不過,,這兩個模型生成的內(nèi)容其實不太一樣,。

  GauGAN2 專注于生成風景照,DALL·E 則更多地生成具體的物體,,例如一把椅子或者一個鬧鐘等,。

  英偉達聲稱,GauGAN 的第一個版本已經(jīng)被用于為電影和視頻游戲創(chuàng)作概念藝術(shù),。與它一樣,,英偉達 計劃在 GitHub 上提供 GauGAN2 的代碼,同時在 Playground 上提供交互式演示,,Playground 是 英偉達人工智能和深度學習研究的網(wǎng)絡(luò)中心,。

  像 GauGAN2 這樣的生成模型的一個缺點是存在偏差的可能性。例如在 DALL-E 的案例中,,OpenAI 使用了一種 CLIP 模型來提高生成圖像質(zhì)量,但在一項研究中發(fā)現(xiàn),,CLIP 對黑人照片的錯誤分類率更高,,并且存在種族和性別偏見問題。

  英偉達暫不會對 GauGAN2 是否存在偏見給出回應(yīng)。英偉達發(fā)言人表示:“該模型有超過 1 億個參數(shù),,訓練時間不到一個月(還在 demo 階段),,訓練圖像來自專有的風景圖像數(shù)據(jù)集。因此 GauGAN2 只專注于風景,,研究團隊還對圖像進行審核以確保圖片中沒有包含人的場景,。”這將有助于減少 GauGAN2 的偏見,。

  目前,,GauGAN2 已經(jīng)可以試完,有使用過或是想要去體驗的可以在留言區(qū)談?wù)擉w驗感受呦~




1.png

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。