很多人說今年是「AI 繪畫元年」。先是 Disco Diffusion 熱門到大家都知道,從 Text-to-Image(用文字產生圖像)開發社群和創意設計行業,紅到了普通人的視野中。
人們熱衷將兩種完全不搭不搭嘎的物件,像是「達文西奇」和「iPhone」字樣,輸入 AI 程式,然後等著畫面層層算繪完成。
那是一種「拆福袋」般的體驗。對於沒有任何美術基礎和繪畫能力的人來說,AI 的「融梗」圖大多足夠驚豔,即便效果「翻車」,也能透過調整描述詞繼續最佳化。
緊接著,AI 繪畫工具 Midjourney 也紅了。和 Disco Diffusion 滿螢幕英文和程式碼的簡陋介面不同,Midjourney 直接搭載在 Discord 頻道上,輸入指令的過程和發訊息給別人沒什麼不同,更讓人吃驚的是,它產生畫作的時間一般在 60 秒左右。
然後,OpenAI 的 DALL·E 2 半途殺出,和前兩者擅長「概念畫風」不同,DALL·E 2 更「寫實」,60 秒不到可以產生 10 張圖,不滿意還可以擦去局部重新產生……短短幾個月,「最強 AI 畫師」的稱號幾次易主。
Google也坐不住,五月底發論文介紹自家選手——Imagen,直接喊話 DALL·E 2,號稱 Imagen 有「前所未有的寫實感和深度的語言理解」,目前暫未開放。
這兩個月來,我和前面三位「AI 畫師」頻繁打交道,幾乎每天都在測試描述詞、調教機器人,踩了很多坑,翻了不少車。但與此同時,也得到了不少傑作。
這次,我將對比它們的畫作產生特點、使用者友好度等方面,同時整理好了它們的網址,以及一些簡單的操作方法。
在普通使用者那裡,它們是具像化想像的得力工具;在專業人群那裡,如果將它們和其他工具聯動起來,能有無窮盡的想像空間。
Disco Diffusion:產生的圖藝術性最高
Disco Diffusion 產生畫作的流程大概分為這幾步:打開程式;設定圖片尺寸、過程圖張數、產生圖張數等參數;用英文寫好描述詞(Prompts),格式大致為「畫作類型 + 物件(可以有多個)+ 畫風設定 + 一些限定作用的修辭詞」;然後開始運行,等待 AI 算繪畫作。
一般來說,你需要等半個小時,如果盯著螢幕看,你會看到圖像從滿是雜訊,逐漸變得清晰、有細節起來。
使用期間,Disco Diffusion 可能會提示你在電腦上空出足夠的運行記憶體,但因為它運行在Google免費提供的 GPU 等運算資源上,對使用者的電腦硬體要求並不高,打開瀏覽器執行就可以。
Disco Diffusion 本身是個免費的開源軟體,但如果你想要更快的出圖速度,可以買谷歌 Colab 會員,以分配到更快的雲端運算資源。
除了只輸入文字讓 AI 自由發揮,你還可以事先放進去一張初始化圖片(Initial Image)去約束 AI 的創作。
例如,我先做了一張有樹木輪廓和綠色色塊的底圖(左),然後再操作,Disco Diffusion 就會在這個大框架下去發揮,成品為右圖
Disco Diffusion 產生圖理論上可以商用,其程式基於 MIT 開源協定,所有網路使用者可以免費使用、複製、修改甚至出售產生圖。但我覺得還是存有風險。風險主要來源於你的描述詞會引來畫風抄襲的爭議。
當你使用了風格鮮明的藝術家(尤其是在世的藝術家),以及某部商業作品作為關鍵字時,都請不要直接拿來商用。
Midjourney:不怎麼「越界」,更「聽話」
Midjourney 目前還是邀請制。
為了測試 Midjourney 的產生效果,我複製了之前「餵」給 Disco Diffusion 的關鍵字——「星空」、「向日葵」、「梵谷」——粘貼進去。
看到成品,我有一個直觀的感受:Midjourney 的想像力沒有 Disco Diffusion 那麼會天馬行空。但如果從輔助創作的角度考慮,我會更傾向於用 Midjourney 這個更「聽話的工具」,畢竟,沒有一個創作者願意把創作主導權讓給 AI。
Midjourney 的優點就是:快。軟體產生圖非常快,一張算下來大概 60 秒。你要是對成品不滿意,還可以幾乎即時地提升細節,或延伸變化。
Midjourney 搭在了通訊軟體 Discord 上,在對話方塊輸入「/image」後,用英文輸入描述詞,然後按下Enter。這個過程就像在和 AI 聊天一下。
60 秒後,你就可以在對話方塊裡收到 4 張算繪好的圖片。如果對「圖 1」不滿意,可以點擊「U1」按鈕增加細節,按「V1」按鈕延伸變化,直到滿意為止。
於是,我拿 Midjourney 產生了「十九世紀的麥當勞」和「十八世紀的打工人」:
之所以說 Midjourney 是「產品化」了的 Disco Diffusion,一個是它的介面更友好,另一個是它還內建了一個創作社群,你可以看到玩家們用哪些描述詞產生了什麼樣的畫作。這就是一個極具參考價值的「畫風」資料庫,太適合拿來「抄作業」了。
比如,我嘗試產生《愛,死亡和機器人》裡那集《糟糕之旅》的場景,參考了上圖兩位藝術家的描述詞,之後就產生了滿意的畫作:
「抄作業」讓產生像樣作品的門檻進一步降低了,但另一方面,也會失去了很多探索的樂趣。不要讓遊戲秘笈毀掉了一個好遊戲。
版權方面,如果你是免費使用者,圖像的版權歸屬於 AI,每月支付 30 美元後,就能將圖片拿去商用了。但同時,如果你因此獲利達兩萬美元以上,則需要給 Midjourney 20% 的分潤。
DALL·E 2:我為梵谷理髮,我讓大象轉身
我當了回理髮師,用 DALL·E 2 為梵谷做造型。
我等了一個多月,才拿到了 DALL·E 2 的內測資格。如果說 Disco Diffusion 更擅長描繪氛圍、風景或概念藝術,那麼 DALL· E 2 則擅長寫實。
「大象能轉身嗎?」我以這個超不合理的需求為例,試試 DALL· E 2 的寫實能力。
它轉過來了。
也讓大象去做些別的事情。比如,讓大象在水族館裡遊泳:
讓大象和鯊魚共舞:
讓大象開哈雷摩托車在路上狂飆:
讓大象被曹沖稱重量:
這成果讓人們無話可說。
毫不誇張地說,這是我目前用過體驗最好的 AI 繪圖工具,操作足夠簡單,完成度高,速度快到可以當搜尋引擎:不到一分鐘產生 10 張圖片(1024 × 1024),可無限延伸變化,甚至可以擦除局部重新產生。你可以不停地幫梵谷「理髮」。
在版權方面,DALL·E 2 背後的組織 OpenAI 列了幾條嚴格的限制:圖片產生版權最終歸屬 OpenAI;僅供個人學習探索使用,不能商用,不能用於製作 NFT;不能在社群媒體上發佈過於寫實的人臉產生結果,會有肖像侵權風險。
OpenAI 也聲稱已經禁止 AI 記住名人的臉,也規避了種族和性別的刻板印象等。
在苦苦等到 DALL·E 2 內測資格之前,我找了一個「替身」——DALL·E mini,是用第一代 DALL·E 做的 demo,產生速度快,但畫面完成度不及 DALL·E 2。
產生圖像,只是第一步
「能不能讓它們動起來?」我看著 AI 傳送回來的畫作,開始想辦法:
AI 產生圖像完成,並不代表創意就結束了。如果你把它當成其中一個環節,再連接其他創意流程,想像空間是巨大的。
我再展示一下插畫師 Nerko 的創意:他先用 Midjourney 產生自己想要的素材,然後再將這些局部組裝起來。
Another example of how its done.
— Nekro (@NekroXIII) June 12, 2022
I generate with the AI (midjourney) many parts and shapes that may be interesting, I cut them and prepare them to later make the composition in photoshop. Some overpaint, shadows, lights and that's it. 🙃pic.twitter.com/0EnHRLJRjq
在他手裡,AI 是種「生產力」。挑選和合成,仍是他全權主導。在用上 Midjourney 之前,他已經畫了 15 年插畫。
- 本文授權轉載自大數據文摘