Quantcast
Channel: 電腦王
Viewing all articles
Browse latest Browse all 5918

Nightshade這個程式可以在藝術家作品中「下毒」,人類肉眼看不出差別,但訓練出來的AI就慘了

$
0
0
Nightshade針對文字提示與圖像之間的關聯,巧妙地改變圖像中的像素,以欺騙人工智慧模型解讀出與人類觀眾所看到的完全不同的圖像。27498c0e61aa7ddf9e6dc601afc6b5f6

故意毒害他人永遠不是道德上正確的。但如果辦公室裡有人一直偷你的午餐,你不會採取一些小小的報復手段嗎?

對於藝術家來說,保護他們的作品不被未經同意用於訓練人工智慧模型是一場艱苦的戰鬥。選擇退出請求和不抓取程式碼依賴於人工智慧公司的良心行事,但那些以利益至上的公司可以輕易忽略這些措施。對於大多數依賴社群媒體曝光來接取委託和其他工作機會的藝術家來說,封閉自己在離線的環境中並非一個好的選擇。

來自芝加哥大學的Nightshade(夜影)專案,透過「毒害」圖像數據,讓人工智慧模型的訓練變得毫無用處或具有破壞性,為藝術家提供了一些反擊手段。領導這個專案的電腦科學教授Ben Zhao將Nightshade比作「在你的午餐中加入辣椒醬,這樣它就不會從辦公室裡的冰箱被偷走」。

他說:「們正在展示這樣一個事實:一般來說,生成模型只是模型。Nightshade本身並不意味著是一個終結所有的、極其強大的武器來殺死這些公司。Nightshade只是用來表明這些模型是很脆弱的,並且有很多種方法可以攻擊它們。這意味著內容擁有者有方法可以提供比寫信到國會或透過電子郵件、社群媒體投訴更強硬的回應方法。」

Zhao和他的團隊並不是試圖摧毀大型人工智慧公司——他們只是試圖迫使科技巨頭為授權作品付費,而不是免費的爬取的圖像訓練人工智慧模型。

「有一個正確的方法可以做到這一點,」他繼續說道。「這裡真正的問題是關於同意,是關於補償。我們只是為內容創作者提供了一種對抗未經授權訓練的方式。」

左:原始版本,沒有改變的《蒙娜麗莎》。 中:經過Nightshade處理後的《蒙娜麗莎》。 右圖:人工智慧「看到」的經過Nightshade處理後的《蒙娜麗莎》。

Nightshade針對文字提示與圖像之間的關聯,巧妙地改變圖像中的像素,以欺騙人工智慧模型解讀出與人類觀眾所看到的完全不同的圖像。這些人工智慧模型會錯誤地將「陰影」的圖像中的特徵分類,如果它們接受足夠數量的「中毒」資料的訓練,將開始產生與對應提示完全無關的圖像。研究人員在一篇目前正在同行評審的技術論文中寫道,只需不到 100 個「中毒」的樣本即可破壞穩定擴散提示。

以一頭牛懶洋洋地躺在草地上的畫作為例。

Zhao在接受採訪時說:「透過操縱和有效地扭曲這種聯想,你可以讓模型認為牛有四個圓輪、一個保險桿和一個後車箱。當它們被提示要生成一頭牛時,它們將畫出一輛大型福特卡車,而不是一頭牛。」

Nightshade團隊也提供了其他例子。未經更改的蒙娜麗莎畫像和夜影版本的蒙娜麗莎畫像對人類來說幾乎是一模一樣的,但人工智慧會將「中毒」的樣本解讀為一隻穿著長袍的貓,而不是一個女人的肖像。

在使用夜影圖像訓練模型使其看到貓之後,提示人工智慧生成狗的圖像,會產生與任何一種動物都沒有相似之處的可怕混合體。 

只需不到 100 個中毒圖像就可開始破壞提示。

技術論文指出,這些影響會滲透到相關概念中。腐化了「奇幻藝術」提示的夜影樣本,也影響了「龍」和「Michael Whelan」的提示,後者是一位專門從事奇幻和科幻封面藝術的插畫家。

Zhao還領導了創建Glaze的團隊,這是一個掩飾工具,它扭曲了人工智慧模型「看到」和判斷藝術風格的方式,防止它模仿藝術家的獨特作品。就像Nightshade一樣,人們可能會看到一幅「上了釉」的逼真木炭肖像,但人工智慧模型會將其視為一幅抽象畫,然後在被提示生成精細木炭肖像時,會產生凌亂的抽象畫。

去年該工具推出後,Zhao在接受採訪時描述Glaze是一種作為防禦手段的技術攻擊。Zhao最近告訴媒體,雖然Nightshade不是一次「公然攻擊」,但它仍然對無視退出選項的掠奪性人工智慧公司採取進攻。OpenAI是因涉嫌侵犯版權法而面臨集體訴訟的公司之一,但它現在允許藝術家選擇退出,以免他們的作品被用於訓練未來的模型。

「這種[選擇退出]的問題是它是可能的最軟弱、最模糊的請求類型。沒有強制力,也無法迫使任何公司信守其承諾,」Zhao說。「有許多公司仍然在雷達以下低空飛行,它們比OpenAI小得多,也沒有界限。它們完全沒有理由遵守那些選擇退出的列表,他們仍然可以拿走你的內容並隨心所欲地使用。」

參與針對Stability AI、Midjourney和DeviantArt的集體訴訟的藝術家Kelly McKernan,在X上發表了他們的夜影和上釉畫作的例子。這幅畫描繪了一位女性纏繞在霓虹血管中,而像素化的相似物體則在吸取她的精華。McKernan寫道,這代表了生成式人工智慧「吞噬人類創造者的真實聲音」。

2022 年,隨著人工智慧影像產生器向大眾推出,McKernan開始看到了與他們自己的畫作極為相似的圖像。當他們發現超過50件作品被抓取並用於訓練人工智慧模型時,他們告訴媒體,他們對創造更多藝術失去了所有興趣。他們甚至在人工智慧生成的內容中找到了自己的簽名。他們說,使用Nightshade是一種保護措施,直到出現適當的管理。

McKernan說:「就像外面有一場糟糕的暴風雨,我還是得去工作,所以我要保護自己,用一把透明的雨傘來看清前方。這不方便,我也不會停止暴風雨,但它會幫助我穿越到另一邊。它還向那些只是一味索取、毫無後果的公司傳達了一個訊息,那就是我們會反擊。」

Nightshade所做的大部分改變對於人眼來說應該是不可見的,但團隊確實指出,在色彩平坦和背景平滑的圖像上,「Nightshade 」更為明顯。這個免費下載的工具還提供了一種低強度設置,以保持視覺品質。McKernan說,雖然他們可以看出使用Glaze和Nightshade後,自己的圖像已經發生了變化,但這是因為這幅畫是他們自己畫的,所以自己看得出來,但它「幾乎無法察覺」。

插畫家Christopher Bretz在他的一幅作品中展示了Nightshade對他作品的影響,並將結果在X上發表。在Nightshade最低和默認設置下運行圖像對插畫的影響很小,但在更高設置下的變化是明顯的。

「「我整個星期都在嘗試使用 Nightshade,我打算將所有的新作品和許多較舊的線上作品集都用 Nightshade來處理」Bretz告訴說,「我知道一些數位藝術家已經有一段時間沒有上傳新作品了,我希望這個工具能給他們信心重新開始分享。」

 

在理想情況下,藝術家在網路上分享作品之前應該先使用Glaze和Nightshade,團隊在部落格文章中寫道。該團隊仍在測試Glaze和Nightshade如何在同一圖像上的交互作用,並計劃發表一個整合完成、能同時做到這兩者的單一工具。在此期間,他們建議先使用Nightshade,然後再使用Glaze,以盡量減少可見影響。團隊強烈建議不要發布僅經過陰影處理而不是Glaze處理的藝術品,因為Nightshade無法保護藝術家免受模仿。

即使加入到圖像元數據中的簽名和水印也是「脆弱」的,如果圖像被更改,它們可以被移除。Nightshade所做的更改即使透過裁剪、壓縮、截圖或編輯也保持不變,因為它們會修改組成影像的像素。Zhao說,即使是顯示 Nightshade圖像的螢幕的照片,也會對模型訓練造成干擾。

隨著生成模型變得越來越複雜,藝術家面臨越來越大的壓力來保護他們的作品並打擊抄襲。Steg.AI和Imatag透過應用人眼無法察覺的水印來幫助創作者建立圖像所有權,儘管兩者都承諾保護使用者免受不擇手段的抓取。去年推出的「No AI」浮水印生成器應用水印,將人類製作的作品標記為人工智慧生成,希望用於訓練未來模型的資料集能夠過濾掉人工智慧生成的影像。還有來自Spawning.ai的Kudurru工具,它可以辨識和追蹤抓取者的IP地址。網站擁有者可以封鎖被標記的IP地址,或選擇發送不同的圖像,像是比中指。

另一款本週推出的工具Kin.art採取了不同的方法。與Nightshade和其他對圖像進行密碼學修改的程式不同,Kin掩蓋圖像的部分並交換其元標籤,使其更難用於模型訓練。

Nightshade的批評者聲稱該程式是一種「病毒」,或抱怨使用它會「傷害開源社群」。在Nightshade發表前的幾個月中,Reddit上的一個截圖中,一位Discord使用指責Nightshade進行「網路戰爭/恐怖主義」。另一位在X上意外走紅的Reddit使用質疑Nightshade的合法性,將其比作「駭客攻擊易受攻擊的電腦系統以干擾其運作」。

Nightshade這個程式可以在藝術家作品中「下毒」,人類肉眼看不出差別,但訓練出來的AI就慘了

不要公布你的藝術作品被Nightshade處理了,讓它成為一個小小的驚喜🤗

— Paloma McClain (@palomamcclain) 2024年1月19日

認為Nightshade因為「故意干擾生成式人工智慧模型的預期用途」是非法的,正如OP所述,是荒謬的。Zhao堅稱Nightshade是完全合法的。他說,它不是「神奇地跳進模型訓練管道,然後殺死所有人」——模型訓練者是自願抓取圖像的,無論是 Nightshade處理過的還是沒有 Nightshade的,而且人工智慧公司都從中獲利。

Glaze和Nightshade的最終目標是對每一件未經許可抓取的數據造成「逐漸增加的代價」,直到在未經許可的數據上訓練模型不再可行。理想情況下,公司將不得不獲得許可並支付報酬,以訓練他們的模型。

這種做法之前已有先例;Getty Images 和 Nvidia最近推出了一款完全使用Getty Images豐富的圖庫訓練的生成式人工智慧工具。訂閱客戶支付的費用取決於他們想要生成的照片數量,而用於訓練模型的攝影師將獲得訂閱收入的一部分。根據《連線》報導,報酬多少取決於攝影師的內容對訓練集的貢獻量以及以及該內容隨時間的「表現」。

Zhao澄清說他不反對人工智慧,他並不反對人工智慧,並指出人工智慧有非常有用的應用,而且在道德上並不那麼令人擔憂。在學術和科學研究領域,人工智慧的進步是值得慶祝的。儘管大多數關於人工智慧的市場炒作和恐慌實際上是指生成式人工智慧,但他說,傳統人工智慧已被用來開發新藥物和對抗氣候變化。

「這些事情都不需要生成式人工智慧。這些事情都不需要美麗的圖片,或者編造事實,或者有一個介於你和人工智慧之間的使用者介面,」Zhao說。「對於大多數基礎人工智慧技術來說,這不是核心部分。但確實是這樣,這些東西與人們的介面如此容易。大科技公司真的抓住了這一點,作為一種容易獲利並吸引更廣泛人群的方式,與那些實際具有基礎突破能力和驚人應用的更科學的人工智慧相比。」

科技領域的主要參與者大多支持人工智慧,其資金和資源使學術界相形見絀。他們沒有動力資助那些具有破壞性且不會產生任何經濟利益的計畫。Zhao堅決反對將Glaze和Nightshade變現,或將這些專案的知識產權出售給初創公司或企業。像McKernan樣的藝術家很高興能夠免除訂閱費,這種訂閱費在創意產業使用的軟體中幾乎無處不在。

「藝術家,包括我自己,處處都感到被剝削,」McKernan說。「所以當有東西免費作為資源給予我們時,我知道我們都會感激。」

Nightshade背後的團隊由Zhao、博士生Shawn Shan和幾位研究生組成,他們得到了大學、傳統基金會和政府補助的資助。但為了維持研究,Zhao承認團隊可能不得不找出一種「非營利結構」並與藝術基金會合作。他補充說,該團隊還有「更多技巧」。 

「長期以來,研究都是為了研究而進行,以擴展人類知識。但我認為這樣的事情是有道德底線的,」Zhao說。「這方面的研究很重要......那些最容易受到這種影響的人,他們往往是最具創造力的,而且他們在資源方面往往得到的支持最少。這不是一場公平的戰鬥。這就是為什麼我們正在盡我們所能來幫助平衡戰場。」

加入電腦王Facebook粉絲團

Viewing all articles
Browse latest Browse all 5918

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>