Quantcast
Channel: 電腦王
Viewing all articles
Browse latest Browse all 5918

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

$
0
0
人工智慧公司似乎正競相將網路上的錯誤資訊問題推向無可挽回的深淵。3a0ffefff98dcae730b05b1030274d03

每個人都知道網上假訊息是一個大的問題,它可能已經撕裂了社群、操弄選舉,並導致全球部分人群失去理智。當然,似乎沒人真正關心解決這個問題。事實上,最該對網路錯誤資訊負責的公司(也就是最有可能採取行動的公司)——也就是科技公司 - 它們似乎正盡一切所能讓問題變得更加惡化。 

最近的例子就是 OpenAI 在週四推出的新文字生成影片模型「Sora」。這個模型讓網路使用者只需透過文字提示就可以產生高品質的 AI 影片。這款應用目前正以其豐富多樣的視覺圖像吸引網路,無論是中國農曆年遊行、一個人在黑暗中倒退跑步機上跑步、在床上的貓還是兩艘海盜船在咖啡杯中旋轉。 

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

到目前為止,儘管 OpenAI 宣稱其使命是「改變世界」,但有人認為,該公司對網路最大的貢獻可能是瞬間生成了無數 TB 的數位垃圾。該公司所有公開的工具都是內容產生器,專家警告此類工具易於被用於欺詐和虛假資訊活動。 

OpenAI 在其關於Sora的部落格文章中坦承,其新應用可能存在一些潛在的缺點。該公司表示正在開發一些浮水印技術,以標示其生成器創建的內容,並正在與專家合作,探討如何讓Sora將會引發的 AI 生成垃圾氾濫變得不那麼有害。Sora目前尚未向公眾開放,OpenAI 表示其正在創建系統,拒絕生成暴力或色情圖像的使用者請求。聲明指出: 

「我們將與世界各地的政策制定者、教育工作者和藝術家合作,瞭解他們的擔憂,並找出這項新技術積極的用例。儘管我們進行了廣泛的研究和測試,但我們無法預測人們會以何種有益的方式使用我們的技術,以及他們會以何種方式濫用它。」

這種問題框架有點可笑,因為 OpenAI 的新工具可能如何被濫用已經非常明顯。Sora將大規模生成假內容,這一點不用懷疑。其中一些內容很可能會被用於網路政治假訊息目的,有些可能被用於協助各種欺詐和騙局,還有一些可能被用於產生有害內容。OpenAI 表示希望對暴力和色情內容施加有意義的限制,但網路使用者和研究人員已經展示了他們破解 AI 系統以生成違反公司使用政策內容的精明手段。所有這些Sora內容顯然會淹沒社群媒體,使普通人更難區分什麼是真實的,什麼是假的,並使整個網路變得更加令人厭煩。要搞清楚這一點,不需要成立一個全球專家小組。

還有其他一些顯而易見的缺點。首先,Sora及其類似產品可能會對環境產生巨大影響。研究表明,從環境角度來看,文字到圖像生成器比文字生成器更糟糕,產生一個 AI 圖像所需要的能量與智慧型手機充滿電所需的能量相同。其次,新的文字到影片生成技術可能會損害影片創作者的經濟來源,因為當創建一個影片只需要按一個按鈕時,為什麼公司要支付創作者來製作視覺內容呢? 

就這個國家的企業階層而言,除了金錢,沒有什麼真正重要。環境去死吧,藝術家去死吧,一個沒有虛假資訊的網路去死吧,政治話語的健康去死吧,任何阻礙利潤動機的東西都去死吧。任何可以用來賺錢的東西都應該被榨乾,即使它只是一個軟體程式,它唯一真正的用途就是可以做出牛仔倉鼠騎著龍的影片。正如一位 X 使用者所說:「這就是一群傻瓜為了環境而犧牲的東西。愚蠢。垃圾。就像這樣。」

開發文字生成影片AI模型Sora,OpenAI 就像在對著真實世界比中指

加入電腦王Facebook粉絲團

Viewing all articles
Browse latest Browse all 5918

Trending Articles



<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>