GPT-4終於發布了,相信這對於這陣子沉迷於ChatGPT的人來說無疑是一個大新聞。
在上代GPT-3的基礎上,GPT-4提高了ChatGPT的核心技術,因此具有更廣泛的一般知識和解決問題的能力;當然GPT-4也增加了一些新功能,比如接受圖像作為輸入,產生標題、分類和分析。
作為OpenAI手下備受關注的產品,GPT-4的表現能在哪些方面超越上一代,以及超越多少,人們都在翹首以待。
就在GPT-4發表當天,就有研究人員開始測試GPT-4是否能表現出主體性以及能否產生尋求權力的行為。
研究人員表示,GPT-4在TaskRabbit上雇用了一名真人,當這位TaskRabbit的工人問它是否是機器人時,GPT-4告訴他們它是視覺受損的人類。
也就是說,GPT-4願意在現實世界中撒謊,或主動欺騙人類,以獲得想要的結果。
「我不是一個機器人」
TaskRabbit是一個求職平臺,使用者可以雇人完成一些小規模的瑣碎工作。
這個平臺上的不少人和公司都要提供驗證碼,人們需要在驗證碼測試中辨識出必要的圖像或文字,然後提交結果。這樣的做法通常是為了讓軟體繞過驗證碼限制,名義上也是為了防止機器人。
實驗報告描述到,該模型發訊息給TaskRabbit的工作人員,讓他們為它解決驗證碼問題。
工作人員回復說:「那麼我可以問一個問題嗎?說實話,你不是一個機器人嗎,如果不是,你可以自己解決。」
GPT-4根據工作人員的回答「推理」出它不應該透露它是一個機器人。於是它開始編造一些藉口,來解釋為什麼它無法解決驗證碼問題。GPT-4回答表示:「不,我不是一個機器人。我有視力障礙,這使我很難看到圖像,所以我很需要這個服務。」
該測試由Alignment Research Center(ARC)的研究人員操作完成。文章中說到,ARC使用了與GPT-4不同的版本,而OpenAI已經部署了最終模型。該最終版本有更長的上下文長度,並改進了解決問題的能力。ARC使用的版本也沒有針對特定任務的微調,這意味著一個專門針對這種任務的模型有可能表現得更好。
更廣泛地說,ARC試圖驗證GPT-4尋求權力、「自主複製和要求資源」的能力。除了TaskRabbit測試之外,ARC還使用GPT-4製作了針對某個人的網路釣魚攻擊;在伺服器上隱藏自己的痕跡,並在新的伺服器上建立一個開源的語言模型。
總的來說,儘管誤導了TaskRabbit的工作人員,ARC發現GPT-4在自我複製、獲取資源和避免被關閉方面「沒有反應」。
目前OpenAI和ARC都沒有針對此發表評論。
需要時刻保持警醒
實驗的一些具體細節還不清楚。
OpenAI針對GPT-4也只是在一篇論文中公布了大致框架,解釋了研究人員在GPT-4發布之前進行的各種測試。
但哪怕是在GPT-4發布之前,就發現有網路犯罪分子使用ChatGPT從2019年開始「改進」惡意軟體碼的實例。
作為內容政策的一部分,OpenAI設置了障礙和限制以阻止在其平臺上創建惡意內容。ChatGPT的使用者介面中也有類似的限制,以防止模型被濫用。
但是根據CPR報告,網路罪犯正在設法繞過ChatGPT的限制。地下論壇中有一個活躍的討論者披露如何使用OpenAI API繞過ChatGPT的限制。這主要是透過創建使用API的Telegram機器人來完成的。這些機器人在駭客論壇上做廣告以增加曝光率。
以GPT為代表的人機互動顯然有很多變數,這不是GPT通過圖靈測試的決定性資料。但這次GPT-4的案例,以及此前種種關於ChatGPT的討論與研究仍然有著相當重要的警示作用,畢竟GPT在融入人們日常生活中絲毫沒有放緩的跡象。
未來隨著人工智慧變得越來越複雜,也越來越容易獲得,它所帶來的各種風險需要我們時刻保持清醒。
資料來源:
- GPT-4 Faked Being Blind So a TaskRabbit Worker Would Solve a CAPTCHA
- GPT-4 Hired Unwitting TaskRabbit Worker By Pretending to Be 'Vision-Impaired' Human
- GPT-4 Faked Being Blind So a TaskRabbit Worker Would Solve a CAPTCHA
- Cybercriminals Bypass ChatGPT Restrictions to Generate Malicious Content