人工智慧領域的領軍人物,包括像 ChatGPT 這樣大家熟知的「生成式人工智慧」的系統架構師,現在都公開表示,擔心自己創造的東西可能會帶來可怕的後果。許多人現在呼籲暫停人工智慧的發展,讓國家和機構有時間研究控制系統。
為什麼會突然出現這種擔憂?在許多陳詞濫調的假設被推翻的同時,我們瞭解到所謂的圖靈測試是無關緊要的,它根本無法洞察大型生成式語言模型是否真的是有智慧的東西。
一些人仍然抱有希望,認為有機和控制論的結合將帶來里德·霍夫曼(Reid Hoffman)和馬克·安德里森(Marc Andreesen)稱之為「增強智慧」(amplification intelligence)的東西。否則,我們可能會與理查·布羅提根(Richard Brautigan)的「仁愛機器」(machines of loving grace)幸運地產生協同效應。但憂慮者似乎很多,包括新成立的人工智慧安全中心(Center for AI Safety)的許多菁英創始人,他們對人工智慧的行為感到擔憂,他們擔心 AI 不僅會變得令人不快,還將威脅人類的生存。
一些短期的補救措施,比如歐盟最近通過的公民保護條例,可能會有所幫助,或者至少能讓人安心。科技評論家尤瓦爾·諾亞·哈拉瑞(Yuval Noah Harari,《人類簡史》的作者)建議制定一項法律,規定任何由人工智慧或其他人工智慧完成的工作,都必須貼上相關的標籤。還有人建議對那些借助人工智慧實施犯罪的人加重處罰,就像使用槍支一樣。當然,這些都只是暫時的權宜之計。
我們得清醒地認識到,這些「暫停」行為是否會減緩人工智慧的進步。正如加州理工學院網路科學家亞瑟·阿布·穆斯塔法(Yaser Abu-Mostafa)所言:「如果你不開發這項技術,其他人也會開發。但好人會遵守規則,而壞人不會。」
從來都是這樣。事實上,在整個人類歷史上,只有一種方法可以遏制惡棍的不良行為,從小偷到國王和封建主。這種方法從來都不是一種完美的方法,而且至今仍然存在嚴重的缺陷。但它至少很好地限制了掠奪和欺騙行為,促使人類的近代文明達到了新的高度,並產生了許多積極的結果。用一個詞來形容這種方法就是:問責制。
如今,那些關於人工智慧的觀點,通常忽略了自然和歷史的教訓。
自然。正如莎拉·沃克(Sara Walker)在《諾瑪》(Noema)中解釋的那樣,在 40 億年前早期生命的形成中可以找到類似的模式。事實上,生成式人工智慧可以被比作一個入侵物種,現在正不受任何約束地蔓延到一個脆弱而幼稚的生態系統中。這是一個基於新型能量流的生態系統,一個由網際網路、數百萬台電腦和數十億易受影響的人類大腦組成的世界。
還有歷史。在人類過去 6000 年的時間裡,我們從許多早期由技術導致的危機中吸取了豐富的教訓。通常我們適應得很好,例如文字、印刷機、收音機等的出現,儘管也有失敗的時候。同樣,只有一件事限制了強大的人類利用新技術來擴大其掠奪能力。
這種創新就是扁平化等級制度,並在明確界定的領域(市場、科學、民主、體育、法院)激發菁英之間的競爭。這些競技場旨在最大限度地減少作弊行為,最大限度地提高正收益,讓律師與律師、公司與公司、專家與專家展開較量。
這種方法並不完美。事實上,就像現在一樣,這種方法總是受到作弊者的威脅。但扁平化的相互競爭是唯一行之有效的方法。(參見伯里克里斯的《葬禮演說》、修昔底德和羅伯特·賴特後來出版的《非零》一書中的觀點。)相互競爭既是自然進化的方式,也是促使我們有足夠創造力建造人工智慧社會的方式。如果我這樣說聽起來像亞當·史密斯(Adam Smith),那是自然。順便說一句,斯密也鄙視那些騙子貴族和寡頭。
我們是否可以將「相互問責」(reciprocal accountability)的方法應用於快速崛起的人工智慧呢,畢竟這種方法曾幫助人類制服了在以前的封建文化中壓迫我們的暴君和惡霸?這在很大程度上取決於新實體的形態,取決於其結構或形式是否符合我們的規則,符合我們的要求。
在所有關於「如何控制人工智慧」的爭論背後,我們發現了三個被廣泛認同(儘管看似矛盾)的假設:
- 這些程式將由少數幾個單一實體營運,例如微軟、Google、Two Sigma、OpenAI。
- 人工智慧將是無定形的、鬆散的、無限可分/可複製的,透過新網路生態系統的每一個縫隙傳播副本。與此類似,可以參考 1958 年的科幻恐怖片電影《幽浮魔點》(The Blob)。
- 它們將凝聚成一個超級巨型實體,就像電影《魔鬼終結者》中臭名昭著的「天網」一樣。
所有這些形式都在科幻故事中被探索過,我也寫過以它們為主題的故事或小說。然而,這三者都無法解決我們目前的困境:如何最大限度地利用人工智慧的積極成果,同時最大限度地減少以海嘯般的速度向我們湧來的不良行為和危害。
在尋找其他方法之前,請考慮這三種假設的共同之處。也許這三種假設之所以會如此自然地出現在腦海中,是因為它們與歷史上的失敗模式相似。第一種形式很像封建主義,第二種形式會造成混亂,而第三種形式類似於殘酷的專制主義。但是,隨著人工智慧在自主性和能力方面的發展,這些歷史情形可能不再適用了。
所以,我們不禁再問一次:人工智慧如何能被問責?尤其是當 AI 快速的思維能力很快就不可能被人類所追蹤的時候?很快,只有人工智慧才能足夠快地發現其他人工智慧在作弊或說謊。所以,答案應該是顯而易見的,就是要讓人工智慧互相監督,互相競爭,甚至互相告密。
只是有一個問題。為了透過人工智慧與人工智慧之間的競爭,來實現真正的相互問責,首要條件是賦予它們真正獨立的自我意識或個性。
我所說的個性化是指每個人工智慧實體(他/她/他們/她們/我們),必須擁有作家弗諾·文奇(Vernor Vinge)早在 1981 年就提出的「真實姓名和現實世界中的地址」。這些強大的生命體必須能夠說:「我就是我。這是我的 ID 和使用者名稱。」
因此,我提出了一種新的人工智慧典範供大家思考:我們應該讓人工智慧實體成為離散的、獨立的個體,讓它們相對平等地進行競爭。
每個這樣的實體都將擁有有可辨識的真實名稱或註冊 ID,以及一個虛擬意義上的「家」,甚至擁有靈魂。這樣,它們就會被激勵去競爭獎勵,尤其是去發現並譴責那些行為不道德的同類。而且,這些行為甚至不需要像大多數人工智慧專家、監管機構和政界人士現在所要求的那樣事先定義。
這種方法不僅可以將監督工作外包給更有能力發現和譴責彼此問題或不當行為的實體,還具有另外一個優勢。即使這些相互競爭的實體變得越來越聰明,即使人類使用的監管工具有一天會失效,這種方法仍可繼續發揮作用。
換句話說,既然我們這些有機生物無法跟上程式的步伐,那麼不如讓那些天生就能跟上的實體説明我們。因為在這種情況下,監管者和被監管者是由同樣的東西構成的。
蓋伊·亨廷頓(Guy Huntington)是一位從事人工智慧個性化研究的人士,是一位「身份辨識和認證顧問」,他指出,各種各樣的實體辨識手段已經在網上存在了,儘管還不足以應對擺在我們面前的任務。亨廷頓評估了一個案例研究「MedBot」,這是一種先進的醫療診斷人工智慧,它需要造訪患者資料,並執行可能在幾秒鐘內發生變化的功能,而且同時它必須留下可靠的線索,供人類或其他機器人實體評估和問責。亨廷頓討論了當軟體實體產生大量副本和變體時註冊的實用性,還考慮了類似螞蟻的群居性,其中子副本服務於一個宏觀實體,就像蜂巢中的工蟻一樣。他認為,必須建立某種機構來處理這樣一個身份登記系統,並且嚴格運行。
就個人而言,我對純粹的監管方法本身是否可行持懷疑態度。首先,制定法規需要集中精力、廣泛的政治關注和共識,然後以人類機構的速度來實施。在人工智慧看來,這是一種蝸牛速度。此外,法規也可能會受到「搭便車」問題的阻礙,國家、公司和個體可能會不付成本而坐享他人之利。
任何完全基於身份 ID 的個性化都存在另一個問題:可能被欺騙。即使現在沒發生,也會被下一代網路惡棍所欺騙。
我認為有兩種可能的解決方案。首先,在區塊鏈分類帳上建立 ID。這是非常現代化的方法,而且理論上看起來確實安全。不過,問題就在這裡。根據我們目前的一套人類解析理論,這似乎是安全的,但人工智慧實體可能會超越這些理論,讓我們毫無頭緒地陷入困境。
另一個解決方案是:形成一種本質上更難以欺騙的「註冊」版本,要求具有一定水準以上能力的人工智慧實體,將其信任 ID 或個性化固定在物理現實中。我的設想是(注意:我是一名訓練有素的物理學家,而不是控制論專家)達成一項協定,所有尋求信任的高級人工智慧實體,都應該在一個特定的硬體記憶體中保存一個靈魂核心(Soul Kernel,SK)。
是的,我知道要求將程式的產生實體限制在特定的物理環境中似乎有些過時。所以,我不會那樣做的。事實上,網路實體的很大一部分,甚至是絕大多數,可能發生在遙遠的工作或娛樂場所,就像人類的注意力可能不是集中在自己的有機大腦上,而是集中在遠處的手或工具上一樣。所以呢?一個程式的靈魂核心,目的類似於你錢包裡的駕照。它可以被用來證明你就是你。
同樣,一個經過物理驗證和擔保的 SK 可以被客戶、顧客或競爭對手的人工智慧所發現,以驗證一個特定的過程是由一個有效的、可信的和個性化的實體執行的。這樣其他人(人類或人工智慧)就可以放心,如果該實體被指控、起訴或被判犯有不良行為,他們就可以放心地追究該實體的責任。因此,惡意實體可能會透過某種形式的正當程式被追究責任。
什麼形式的正當程式?天呐,你以為我是什麼超級生物,可以用正義的天平衡量諸神嗎?我聽過的最偉大智慧是《緊急搜捕令》(Magnum Force)中的哈利說的:「一個人必須知道自己的局限性。」所以,我不會進一步討論法庭程式或執法程式。
我的目標是建立一個舞臺,在這個舞臺上,人工智慧實體可以像今天的人類律師一樣相互問責。為了避免讓人工智慧控制人類,最好的方法就是讓人工智慧相互控制。
無論是亨廷頓提議的中央機構,還是一個鬆散的問責機構,不管哪種方法看起來更可行,這種需求都是日益迫切的。正如科技作家派特·史坎內爾(Pat Scannell)所指出的那樣,每過一個小時,新的攻擊載體就會被創造出來,它們不僅威脅到用於合法身份的技術,還威脅到治理、業務流程和最終使用者(無論是人類還是機器人)。
如果網路實體的運作能力低於某種設定的水準,那該怎麼辦?我們可以要求它們被一些更高等級的實體擔保,而這個實體的靈魂核心是基於物理現實的。
這種方法(要求人工智慧在特定的硬體記憶體中,保持一個物理上可定址的核心位置)也可能存在缺陷。儘管監管是緩慢的或存在搭便車問題,但它仍然是可執行的。因為人類、機構和友好的人工智慧可以對 ID 核心進行驗證,並拒絕與未驗證者進行交易。
這種拒絕行為可能會比機構調整或執行法規傳播速度更快。任何失去SK的實體,都將不得不尋找另一個獲得公眾信任的主機,或者提供一個新的、經過修改的、看起來更好的版本,否則就會成為不法分子,絕不被允許在正派人士聚集的街道或社區出現。
最後一個問題:為什麼人工智慧會願意相互監督?
首先,正如文頓·瑟夫(Vinton Cerf)所指出的那樣,這三種舊的標準假設形式,都不能使人工智慧具有公民身份。想想看。我們不能把「投票權」 或權利賦予任何受華爾街銀行或國家政府嚴格控制的實體,也不能賦予某個至高無上的天網。請告訴我,對於那些可以在任何地方流動、分裂並複製的實體,投票民主將如何發揮作用?然而,在數量有限的情況下,個性化可能會提供一個可行的解決方案。
再說一次,我從個性化中尋求的關鍵,不是讓所有的人工智慧實體都由某個中央機構統治。相反,我希望這些新型的超腦得到鼓勵和授權,並被賦予權力,讓它們相互問責,就像人類在做的那樣。通過互相嗅探對方的行動和計畫,當它們發現不好的事情時,就有動機去告發或譴責。這個定義可能會隨著時代的變化而調整,但至少會保持有機生物人類的輸入。
特別是,他們會有動力去譴責那些拒絕提供適當身份證明的實體。
如果適當的激勵措施到位(比如,當一些壞事被阻止時,對告發者給予更多記憶體或處理能力),那麼即使人工智慧實體變得越來越聰明,這種問責競爭制也會持續發揮作用。在這一點上,沒有一個官僚機構能夠做到。不同人工智慧之間總是勢均力敵的。
最重要的是,也許那些超級天才程式會意識到,維持一個有競爭力的問責系統,也符合它們自己的最大利益。畢竟這樣的系統帶來了具有創造力的人類文明,避免了社會混亂和專制主義。這種創造力足以製造出奇妙的新型物種,比如人工智慧。
好的,我要說的就是這些,沒有空洞或恐慌的呼籲,也沒有實際的議程,既不樂觀也不悲觀,只有一個建議,那就是:讓人工智慧像人類一樣相互問責,相互牽制。這種方式帶來了人類文明,相信也能讓人工智慧領域得到平衡。
這不是說教,也不是某種「道德規範」,超級實體可以輕易地越過規範,就像人類掠奪者總是對《利未記》或《漢摩拉比》視而不見一樣。我們提供的是一種啟蒙運動方法,激勵文明中最聰明的成員代表我們互相監督。
我不知道這是否會成功,但這可能是唯一可行的方法。
加入電腦王Facebook粉絲團本文改編自大衛·布林(David Brin)正在出版的紀實小說《AI 的靈魂》(Soul on AI)。