人工智慧駭客的未來有多現實?這取決於被建模和被駭客攻擊的特定系統。對於人工智慧來說,所有規則都必須以電腦能夠理解的方式規則化。目標(在人工智慧中被稱為目標函數)需要建立起來,人工智慧需要得到關於「自己做得如何」的回饋,才能提高自身的表現。
有時這是只一件小事。對於圍棋這樣的遊戲來說,這很簡單。規則、目標和回饋(贏了還是輸了?)都是精確指定的,除此之外沒有什麼模糊地帶。GPT-3 人工智慧可以寫出連貫的文章,因為它的「世界」就只有文本。這就是為什麼目前大多數駭客的例子都來自模擬環境,因為這些環境都是人為的和受約束的,所有規則都是指定給人工智慧的。
重要的是系統中的模糊程度。我們可以想像將世界各地的稅法輸入人工智慧,因為稅法是由確定欠稅金額的公式組成的。甚至還有一種程式設計語言叫 Catala,它被最佳化來編碼法律。即便如此,所有的法律都有一些模糊性。這種模糊性很難轉化為程式碼,所以 AI 很難處理。所以儘管存在人工智慧,但在可預見的未來,稅務律師還是可以實現充分就業。
大多數人類系統甚至更加模糊。很難想像一個人工智慧,能在現實生活中做出像彎曲曲棍球棒這樣的運動技巧。人工智慧不僅要理解遊戲規則,還要理解人類生理機能、球桿和冰球的空氣動力學,等等。這並非不可能,但這比想出一個新穎的圍棋走法要困難得多。
在複雜的社會系統中,這種潛在的模糊性為對抗人工智慧駭客提供了短期的安全防禦。在機器人真正參與這些運動之前,或者在開發出能夠在所有交叉維度上廣泛理解世界的通用人工智慧之前,我們不會有人工智慧產生的「體育駭客」。「賭場遊戲駭客」或「立法程式駭客」也存在類似的挑戰。人工智慧還需要很長一段時間才能能夠建模和模擬人們的工作方式,無論是個人還是群體。
但是,儘管一個充滿人工智慧駭客的世界仍然是一個科幻小說中的場景,但這並不只是一個愚蠢的科幻小說問題。人工智慧技術的發展非常迅猛,其能力的飛躍是不穩定和間斷的。我們認為很難的事情可能變得很容易,我們認為應該很容易的事情也可能變得很難。上世紀 80 年代初,當我還是一名大學生時,老師告訴我們,圍棋永遠不可能被電腦掌握,因為它非常複雜:不是規則複雜,而是可能的走法數量太多。而今天,人工智慧變成了圍棋大師。
因此,雖然人工智慧可能主要是「明天的問題」,但我們今天已經看到了它的前兆。我們現在就需要開始思考可執行的、可理解的、合乎道德的解決方案,因為如果我們對人工智慧有什麼期待的話,那就是我們會比預期中更早地需要這些解決方案。
產生人工智慧駭客的第一個地方可能是金融系統,因為這些金融規則在設計上是可以用演算法處理的。高頻交易演算法就是一個原始的例子,其在未來會變得更加複雜。我們可以想像一下這樣一個場景:給人工智慧配備世界上所有的即時金融資訊,加上世界上所有的法律法規,加上新聞推送和所有我們認為可能相關的東西,然後給它設定「合法利潤最大化」的目標。我的猜測是,這個場景並不會很遙遠,其結果將是產生各種新奇的和完全意想不到的駭客行為。而且可能會有一些駭客行為超出人類的理解範圍,這意味著我們永遠不會意識到這些行為正在發生。
在短期內,我們更有可能看到人工智慧與人類協作的駭客行為。人工智慧可以辨識出可能被駭客利用的漏洞,然後一個有經驗的會計師或稅務律師會利用他們的經驗和判斷力,來確定該漏洞是否可以被利用而獲利。
在幾乎所有的歷史中,駭客攻擊都是一種人類活動。進行新的駭客行為需要專業知識、時間、創造力和運氣。而當人工智慧開始進行駭客攻擊時,情況就會發生變化。人工智慧不會像人一樣受到同樣的約束或受到同樣的限制。它們不需要睡覺,它們會像外星人一樣思考,它們會以我們無法預料的方式入侵系統。
電腦已經在四個方面加速了駭客攻擊:速度、規模、範圍和複雜性。人工智慧將進一步加劇這些趨勢。
首先,速度:人工入侵的過程有時需要幾個月或幾年,但人工智慧的加入可能會將時間壓縮到幾天、幾個小時,甚至幾秒鐘。如果你給人工智慧提供整個美國稅法,並命令它找出所有可以最小化個人稅賦的方法時,可能會發生什麼?或者,在針對跨國公司的情境下,讓人工智慧分析和最佳化全球的稅法呢?人工智慧能否在沒有提示的情況下,發現在德拉威爾州註冊公司並在巴拿馬註冊船舶是明智的做法?它會發現多少我們還不知道的漏洞?幾十個?幾百個?幾千個?我們不知道,但我們可能會在未來十年內找到答案。
其次,規模:一旦人工智慧系統開始進入駭客領域,它們就將能夠大規模利用駭客行為,而這種規模對人類來說是根本沒有準備好應對的。因此,當人工智慧開始擠壓金融系統時,它們將主導這個領域。美國的信貸市場、稅法和法律總體上已經向富人傾斜,而人工智慧將加速這種不平等。第一批為了追求利潤而入侵金融系統的人工智慧,不會由具有平等意識的研究人員開發出來,而將由全球性銀行、對沖基金和管理諮詢公司開發出來。
接下來,範圍:我們有應對駭客的社會系統,但這些系統是在駭客還是人類的時候開發的。我們沒有任何治理系統可以快速有效地對數百個(更不用說數千個)新發現的稅收漏洞進行裁決。我們不可能這麼快就給稅法進行修補。我們一直無法阻止人類利用 Facebook 來干擾民主,那麼想像一下當人工智慧這樣做的時候會發生什麼,這會帶來巨大的挑戰。如果人工智慧開始對金融系統進行意料之外、但合法的駭客攻擊,那麼世界經濟將陷入瘋狂,復甦將是漫長而痛苦的。
最後是複雜性:人工智慧輔助駭客打開了複雜策略的大門,超越了那些可以由人類獨立思維設計的策略。人工智慧的複雜統計分析可以揭示變數之間的關係,進而揭示可能的漏洞,而最好的人類戰略家和專家可能從未意識到這一點。這種複雜性可能使人工智慧能夠部署顛覆目標系統多個層面的戰略。例如,一個旨在最大限度地提高政黨得票率的人工智慧可能會調整經濟變數、競選資訊和投票程式,進而操縱競選結果。這還不包括人工智慧用來操縱股市、立法制度或公眾輿論的那些難以察覺的技巧。
以電腦的速度、規模、範圍和複雜性,駭客將成為我們這個社會無法再處理的問題。
我想起了電影《魔鬼終結者》(Terminator)中的一個場景,凱爾·瑞斯(Kyle Reese)向莎拉·康納(Sarah Connor)描述正在追殺她的生化人:「不能和它討價還價,不能和它講道理。它不會感到憐憫、悔恨或恐懼。而且它絕對不會停止,永遠不會……」我們現在面對的並不是真正意義上的生化人,但當人工智慧成為我們在駭客世界中的對手時,我們可能會發現,要跟上它尋找人類弱點的非人能力,同樣是件困難的事。
一些人工智慧研究人員確實在擔心強大的人工智慧會在多大程度上克服人類施加的限制,並有可能主宰社會。雖然這看起來像是一個瘋狂的猜測,但這種情況至少是值得考慮和預防的。
然而,在今天和不久的將來,這本書中描述的駭客行為將由強者對我們其他人實施。所有的人工智慧,無論是在你的筆記型電腦上還是在機器人中,都是由其他人編寫的。雖然像 Alexa 這樣的聯網設備可以模仿成為你值得信賴的朋友,但不要忘記,它是為了銷售亞馬遜的產品而設計的。就像亞馬遜網站鼓勵你購買其自有品牌,而不是競爭對手的高品質商品一樣,它並不總是符合你的最佳利益。
在缺乏任何有意義的監管的情況下,我們真的無能為力,無法阻止人工智慧駭客入侵的發生。我們需要接受這是不可避免的,並建立強大的治理結構,快速有效地做出反應。
這一挑戰提出了比「人工智慧將如何發展或我們如何應對」更深刻、更困難的問題:哪些駭客行為是有益的?哪些是有害的?誰來決定呢?你可能仍然不想用技術霸主取代政治霸主。如果你相信預防原則,那麼在駭客被納入社會系統之前,你可能希望有盡可能多的專家來對其進行測試和判斷。你還可能想要將這一原則進一步應用到使這些駭客成為可能的機構和結構上。
問題還在繼續。人工智慧創造的駭客應該在本地範圍內進行管理,還是全球範圍內進行管理?由管理者管理還是由公民投票?或者有沒有辦法讓市場或民間團體來決定?我們設計的治理結構將賦予一些人和組織權力,來決定如何應對未來的駭客。我們需要確保這一權力被明智地行使。
- 本文改編自布魯斯·史奈爾(Bruce Schneier)的《駭客思想》(A Hacker’s Mind)。