《大家論壇》監控視角:AI時代已來臨 不管是 Alexa、Siri 還是什麼

 奈伊( Joseph S. Nye)    2021年12月03日 07:00:00



 




奈伊



• 哈佛大學教授



• 曾任哈佛甘迺迪政府學院院長、美國國防部助卿



• 提出軟實力(soft power)與巧實力(smart power)論述




 



一位年長的政治家、一位退休的科技巨頭 CEO 和一位元電腦科學家在酒吧遇見。他們在談論什麼?當然是人工智慧(AI),因為每個人都在談論它——或者與它談論,不管我們把它叫做 Alexa、Siri 還是其他什麼。我們不需要等待科幻小說的未來;人工智慧時代已經來臨。特別是機器學習對我們的生活產生了強大的影響,也將對我們的未來產生強烈的影響。



 



這就是前美國國務卿季辛吉(Henry Kissinger)、前google首席執行官施密特(Eric Schmidt)和麻省理工學院院長哈滕洛赫(Daniel Huttenlocher)合著的這本引人入勝的新書傳達的資訊。它伴隨著一個警告:AI將挑戰自啟蒙運動以來就存在的人類理性的主導地位。



 



機器真的會思考嗎?他們智慧嗎?這些術語是什麼意思? 1950 年,著名的英國數學家圖靈 (Alan Turing) 建議我們通過評判表現來避免如此深刻的哲學難題:如果我們無法區分機器的表現和人類的表現,我們就應該給它貼上「智慧」的標籤。大多數早期電腦程式所產生的僵硬和靜態的方案都未能通過這一「圖靈測試」,人工智慧領域在整個 1980 年代持續衰落。



 



但在 1990 年代出現了一個突破,新方法允許機器自行學習,而不是完全由人類提煉的見解所衍生的代碼指導。與由產生精確結果的步驟組成的經典演算法不同,機器學習演算法由改進不精確結果的步驟組成。現代機器學習領域——通過經驗學習的程式——誕生了。



 



在神經網路中對機器學習演算法分層(受人腦結構的啟發)的技術最初受到計算能力不足的限制。但近年來情況有所變化。 2017 年,google DeepMind 開發的AI程式 AlphaZero 擊敗了世界上最強大的國際象棋程式 Stockfish。值得注意的不是一個電腦程式勝過另一個電腦程式,而是它教會了自己這樣做。它的創造者為它提供了國際象棋規則,並指示它制定制勝策略。經過四個小時的自我對弈學習,它成為世界國際象棋冠軍,對陣Stockfish贏了 28局且無一敗績(還有 72 場平局)。



 



AlphaZero 的玩法得益於其在人類大腦無法感知、處理和利用的海量可能性集合中識別模式的能力。AlphaZero出現後,類似的機器學習方法讓AI不但能夠擊敗人類國際象棋專家,還發現了全新的國際象棋策略。作者指出,這意味著AI超越了與人類智慧無法區分圖靈測試表現,具備了超過人類的表現。



 



演算法政治



 



生成神經網路還可以創建新的圖像或文本。作者將 OpenAI 公司的 GPT-3 列為當今最值得注意的生成式 AI 之一。 2019 年,該公司開發了一個語言模型,通過使用網路上免費獲取的文本來訓練自己。給定幾個單詞,它可以通過檢測序列元素中的模式來推斷新的句子和段落。它能夠編寫新的原創文本並通過圖靈測試,即展示與人類無法區分的智慧行為。



 



我通過體驗知道了這件事。在我插入幾句話後,它在網路上搜索並在不到一分鐘內產生了一個關於我的似是而非的假新聞報導。我知道這是假的,但我並不那麼重要。假設這個故事是關於一次重大選舉期間的政治領導人的?當普通網路用戶可以在人們投票之前的最後幾天釋放生成性AI機器人大量散播政治消息,民主會發生什麼?



 



民主已經受到政治兩極極化的影響,社交媒體演算法為使用者提供更加極端(引人入勝)的觀點來誘導「點擊」(和廣告),從而加劇了這個問題。假新聞不是一個新問題,但AI演算法對其進行快速、廉價和廣泛的擴大無疑是一個新問題。可能有言論自由的權利,但沒有自由擴大的權利。



 



作者認為,隨著google、推特和臉書等全球網路平臺採用AI來聚合和過濾遠遠超過使用者能力極限的資訊,這些基本問題正在凸顯出來。但這種過濾導致用戶隔離,形成社會回聲室,在群體之間挑起不和。某人眼中的現實的準確反映,與其他人或群體所看到的現實截然不同,從而加強和加深了極化。AI越來越多地決定什麼是重要的,什麼是真實的,結果大不利於民主的健康。



 



破解新程式碼



 



當然,AI對人類也有巨大的潛在利益。AI演算法可以比人類技術人員更可靠地讀取乳房 X 光檢查結果。 (這給決定無視機器建議的醫生帶來了一個有趣的問題:他們會因瀆職而被起訴嗎?)



 



作者引用了 halicin的例子,這是 2020 年發現的一種新抗生素,當時麻省理工學院的研究人員用AI在幾天內對數百萬種化合物進行建模——這一計算量遠遠超過人類的能力——以探索以前未發現和未解釋的殺死細菌的方法。研究人員指出,如果沒有AI,通過傳統實驗發現halicin 將昂貴無比,甚至完全不可能。作者認為,AI的前景是深遠的:翻譯語言、檢測疾病和類比氣候變化只是該技術可以做的幾個例子。



 



作者沒有花太多時間在 AGI的怪物上,AGI即人工通用智慧,或能夠完成任何智慧任務的軟體,包括跨學科的相關任務和概念。無論 AGI 的長期未來如何,我們已經有足夠多的問題來對付現有的生成式機器學習 AI。它可以得出結論、提供預測和做出決定,但它沒有自我意識或反思自己在世界上的角色的能力。它沒有意圖、動機、道德或情感。換句話說,它不等同於人類。



 



但是,儘管現有AI存在局限性,我們也不應低估它對世界的深遠影響。 用作者的話來說:



 



 「在沒有意識到AI已經提供的許多現代便利的情況下,我們慢慢地,幾乎是被動地開始依賴這項技術,既沒有記錄它的影響,也沒有記錄我們對它的依賴這一事實。 在日常生活中,人工智慧是我們的夥伴,幫助我們決定吃什麼、穿什麼、相信什麼、去哪裡以及如何到達那裡……但這些和其他可能性正在被購買——基本上靜悄悄地進行著—— 通過改變人類與理性和現實的關係。」



 



AI競賽



 



AI已在影響世界政治。由於AI是一種通用賦能技術,其分佈不均勢必會影響全球實力平衡。現階段,雖然機器學習是全球性的,但美國和中國是領先的AI力量。在該領域的七家頂尖全球公司中,三家是美國公司,四家是中國公司。



 



中國國家主席習近平提出到 2030 年中國成為AI領先國家的目標。北京創新工廠的李開複 指出,中國擁有龐大的人口、世界上最大的網路、海量資料資源,而對隱私的關注度又比較低。非常適合發展AI。此外,李開複還認為,與擁有世界一流大學和科學家相比,獲得巨大市場和大量工程師可能更重要。



 



但資料的品質與數量一樣重要,晶片和演算法的品質亦然。在這方面,美國可能領先。 季辛吉、施密特 和哈滕洛赫 認為,由於資料和計算要求限制了更先進的AI的發展,設計使用更少數據和更低計算力的訓練方法是一個關鍵前沿要素。



 



軍備與AI



 



除了經濟競爭,AI還將對軍事競爭和戰爭產生重大影響。用作者的話來說,「將非人類邏輯引入軍事系統將改變戰略。」當具有生成式機器學習的 AI 系統相互部署時,人類可能很難預測它們的交互結果。這意味著速度、效果的廣度以及持久力將尤其可貴。



 



因此,AI將使衝突更加激烈和不可預測。數位網路社會的攻擊面將過於龐大,人類操作員無法手動防禦。選擇和攻擊目標的致命自主武器系統將降低及時人為干預的能力。雖然我們可以實現「消息靈通」或「時刻準備著」,但搶先和草率升級的動機非常強烈。危機管理將變得更加困難。



 



這些風險應該鼓勵政府制定磋商和軍備控制協議;但目前尚不清楚AI軍備控制會是什麼樣子。與龐大、可見、笨重且可數的核武器和常規武器不同,AI賦能的無人機或魚雷群很難發現,引導它們的演算法更加難以捉摸。



 



考慮到民用技術的重要性和普遍性,很難普遍限制AI能力的發展。 儘管如此,仍有可能在軍事定向能力方面有所作為。 美國已經區分了AI賦能武器和自主AI武器。 前者更精確、更致命,但仍受人類控制; 後者可以脫離人類操作員做出致命的決定。 美國表示不會擁有後者。



 



此外,聯合國一直在研究禁止此類武器的新國際條約問題。 但所有國家都會同意嗎? 如何驗證合規性? 鑒於生成式AI的學習能力,武器是否會以逃避約束的方式進化? 無論如何,緩和自動化的措施非常重要。 當然,決不應該允許核武器及其周邊系統的自動化。



 



領導力滯後



 



這部佳作文筆通暢,思想深邃,但我希望作者能帶我們走得更遠,為人類如何控制國內外AI問題提出解決方案。他們指出AI很脆弱,因為它缺乏自我意識。它沒有知覺,也不知道它不知道什麼。儘管它在某些方面有超越人類的才華,但它無法識別和避免對任何孩子都顯而易見的錯誤。諾貝爾文學獎得主石黑一雄在他的小說《克拉拉與太陽》(Klara and the Sun)中精彩地戲劇化了這一點。



 



季辛吉、施密特和哈滕洛赫指出,AI無法自行檢查非常明顯的錯誤,這凸顯出開發測試的重要性,以便人類認清限度、審核待議行動方案,為系統注入AI失敗情況下的韌性。只有在創造者通過測試過程證明其可靠性之後,社會才能允許AI在系統中使用。作者寫道:「為AI開發專業認證、合規監控和監督程式——以及執行所需的審計專業知識——將是一個至關重要的社會工程。」



 



在這方面,監管制度的嚴格程度應取決於活動的風險。相對於像 TikTok 這樣的娛樂平臺,駕駛汽車的AI應該受到更多的監督。



 



作者最後建議成立一個國家委員會,該委員會由來自政府、企業和學術界最高層的受人尊敬的人物組成。它將具有雙重功能,確保國家在AI領域保持智力和戰略競爭力,同時提高全球對該技術的文化影響的認識。說起來很明智,但我希望他們告訴我們更多有關如何實現這些重要目標的資訊。與此同時,他們對那些對人類未來極為重要、將迫使我們重新考慮人類本身的本質問題進行了引人入勝的介紹。



 



(本篇翻譯由PS官方提供,責任編輯:張育軒)



 





 



© Project Syndicate



 



(原標題為《Our AI Odyssey》文章未經授權,請勿任意轉載)



 





 


世代傳媒股份有限公司

信箱:service@upmedia.mg

電話:+886 (2) 2568-3356

傳真:+886 (2) 2568-3826

地址:新北市新店區寶橋路188號8樓

facebook YouTube Instagram Threads
關於我們

世代傳媒股份有限公司

上報UP Media於2016年7月成立。我們集結菁英記者、編輯、專業行銷業務、社群好手,強調多元的原生內容與有趣豐富……

關於我們

探索網站

地址:新北市新店區寶橋路188號8樓

電話:+886 (2) 2568-3356

傳真:+886 (2) 2568-3826

e-mail:service@upmedia.mg

關注我們的報導社群

facebook Youtube Instagram Threads

提供新聞:news@upmedia.mg

投書評論:editor@upmedia.mg

客戶服務:service@upmedia.mg

廣告合作:ad@upmedia.mg

回到最上方