【李開復專訪】人工智能給人類4大危機 最恐怖的是自主殺人

·5 分鐘文章
人工智能專家李開復在接受Yahoo財經訪問時,解釋了人工智能的四大危險,包括外部性、個人數據風險、無法解釋選擇的原因和戰爭。其中,最可怕的是人工智能成為一種自主武器,可以透過面部識別或細胞訊號鎖定目標進行暗殺。(資料圖片:Getty Images)
人工智能專家李開復在接受Yahoo財經訪問時,解釋了人工智能的四大危險,包括外部性、個人數據風險、無法解釋選擇的原因和戰爭。其中,最可怕的是人工智能成為一種自主武器,可以透過面部識別或細胞訊號鎖定目標進行暗殺。(資料圖片:Getty Images)

加州參議院上周提出一項法案,該法案將迫使Amazon(AMZN)披露其在倉庫使用的生產力測量演算法(productivity-tracking algorithm)背後的細節;與此同時,Facebook(FB)本周因《華爾街日報》的一篇報道而受到批評,該報道發現Facebook知道其Instagram 動態消息會讓一些十幾歲的女孩自我感覺更糟。

下載Yahoo財經APP

美股、外匯、加密貨幣免費即時報價,自選投資組合獲取相關新聞提示。

這些發展並不一定是針對大型科技公司,而是對其演算法的強烈反對,後者使用人工智能(AI)來調整個別用戶或員工的表現。

在一次新的採訪中,曾在Google(GOOG, GOOGL)、Apple(AAPL)和Microsoft(MSFT)出任管理層的人工智能專家李開復(Kai Fu Lee)解釋了急速發展的人工智能科技的四大危險:外部性(externalities)、個人數據風險、無法解釋選擇原因和戰爭。

「最大的危險是自主武器,」他說。

「那是可以訓練人工智能殺人的時候,更具體地說,是可以訓練人工智能進行暗殺的時候,」李開復補充說,他亦是新書”AI 2041: Ten Visions for Our Future”的合著者。「試想像,一架無人機可以自己飛行,通過面部識別或細胞訊號或其他方式尋找特定的人。」

「它改變了未來的戰爭」

對自主武器的禁令得到了30個國家的支持,儘管由美國國會委託進行的一份深入報告建議美國反對這項禁令,因為這可能防止該國使用一些已經擁有的武器。

2015年,Tesla(TSLA)行政總裁Elon Musk和Apple共同創辦人Steve Wozniak等科技界知名人士,以及數千名人工智能研究人員簽署了一封公開信,呼籲禁止此類武器。

李開復說,自主武器將改變戰爭,因為它們的可負擔性和準確性將使其更容易造成破壞,而且幾乎不可能確定誰犯了罪。

「我認為這會改變未來恐怖主義的發展,因為恐怖分子不再可能因做壞事而喪生,」他說。「它還允許一個恐怖組織使用1萬架這種無人機來進行像種族滅絕一樣可怕的事情。」

「它改變了未來的戰爭,」他補充道。「我們需要弄清楚如何禁止或監管它。」

李開復認為,自主武器將改變戰爭,因為它們的可負擔性和準確性將使其更容易造成破壞,而且幾乎不可能確定誰犯了罪。(資料圖片:REUTERS)
李開復認為,自主武器將改變戰爭,因為它們的可負擔性和準確性將使其更容易造成破壞,而且幾乎不可能確定誰犯了罪。(資料圖片:REUTERS)

李開復說,人工智能帶來的第二個重大風險是,當人工智能專注於單一目標而忽略了其他問題時,或會產生意想不到的負面後果。

「當人工智能被告知要做某件事時,外部性就會發生。它非常擅長做那件事,以至於忘記 - 或者實際上忽略了 - 其他可能導致的負面影響,」他說。

「所以,當YouTube不斷向我們發送我們最有可能點擊的影片時,它不僅不是隨機,還可能向我們發送非常負面或非常片面的觀點,」他補充道。

根據《華爾街日報》的一份報告顯示,2019年Facebook的內部研究發現,Instagram讓三分之一本身有形象問題的少女情況變得更加嚴重,Instagram的動態消息可能存在這種風險。

據《華爾街日報》報道,Facebook的內部報告發現,青少年將焦慮和抑鬱的增加歸因於Instagram。兩名研究人員告訴《華爾街日報》說,Facebook正在測試一種方法,詢問用戶是否需要離開Instagram休息一下。研究人員還指出,他們的一些研究涉及少數用戶,在某些情况下,研究結果的因果關係尚不清楚。

李開復在Carnegie Mellon University攻讀博士學位時,協助開發語音辨識和自動語音技術,此後幾十年來一直是人工智能發展的中心。

自2009年以來,他一直擔任創新工場(Sinovation Ventures)的行政總裁。Sinovation Ventures是一家專注於科技發展的中國創投公司,管理著超過25億美元的資產。

在接受Yahoo財經訪問時,李開復列舉了最後一組人工智能風險,就是個人數據易受攻擊,以及無法解釋科技所作出的重大決定。

他說,人工智能所作出的決定,在生死攸關的情況下尤其重要,例如一個被稱為「電車難題 」(Trolley Problem)的思想實驗,在這個實驗中,決策者必須選擇是否讓一輛失控的電車改變方向,以避免造成多人死亡,在另一軌道上則有較少的人。

「人工智能可以向我們解釋為甚麼它會作出這樣的決定嗎?」他說。「尤其是在自動駕駛汽車、電車難題、醫療決策、手術等四個關鍵方面。」

「這個問題是嚴重的,」他補充道。

撰文:Max Zahn和Andy Serwer

內容譯自Yahoo財經

延伸閱讀:

橋水創始人聲稱「現金就是垃圾」 加密貨幣值得投資

「元宇宙」觸動中央神經 到底是甚麼概念?

我們致力為用戶建立安全而有趣的平台,讓他們與志同道合的用戶聯繫交流。為改善我們的社群體驗,我們暫時停用文章留言功能