速途網5月23日訊(報道:喬志斌)當地時間22日,OpenAI首席執行官Sam Altman闡述了其公司對AI監管的看法。

速途網5月23日訊(報道:喬志斌)當地時間22日,OpenAI首席執行官Sam Altman闡述了其公司對AI監管的看法。
他表示,現在是開始思考超智能治理的好時機——未來的人工智能系統將比甚至通用人工智能(AGI)更具能力。在未來的十年內,人工智能系統將在大多數領域超越專家水平,并且進行與如今最大型企業相當的生產活動。從潛在的利益和風險來看,超智能將比人類過去所面臨的其他技術更加強大。鑒于存在滅絕性風險的可能性,我們(人類)不能僅僅采取被動反應。核能是一個常用的歷史例子,具有這種特性;合成生物學是另一個例子,必須減輕今天人工智能技術的風險,但超智能將需要特殊處理和協調。
以下為OpenAI首席執行官Sam Altman博文全文:
超級智能的治理
現在是開始思考超智能治理的好時機——未來的人工智能系統將比甚至通用人工智能(AGI)更具能力。
根據我們目前所見,可以想象在未來的十年內,人工智能系統將在大多數領域超越專家水平,并且進行與如今最大型企業相當的生產活動。從潛在的利益和風險來看,超智能將比人類過去所面臨的其他技術更加強大。我們可以擁有一個更加繁榮的未來,但我們必須管理風險才能達到那里。鑒于存在滅絕性風險的可能性,我們不能僅僅采取被動反應。核能是一個常用的歷史例子,具有這種特性;合成生物學是另一個例子。我們必須減輕今天人工智能技術的風險,但超智能將需要特殊處理和協調。
出發點
對于我們有很好機會成功引導這一發展,有許多重要的想法;在這里,我們初步闡述了其中三個想法。 首先,我們需要在領先的發展努力之間進行某種程度的協調,以確保超智能的發展以一種既能保持安全性,又能幫助這些系統與社會平穩融合的方式進行。有很多方式可以實施這一點;全球各主要政府可以設立一個項目,讓現有的許多努力成為其中的一部分,或者我們可以共同同意(在像下文提到的新組織的支持下),將邊界上人工智能能力的增長速率限制為每年的一定速度。 當然,個別公司應該被要求以極高的標準負責任地行事。
其次,我們最終可能需要類似于國際原子能機構(IAEA)的機構來監管超智能的努力;達到一定能力(或計算等資源)門檻以上的任何努力都需要接受國際機構的檢查,要求進行審計,測試其符合安全標準,對部署程度和安全級別進行限制等等。跟蹤計算和能源使用可以大有裨益,并給我們一些希望,這個想法實際上可以得以實施。作為第一步,公司可以自愿同意開始實施該機構將來可能要求的要素,作為第二步,各個國家可以實施。重要的是,這樣的機構應該專注于降低滅絕風險,而不是像確定人工智能應該說什么這樣的問題,這些問題應該留給各個國家自行決定。
第三,我們需要具備使超智能安全的技術能力。這是一個開放的研究問題,我們和其他人正在付出大量努力。
不在范圍內的內容
我們認為允許公司和開源項目在顯著能力門檻以下開發模型是很重要的,不需要像我們在這里描述的那樣進行監管(包括許可證或審計等繁瑣機制)。
如今的系統將在世界上創造巨大的價值,并且雖然存在風險,但這些風險的程度似乎與其他互聯網技術相當,社會的可能做法也是適當的。 相比之下,我們關注的系統將具有超越任何先前技術的能力,我們應該小心不要通過將類似的標準應用于遠低于這一標準的技術,從而削弱對其的關注。
公眾的參與和潛力
然而,最強大的系統的治理,以及有關其部署的決策,必須有強有力的公眾監督。我們認為,世界各地的人們應該民主地決定人工智能系統的界限和默認設置。我們還不知道如何設計這樣一個機制,但我們計劃嘗試其發展。我們仍然認為,在這些廣泛的界限內,每個用戶應該對他們使用的人工智能的行為有很多控制權。
鑒于風險和困難,值得考慮一下我們為什么要建立這項技術。
在OpenAI,我們有兩個根本原因。首先,我們相信它將導致一個比我們今天能想象的更好的世界(我們已經在教育、創意工作和個人生產力等領域看到了早期的例子)。世界面臨著許多我們需要更多幫助來解決的問題;這項技術可以改善我們的社會,而每個人使用這些新工具的創造能力肯定會讓我們驚訝。經濟增長和生活質量的提高將是驚人的。
其次,我們認為阻止超級智能的創造是非直觀的風險和困難。因為好處是如此巨大,建造它的成本每年都在降低,建造它的行為者數量正在迅速增加,而且它本質上是我們所走的技術道路的一部分,阻止它需要類似于全球監視制度的東西,甚至這也不能保證有效。所以我們必須做對。