至今,我們已經經歷了多次數字革命,包括圖形界面的出現、互聯網的誕生以及移動互聯網的普及,但沒有一次科技變革像 GPT 模型引發的 AI 浪潮那樣引起如此廣泛的恐慌情緒。
一方面 AI 改變了人們工作和生活的方式,大大提高了效率;另一方面 AI 的運行和發展又充滿不確定性,觸發了人類對于未知事物的天然保護機制——恐懼。
![]()
今天,網絡上一封公開的聯名信爆火,該信呼吁所有的 AI 實驗立即暫停研究比 GPT-4 更先進的 AI 模型,暫停時間至少 6 個月,為的就是把這些可怕的幻想扼殺在搖籃之中。
AI 的進步速度實在過于驚人,但相關的監管、審計手段卻遲遲沒有跟上,這也意味著沒有人能夠保證 AI 工具以及使用 AI 工具的過程中的安全性。
![]()
該聯名信已經獲得了包括 2018 年圖靈獎得主 Yoshua Bengio、馬斯克、史蒂夫 · 沃茲尼亞克、Skype 聯合創始人、Pinterest 聯合創始人、Stability AI CEO 等多位知名人士的簽名支持,截稿前聯名人數已經達到 1125 人。
公開信的原文如下: 人工智能具有與人類競爭的智能,這可能給社會和人類帶來深刻的風險,這已經通過大量研究得到證實,并得到了頂級 AI 實驗室的認可。正如廣泛認可的阿西洛馬爾人工智能原則(Asilomar AI Principles)所指出的,先進的 AI 可能代表地球生命歷史上的重大變革,因此應該以相應的關注和資源進行規劃和管理。
不幸的是,即使在最近幾個月, AI 實驗室在開發和部署越來越強大的數字化思維方面陷入了失控的競爭,而沒有人能夠理解、預測或可靠地控制這些數字化思維,即使是它們的創造者也無法做到這一點。
現代 AI 系統現在已經在通用任務方面具有與人類競爭的能力,我們必須問自己:
- 我們應該讓機器充斥我們的信息渠道,傳播宣傳和謊言嗎?
- 我們應該將所有工作都自動化,包括那些令人滿足的工作嗎?
- 我們應該發展可能最終超過、取代我們的非人類思維嗎?
- 我們應該冒失控文明的風險嗎?
這些決策不應該由非選舉產生的科技領導人來負責。只有當我們確信 AI 系統的影響是積極的,風險是可控的,我們才應該開發強大的 AI 系統。這種信心必須得到充分的理由,并隨著系統潛在影響的增大而增強。OpenAI 最近關于人工智能的聲明指出:「在某個時候,可能需要在開始訓練未來系統之前獲得獨立審查,對于最先進的努力,需要同意限制用于創建新模型的計算增長速度。」我們同意。現在就是那個時刻。
因此,我們呼吁所有 AI 實驗室立即暫停至少 6 個月的時間,不要訓練比 GPT-4 更強大的 AI 系統。這個暫停應該是公開和可驗證的,并包括所有關鍵參與者。如果無法迅速實施這樣的暫停,政府應該介入并實行一個暫禁令。
AI 實驗室和獨立專家應該利用這個暫停時間共同制定和實施一套共享的先進 AI 設計和開發安全協議,這些協議應該由獨立的外部專家嚴格審核和監督。
這些協議應確保遵守它們的系統在合理懷疑范圍之外是安全的。這并不意味著暫停 AI 發展,而只是從不斷邁向更大、不可預測的黑箱模型及其突現能力的危險競賽中退一步。
AI 研究和開發應該重點放在提高現有強大、先進系統的準確性、安全性、可解釋性、透明度、魯棒性、對齊、可信度和忠誠度。
與此同時,AI 開發者必須與政策制定者合作,大力加速 AI 治理體系的發展。這些至少應包括:
- 專門負責 AI 的新的、有能力的監管機構;
- 對高能力 AI 系統和大型計算能力池的監督和跟蹤;
- 用于區分真實與合成內容、跟蹤模型泄漏的溯源和水印系統;
- 健全的審計和認證生態系統;對 AI 造成的損害承擔責任;
- 技術 AI 安全研究的充足公共資金;
- 應對 AI 引起的巨大經濟和政治變革(特別是對民主制度的影響)的資深機構。
人類可以在 AI 的幫助下享受繁榮的未來。在成功創造出強大的 AI 系統之后,我們現在可以享受一個「AI 盛夏」,在其中我們收獲回報,將這些系統明確地用于造福所有人,并讓社會有機會適應。
在面臨可能對社會造成災難性影響的其他技術上,社會已經按下了暫停鍵。在這里,我們也可以這樣做。讓我們享受一個漫長的 AI 盛夏,而不是毫無準備地沖向秋天。 |