Connect with us

同路點評

馬斯克領銜呼籲立刻停下所有大型AI研究

3月22日,生命未來研究所(Future of Life)向全社會發佈了一封《暫停大型人工智能研究》的公開信,呼籲所有人工智能實驗室立即暫停比GPT-4更強大的人工智能係統的訓練,暫停時間至少為6個月。該機構以「引導變革性技術造福生活,遠離極端的大規模風險」為使命。

該機構在信中提到:

我們不應該冒著失去對文明控制的風險,將決定委託給未經選舉的技術領袖。只有當確保強大的人工智能係統的效果是積極的,其風險是可控的才能繼續開發。

人工智能實驗室和獨立專家應在暫停期間,共同製定和實施一套先進的人工智能設計和開發的共享安全協議,由獨立的外部專家進行嚴格的審查和監督。

截止目前,馬斯克、蘋果聯合創始人Steve Wozniak、Stability AI 創始人Emad Mostaque等上千名科技大佬和AI專家已經簽署公開信。

值得一提的是,OpenAI CEO奧特曼在與MIT研究科學家Lex Fridman的最新對話中指出,AI已經出現其無法解釋的推理能力,同時承認「AI殺死人類」有一定可能性。

同路點評:

現在,人工智能在一般任務上變得與人類有競爭力,我們必須問自己:我們應該讓機器在信息渠道中宣傳不真實的信息嗎?我們是否應該把所有的工作都自動化,包括那些有成就感的工作?我們是否應該開發非人類的大腦,使其最終超過人類數量,勝過人類的智慧,淘汰並取代人類?我們是否應該冒著失去對我們文明控制的風險?這樣的決定絕不能委託給未經選舉的技術領袖。只有當我們確信強大的人工智能係統的效果是積極的,其風險是可控的,才應該開發。同時,這種信心必須得到驗證,並隨著系統的潛在影響的大小而加強。

Continue Reading