image
20240520鄭勝得/綜合外電報導

OpenAI解散風險管控團隊

成立不到一年,兩位重要領導人離職

 外媒引述消息報導,在團隊兩位重要領導人離職後,OpenAI已經解散致力於管控人工智慧(AI)長期風險、成立不到一年的Superalignment團隊。這使得OpenAI如何全力推進AI技術同時控管風險的議題再度浮上檯面。

 知情人士表示,OpenAI已解散該團隊,部分成員將被分配到公司其他單位。

 OpenAI共同創辦人蘇茲克佛(Ilya Sutskever)與機器學習研究員雷克(Jan Leike)14日相繼宣布離開OpenAI。兩人負責領導Superalignment團隊。

 OpenAI去年7月宣布成立Superalignment,該團隊將專注於「科學與技術突破,以引導與控制比人類更聰明的AI系統」。OpenAI當時承諾,未來四年內將投入20%運算能力至該計畫。

 但消息人士透露,該團隊的資源請求經常遭到OpenAI拒絕,導致該團隊難以做事。

 儘管Superalignment成功發表一系列安全研究成果,但隨著新產品發布占用公司愈來愈多心力,該團隊認為自己必須爭取到更多資源。

 雷克17日在X社交平台上表示:「我加入OpenAI,是因為我認為這間公司是進行這類研究的最佳地點。但我與OpenAI高層對於公司優先要務的想法分歧已有一段時日,目前已到達臨界點。」

 雷克認為,公司應將更多資源分配給AI安全、監控、準備與社會衝擊。OpenAI必須成為一家「安全第一的AGI(通用AI)公司」。

 他表示:「建造比人類更聰明的機器是一項危險工作,但過去幾年以來,安全文化與流程的重要性遠不如新穎產品。」

 蘇茲克佛更是OpenAI去年宮鬥的主角之一。他與OpenAI舊董事會成員當時解除執行長奧特曼職務。這場人事鬥爭的根本原因是,蘇茲克佛與奧特曼對於AI發展抱持不同看法,前者認為應確保AI不會傷害人類,後者則致力於推動新技術。