外媒引述消息報導,在團隊兩位重要領導人離職後,OpenAI已經解散致力於管控人工智慧(AI)長期風險、成立不到一年的Superalignment團隊。這使得OpenAI如何全力推進AI技術同時控管風險的議題再度浮上檯面。
知情人士表示,OpenAI已解散該團隊,部分成員將被分配到公司其他單位。
OpenAI共同創辦人蘇茲克佛(Ilya Sutskever)與機器學習研究員雷克(Jan Leike)14日相繼宣布離開OpenAI。兩人負責領導Superalignment團隊。
OpenAI去年7月宣布成立Superalignment,該團隊將專注於「科學與技術突破,以引導與控制比人類更聰明的AI系統」。OpenAI當時承諾,未來四年內將投入20%運算能力至該計畫。
但消息人士透露,該團隊的資源請求經常遭到OpenAI拒絕,導致該團隊難以做事。
儘管Superalignment成功發表一系列安全研究成果,但隨著新產品發布占用公司愈來愈多心力,該團隊認為自己必須爭取到更多資源。
雷克17日在X社交平台上表示:「我加入OpenAI,是因為我認為這間公司是進行這類研究的最佳地點。但我與OpenAI高層對於公司優先要務的想法分歧已有一段時日,目前已到達臨界點。」
雷克認為,公司應將更多資源分配給AI安全、監控、準備與社會衝擊。OpenAI必須成為一家「安全第一的AGI(通用AI)公司」。
他表示:「建造比人類更聰明的機器是一項危險工作,但過去幾年以來,安全文化與流程的重要性遠不如新穎產品。」
蘇茲克佛更是OpenAI去年宮鬥的主角之一。他與OpenAI舊董事會成員當時解除執行長奧特曼職務。這場人事鬥爭的根本原因是,蘇茲克佛與奧特曼對於AI發展抱持不同看法,前者認為應確保AI不會傷害人類,後者則致力於推動新技術。