AI風險控管團隊「成立不到1年就解散」 多數成員已從OpenAI離職
(圖/達志/美聯社)
在生成式人工智慧問世之後,市場上一直有「AI即將取代人類」的說法,為此,OpenAI曾於2023年7月宣布成立「Superalignment」團體,要開發出一套媲美人類智慧的AI,用這套AI來管理其他AI。但如今有消息指出,這個團隊成立至今不到1年,目前已經宣布解散,當中除了少部分成員會被分到其他部門外,大部分成員都已經從OpenAI離職,當中也包含了Superalignment的2名主管。
據了解,Superalignment這個計畫是於2023年7月時啟動,當時是由OpenAI共同創辦人Ilya Sutskever與負責AI機器學習的專家Jan Leike所領導。
這個計畫目標是要開發出一套媲美人類智慧水平的AI模型,接著透過大量的計算,讓其計算結果與人類的想法、利益一致,進而透過這套AI模型來管理其他AI模型。在計畫運作之初,OpenAI就承諾會在未來的4年內,將公司的20%算力用來投入這項企畫中。
但目前卻有消息指出,Superalignment不僅已經宣布解散,Ilya Sutskever與Jan Leike等2名主管也從OpenAI離職,2人也在社群網站上發文證實此事件。
後續,Jan Leike又在社群網站上發文,透露更多離職的原因,Jan Leike在文章中寫著「我加入OpenAI,是因為我認為這間公司式進行這項研究的最佳地點。但過去相當長一段時間告訴我,我與OpenAI的領導層有對於公司核心項目的想法有著明顯的分歧,目前已經達到臨界點」。
Jan Leike甚至後續也寫著,他認為目前應該要對下一代的AI模型做好準備,尤其在涉及安全、監控、準備、穩健性、一致姓、保密性等等問題,都要想辦法解決。而時至今日,Jan Leike不覺得公司已經走上解決問題的道路上。
目前也有消息人士表示,目前OpenAI的確解散了「Superalignment」團隊,當中除了部分成員會轉移到OpenAI其他部門外,其中大多數的成員已經從OpenAI離職了。