IT之家今日(7月24日),OpenAI首席執行官山姆・阿爾特曼(Sam Altman)本周二在 X 平台發布推文,表示在新一輪內部架構重組中,負責 AI 安全的主管亞歷山大・馬德裡(AleksanderMadry)調崗,並將其重新分配到一個專注於人工智慧推理的職位。
阿爾特曼在推文中表示:“Aleksander 正在從事一個新的、非常重要的研究項目”。
阿爾特曼補充表示,OpenAI 高層華金・基諾內羅・坎德拉(JoaquinQuinonero Candela)和莉莉安・翁(Lilian Weng)將在此期間接管 Preparedness 團隊。
OpenAI 安全團隊簡介
IT之家注:OpenAI 公司信任和安全部門主管戴夫・威爾納(DaveWillner)於 2023 年 7 月離職之後,公司於同年 10 月將該部門拆分為 3 個團隊:
安全系統(Safety Systems)團隊:專注於高級人工智慧模型和人工通用智能的安全部署,專注於減少對當前模型和產品(如 ChatGPT)的濫用。
超級對齊(Superalignment)團隊:為該公司(希望)在更遙遠的未來擁有的超級智能模型的安全性奠定基礎
Preparedness 團隊:負責繪製前沿模型的新風險,並對前沿模型進行安全評估,評估和減輕與人工智慧相關的“災難性風險”。
Aleksander 簡介
該團隊此前由 Aleksander 領導,幫助跟蹤、評估、預測和防範由人工智慧模型帶來的災難性風險,負責繪製前沿模型的新風險,並對前沿模型進行安全評估。
Aleksander 還是麻省理工學院可部署機器學習中心(Center for Deployable Machine Learning)的主任和麻省理工學院人工智慧政策論壇(MIT AI Policy Forum)的教員聯合負責人。
OpenAI 官方表示 Aleksander 在新職位上仍將從事核心的人工智慧安全工作。