IT 之家 10 月 18 日消息,南華早報今天(10 月 18 日)發布博文,報道稱在韓國首爾舉辦的第 31 屆操作系統原理研討會(SOSP)上,阿里云發布的 "Aegaeon" 的計算池化解決方案研究成果成功入選,可解決 AI 模型服務中普遍存在的 GPU 資源浪費問題。
IT 之家查詢公開資料,SOSP 是計算機操作系統領域的頂尖會議,相當于計算機操作系統界的 " 奧斯卡 ",其錄取率控制非常嚴格,平均每年收錄的論文數量僅有數十篇,入選論文代表了操作系統和軟件領域最具代表的研究成果。
博文稱云服務商當前在提供 AI 模型服務時,面臨著嚴重的資源效率低下問題。平臺需要同時托管數千個 AI 模型以處理海量并發 API 調用,但用戶請求往往高度集中在少數幾個熱門模型上,例如阿里巴巴的 Qwen 系列模型。
研究人員發現,這種 " 長尾效應 " 導致了嚴重的資源閑置:在阿里云的模型市場中,竟有 17.7% 的 GPU 算力僅被用于處理 1.35% 的請求,造成了巨大的成本浪費。
為解決這一痛點,Aegaeon 系統應運而生。它通過創新的 GPU 資源池化技術,允許單個 GPU 動態服務于多個不同的 AI 模型,打破了以往 GPU 與特定模型綁定的低效模式。


值得一提的是,阿里云首席技術官周靖人也是該論文的作者之一。周靖人是國際電氣與電子工程師協會會士(IEEE Fellow),國際計算機協會會士(ACM Fellow),阿里巴巴集團副總裁,阿里云智能 CTO、達摩院副院長。