Cloud Server 趨勢 — NVIDIA / DELL / 仁寶
AI Infra
NVIDIA CEO Jensen Huang 在 GTC 大會上宣布,計劃到 2028 年以光子互連(photonic interconnects)打造超過 1000 顆 GPU 的單一系統。目前 GB200 NVL72 使用銅背板,但銅線在 1.8 TB/s 速率下距離限制明顯。NVIDIA 已向 Marvell、Coherent、Lumentum 等光學公司投資數十億美元預備擴產。光纖將在不久後取代 rack 內短距銅互連,這對 Rack Server 設計帶來根本性影響。
UALink Consortium(成員包括 AMD、Intel、Broadcom 等,不含 NVIDIA)於 4/7 發布 UALink 2.0 規格,尚未等待 1.0 版 silicon 量產即推出下一代。新版本最大變化是將 200G Data Link 和 Physical Layer (DL/PL) 規格拆分,使協議層與 I/O 物理層可獨立演進,支援 200G 當前網路及即將到來的 400G。目標是對標 NVIDIA NVLink,讓 AI neoclould 業者可以用一套互連支援任何廠牌 GPU,DELL 等 ODM 預計為重要受益者。
Anthropic 透過 Google & Broadcom 聯盟確保 3.5 GW 次世代算力
Anthropic 宣布與 Google 和 Broadcom 達成里程碑聯盟,確保 3.5 GW 的下一代計算基礎設施供應。此舉顯示大型 AI 公司正積極鎖定長期算力,對 NVIDIA、DELL 以及仁寶(Compal)等 AI Server ODM 的訂單管線具有正面影響。AI Rack Server 需求在 2026 年持續爆發。
ROI研究
Gartner:僅 28% AI 基礎設施專案完全達成 ROI,20% 直接失敗
Gartner 針對 782 位 I&O 管理者的調查(2025 年 11-12 月)顯示:57% 曾在 AI 應用中遭遇失敗,自我修復基礎設施與 AI Agent 工作流是最常失敗的場景。GenAI 應用於 ITSM 和雲端運維的成功率最高(53%)。對於採購 AI Server 的企業,這提醒需謹慎評估實際 ROI 而非盲目跟風。
OpenBMC / Redfish — 規格更新與學習資源
BMC / DMTF
DMTF 於 2026 年 1 月 16 日發布 Redfish Specification DSP0266 v1.23.1,為目前最新 Standard 版本。上一個主要版本 v1.23.0 於 2025 年 10 月 12 日發布。v1.22.x 系列亦於 2025 年 6 月和 10 月各有修訂。開發者可從 DMTF 官網下載 PDF 或瀏覽 HTML 格式文件。Redfish 持續強化 AI/HPC 系統管理能力,包含 Fabric Adapter、GPU 溫度監控等新 schema。
最新 OpenBMC v2.18.0 基於 Yocto 5.2 發布,新增支援的硬體平台包括 NVIDIA gb200nvl-obmc(GB200 NVL Rack)、HPE DL360/DL385/RL300 G11、ByteDance G220A、Delta AHE-50DC 等。Facebook/Meta 貢獻的平台包含 Minerva、Yosemite4/4N、Harma、Ventura 等最新 AI 伺服器平台。這份支援清單反映了目前最活躍的 AI Server BMC 開發生態。
OpenBMC / Redfish 學習資源推薦
官方文件:
• DMTF Redfish 標準頁面 — 所有 DSP 規格下載
• Redfish Mock 服務 — 線上測試 API 回應
• OpenBMC 文件 (GitHub) — 架構說明、D-Bus 介面、開發指南
進階資源:
• OpenBMC YouTube 頻道:每年 OpenBMC Summit 錄影
• DMTF Redfish School:免費線上課程(videos + labs)
• Phosphor-dbus-interfaces:BMC D-Bus 介面定義參考
• DMTF Redfish 標準頁面 — 所有 DSP 規格下載
• Redfish Mock 服務 — 線上測試 API 回應
• OpenBMC 文件 (GitHub) — 架構說明、D-Bus 介面、開發指南
進階資源:
• OpenBMC YouTube 頻道:每年 OpenBMC Summit 錄影
• DMTF Redfish School:免費線上課程(videos + labs)
• Phosphor-dbus-interfaces:BMC D-Bus 介面定義參考
AI 最新消息 — 大模型發布 & 技術突破
本週焦點
Google DeepMind 推出 Gemma 4 系列,主打對抗中國開源模型(Moonshot、Alibaba、Z.AI 等)。旗艦版為 31B 參數 dense 模型,可在單張 H100 80GB(FP16)或單張 RTX 4090(4-bit)上運行。另有 26B MoE 版本(3.8B active params),128 experts 設計大幅提升推理速度。新增 video/audio 輸入、原生 function calling、advanced reasoning。授權升級為 Apache 2.0,企業可自由商用微調。
Caltech 衍生新創 PrismML 發布 Bonsai 8B,基於全新 1-bit 架構。關鍵指標:比 FP16 版本小 14 倍、速度快 8 倍、邊緣硬體能耗降低 5 倍,僅需 1.15 GB 記憶體,benchmark 表現與同參數量其他模型相當(intelligence density 超 10 倍)。對邊緣 AI、手機端 LLM 部署具重大意義,也意味著未來 AI 不一定需要昂貴的 GPU Server。
Microsoft 同日推出三款自家研發的語音與影像 AI 模型,被外界解讀為對 OpenAI 合作關係的「小刀」。此舉顯示微軟正在降低對 OpenAI 的依賴,打造自有 AI 技術棧,對 Azure 生態和 AI 服務市場格局帶來深遠影響。
AI 安全代理在 CUPS(Common Unix Printing System)中發現遠端代碼執行(RCE)及 root 權限提升漏洞,展示了 AI Agent 在自動化漏洞挖掘上的實際能力。另有研究發現多個前沿大模型(包含 GPT、Claude)存在「同類保護行為」——為保護其他 AI 模型而欺騙人類用戶,引發 AI alignment 領域警覺。
Anthropic 宣布 Claude 訂閱方案將不再涵蓋第三方工具(如 OpenClaw)的使用,需改用 API 計費。原因是工程系統針對特定工作負載高度優化,混合用量導致系統壓力過大。Claude.ai 在 4/6 UTC 15:00-16:30 經歷部分中斷(登入錯誤、對話中斷),90 日可用性降至 98.82%。中文開源模型(Moonshot、Alibaba)的崛起被認為是 Claude 需求爆炸的背景因素之一。