$MU(美光)推出了一款專為 AI 數據中心設計的 256GB 內存模塊,能夠為大語言模型(LLM)提供更快的響應速度,同時相比傳統內存具備顯著更高的能效。 隨著人工智能從訓練階段(training)逐步轉向推理階段(inference),CPU 內存正成為新的性能瓶頸。