|
查看: 101|回复: 0
|
微軟高層證實能把CUDA程式透過即時轉譯直接在AMD晶片上執行
[复制链接]
|
|
|
微軟高層證實,公司已開發出工具,能把CUDA程式透過即時轉譯,直接在AMD晶片上執行,沒錯,概念跟知名的ZLUDA高度類似。
過去20年,NVIDIA透過CUDA建立起強大的軟體生態,想用便宜的AMD晶片?你得重寫所有程式碼。這種鎖定效應讓NVIDIA毛利率高達80%,定價權近乎壟斷。
但成本壓力改變了遊戲規則。當AI進入大規模商業部署,推理成本開始爆發。OpenAI去年推理支出達40億美元,超過訓練的30億,業界預測2030年推理將佔AI工作負載的70%。AMD的MI300X在推理場景每百萬token成本比NVIDIA H100低20到40%,但所有模型都用CUDA開發。微軟的工具打破了這個限制,讓CUDA程式能在AMD上跑,不用重寫程式碼。
法律上這是灰色地帶。NVIDIA使用條款從2021年起明確禁止用轉譯層在非NVIDIA平台執行CUDA程式,但微軟這套工具是內部使用,不對外販售,追究困難。但微軟公開談論他們要這麼做,擺明就是要給NVIDIA難堪。
對AMD來說,這是重大利多。即使ROCm生態不成熟,微軟的工具等於幫AMD打通了CUDA生態的任督二脈。而微軟這麼一搞,Meta等大量採購NV GPU的企業會不會跟著仿照?
微軟的翻譯機不至於終結CUDA霸權,一座牆缺了一角也不會垮,但它證明軟體鎖定再強,面對成本壓力也會出現裂縫。對年燒40億美元推理成本的企業來說,挖牆角的吸引力正在快速上升。
|
|
|
|
|
|
|
|
|
| |
本周最热论坛帖子
|