臺北市
20°
( 21° / 19° )
氣象
2025-04-28 | Knowing新聞

主打1.2兆參數+Hybrid MoE 3.0架構!DeepSeek R2有可能超越ChatGPT嗎?

主打1.2兆參數+Hybrid MoE 3.0架構!DeepSeek R2有可能超越ChatGPT嗎?

(取自Deepseek官網)


Deepseek在今年1月發布並開源Deepseek-R1模型,該模型在數學、程式碼、自然語言推理等任務上,效能與OpenAI o1正式版相當,所以當其上架時,一度超越ChatGPT成為美區iOS應用程式商店中免費應用程式榜首,並導致NVIDIA股價大跌18%。


而近日傳出,DeepSeek有可能在最近推出全新大模型DeepSeek R2,主打1.2兆參數與自主研發的Hybrid MoE 3.0架構,並且使用華為高階AI處理器昇騰910B訓練而成,有望在大模型領域帶來新的突破。


若DeepSeek R2真的擁有1.2兆參數的規模,在數量上就超越了ChatGPT-4約1兆的參數,再加上自主研發的Hybrid MoE 3.0,訓練品質夠高的話,理論上是有潛力達到或超越GPT-4的水準。


此外,採用華為昇騰910B晶片作為主要運行平台,也代表了中國在AI基礎設施自主化的努力。


不過DeepSeek R2想超越ChatGPT還有一些關鍵困難點,包括要看DeepSeek R2是否擁有夠多且夠好的語料庫、足夠優秀的訓練方法,以及對其人類價值的能力。而且OpenAI經過多年打磨,包括ChatGPT的產品體驗、外掛程式系統、API服務、企業部署都已經相當成熟,DeepSeek即使模型本身很強,也還是需要時間去補齊這些周邊問題。


另外,ChatGPT已經建立起龐大的生態系統,包括豐富的第三方應用與開發者社群,在這一方面,DeepSeek R2還需要時間來建立類似的生態。


至於DeepSeek R2問世後,是否有機會能夠超越ChatGPT,目前仍然需要等待其正式發表後的實際評測結果。

Google新聞-PChome Online新聞

最新科技新聞

延伸閱讀