更懂台灣用語!聯發科發表AI語音辨識模型 精準度高於Whisper
聯發科旗下聯發創新基地(MediaTek Research)近日發表一款基於OpenAI Whisper的AI語音辨識開源模型MR Breeze ASR 25,該模型精準度相較OpenAI的Whisper提升近10%、中英語轉換表現增進56%,且更加理解台灣用語和口音,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。
聯發科旗下聯發創新基地(MediaTek Research)近日發表一款基於OpenAI Whisper的AI語音辨識開源模型MR Breeze ASR 25,該模型精準度相較OpenAI的Whisper提升近10%、中英語轉換表現增進56%,且更加理解台灣用語和口音,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。
「MediaTek Research Breeze ASR 25」模型以Apache 2.0條款釋出,是MR Breeze 系列第二代語音辨識開源模型,可以即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。
[caption id="attachment_179990" align="aligncenter" width="1242"]
聯發創新基地發表AI語音辨識開源模型MR Breeze ASR 25,更加理解台灣用語和口音。(圖/截取自開源平台Huggingface)[/caption]
聯發創新基地負責人許大山表示,開源語音辨識模型雖然逐年進步,但是對於在地用語及口音的辨識度仍然不足,像是把「發生什麼事」聽成「花生什麼事」。
有鑑於語音辨識是AI應用的關鍵啟動功能,這一次特別釋出「聽得懂在地語言」的ASR模型MR Breeze ASR 25,精準度相較於OpenAI的Whisper提升近10%、中英語轉換表現則增進56%,並積極推進繁體中文AI的創新,以及模型於地端及裝置端的使用。
許大山指出,該模型有利於促進百工百業在各類創意AI領域應用,企業可以自由商用,目標是降低繁體中文AI開發門檻,協助智慧裝置、客服系統、醫療紀錄等應用場景加速普及。
據了解,聯發創新基地自 2025 年起,已經陸續開源全套繁體中文AI模型,包含整合視覺功能的語言模型(Visual Large Language Models,V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech,TTS),以及能調用外部資訊的函式呼叫(Function Calling)模型。
這篇文章 更懂台灣用語!聯發科發表AI語音辨識模型 精準度高於Whisper 最早出現於 科技島-掌握科技新聞、科技職場最新資訊。
最新科技新聞
-
-
FUN暑假 布袋戲棚首度搬進燦坤3C家電
(18 小時前) -
連天王周杰倫也愛的乾淨呵護完美兼顧 飛利浦全新 XP9000 系列旗艦奢享智能電鬍刀 主打「淨護一體不妥協」
(18 小時前) -
2025 重車展盛大開幕 光陽新任董座柯俊斌首度現身震撼登場
(18 小時前) -
AWS台北區域驅動產業升級 用生成式AI代理強化金融、醫療等企業數位韌性
(22 小時前)