聯發科技集團轄下的前瞻技術研究單位聯發創新基地(MediaTek Research)發布基於 OpenAI Whisper 的 AI 語音辨識開源模型 MediaTek Research Breeze ASR 25,並已於 HuggingFace 上架。
MediaTek Research Breeze ASR 25 相較於 OpenAI Whisper,更加理解台灣用語及口音,同時,在台灣常見的中、英混合的用語情境上,也達到更高的精準度。此外,模型以 Apache 2.0 條款釋出,以利促進百工百業在各類創意 AI 領域應用。
聯發創新基地自 2025 起已陸續開源全套繁體中文 AI 模型,包含整合視覺功能的語言模型(Visual Large Language Models,V-LLM)、針對台灣口音調整的文字轉語音模型(Text to Speech,TTS)、以及能調用外部資訊的函式呼叫(Function Calling)模型。此次釋出的 MR Breeze ASR 25 為 MR Breeze 系列第二代語音辨識開源模型,能即時將語音轉為文字,並透過強化台灣語料及台灣口音,來符合本土應用需求。
聯發創新基地負責人許大山博士表示,開源語音辨識模型雖逐年進步,但對於在地用語及口音的辨識度仍顯不足,例如把「發生什麼事」聽成「花生什麼事」。
有鑑於語音辨識是 AI 應用的關鍵啟動功能,此次特別釋出「聽得懂在地語言」的 ASR 模型 MR Breeze ASR 25,其精準度相較於 OpenAI 的 Whisper 提升近 10%、中英語轉換表現(Code-switching)則增進 56%。藉此,聯發創新基地能以完整的繁體中文 AI 模型,積極推進繁體中文 AI 的創新並普及模型於地端及裝置端的使用。