作者error405 (流河=L)
看板AI_Art
標題[閒聊] 致力做冷門語言的模型TinyAya
時間Wed Feb 18 12:38:29 2026
以下是關於 Cohere Tiny Aya(也稱 TinyAya 或 Tiny Aya 多語言模型家族)的整理資
訊,基於官方公告與相關報導(2026年2月17日發布):
基本概覽
發布單位:Cohere Labs(Cohere 的研究部門),加拿大多倫多 AI 公司 Cohere。
發布日期:2026年2月17日(於 India AI Summit 期間宣布)。
模型定位:目前規模下最強大的開源多語言模型家族,專注於真實世界語言(包括大量低
資源語言),強調本地運行(甚至手機離線運行),解決 AI 英語中心化的問題,讓全球
非英語母語者(約90%人口)更容易使用 AI。
開源許可:Apache 2.0,可自由商用、修改。
模型家族成員與參數規模
Tiny Aya 是一個模型家族,核心基底為 3.35B 參數(約 33.5 億參數),屬輕量級,可在普通筆電、手機等消費級硬體上本地運行。TinyAya-Base:預
訓練基礎模型(pretrained),支援 70+ 種語言。
TinyAya-Global:基於 Base 的指令微調版(instruction-tuned),在 67 種語言上提
供均衡強大表現,適合廣泛多語言應用。
區域專精變體(在 Global 基礎上進一步優化特定區域):TinyAya-Earth:針對非洲與
西亞語言(例如斯瓦希里語、阿姆哈拉語、豪薩語、約魯巴語、祖魯語等)。
TinyAya-Fire:針對南亞語言(例如印地語、孟加拉語、泰米爾語、泰盧固語、旁遮普語
、烏爾都語、古吉拉特語、馬拉地語等)。
TinyAya-Water:針對亞太、西亞與歐洲語言。
未來計畫推出更小的 1B 模型,目標嵌入億級設備(如 Apple Neural Engine、
Qualcomm Snapdragon)。
支持語言
超過 70 種語言,特別重視低資源語言(lower-resourced languages)。
涵蓋範例:英語、西班牙語、法語、德語、阿拉伯語、印地語、泰米爾語、斯瓦希里語、
祖魯語、阿姆哈拉語、爪哇語、越南語、泰語、中文、日韓語等。
廣泛包括非洲、南亞、亞太、歐洲等多區域語言,填補許多主流模型忽略的空白。
性能亮點
在同規模模型中表現 state-of-the-art(最先進)。
多語言理解、翻譯品質、目標語言回應質量都很強。
Tokenizer 優化:減少不同語言結構的 token 斷裂,提升推理效率(更少的 token 就能
表達完整句子)。
基準測試:多語言基準(CommonCrawl、GLUE/XGLUE 等)超越同規模競品 20% 以上。
指令遵循(IFEval)得分達 85%,接近閉源大模型。
訓練資料:數萬億 token 規模的多語言平行語料 + 指令微調 + 自研 RAG 技術(減少幻
覺)。
與其他模型比較
優於 Meta Llama、Mistral Mixtral 等開源模型在低資源語言上的表現
。
相較 OpenAI GPT、Google Gemini 等閉源模型:開源、可本地運行、無需網路、不受
API 限制。
專門解決非英語語言弱勢問題。
使用場景
手機端即時翻譯、本地聊天機器人。
教育(本土語言學習 App)。
醫療(偏遠地區方言健康諮詢)。
電商/客服(多語種自動化)。
農業/社區(非洲鄉村用當地語言解答問題)。
適合開發者做進一步微調、指令調優、邊緣設備部署。
如何獲取與試用
Hugging Face:主要發布平台(搜尋 CohereLabs/tiny-aya 或相關
collection)。集合頁:
https://huggingface.co/collections/CohereLabs/tiny-aya
可直接試玩 demo(如 tiny-aya 空間支援 70+ 語言聊天)。
其他平台:Kaggle、Ollama、Cohere Platform。
技術報告與更多細節:Cohere 官方 blog(cohere.com/blog/cohere-labs-tiny-aya)
與 GitHub tech report。
總結來說,Tiny Aya 是 Cohere Aya 系列(之前有 Aya 23 支援 101 語言)的輕量進化
版,主打「小而強、多語言、本地跑」,非常適合開發者或需要離線、多語支持的實際應
用。如果你想部署在手機或低算力環境,又需要涵蓋非洲/南亞等低資源語言,這系列目
前是開源模型裡的頂尖選擇之一。
--
TinyAya(Cohere 的 3.35B 參數家族)與 Qwen 系列(尤其是 Qwen2.5 / Qwen3 系列的
較小模型,如 0.5B–7B–14B 等)在多語言支援方面的比較,主要可以從以下幾個維度
來看(基於 2026 年 2 月發布後的公開資訊、技術報告、Hugging Face 模型卡、
Artificial Analysis 等第三方評測與社群討論):
1. 語言覆蓋數量與重點區域
TinyAya:官方支援 70+ 種語言,強項在於低資源語言的深度優化。特別強調非洲(Swahili、
Amharic、Hausa、Yoruba、Zulu 等)、南亞(Hindi、Bengali、Tamil、Telugu、
Punjabi、Urdu、Gujarati、Marathi 等)、東南亞/亞太(Indonesian、Javanese、
Vietnamese、Thai、Burmese 等)與部分歐洲/中東語言。
區域變體(Earth/Fire/Water)針對特定低資源區域進一步強化,減少 tokenization 斷
裂,提升這些語言的生成與理解品質。
Qwen 系列(Qwen2.5 / Qwen3 / Qwen3.5):語言覆蓋更廣,最新 Qwen3.5 宣稱支援
200+ 語言與方言(從 119 擴展到 201+),涵蓋英語、中文、法語、西班牙語、阿拉伯
語、日韓、俄語、印尼、越南、泰語等主流語言,也包含南亞、大洋洲、非洲的部分方言
。但 Qwen 的多語言強項主要來自中文 + 英語的極強表現,以及亞洲語言的整體均衡;
低資源語言(如非洲多數語言)的深度不如 TinyAya 專注。
結論:如果你的需求是極端低資源語言(尤其是非洲、南亞鄉村語言),TinyAya 的
區域專精版目前更強;如果需要超廣覆蓋 + 中文極強,Qwen 系列勝出。
2. 同規模下的多語言表現(~3B 級別)
TinyAya(3.35B)在 Cohere 技術報告與 Hugging Face demo
中宣稱:在多語言理解、翻譯、指令遵循基準上,超越同規模開源模型(包括部分
Qwen/Mistral/Phi 小模型)20%+。
特別在低資源語言的生成品質(較少幻覺、較自然)、token 效率(Tokenizer 對非拉丁
語系優化更好,相同意思用更少 token)。
社群(如 Reddit /r/LocalLLaMA)討論指出:TinyAya 在 Swahili、Hausa、Tamil、
Bengali 等語言的實際聊天與翻譯體驗明顯優於同級 Qwen2.5-7B 或 Phi-3-mini。
Qwen 小模型(例如 Qwen2.5-7B / Qwen2.5-1.5B / Qwen3-4B 等):在中文、英語、主
流亞洲語言的基準(如 Global-MMLU-Lite、MT-Bench 多語言版)通常領先 TinyAya。
但在非洲/部分南亞低資源語言上,Qwen 的表現較為「平均」,不如 TinyAya 的專門強
化。
Qwen 的優勢在於整體推理、數學、coding更強,即使在多語言場景下也更均衡(但這也
意味著它不是「純多語言特化」)。
同 3–7B 規模:TinyAya 在低資源語言品質上通常勝出;Qwen 在主流語言 + 整體智
能上更強。
3. 基準測試比較(部分已知數據,2026 年初)
Multilingual Index / Global-MMLU-Lite(Artificial Analysis 等):Qwen3.5 / Qwen2
但小模型(如 Qwen2.5-7B)在 Swahili、Yoruba、Bengali 等語言的分數通常落後
TinyAya-Global / TinyAya-Fire。
翻譯與生成品質(如 FLORES-200 延續或自建低資源測試):TinyAya 家族在低資源語言
的 ChrF++/BLEU 分數與人類偏好評分上領先同規模競品。
Tokenizer 效率:TinyAya 的 tokenizer 對印歐以外語言優化更好,相同 prompt 在
Hindi/Tamil/Swahili 上 token 數明顯少於 Qwen → 推理更快、記憶體更省。
4. 使用場景建議選 TinyAya:需要在手機/邊緣設備離線運行多語言 App(尤其非洲、南
亞語言)。
專注低資源語言的翻譯、聊天、教育、醫療諮詢。
想進一步微調區域語言的垂直應用。
選 Qwen 小模型:需要中文超強 + 多語言均衡(亞洲語言為主)。
應用同時要求較好的數學、coding、邏輯推理能力。
接受稍微更大的模型(7B+)換取整體更強表現。
總結(2026 年 2 月現況):
TinyAya 是目前開源模型中低資源語言特化最強的 3B 級選擇,特別適合非英語/非中文
的全球多數人口場景;
Qwen 系列則是語言覆蓋最廣 + 中文最強的開源家族,在主流語言與綜合能力上更全面,
但低資源語言的「極致表現」不如 TinyAya 的區域專精版。如果你主要服務印度、非洲
、東南亞的本土語言使用者,TinyAya 目前更有優勢;反之若中文或廣泛亞洲語言是核心
,Qwen 仍是首選。 更多精確數字可參考 Cohere 的 Tiny Aya 技術報告 與
Artificial Analysis 的多語言排行榜。
--
以上grok整理
參考:
https://x.com/shao__meng/status/2023790541742456950
https://www.winzheng.com/article/cohere-tiny-aya-multilingual-models
看到新出小模型連gguf檔都給了本想嘗試一下 結果koboldcpp抓不到TinyAya的tag開不了
總之先弄篇筆記放著
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.36.224.81 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/AI_Art/M.1771389514.A.C00.html
推 Vulpix: 還差Wind跟Heart才能召喚超人。 02/18 16:34
※ 編輯: error405 (114.36.224.81 臺灣), 02/18/2026 22:43:11
推 YCL13: 下載global來試日翻中,覺得效果不太好,不太能用 02/18 23:30
→ YCL13: 號稱進行文風調整,實則進行簡略式翻譯,試了幾篇,覺得省 02/18 23:31
→ YCL13: 略到和我理解的原文有不小的差距 02/18 23:31
→ YCL13: 還有就是拿日輕或日本遊戲名字來試翻,有時會自行編故事 02/18 23:33
推 Kroner: 有人用過中醫針灸治療關節痛的嗎?效果如何? 02/18 23:33 → error405: 改用water也許會好點? 02/19 14:09
推 YCL13: 稍微更正一下,指令嚴格一些還是可以用 02/19 14:43