mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 09:37:28 +00:00
* ✨ feat: support to show working dir
* fix style
* update docs
* update topic
* refactor to use chat config
* inject working Directory
* update i18n
* fix tests
660 lines
132 KiB
JSON
660 lines
132 KiB
JSON
{
|
||
"01-ai/yi-1.5-34b-chat.description": "01.AI 最新開源微調模型,擁有 340 億參數,支援多種對話場景,訓練於高品質資料,並對齊人類偏好。",
|
||
"01-ai/yi-1.5-9b-chat.description": "01.AI 最新開源微調模型,擁有 90 億參數,支援多種對話場景,訓練於高品質資料,並對齊人類偏好。",
|
||
"360/deepseek-r1.description": "360 部署的 DeepSeek-R1 在後訓練階段應用大規模強化學習,僅需極少標註資料即可大幅提升推理能力,在數學、程式碼與自然語言推理任務上與 OpenAI o1 表現相當。",
|
||
"360gpt-pro-trans.description": "專為翻譯任務設計的模型,經深度微調以實現領先的翻譯品質。",
|
||
"360gpt-pro.description": "360GPT Pro 是 360 AI 的核心模型,具備高效文本處理能力,適用於多樣化 NLP 應用場景,支援長文本理解與多輪對話。",
|
||
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K 著重語義安全與內容責任,適用於敏感應用場景,確保準確且穩健的使用者體驗。",
|
||
"360gpt-turbo.description": "360GPT Turbo 具備強大運算與對話能力,語義理解與生成效率優異,適合企業與開發者使用。",
|
||
"360gpt2-o1.description": "360gpt2-o1 結合樹狀搜尋與反思機制,透過強化學習訓練建立思維鏈,實現自我反思與修正能力。",
|
||
"360gpt2-pro.description": "360GPT2 Pro 是 360 推出的進階 NLP 模型,擅長創意生成與文本理解,能處理複雜轉換與角色扮演任務。",
|
||
"360zhinao2-o1.description": "360zhinao2-o1 結合樹狀搜尋與反思機制,透過強化學習訓練建立思維鏈,實現自我反思與修正能力。",
|
||
"4.0Ultra.description": "Spark Ultra 為 Spark 系列中最強大的模型,提升文本理解與摘要能力,並升級網頁搜尋功能。為提升職場效率與準確回應的全方位解決方案,定位為領先的智慧產品。",
|
||
"AnimeSharp.description": "AnimeSharp(又名「4x-AnimeSharp」)是由 Kim2091 基於 ESRGAN 開發的開源超解析度模型,專注於動畫風格圖像的放大與銳化。原名為「4x-TextSharpV1」,於 2022 年 2 月更名,雖最初也支援文字圖像,但已針對動畫內容進行深度優化。",
|
||
"Baichuan2-Turbo.description": "透過搜尋增強技術,將模型與領域知識與網路資訊連結。支援 PDF/Word 上傳與網址輸入,實現即時、全面的檢索與專業、準確的輸出。",
|
||
"Baichuan3-Turbo-128k.description": "具備 128K 超長上下文視窗,針對高頻企業場景進行優化,帶來顯著效能提升。相較於 Baichuan2,內容創作提升 20%,知識問答提升 17%,角色扮演提升 40%。整體表現優於 GPT-3.5。",
|
||
"Baichuan3-Turbo.description": "針對高頻企業場景進行優化,帶來顯著效能提升。相較於 Baichuan2,內容創作提升 20%,知識問答提升 17%,角色扮演提升 40%。整體表現優於 GPT-3.5。",
|
||
"Baichuan4-Air.description": "中國表現最強的模型之一,在知識問答、長文本處理與創意生成等中文任務上超越多個海外主流模型。具備業界領先的多模態能力,在權威基準測試中表現優異。",
|
||
"Baichuan4-Turbo.description": "中國表現最強的模型之一,在知識問答、長文本處理與創意生成等中文任務上超越多個海外主流模型。具備業界領先的多模態能力,在權威基準測試中表現優異。",
|
||
"Baichuan4.description": "國內頂尖表現,在百科知識、長文本處理與創意生成等中文任務上超越主流海外模型。亦具備業界領先的多模態能力與強勁的基準測試成績。",
|
||
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS 是字節跳動 Seed 團隊推出的開源 LLM 系列,具備強大的長上下文處理、推理、代理與通用能力。Seed-OSS-36B-Instruct 是一款 360 億參數的指令微調模型,原生支援超長上下文,適用於處理大型文件或程式碼庫。針對推理、程式碼生成與代理任務(工具使用)進行優化,同時保有強大的通用能力。其關鍵特性為「思考預算」,可靈活調整推理長度以提升效率。",
|
||
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1 是 DeepSeek 系列中更大更智慧的模型,已蒸餾至 Llama 70B 架構。基準測試與人工評估顯示其在數學與事實精確任務上優於原始 Llama 70B。",
|
||
"DeepSeek-R1-Distill-Qwen-1.5B.description": "基於 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸餾模型。透過強化學習與冷啟動資料優化推理表現,為開源模型樹立多任務新基準。",
|
||
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 模型是從開源模型出發,使用 DeepSeek-R1 生成的樣本資料進行微調。",
|
||
"DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill 模型是從開源模型出發,使用 DeepSeek-R1 生成的樣本資料進行微調。",
|
||
"DeepSeek-R1-Distill-Qwen-7B.description": "基於 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸餾模型。透過強化學習與冷啟動資料優化推理表現,為開源模型樹立多任務新基準。",
|
||
"DeepSeek-R1.description": "DeepSeek-R1 在後訓練階段應用大規模強化學習,僅需極少標註資料即可大幅提升推理能力,在數學、程式碼與自然語言推理任務上與 OpenAI o1 生產模型表現相當。",
|
||
"DeepSeek-V3-1.description": "DeepSeek V3.1 是新一代推理模型,強化複雜推理與思維鏈能力,適用於深度分析任務。",
|
||
"DeepSeek-V3-Fast.description": "提供者:sophnet。DeepSeek V3 Fast 是 DeepSeek V3 0324 的高 TPS 版本,為全精度(非量化)模型,具備更強的程式碼與數學能力,回應速度更快。",
|
||
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast 是 DeepSeek V3.1 的高 TPS 快速版本。混合思維模式:透過對話模板,一個模型支援思考與非思考模式。工具使用更智慧:後訓練提升工具與代理任務表現。",
|
||
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 思考模式:新型混合推理模型,具備思考與非思考模式,效率優於 DeepSeek-R1-0528。後訓練優化顯著提升代理工具使用與任務表現。",
|
||
"DeepSeek-V3.description": "DeepSeek-V3 是 DeepSeek 開發的 MoE 模型,在多項基準測試中超越 Qwen2.5-72B 與 Llama-3.1-405B 等開源模型,並與 GPT-4o、Claude 3.5 Sonnet 等主流封閉模型競爭。",
|
||
"Doubao-lite-128k.description": "Doubao-lite 提供超快速回應與更高性價比,適用於多種場景,支援 128K 上下文推理與微調。",
|
||
"Doubao-lite-32k.description": "Doubao-lite 提供超快速回應與更高性價比,適用於多種場景,支援 32K 上下文推理與微調。",
|
||
"Doubao-lite-4k.description": "Doubao-lite 提供超快速回應與更高性價比,適用於多種場景,支援 4K 上下文推理與微調。",
|
||
"Doubao-pro-128k.description": "旗艦級最佳表現模型,擅長參考問答、摘要、創作、分類與角色扮演。支援 128K 上下文推理與微調。",
|
||
"Doubao-pro-32k.description": "旗艦級最佳表現模型,擅長參考問答、摘要、創作、分類與角色扮演。支援 32K 上下文推理與微調。",
|
||
"Doubao-pro-4k.description": "旗艦級最佳表現模型,擅長參考問答、摘要、創作、分類與角色扮演。支援 4K 上下文推理與微調。",
|
||
"DreamO.description": "DreamO 是由字節跳動與北京大學聯合開發的開源圖像定制模型,採用統一架構支援多任務圖像生成。透過高效組合建模,根據使用者指定的身份、主題、風格、背景等條件生成高度一致的定制圖像。",
|
||
"ERNIE-3.5-128K.description": "百度旗艦級大模型,訓練於大規模中英文語料,具備強大通用能力,支援對話、創作與插件使用;可自動整合百度搜尋插件以提供即時答案。",
|
||
"ERNIE-3.5-8K-Preview.description": "百度旗艦級大模型,訓練於大規模中英文語料,具備強大通用能力,支援對話、創作與插件使用;可自動整合百度搜尋插件以提供即時答案。",
|
||
"ERNIE-3.5-8K.description": "百度旗艦級大模型,訓練於大規模中英文語料,具備強大通用能力,支援對話、創作與插件使用;可自動整合百度搜尋插件以提供即時答案。",
|
||
"ERNIE-4.0-8K-Latest.description": "百度旗艦級超大模型,全面升級自 ERNIE 3.5,適用於跨領域複雜任務;支援百度搜尋插件整合以提供即時答案。",
|
||
"ERNIE-4.0-8K-Preview.description": "百度旗艦級超大模型,全面升級自 ERNIE 3.5,適用於跨領域複雜任務;支援百度搜尋插件整合以提供即時答案。",
|
||
"ERNIE-4.0-Turbo-8K-Latest.description": "百度旗艦級超大模型,整體表現強勁,適用於複雜任務,支援百度搜尋插件整合以提供即時答案。表現優於 ERNIE 4.0。",
|
||
"ERNIE-4.0-Turbo-8K-Preview.description": "百度旗艦級超大模型,整體表現強勁,適用於複雜任務,支援百度搜尋插件整合以提供即時答案。表現優於 ERNIE 4.0。",
|
||
"ERNIE-Character-8K.description": "百度面向遊戲 NPC、客服與角色扮演的垂直領域大模型,具備更清晰的人設一致性、更強的指令遵循能力與推理能力。",
|
||
"ERNIE-Lite-Pro-128K.description": "百度輕量級大模型,在品質與推理效能間取得平衡,優於 ERNIE Lite,適用於低算力加速器。",
|
||
"ERNIE-Speed-128K.description": "百度最新高效能大模型(2024),具備強大通用能力,適合作為微調基礎模型,推理表現優異。",
|
||
"ERNIE-Speed-Pro-128K.description": "百度最新高效能大模型(2024),具備強大通用能力,優於 ERNIE Speed,適合作為微調基礎模型,推理表現優異。",
|
||
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
|
||
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev 是來自 Black Forest Labs 的多模態圖像生成與編輯模型,基於 Rectified Flow Transformer 架構,擁有 120 億參數。該模型專注於在特定語境條件下生成、重建、增強或編輯圖像。它結合了擴散模型的可控生成能力與 Transformer 的語境建模能力,支援高品質的圖像修補、擴圖與視覺場景重建等任務。",
|
||
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [專業版]",
|
||
"FLUX.1-dev.description": "FLUX.1-dev 是來自 Black Forest Labs 的開源多模態語言模型(MLLM),針對圖文任務進行優化,結合圖像與文字的理解與生成能力。該模型基於先進的大型語言模型(如 Mistral-7B),搭配精心設計的視覺編碼器與多階段指令微調,實現多模態協同與複雜任務推理。",
|
||
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L2(13B)是一款創新模型,適用於多領域與複雜任務。",
|
||
"HelloMeme.description": "HelloMeme 是一款 AI 工具,可根據您提供的圖像或動作生成迷因、GIF 或短影片。無需繪圖或程式設計技能,只需一張參考圖像,即可創作出有趣、吸睛且風格一致的內容。",
|
||
"HiDream-I1-Full.description": "HiDream-E1-Full 是來自 HiDream.ai 的開源多模態圖像編輯模型,基於先進的 Diffusion Transformer 架構與強大的語言理解能力(內建 LLaMA 3.1-8B-Instruct)。支援自然語言驅動的圖像生成、風格轉換、局部編輯與重繪,具備優異的圖文理解與執行能力。",
|
||
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled 是一款經過蒸餾優化的輕量級文字轉圖像模型,可快速生成高品質圖像,特別適合資源有限的環境與即時生成場景。",
|
||
"InstantCharacter.description": "InstantCharacter 是騰訊 AI 於 2025 年推出的免微調個人化角色生成模型,致力於高保真、跨場景一致的角色建模。它可從單張參考圖像建構角色,並靈活轉換風格、動作與背景。",
|
||
"InternVL2-8B.description": "InternVL2-8B 是一款強大的視覺語言模型,支援多模態圖文處理,能準確識別圖像內容並生成相關描述或回答。",
|
||
"InternVL2.5-26B.description": "InternVL2.5-26B 是一款強大的視覺語言模型,支援多模態圖文處理,能準確識別圖像內容並生成相關描述或回答。",
|
||
"Kolors.description": "Kolors 是由快手 Kolors 團隊開發的文字轉圖像模型。該模型擁有數十億參數,在視覺品質、中文語義理解與文字渲染方面具有顯著優勢。",
|
||
"Kwai-Kolors/Kolors.description": "Kolors 是快手 Kolors 團隊推出的大型潛變分布式文字轉圖像模型。訓練資料涵蓋數十億組圖文對,在視覺品質、複雜語義準確性與中英文文字渲染方面表現出色,具備強大的中文內容理解與生成能力。",
|
||
"Kwaipilot/KAT-Dev.description": "KAT-Dev(32B)是開源的 32B 軟體工程任務模型,在 SWE-Bench Verified 測試中達到 62.4% 解題率,於開源模型中排名第五。透過中期訓練、SFT 與強化學習優化,支援程式補全、錯誤修復與程式碼審查。",
|
||
"Llama-3.2-11B-Vision-Instruct.description": "具備高解析度圖像的強大圖像推理能力,適用於視覺理解應用。",
|
||
"Llama-3.2-90B-Vision-Instruct\t.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
||
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B 是一款多功能 Transformer 模型,適用於對話與生成任務。",
|
||
"Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 是針對多語言對話優化的指令微調文字模型,在開源與封閉聊天模型中於多項業界基準測試中表現優異。",
|
||
"Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 是針對多語言對話優化的指令微調文字模型,在開源與封閉聊天模型中於多項業界基準測試中表現優異。",
|
||
"Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 是針對多語言對話優化的指令微調文字模型,在開源與封閉聊天模型中於多項業界基準測試中表現優異。",
|
||
"Meta-Llama-3.2-1B-Instruct.description": "前沿的小型語言模型,具備強大的語言理解、優異的推理與文字生成能力。",
|
||
"Meta-Llama-3.2-3B-Instruct.description": "前沿的小型語言模型,具備強大的語言理解、優異的推理與文字生成能力。",
|
||
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本實現接近 405B 的效能。基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。指令微調版本針對多語言對話進行優化,在多項業界基準測試中超越許多開源與封閉聊天模型。知識截止時間:2023 年 12 月。",
|
||
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,具備高效專家啟用機制,展現強大的推理效能。",
|
||
"MiniMax-M1.description": "一款內部開發的推理模型,具備 80K 思路鏈與 100 萬輸入,效能媲美全球頂尖模型。",
|
||
"MiniMax-M2-Stable.description": "專為高效編碼與代理流程設計,具備更高併發能力,適用於商業應用。",
|
||
"MiniMax-M2.1-Lightning.description": "強大的多語言編程能力,全面升級編程體驗。更快、更高效。",
|
||
"MiniMax-M2.1.description": "強大的多語言編程能力,全面升級編程體驗",
|
||
"MiniMax-M2.description": "專為高效編碼與智能代理工作流程打造",
|
||
"MiniMax-Text-01.description": "MiniMax-01 採用超越傳統 Transformer 的大規模線性注意力機制,擁有 4560 億參數,每次啟用 459 億,支援最多 400 萬字元上下文(為 GPT-4o 的 32 倍,Claude-3.5-Sonnet 的 20 倍),效能頂尖。",
|
||
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款開源權重的大型混合注意力推理模型,總參數 4560 億,每個 token 啟用約 459 億。原生支援 100 萬上下文,使用 Flash Attention 技術,在 10 萬 token 生成任務中比 DeepSeek R1 減少 75% FLOPs。採用 MoE 架構、CISPO 與混合注意力強化學習訓練,在長輸入推理與真實軟體工程任務中表現領先。",
|
||
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定義代理效率。這是一款緊湊、快速、具成本效益的 MoE 模型,總參數 2300 億,啟用參數僅 100 億,專為頂級編碼與代理任務設計,同時保有強大的通用智能。即使僅啟用 100 億參數,其效能仍可媲美更大型模型,適合高效率應用場景。",
|
||
"Moonshot-Kimi-K2-Instruct.description": "總參數 1 兆,啟用 320 億。在非思考模型中於前沿知識、數學與編碼方面表現頂尖,並在通用代理任務中更為強大。針對代理工作負載進行優化,具備行動能力而非僅能回答問題。作為一款反射級模型,特別適合即興對話、通用聊天與代理體驗。",
|
||
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO(46.7B)是一款高精度指令模型,適用於複雜計算任務。",
|
||
"OmniConsistency.description": "OmniConsistency 透過引入大規模的擴散式 Transformer(DiTs)與配對風格化資料,提升圖像轉圖像任務中的風格一致性與泛化能力,避免風格退化問題。",
|
||
"Phi-3-medium-128k-instruct.description": "與 Phi-3-medium 相同的模型,具備更大的上下文視窗,適用於 RAG 或少量示例提示。",
|
||
"Phi-3-medium-4k-instruct.description": "一個擁有 140 億參數的模型,品質優於 Phi-3-mini,專注於高品質、需推理的資料。",
|
||
"Phi-3-mini-128k-instruct.description": "與 Phi-3-mini 相同的模型,具備更大的上下文視窗,適用於 RAG 或少量示例提示。",
|
||
"Phi-3-mini-4k-instruct.description": "Phi-3 系列中最小的成員,針對品質與低延遲進行最佳化。",
|
||
"Phi-3-small-128k-instruct.description": "與 Phi-3-small 相同的模型,具備更大的上下文視窗,適用於 RAG 或少量示例提示。",
|
||
"Phi-3-small-8k-instruct.description": "一個擁有 70 億參數的模型,品質優於 Phi-3-mini,專注於高品質、需推理的資料。",
|
||
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
|
||
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
|
||
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 億參數指令微調大型語言模型。它採用 Transformer 架構,結合 SwiGLU、注意力 QKV 偏置與分組查詢注意力機制,能處理大規模輸入內容。該模型在語言理解、生成、多語言任務、程式碼、數學與推理等方面表現優異,超越多數開源模型,並可與商業模型競爭。在多項基準測試中表現優於 Qwen1.5-7B-Chat。",
|
||
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里雲最新大型語言模型系列的一部分。此 70 億參數模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並加強了指令遵循、結構化資料理解與結構化輸出(特別是 JSON)能力。",
|
||
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里雲最新專注於程式碼的語言模型。基於 Qwen2.5 架構並訓練於 5.5 兆詞元上,顯著提升了程式碼生成、推理與修復能力,同時保有數學與通用能力,為開發智能程式代理提供堅實基礎。",
|
||
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL 是 Qwen 團隊推出的新一代視覺語言模型,具備強大的視覺理解能力。它能分析圖像中的文字、圖表與版面配置,理解長影片與事件,支援推理與工具使用、多格式物件定位與結構化輸出。透過動態解析度與影格率訓練,提升了影片理解能力,並強化視覺編碼器效率。",
|
||
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking 是由智譜 AI 與清華大學知識工程實驗室共同開源的視覺語言模型,專為複雜多模態認知設計。基於 GLM-4-9B-0414 架構,加入了思維鏈推理與強化學習,顯著提升跨模態推理能力與穩定性。",
|
||
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat 是智譜 AI 開源的 GLM-4 模型,於語意、數學、推理、程式碼與知識等方面表現出色。除多輪對話外,還支援網頁瀏覽、程式執行、自定義工具調用與長文本推理。支援 26 種語言(包括中文、英文、日文、韓文、德文),在 AlignBench-v2、MT-Bench、MMLU 與 C-Eval 等基準測試中表現優異,並支援最多 128K 上下文,適用於學術與商業場景。",
|
||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B 是從 Qwen2.5-Math-7B 蒸餾而來,並在 80 萬條精選 DeepSeek-R1 數據上微調。其表現優異,在 MATH-500 上達到 92.8%、AIME 2024 為 55.5%,CodeForces 評分為 1189,為 7B 模型中的佼佼者。",
|
||
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 是一款以強化學習驅動的推理模型,能減少重複並提升可讀性。透過在強化學習前使用冷啟動資料,進一步增強推理能力,在數學、程式與推理任務上與 OpenAI-o1 表現相當,並透過精心訓練提升整體表現。",
|
||
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus 是 V3.1 版本的更新模型,定位為混合代理型大型語言模型。修復了用戶回報的問題,提升穩定性與語言一致性,減少中英混雜與異常字符。整合思考與非思考模式,並提供聊天模板以靈活切換。強化了程式代理與搜尋代理的表現,提升工具使用與多步任務的可靠性。",
|
||
"Pro/deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的實驗版本,為下一代架構鋪路。在 V3.1-Terminus 基礎上加入 DeepSeek 稀疏注意力(DSA),提升長上下文訓練與推理效率,並針對工具使用、長文檔理解與多步推理進行優化。非常適合探索在大上下文預算下的高效推理能力。",
|
||
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一款擁有 6710 億參數的 MoE 模型,採用 MLA 與 DeepSeekMoE 架構,並透過無損負載平衡實現高效推理與訓練。預訓練於 14.8 兆高品質詞元上,並經過 SFT 與強化學習微調,表現超越其他開源模型,接近領先的封閉模型。",
|
||
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 是最新且最強大的 Kimi K2 模型。這是一款頂級的 MoE 模型,總參數達 1 兆,啟用參數為 320 億。其主要特點包括更強的代理式程式設計智能,在基準測試與真實世界代理任務中表現大幅提升,並且前端程式碼的美學與可用性也獲得顯著改善。",
|
||
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo 是 K2 Thinking 的 Turbo 變體,針對推理速度與吞吐量進行優化,同時保留多步推理與工具使用能力。這是一款 MoE 模型,總參數約為 1 兆,原生支援 256K 上下文,並具備穩定的大規模工具調用能力,適用於對延遲與併發有嚴格要求的生產場景。",
|
||
"Pro/zai-org/glm-4.7.description": "GLM-4.7 是智譜推出的新一代旗艦模型,總參數量達 355B,激活參數量為 32B,在通用對話、推理與智能體能力方面全面升級。GLM-4.7 強化了交錯思考(Interleaved Thinking),並引入保留思考(Preserved Thinking)與輪級思考(Turn-level Thinking),在多輪對話與複雜任務中展現更高效的推理與決策能力。",
|
||
"QwQ-32B-Preview.description": "Qwen QwQ 是一個實驗性研究模型,專注於提升推理能力。",
|
||
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview 是來自 Qwen 的研究模型,專注於視覺推理,擅長複雜場景理解與視覺數學問題。",
|
||
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ 是一個實驗性研究模型,致力於提升 AI 推理能力。",
|
||
"Qwen/QwQ-32B.description": "QwQ 是 Qwen 系列中的推理模型。與標準的指令微調模型相比,它加入了思考與推理機制,顯著提升下游任務表現,特別是在困難問題上。QwQ-32B 是一款中型推理模型,具備與 DeepSeek-R1 和 o1-mini 等頂尖推理模型競爭的能力。其架構採用 RoPE、SwiGLU、RMSNorm 和注意力 QKV 偏置,擁有 64 層與 40 個 Q 注意力頭(GQA 中為 8 個 KV)。",
|
||
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 是 Qwen 團隊推出的最新圖像編輯版本。基於 20B 參數的 Qwen-Image 模型,該版本將強大的文字渲染能力擴展至圖像編輯,實現精準的文字修改。其採用雙重控制架構,將輸入分別送至 Qwen2.5-VL 進行語義控制,以及 VAE 編碼器進行外觀控制,實現語義與外觀層級的編輯。支援局部編輯(新增/刪除/修改)與高階語義編輯,如 IP 創作與風格轉換,同時保留語義一致性。該模型在多項基準測試中達到 SOTA 表現。",
|
||
"Qwen/Qwen-Image.description": "Qwen-Image 是 Qwen 團隊推出的 20B 參數圖像生成基礎模型,在複雜文字渲染與精準圖像編輯方面取得重大突破,特別擅長中英文高保真文字處理。支援多行與段落排版,保持排版一致性。除文字渲染外,還支援從寫實風格到動漫風格的多樣圖像風格,以及進階編輯功能,如風格轉換、物件新增/刪除、細節增強、文字編輯與姿勢控制,致力於成為全面的視覺創作基礎模型。",
|
||
"Qwen/Qwen2-72B-Instruct.description": "Qwen 2 Instruct(72B)針對企業級工作負載提供精準的指令遵循能力。",
|
||
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的 7B 指令微調模型,採用 Transformer、SwiGLU、QKV 偏置與分組查詢注意力架構。能處理大規模輸入,在理解、生成、多語言、程式碼、數學與推理基準測試中表現優異,超越多數開源模型,並在多項評估中勝過 Qwen1.5-7B-Chat。",
|
||
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL 是最新的 Qwen-VL 模型,在 MathVista、DocVQA、RealWorldQA 與 MTVQA 等視覺基準測試中達到 SOTA 表現。可理解超過 20 分鐘的影片,支援影片問答、對話與內容創作。具備複雜推理與決策能力,能與裝置/機器人整合進行視覺驅動操作。除中英文外,還能辨識多種語言文字,包括大多數歐洲語言、日語、韓語、阿拉伯語與越南語。",
|
||
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct 是阿里雲最新 LLM 系列的一部分。此 14B 模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並強化指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct 是阿里雲最新 LLM 系列的一部分。此 32B 模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並強化指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct 是阿里雲最新 LLM 系列的一部分。此 72B 模型提升了程式碼與數學能力,支援最多 128K 輸入與超過 8K 輸出,涵蓋 29+ 種語言,並強化指令遵循與結構化輸出(特別是 JSON)。",
|
||
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 是一個針對指令型任務優化的新 LLM 系列。",
|
||
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct 是阿里雲最新 LLM 系列的一部分。此 72B 模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並強化指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 是一個針對指令型任務優化的新 LLM 系列。",
|
||
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里雲最新 LLM 系列的一部分。此 7B 模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並強化指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct 是阿里雲最新專注於程式碼的 LLM。基於 Qwen2.5 並使用 5.5T token 訓練,顯著提升程式碼生成、推理與修復能力,同時保有數學與通用能力,為程式代理提供強大基礎。",
|
||
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里雲最新專注於程式碼的 LLM。基於 Qwen2.5 並使用 5.5T token 訓練,顯著提升程式碼生成、推理與修復能力,同時保有數學與通用能力,為程式代理提供穩固基礎。",
|
||
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct 是 Qwen 團隊推出的多模態模型。能辨識常見物體並分析文字、圖表、圖示、圖形與版面配置。作為視覺代理,可進行推理並動態控制工具,包括電腦與手機操作。能精準定位物體並為發票與表格生成結構化輸出。相較於 Qwen2-VL,強化了數學與問題解決能力,回應更符合人類偏好。",
|
||
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL 是 Qwen2.5 系列中的視覺語言模型,進行重大升級:加強物體、文字、圖表與版面配置的視覺理解;作為視覺代理進行動態工具使用;理解超過 1 小時的影片並捕捉關鍵事件;透過框選或點選精準定位物體;為掃描資料如發票與表格生成結構化輸出。",
|
||
"Qwen/Qwen3-14B.description": "Qwen3 是新一代通義千問模型,在推理、通用能力、代理能力與多語言表現方面取得重大突破,並支援思維模式切換。",
|
||
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 是 Qwen3 MoE 系列的旗艦模型,總參數量為 235B,啟用參數為 22B。此版本為更新後的非思考模式,專注於提升指令遵循、邏輯推理、文本理解、數學、科學、程式編寫與工具使用能力。它亦擴展了多語言長尾知識,並更好地對齊使用者在主觀開放任務上的偏好。",
|
||
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 是 Qwen3 系列中專注於高難度複雜推理的模型。採用 MoE 架構,總參數為 235B,每個 token 啟用約 22B 參數以提升效率。作為專用思考模型,在邏輯、數學、科學、程式編寫與學術基準測試中表現卓越,達到頂尖開放式思考水準。它同時提升了指令遵循、工具使用與文本生成能力,並原生支援 256K 上下文長度,適用於深度推理與長文處理。",
|
||
"Qwen/Qwen3-235B-A22B.description": "Qwen3 是新一代通義千問模型,在推理能力、通用能力、智能體能力與多語言表現方面有重大突破,並支援思考模式切換。",
|
||
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 的更新版非思考模型。採用 MoE 架構,總參數為 30.5B,啟用參數為 3.3B。顯著提升了指令遵循、邏輯推理、文本理解、數學、科學、程式編寫與工具使用能力,擴展多語言長尾知識,並更好地對齊使用者在主觀開放任務上的偏好。支援 256K 上下文長度。此模型僅支援非思考模式,不會輸出 `<think></think>` 標籤。",
|
||
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 是 Qwen3 系列中最新的思考模型。採用 MoE 架構,總參數為 30.5B,啟用參數為 3.3B,專注於處理複雜任務。在邏輯、數學、科學、程式編寫與學術基準測試中表現顯著提升,並改善了指令遵循、工具使用、文本生成與偏好對齊能力。原生支援 256K 上下文,並可擴展至 1M token。此版本設計為思考模式,具備詳細的逐步推理與強大的智能體能力。",
|
||
"Qwen/Qwen3-30B-A3B.description": "Qwen3 是新一代通義千問模型,在推理能力、通用能力、智能體能力與多語言表現方面有重大突破,並支援思考模式切換。",
|
||
"Qwen/Qwen3-32B.description": "Qwen3 是新一代通義千問模型,在推理能力、通用能力、智能體能力與多語言表現方面有重大突破,並支援思考模式切換。",
|
||
"Qwen/Qwen3-8B.description": "Qwen3 是新一代通義千問模型,在推理能力、通用能力、智能體能力與多語言表現方面有重大突破,並支援思考模式切換。",
|
||
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct 是 Qwen 團隊推出的 Qwen3 程式模型。此模型在提升程式能力的同時,兼顧高效能與運行效率。其在智能體程式編寫、自動化瀏覽器操作與工具使用方面,在開源模型中表現出色。原生支援 256K 上下文,並可擴展至 1M token,適用於程式庫層級理解。支援 Qwen Code 與 CLINE 等平台上的智能體程式編寫,並採用專用函式呼叫格式。",
|
||
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct 是阿里巴巴目前最具智能體能力的程式模型。採用 MoE 架構,總參數為 480B,啟用參數為 35B,兼顧效能與效率。原生支援 256K 上下文,並可透過 YaRN 擴展至 1M token,能處理大型程式碼庫。專為智能體程式編寫流程設計,能與工具與環境互動以解決複雜程式任務。在程式與智能體基準測試中達到開源模型頂尖水準,媲美 Claude Sonnet 4。",
|
||
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct 是採用 Qwen3-Next 架構的新一代基礎模型,具備極致的訓練與推理效率。結合混合注意力機制(Gated DeltaNet + Gated Attention)、高度稀疏的 MoE 架構與訓練穩定性優化。雖總參數為 80B,但推理時僅啟用約 3B 參數,計算成本大幅降低,並在超過 32K 上下文下達到 Qwen3-32B 的 10 倍以上吞吐量。此指令微調版本針對通用任務(不支援思考模式),在部分基準測試中表現可與 Qwen3-235B 相媲美,並在超長上下文任務中展現強大優勢。",
|
||
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking 是專為複雜推理設計的新一代基礎模型。採用 Qwen3-Next 架構,結合混合注意力(Gated DeltaNet + Gated Attention)與高度稀疏的 MoE 架構,實現極致的訓練與推理效率。雖總參數為 80B,但推理時僅啟用約 3B 參數,計算成本大幅降低,並在超過 32K 上下文下達到 Qwen3-32B 的 10 倍以上吞吐量。此思考版本針對多步驟任務,如證明、程式合成、邏輯分析與規劃,輸出結構化的思考鏈。其表現超越 Qwen3-32B-Thinking,並在多項基準測試中勝過 Gemini-2.5-Flash-Thinking。",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner 是 Qwen3 系列的視覺語言模型(VLM),專為高品質、細緻且準確的圖像描述而設計。採用 30B 參數的 MoE 架構,能深入理解圖像並生成流暢描述,擅長細節捕捉、場景理解、物體辨識與關係推理。",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct 是 Qwen3 系列的 MoE 模型,總參數為 30B,啟用參數為 3B,具備高效能與低推理成本。訓練於高品質多來源多語言資料,支援全模態輸入(文字、圖像、音訊、影片)與跨模態理解與生成。",
|
||
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking 是 Qwen3-Omni 的核心「思考者」組件。可處理多模態輸入(文字、音訊、圖像、影片),並執行複雜的思考鏈推理,將輸入統一為共享表示以實現深度跨模態理解。採用 MoE 架構,總參數為 30B,啟用參數為 3B,兼顧強大推理能力與運算效率。",
|
||
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct 是基於 MoE 架構的大型指令微調視覺語言模型,具備卓越的多模態理解與生成能力。原生支援 256K 上下文,適用於高併發生產級多模態服務。",
|
||
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 的旗艦思考版本,針對複雜多模態推理、長上下文推理與企業場景中的智能體互動進行優化。",
|
||
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct 是指令微調的 Qwen3-VL 模型,具備強大的視覺語言理解與生成能力。原生支援 256K 上下文,適用於多模態對話與圖像條件生成。",
|
||
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking 是 Qwen3-VL 的推理增強版本,針對多模態推理、圖像轉程式碼與複雜視覺理解進行優化。支援 256K 上下文,具備更強的思考鏈能力。",
|
||
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct 是 Qwen 團隊推出的視覺語言模型,在多項 VL 基準測試中取得領先成績。支援百萬像素解析度圖像,具備強大的視覺理解、多語言 OCR、細粒度視覺定位與視覺對話能力。可處理複雜多模態任務,並支援工具呼叫與前綴補全。",
|
||
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking 專為複雜視覺推理優化。內建思考模式,在回答前生成中間推理步驟,提升多步邏輯、規劃與複雜推理能力。支援百萬像素圖像、強視覺理解、多語言 OCR、細粒度定位、視覺對話、工具呼叫與前綴補全。",
|
||
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct 是基於 Qwen3-8B-Instruct 的視覺語言模型,訓練於大量圖文資料。擅長通用視覺理解、以視覺為中心的對話與圖像中的多語言文字辨識,適用於視覺問答、圖說、多模態指令遵循與工具使用。",
|
||
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking 是 Qwen3 的視覺思考版本,針對複雜多步推理進行優化。在回答前生成思考鏈以提升準確性,適用於深度視覺問答與細緻圖像分析。",
|
||
"Qwen2-72B-Instruct.description": "Qwen2 是最新的 Qwen 系列,支援 128K 上下文視窗。與當前最佳開源模型相比,Qwen2-72B 在自然語言理解、知識、程式碼、數學與多語言能力方面顯著超越主流模型。",
|
||
"Qwen2-7B-Instruct.description": "Qwen2 是最新的 Qwen 系列,在同級與更大模型中表現優異。Qwen2 7B 在多項基準測試中展現顯著優勢,特別是在程式碼與中文理解方面。",
|
||
"Qwen2-VL-72B.description": "Qwen2-VL-72B 是一款強大的視覺語言模型,支援多模態圖文處理,能準確識別圖像內容並生成相關描述或答案。",
|
||
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct 是一款擁有 14B 參數的大型語言模型,針對中文與多語言場景進行優化,支援智慧問答與內容生成。",
|
||
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct 是一款擁有 32B 參數的語言模型,具備平衡的效能,針對中文與多語言場景進行優化,支援智慧問答與內容生成。",
|
||
"Qwen2.5-72B-Instruct.description": "支援中英文的語言模型,針對語言、程式碼、數學與推理進行微調。",
|
||
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是一款擁有 7B 參數的語言模型,支援函式呼叫與無縫整合外部系統,大幅提升靈活性與擴展性。針對中文與多語言場景進行優化,支援智慧問答與內容生成。",
|
||
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct 是一款大型預訓練程式指令模型,具備強大的程式理解與生成能力。能高效處理各類程式任務,適用於智慧編碼、自動腳本生成與程式問答。",
|
||
"Qwen2.5-Coder-32B-Instruct.description": "進階語言模型,支援多種程式語言的程式碼生成、推理與錯誤修復。",
|
||
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 針對高階推理與指令遵循進行最佳化,採用 MoE 架構以在大規模下保持推理效率。",
|
||
"Qwen3-235B.description": "Qwen3-235B-A22B 是一款 MoE 模型,導入混合推理模式,讓使用者能在思考與非思考之間無縫切換。它支援 119 種語言與方言的理解與推理,具備強大的工具調用能力,在通用能力、程式碼與數學、多語言能力與知識推理等基準測試中,與 DeepSeek R1、OpenAI o1、o3-mini、Grok 3 和 Google Gemini 2.5 Pro 等主流模型競爭。",
|
||
"Qwen3-32B.description": "Qwen3-32B 是一款密集模型,導入混合推理模式,讓使用者能在思考與非思考之間切換。透過架構改進、更多資料與更佳訓練,其表現與 Qwen2.5-72B 相當。",
|
||
"SenseChat-128K.description": "Base V4,支援 128K 上下文,擅長長文本理解與生成。",
|
||
"SenseChat-32K.description": "Base V4,支援 32K 上下文,靈活應用於多種場景。",
|
||
"SenseChat-5-1202.description": "基於 V5.5 的最新版本,在中英文基礎能力、對話、STEM 知識、人文知識、寫作、數學/邏輯與長度控制方面有顯著提升。",
|
||
"SenseChat-5-Cantonese.description": "專為香港對話習慣、俚語與在地知識設計;在粵語理解上超越 GPT-4,並在知識、推理、數學與程式碼方面可與 GPT-4 Turbo 匹敵。",
|
||
"SenseChat-5-beta.description": "部分性能超越 SenseChat-5-1202。",
|
||
"SenseChat-5.description": "最新 V5.5 版本,支援 128K 上下文;在數學推理、英文對話、指令遵循與長文本理解方面有重大提升,表現可比擬 GPT-4o。",
|
||
"SenseChat-Character-Pro.description": "進階角色對話模型,支援 32K 上下文,能力提升,支援中英文。",
|
||
"SenseChat-Character.description": "標準角色對話模型,支援 8K 上下文,回應速度快。",
|
||
"SenseChat-Turbo-1202.description": "最新輕量模型,在大幅降低推理成本的同時達到 90% 以上的完整模型能力。",
|
||
"SenseChat-Turbo.description": "適用於快速問答與模型微調場景。",
|
||
"SenseChat-Vision.description": "最新 V5.5 版本,支援多圖輸入,在屬性辨識、空間關係、動作/事件偵測、場景理解、情緒辨識、常識推理與文字理解/生成等核心能力上全面提升。",
|
||
"SenseChat.description": "Base V4,支援 4K 上下文,具備強大通用能力。",
|
||
"SenseNova-V6-5-Pro.description": "透過多模態、語言與推理資料的全面升級及訓練策略優化,該模型大幅提升多模態推理與通用指令遵循能力,支援最高 128K 上下文,並在 OCR 與文化旅遊 IP 辨識任務中表現優異。",
|
||
"SenseNova-V6-5-Turbo.description": "透過多模態、語言與推理資料的全面升級及訓練策略優化,該模型大幅提升多模態推理與通用指令遵循能力,支援最高 128K 上下文,並在 OCR 與文化旅遊 IP 辨識任務中表現優異。",
|
||
"SenseNova-V6-Pro.description": "原生整合圖像、文字與影片,打破傳統多模態隔閡;在 OpenCompass 與 SuperCLUE 中名列前茅。",
|
||
"SenseNova-V6-Reasoner.description": "結合視覺與語言的深度推理,支援慢思考與完整思路鏈。",
|
||
"SenseNova-V6-Turbo.description": "原生整合圖像、文字與影片,打破傳統多模態隔閡。在多模態與語言核心能力上領先,於多項評測中名列前茅。",
|
||
"Skylark2-lite-8k.description": "Skylark 第二代模型。Skylark2-lite 回應快速,適用於即時、成本敏感但精度要求較低的場景,支援 8K 上下文。",
|
||
"Skylark2-pro-32k.description": "Skylark 第二代模型。Skylark2-pro 精度更高,適用於專業文案、小說創作與高品質翻譯等複雜文本生成任務,支援 32K 上下文。",
|
||
"Skylark2-pro-4k.description": "Skylark 第二代模型。Skylark2-pro 精度更高,適用於專業文案、小說創作與高品質翻譯等複雜文本生成任務,支援 4K 上下文。",
|
||
"Skylark2-pro-character-4k.description": "Skylark 第二代模型。Skylark2-pro-character 擅長角色扮演與對話,能根據提示展現鮮明人設風格與自然對話,適用於聊天機器人、虛擬助理與客服場景,回應快速。",
|
||
"Skylark2-pro-turbo-8k.description": "Skylark 第二代模型。Skylark2-pro-turbo-8k 在 8K 上下文下提供更快推理與更低成本。",
|
||
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414 是新一代開源 GLM 模型,擁有 32B 參數,性能可與 OpenAI GPT 與 DeepSeek V3/R1 系列媲美。",
|
||
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414 是一款 9B 參數的 GLM 模型,繼承 GLM-4-32B 技術,部署更輕量。其在程式碼生成、網頁設計、SVG 生成與搜尋式寫作方面表現優異。",
|
||
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking 是由智譜 AI 與清華 KEG 實驗室推出的開源視覺語言模型,專為複雜多模態認知設計。基於 GLM-4-9B-0414,加入思路鏈推理與強化學習,顯著提升跨模態推理與穩定性。",
|
||
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414 是一款深度推理模型,基於 GLM-4-32B-0414,加入冷啟動資料與擴展強化學習,並在數學、程式碼與邏輯上進行進一步訓練,數學能力與複雜任務解決能力大幅提升。",
|
||
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414 是一款小型 9B 參數的 GLM 模型,保留開源優勢並展現出色能力。在數學推理與通用任務上表現強勁,於同級開源模型中領先。",
|
||
"THUDM/GLM-Z1-Rumination-32B-0414.description": "GLM-Z1-Rumination-32B-0414 是一款具備深度反思能力的推理模型(對標 OpenAI Deep Research)。與一般深思模型不同,它會花更多時間思考,以解決更開放與複雜的問題。",
|
||
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat 是智譜 AI 推出的開源 GLM-4 模型,在語義、數學、推理、程式碼與知識方面表現強勁。除多輪對話外,還支援網頁瀏覽、程式碼執行、自定義工具調用與長文本推理。支援 26 種語言(含中、英、日、韓、德),在 AlignBench-v2、MT-Bench、MMLU 與 C-Eval 等評測中表現優異,並支援最高 128K 上下文,適用於學術與商業場景。",
|
||
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B 是首款以強化學習訓練的長上下文推理模型(LRM),針對長文本推理進行最佳化。其漸進式上下文擴展強化學習策略,實現從短上下文到長上下文的穩定遷移。在七項長文檔問答基準上超越 OpenAI-o3-mini 與 Qwen3-235B-A22B,表現可與 Claude-3.7-Sonnet-Thinking 匹敵,特別擅長數學、邏輯與多跳推理。",
|
||
"Yi-34B-Chat.description": "Yi-1.5-34B 延續該系列強大的通用語言能力,並透過對 5000 億高品質語料的增量訓練,顯著提升數學邏輯與程式碼能力。",
|
||
"abab5.5-chat.description": "專為生產力場景打造,能處理複雜任務並高效生成專業文本。",
|
||
"abab5.5s-chat.description": "專為中文人設對話設計,提供高品質中文對話體驗,適用於多種應用場景。",
|
||
"abab6.5g-chat.description": "專為多語言人設對話設計,支援英文及其他語言的高品質對話生成。",
|
||
"abab6.5s-chat.description": "適用於多種自然語言處理任務,包括文本生成與對話系統。",
|
||
"abab6.5t-chat.description": "針對中文人設對話進行最佳化,提供符合中文表達習慣的流暢對話體驗。",
|
||
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1 是一款先進的大型語言模型,透過強化學習與冷啟動資料進行最佳化,在推理、數學與程式碼方面表現卓越。",
|
||
"accounts/fireworks/models/deepseek-v3.description": "DeepSeek 推出的強大 MoE 語言模型,總參數達 671B,每個 token 啟用 37B 參數。",
|
||
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta 開發並發布了 Meta Llama 3 大型語言模型系列,涵蓋 8B 和 70B 參數的預訓練與指令微調文字生成模型。Llama 3 的指令微調模型專為對話應用優化,在多項業界常用基準測試中表現優於許多現有的開源聊天模型。",
|
||
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Meta Llama 3 的指令微調模型專為對話應用優化,在多項業界常用基準測試中表現優異。Llama 3 8B Instruct(HF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,預期結果與 Hugging Face 官方實作一致。",
|
||
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta 開發並發布了 Meta Llama 3 大型語言模型系列,涵蓋 8B 和 70B 參數的預訓練與指令微調文字生成模型。Llama 3 的指令微調模型專為對話應用優化,在多項業界常用基準測試中表現優於許多現有的開源聊天模型。",
|
||
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 是一個多語言大型語言模型系列,提供 8B、70B 和 405B 參數的預訓練與指令微調生成模型。這些指令微調模型針對多語言對話進行優化,在多項業界常用基準測試中表現優於許多開源與封閉聊天模型。405B 是 Llama 3.1 系列中最強大的模型,採用 FP8 推論,與參考實作高度一致。",
|
||
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 是一個多語言大型語言模型系列,提供 8B、70B 和 405B 參數的預訓練與指令微調生成模型。這些指令微調模型針對多語言對話進行優化,在多項業界常用基準測試中表現優於許多開源與封閉聊天模型。",
|
||
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 是一個多語言大型語言模型系列,提供 8B、70B 和 405B 參數的預訓練與指令微調生成模型。這些指令微調模型針對多語言對話進行優化,在多項業界常用基準測試中表現優於許多開源與封閉聊天模型。",
|
||
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Meta 推出的 11B 參數視覺推理模型,經指令微調,專為視覺辨識、圖像推理、圖說生成與圖像相關問答優化。能理解圖表等視覺資料,並透過文字描述圖像細節,實現視覺與語言的橋接。",
|
||
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct 是 Meta 推出的輕量級多語言模型,具備高效執行效能,延遲與成本明顯優於大型模型。典型應用包括查詢/提示重寫與寫作輔助。",
|
||
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Meta 推出的 90B 參數視覺推理模型,經指令微調,專為視覺辨識、圖像推理、圖說生成與圖像相關問答優化。能理解圖表等視覺資料,並透過文字描述圖像細節,實現視覺與語言的橋接。注意:此模型目前以無伺服器方式實驗性提供,Fireworks 可能會在短時間內終止部署,請注意生產環境使用風險。",
|
||
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本,提升了工具使用、多語言文字支援、數學與程式能力,優於 2024 年 7 月版本。在推理、數學與指令遵循方面達到業界領先表現,效能接近 3.1 405B,但具備顯著的速度與成本優勢。",
|
||
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "一個具備 24B 參數的模型,擁有與更大型模型相當的先進能力。",
|
||
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微調版本,已啟用聊天補全 API。",
|
||
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微調版本,已啟用聊天補全 API。",
|
||
"accounts/fireworks/models/mythomax-l2-13b.description": "MythoMix 的改良版本,可能是其更精緻的形式,融合 MythoLogic-L2 與 Huginn,採用高度實驗性的張量合併技術。其獨特特性使其非常適合用於故事創作與角色扮演。",
|
||
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct 是一款輕量級、先進的開源多模態模型,基於合成資料與精選公開網路資料集訓練,專注於高品質、推理密集的文字與視覺資料。屬於 Phi-3 系列,支援 128K 的上下文長度(以 token 計)。模型經過嚴格優化,包括監督式微調與偏好調整,確保精確的指令遵循與強化的安全性。",
|
||
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Qwen QwQ 模型專注於推進 AI 推理能力,證明開源模型在推理方面可媲美封閉前沿模型。QwQ-32B-Preview 是一個實驗性版本,在 GPQA、AIME、MATH-500 與 LiveCodeBench 等推理與分析基準上,表現與 o1 相當,並超越 GPT-4o 與 Claude 3.5 Sonnet。注意:此模型目前以無伺服器方式實驗性提供,Fireworks 可能會在短時間內終止部署,請注意生產環境使用風險。",
|
||
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "72B Qwen-VL 模型是阿里巴巴最新版本,展現近一年來的創新成果。",
|
||
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 是由 Qwen 團隊與阿里雲開發的僅解碼式大型語言模型系列,提供 0.5B、1.5B、3B、7B、14B、32B 與 72B 等多種規模,涵蓋基礎與指令微調版本。",
|
||
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder 是最新的 Qwen 程式語言模型(前身為 CodeQwen)。注意:此模型目前以無伺服器方式實驗性提供,Fireworks 可能會在短時間內終止部署,請注意生產環境使用風險。",
|
||
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large 是一款頂尖的大型語言模型,在 LMSYS 排行榜上僅次於 GPT-4、Gemini 1.5 Pro 與 Claude 3 Opus。其多語言能力出色,特別擅長西班牙語、中文、日語、德語與法語。Yi-Large 也對開發者友好,採用與 OpenAI 相同的 API 架構,便於整合。",
|
||
"ai21-jamba-1.5-large.description": "一款具備 398B 參數(94B 啟用)的多語言模型,支援 256K 上下文視窗、函式呼叫、結構化輸出與基於事實的生成。",
|
||
"ai21-jamba-1.5-mini.description": "一款具備 52B 參數(12B 啟用)的多語言模型,支援 256K 上下文視窗、函式呼叫、結構化輸出與基於事實的生成。",
|
||
"ai21-labs/AI21-Jamba-1.5-Large.description": "一款具備 398B 參數(94B 啟用)的多語言模型,支援 256K 上下文視窗、函式呼叫、結構化輸出與基於事實的生成。",
|
||
"ai21-labs/AI21-Jamba-1.5-Mini.description": "一款具備 52B 參數(12B 啟用)的多語言模型,支援 256K 上下文視窗、函式呼叫、結構化輸出與基於事實的生成。",
|
||
"alibaba/qwen-3-14b.description": "Qwen3 是 Qwen 系列的最新一代,提供完整的密集與 MoE 模型組合。透過大規模訓練,在推理、指令遵循、代理能力與多語言支援方面實現突破。",
|
||
"alibaba/qwen-3-235b.description": "Qwen3 是 Qwen 系列的最新一代,提供完整的密集與 MoE 模型組合。透過大規模訓練,在推理、指令遵循、代理能力與多語言支援方面實現突破。",
|
||
"alibaba/qwen-3-30b.description": "Qwen3 是 Qwen 系列的最新一代,提供完整的密集與 MoE 模型組合。透過大規模訓練,在推理、指令遵循、代理能力與多語言支援方面實現突破。",
|
||
"alibaba/qwen-3-32b.description": "Qwen3 是 Qwen 系列的最新一代,提供完整的密集與 MoE 模型組合。透過大規模訓練,在推理、指令遵循、代理能力與多語言支援方面實現突破。",
|
||
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct 是 Qwen 最具代理能力的程式模型,在代理式編碼、瀏覽器操作及其他核心編碼任務上表現優異,達到與 Claude Sonnet 同級的成果。",
|
||
"amazon/nova-lite.description": "一款極低成本的多模態模型,能以極快速度處理圖像、影片與文字輸入。",
|
||
"amazon/nova-micro.description": "一款僅支援文字的模型,提供超低延遲與極低成本的運算效能。",
|
||
"amazon/nova-pro.description": "一款功能強大的多模態模型,在準確性、速度與成本之間達到最佳平衡,適用於各類任務。",
|
||
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 是一個輕量級、高效的多語言嵌入模型,支援 1024、512 和 256 維度。",
|
||
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet 提升了業界標準,在多項評估中超越競爭對手與 Claude 3 Opus,同時維持中階速度與成本。",
|
||
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet 提升了業界標準,在多項評估中超越競爭對手與 Claude 3 Opus,同時維持中階速度與成本。",
|
||
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku 是 Anthropic 速度最快、體積最小的模型,能即時回應簡單查詢,提供流暢自然的 AI 體驗,並支援圖像輸入與 200K 的上下文視窗。",
|
||
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus 是 Anthropic 最強大的 AI 模型,在處理高度複雜任務時展現最先進的效能,具備開放式提示與新穎情境的流暢應對能力,並支援圖像輸入與 200K 的上下文視窗。",
|
||
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適用於企業級工作負載,提供高性價比與可靠的大規模部署能力,並支援圖像輸入與 200K 的上下文視窗。",
|
||
"anthropic.claude-instant-v1.description": "一款快速、經濟且功能強大的模型,適用於日常對話、文字分析、摘要與文件問答。",
|
||
"anthropic.claude-v2.description": "一款功能全面的模型,涵蓋複雜對話、創意生成與精確指令執行等任務。",
|
||
"anthropic.claude-v2:1.description": "Claude 2 的升級版,具備雙倍上下文視窗,並在長文件與檢索增強生成(RAG)任務中提升可靠性、降低幻覺率與提升基於證據的準確性。",
|
||
"anthropic/claude-3-haiku.description": "Claude 3 Haiku 是 Anthropic 速度最快的模型,專為處理長提示的企業級工作負載設計,能快速分析大型文件如季報、合約或法律案件,成本僅為同類模型的一半。",
|
||
"anthropic/claude-3-opus.description": "Claude 3 Opus 是 Anthropic 最智慧的模型,在處理高度複雜任務時展現市場領先的效能,能流暢應對開放式提示與新穎情境,具備類人理解能力。",
|
||
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku 提升了速度、程式碼準確性與工具使用能力,適用於對速度與工具互動有高要求的場景。",
|
||
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet 是 Sonnet 系列中快速且高效的模型,具備更佳的程式與推理能力,部分版本已逐步由 Sonnet 3.7 或更新版本取代。",
|
||
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升級版的 Sonnet 模型,具備更強的推理與程式能力,適用於企業級複雜任務。",
|
||
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 是 Anthropic 的高效能快速模型,在保持高準確度的同時提供極低延遲。",
|
||
"anthropic/claude-opus-4.1.description": "Opus 4.1 是 Anthropic 的高階模型,針對程式設計、複雜推理與長時間任務進行最佳化。",
|
||
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合頂尖智慧與可擴展效能,適用於複雜且高品質的推理任務。",
|
||
"anthropic/claude-opus-4.description": "Opus 4 是 Anthropic 為複雜任務與企業應用設計的旗艦模型。",
|
||
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 是 Anthropic 最新的混合推理模型,針對複雜推理與程式設計進行最佳化。",
|
||
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 是 Anthropic 的混合推理模型,具備思考與非思考能力的結合。",
|
||
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B 是一個稀疏大型語言模型,總參數為 720 億,活躍參數為 160 億,採用分組專家模型(MoGE)架構。透過分組選擇專家並限制每組啟用相同數量的專家,以平衡負載並提升在昇騰平台上的部署效率。",
|
||
"aya.description": "Aya 23 是 Cohere 推出的多語言模型,支援 23 種語言,適用於多元應用場景。",
|
||
"aya:35b.description": "Aya 23 是 Cohere 推出的多語言模型,支援 23 種語言,適用於多元應用場景。",
|
||
"azure-DeepSeek-R1-0528.description": "由微軟部署的 DeepSeek R1 已升級為 DeepSeek-R1-0528。此次更新提升了運算能力與後訓練演算法優化,顯著增強推理深度與推論表現,在數學、程式碼與邏輯基準測試中表現優異,接近 O3 與 Gemini 2.5 Pro 等領先模型。",
|
||
"baichuan-m2-32b.description": "Baichuan M2 32B 是百川智能推出的 MoE 模型,具備強大的推理能力。",
|
||
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B 是百川推出的開源、可商用的 130 億參數大型語言模型,在中文與英文權威基準測試中表現同級最佳。",
|
||
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B 是百度推出的 MoE 架構大型語言模型,總參數為 3000 億,每個 token 啟用 470 億參數,兼顧效能與運算效率。作為 ERNIE 4.5 核心模型之一,擅長理解、生成、推理與程式設計。採用多模態異構 MoE 預訓練方法,結合文字與視覺訓練,全面提升能力,特別是在指令遵循與世界知識方面。",
|
||
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 Thinking Preview 是百度新一代原生多模態 ERNIE 模型,擅長多模態理解、指令遵循、創作、事實問答與工具調用。",
|
||
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro 是升級版的 FLUX Pro,具備更快速度、優異的圖像品質與提示遵循能力。",
|
||
"black-forest-labs/flux-dev.description": "FLUX Dev 是 FLUX 的開發版本,僅供非商業用途。",
|
||
"black-forest-labs/flux-pro.description": "FLUX Pro 是專業級 FLUX 模型,專為高品質圖像輸出設計。",
|
||
"black-forest-labs/flux-schnell.description": "FLUX Schnell 是一款針對速度優化的快速圖像生成模型。",
|
||
"c4ai-aya-expanse-32b.description": "Aya Expanse 是一款高效能的 320 億參數多語言模型,透過指令微調、資料仲裁、偏好訓練與模型融合,達到媲美單語模型的表現。支援 23 種語言。",
|
||
"c4ai-aya-expanse-8b.description": "Aya Expanse 是一款高效能的 80 億參數多語言模型,透過指令微調、資料仲裁、偏好訓練與模型融合,達到媲美單語模型的表現。支援 23 種語言。",
|
||
"c4ai-aya-vision-32b.description": "Aya Vision 是一款先進的多模態模型,在語言、文字與視覺基準測試中表現優異。此 320 億參數版本專注於頂級多語言效能,支援 23 種語言。",
|
||
"c4ai-aya-vision-8b.description": "Aya Vision 是一款先進的多模態模型,在語言、文字與視覺基準測試中表現優異。此 80 億參數版本著重於低延遲與穩定效能。",
|
||
"charglm-3.description": "CharGLM-3 專為角色扮演與情感陪伴設計,支援超長多輪記憶與個性化對話。",
|
||
"charglm-4.description": "CharGLM-4 專為角色扮演與情感陪伴設計,支援超長多輪記憶與個性化對話。",
|
||
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
|
||
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
||
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
|
||
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku,其在多項能力上均有提升,並在多個智慧基準測試中超越先前最大模型 Claude 3 Opus。",
|
||
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
|
||
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最具智慧的模型,也是市場上首個混合推理模型。它能夠即時回應,或進行可視化的逐步推理,特別擅長程式設計、資料科學、視覺處理與智能體任務。",
|
||
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
||
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
|
||
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
||
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
|
||
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快速且最智慧的 Haiku 模型,具備閃電般的速度與延展推理能力。",
|
||
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
|
||
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
|
||
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設,表現出色於智慧、流暢度與理解力。",
|
||
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
|
||
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
|
||
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考,展現清晰的推理過程。",
|
||
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
||
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
|
||
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
|
||
"codegemma.description": "CodeGemma 是一款輕量級模型,適用於多樣化的程式任務,能快速迭代與整合。",
|
||
"codegemma:2b.description": "CodeGemma 是一款輕量級模型,適用於多樣化的程式任務,能快速迭代與整合。",
|
||
"codellama.description": "Code Llama 是一款專注於程式碼生成與討論的大型語言模型,支援多種語言,優化開發者的工作流程。",
|
||
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama 是一款專注於程式碼生成與討論的大型語言模型,支援多種語言,優化開發者的工作流程。",
|
||
"codellama:13b.description": "Code Llama 是一款專注於程式碼生成與討論的大型語言模型,支援多種語言,優化開發者的工作流程。",
|
||
"codellama:34b.description": "Code Llama 是一款專注於程式碼生成與討論的大型語言模型,支援多種語言,優化開發者的工作流程。",
|
||
"codellama:70b.description": "Code Llama 是一款專注於程式碼生成與討論的大型語言模型,支援多種語言,優化開發者的工作流程。",
|
||
"codeqwen.description": "CodeQwen1.5 是一款以大量程式碼資料訓練的大型語言模型,專為處理複雜的程式任務而設計。",
|
||
"codestral-latest.description": "Codestral 是我們最先進的程式模型;v2(2025 年 1 月)針對低延遲、高頻率任務如 FIM、程式碼修正與測試生成進行優化。",
|
||
"codestral.description": "Codestral 是 Mistral AI 推出的首款程式模型,具備強大的程式碼生成能力。",
|
||
"codex-mini-latest.description": "codex-mini-latest 是針對 Codex CLI 微調的 o4-mini 模型。如需直接使用 API,建議從 gpt-4.1 開始。",
|
||
"cogito-2.1:671b.description": "Cogito v2.1 671B 是一款美國開源的大型語言模型,可商業使用,效能媲美頂尖模型,具備更高的 Token 推理效率、128k 長上下文能力與整體強大表現。",
|
||
"cogview-4.description": "CogView-4 是智譜推出的首款開源文字轉圖像模型,支援中文字符生成。它提升了語意理解、圖像品質與中英文文字渲染能力,支援任意長度的雙語提示詞,並可在指定範圍內生成任意解析度的圖像。",
|
||
"cohere-command-r-plus.description": "Command R+ 是一款針對企業工作負載優化的先進 RAG 模型。",
|
||
"cohere-command-r.description": "Command R 是一款可擴展的生成模型,設計用於 RAG 與工具使用,支援生產級 AI 應用。",
|
||
"cohere/Cohere-command-r-plus.description": "Command R+ 是一款針對企業工作負載優化的先進 RAG 模型。",
|
||
"cohere/Cohere-command-r.description": "Command R 是一款可擴展的生成模型,設計用於 RAG 與工具使用,支援生產級 AI 應用。",
|
||
"cohere/command-a.description": "Command A 是 Cohere 目前最強大的模型,擅長工具使用、代理任務、RAG 與多語言應用。具備 256K 上下文長度,僅需兩張 GPU 即可運行,吞吐量比 Command R+ 08-2024 高出 150%。",
|
||
"cohere/command-r-plus.description": "Command R+ 是 Cohere 最新的大型語言模型,針對聊天與長上下文任務進行優化,幫助企業從原型邁向生產階段。",
|
||
"cohere/command-r.description": "Command R 針對聊天與長上下文任務進行優化,定位為「可擴展」模型,在高效能與準確性之間取得平衡,協助企業從原型邁向生產階段。",
|
||
"cohere/embed-v4.0.description": "一款可將文字、圖像或混合內容分類或轉換為嵌入向量的模型。",
|
||
"comfyui/flux-dev.description": "FLUX.1 Dev 是一款高品質的文字轉圖像模型(10–50 步),非常適合創意與藝術性輸出。",
|
||
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev 是一款支援文字引導編輯的圖像編輯模型,包含局部編輯與風格轉換功能。",
|
||
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev 是與 Krea 共同開發的安全增強型文字轉圖像模型,內建安全過濾機制。",
|
||
"comfyui/flux-schnell.description": "FLUX.1 Schnell 是一款超高速文字轉圖像模型,可在 1–4 步內生成高品質圖像,適合即時應用與快速原型設計。",
|
||
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 是經典的 512x512 文字轉圖像模型,適合快速原型設計與創意實驗。",
|
||
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 內建 CLIP/T5 編碼器,無需外部編碼器檔案,適用於如 sd3.5_medium_incl_clips 等資源使用較低的模型。",
|
||
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 是新一代文字轉圖像模型,提供 Large 與 Medium 版本。需搭配外部 CLIP 編碼器檔案,具備優異的圖像品質與提示詞遵循度。",
|
||
"comfyui/stable-diffusion-custom-refiner.description": "自訂 SDXL 圖像轉圖像模型。請使用 custom_sd_lobe.safetensors 作為模型檔名;若有 VAE,請使用 custom_sd_vae_lobe.safetensors。將模型檔案放入 Comfy 指定資料夾中。",
|
||
"comfyui/stable-diffusion-custom.description": "自訂 SD 文字轉圖像模型。請使用 custom_sd_lobe.safetensors 作為模型檔名;若有 VAE,請使用 custom_sd_vae_lobe.safetensors。將模型檔案放入 Comfy 指定資料夾中。",
|
||
"comfyui/stable-diffusion-refiner.description": "SDXL 圖像轉圖像模型,能從輸入圖像進行高品質轉換,支援風格轉換、修復與創意變化。",
|
||
"comfyui/stable-diffusion-xl.description": "SDXL 是一款支援 1024x1024 高解析度生成的文字轉圖像模型,具備更佳的圖像品質與細節表現。",
|
||
"command-a-03-2025.description": "Command A 是我們目前最強大的模型,擅長工具使用、代理任務、RAG 與多語言場景。具備 256K 上下文視窗,僅需兩張 GPU 即可運行,吞吐量比 Command R+ 08-2024 高出 150%。",
|
||
"command-light-nightly.description": "為縮短主要版本之間的間隔,我們提供 Command 系列的夜間版本。command-light-nightly 是 command-light 系列中最新、最具實驗性(可能不穩定)的版本,會定期更新,建議僅用於測試環境。",
|
||
"command-light.description": "Command 的輕量快速版本,功能接近但速度更快。",
|
||
"command-nightly.description": "為縮短主要版本之間的間隔,我們提供 Command 系列的夜間版本。command-nightly 是 Command 系列中最新、最具實驗性(可能不穩定)的版本,會定期更新,建議僅用於測試環境。",
|
||
"command-r-03-2024.description": "Command R 是一款遵循指令的聊天模型,品質更高、穩定性更強,並具備比早期模型更長的上下文視窗。支援程式碼生成、RAG、工具使用與代理等複雜工作流程。",
|
||
"command-r-08-2024.description": "command-r-08-2024 是 2024 年 8 月發布的 Command R 模型更新版本。",
|
||
"command-r-plus-04-2024.description": "command-r-plus 是 command-r-plus-04-2024 的別名,因此在 API 中使用 command-r-plus 即指向該模型。",
|
||
"command-r-plus-08-2024.description": "Command R+ 是一款遵循指令的聊天模型,品質更高、穩定性更強,並具備比前代模型更長的上下文視窗。最適合用於複雜的 RAG 工作流程與多步驟工具使用。",
|
||
"command-r-plus.description": "Command R+ 是一款高效能的大型語言模型,專為真實企業場景與複雜應用而設計。",
|
||
"command-r.description": "Command R 是一款針對聊天與長上下文任務優化的大型語言模型,適合動態互動與知識管理。",
|
||
"command-r7b-12-2024.description": "command-r7b-12-2024 是 2024 年 12 月發布的小型高效更新版本,擅長需要複雜多步推理的 RAG、工具使用與代理任務。",
|
||
"command.description": "一款遵循指令的聊天模型,在語言任務中提供更高品質與可靠性,具備比基礎生成模型更長的上下文視窗。",
|
||
"computer-use-preview.description": "computer-use-preview 是一款專為「電腦使用工具」訓練的模型,能理解並執行與電腦相關的任務。",
|
||
"dall-e-2.description": "第二代 DALL·E 模型,具備更真實、準確的圖像生成能力,解析度為第一代的四倍。",
|
||
"dall-e-3.description": "最新的 DALL·E 模型於 2023 年 11 月發布,支援更真實、準確的圖像生成,細節表現更強。",
|
||
"databricks/dbrx-instruct.description": "DBRX Instruct 提供跨產業高度可靠的指令處理能力。",
|
||
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR 是 DeepSeek AI 推出的視覺語言模型,專注於光學字元辨識(OCR)與「上下文光學壓縮」。該模型探索從影像中壓縮上下文資訊,能高效處理文件並轉換為結構化文字(如 Markdown),準確辨識影像中的文字,適用於文件數位化、文字擷取與結構化處理。",
|
||
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B 將 DeepSeek-R1-0528 的思維鏈(Chain-of-Thought)蒸餾至 Qwen3 8B Base。在開源模型中達到 SOTA 表現,於 AIME 2024 超越 Qwen3 8B 10%,並匹敵 Qwen3-235B-thinking 的表現。擅長數學推理、程式設計與邏輯基準測試。架構與 Qwen3-8B 相同,但使用 DeepSeek-R1-0528 的分詞器。",
|
||
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 利用額外算力與後訓練演算法優化,深化推理能力。在數學、程式設計與邏輯基準測試中表現優異,接近 o3 與 Gemini 2.5 Pro 等領先模型。",
|
||
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 蒸餾模型使用強化學習(RL)與冷啟動資料來提升推理能力,並創下開源多任務基準新紀錄。",
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 蒸餾模型使用強化學習(RL)與冷啟動資料來提升推理能力,並創下開源多任務基準新紀錄。",
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 蒸餾模型使用強化學習(RL)與冷啟動資料來提升推理能力,並創下開源多任務基準新紀錄。",
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B 是從 Qwen2.5-32B 蒸餾而來,並在 80 萬筆精選 DeepSeek-R1 樣本上微調。擅長數學、程式設計與推理,在 AIME 2024、MATH-500(94.3% 準確率)與 GPQA Diamond 上表現出色。",
|
||
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B 是從 Qwen2.5-Math-7B 蒸餾而來,並在 80 萬筆精選 DeepSeek-R1 樣本上微調。表現優異,在 MATH-500 達 92.8%、AIME 2024 達 55.5%、CodeForces 評分為 1189(7B 模型)。",
|
||
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 結合強化學習與冷啟動資料,提升推理能力,創下開源多任務基準新高,超越 OpenAI-o1-mini。",
|
||
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 升級了 DeepSeek-V2-Chat 與 DeepSeek-Coder-V2-Instruct,融合通用與程式能力。提升寫作與指令遵循能力,偏好對齊更佳,在 AlpacaEval 2.0、ArenaHard、AlignBench 與 MT-Bench 上有顯著進步。",
|
||
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus 是 V3.1 的更新版本,定位為混合智能體大模型。修復用戶回報問題,提升穩定性與語言一致性,減少中英混雜與異常字元。整合思考與非思考模式,支援聊天模板靈活切換。Code Agent 與 Search Agent 表現也獲得提升,工具使用與多步任務更可靠。",
|
||
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 採用混合推理架構,支援思考與非思考模式。",
|
||
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的實驗版本,銜接下一代架構。在 V3.1-Terminus 基礎上加入 DeepSeek Sparse Attention(DSA),提升長上下文訓練與推理效率,並針對工具使用、長文理解與多步推理進行優化,適合探索高效推理與大上下文應用。",
|
||
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一款擁有 671B 參數的 MoE 模型,採用 MLA 與 DeepSeekMoE 架構,具備無損負載平衡,訓練與推理效率高。預訓練資料達 14.8T 高品質 token,並經過 SFT 與 RL 微調,表現超越其他開源模型,接近封閉模型領先水準。",
|
||
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)是一款創新模型,具備深層語言理解與互動能力。",
|
||
"deepseek-ai/deepseek-r1.description": "一款高效能的先進大模型,擅長推理、數學與程式設計。",
|
||
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
||
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
|
||
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
|
||
"deepseek-chat.description": "一款結合通用與程式能力的開源模型,保留聊天模型的對話能力與程式模型的強大編碼能力,偏好對齊更佳。DeepSeek-V2.5 也提升了寫作與指令遵循能力。",
|
||
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
|
||
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
||
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
|
||
"deepseek-ocr.description": "DeepSeek-OCR 是 DeepSeek AI 推出的視覺語言模型,專注於 OCR 與「上下文光學壓縮」。探索從影像中壓縮上下文資訊,能高效處理文件並轉換為結構化文字格式(如 Markdown),準確辨識影像中的文字,適用於文件數位化、文字擷取與結構化處理。",
|
||
"deepseek-r1-0528.description": "685B 全量模型於 2025-05-28 發布。DeepSeek-R1 在後訓練階段引入大規模強化學習(RL),即使標註資料極少,也能大幅提升推理能力,並在數學、程式碼與自然語言推理方面表現優異。",
|
||
"deepseek-r1-250528.description": "DeepSeek R1 250528 是專為高難度數學與邏輯任務設計的 DeepSeek-R1 全量推理模型。",
|
||
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B 快速版,支援即時網頁搜尋,回應更迅速且維持高效能。",
|
||
"deepseek-r1-70b-online.description": "DeepSeek R1 70B 標準版,支援即時網頁搜尋,適合處理最新聊天與文字任務。",
|
||
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 結合 R1 推理能力與 Llama 生態系統。",
|
||
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B 是以 DeepSeek R1 輸出資料蒸餾自 Llama-3.1-8B。",
|
||
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama 是以 DeepSeek-R1 在 Llama 上進行蒸餾訓練的模型。",
|
||
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B 是基於 Qianfan-70B 的 R1 蒸餾模型,具備高價值表現。",
|
||
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B 是基於 Qianfan-8B 的 R1 蒸餾模型,適用於中小型應用場景。",
|
||
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B 是基於 Llama-70B 的 R1 蒸餾模型。",
|
||
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B 是超輕量蒸餾模型,適用於極低資源環境。",
|
||
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是中型蒸餾模型,適合多場景部署。",
|
||
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基於 Qwen-32B 的 R1 蒸餾模型,兼顧效能與成本。",
|
||
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B 是輕量級蒸餾模型,適合邊緣端與企業私有部署環境。",
|
||
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen 是以 DeepSeek-R1 在 Qwen 上進行蒸餾訓練的模型。",
|
||
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
|
||
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
|
||
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
|
||
"deepseek-reasoner.description": "DeepSeek V3.2 思考模式在最終答案前輸出思路鏈(chain-of-thought),以提升準確性。",
|
||
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
|
||
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
|
||
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
|
||
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus 是 DeepSeek 為終端設備優化的 LLM 模型。",
|
||
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 是對應 Terminus 版本的深度思考模型,專為高效推理而設計。",
|
||
"deepseek-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的新一代混合推理模型,支援思考與非思考模式,思考效率高於 DeepSeek-R1-0528。後訓練優化大幅提升代理工具使用與任務執行能力,支援 128k 上下文視窗與最多 64k 輸出字元。",
|
||
"deepseek-v3.1:671b.description": "DeepSeek V3.1 是新一代推理模型,強化複雜推理與思路鏈能力,適合需要深入分析的任務。",
|
||
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp 引入稀疏注意力機制,在處理長文本時提升訓練與推理效率,價格低於 deepseek-v3.1。",
|
||
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是完整的深度思考模型,具備更強的長鏈推理能力。",
|
||
"deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首款將思考融入工具使用的混合推理模型,透過高效架構節省算力、以大規模強化學習提升能力、並結合大規模合成任務資料強化泛化能力,三者融合使其效能媲美 GPT-5-High,輸出長度大幅降低,顯著減少計算成本與用戶等待時間。",
|
||
"deepseek-v3.description": "DeepSeek-V3 是一款強大的 MoE 模型,總參數達 671B,每個 token 啟用 37B 參數。",
|
||
"deepseek-vl2-small.description": "DeepSeek VL2 Small 是輕量級多模態模型,適用於資源受限與高併發場景。",
|
||
"deepseek-vl2.description": "DeepSeek VL2 是一款多模態模型,支援圖文理解與細緻的視覺問答任務。",
|
||
"gemini-flash-latest.description": "Gemini Flash 最新版本",
|
||
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
|
||
"gemini-pro-latest.description": "Gemini Pro 最新版本",
|
||
"meta/Llama-3.2-90B-Vision-Instruct.description": "先進的圖像推理能力,適用於視覺理解代理應用。",
|
||
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先進的多語言開源 Llama 模型,以極低成本提供接近 405B 的效能。該模型基於 Transformer 架構,並透過 SFT 與 RLHF 提升實用性與安全性。經指令微調版本針對多語言對話進行最佳化,在業界基準測試中超越多數開放與封閉模型。知識截止時間:2023 年 12 月。",
|
||
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能強大的 70B 參數模型,擅長推理、程式編寫與廣泛語言任務。",
|
||
"meta/Meta-Llama-3-8B-Instruct.description": "一款多功能的 8B 參數模型,針對對話與文字生成進行最佳化。",
|
||
"meta/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 經指令微調的文字模型,針對多語言對話進行最佳化,在開放與封閉對話模型中於業界基準測試表現優異。",
|
||
"meta/Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 經指令微調的文字模型,針對多語言對話進行最佳化,在開放與封閉對話模型中於業界基準測試表現優異。",
|
||
"meta/Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 經指令微調的文字模型,針對多語言對話進行最佳化,在開放與封閉對話模型中於業界基準測試表現優異。",
|
||
"meta/llama-3-70b.description": "一款由 Meta 微調的 70B 開源模型,專為指令遵循設計,透過 Groq 的 LPU 硬體提供快速且高效的推論服務。",
|
||
"meta/llama-3-8b.description": "一款由 Meta 微調的 8B 開源模型,專為指令遵循設計,透過 Groq 的 LPU 硬體提供快速且高效的推論服務。",
|
||
"meta/llama-3.1-405b-instruct.description": "一款先進的大型語言模型,支援合成資料生成、知識蒸餾與對話機器人、程式編寫及領域任務的推理。",
|
||
"meta/llama-3.1-70b-instruct.description": "專為複雜對話設計,具備卓越的語境理解、推理與文字生成能力。",
|
||
"meta/llama-3.1-70b.description": "更新版 Meta Llama 3 70B Instruct,支援 128K 語境、多語言能力與強化推理表現。",
|
||
"meta/llama-3.1-8b-instruct.description": "一款尖端模型,具備強大的語言理解、推理與文字生成能力。",
|
||
"meta/llama-3.1-8b.description": "Llama 3.1 8B 支援 128K 語境視窗,適合即時對話與資料分析,與大型模型相比具備顯著成本優勢。透過 Groq 的 LPU 硬體提供快速且高效的推論服務。",
|
||
"meta/llama-3.2-11b-vision-instruct.description": "前沿的視覺語言模型,擅長從圖像中進行高品質推理。",
|
||
"meta/llama-3.2-11b.description": "一款經指令微調的圖像推理模型(文字+圖像輸入,文字輸出),針對視覺辨識、圖像推理、圖說生成與一般圖像問答進行最佳化。",
|
||
"meta/llama-3.2-1b-instruct.description": "一款尖端的小型語言模型,具備強大的理解、推理與文字生成能力。",
|
||
"meta/llama-3.2-1b.description": "純文字模型,適用於裝置端應用,如多語言本地檢索、摘要與重寫。",
|
||
"meta/llama-3.2-3b-instruct.description": "一款尖端的小型語言模型,具備強大的理解、推理與文字生成能力。",
|
||
"meta/llama-3.2-3b.description": "純文字模型,經微調以支援裝置端應用,如多語言本地檢索、摘要與重寫。",
|
||
"meta/llama-3.2-90b-vision-instruct.description": "前沿的視覺語言模型,擅長從圖像中進行高品質推理。",
|
||
"meta/llama-3.2-90b.description": "一款經指令微調的圖像推理模型(文字+圖像輸入,文字輸出),針對視覺辨識、圖像推理、圖說生成與一般圖像問答進行最佳化。",
|
||
"meta/llama-3.3-70b-instruct.description": "一款先進的大型語言模型,擅長推理、數學、常識與函式呼叫。",
|
||
"meta/llama-3.3-70b.description": "效能與效率的完美平衡。專為高效能對話式 AI 應用於內容創作、企業應用與研究而設計,具備強大的語言理解能力,適用於摘要、分類、情感分析與程式碼生成。",
|
||
"meta/llama-4-maverick.description": "Llama 4 系列為原生多模態 AI 模型,支援文字與多模態體驗,採用 MoE 架構以實現領先的文字與圖像理解。Llama 4 Maverick 為一款擁有 128 位專家的 17B 模型,由 DeepInfra 提供服務。",
|
||
"meta/llama-4-scout.description": "Llama 4 系列為原生多模態 AI 模型,支援文字與多模態體驗,採用 MoE 架構以實現領先的文字與圖像理解。Llama 4 Scout 為一款擁有 16 位專家的 17B 模型,由 DeepInfra 提供服務。",
|
||
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking 是最新且最強大的開源推理模型。它大幅提升多步推理的深度,並能在 200–300 次連續調用中穩定使用工具,在 Humanity's Last Exam (HLE)、BrowseComp 等基準測試中創下新紀錄。擅長程式設計、數學、邏輯與智能代理場景。採用 MoE 架構,總參數約為 1 兆,支援 256K 上下文視窗與工具調用。",
|
||
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 是 Kimi 系列中的指令變體,適用於高品質程式碼生成與工具使用。",
|
||
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 是一項更新,提升了上下文擴展與推理效能,並優化了程式碼能力。",
|
||
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 模型支援 256K 上下文視窗,具備更強的智能代理程式設計能力、更精緻實用的前端程式碼,以及更佳的上下文理解。",
|
||
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo 是 Kimi K2 Thinking 的高速版本,在保留深度推理能力的同時大幅降低延遲。",
|
||
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking 是 Moonshot 專為深度推理任務優化的推理模型,具備通用智能代理能力。",
|
||
"moonshotai/kimi-k2.description": "Kimi K2 是 Moonshot AI 推出的大型 MoE 模型,總參數達 1 兆,每次前向傳遞啟用 32B,針對智能代理能力(如進階工具使用、推理與程式碼合成)進行優化。",
|
||
"morph/morph-v3-fast.description": "Morph 提供專門模型,能以超過 4500 個 token/秒的速度,將前沿模型(如 Claude 或 GPT-4o)建議的程式碼變更應用至現有檔案。作為 AI 程式開發流程的最後一步,支援 16K 輸入/輸出 token。",
|
||
"morph/morph-v3-large.description": "Morph 提供專門模型,能以超過 2500 個 token/秒的速度,將前沿模型(如 Claude 或 GPT-4o)建議的程式碼變更應用至現有檔案。作為 AI 程式開發流程的最後一步,支援 16K 輸入/輸出 token。",
|
||
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的更新版本,採用最新內部開發的資料集。",
|
||
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B 是 NVIDIA 客製化的大型語言模型,旨在提升回應的有用性。於 2024 年 10 月 1 日,在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 三項自動對齊基準測試中皆排名第一。該模型基於 Llama-3.1-70B-Instruct,並透過 RLHF(REINFORCE)、Llama-3.1-Nemotron-70B-Reward 與 HelpSteer2-Preference 提示進行訓練。",
|
||
"nvidia/llama-3.1-nemotron-51b-instruct.description": "一款具備卓越準確性與效率的獨特語言模型。",
|
||
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct 是 NVIDIA 客製化模型,旨在提升大型語言模型回應的有用性。",
|
||
"o1-mini.description": "比 o1-preview 更小更快,成本降低 80%,擅長程式碼生成與短上下文任務。",
|
||
"o1-preview.description": "專注於進階推理與複雜問題解決,包括數學與科學。適用於需要深度上下文理解與自主工作流程的應用場景。",
|
||
"o1-pro.description": "o1 系列透過強化學習訓練,具備先思考再作答的能力,能處理複雜推理任務。o1-pro 使用更多運算資源以進行更深入思考,並穩定提供更高品質的回答。",
|
||
"o1.description": "o1 是 OpenAI 的新一代推理模型,支援文字與圖像輸入、文字輸出,適用於需要廣泛知識的複雜任務。具備 200K 上下文視窗,知識截止於 2023 年 10 月。",
|
||
"o3-2025-04-16.description": "o3 是 OpenAI 的新一代推理模型,支援文字與圖像輸入、文字輸出,適用於需要廣泛知識的複雜任務。",
|
||
"o3-deep-research.description": "o3-deep-research 是我們最先進的深度研究模型,適用於複雜的多步任務。可透過 MCP 連接器搜尋網路並存取您的資料。",
|
||
"o3-mini.description": "o3-mini 是我們最新的小型推理模型,在維持與 o1-mini 相同成本與延遲的前提下,提供更高智慧表現。",
|
||
"o3-pro-2025-06-10.description": "o3 Pro 是 OpenAI 的新一代推理模型,支援文字與圖像輸入、文字輸出,適用於需要廣泛知識的複雜任務。",
|
||
"o3-pro.description": "o3-pro 使用更多運算資源以進行更深入思考,穩定提供更佳回答;僅透過 Responses API 提供。",
|
||
"o3.description": "o3 是一款全方位強大的模型,在數學、科學、程式設計與視覺推理方面樹立新標竿。擅長技術寫作與指令執行,能分析文字、程式碼與圖像以解決多步問題。",
|
||
"o4-mini-2025-04-16.description": "o4-mini 是 OpenAI 的推理模型,支援文字與圖像輸入、文字輸出,適用於需要廣泛知識的複雜任務,具備 200K 上下文視窗。",
|
||
"o4-mini-deep-research.description": "o4-mini-deep-research 是一款更快速、更經濟的深度研究模型,適用於複雜的多步研究任務。可搜尋網路並透過 MCP 連接器存取您的資料。",
|
||
"o4-mini.description": "o4-mini 是最新的小型 o 系列模型,針對快速、有效推理進行優化,在程式設計與視覺任務中具備高效率。",
|
||
"open-codestral-mamba.description": "Codestral Mamba 是一款專注於程式碼生成的 Mamba 2 語言模型,支援進階程式設計與推理任務。",
|
||
"open-mistral-7b.description": "Mistral 7B 體積小但效能強,適合批次處理與分類、文字生成等簡單任務,具備穩定推理能力。",
|
||
"open-mistral-nemo.description": "Mistral Nemo 是與 Nvidia 共同開發的 12B 模型,具備強大的推理與程式設計能力,易於整合。",
|
||
"open-mixtral-8x22b.description": "Mixtral 8x22B 是一款大型 MoE 模型,適用於複雜任務,具備強大推理能力與高吞吐量。",
|
||
"open-mixtral-8x7b.description": "Mixtral 8x7B 是一款稀疏 MoE 模型,提升推理速度,適合多語言與程式碼生成任務。",
|
||
"openai/gpt-3.5-turbo-instruct.description": "具備與 GPT-3 時代模型相似的能力,與舊版 completion 端點相容,而非 chat 模式。",
|
||
"openai/gpt-3.5-turbo.description": "OpenAI 最具性價比的 GPT-3.5 模型,針對聊天優化,同時在傳統 completion 任務中表現穩定。",
|
||
"openai/gpt-4-turbo.description": "OpenAI 的 gpt-4-turbo 擁有廣泛的通識知識與領域專業,能理解複雜自然語言指令並準確解決困難問題。知識截止於 2023 年 4 月,支援 128K 上下文視窗。",
|
||
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini 提供較低延遲與更高性價比,適用於中等上下文工作負載。",
|
||
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano 是超低成本、低延遲的選擇,適合高頻率短對話或分類任務。",
|
||
"openai/gpt-4.1.description": "GPT-4.1 系列提供更大的上下文視窗與更強的工程與推理能力。",
|
||
"openai/gpt-4o-mini.description": "GPT-4o-mini 是 GPT-4o 的快速小型變體,適用於低延遲多模態應用。",
|
||
"openai/gpt-4o.description": "GPT-4o 系列是 OpenAI 的 Omni 模型,支援文字 + 圖像輸入與文字輸出。",
|
||
"qianfan-singlepicocr.description": "千帆 SinglePicOCR 是一款單張圖片的光學字元辨識(OCR)模型,具備高精度的文字識別能力。",
|
||
"qianfan-vl-70b.description": "千帆 VL 70B 是一款大型視覺語言模型(VLM),專為複雜的圖文理解任務設計。",
|
||
"qianfan-vl-8b.description": "千帆 VL 8B 是一款輕量級視覺語言模型,適用於日常圖文問答與分析。",
|
||
"qvq-72b-preview.description": "QVQ-72B-Preview 是 Qwen 推出的實驗性研究模型,專注於提升視覺推理能力。",
|
||
"qvq-max.description": "Qwen QVQ 視覺推理模型支援視覺輸入與思維鏈式輸出,在數學、程式碼、視覺分析、創意與通用任務中表現更強。",
|
||
"qvq-plus.description": "具備視覺輸入與思維鏈式輸出的視覺推理模型。qvq-plus 系列延續 qvq-max,提供更快速的推理能力與更佳的品質成本平衡。",
|
||
"qwen-3-32b.description": "Qwen 3 32B:擅長多語言與程式碼任務,適合中型規模的生產應用。",
|
||
"qwen-coder-plus.description": "Qwen 程式碼模型。",
|
||
"qwen-coder-turbo-latest.description": "Qwen 程式碼模型。",
|
||
"qwen-coder-turbo.description": "Qwen 程式碼模型。",
|
||
"qwen-flash.description": "Qwen 最快且成本最低的模型,適用於簡單任務。",
|
||
"qwen-image-edit.description": "Qwen Image Edit 是一款圖像轉圖像模型,根據輸入圖片與文字提示進行圖像編輯,實現精準調整與創意轉換。",
|
||
"qwen-image.description": "Qwen-Image 是一款通用圖像生成模型,支援多種藝術風格與強大的中英文複雜文字渲染能力。支援多行排版、段落級文字與複雜圖文細節。",
|
||
"qwen-long.description": "超大型 Qwen 模型,具備長上下文處理能力,適用於長篇與多文件對話場景。",
|
||
"qwen-math-plus-latest.description": "Qwen Math 是一款專門用於解決數學問題的語言模型。",
|
||
"qwen-math-plus.description": "Qwen Math 是一款專門用於解決數學問題的語言模型。",
|
||
"qwen-math-turbo-latest.description": "Qwen Math 是一款專門用於解決數學問題的語言模型。",
|
||
"qwen-math-turbo.description": "Qwen Math 是一款專門用於解決數學問題的語言模型。",
|
||
"qwen-max.description": "千億級超大型 Qwen 模型,支援中文、英文及其他語言;為目前 Qwen2.5 系列產品背後的 API 模型。",
|
||
"qwen-omni-turbo.description": "Qwen-Omni 模型支援多模態輸入(影片、音訊、圖片、文字)並輸出語音與文字。",
|
||
"qwen-plus.description": "增強版超大型 Qwen 模型,支援中文、英文及其他語言。",
|
||
"qwen-turbo.description": "Qwen Turbo 將不再更新,請改用 Qwen Flash。超大型 Qwen 模型,支援中文、英文及其他語言。",
|
||
"qwen-vl-chat-v1.description": "Qwen VL 支援靈活互動,包括多圖輸入、多輪問答與創意任務。",
|
||
"qwen-vl-max-latest.description": "超大型 Qwen 視覺語言模型。相較於增強版,進一步提升視覺推理與指令遵循能力,具備更強的感知與認知能力。",
|
||
"qwen-vl-max.description": "超大型 Qwen 視覺語言模型。相較於增強版,進一步提升視覺推理與指令遵循能力,具備更強的視覺感知與認知能力。",
|
||
"qwen-vl-ocr.description": "Qwen OCR 是一款文字擷取模型,適用於文件、表格、考卷圖片與手寫文字。支援中文、英文、法文、日文、韓文、德文、俄文、義大利文、越南文與阿拉伯文。",
|
||
"qwen-vl-plus-latest.description": "增強版大型 Qwen 視覺語言模型,在細節與文字識別方面有重大提升,支援超過百萬像素解析度與任意長寬比。",
|
||
"qwen-vl-plus.description": "增強版大型 Qwen 視覺語言模型,在細節與文字識別方面有重大提升,支援超過百萬像素解析度與任意長寬比。",
|
||
"qwen-vl-v1.description": "從 Qwen-7B 預訓練模型初始化,加入視覺模組並支援 448 圖像解析度輸入。",
|
||
"qwen/qwen-2-7b-instruct.description": "Qwen2 是全新 Qwen LLM 系列。Qwen2 7B 是一款基於 Transformer 的模型,擅長語言理解、多語言處理、程式設計、數學與推理。",
|
||
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 是一個全新的大型語言模型系列,具備更強的理解與生成能力。",
|
||
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL 是 Qwen-VL 的最新版本,在 MathVista、DocVQA、RealWorldQA、MTVQA 等視覺基準上達到 SOTA 表現。可理解超過 20 分鐘影片,進行高品質問答、對話與內容創作。支援複雜推理與決策,能與行動裝置與機器人整合,根據視覺上下文與文字指令執行操作。除中英文外,也能辨識多種語言的圖像文字,包括多數歐洲語言、日文、韓文、阿拉伯文與越南文。",
|
||
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct 是阿里雲最新發布的 LLM 之一。72B 模型在程式設計與數學方面有顯著提升,支援超過 29 種語言(含中英文),並大幅提升指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct 是阿里雲最新發布的 LLM 之一。32B 模型在程式設計與數學方面有顯著提升,支援超過 29 種語言(含中英文),並大幅提升指令遵循、結構化資料理解與結構化輸出(特別是 JSON)。",
|
||
"qwen/qwen2.5-7b-instruct.description": "一款中英文雙語 LLM,涵蓋語言、程式設計、數學與推理任務。",
|
||
"qwen/qwen2.5-coder-32b-instruct.description": "一款進階 LLM,支援主流程式語言的程式碼生成、推理與修復。",
|
||
"qwen/qwen2.5-coder-7b-instruct.description": "一款中型強大程式碼模型,具備 32K 上下文,擅長多語言程式設計。",
|
||
"qwen/qwen3-14b.description": "Qwen3-14B 是一款 14B 參數模型,適用於通用推理與對話場景。",
|
||
"qwen/qwen3-14b:free.description": "Qwen3-14B 是一款密集型 14.8B 參數因果 LLM,專為複雜推理與高效對話設計。可在數學、程式設計與邏輯的思考模式與一般對話的非思考模式間切換。針對指令遵循、工具使用與創意寫作進行微調,支援 100 多種語言與方言。原生支援 32K 上下文,並可透過 YaRN 擴展至 131K。",
|
||
"qwen/qwen3-30b-a3b.description": "Qwen3 是最新一代的 Qwen 大型語言模型,採用密集與 MoE 架構,擅長推理、多語言支援與進階代理任務。其獨特的能力可在複雜推理的「思考模式」與高效對話的「非思考模式」間切換,確保多元且高品質的表現。\n\nQwen3 在數學、程式碼、常識推理、創意寫作與互動對話方面,表現遠超前代模型如 QwQ 與 Qwen2.5。Qwen3-30B-A3B 版本擁有 305 億參數(其中 3.3 億為活躍參數)、48 層、128 位專家(每次任務啟用 8 位),並透過 YaRN 支援最高 131K 的上下文長度,為開源模型樹立新標竿。",
|
||
"qwen/qwen3-30b-a3b:free.description": "Qwen3 是最新一代的 Qwen 大型語言模型,採用密集與 MoE 架構,擅長推理、多語言支援與進階代理任務。其獨特的能力可在複雜推理的「思考模式」與高效對話的「非思考模式」間切換,確保多元且高品質的表現。\n\nQwen3 在數學、程式碼、常識推理、創意寫作與互動對話方面,表現遠超前代模型如 QwQ 與 Qwen2.5。Qwen3-30B-A3B 版本擁有 305 億參數(其中 3.3 億為活躍參數)、48 層、128 位專家(每次任務啟用 8 位),並透過 YaRN 支援最高 131K 的上下文長度,為開源模型樹立新標竿。",
|
||
"qwen/qwen3-32b.description": "Qwen3-32B 是一款密集型、擁有 328 億參數的因果語言模型,針對複雜推理與高效對話進行最佳化。它可在數學、程式設計與邏輯的「思考模式」與快速對話的「非思考模式」間切換。該模型在指令遵循、代理工具使用與創意寫作方面表現優異,支援超過 100 種語言與方言。原生支援 32K 上下文,並可透過 YaRN 擴展至 131K。",
|
||
"qwen/qwen3-32b:free.description": "Qwen3-32B 是一款密集型、擁有 328 億參數的因果語言模型,針對複雜推理與高效對話進行最佳化。它可在數學、程式設計與邏輯的「思考模式」與快速對話的「非思考模式」間切換。該模型在指令遵循、代理工具使用與創意寫作方面表現優異,支援超過 100 種語言與方言。原生支援 32K 上下文,並可透過 YaRN 擴展至 131K。",
|
||
"qwen/qwen3-8b:free.description": "Qwen3-8B 是一款密集型、擁有 8.2 億參數的因果語言模型,專為重推理任務與高效對話設計。它可在數學、程式設計與邏輯的「思考模式」與一般對話的「非思考模式」間切換。經過微調以強化指令遵循、代理整合與創意寫作,支援超過 100 種語言與方言。原生支援 32K 上下文,並可透過 YaRN 擴展至 131K。",
|
||
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus 是 Qwen 系列中的程式代理模型,針對更複雜的工具使用與長時間工作流程進行最佳化。",
|
||
"qwen/qwen3-coder.description": "Qwen3-Coder 是 Qwen3 的程式碼生成系列,擅長長文件的程式理解與生成。",
|
||
"qwen/qwen3-max-preview.description": "Qwen3 Max(預覽版)是 Max 變體,專為進階推理與工具整合設計。",
|
||
"qwen/qwen3-max.description": "Qwen3 Max 是 Qwen3 系列中高階推理模型,支援多語言推理與工具整合。",
|
||
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus 是強化視覺能力的 Qwen3 變體,具備更佳的多模態推理與影片處理能力。",
|
||
"qwen2.5-14b-instruct-1m.description": "Qwen2.5 開源 72B 模型。",
|
||
"qwen2.5-14b-instruct.description": "Qwen2.5 開源 14B 模型。",
|
||
"qwen2.5-32b-instruct.description": "Qwen2.5 開源 32B 模型。",
|
||
"qwen2.5-72b-instruct.description": "Qwen2.5 開源 72B 模型。",
|
||
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct 是一款成熟的開源指令模型,適用於多場景對話與生成。",
|
||
"qwen2.5-coder-1.5b-instruct.description": "開源 Qwen 程式碼模型。",
|
||
"qwen2.5-coder-14b-instruct.description": "開源 Qwen 程式碼模型。",
|
||
"qwen2.5-coder-32b-instruct.description": "開源 Qwen 程式碼模型。",
|
||
"qwen2.5-coder-7b-instruct.description": "開源 Qwen 程式碼模型。",
|
||
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder 是 Qwen 家族中最新的程式碼導向大型語言模型(前身為 CodeQwen)。",
|
||
"qwen2.5-instruct.description": "Qwen2.5 是 Qwen 最新一代語言模型系列,包含基礎與指令微調模型,參數範圍從 0.5B 到 72B。",
|
||
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math 擅長數學問題解決。",
|
||
"qwen2.5-math-72b-instruct.description": "Qwen-Math 擅長數學問題解決。",
|
||
"qwen2.5-math-7b-instruct.description": "Qwen-Math 擅長數學問題解決。",
|
||
"qwen2.5-omni-7b.description": "Qwen-Omni 模型支援多模態輸入(影片、音訊、圖片、文字)並可輸出語音與文字。",
|
||
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct 是一款開源多模態模型,適合私有部署與多場景應用。",
|
||
"qwen2.5-vl-72b-instruct.description": "強化指令遵循、數學、問題解決與程式能力,具備更強的物體辨識能力。支援跨格式精準視覺元素定位、長影片理解(最長 10 分鐘)、事件時間點與順序理解、速度感知,以及可控制作業系統或行動裝置的代理。具備強大的關鍵資訊擷取與 JSON 輸出能力。此為系列中最強的 72B 版本。",
|
||
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct 是一款輕量級多模態模型,兼顧部署成本與辨識能力。",
|
||
"qwen2.5-vl-instruct.description": "Qwen2.5-VL 是 Qwen 家族中最新的視覺語言模型。",
|
||
"qwen2.5.description": "Qwen2.5 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2.5:0.5b.description": "Qwen2.5 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2.5:1.5b.description": "Qwen2.5 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2.5:72b.description": "Qwen2.5 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2.description": "Qwen2 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2:0.5b.description": "Qwen2 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2:1.5b.description": "Qwen2 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen2:72b.description": "Qwen2 是阿里巴巴新一代大型語言模型,在多種應用場景中表現優異。",
|
||
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking 是旗艦級的深度思考版本,專為複雜的多模態推理與規劃任務設計。",
|
||
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct 是一款大型多模態模型,在準確性與推理效能之間取得良好平衡。",
|
||
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking 是深度思考版本,適用於處理複雜的多模態任務。",
|
||
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct 是一款經指令微調的多模態模型,適用於高品質的圖文問答與創作。",
|
||
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking 是深度思考多模態版本,擅長處理複雜推理與長鏈分析任務。",
|
||
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct 是輕量級多模態模型,適合日常視覺問答與應用整合。",
|
||
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款具備思維鏈能力的多模態模型,適用於細緻的視覺推理。",
|
||
"qwen3-vl-flash.description": "Qwen3 VL Flash:輕量高速推理版本,適用於對延遲敏感或高頻請求場景。",
|
||
"qwen3-vl-plus.description": "Qwen VL 是一款具備視覺理解能力的文字生成模型,能進行文字辨識(OCR)、摘要與推理,例如從商品圖片中提取屬性或解決圖像問題。",
|
||
"qwen3.description": "Qwen3 是阿里巴巴新一代大型語言模型,在多種應用場景中展現出強大效能。",
|
||
"qwq-32b-preview.description": "QwQ 是 Qwen 的實驗性研究模型,專注於推理能力的提升。",
|
||
"qwq-32b.description": "QwQ 是 Qwen 系列中的推理模型。相較於標準指令微調模型,它具備更強的思考與推理能力,顯著提升下游任務表現,特別是在處理複雜問題時。QwQ-32B 是中型推理模型,表現可媲美 DeepSeek-R1 與 o1-mini 等頂尖模型。",
|
||
"qwq-plus.description": "QwQ 推理模型基於 Qwen2.5 訓練,透過強化學習大幅提升推理能力。在數學/程式碼(AIME 24/25、LiveCodeBench)與部分通用基準(IFEval、LiveBench)上達到 DeepSeek-R1 的水準。",
|
||
"qwq.description": "QwQ 是 Qwen 系列中的推理模型。相較於標準指令微調模型,它具備更強的思考與推理能力,顯著提升下游任務表現,特別是在處理困難問題時。QwQ-32B 是中型推理模型,表現可媲美 DeepSeek-R1 與 o1-mini 等頂尖模型。",
|
||
"qwq_32b.description": "Qwen 系列中的中型推理模型。相較於標準指令微調模型,QwQ 的思考與推理能力顯著提升下游任務表現,特別是在處理困難問題時。",
|
||
"r1-1776.description": "R1-1776 是 DeepSeek R1 的後訓練版本,旨在提供未經審查、無偏見的事實資訊。",
|
||
"solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日文強化版本,同時維持在英文與韓文上的高效能表現。",
|
||
"solar-mini.description": "Solar Mini 是一款緊湊型大型語言模型,效能超越 GPT-3.5,具備強大的多語言能力,支援英文與韓文,提供高效能且佔用資源小的解決方案。",
|
||
"solar-pro.description": "Solar Pro 是 Upstage 推出的高智慧大型語言模型,專注於單 GPU 上的指令遵循任務,IFEval 分數超過 80。目前支援英文,完整版本預計於 2024 年 11 月推出,將擴展語言支援與上下文長度。",
|
||
"sonar-deep-research.description": "Deep Research 提供專業級的深入研究,並將其整合為易於理解與採取行動的報告。",
|
||
"sonar-pro.description": "進階搜尋產品,具備搜尋基礎能力,適用於處理複雜查詢與後續追問。",
|
||
"sonar-reasoning-pro.description": "進階搜尋產品,具備搜尋基礎能力,適用於處理複雜查詢與後續追問。",
|
||
"sonar-reasoning.description": "進階搜尋產品,具備搜尋基礎能力,適用於處理複雜查詢與後續追問。",
|
||
"sonar.description": "輕量級搜尋基礎產品,速度更快、成本更低,適合替代 Sonar Pro。",
|
||
"spark-x.description": "X1.5 更新內容:(1) 新增由 `thinking` 欄位控制的動態思考模式;(2) 支援 64K 輸入與 64K 輸出的大型上下文;(3) 支援 FunctionCall 功能。",
|
||
"stable-diffusion-3-medium.description": "Stability AI 最新的文字轉圖像模型。本版本大幅提升圖像品質、文字理解與風格多樣性,能更準確地解析複雜自然語言提示並生成精緻多樣的圖像。",
|
||
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 將對抗擴散蒸餾(ADD)應用於 stable-diffusion-3.5-large,以提升生成速度。",
|
||
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款擁有 8 億參數的 MMDiT 文字轉圖像模型,具備優異的圖像品質與提示對齊能力,支援 1 百萬像素圖像,並可高效運行於消費級硬體。",
|
||
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 基於 v1.2 檢查點初始化,並在 \"laion-aesthetics v2 5+\" 數據集上以 512x512 解析度進行 595k 步微調,將文字條件影響降低 10%,以提升無分類器引導取樣效果。",
|
||
"stable-diffusion-xl-base-1.0.description": "Stability AI 推出的開源文字轉圖像模型,具備業界領先的創意圖像生成能力。其指令理解能力強,並支援反向提示定義以實現精準生成。",
|
||
"stable-diffusion-xl.description": "stable-diffusion-xl 相較於 v1.5 有重大改進,並達到開源文字轉圖像模型的頂尖水準。改進包括 3 倍大的 UNet 主幹網路、提升圖像品質的精煉模組,以及更高效的訓練技術。",
|
||
"step-1-128k.description": "在效能與成本之間取得平衡,適用於一般場景。",
|
||
"step-1-256k.description": "支援超長上下文,適合長文檔分析。",
|
||
"step-1-32k.description": "支援中等長度對話,適用於多種場景。",
|
||
"step-1-8k.description": "小型模型,適合輕量任務。",
|
||
"step-1-flash.description": "高速模型,適合即時聊天應用。",
|
||
"step-1.5v-mini.description": "具備強大影片理解能力。",
|
||
"step-1o-turbo-vision.description": "具備強大圖像理解能力,在數學與程式碼任務上超越 1o。體積更小,輸出更快。",
|
||
"step-1o-vision-32k.description": "具備強大圖像理解能力,視覺表現優於 Step-1V 系列。",
|
||
"step-1v-32k.description": "支援視覺輸入,實現更豐富的多模態互動。",
|
||
"step-1v-8k.description": "小型視覺模型,適用於基本圖文任務。",
|
||
"step-1x-edit.description": "此模型專注於圖像編輯,可根據使用者提供的圖像與文字進行修改與增強。支援多種輸入格式,包括文字描述與範例圖像,並生成符合使用者意圖的編輯結果。",
|
||
"step-1x-medium.description": "此模型具備強大的文字提示圖像生成能力。原生支援中文,能更好理解中文描述並轉化為視覺特徵,實現更準確的生成。可產出高解析度、高品質圖像,並支援一定程度的風格轉換。",
|
||
"step-2-16k-exp.description": "Step-2 實驗版本,具備最新功能與持續更新。不建議用於生產環境。",
|
||
"step-2-16k.description": "支援大上下文互動,適合複雜對話場景。",
|
||
"step-2-mini.description": "基於新一代自研 MFA 注意力架構,提供類似 Step-1 的效能,成本更低、吞吐更高、延遲更低。具備強大程式能力,適用於通用任務。",
|
||
"step-2x-large.description": "新一代 StepFun 圖像模型,專注於文字提示圖像生成,能產出高品質圖像,具備更真實的質感與更強的中英文文字渲染能力。",
|
||
"step-3.description": "此模型具備強大的視覺感知與複雜推理能力,能準確處理跨領域知識理解、數學與視覺交叉分析,以及多種日常視覺分析任務。",
|
||
"step-r1-v-mini.description": "具備強大圖像理解能力的推理模型,能處理圖像與文字,並在深度推理後生成文字。擅長視覺推理,在數學、程式碼與文字推理方面表現頂尖,支援 100K 上下文。",
|
||
"taichu_o1.description": "taichu_o1 是新一代推理模型,透過多模態互動與強化學習實現類人思維鏈,支援複雜決策模擬,並在保持高準確輸出的同時揭示推理路徑,適用於策略分析與深度思考。",
|
||
"taichu_vl.description": "結合圖像理解、知識遷移與邏輯歸因,在圖文問答方面表現卓越。",
|
||
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct 採用總參數量 80B、啟用參數 13B 的架構,媲美更大型模型。支援快慢混合推理、穩定的長文本理解,並在 BFCL-v3 與 τ-Bench 上展現領先代理能力。GQA 與多量化格式實現高效推理。",
|
||
"tencent/Hunyuan-MT-7B.description": "混元翻譯模型包含 Hunyuan-MT-7B 與集成模型 Hunyuan-MT-Chimera。Hunyuan-MT-7B 是一款輕量級 7B 翻譯模型,支援 33 種語言及 5 種中國少數民族語言。在 WMT25 中於 31 組語言對中獲得 30 項第一名。騰訊混元採用完整訓練流程,從預訓練到 SFT、翻譯強化學習與集成強化學習,在同級模型中表現領先,部署高效便捷。",
|
||
"text-embedding-3-large.description": "目前最強大的英文與非英文任務嵌入模型。",
|
||
"text-embedding-3-small.description": "適用於檢索與 RAG 場景的高效、具成本效益的新一代嵌入模型。",
|
||
"thudm/glm-4-32b.description": "GLM-4-32B-0414 是一款 32B 中英雙語開源模型,針對程式碼生成、函數調用與代理任務進行優化。預訓練資料達 15T,涵蓋高品質與高推理需求內容,並透過人類偏好對齊、拒絕採樣與強化學習進一步優化。擅長複雜推理、內容生成與結構化輸出,在多項基準測試中達到 GPT-4o 與 DeepSeek-V3-0324 的水準。",
|
||
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 是一款 32B 中英雙語開源模型,針對程式碼生成、函數調用與代理任務進行優化。預訓練資料達 15T,涵蓋高品質與高推理需求內容,並透過人類偏好對齊、拒絕採樣與強化學習進一步優化。擅長複雜推理、內容生成與結構化輸出,在多項基準測試中達到 GPT-4o 與 DeepSeek-V3-0324 的水準。",
|
||
"thudm/glm-4-9b-chat.description": "智譜 AI 最新 GLM-4 預訓練模型的開源版本。",
|
||
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 是 GLM-4-32B 的增強推理版本,專為數學、邏輯與程式碼密集型問題解決而設計。透過擴展的強化學習(任務特定與通用偏好對齊)提升多步驟任務表現。相較於 GLM-4-32B,Z1 在結構化推理與正式領域能力上有顯著提升。\n\n支援透過提示工程強化「思考」步驟,提升長輸出的一致性,並針對代理流程進行優化,支援長上下文(透過 YaRN)、JSON 工具調用與細緻採樣以穩定推理。非常適合需要謹慎多步推理或形式推導的應用場景。",
|
||
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B 是 GLM-4-Z1 系列中的深度推理模型,針對需長時間思考的開放式複雜任務進行優化。基於 glm-4-32b-0414,加入額外的強化學習階段與多階段對齊,引入「反思」能力,模擬延伸的認知處理過程,包括迭代推理、多跳分析與工具輔助流程(如搜尋、檢索與具引用意識的綜合)。\n\n擅長研究寫作、比較分析與複雜問答。支援搜尋/導航原語(`search`、`click`、`open`、`finish`)的函數調用,適用於代理流程。反思行為透過多輪迴圈、基於規則的獎勵塑形與延遲決策機制控制,並以 OpenAI 內部對齊架構等深度研究框架為基準。此版本重深度而非速度。",
|
||
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera 是由 DeepSeek-R1 與 DeepSeek-V3(0324)合併而成,結合 R1 的推理能力與 V3 的代幣效率。基於 DeepSeek-MoE Transformer,針對通用文本生成進行優化。\n\n透過合併預訓練權重,在推理、效率與指令遵循間取得平衡。以 MIT 授權釋出,供研究與商業使用。",
|
||
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous(7B)透過其架構與策略實現更高的運算效率。",
|
||
"tts-1-hd.description": "最新的文字轉語音模型,優化音質表現。",
|
||
"tts-1.description": "最新的文字轉語音模型,優化即時速度。",
|
||
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1(11B)針對精準指令任務進行調校,語言表現強勁。",
|
||
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet 提升業界標準,在多項評估中超越競爭對手與 Claude 3 Opus,同時保持中階速度與成本。",
|
||
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet 是 Anthropic 最快的新一代模型。相較於 Claude 3 Haiku,在多項技能上有所提升,並在多項智慧基準上超越前旗艦 Claude 3 Opus。",
|
||
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 是 Anthropic 速度最快、智慧最強的 Haiku 模型,具備閃電般的速度與延伸思考能力。",
|
||
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
|
||
"v0-1.0-md.description": "v0-1.0-md 是透過 v0 API 提供的舊版模型。",
|
||
"v0-1.5-lg.description": "v0-1.5-lg 適用於進階思考或推理任務。",
|
||
"v0-1.5-md.description": "v0-1.5-md 適合日常任務與 UI 生成。",
|
||
"vercel/v0-1.0-md.description": "存取 v0 背後的模型,以生成、修復與優化現代 Web 應用,具備框架特定推理與最新知識。",
|
||
"vercel/v0-1.5-md.description": "存取 v0 背後的模型,以生成、修復與優化現代 Web 應用,具備框架特定推理與最新知識。",
|
||
"volcengine/doubao-seed-code.description": "豆包 Seed Code 是字節跳動火山引擎推出的 LLM,針對代理式程式設計進行優化,在程式與代理基準上表現優異,支援 256K 上下文。",
|
||
"wan2.2-t2i-flash.description": "萬象 2.2 Speed 是最新模型,在創意、穩定性與寫實度方面全面升級,實現快速生成與高性價比。",
|
||
"wan2.2-t2i-plus.description": "萬象 2.2 Pro 是最新模型,在創意、穩定性與寫實度方面全面升級,生成細節更豐富。",
|
||
"wanx-v1.description": "基礎文字轉圖像模型。對應通義萬象 1.0 通用版。",
|
||
"wanx2.0-t2i-turbo.description": "擅長紋理人像,速度適中、成本較低。對應通義萬象 2.0 Speed。",
|
||
"wanx2.1-t2i-plus.description": "全面升級版本,圖像細節更豐富,速度略慢。對應通義萬象 2.1 Pro。",
|
||
"wanx2.1-t2i-turbo.description": "全面升級版本,生成快速、整體品質強、性價比高。對應通義萬象 2.1 Speed。",
|
||
"whisper-1.description": "通用語音識別模型,支援多語言 ASR、語音翻譯與語言識別。",
|
||
"wizardlm2.description": "WizardLM 2 是微軟 AI 推出的語言模型,擅長複雜對話、多語言任務、推理與助手應用。",
|
||
"wizardlm2:8x22b.description": "WizardLM 2 是微軟 AI 推出的語言模型,擅長複雜對話、多語言任務、推理與助手應用。",
|
||
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast(非推理版)是 xAI 推出的高吞吐、低成本多模態模型(支援 2M 上下文),適用於對延遲與成本敏感但不需模型內推理的場景。可透過 API 的 reasoning 參數啟用推理功能。提示與完成可能被 xAI 或 OpenRouter 用於改進未來模型。",
|
||
"x-ai/grok-4-fast.description": "Grok 4 Fast 是 xAI 推出的高吞吐、低成本模型(支援 2M 上下文),適用於高併發與長上下文應用場景。",
|
||
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4.1 Fast(非推理版)是 xAI 推出的高吞吐、低成本多模態模型(支援 2M 上下文),適用於對延遲與成本敏感但不需模型內推理的場景。可透過 API 的 reasoning 參數啟用推理功能。提示與完成可能被 xAI 或 OpenRouter 用於改進未來模型。",
|
||
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fast 是 xAI 推出的高吞吐、低成本模型(支援 2M 上下文),適用於高併發與長上下文應用場景。",
|
||
"x-ai/grok-4.description": "Grok 4 是 xAI 的旗艦推理模型,具備強大的推理與多模態能力。",
|
||
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 是 xAI 推出的快速程式碼模型,輸出可讀性高,適合工程應用。",
|
||
"xai/grok-2-vision.description": "Grok 2 Vision 擅長視覺任務,在視覺數學推理(MathVista)與文件問答(DocVQA)上表現領先。可處理文件、圖表、截圖與照片。",
|
||
"xai/grok-2.description": "Grok 2 是前沿模型,具備最先進的推理能力,擅長聊天、編碼與推理,在 LMSYS 排名中超越 Claude 3.5 Sonnet 與 GPT-4 Turbo。",
|
||
"xai/grok-3-fast.description": "xAI 的旗艦模型,擅長企業應用如資料擷取、編碼與摘要,具備金融、醫療、法律與科學等領域的深度知識。快速版本運行於更快基礎設施,回應速度更快但每字成本較高。",
|
||
"xai/grok-3-mini-fast.description": "xAI 的輕量模型,在回應前會進行思考,適合簡單或邏輯型任務,不需深度領域知識。提供原始推理軌跡。快速版本運行於更快基礎設施,回應速度更快但每字成本較高。",
|
||
"xai/grok-3-mini.description": "xAI 的輕量模型,在回應前會進行思考,適合簡單或邏輯型任務,不需深度領域知識。提供原始推理軌跡。",
|
||
"xai/grok-3.description": "xAI 的旗艦模型,擅長企業應用如資料擷取、編碼與摘要,具備金融、醫療、法律與科學等領域的深度知識。",
|
||
"xai/grok-4.description": "xAI 最新旗艦模型,在自然語言、數學與推理方面表現卓越,是理想的全能型選擇。",
|
||
"yi-large-fc.description": "基於 yi-large,增強工具調用能力,適用於代理與工作流程場景。",
|
||
"yi-large-preview.description": "早期版本;建議使用更新的 yi-large。",
|
||
"yi-large-rag.description": "基於 yi-large 的進階服務,結合檢索與生成,透過即時網頁搜尋提供精準答案。",
|
||
"yi-large-turbo.description": "具備卓越性價比與效能,兼顧品質、速度與成本。",
|
||
"yi-large.description": "全新 100B 參數模型,擅長問答與文本生成。",
|
||
"yi-lightning-lite.description": "輕量版本;建議使用 yi-lightning。",
|
||
"yi-lightning.description": "最新高效能模型,推理速度更快,輸出品質更高。",
|
||
"yi-medium-200k.description": "支援 200K 長上下文的模型,適用於深度長文理解與生成。",
|
||
"yi-medium.description": "調校後的中型模型,能力與性價比平衡,優化指令遵循表現。",
|
||
"yi-spark.description": "緊湊快速的模型,強化數學與編碼能力。",
|
||
"yi-vision-v2.description": "適用於複雜任務的視覺模型,具備強大的多圖理解與分析能力。",
|
||
"yi-vision.description": "適用於複雜任務的視覺模型,具備強大的圖像理解與分析能力。",
|
||
"z-ai/glm-4.5-air.description": "GLM 4.5 Air 是 GLM 4.5 的輕量版本,適用於成本敏感場景,同時保有強大推理能力。",
|
||
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗艦模型,採用混合推理設計,針對工程與長上下文任務進行優化。",
|
||
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗艦模型,擴展上下文長度並增強編碼能力。",
|
||
"zai-glm-4.6.description": "在編碼與推理任務中表現優異,支援串流與工具調用,適合代理式編碼與複雜推理。",
|
||
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款基於專家混合架構的代理應用基礎模型,針對工具使用、網頁瀏覽、軟體工程與前端編碼進行優化,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
|
||
"zai-org/GLM-4.5.description": "GLM-4.5 是一款基於專家混合架構的代理應用基礎模型,深度優化工具使用、網頁瀏覽、軟體工程與前端編碼,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
|
||
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智譜 AI 最新 VLM,基於 GLM-4.5-Air 旗艦文本模型(總參數 106B,啟用 12B),採用 MoE 架構,在成本較低的情況下提供強大效能。延續 GLM-4.1V-Thinking 路線,加入 3D-RoPE 提升三維空間推理能力。透過預訓練、SFT 與強化學習優化,支援圖像、影片與長文檔,在 41 項公開多模態基準中名列前茅。提供「思考模式」切換,讓用戶在速度與深度間取得平衡。",
|
||
"zai-org/GLM-4.6.description": "相較於 GLM-4.5,GLM-4.6 將上下文從 128K 擴展至 200K,適用於更複雜的代理任務。在程式碼基準上得分更高,並在 Claude Code、Cline、Roo Code、Kilo Code 等應用中展現更強的實際效能,包括更佳的前端頁面生成。推理能力提升,推理過程中支援工具使用,整體能力更強。更好地整合至代理框架,強化工具/搜尋代理,並具備更符合人類偏好的寫作風格與角色扮演自然度。",
|
||
"zai/glm-4.5-air.description": "GLM-4.5 與 GLM-4.5-Air 是我們針對代理應用推出的最新旗艦模型,皆採用 MoE 架構。GLM-4.5 總參數 355B,啟用 32B;GLM-4.5-Air 較輕量,總參數 106B,啟用 12B。",
|
||
"zai/glm-4.5.description": "GLM-4.5 系列專為代理設計。旗艦版 GLM-4.5 結合推理、編碼與代理能力,總參數 355B(啟用 32B),提供混合推理系統的雙模式運行。",
|
||
"zai/glm-4.5v.description": "GLM-4.5V 建構於 GLM-4.5-Air 基礎上,延續 GLM-4.1V-Thinking 技術,並以強大的 106B MoE 架構擴展能力。",
|
||
"zenmux/auto.description": "ZenMux 自動路由會根據您的請求,從支援的選項中選擇性價比最高、效能最佳的模型。"
|
||
}
|