lobehub/locales/zh-CN/models.json
Arvin Xu d8deaddedd
feat: add work path for local system (#11128)
*  feat: support to show working dir

* fix style

* update docs

* update topic

* refactor to use chat config

* inject working Directory

* update i18n

* fix tests
2026-01-03 16:22:22 +08:00

645 lines
129 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"01-ai/yi-1.5-34b-chat.description": "01.AI 最新开源微调模型,拥有 340 亿参数,支持多种对话场景,基于高质量数据训练,并对齐人类偏好。",
"01-ai/yi-1.5-9b-chat.description": "01.AI 最新开源微调模型,拥有 90 亿参数,支持多种对话场景,基于高质量数据训练,并对齐人类偏好。",
"360/deepseek-r1.description": "360 部署的 DeepSeek-R1 在后训练阶段应用大规模强化学习,在极少标注数据下显著提升推理能力,在数学、编程和自然语言推理任务上可与 OpenAI o1 相媲美。",
"360gpt-pro-trans.description": "专为翻译任务优化的模型,深度微调以实现领先的翻译质量。",
"360gpt-pro.description": "360GPT Pro 是 360 的核心 AI 模型,具备高效文本处理能力,适用于多种自然语言处理场景,支持长文本理解和多轮对话。",
"360gpt-turbo-responsibility-8k.description": "360GPT Turbo Responsibility 8K 强调语义安全与内容责任,适用于内容敏感型应用,确保用户体验的准确性与稳健性。",
"360gpt-turbo.description": "360GPT Turbo 具备强大的计算与对话能力,语义理解与生成效率出色,适合企业与开发者使用。",
"360gpt2-o1.description": "360gpt2-o1 通过树搜索构建思维链,结合反思机制与强化学习训练,实现自我反思与自我纠错。",
"360gpt2-pro.description": "360GPT2 Pro 是 360 推出的高级自然语言处理模型,擅长文本生成与理解,尤其适用于创意任务,能处理复杂转换与角色扮演。",
"360zhinao2-o1.description": "360zhinao2-o1 通过树搜索构建思维链,结合反思机制与强化学习训练,实现自我反思与自我纠错。",
"4.0Ultra.description": "讯飞星火 Ultra 是星火系列中最强大的模型,提升了文本理解与摘要能力,并升级了网页搜索功能。它是提升职场效率与响应准确性的综合解决方案,定位为领先的智能产品。",
"AnimeSharp.description": "AnimeSharp又名“4x-AnimeSharp”是由 Kim2091 基于 ESRGAN 开发的开源超分辨率模型,专注于提升和锐化动漫风格图像。该模型于 2022 年 2 月由原名“4x-TextSharpV1”更名最初也用于文本图像但已针对动漫内容进行了深度优化。",
"Baichuan2-Turbo.description": "通过搜索增强技术将模型与领域知识和网页知识连接,支持 PDF/Word 上传和 URL 输入,实现及时、全面的检索与专业、准确的输出。",
"Baichuan3-Turbo-128k.description": "拥有 128K 超长上下文窗口,专为高频企业场景优化,带来显著提升与高价值。相比 Baichuan2内容创作提升 20%,知识问答提升 17%,角色扮演提升 40%。整体性能优于 GPT-3.5。",
"Baichuan3-Turbo.description": "专为高频企业场景优化,带来显著提升与高价值。相比 Baichuan2内容创作提升 20%,知识问答提升 17%,角色扮演提升 40%。整体性能优于 GPT-3.5。",
"Baichuan4-Air.description": "国内领先模型,在中文任务如知识问答、长文本处理和创意生成方面超越海外主流模型。具备行业领先的多模态能力,在权威评测中表现优异。",
"Baichuan4-Turbo.description": "国内领先模型,在中文任务如知识问答、长文本处理和创意生成方面超越海外主流模型。具备行业领先的多模态能力,在权威评测中表现优异。",
"Baichuan4.description": "国内顶尖性能,在中文任务如百科知识、长文本处理和创意生成方面超越海外主流模型。具备行业领先的多模态能力,在权威评测中表现出色。",
"ByteDance-Seed/Seed-OSS-36B-Instruct.description": "Seed-OSS 是字节跳动 Seed 团队推出的开源大模型系列具备强大的长上下文处理、推理、智能体和通用能力。Seed-OSS-36B-Instruct 是一款 360 亿参数的指令微调模型,原生支持超长上下文,适用于处理大型文档或代码库。该模型在推理、代码生成和智能体任务(工具使用)方面表现出色,同时保留强大的通用能力。其核心特性“思维预算”可灵活控制推理长度,提升效率。",
"DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek R1 是 DeepSeek 系列中更大更智能的模型,已蒸馏至 Llama 70B 架构。基准测试和人工评估显示其在数学和事实精度任务上优于原始 Llama 70B。",
"DeepSeek-R1-Distill-Qwen-1.5B.description": "基于 Qwen2.5-Math-1.5B 的 DeepSeek-R1 蒸馏模型。通过强化学习与冷启动数据优化推理性能,在开源模型中树立多任务新基准。",
"DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1-Distill 模型基于开源模型,使用 DeepSeek-R1 生成的样本数据进行微调。",
"DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill 模型基于开源模型,使用 DeepSeek-R1 生成的样本数据进行微调。",
"DeepSeek-R1-Distill-Qwen-7B.description": "基于 Qwen2.5-Math-7B 的 DeepSeek-R1 蒸馏模型。通过强化学习与冷启动数据优化推理性能,在开源模型中树立多任务新基准。",
"DeepSeek-R1.description": "DeepSeek-R1 在后训练阶段应用大规模强化学习,在极少标注数据下显著提升推理能力,在数学、编程和自然语言推理任务上可与 OpenAI o1 生产模型相媲美。",
"DeepSeek-V3-1.description": "DeepSeek V3.1 是新一代推理模型,提升了复杂推理与思维链能力,适用于深度分析任务。",
"DeepSeek-V3-Fast.description": "提供方sophnet。DeepSeek V3 Fast 是 DeepSeek V3 0324 的高 TPS 版本,采用全精度(非量化),在代码与数学方面更强,响应更快。",
"DeepSeek-V3.1-Fast.description": "DeepSeek V3.1 Fast 是 DeepSeek V3.1 的高 TPS 快速版本。混合思维模式:通过对话模板,一个模型支持思考与非思考模式。更智能的工具使用:后训练优化提升工具与智能体任务表现。",
"DeepSeek-V3.1-Think.description": "DeepSeek-V3.1 思考模式:新型混合推理模型,支持思考与非思考模式,效率优于 DeepSeek-R1-0528。后训练优化显著提升智能体工具使用与任务表现。",
"DeepSeek-V3.description": "DeepSeek-V3 是 DeepSeek 开发的 MoE 模型,在多个基准测试中超越 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,并与 GPT-4o 和 Claude 3.5 Sonnet 等领先闭源模型竞争。",
"Doubao-lite-128k.description": "豆包-lite 提供超快响应和更高性价比,适用于多种场景,支持 128K 上下文推理与微调。",
"Doubao-lite-32k.description": "豆包-lite 提供超快响应和更高性价比,适用于多种场景,支持 32K 上下文推理与微调。",
"Doubao-lite-4k.description": "豆包-lite 提供超快响应和更高性价比,适用于多种场景,支持 4K 上下文推理与微调。",
"Doubao-pro-128k.description": "旗舰性能最强模型,擅长复杂任务,在参考问答、摘要、创作、分类和角色扮演方面表现出色。支持 128K 上下文推理与微调。",
"Doubao-pro-32k.description": "旗舰性能最强模型,擅长复杂任务,在参考问答、摘要、创作、分类和角色扮演方面表现出色。支持 32K 上下文推理与微调。",
"Doubao-pro-4k.description": "旗舰性能最强模型,擅长复杂任务,在参考问答、摘要、创作、分类和角色扮演方面表现出色。支持 4K 上下文推理与微调。",
"DreamO.description": "DreamO 是由字节跳动与北京大学联合开发的开源图像定制模型,采用统一架构支持多任务图像生成。通过高效的组合建模,可根据用户指定的身份、主题、风格、背景等条件生成高度一致的定制图像。",
"ERNIE-3.5-128K.description": "百度旗舰级大模型,基于海量中英文语料训练,具备强大的通用对话、创作和插件使用能力;支持自动集成百度搜索插件,提供最新答案。",
"ERNIE-3.5-8K-Preview.description": "百度旗舰级大模型,基于海量中英文语料训练,具备强大的通用对话、创作和插件使用能力;支持自动集成百度搜索插件,提供最新答案。",
"ERNIE-3.5-8K.description": "百度旗舰级大模型,基于海量中英文语料训练,具备强大的通用对话、创作和插件使用能力;支持自动集成百度搜索插件,提供最新答案。",
"ERNIE-4.0-8K-Latest.description": "百度旗舰级超大模型,全面升级自 ERNIE 3.5,适用于各领域复杂任务;支持百度搜索插件集成,提供实时答案。",
"ERNIE-4.0-8K-Preview.description": "百度旗舰级超大模型,全面升级自 ERNIE 3.5,适用于各领域复杂任务;支持百度搜索插件集成,提供实时答案。",
"ERNIE-4.0-Turbo-8K-Latest.description": "百度旗舰级超大模型,综合性能强劲,适用于复杂任务,集成百度搜索插件,提供实时答案。性能优于 ERNIE 4.0。",
"ERNIE-4.0-Turbo-8K-Preview.description": "百度旗舰级超大模型,综合性能强劲,适用于复杂任务,集成百度搜索插件,提供实时答案。性能优于 ERNIE 4.0。",
"ERNIE-Character-8K.description": "百度面向游戏 NPC、客服和角色扮演的垂直领域大模型具备更清晰的人设一致性、更强的指令理解能力和更优的推理能力。",
"ERNIE-Lite-Pro-128K.description": "百度轻量级大模型,在质量与推理性能之间取得平衡,优于 ERNIE Lite适用于低算力加速器。",
"ERNIE-Speed-128K.description": "百度最新高性能大模型2024具备强大的通用能力适合作为微调基础模型适应特定场景推理能力出色。",
"ERNIE-Speed-Pro-128K.description": "百度最新高性能大模型2024具备强大的通用能力优于 ERNIE Speed适合作为微调基础模型推理能力出色。",
"FLUX-1.1-pro.description": "FLUX.1.1 Pro",
"FLUX.1-Kontext-dev.description": "FLUX.1-Kontext-dev 是 Black Forest Labs 推出的多模态图像生成与编辑模型,基于 Rectified Flow Transformer 架构,拥有 120 亿参数。专注于在给定上下文条件下生成、重建、增强或编辑图像。结合扩散模型的可控生成能力与 Transformer 的上下文建模,支持图像修复、扩图和视觉场景重建等高质量任务。",
"FLUX.1-Kontext-pro.description": "FLUX.1 Kontext [pro]",
"FLUX.1-dev.description": "FLUX.1-dev 是 Black Forest Labs 推出的开源多模态语言模型MLLM优化用于图文任务融合图像/文本理解与生成能力。基于先进的大语言模型(如 Mistral-7B采用精心设计的视觉编码器和多阶段指令微调实现多模态协同与复杂任务推理。",
"Gryphe/MythoMax-L2-13b.description": "MythoMax-L213B是一款面向多领域和复杂任务的创新模型。",
"HelloMeme.description": "HelloMeme 是一款 AI 工具可根据用户提供的图像或动作生成表情包、GIF 或短视频。无需绘画或编程技能,仅需参考图像即可生成有趣、吸引人且风格统一的内容。",
"HiDream-I1-Full.description": "HiDream-E1-Full 是来自 HiDream.ai 的开源多模态图像编辑模型,基于先进的 Diffusion Transformer 架构和强大的语言理解能力(内置 LLaMA 3.1-8B-Instruct。支持自然语言驱动的图像生成、风格迁移、局部编辑和重绘具备出色的图文理解与执行能力。",
"HunyuanDiT-v1.2-Diffusers-Distilled.description": "hunyuandit-v1.2-distilled 是一款轻量级文本生成图像模型,通过蒸馏优化以快速生成高质量图像,特别适合低资源环境和实时生成场景。",
"InstantCharacter.description": "InstantCharacter 是腾讯 AI 于 2025 年发布的免调优个性化角色生成模型,致力于高保真、跨场景一致的角色生成。可通过单张参考图像建模角色,并灵活迁移至不同风格、动作和背景。",
"InternVL2-8B.description": "InternVL2-8B 是一款强大的视觉语言模型,支持多模态图文处理,能够准确识别图像内容并生成相关描述或答案。",
"InternVL2.5-26B.description": "InternVL2.5-26B 是一款强大的视觉语言模型,支持多模态图文处理,能够准确识别图像内容并生成相关描述或答案。",
"Kolors.description": "Kolors 是快手 Kolors 团队开发的文本生成图像模型。拥有数十亿参数,在视觉质量、中文语义理解和文本渲染方面具有显著优势。",
"Kwai-Kolors/Kolors.description": "Kolors 是快手 Kolors 团队推出的大规模潜变量扩散文本生成图像模型。基于数十亿图文对训练,在视觉质量、复杂语义准确性以及中英文文本渲染方面表现出色,具备强大的中文内容理解与生成能力。",
"Kwaipilot/KAT-Dev.description": "KAT-Dev32B是一个面向软件工程任务的开源 32B 模型。在 SWE-Bench Verified 上达到 62.4% 的解决率在开源模型中排名第五。通过中间训练、SFT 和 RL 优化适用于代码补全、Bug 修复和代码审查。",
"Llama-3.2-11B-Vision-Instruct.description": "在高分辨率图像上具备强大的图像推理能力,适用于视觉理解类应用。",
"Llama-3.2-90B-Vision-Instruct\t.description": "面向视觉理解智能体应用的高级图像推理模型。",
"Meta-Llama-3-3-70B-Instruct.description": "Llama 3.3 70B 是一款多用途的 Transformer 模型,适用于对话和文本生成任务。",
"Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 是一款经过指令微调的文本模型,专为多语言对话优化,在开放与闭源聊天模型中,在行业通用基准测试中表现出色。",
"Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 是一款经过指令微调的文本模型,专为多语言对话优化,在开放与闭源聊天模型中,在行业通用基准测试中表现出色。",
"Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 是一款经过指令微调的文本模型,专为多语言对话优化,在开放与闭源聊天模型中,在行业通用基准测试中表现出色。",
"Meta-Llama-3.2-1B-Instruct.description": "前沿的小型语言模型,具备出色的语言理解、推理能力和文本生成能力。",
"Meta-Llama-3.2-3B-Instruct.description": "前沿的小型语言模型,具备出色的语言理解、推理能力和文本生成能力。",
"Meta-Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。指令微调版本专为多语言对话优化在行业基准测试中超越众多开放与闭源聊天模型。知识截止时间2023 年 12 月。",
"Meta-Llama-4-Maverick-17B-128E-Instruct-FP8.description": "Llama 4 Maverick 是一款大型 MoE 模型,采用高效专家激活机制,具备强大的推理能力。",
"MiniMax-M1.description": "一款全新自研推理模型,支持 80K 思维链和 100 万输入,性能媲美全球顶尖模型。",
"MiniMax-M2-Stable.description": "专为高效编程与智能体工作流打造,具备更高并发能力,适用于商业场景。",
"MiniMax-M2.1-Lightning.description": "强大的多语言编程能力,全面升级编程体验。更快、更高效。",
"MiniMax-M2.1.description": "强大的多语言编程能力,全面升级编程体验",
"MiniMax-M2.description": "专为高效编码与智能体工作流打造",
"MiniMax-Text-01.description": "MiniMax-01 引入超越传统 Transformer 的大规模线性注意力机制,拥有 4560 亿参数,每次激活 459 亿,支持最长 400 万上下文(为 GPT-4o 的 32 倍Claude-3.5-Sonnet 的 20 倍),性能顶尖。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 是一款开源权重的大规模混合注意力推理模型,总参数 4560 亿,每个 token 激活约 459 亿。原生支持 100 万上下文,使用 Flash Attention在生成 10 万 token 时比 DeepSeek R1 减少 75% FLOPs。采用 MoE 架构,结合 CISPO 和混合注意力 RL 训练,在长输入推理和真实软件工程任务中表现领先。",
"MiniMaxAI/MiniMax-M2.description": "MiniMax-M2 重新定义了智能体效率。这是一款紧凑、快速、性价比高的 MoE 模型,总参数 2300 亿,激活参数仅 100 亿,专为顶级编程与智能体任务设计,同时保留强大的通用智能。仅用 100 亿激活参数即可媲美更大模型,适用于高效应用场景。",
"Moonshot-Kimi-K2-Instruct.description": "总参数 1 万亿,激活参数 320 亿。在非思维模型中,在前沿知识、数学和编程方面表现顶尖,通用智能体任务能力更强。专为智能体工作负载优化,具备行动能力而非仅限问答。适合即兴对话、通用聊天和智能体体验,具备反射级响应能力,无需长时间思考。",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO总参数 46.7B)是一款高精度指令模型,适用于复杂计算任务。",
"OmniConsistency.description": "OmniConsistency 通过引入大规模扩散 TransformerDiTs和配对风格化数据提升图像到图像任务中的风格一致性与泛化能力避免风格退化。",
"Phi-3-medium-128k-instruct.description": "与 Phi-3-medium 模型相同,但支持更大上下文窗口,适用于 RAG 或少样本提示。",
"Phi-3-medium-4k-instruct.description": "一款拥有 140 亿参数的模型,质量优于 Phi-3-mini专注于高质量、推理密集型数据。",
"Phi-3-mini-128k-instruct.description": "与 Phi-3-mini 模型相同,但支持更大上下文窗口,适用于 RAG 或少样本提示。",
"Phi-3-mini-4k-instruct.description": "Phi-3 系列中最小的成员,优化了质量与低延迟表现。",
"Phi-3-small-128k-instruct.description": "与 Phi-3-small 模型相同,但支持更大上下文窗口,适用于 RAG 或少样本提示。",
"Phi-3-small-8k-instruct.description": "一款拥有 70 亿参数的模型,质量优于 Phi-3-mini专注于高质量、推理密集型数据。",
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 亿参数指令微调大模型。采用 Transformer 架构,结合 SwiGLU、注意力 QKV 偏置和分组查询注意力,支持大输入,语言理解、生成、多语言、编程、数学和推理能力强,超越大多数开源模型,媲美闭源模型。在多个基准测试中优于 Qwen1.5-7B-Chat。",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里云最新大模型系列的一部分。该 70 亿参数模型在编程和数学方面有显著提升,支持 29+ 种语言,增强了指令理解、结构化数据处理和结构化输出(特别是 JSON。",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里云最新面向编程的大模型。基于 Qwen2.5 构建,训练数据达 5.5 万亿 token显著提升代码生成、推理与修复能力同时保留数学与通用能力为编程智能体提供坚实基础。",
"Pro/Qwen/Qwen2.5-VL-7B-Instruct.description": "Qwen2.5-VL 是 Qwen 系列最新的视觉语言模型,具备强大的视觉理解能力。可分析图像中的文本、图表和布局,理解长视频与事件,支持推理与工具使用、多格式目标定位和结构化输出。通过动态分辨率与帧率训练提升视频理解能力,并增强视觉编码器效率。",
"Pro/THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking 是由智谱 AI 与清华 KEG 实验室联合开发的开源视觉语言模型,专为复杂多模态认知设计。基于 GLM-4-9B-0414 构建,加入思维链推理与强化学习,显著提升跨模态推理能力与稳定性。",
"Pro/THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat 是智谱 AI 发布的开源 GLM-4 模型,在语义、数学、推理、编程和知识方面表现出色。除多轮对话外,还支持网页浏览、代码执行、自定义工具调用和长文本推理。支持 26 种语言(包括中文、英文、日语、韩语、德语),在 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等基准测试中表现优异,支持最长 128K 上下文,适用于学术与商业场景。",
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B 是从 Qwen2.5-Math-7B 蒸馏而来,并在 80 万条精心挑选的 DeepSeek-R1 样本上进行微调。该模型表现出色,在 MATH-500 上达到 92.8%,在 AIME 2024 上达到 55.5%,在 CodeForces 上的评分为 11897B 模型)。",
"Pro/deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 是一个基于强化学习RL的推理模型旨在减少重复并提升可读性。在 RL 之前使用冷启动数据进一步增强推理能力,在数学、编程和推理任务上可与 OpenAI-o1 相媲美,并通过精细训练提升整体表现。",
"Pro/deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus 是 V3.1 的更新版本,定位为混合代理大模型。该版本修复了用户反馈的问题,提升了稳定性、语言一致性,并减少了中英文混杂和异常字符。它集成了思维模式与非思维模式,并配备聊天模板以实现灵活切换。同时还提升了代码代理和搜索代理的性能,使工具使用和多步骤任务更加可靠。",
"Pro/deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的实验性版本,作为通往下一代架构的桥梁。在 V3.1-Terminus 的基础上引入了 DeepSeek 稀疏注意力DSA以提升长上下文训练与推理效率并针对工具使用、长文档理解和多步骤推理进行了优化。非常适合探索在大上下文预算下的高效推理能力。",
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一个拥有 6710 亿参数的 MoE 模型,采用 MLA 和 DeepSeekMoE 架构,并通过无损负载均衡实现高效推理与训练。预训练数据量达 14.8 万亿高质量 token并通过 SFT 和 RL 进一步调优,性能超越其他开源模型,接近领先的闭源模型。",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 是最新且最强大的 Kimi K2 模型。作为顶级 MoE 模型,拥有 1 万亿总参数和 320 亿激活参数。其主要特点包括更强的代理式编程智能,在基准测试和真实代理任务中取得显著提升,同时前端代码美观性和可用性也得到优化。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo 是 K2 Thinking 的高性能变体,在保持多步骤推理和工具使用能力的同时,优化了推理速度和吞吐量。该模型为 MoE 架构,拥有约 1 万亿总参数,原生支持 256K 上下文,并在生产场景中具备稳定的大规模工具调用能力,满足更严格的延迟与并发需求。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 是智谱新一代旗舰模型,总参数量达 355B激活参数量为 32B在通用对话、推理和智能体能力方面实现了全面升级。GLM-4.7 强化了交错思考Interleaved Thinking并引入了保留思考Preserved Thinking和轮级思考Turn-level Thinking。",
"QwQ-32B-Preview.description": "Qwen QwQ 是一个实验性研究模型,专注于提升推理能力。",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview 是 Qwen 团队推出的研究模型,专注于视觉推理,擅长复杂场景理解和视觉数学问题。",
"Qwen/QwQ-32B-Preview.description": "Qwen QwQ 是一个实验性研究模型,致力于提升 AI 的推理能力。",
"Qwen/QwQ-32B.description": "QwQ 是 Qwen 系列中的推理模型。与标准的指令微调模型相比它引入了思维与推理机制显著提升了下游任务表现尤其在处理复杂问题时表现突出。QwQ-32B 是一款中等规模的推理模型,在性能上可与 DeepSeek-R1 和 o1-mini 等顶级推理模型竞争。该模型采用 RoPE、SwiGLU、RMSNorm 和带偏置的注意力 QKV拥有 64 层和 40 个 Q 注意力头GQA 中为 8 个 KV。",
"Qwen/Qwen-Image-Edit-2509.description": "Qwen-Image-Edit-2509 是 Qwen 团队推出的最新图像编辑版本,基于 200 亿参数的 Qwen-Image 模型构建,将强大的文本渲染能力扩展至图像编辑,实现精确的文本修改。该模型采用双重控制架构,输入分别传递至 Qwen2.5-VL 进行语义控制和 VAE 编码器进行外观控制,从而实现语义层与外观层的编辑。支持局部编辑(添加/删除/修改)及更高层次的语义编辑,如 IP 创作与风格迁移,同时保持语义一致性,在多个基准测试中取得 SOTA 表现。",
"Qwen/Qwen-Image.description": "Qwen-Image 是 Qwen 团队推出的 200 亿参数图像生成基础模型,在复杂文本渲染和精确图像编辑方面取得重大突破,尤其擅长高保真中英文文本渲染。支持多行及段落排版,保持排版一致性。除文本渲染外,还支持从写实风格到动漫风格的多种图像风格,以及风格迁移、对象添加/删除、细节增强、文本编辑和姿态控制等高级编辑功能,致力于打造全面的视觉创作基础模型。",
"Qwen/Qwen2-72B-Instruct.description": "Qwen 2 Instruct72B在企业级任务中提供精准的指令执行能力。",
"Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的 7B 指令微调模型,采用 Transformer 架构,结合 SwiGLU、QKV 偏置和分组查询注意力。该模型可处理大规模输入,在理解、生成、多语言、编程、数学和推理等基准测试中表现优异,超越大多数开源模型,并在多项评估中优于 Qwen1.5-7B-Chat。",
"Qwen/Qwen2-VL-72B-Instruct.description": "Qwen2-VL 是最新的 Qwen-VL 模型,在 MathVista、DocVQA、RealWorldQA 和 MTVQA 等视觉基准测试中达到 SOTA 水平。支持超过 20 分钟的视频理解,适用于视频问答、对话和内容创作。具备复杂推理与决策能力,可与设备/机器人集成,实现视觉驱动的操作。除中英文外,还能识别多种语言文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语。",
"Qwen/Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct 是阿里云最新大语言模型系列的一部分。该 14B 模型在编程和数学方面有显著提升,支持 29 种以上语言,并在指令理解、结构化数据理解和结构化输出(尤其是 JSON方面表现更优。",
"Qwen/Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct 是阿里云最新大语言模型系列的一部分。该 32B 模型在编程和数学方面有显著提升,支持 29 种以上语言,并在指令理解、结构化数据理解和结构化输出(尤其是 JSON方面表现更优。",
"Qwen/Qwen2.5-72B-Instruct-128K.description": "Qwen2.5-72B-Instruct 是阿里云最新大语言模型系列的一部分。该 72B 模型在编程和数学方面表现更强,支持最多 128K 输入和超过 8K 输出,覆盖 29 种以上语言,并在指令理解和结构化输出(尤其是 JSON方面有显著提升。",
"Qwen/Qwen2.5-72B-Instruct-Turbo.description": "Qwen2.5 是一个专为指令类任务优化的大语言模型系列。",
"Qwen/Qwen2.5-72B-Instruct.description": "Qwen2.5-72B-Instruct 是阿里云最新大语言模型系列的一部分。该 72B 模型在编程和数学方面有显著提升,支持 29 种以上语言,并在指令理解、结构化数据理解和结构化输出(尤其是 JSON方面表现更优。",
"Qwen/Qwen2.5-7B-Instruct-Turbo.description": "Qwen2.5 是一个专为指令类任务优化的大语言模型系列。",
"Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里云最新大语言模型系列的一部分。该 7B 模型在编程和数学方面有显著提升,支持 29 种以上语言,并在指令理解、结构化数据理解和结构化输出(尤其是 JSON方面表现更优。",
"Qwen/Qwen2.5-Coder-32B-Instruct.description": "Qwen2.5 Coder 32B Instruct 是阿里云最新面向编程的大语言模型。基于 Qwen2.5 构建,并使用 5.5 万亿 tokens 进行训练,在代码生成、推理和修复方面有显著提升,同时保留数学和通用能力,为构建编程智能体提供强大基础。",
"Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里云最新面向编程的大语言模型。基于 Qwen2.5 构建,并使用 5.5 万亿 tokens 进行训练,在代码生成、推理和修复方面有显著提升,同时保留数学和通用能力,为构建编程智能体提供坚实基础。",
"Qwen/Qwen2.5-VL-32B-Instruct.description": "Qwen2.5-VL-32B-Instruct 是 Qwen 团队推出的多模态模型。它能够识别常见物体并分析文本、图表、图标、图形和布局。作为视觉智能体,它可进行推理并动态控制工具,包括电脑和手机操作。它能精准定位物体,并为发票和表格生成结构化输出。相比 Qwen2-VL强化学习进一步提升了数学和问题解决能力生成更符合人类偏好的响应。",
"Qwen/Qwen2.5-VL-72B-Instruct.description": "Qwen2.5-VL 是 Qwen2.5 系列中的视觉语言模型,具备重大升级:更强的视觉理解能力,涵盖物体、文本、图表和布局;作为视觉智能体具备动态工具使用能力;支持超过 1 小时的视频理解并捕捉关键事件;通过框或点实现精准物体定位;为扫描数据如发票和表格生成结构化输出。",
"Qwen/Qwen3-14B.description": "Qwen3 是新一代通义千问模型,在推理能力、通用能力、智能体能力和多语言表现方面有重大提升,支持思维模式切换。",
"Qwen/Qwen3-235B-A22B-Instruct-2507.description": "Qwen3-235B-A22B-Instruct-2507 是 Qwen3 的旗舰 MoE 模型,总参数 235B激活参数 22B。该版本为非思维模式专注于提升指令理解、逻辑推理、文本理解、数学、科学、编程和工具使用能力。同时扩展多语言长尾知识更好地契合用户在主观开放任务中的偏好。",
"Qwen/Qwen3-235B-A22B-Thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 是专注于复杂推理的 Qwen3 模型。采用 MoE 架构,总参数 235B每个 token 激活约 22B 参数,提升效率。作为专用思维模型,在逻辑、数学、科学、编程和学术基准测试中表现卓越,达到顶级开放思维性能。同时提升了指令理解、工具使用和文本生成能力,原生支持 256K 上下文,适用于深度推理和长文档处理。",
"Qwen/Qwen3-235B-A22B.description": "Qwen3 是新一代通义千问模型,在推理能力、通用能力、智能体能力和多语言表现方面有重大提升,支持思维模式切换。",
"Qwen/Qwen3-30B-A3B-Instruct-2507.description": "Qwen3-30B-A3B-Instruct-2507 是 Qwen3-30B-A3B 的更新版非思维模型。该模型为 MoE 架构,总参数 30.5B,激活参数 3.3B。显著提升了指令理解、逻辑推理、文本理解、数学、科学、编程和工具使用能力,扩展多语言长尾知识,并更好地契合用户在主观开放任务中的偏好。支持 256K 上下文。该模型仅为非思维模式,不会输出 `<think></think>` 标签。",
"Qwen/Qwen3-30B-A3B-Thinking-2507.description": "Qwen3-30B-A3B-Thinking-2507 是 Qwen3 系列中最新的思维模型。采用 MoE 架构,总参数 30.5B,激活参数 3.3B,专注于复杂任务。在逻辑、数学、科学、编程和学术基准测试中表现显著提升,同时增强了指令理解、工具使用、文本生成和偏好对齐能力。原生支持 256K 上下文,并可扩展至 1M tokens。该版本专为思维模式设计具备详细的逐步推理能力和强大的智能体能力。",
"Qwen/Qwen3-30B-A3B.description": "Qwen3 是新一代通义千问模型,在推理能力、通用能力、智能体能力和多语言表现方面有重大提升,支持思维模式切换。",
"Qwen/Qwen3-32B.description": "Qwen3 是新一代通义千问模型,在推理能力、通用能力、智能体能力和多语言表现方面有重大提升,支持思维模式切换。",
"Qwen/Qwen3-8B.description": "Qwen3 是新一代通义千问模型,在推理能力、通用能力、智能体能力和多语言表现方面有重大提升,支持思维模式切换。",
"Qwen/Qwen3-Coder-30B-A3B-Instruct.description": "Qwen3-Coder-30B-A3B-Instruct 是 Qwen 团队推出的 Qwen3 系列代码模型。该模型在保持高性能和高效率的同时,显著增强了代码能力。在智能体编程、自动化浏览器操作和工具使用等开放模型中表现出色。原生支持 256K 上下文,并可扩展至 1M tokens适用于代码库级理解。支持 Qwen Code 和 CLINE 等平台的智能体编程,采用专用函数调用格式。",
"Qwen/Qwen3-Coder-480B-A35B-Instruct.description": "Qwen3-Coder-480B-A35B-Instruct 是阿里巴巴迄今为止最具智能体能力的代码模型。该模型为 MoE 架构,总参数 480B激活参数 35B在效率与性能之间实现平衡。原生支持 256K 上下文,并可通过 YaRN 扩展至 1M tokens支持大规模代码库处理。专为智能体编程工作流设计能够与工具和环境交互解决复杂编程任务。在代码和智能体基准测试中表现优异可媲美 Claude Sonnet 4 等领先模型。",
"Qwen/Qwen3-Next-80B-A3B-Instruct.description": "Qwen3-Next-80B-A3B-Instruct 是一款基于 Qwen3-Next 架构的下一代基础模型,具备极高的训练与推理效率。该模型融合了混合注意力机制(门控 DeltaNet + 门控注意力)、高度稀疏的 MoE 架构以及训练稳定性优化。尽管总参数量为 800 亿,但推理时仅激活约 30 亿参数,大幅降低计算成本,在超过 32K 上下文长度下,相较 Qwen3-32B 实现了 10 倍以上的吞吐提升。该版本经过指令微调,面向通用任务(不启用“思考”模式),在部分基准测试中表现可与 Qwen3-235B 相媲美,尤其在超长上下文任务中展现出显著优势。",
"Qwen/Qwen3-Next-80B-A3B-Thinking.description": "Qwen3-Next-80B-A3B-Thinking 是一款面向复杂推理任务的下一代基础模型,采用 Qwen3-Next 架构,结合混合注意力机制(门控 DeltaNet + 门控注意力)与高度稀疏的 MoE 架构,实现极致的训练与推理效率。模型总参数为 800 亿,推理时仅激活约 30 亿参数,在超过 32K 上下文长度下,相较 Qwen3-32B 实现了 10 倍以上的吞吐提升。该“思考”版本专为多步骤任务设计,如证明、代码生成、逻辑分析与规划,能够输出结构化的思维链条。其性能超越 Qwen3-32B-Thinking并在多个基准测试中优于 Gemini-2.5-Flash-Thinking。",
"Qwen/Qwen3-Omni-30B-A3B-Captioner.description": "Qwen3-Omni-30B-A3B-Captioner 是 Qwen3 系列的视觉语言模型VLM专为生成高质量、细致且准确的图像描述而设计。该模型采用 300 亿参数的 MoE 架构,具备深度图像理解能力,能够流畅生成描述,擅长捕捉细节、理解场景、识别物体及进行关系推理。",
"Qwen/Qwen3-Omni-30B-A3B-Instruct.description": "Qwen3-Omni-30B-A3B-Instruct 是 Qwen3 系列的 MoE 模型,拥有 300 亿总参数和 30 亿激活参数,在保持强大性能的同时降低推理成本。该模型基于高质量多源多语种数据训练,支持全模态输入(文本、图像、音频、视频)及跨模态理解与生成。",
"Qwen/Qwen3-Omni-30B-A3B-Thinking.description": "Qwen3-Omni-30B-A3B-Thinking 是 Qwen3-Omni 的核心“思考者”组件,能够处理多模态输入(文本、音频、图像、视频),并执行复杂的思维链推理。它将多模态信息统一为共享表示,实现深度跨模态理解。该模型采用 MoE 架构,拥有 300 亿总参数和 30 亿激活参数,在推理能力与计算效率之间实现良好平衡。",
"Qwen/Qwen3-VL-235B-A22B-Instruct.description": "Qwen3-VL-235B-A22B-Instruct 是一款基于 MoE 架构的大型指令微调视觉语言模型,具备卓越的多模态理解与生成能力。原生支持 256K 上下文长度,适用于高并发生产级多模态服务场景。",
"Qwen/Qwen3-VL-235B-A22B-Thinking.description": "Qwen3-VL-235B-A22B-Thinking 是 Qwen3-VL 的旗舰“思考”版本,专为复杂多模态推理、长上下文推理及企业级智能体交互优化。",
"Qwen/Qwen3-VL-30B-A3B-Instruct.description": "Qwen3-VL-30B-A3B-Instruct 是一款经过指令微调的 Qwen3-VL 模型,具备强大的视觉语言理解与生成能力。原生支持 256K 上下文长度,适用于多模态对话与图像条件生成任务。",
"Qwen/Qwen3-VL-30B-A3B-Thinking.description": "Qwen3-VL-30B-A3B-Thinking 是 Qwen3-VL 的推理增强版本,专为多模态推理、图像转代码及复杂视觉理解任务优化。支持 256K 上下文,具备更强的思维链能力。",
"Qwen/Qwen3-VL-32B-Instruct.description": "Qwen3-VL-32B-Instruct 是 Qwen 团队推出的视觉语言模型,在多个 VL 基准测试中取得领先 SOTA 成绩。支持百万像素分辨率图像,具备强大的视觉理解、多语种 OCR、细粒度视觉定位与视觉对话能力能够处理复杂多模态任务并支持工具调用与前缀补全。",
"Qwen/Qwen3-VL-32B-Thinking.description": "Qwen3-VL-32B-Thinking 针对复杂视觉推理任务进行了优化,内置“思考模式”,在生成答案前输出中间推理步骤,提升多步骤逻辑、规划与复杂推理能力。支持百万像素图像,具备强大的视觉理解、多语种 OCR、细粒度定位、视觉对话、工具调用与前缀补全能力。",
"Qwen/Qwen3-VL-8B-Instruct.description": "Qwen3-VL-8B-Instruct 是基于 Qwen3-8B-Instruct 构建的视觉语言模型,训练于大规模图文数据,擅长通用视觉理解、以视觉为中心的对话及图像中的多语种文本识别,适用于视觉问答、图像描述、多模态指令跟随与工具使用等任务。",
"Qwen/Qwen3-VL-8B-Thinking.description": "Qwen3-VL-8B-Thinking 是 Qwen3 的视觉思考版本,专为复杂多步骤推理任务优化。在生成答案前输出思维链,提升准确性,适用于深度视觉问答与图像细节分析。",
"Qwen2-72B-Instruct.description": "Qwen2 是 Qwen 系列的最新版本,支持 128K 上下文窗口。与当前最强的开源模型相比Qwen2-72B 在自然语言理解、知识、代码、数学及多语种能力方面显著领先。",
"Qwen2-7B-Instruct.description": "Qwen2 是 Qwen 系列的最新版本超越同尺寸甚至更大尺寸的开源模型。Qwen2 7B 在多个基准测试中表现出显著优势,尤其在代码与中文理解方面。",
"Qwen2-VL-72B.description": "Qwen2-VL-72B 是一款强大的视觉语言模型,支持多模态图文处理,能够准确识别图像内容并生成相关描述或答案。",
"Qwen2.5-14B-Instruct.description": "Qwen2.5-14B-Instruct 是一款拥有 140 亿参数的大语言模型,性能强劲,针对中文及多语种场景优化,支持智能问答与内容生成。",
"Qwen2.5-32B-Instruct.description": "Qwen2.5-32B-Instruct 是一款拥有 320 亿参数的大语言模型,性能均衡,针对中文及多语种场景优化,支持智能问答与内容生成。",
"Qwen2.5-72B-Instruct.description": "一款面向中英文的 LLM针对语言、编程、数学与推理任务进行调优。",
"Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是一款拥有 70 亿参数的大语言模型,支持函数调用与外部系统无缝集成,极大提升灵活性与可扩展性。针对中文及多语种场景优化,支持智能问答与内容生成。",
"Qwen2.5-Coder-14B-Instruct.description": "Qwen2.5-Coder-14B-Instruct 是一款大规模预训练的编程指令模型,具备强大的代码理解与生成能力,能够高效处理多种编程任务,适用于智能编程、自动脚本生成与编程问答。",
"Qwen2.5-Coder-32B-Instruct.description": "高级 LLM支持多种主流编程语言的代码生成、推理与错误修复。",
"Qwen3-235B-A22B-Instruct-2507-FP8.description": "Qwen3 235B A22B Instruct 2507 通过 MoE 架构优化推理效率,专为高级推理与指令跟随任务设计。",
"Qwen3-235B.description": "Qwen3-235B-A22B 是一款 MoE 模型,引入混合推理模式,用户可在“思考”与“非思考”之间无缝切换。支持 119 种语言与方言的理解与推理,具备强大的工具调用能力,在通用能力、代码与数学、多语种能力及知识推理等多个基准测试中,与 DeepSeek R1、OpenAI o1、o3-mini、Grok 3 及 Google Gemini 2.5 Pro 等主流模型展开竞争。",
"Qwen3-32B.description": "Qwen3-32B 是一款稠密模型,引入混合推理模式,用户可在“思考”与“非思考”之间切换。通过架构改进、数据增强与训练优化,其性能可与 Qwen2.5-72B 相媲美。",
"SenseChat-128K.description": "基于V4的128K上下文模型擅长长文本理解与生成。",
"SenseChat-32K.description": "基于V4的32K上下文模型适用于多种场景灵活高效。",
"SenseChat-5-1202.description": "基于V5.5的最新版本,在中英文基础能力、对话、理工知识、人文知识、写作、数学/逻辑及长度控制方面有显著提升。",
"SenseChat-5-Cantonese.description": "专为香港本地对话习惯、俚语及本地知识设计粤语理解超越GPT-4知识、推理、数学与编程能力媲美GPT-4 Turbo。",
"SenseChat-5-beta.description": "部分性能超越SenseChat-5-1202。",
"SenseChat-5.description": "最新V5.5版本支持128K上下文在数学推理、英文对话、指令理解及长文本处理方面有重大提升整体表现可与GPT-4o媲美。",
"SenseChat-Character-Pro.description": "高级角色对话模型支持32K上下文能力增强支持中英文。",
"SenseChat-Character.description": "标准角色对话模型支持8K上下文响应速度快。",
"SenseChat-Turbo-1202.description": "最新轻量模型在推理成本大幅降低的同时达到90%以上的全模型能力。",
"SenseChat-Turbo.description": "适用于快速问答及模型微调场景。",
"SenseChat-Vision.description": "最新V5.5版本,支持多图输入,在属性识别、空间关系、动作/事件检测、场景理解、情感识别、常识推理及文本理解/生成方面全面提升。",
"SenseChat.description": "基于V4的4K上下文模型具备强大的通用能力。",
"SenseNova-V6-5-Pro.description": "通过多模态、语言与推理数据的全面更新及训练策略优化新模型在多模态推理与通用指令理解方面显著提升支持最多128K上下文窗口擅长OCR与文旅IP识别任务。",
"SenseNova-V6-5-Turbo.description": "通过多模态、语言与推理数据的全面更新及训练策略优化新模型在多模态推理与通用指令理解方面显著提升支持最多128K上下文窗口擅长OCR与文旅IP识别任务。",
"SenseNova-V6-Pro.description": "原生统一图像、文本与视频打破传统多模态壁垒在OpenCompass与SuperCLUE等评测中名列前茅。",
"SenseNova-V6-Reasoner.description": "融合视觉与语言的深度推理,支持慢思考与完整思维链。",
"SenseNova-V6-Turbo.description": "原生统一图像、文本与视频,打破传统多模态壁垒;在核心多模态与语言能力方面领先,在多项评测中表现优异。",
"Skylark2-lite-8k.description": "Skylark第二代模型。Skylark2-lite响应迅速适用于对准确率要求不高的实时、成本敏感场景支持8K上下文窗口。",
"Skylark2-pro-32k.description": "Skylark第二代模型。Skylark2-pro具备更高准确率适用于专业文案、小说创作及高质量翻译等复杂文本生成任务支持32K上下文窗口。",
"Skylark2-pro-4k.description": "Skylark第二代模型。Skylark2-pro具备更高准确率适用于专业文案、小说创作及高质量翻译等复杂文本生成任务支持4K上下文窗口。",
"Skylark2-pro-character-4k.description": "Skylark第二代模型。Skylark2-pro-character擅长角色扮演与对话能根据提示展现鲜明人设风格适用于聊天机器人、虚拟助手与客服场景响应迅速。",
"Skylark2-pro-turbo-8k.description": "Skylark第二代模型。Skylark2-pro-turbo-8k在保持8K上下文窗口的同时实现更快推理与更低成本。",
"THUDM/GLM-4-32B-0414.description": "GLM-4-32B-0414是下一代开放GLM模型拥有32B参数性能可与OpenAI GPT及DeepSeek V3/R1系列媲美。",
"THUDM/GLM-4-9B-0414.description": "GLM-4-9B-0414是9B参数的GLM模型继承GLM-4-32B技术部署更轻量擅长代码生成、网页设计、SVG生成与基于搜索的写作。",
"THUDM/GLM-4.1V-9B-Thinking.description": "GLM-4.1V-9B-Thinking是由智谱AI与清华KEG实验室联合推出的开源视觉语言模型专为复杂多模态认知设计。基于GLM-4-9B-0414加入思维链推理与强化学习显著提升跨模态推理能力与稳定性。",
"THUDM/GLM-Z1-32B-0414.description": "GLM-Z1-32B-0414是基于GLM-4-32B-0414构建的深度推理模型结合冷启动数据与扩展强化学习在数学、代码与逻辑任务上显著优于基础模型。",
"THUDM/GLM-Z1-9B-0414.description": "GLM-Z1-9B-0414是9B参数的小型GLM模型保留开源优势具备强大能力在数学推理与通用任务上表现出色在同类开源模型中领先。",
"THUDM/GLM-Z1-Rumination-32B-0414.description": "GLM-Z1-Rumination-32B-0414是具备深度思考能力的推理模型对标OpenAI Deep Research。与传统深度思考模型不同它通过更长时间的思考解决更开放复杂的问题。",
"THUDM/glm-4-9b-chat.description": "GLM-4-9B-Chat是智谱AI开源的GLM-4模型在语义、数学、推理、代码与知识方面表现出色。除多轮对话外还支持网页浏览、代码执行、自定义工具调用与长文本推理。支持26种语言包括中文、英文、日文、韩文、德文在AlignBench-v2、MT-Bench、MMLU与C-Eval等评测中表现优异支持128K上下文适用于学术与商业场景。",
"Tongyi-Zhiwen/QwenLong-L1-32B.description": "QwenLong-L1-32B是首个通过强化学习训练的长上下文推理模型LRM专为长文本推理优化。其渐进式上下文扩展RL策略实现从短到长上下文的稳定迁移。在七个长文档问答基准上超越OpenAI-o3-mini与Qwen3-235B-A22B媲美Claude-3.7-Sonnet-Thinking尤其擅长数学、逻辑与多跳推理。",
"Yi-34B-Chat.description": "Yi-1.5-34B在保留系列强大通用语言能力的基础上通过对5000亿高质量token的增量训练显著提升数学逻辑与编程能力。",
"abab5.5-chat.description": "专为高效文本生成与复杂任务处理的专业场景设计,提升工作效率。",
"abab5.5s-chat.description": "专为中文人设对话设计,提供高质量中文对话体验,适用于多种应用场景。",
"abab6.5g-chat.description": "专为多语言人设对话设计,支持高质量英文及其他语言的对话生成。",
"abab6.5s-chat.description": "适用于多种自然语言处理任务,包括文本生成与对话系统。",
"abab6.5t-chat.description": "针对中文人设对话优化,提供符合中文表达习惯的流畅对话体验。",
"accounts/fireworks/models/deepseek-r1.description": "DeepSeek-R1是最先进的大语言模型结合强化学习与冷启动数据优化具备卓越的推理、数学与编程能力。",
"accounts/fireworks/models/deepseek-v3.description": "DeepSeek推出的强大专家混合MoE语言模型总参数671B每个token激活37B参数。",
"accounts/fireworks/models/llama-v3-70b-instruct.description": "Meta 开发并发布了 Meta Llama 3 大语言模型系列,包括 8B 和 70B 参数规模的预训练与指令微调文本生成模型。Llama 3 的指令微调模型专为对话场景优化,在多个行业通用基准测试中优于许多现有的开源聊天模型。",
"accounts/fireworks/models/llama-v3-8b-instruct-hf.description": "Meta Llama 3 的指令微调模型专为对话场景优化在多个行业通用基准测试中优于许多现有的开源聊天模型。Llama 3 8B InstructHF 版本)是 Llama 3 8B Instruct 的原始 FP16 版本,预期结果与 Hugging Face 官方实现一致。",
"accounts/fireworks/models/llama-v3-8b-instruct.description": "Meta 开发并发布了 Meta Llama 3 大语言模型系列,包括 8B 和 70B 参数规模的预训练与指令微调文本生成模型。Llama 3 的指令微调模型专为对话场景优化,在多个行业通用基准测试中优于许多现有的开源聊天模型。",
"accounts/fireworks/models/llama-v3p1-405b-instruct.description": "Meta Llama 3.1 是一个多语言大语言模型系列,提供 8B、70B 和 405B 参数规模的预训练与指令微调生成模型。指令微调模型专为多语言对话优化在多个行业通用基准测试中优于许多开源和闭源聊天模型。405B 是 Llama 3.1 系列中最强大的模型,采用 FP8 推理,性能接近参考实现。",
"accounts/fireworks/models/llama-v3p1-70b-instruct.description": "Meta Llama 3.1 是一个多语言大语言模型系列,提供 8B、70B 和 405B 参数规模的预训练与指令微调生成模型。指令微调模型专为多语言对话优化,在多个行业通用基准测试中优于许多开源和闭源聊天模型。",
"accounts/fireworks/models/llama-v3p1-8b-instruct.description": "Meta Llama 3.1 是一个多语言大语言模型系列,提供 8B、70B 和 405B 参数规模的预训练与指令微调生成模型。指令微调模型专为多语言对话优化,在多个行业通用基准测试中优于许多开源和闭源聊天模型。",
"accounts/fireworks/models/llama-v3p2-11b-vision-instruct.description": "Meta 推出的一个拥有 110 亿参数的指令微调视觉推理模型,专为图像识别、图像推理、图像描述和图像相关问答优化。该模型能够理解图表等视觉数据,并通过生成图像细节的文本描述实现视觉与语言的融合。",
"accounts/fireworks/models/llama-v3p2-3b-instruct.description": "Llama 3.2 3B Instruct 是 Meta 推出的轻量级多语言模型,具备高效运行能力,在延迟和成本方面相较于大型模型具有显著优势。典型应用包括查询/提示重写和写作辅助。",
"accounts/fireworks/models/llama-v3p2-90b-vision-instruct.description": "Meta 推出的一个拥有 900 亿参数的指令微调视觉推理模型专为图像识别、图像推理、图像描述和图像相关问答优化。该模型能够理解图表等视觉数据并通过生成图像细节的文本描述实现视觉与语言的融合。注意该模型目前作为无服务器模型实验性提供Fireworks 可能会在短时间内终止部署,生产环境使用请注意。",
"accounts/fireworks/models/llama-v3p3-70b-instruct.description": "Llama 3.3 70B Instruct 是 Llama 3.1 70B 的 12 月更新版本,在工具使用、多语言文本支持、数学和编程方面相较 2024 年 7 月版本有显著提升。该模型在推理、数学和指令遵循方面达到行业领先水平,性能接近 3.1 405B同时具备更高的速度和成本优势。",
"accounts/fireworks/models/mistral-small-24b-instruct-2501.description": "一个拥有 240 亿参数的模型,具备与更大模型相当的先进能力。",
"accounts/fireworks/models/mixtral-8x22b-instruct.description": "Mixtral MoE 8x22B Instruct v0.1 是 Mixtral MoE 8x22B v0.1 的指令微调版本,启用了聊天补全 API。",
"accounts/fireworks/models/mixtral-8x7b-instruct.description": "Mixtral MoE 8x7B Instruct 是 Mixtral MoE 8x7B 的指令微调版本,启用了聊天补全 API。",
"accounts/fireworks/models/mythomax-l2-13b.description": "MythoMix 的改进版本,可能是其更精致的形式,融合了 MythoLogic-L2 和 Huginn并采用高度实验性的张量合并技术。其独特性使其在讲故事和角色扮演方面表现出色。",
"accounts/fireworks/models/phi-3-vision-128k-instruct.description": "Phi-3-Vision-128K-Instruct 是一个轻量级、先进的开源多模态模型,基于合成数据和精选的公共网络数据集构建,专注于高质量、推理密集型的文本与视觉数据。该模型属于 Phi-3 系列,支持 128K 上下文长度(以 token 计)。通过监督微调和偏好优化等严格增强过程,确保指令遵循的准确性和强大的安全性。",
"accounts/fireworks/models/qwen-qwq-32b-preview.description": "Qwen QwQ 模型专注于推动 AI 推理能力展示了开源模型在推理方面可与闭源前沿模型媲美。QwQ-32B-Preview 是一个实验性版本,在 GPQA、AIME、MATH-500 和 LiveCodeBench 等推理与分析任务中达到 o1 水平并超越 GPT-4o 和 Claude 3.5 Sonnet。注意该模型目前作为无服务器模型实验性提供Fireworks 可能会在短时间内终止部署,生产环境使用请注意。",
"accounts/fireworks/models/qwen2-vl-72b-instruct.description": "72B Qwen-VL 模型是阿里巴巴最新版本,体现了近一年的创新成果。",
"accounts/fireworks/models/qwen2p5-72b-instruct.description": "Qwen2.5 是由 Qwen 团队与阿里云联合开发的仅解码器大语言模型系列,提供 0.5B、1.5B、3B、7B、14B、32B 和 72B 参数规模,涵盖基础模型与指令微调版本。",
"accounts/fireworks/models/qwen2p5-coder-32b-instruct.description": "Qwen2.5-Coder 是最新的 Qwen 编码大语言模型(前身为 CodeQwen。注意该模型目前作为无服务器模型实验性提供Fireworks 可能会在短时间内终止部署,生产环境使用请注意。",
"accounts/yi-01-ai/models/yi-large.description": "Yi-Large 是一款顶级大语言模型,在 LMSYS 排行榜上仅次于 GPT-4、Gemini 1.5 Pro 和 Claude 3 Opus。该模型在多语言能力方面表现出色尤其擅长西班牙语、中文、日语、德语和法语。Yi-Large 也非常适合开发者使用,采用与 OpenAI 相同的 API 架构,便于集成。",
"ai21-jamba-1.5-large.description": "一个拥有 3980 亿参数(其中 940 亿激活)的多语言模型,支持 256K 上下文窗口、函数调用、结构化输出和基于事实的生成。",
"ai21-jamba-1.5-mini.description": "一个拥有 520 亿参数(其中 120 亿激活)的多语言模型,支持 256K 上下文窗口、函数调用、结构化输出和基于事实的生成。",
"ai21-labs/AI21-Jamba-1.5-Large.description": "一个拥有 3980 亿参数(其中 940 亿激活)的多语言模型,支持 256K 上下文窗口、函数调用、结构化输出和基于事实的生成。",
"ai21-labs/AI21-Jamba-1.5-Mini.description": "一个拥有 520 亿参数(其中 120 亿激活)的多语言模型,支持 256K 上下文窗口、函数调用、结构化输出和基于事实的生成。",
"alibaba/qwen-3-14b.description": "Qwen3 是 Qwen 系列的最新一代,提供全面的稠密与 MoE 模型组合。基于大规模训练,在推理、指令遵循、智能体能力和多语言支持方面实现突破。",
"alibaba/qwen-3-235b.description": "Qwen3 是 Qwen 系列的最新一代,提供全面的稠密与 MoE 模型组合。基于大规模训练,在推理、指令遵循、智能体能力和多语言支持方面实现突破。",
"alibaba/qwen-3-30b.description": "Qwen3 是 Qwen 系列的最新一代,提供全面的稠密与 MoE 模型组合。基于大规模训练,在推理、指令遵循、智能体能力和多语言支持方面实现突破。",
"alibaba/qwen-3-32b.description": "Qwen3 是 Qwen 系列的最新一代,提供全面的稠密与 MoE 模型组合。基于大规模训练,在推理、指令遵循、智能体能力和多语言支持方面实现突破。",
"alibaba/qwen3-coder.description": "Qwen3-Coder-480B-A35B-Instruct 是 Qwen 系列中最具智能体能力的代码模型,在智能体编程、浏览器操作等核心编程任务中表现强劲,达到 Claude Sonnet 水平。",
"amazon/nova-lite.description": "一款极低成本的多模态模型,能够以极快速度处理图像、视频和文本输入。",
"amazon/nova-micro.description": "一款仅支持文本的模型,具备超低延迟和极低成本。",
"amazon/nova-pro.description": "一款功能强大的多模态模型,在准确性、速度和成本之间实现最佳平衡,适用于多种任务。",
"amazon/titan-embed-text-v2.description": "Amazon Titan Text Embeddings V2 是一个轻量级、高效的多语言嵌入模型,支持 1024、512 和 256 维度。",
"anthropic.claude-3-5-sonnet-20240620-v1:0.description": "Claude 3.5 Sonnet 提升了行业标准,在广泛评估中超越竞争对手和 Claude 3 Opus同时保持中等速度和成本。",
"anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet 提升了行业标准,在广泛评估中超越竞争对手和 Claude 3 Opus同时保持中等速度和成本。",
"anthropic.claude-3-haiku-20240307-v1:0.description": "Claude 3 Haiku 是 Anthropic 迄今最快、最紧凑的模型,能为简单查询提供近乎即时的响应。它支持图像输入,具备 200K 上下文窗口,带来流畅自然的 AI 交互体验。",
"anthropic.claude-3-opus-20240229-v1:0.description": "Claude 3 Opus 是 Anthropic 最强大的 AI 模型,在处理高度复杂任务方面表现卓越。它能流畅应对开放式提示和新颖场景,具备类人理解能力,并支持图像输入和 200K 上下文窗口。",
"anthropic.claude-3-sonnet-20240229-v1:0.description": "Claude 3 Sonnet 在智能与速度之间实现平衡,适用于企业级工作负载,具备高性价比。支持图像输入和 200K 上下文窗口,是大规模 AI 部署的可靠选择。",
"anthropic.claude-instant-v1.description": "一款快速、经济且功能强大的模型,适用于日常对话、文本分析、摘要生成和文档问答。",
"anthropic.claude-v2.description": "一款功能全面的模型,擅长处理复杂对话、创意生成和详细指令执行等任务。",
"anthropic.claude-v2:1.description": "Claude 2 的升级版,具备双倍上下文窗口,并在长文档处理和 RAG 场景中提升了可靠性、幻觉率和基于证据的准确性。",
"anthropic/claude-3-haiku.description": "Claude 3 Haiku 是 Anthropic 迄今最快的模型,专为企业级长提示工作负载设计。可快速分析季度报告、合同或法律案件等大型文档,成本仅为同类模型的一半。",
"anthropic/claude-3-opus.description": "Claude 3 Opus 是 Anthropic 最智能的模型,在处理高度复杂任务方面表现领先,能流畅应对开放式提示和新颖场景,具备类人理解能力。",
"anthropic/claude-3.5-haiku.description": "Claude 3.5 Haiku 提升了速度、编程准确性和工具使用能力,适用于对速度和工具交互要求较高的场景。",
"anthropic/claude-3.5-sonnet.description": "Claude 3.5 Sonnet 是 Sonnet 系列中快速高效的模型,具备更强的编程和推理能力,部分版本将逐步被 Sonnet 3.7 及后续版本取代。",
"anthropic/claude-3.7-sonnet.description": "Claude 3.7 Sonnet 是升级版 Sonnet 模型,具备更强的推理和编程能力,适用于企业级复杂任务。",
"anthropic/claude-haiku-4.5.description": "Claude Haiku 4.5 是 Anthropic 的高性能快速模型,在保持高准确率的同时实现极低延迟。",
"anthropic/claude-opus-4.1.description": "Opus 4.1 是 Anthropic 的高端模型,专为编程、复杂推理和长时间任务优化。",
"anthropic/claude-opus-4.5.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合顶级智能与可扩展性能,适用于复杂、高质量推理任务。",
"anthropic/claude-opus-4.description": "Opus 4 是 Anthropic 的旗舰模型,专为复杂任务和企业应用设计。",
"anthropic/claude-sonnet-4.5.description": "Claude Sonnet 4.5 是 Anthropic 最新的混合推理模型,专为复杂推理和编程优化。",
"anthropic/claude-sonnet-4.description": "Claude Sonnet 4 是 Anthropic 的混合推理模型,具备思考与非思考能力的结合。",
"ascend-tribe/pangu-pro-moe.description": "Pangu-Pro-MoE 72B-A16B 是一款稀疏大语言模型,拥有 720 亿总参数和 160 亿激活参数基于分组专家混合MoGE架构。该模型在专家选择时进行分组并限制每组激活相同数量的专家从而实现负载均衡并提升在昇腾平台上的部署效率。",
"aya.description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,适用于多样化的应用场景。",
"aya:35b.description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,适用于多样化的应用场景。",
"azure-DeepSeek-R1-0528.description": "由微软部署的 DeepSeek R1 已升级为 DeepSeek-R1-0528。此次更新增强了计算能力和后训练算法优化显著提升了推理深度和推理能力在数学、编程和通用逻辑基准测试中表现优异接近 O3 和 Gemini 2.5 Pro 等领先模型。",
"baichuan-m2-32b.description": "Baichuan M2 32B 是百川智能推出的 MoE 模型,具备强大的推理能力。",
"baichuan/baichuan2-13b-chat.description": "Baichuan-13B 是百川推出的开源、可商用的 130 亿参数大语言模型,在权威中英文基准测试中取得同类模型中的最佳表现。",
"baidu/ERNIE-4.5-300B-A47B.description": "ERNIE-4.5-300B-A47B 是百度推出的 MoE 大语言模型,拥有 3000 亿总参数和每个 token 激活 470 亿参数,兼顾强大性能与计算效率。作为 ERNIE 4.5 的核心模型,在理解、生成、推理和编程方面表现出色。采用多模态异构 MoE 预训练方法,结合文本与视觉联合训练,显著提升了指令跟随能力和世界知识。",
"baidu/ernie-5.0-thinking-preview.description": "ERNIE 5.0 思维预览版是百度下一代原生多模态 ERNIE 模型,擅长多模态理解、指令跟随、创作、事实问答和工具调用。",
"black-forest-labs/flux-1.1-pro.description": "FLUX 1.1 Pro 是一款速度更快、质量更高的图像生成模型,具备卓越的图像质量和提示响应能力。",
"black-forest-labs/flux-dev.description": "FLUX Dev 是 FLUX 的开发版本,仅供非商业用途使用。",
"black-forest-labs/flux-pro.description": "FLUX Pro 是专业级图像生成模型,输出高质量图像。",
"black-forest-labs/flux-schnell.description": "FLUX Schnell 是一款专为速度优化的快速图像生成模型。",
"c4ai-aya-expanse-32b.description": "Aya Expanse 是一款高性能的 320 亿参数多语言模型,结合指令微调、数据套利、偏好训练和模型融合,性能媲美单语模型,支持 23 种语言。",
"c4ai-aya-expanse-8b.description": "Aya Expanse 是一款高性能的 80 亿参数多语言模型,结合指令微调、数据套利、偏好训练和模型融合,性能媲美单语模型,支持 23 种语言。",
"c4ai-aya-vision-32b.description": "Aya Vision 是一款先进的多模态模型,在语言、文本和视觉基准测试中表现出色。该 320 亿参数版本专注于顶级多语言性能,支持 23 种语言。",
"c4ai-aya-vision-8b.description": "Aya Vision 是一款先进的多模态模型,在语言、文本和视觉基准测试中表现出色。该 80 亿参数版本专注于低延迟和强大性能。",
"charglm-3.description": "CharGLM-3 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。",
"charglm-4.description": "CharGLM-4 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。",
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。与 Claude 3 Haiku 相比,其各项能力均有提升,并在多个智能基准测试中超越了此前的最大模型 Claude 3 Opus。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型也是市场上首个混合推理模型。它既能生成几乎即时的响应也能输出用户可见的逐步推理过程。Sonnet 在编程、数据科学、视觉理解和智能体任务方面表现尤为出色。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的响应速度和增强的推理能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够生成几乎即时的响应,或输出可视化的逐步思考过程。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
"codegemma.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
"codegemma:2b.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
"codellama.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
"codellama/CodeLlama-34b-Instruct-hf.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
"codellama:13b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
"codellama:34b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
"codellama:70b.description": "Code Llama 是一款专注于代码生成与讨论的大语言模型,支持多种编程语言,适用于开发者工作流。",
"codeqwen.description": "CodeQwen1.5 是一款在大规模代码数据上训练的大语言模型,专为复杂编程任务设计。",
"codestral-latest.description": "Codestral 是我们最先进的代码模型v22025年1月专为低延迟、高频任务如 FIM、代码修复和测试生成而设计。",
"codestral.description": "Codestral 是 Mistral AI 推出的首个代码模型,具备强大的代码生成能力。",
"codex-mini-latest.description": "codex-mini-latest 是为 Codex CLI 微调的 o4-mini 模型。若需直接通过 API 使用,建议从 gpt-4.1 开始。",
"cogito-2.1:671b.description": "Cogito v2.1 671B 是一款美国开源大语言模型,可免费商用,性能媲美顶级模型,具备更高的 Token 推理效率、128k 长上下文能力以及强大的综合能力。",
"cogview-4.description": "CogView-4 是智谱推出的首个支持中文字符生成的开源文生图模型,提升了语义理解、图像质量和中英文文本渲染能力,支持任意长度的中英文提示词,并可在指定范围内生成任意分辨率图像。",
"cohere-command-r-plus.description": "Command R+ 是一款为企业级工作负载优化的先进 RAG 模型。",
"cohere-command-r.description": "Command R 是一款可扩展的生成模型,专为 RAG 和工具使用场景设计,支持生产级 AI 应用。",
"cohere/Cohere-command-r-plus.description": "Command R+ 是一款为企业级工作负载优化的先进 RAG 模型。",
"cohere/Cohere-command-r.description": "Command R 是一款可扩展的生成模型,专为 RAG 和工具使用场景设计,支持生产级 AI 应用。",
"cohere/command-a.description": "Command A 是 Cohere 迄今为止最强大的模型擅长工具使用、智能体、RAG 和多语言场景。支持 256K 上下文长度,仅需两块 GPU 即可运行,吞吐量比 Command R+ 08-2024 提高 150%。",
"cohere/command-r-plus.description": "Command R+ 是 Cohere 最新的大语言模型,针对聊天和长上下文任务进行了优化,旨在实现卓越性能,助力企业从原型走向生产部署。",
"cohere/command-r.description": "Command R 针对聊天和长上下文任务进行了优化,定位为“可扩展”模型,在高性能与准确性之间实现平衡,助力企业从原型走向生产部署。",
"cohere/embed-v4.0.description": "一个可将文本、图像或混合内容分类或转换为嵌入向量的模型。",
"comfyui/flux-dev.description": "FLUX.1 Dev 是一款高质量的文生图模型1050 步),非常适合高端创意和艺术输出。",
"comfyui/flux-kontext-dev.description": "FLUX.1 Kontext-dev 是一款图像编辑模型,支持基于文本的局部编辑和风格迁移。",
"comfyui/flux-krea-dev.description": "FLUX.1 Krea-dev 是与 Krea 联合开发的安全增强型文生图模型,内置安全过滤机制。",
"comfyui/flux-schnell.description": "FLUX.1 Schnell 是一款超高速文生图模型,可在 1-4 步内生成高质量图像,适用于实时使用和快速原型开发。",
"comfyui/stable-diffusion-15.description": "Stable Diffusion 1.5 是一款经典的 512x512 文生图模型,适合快速原型开发和创意实验。",
"comfyui/stable-diffusion-35-inclclip.description": "Stable Diffusion 3.5 内置 CLIP/T5 编码器,无需外部编码器文件,适用于如 sd3.5_medium_incl_clips 等资源占用较低的模型。",
"comfyui/stable-diffusion-35.description": "Stable Diffusion 3.5 是下一代文生图模型,提供 Large 和 Medium 两个版本。需使用外部 CLIP 编码器文件,图像质量和提示词响应能力出色。",
"comfyui/stable-diffusion-custom-refiner.description": "自定义 SDXL 图生图模型。模型文件名应为 custom_sd_lobe.safetensors如有 VAE请使用 custom_sd_vae_lobe.safetensors。将模型文件放入 Comfy 指定文件夹中。",
"comfyui/stable-diffusion-custom.description": "自定义 SD 文生图模型。模型文件名应为 custom_sd_lobe.safetensors如有 VAE请使用 custom_sd_vae_lobe.safetensors。将模型文件放入 Comfy 指定文件夹中。",
"comfyui/stable-diffusion-refiner.description": "SDXL 图生图模型,可对输入图像进行高质量转换,支持风格迁移、图像修复和创意变体生成。",
"comfyui/stable-diffusion-xl.description": "SDXL 是一款支持 1024x1024 高分辨率生成的文生图模型,图像质量和细节表现更佳。",
"command-a-03-2025.description": "Command A 是我们迄今为止最强大的模型擅长工具使用、智能体、RAG 和多语言场景。支持 256K 上下文窗口,仅需两块 GPU 即可运行,吞吐量比 Command R+ 08-2024 提高 150%。",
"command-light-nightly.description": "为缩短主要版本之间的发布间隔,我们提供 Command 系列的每晚构建版本。command-light-nightly 是 command-light 系列中最新、最具实验性(可能不稳定)的版本,定期更新,适合测试用途,不建议用于生产环境。",
"command-light.description": "Command 的轻量快速版本,几乎同样强大但响应更快。",
"command-nightly.description": "为缩短主要版本之间的发布间隔,我们提供 Command 系列的每晚构建版本。command-nightly 是 Command 系列中最新、最具实验性(可能不稳定)的版本,定期更新,适合测试用途,不建议用于生产环境。",
"command-r-03-2024.description": "Command R 是一款遵循指令的聊天模型质量更高、可靠性更强、上下文窗口更长支持代码生成、RAG、工具使用和智能体等复杂工作流。",
"command-r-08-2024.description": "command-r-08-2024 是 2024 年 8 月发布的 Command R 模型更新版本。",
"command-r-plus-04-2024.description": "command-r-plus 是 command-r-plus-04-2024 的别名API 中使用 command-r-plus 即指向该模型。",
"command-r-plus-08-2024.description": "Command R+ 是一款遵循指令的聊天模型,质量更高、可靠性更强、上下文窗口更长,特别适用于复杂的 RAG 工作流和多步骤工具使用。",
"command-r-plus.description": "Command R+ 是一款高性能大语言模型,专为真实企业场景和复杂应用设计。",
"command-r.description": "Command R 是一款针对聊天和长上下文任务优化的大语言模型,适用于动态交互和知识管理。",
"command-r7b-12-2024.description": "command-r7b-12-2024 是 2024 年 12 月发布的小型高效更新版本,擅长 RAG、工具使用和需要复杂多步骤推理的智能体任务。",
"command.description": "一款遵循指令的聊天模型,在语言任务中提供更高质量和可靠性,拥有比基础生成模型更长的上下文窗口。",
"computer-use-preview.description": "computer-use-preview 是为“计算机使用工具”专门训练的模型,能够理解并执行与计算机相关的任务。",
"dall-e-2.description": "第二代 DALL·E 模型,图像生成更真实、准确,分辨率是第一代的 4 倍。",
"dall-e-3.description": "最新的 DALL·E 模型,于 2023 年 11 月发布,图像生成更真实、准确,细节表现更强。",
"databricks/dbrx-instruct.description": "DBRX Instruct 提供跨行业高度可靠的指令处理能力。",
"deepseek-ai/DeepSeek-OCR.description": "DeepSeek-OCR 是 DeepSeek AI 推出的视觉语言模型,专注于 OCR 和“上下文光学压缩”。该模型探索从图像中压缩上下文信息,能够高效处理文档并将其转换为结构化文本(如 Markdown。它在图像文字识别方面表现精准适用于文档数字化、文本提取和结构化处理。",
"deepseek-ai/DeepSeek-R1-0528-Qwen3-8B.description": "DeepSeek-R1-0528-Qwen3-8B 将 DeepSeek-R1-0528 的链式思维能力蒸馏至 Qwen3 8B Base 模型中。在开源模型中达到 SOTA 水平,在 AIME 2024 上超越 Qwen3 8B 10%,并与 Qwen3-235B-thinking 表现相当。擅长数学推理、编程和通用逻辑任务,采用 Qwen3-8B 架构,并使用 DeepSeek-R1-0528 的分词器。",
"deepseek-ai/DeepSeek-R1-0528.description": "DeepSeek R1 利用额外算力和后训练算法优化,增强推理能力。在数学、编程和通用逻辑等基准测试中表现优异,接近 o3 和 Gemini 2.5 Pro 等领先模型。",
"deepseek-ai/DeepSeek-R1-Distill-Llama-70B.description": "DeepSeek-R1 蒸馏模型使用强化学习和冷启动数据提升推理能力,刷新开源多任务模型基准。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.description": "DeepSeek-R1 蒸馏模型使用强化学习和冷启动数据提升推理能力,刷新开源多任务模型基准。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-14B.description": "DeepSeek-R1 蒸馏模型使用强化学习和冷启动数据提升推理能力,刷新开源多任务模型基准。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-32B.description": "DeepSeek-R1-Distill-Qwen-32B 由 Qwen2.5-32B 蒸馏而来,并在 80 万条精挑细选的 DeepSeek-R1 样本上微调。擅长数学、编程和推理任务,在 AIME 2024、MATH-50094.3% 准确率)和 GPQA Diamond 上表现出色。",
"deepseek-ai/DeepSeek-R1-Distill-Qwen-7B.description": "DeepSeek-R1-Distill-Qwen-7B 由 Qwen2.5-Math-7B 蒸馏而来,并在 80 万条精挑细选的 DeepSeek-R1 样本上微调。在 MATH-500 上达到 92.8%AIME 2024 为 55.5%CodeForces 评分为 11897B 模型)。",
"deepseek-ai/DeepSeek-R1.description": "DeepSeek-R1 通过强化学习和冷启动数据提升推理能力,刷新开源多任务模型基准,超越 OpenAI-o1-mini。",
"deepseek-ai/DeepSeek-V2.5.description": "DeepSeek-V2.5 升级了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct融合通用与编程能力。提升写作与指令遵循能力实现更优偏好对齐在 AlpacaEval 2.0、ArenaHard、AlignBench 和 MT-Bench 上取得显著进步。",
"deepseek-ai/DeepSeek-V3.1-Terminus.description": "DeepSeek-V3.1-Terminus 是 V3.1 的更新版本定位为混合智能体大模型。修复用户反馈问题提升稳定性、语言一致性减少中英混杂和异常字符。集成思考与非思考模式支持通过聊天模板灵活切换。Code Agent 和 Search Agent 性能也得到提升,工具使用更可靠,多步任务完成度更高。",
"deepseek-ai/DeepSeek-V3.1.description": "DeepSeek V3.1 采用混合推理架构,支持思考与非思考模式。",
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的实验版本,连接下一代架构。在 V3.1-Terminus 基础上引入 DeepSeek Sparse AttentionDSA提升长上下文训练与推理效率优化工具使用、长文档理解和多步推理。适合探索大上下文预算下的高效推理。",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一个拥有 671B 参数的 MoE 模型,采用 MLA 和 DeepSeekMoE 架构,具备无损负载均衡能力,实现高效训练与推理。预训练数据达 14.8T,结合 SFT 和 RL性能超越其他开源模型接近领先闭源模型。",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67B是一款创新模型具备深度语言理解与交互能力。",
"deepseek-ai/deepseek-r1.description": "一款高效的先进大模型,在推理、数学和编程方面表现出色。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活机制,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位任务。",
"deepseek-chat.description": "一款结合通用与编程能力的开源模型。保留聊天模型的通用对话能力与编程模型的强大编码能力偏好对齐更优。DeepSeek-V2.5 还提升了写作与指令遵循能力。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练数据达 2T87% 代码13% 中英文文本)。引入 16K 上下文窗口与中间填充任务,支持项目级代码补全与片段填充。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编码模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
"deepseek-ocr.description": "DeepSeek-OCR 是 DeepSeek AI 推出的视觉语言模型,专注于 OCR 和“上下文光学压缩”。该模型探索从图像中压缩上下文信息,能够高效处理文档并将其转换为结构化文本格式(如 Markdown。它在图像文字识别方面表现精准适用于文档数字化、文本提取和结构化处理。",
"deepseek-r1-0528.description": "2025 年 5 月 28 日发布的 685B 全量模型。DeepSeek-R1 在后训练阶段使用大规模强化学习,显著提升推理能力,仅需极少标注数据,在数学、编程和自然语言推理方面表现出色。",
"deepseek-r1-250528.description": "DeepSeek R1 250528 是 DeepSeek-R1 的完整推理模型,专为高难度数学与逻辑任务设计。",
"deepseek-r1-70b-fast-online.description": "DeepSeek R1 70B 快速版,支持实时网页搜索,在保持性能的同时提供更快响应。",
"deepseek-r1-70b-online.description": "DeepSeek R1 70B 标准版,支持实时网页搜索,适用于最新聊天与文本任务。",
"deepseek-r1-distill-llama-70b.description": "DeepSeek R1 Distill Llama 70B 将 R1 推理能力与 Llama 生态系统结合。",
"deepseek-r1-distill-llama-8b.description": "DeepSeek-R1-Distill-Llama-8B 由 Llama-3.1-8B 蒸馏而来,使用 DeepSeek R1 输出进行训练。",
"deepseek-r1-distill-llama.description": "deepseek-r1-distill-llama 是在 Llama 上基于 DeepSeek-R1 蒸馏而成。",
"deepseek-r1-distill-qianfan-70b.description": "DeepSeek R1 Distill Qianfan 70B 是基于 Qianfan-70B 的 R1 蒸馏模型,具备强大价值。",
"deepseek-r1-distill-qianfan-8b.description": "DeepSeek R1 Distill Qianfan 8B 是基于 Qianfan-8B 的 R1 蒸馏模型,适用于中小型应用。",
"deepseek-r1-distill-qianfan-llama-70b.description": "DeepSeek R1 Distill Qianfan Llama 70B 是基于 Llama-70B 的 R1 蒸馏模型。",
"deepseek-r1-distill-qwen-1.5b.description": "DeepSeek R1 Distill Qwen 1.5B 是一款超轻量蒸馏模型,适用于极低资源环境。",
"deepseek-r1-distill-qwen-14b.description": "DeepSeek R1 Distill Qwen 14B 是一款中型蒸馏模型,适用于多场景部署。",
"deepseek-r1-distill-qwen-32b.description": "DeepSeek R1 Distill Qwen 32B 是基于 Qwen-32B 的 R1 蒸馏模型,兼顾性能与成本。",
"deepseek-r1-distill-qwen-7b.description": "DeepSeek R1 Distill Qwen 7B 是一款轻量蒸馏模型,适用于边缘计算与企业私有部署环境。",
"deepseek-r1-distill-qwen.description": "deepseek-r1-distill-qwen 是在 Qwen 上基于 DeepSeek-R1 蒸馏而成。",
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支持实时网页搜索,结合 671B 规模能力与更快响应。",
"deepseek-r1-online.description": "DeepSeek R1 全量版,具备 671B 参数与实时网页搜索能力,提供更强理解与生成能力。",
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,数学、编程与推理任务表现可与 OpenAI-o1 相媲美。",
"deepseek-reasoner.description": "DeepSeek V3.2 思考模式在最终答案前输出链式思维,提升准确性。",
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
"deepseek-v3.1-terminus.description": "DeepSeek-V3.1-Terminus 是 DeepSeek 推出的终端优化大模型,专为终端设备定制。",
"deepseek-v3.1-think-250821.description": "DeepSeek V3.1 Think 250821 是 Terminus 版本对应的深度思考模型,专为高性能推理任务打造。",
"deepseek-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的新一代混合推理模型,支持思考与非思考模式,推理效率高于 DeepSeek-R1-0528。后训练优化显著提升智能体工具使用与任务执行能力支持 128k 上下文窗口与最多 64k 输出。",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于需要深度分析的任务。",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp 引入稀疏注意力机制,提升长文本训练与推理效率,价格低于 deepseek-v3.1。",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是一款完整的深度思考模型,具备更强的长链推理能力。",
"deepseek-v3.2.description": "DeepSeek-V3.2 是深度求索推出的首个将思考融入工具使用的混合推理模型,采用高效架构节省算力,结合大规模强化学习提升能力,配合大规模合成任务数据增强泛化能力,三者结合使其性能媲美 GPT-5-High输出长度大幅降低显著减少计算开销与用户等待时间。",
"deepseek-v3.description": "DeepSeek-V3 是一款强大的 MoE 模型,总参数量为 671B每个 token 激活参数为 37B。",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
"gemini-pro-latest.description": "Latest release of Gemini Pro",
"meta/Llama-3.2-90B-Vision-Instruct.description": "适用于视觉理解代理应用的高级图像推理模型。",
"meta/Llama-3.3-70B-Instruct.description": "Llama 3.3 是最先进的多语言开源 Llama 模型,在极低成本下实现接近 405B 的性能。该模型基于 Transformer 架构,并通过 SFT 和 RLHF 提升实用性与安全性。其指令微调版本专为多语言对话优化在行业基准测试中超越众多开源与闭源聊天模型。知识截止时间2023 年 12 月。",
"meta/Meta-Llama-3-70B-Instruct.description": "一款功能强大的 700 亿参数模型,擅长推理、编程和广泛的语言任务。",
"meta/Meta-Llama-3-8B-Instruct.description": "一款多功能的 80 亿参数模型,专为对话和文本生成优化。",
"meta/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 指令微调文本模型,专为多语言对话优化,在开源与闭源聊天模型中在常见行业基准测试中表现出色。",
"meta/Meta-Llama-3.1-70B-Instruct.description": "Llama 3.1 指令微调文本模型,专为多语言对话优化,在开源与闭源聊天模型中在常见行业基准测试中表现出色。",
"meta/Meta-Llama-3.1-8B-Instruct.description": "Llama 3.1 指令微调文本模型,专为多语言对话优化,在开源与闭源聊天模型中在常见行业基准测试中表现出色。",
"meta/llama-3-70b.description": "由 Meta 微调的 700 亿参数开源模型,专注于指令跟随,由 Groq 在 LPU 硬件上提供服务,实现快速高效的推理。",
"meta/llama-3-8b.description": "由 Meta 微调的 80 亿参数开源模型,专注于指令跟随,由 Groq 在 LPU 硬件上提供服务,实现快速高效的推理。",
"meta/llama-3.1-405b-instruct.description": "一款先进的大语言模型,支持合成数据生成、知识蒸馏和用于聊天机器人、编程及领域任务的推理。",
"meta/llama-3.1-70b-instruct.description": "专为复杂对话设计,具备出色的上下文理解、推理和文本生成能力。",
"meta/llama-3.1-70b.description": "更新版 Meta Llama 3 70B Instruct支持 128K 上下文、多语言能力,并提升推理表现。",
"meta/llama-3.1-8b-instruct.description": "一款前沿模型,具备强大的语言理解、推理和文本生成能力。",
"meta/llama-3.1-8b.description": "Llama 3.1 8B 支持 128K 上下文窗口,适用于实时对话和数据分析,相较于更大模型具有显著成本优势。由 Groq 在 LPU 硬件上提供服务,实现快速高效的推理。",
"meta/llama-3.2-11b-vision-instruct.description": "一款前沿视觉语言模型,擅长从图像中进行高质量推理。",
"meta/llama-3.2-11b.description": "一款指令微调的图像推理模型(文本+图像输入,文本输出),专为视觉识别、图像推理、图像描述和通用图像问答优化。",
"meta/llama-3.2-1b-instruct.description": "一款前沿的小型语言模型,具备强大的理解、推理和文本生成能力。",
"meta/llama-3.2-1b.description": "纯文本模型,适用于设备端的多语言本地检索、摘要和改写等场景。",
"meta/llama-3.2-3b-instruct.description": "一款前沿的小型语言模型,具备强大的理解、推理和文本生成能力。",
"meta/llama-3.2-3b.description": "纯文本模型,针对设备端的多语言本地检索、摘要和改写等场景进行微调。",
"meta/llama-3.2-90b-vision-instruct.description": "一款前沿视觉语言模型,擅长从图像中进行高质量推理。",
"meta/llama-3.2-90b.description": "一款指令微调的图像推理模型(文本+图像输入,文本输出),专为视觉识别、图像推理、图像描述和通用图像问答优化。",
"meta/llama-3.3-70b-instruct.description": "一款先进的大语言模型,擅长推理、数学、常识和函数调用。",
"meta/llama-3.3-70b.description": "性能与效率的完美平衡。专为内容创作、企业应用和研究中的高性能对话式 AI 而构建,具备强大的语言理解能力,适用于摘要、分类、情感分析和代码生成。",
"meta/llama-4-maverick.description": "Llama 4 系列是原生多模态 AI 模型集,支持文本与多模态体验,采用 MoE 架构实现领先的文本与图像理解。Llama 4 Maverick 是一款拥有 128 个专家的 170 亿参数模型,由 DeepInfra 提供服务。",
"meta/llama-4-scout.description": "Llama 4 系列是原生多模态 AI 模型集,支持文本与多模态体验,采用 MoE 架构实现领先的文本与图像理解。Llama 4 Scout 是一款拥有 16 个专家的 170 亿参数模型,由 DeepInfra 提供服务。",
"microsoft/Phi-3-medium-128k-instruct.description": "与 Phi-3-medium 相同的模型,但具有更大的上下文窗口,适用于 RAG 或少样本提示。",
"microsoft/Phi-3-medium-4k-instruct.description": "一款 140 亿参数模型,质量高于 Phi-3-mini专注于高质量、推理密集型数据。",
"microsoft/Phi-3-mini-128k-instruct.description": "与 Phi-3-mini 相同的模型,但具有更大的上下文窗口,适用于 RAG 或少样本提示。",
"microsoft/Phi-3-mini-4k-instruct.description": "Phi-3 系列中最小的成员,优化以实现高质量和低延迟。",
"microsoft/Phi-3-small-128k-instruct.description": "与 Phi-3-small 相同的模型,但具有更大的上下文窗口,适用于 RAG 或少样本提示。",
"microsoft/Phi-3-small-8k-instruct.description": "一款 70 亿参数模型,质量高于 Phi-3-mini专注于高质量、推理密集型数据。",
"microsoft/Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
"microsoft/Phi-3.5-vision-instruct.description": "Phi-3-vision 模型的更新版本。",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 是微软 AI 推出的语言模型,擅长复杂对话、多语言任务、推理和助手应用。",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型,具备极具竞争力的性能。",
"minicpm-v.description": "MiniCPM-V 是 OpenBMB 的下一代多模态模型,具备出色的 OCR 和多模态理解能力,适用于广泛场景。",
"minimax/minimax-m2.description": "MiniMax-M2 是一款高性价比模型,擅长编程和智能体任务,适用于多种工程场景。",
"minimaxai/minimax-m2.description": "MiniMax-M2 是一款紧凑、快速、成本效益高的 MoE 模型(总参数 230B激活参数 10B在保持强大通用智能的同时专为顶级编程和智能体性能打造。擅长多文件编辑、代码运行修复循环、测试验证和复杂工具链。",
"ministral-3b-latest.description": "Ministral 3B 是 Mistral 推出的顶级边缘模型。",
"ministral-8b-latest.description": "Ministral 8B 是 Mistral 推出的高性价比边缘模型。",
"mistral-ai/Mistral-Large-2411.description": "Mistral 的旗舰模型适用于需要大规模推理或专业化的复杂任务如合成文本生成、代码生成、RAG 或智能体)。",
"mistral-ai/Mistral-Nemo.description": "Mistral Nemo 是一款前沿大语言模型,在其参数规模下具备最先进的推理、世界知识和编程能力。",
"mistral-ai/mistral-small-2503.description": "Mistral Small 适用于任何需要高效率和低延迟的语言任务。",
"mistral-large-instruct.description": "Mistral-Large-Instruct-2407 是一款先进的密集型大语言模型,拥有 1230 亿参数,具备最先进的推理、知识和编程能力。",
"mistral-large-latest.description": "Mistral Large 是旗舰模型,擅长多语言任务、复杂推理和代码生成,适用于高端应用。",
"mistral-large.description": "Mixtral Large 是 Mistral 的旗舰模型,结合代码生成、数学和推理能力,支持 128K 上下文窗口。",
"mistral-medium-latest.description": "Mistral Medium 3 以 8 倍更低的成本实现最先进性能,并简化企业部署。",
"mistral-nemo-instruct.description": "Mistral-Nemo-Instruct-2407 是 Mistral-Nemo-Base-2407 的指令微调版本。",
"mistral-nemo.description": "Mistral Nemo 是 Mistral AI 与 NVIDIA 联合开发的高效 120 亿参数模型。",
"mistral-small-latest.description": "Mistral Small 是一款高性价比、快速且可靠的模型,适用于翻译、摘要和情感分析。",
"mistral-small.description": "Mistral Small 适用于任何需要高效率和低延迟的语言任务。",
"mistral.description": "Mistral 是 Mistral AI 推出的 70 亿参数模型,适用于多种语言任务。",
"mistral/codestral-embed.description": "一款代码嵌入模型,用于嵌入代码库和仓库,支持编程助手。",
"mistral/codestral.description": "Mistral Codestral 25.01 是一款最先进的编程模型,优化以实现低延迟和高频使用。支持 80 多种语言,擅长 FIM、代码修复和测试生成。",
"mistral/devstral-small.description": "Devstral 是一款面向软件工程任务的智能体大语言模型,是软件工程智能体的强力选择。",
"mistral/magistral-medium.description": "通过深度理解支持复杂思维,具备可追踪、可验证的透明推理能力。即使在任务中途,也能在多语言环境中保持高保真推理。",
"mistral/magistral-small.description": "通过深度理解支持复杂思维,具备可追踪、可验证的透明推理能力。即使在任务中途,也能在多语言环境中保持高保真推理。",
"mistral/ministral-3b.description": "一款紧凑高效的模型,适用于设备端任务,如助手和本地分析,提供低延迟性能。",
"mistral/ministral-8b.description": "一款更强大的模型,推理速度更快、内存效率更高,适用于复杂工作流和高要求的边缘应用。",
"mistral/mistral-embed.description": "一款通用文本嵌入模型,适用于语义搜索、相似度计算、聚类和 RAG 工作流。",
"mistral/mistral-large.description": "Mistral Large 适用于需要强大推理或专业化的复杂任务如合成文本生成、代码生成、RAG 或智能体。",
"mistral/mistral-small.description": "Mistral Small 适用于分类、客户支持或文本生成等简单、可批处理任务,具备出色性能和实惠价格。",
"mistral/mixtral-8x22b-instruct.description": "8x22B 指令模型。8x22B 是由 Mistral 提供服务的开源 MoE 模型。",
"mistral/pixtral-12b.description": "一款具备图像理解与文本处理能力的 120 亿参数模型。",
"mistral/pixtral-large.description": "Pixtral Large 是我们多模态系列的第二款模型,具备前沿级图像理解能力。可处理文档、图表和自然图像,同时保留 Mistral Large 2 的领先文本理解能力。",
"mistralai/Mistral-7B-Instruct-v0.1.description": "Mistral7BInstruct 以其在多种语言任务中的强大表现而闻名。",
"mistralai/Mistral-7B-Instruct-v0.2.description": "Mistral7BInstruct v0.2 提升了指令处理能力和结果准确性。",
"mistralai/Mistral-7B-Instruct-v0.3.description": "Mistral7BInstruct v0.3 提供高效计算和强大的语言理解,适用于多种场景。",
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B 虽小巧但性能强劲,适合批处理和分类、文本生成等简单任务,具备扎实的推理能力。",
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct141B是一款适用于重负载任务的超大语言模型。",
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct46.7B)为大规模数据处理提供高容量支持。",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B 是一款稀疏 MoE 模型,提升推理速度,适用于多语言和代码生成任务。",
"mistralai/mistral-nemo.description": "Mistral Nemo 是一款 73 亿参数模型,支持多语言,具备强大的编程能力。",
"o3-deep-research.description": "o3-deep-research 是我们最先进的深度研究模型,适用于复杂的多步骤任务。它可以通过 MCP 连接器访问您的数据并进行网页搜索。",
"o3-mini.description": "o3-mini 是我们最新的小型推理模型,在保持与 o1-mini 相同成本和延迟的前提下,提供更高的智能表现。",
"o3-pro-2025-06-10.description": "o3 Pro 是 OpenAI 推出的新一代推理模型,支持文本+图像输入和文本输出,适用于需要广泛知识的复杂任务。",
"o3-pro.description": "o3-pro 使用更多计算资源以实现更深入的思考,持续提供更优质的答案;仅通过 Responses API 提供。",
"o3.description": "o3 是一款功能强大的通用模型,在数学、科学、编程和视觉推理方面树立了新标杆。它擅长技术写作和指令执行,能够分析文本、代码和图像,解决多步骤问题。",
"o4-mini-2025-04-16.description": "o4-mini 是 OpenAI 的推理模型,支持文本+图像输入和文本输出,适用于需要广泛知识的复杂任务,具备 200K 上下文窗口。",
"o4-mini-deep-research.description": "o4-mini-deep-research 是一款更快速、更经济的深度研究模型,适用于复杂的多步骤研究任务。它可以进行网页搜索,并通过 MCP 连接器访问您的数据。",
"o4-mini.description": "o4-mini 是最新的小型 o 系列模型,专为快速、高效的推理任务优化,在编程和视觉任务中表现出色。",
"open-codestral-mamba.description": "Codestral Mamba 是一款专注于代码生成的 Mamba 2 语言模型,支持高级编程与推理任务。",
"open-mistral-7b.description": "Mistral 7B 是一款紧凑但高性能的模型,适合批量处理和分类、文本生成等简单任务,具备良好的推理能力。",
"open-mistral-nemo.description": "Mistral Nemo 是与 Nvidia 联合开发的 12B 模型,在推理和编程方面表现强劲,易于集成。",
"open-mixtral-8x22b.description": "Mixtral 8x22B 是一款大型 MoE 模型,适用于复杂任务,具备强大的推理能力和更高的吞吐量。",
"open-mixtral-8x7b.description": "Mixtral 8x7B 是一款稀疏 MoE 模型,提升了推理速度,适用于多语言和代码生成任务。",
"openai/gpt-3.5-turbo-instruct.description": "具备 GPT-3 时代模型的类似能力,兼容传统补全接口而非聊天接口。",
"openai/gpt-3.5-turbo.description": "OpenAI 最具性价比的 GPT-3.5 模型,优化用于聊天,同时在传统补全任务中也表现出色。",
"openai/gpt-4-turbo.description": "OpenAI 的 gpt-4-turbo 拥有广泛的通识知识和专业领域能力,能够理解复杂的自然语言指令,并准确解决难题。知识截止时间为 2023 年 4 月,支持 128K 上下文窗口。",
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini 提供更低延迟和更高性价比,适用于中等上下文任务。",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano 是一款超低成本、低延迟的模型,适用于高频短对话或分类任务。",
"openai/gpt-4.1.description": "GPT-4.1 系列提供更大的上下文窗口和更强的工程与推理能力。",
"openai/gpt-4o-mini.description": "GPT-4o-mini 是一款快速的小型 GPT-4o 变体,适用于低延迟的多模态应用场景。",
"openai/gpt-4o.description": "GPT-4o 系列是 OpenAI 的 Omni 模型,支持文本+图像输入和文本输出。",
"openai/gpt-5-chat.description": "GPT-5 Chat 是 GPT-5 的对话优化版本,具备更低延迟和更强交互性。",
"openai/gpt-5-codex.description": "GPT-5-Codex 是 GPT-5 的代码优化版本,适用于大规模代码工作流。",
"openai/gpt-5-mini.description": "GPT-5 Mini 是一款小型 GPT-5 变体,适用于低延迟、低成本场景。",
"openai/gpt-5-nano.description": "GPT-5 Nano 是超小型变体,适用于对成本和延迟要求极高的场景。",
"openai/gpt-5-pro.description": "GPT-5 Pro 是 OpenAI 的旗舰模型,具备更强的推理、代码生成能力和企业级功能,支持测试时路由和更严格的安全策略。",
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat 是 GPT-5.1 系列中轻量级成员,优化用于低延迟对话,同时保持强大的推理和指令执行能力。",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini 是 GPT-5.1-Codex 的小型快速版本,适用于对延迟和成本敏感的编程场景。",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex 是 GPT-5.1 的编程优化版本,适用于大型重构、复杂调试和长时间自主编程任务。",
"openai/gpt-5.1.description": "GPT-5.1 是 GPT-5 系列的最新旗舰,在通用推理、指令执行和对话自然性方面相较 GPT-5 有显著提升,适用于广泛任务。",
"openai/gpt-5.description": "GPT-5 是 OpenAI 的高性能模型,适用于各种生产和研究任务。",
"openai/gpt-oss-120b.description": "一款功能强大的通用大语言模型,具备强大且可控的推理能力。",
"openai/gpt-oss-20b.description": "一款紧凑的开源权重语言模型,优化用于低延迟和资源受限环境,包括本地和边缘部署。",
"openai/o1-mini.description": "o1-mini 是一款快速、经济高效的推理模型,专为编程、数学和科学任务设计。支持 128K 上下文,知识截止时间为 2023 年 10 月。",
"openai/o1-preview.description": "o1 是 OpenAI 推出的新型推理模型,适用于需要广泛知识的复杂任务。支持 128K 上下文,知识截止时间为 2023 年 10 月。",
"openai/o1.description": "OpenAI o1 是一款旗舰推理模型,专为需要深度思考的复杂问题设计,在多步骤任务中展现出强大的推理能力和更高的准确性。",
"openai/o3-mini-high.description": "o3-mini高推理在保持与 o1-mini 相同成本和延迟的前提下,提供更高的智能表现。",
"openai/o3-mini.description": "o3-mini 是 OpenAI 最新的小型推理模型,在保持与 o1-mini 相同成本和延迟的前提下,提供更高的智能表现。",
"openai/o3.description": "OpenAI o3 是最强大的推理模型,在编程、数学、科学和视觉感知方面树立了新标准。它擅长处理复杂、多维度的问题,尤其在图像、图表和示意图分析方面表现出色。",
"openai/o4-mini-high.description": "o4-mini 高推理版本,优化用于快速、高效的推理任务,具备强大的编程和视觉能力。",
"openai/o4-mini.description": "OpenAI o4-mini 是一款小型高效的推理模型,适用于低延迟场景。",
"qwen-vl-ocr.description": "Qwen OCR 是一款用于文档、表格、考试图片和手写文字的文本提取模型,支持中文、英文、法语、日语、韩语、德语、俄语、意大利语、越南语和阿拉伯语。",
"qwen-vl-plus-latest.description": "增强版大规模 Qwen 视觉语言模型,在细节和文本识别方面有显著提升,支持超过百万像素分辨率和任意宽高比。",
"qwen-vl-plus.description": "增强版大规模 Qwen 视觉语言模型,在细节和文本识别方面有显著提升,支持超过百万像素分辨率和任意宽高比。",
"qwen-vl-v1.description": "基于 Qwen-7B 预训练模型,加入视觉模块,支持 448 分辨率图像输入。",
"qwen/qwen-2-7b-instruct.description": "Qwen2 是全新的 Qwen 大语言模型系列。Qwen2 7B 是一款基于 Transformer 架构的模型,擅长语言理解、多语言处理、编程、数学和推理。",
"qwen/qwen-2-7b-instruct:free.description": "Qwen2 是一个全新的大语言模型系列,具备更强的理解与生成能力。",
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL 是 Qwen-VL 的最新版本,在 MathVista、DocVQA、RealWorldQA 和 MTVQA 等视觉基准测试中达到业界领先水平。支持 20 分钟以上视频的高质量问答、对话和内容创作,具备复杂推理与决策能力,可与移动设备和机器人集成,根据视觉上下文和文本指令执行操作。除中英文外,还支持图像中的多种语言文本识别,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语。",
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct 是阿里云最新发布的大语言模型之一。该 72B 模型在编程和数学方面有显著提升,支持超过 29 种语言(包括中英文),在指令理解、结构化数据处理和结构化输出(尤其是 JSON方面表现优异。",
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct 是阿里云最新发布的大语言模型之一。该 32B 模型在编程和数学方面有显著提升,支持超过 29 种语言(包括中英文),在指令理解、结构化数据处理和结构化输出(尤其是 JSON方面表现优异。",
"qwen/qwen2.5-7b-instruct.description": "一款中英文双语大语言模型,覆盖语言、编程、数学和推理任务。",
"qwen/qwen2.5-coder-32b-instruct.description": "一款面向主流编程语言的高级代码生成、推理与修复模型。",
"qwen/qwen2.5-coder-7b-instruct.description": "一款中型强力代码模型,支持 32K 上下文,擅长多语言编程。",
"qwen/qwen3-14b.description": "Qwen3-14B 是一款适用于通用推理与对话场景的 14B 模型。",
"qwen/qwen3-14b:free.description": "Qwen3-14B 是一款拥有 14.8B 参数的稠密因果语言模型,专为复杂推理与高效对话设计。可在数学、编程、逻辑等“思考模式”与通用对话“非思考模式”之间切换。针对指令跟随、工具使用和创意写作进行了微调,支持 100 多种语言和方言。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 是 Qwen3 系列的 Instruct 版本,兼顾多语言指令使用与长上下文场景。",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 是 Qwen3 的思考版本,专为复杂数学与推理任务强化。",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B 是一款拥有 235B 参数的 MoE 模型,每次前向激活 22B 参数。可在复杂推理、数学、编程的“思考模式”与高效对话的“非思考模式”之间切换。具备强大的推理能力、多语言支持100+ 种语言/方言)、高级指令跟随与工具使用能力。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B 是一款拥有 235B 参数的 MoE 模型,每次前向激活 22B 参数。可在复杂推理、数学、编程的“思考模式”与高效对话的“非思考模式”之间切换。具备强大的推理能力、多语言支持100+ 种语言/方言)、高级指令跟随与工具使用能力。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-30b-a3b.description": "Qwen3 是最新一代 Qwen 大语言模型,采用稠密与 MoE 架构,擅长推理、多语言支持和高级智能体任务。其独特的“思考模式”与“非思考模式”切换能力,确保在多场景下实现高质量表现。\n\nQwen3 显著超越 QwQ 和 Qwen2.5 等前代模型在数学、编程、常识推理、创意写作和交互对话方面表现卓越。Qwen3-30B-A3B 版本拥有 30.5B 参数3.3B 激活48 层128 个专家(每任务激活 8 个),支持使用 YaRN 扩展至 131K 上下文,树立开源模型新标杆。",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 是最新一代 Qwen 大语言模型,采用稠密与 MoE 架构,擅长推理、多语言支持和高级智能体任务。其独特的“思考模式”与“非思考模式”切换能力,确保在多场景下实现高质量表现。\n\nQwen3 显著超越 QwQ 和 Qwen2.5 等前代模型在数学、编程、常识推理、创意写作和交互对话方面表现卓越。Qwen3-30B-A3B 版本拥有 30.5B 参数3.3B 激活48 层128 个专家(每任务激活 8 个),支持使用 YaRN 扩展至 131K 上下文,树立开源模型新标杆。",
"qwen/qwen3-32b.description": "Qwen3-32B 是一款稠密的 32.8B 参数因果语言模型,专为复杂推理与高效对话优化。可在数学、编程、逻辑的“思考模式”与通用对话的“非思考模式”之间切换。擅长指令跟随、工具使用和创意写作,支持 100 多种语言和方言。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-32b:free.description": "Qwen3-32B 是一款稠密的 32.8B 参数因果语言模型,专为复杂推理与高效对话优化。可在数学、编程、逻辑的“思考模式”与通用对话的“非思考模式”之间切换。擅长指令跟随、工具使用和创意写作,支持 100 多种语言和方言。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-8b:free.description": "Qwen3-8B 是一款稠密的 8.2B 参数因果语言模型,专为推理密集型任务与高效对话设计。可在数学、编程、逻辑的“思考模式”与通用对话的“非思考模式”之间切换。针对指令跟随、智能体集成和创意写作进行了微调,支持 100 多种语言和方言。原生支持 32K 上下文,使用 YaRN 可扩展至 131K。",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus 是 Qwen 系列的代码智能体模型,优化了复杂工具使用和长时间会话能力。",
"qwen/qwen3-coder.description": "Qwen3-Coder 是 Qwen3 的代码生成系列,擅长长文档代码理解与生成。",
"qwen/qwen3-max-preview.description": "Qwen3 Max预览版是面向高级推理与工具集成的 Max 版本。",
"qwen/qwen3-max.description": "Qwen3 Max 是 Qwen3 系列的高端推理模型,专注于多语言推理与工具集成。",
"qwen3-next-80b-a3b-instruct.description": "下一代 Qwen3 非推理开源模型。相比上一版本Qwen3-235B-A22B-Instruct-2507在中文理解、逻辑推理和文本生成方面均有显著提升。",
"qwen3-next-80b-a3b-thinking.description": "Qwen3 Next 80B A3B Thinking 是面向复杂任务的旗舰推理模型版本。",
"qwen3-omni-flash.description": "Qwen-Omni 支持文本、图像、音频和视频的多模态输入,输出为文本或语音。具备多种自然语音风格,支持多语言及方言语音,适用于写作、视觉识别和语音助手等场景。",
"qwen3-vl-235b-a22b-instruct.description": "Qwen3 VL 235B A22B Instruct 是面向高要求理解与创作任务的旗舰多模态模型。",
"qwen3-vl-235b-a22b-thinking.description": "Qwen3 VL 235B A22B Thinking 是面向复杂多模态推理与规划的旗舰推理版本。",
"qwen3-vl-30b-a3b-instruct.description": "Qwen3 VL 30B A3B Instruct 是一款在准确性与推理性能之间取得平衡的大型多模态模型。",
"qwen3-vl-30b-a3b-thinking.description": "Qwen3 VL 30B A3B Thinking 是面向复杂多模态任务的深度推理版本。",
"qwen3-vl-32b-instruct.description": "Qwen3 VL 32B Instruct 是一款多模态指令微调模型,适用于高质量图文问答与创作。",
"qwen3-vl-32b-thinking.description": "Qwen3 VL 32B Thinking 是一款深度推理多模态模型,擅长复杂推理与长链分析。",
"qwen3-vl-8b-instruct.description": "Qwen3 VL 8B Instruct 是一款轻量级多模态模型,适用于日常视觉问答与应用集成。",
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款多模态思维链模型,适用于细致的视觉推理任务。",
"qwen3-vl-flash.description": "Qwen3 VL Flash轻量级、高速推理版本适用于对延迟敏感或高并发请求。",
"qwen3-vl-plus.description": "Qwen VL 是一款具备视觉理解能力的文本生成模型,支持 OCR、摘要与推理可从商品图片中提取属性或解决图像问题。",
"qwen3.description": "Qwen3 是阿里巴巴推出的下一代大语言模型,在多种应用场景中表现出色。",
"qwq-32b-preview.description": "QwQ 是 Qwen 推出的实验性研究模型,专注于推理能力的提升。",
"qwq-32b.description": "QwQ 是 Qwen 系列中的推理模型。相比标准指令微调模型具备更强的思维与推理能力显著提升下游复杂任务表现。QwQ-32B 是一款中型推理模型,性能可媲美 DeepSeek-R1 和 o1-mini 等顶级模型。",
"qwq-plus.description": "QwQ 推理模型基于 Qwen2.5 训练,并通过强化学习大幅提升推理能力。在数学/代码AIME 24/25、LiveCodeBench及通用评测IFEval、LiveBench中达到 DeepSeek-R1 的水平。",
"qwq.description": "QwQ 是 Qwen 系列中的推理模型。相比标准指令微调模型具备更强的思维与推理能力显著提升下游复杂任务表现。QwQ-32B 是一款中型推理模型,性能可媲美 DeepSeek-R1 和 o1-mini 等顶级模型。",
"qwq_32b.description": "Qwen 系列中的中型推理模型。相比标准指令微调模型QwQ 的思维与推理能力显著提升下游复杂任务表现。",
"r1-1776.description": "R1-1776 是 DeepSeek R1 的后训练版本,旨在提供无审查、无偏见的真实信息。",
"solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日语增强版本,同时保持在英语和韩语中的高效强性能。",
"solar-mini.description": "Solar Mini 是一款紧凑型大语言模型,性能超越 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效的小体积解决方案。",
"solar-pro.description": "Solar Pro 是 Upstage 推出的高智能大语言模型,专注于单 GPU 上的指令跟随任务IFEval 得分超过 80。目前支持英语完整版本计划于 2024 年 11 月发布,届时将扩展语言支持并提升上下文长度。",
"sonar-deep-research.description": "Deep Research 提供专家级的深度研究,并将其整合为易于理解和可操作的报告。",
"sonar-pro.description": "一款高级搜索产品,支持复杂查询与后续问题的搜索溯源。",
"sonar-reasoning-pro.description": "一款高级搜索产品,支持复杂查询与后续问题的搜索溯源。",
"sonar-reasoning.description": "一款高级搜索产品,支持复杂查询与后续问题的搜索溯源。",
"sonar.description": "一款轻量级搜索溯源产品,速度更快、成本更低,适用于对资源敏感的场景。",
"spark-x.description": "X1.5 更新内容1新增由 `thinking` 字段控制的动态思维模式2支持 64K 输入与 64K 输出的超长上下文3支持 FunctionCall 功能。",
"stable-diffusion-3-medium.description": "Stability AI 最新的文本生成图像模型。该版本显著提升图像质量、文本理解与风格多样性,能更准确地解析复杂自然语言提示并生成更精确多样的图像。",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 通过对 stable-diffusion-3.5-large 应用对抗扩散蒸馏ADD技术实现更快的生成速度。",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款拥有 8 亿参数的 MMDiT 文本生成图像模型,具备卓越的图像质量与提示对齐能力,支持百万像素图像,并可高效运行于消费级硬件。",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 基于 v1.2 检查点初始化,并在 512x512 分辨率下对 \"laion-aesthetics v2 5+\" 数据集进行 595k 步微调,通过减少 10% 文本条件依赖提升无分类器引导采样效果。",
"stable-diffusion-xl-base-1.0.description": "Stability AI 开源的文本生成图像模型,具备行业领先的创意图像生成能力。具备强指令理解能力,支持反向提示定义,实现精确生成。",
"stable-diffusion-xl.description": "stable-diffusion-xl 相较 v1.5 有重大改进,达到开源文本生成图像模型的顶级水平。改进包括 3 倍大的 UNet 主干网络、图像质量优化模块及更高效的训练技术。",
"step-1-128k.description": "在性能与成本之间取得平衡,适用于通用场景。",
"step-1-256k.description": "支持超长上下文,适合长文档分析。",
"step-1-32k.description": "支持中等长度对话,适用于多种场景。",
"step-1-8k.description": "小型模型,适合轻量级任务。",
"step-1-flash.description": "高速模型,适用于实时聊天场景。",
"step-1.5v-mini.description": "具备强大视频理解能力。",
"step-1o-turbo-vision.description": "图像理解能力强,在数学与编程方面优于 1o。体积更小输出更快。",
"step-1o-vision-32k.description": "图像理解能力强,视觉表现优于 Step-1V 系列。",
"step-1v-32k.description": "支持视觉输入,实现更丰富的多模态交互。",
"step-1v-8k.description": "小型视觉模型,适用于基础图文任务。",
"step-1x-edit.description": "专注于图像编辑的模型,可根据用户提供的图像与文本进行修改与增强。支持多种输入格式,包括文本描述与示例图像,生成符合用户意图的编辑结果。",
"step-1x-medium.description": "具备强大图像生成能力,支持中文提示输入,能更好理解中文语义并转化为视觉特征,实现高分辨率、高质量图像生成,并支持一定程度的风格迁移。",
"step-2-16k-exp.description": "Step-2 实验版本,包含最新功能与持续更新。不建议用于生产环境。",
"step-2-16k.description": "支持大上下文交互,适用于复杂对话。",
"step-2-mini.description": "基于下一代自研 MFA 注意力架构构建,在大幅降低成本的同时实现 Step-1 级别效果,具备更高吞吐与更低延迟,适用于通用任务,编程能力强。",
"step-2x-large.description": "新一代 StepFun 图像模型,专注于图像生成,可根据文本提示生成高质量图像,具备更真实的纹理与更强的中英文文本渲染能力。",
"step-3.description": "该模型具备强大的视觉感知与复杂推理能力,能准确处理跨领域知识理解、数学与视觉交叉分析及多种日常视觉分析任务。",
"step-r1-v-mini.description": "具备强图像理解能力的推理模型,可处理图像与文本,并在深度推理后生成文本。擅长视觉推理,在数学、编程与文本推理方面表现出色,支持 100K 上下文窗口。",
"stepfun-ai/step3.description": "Step3 是 StepFun 推出的前沿多模态推理模型,基于 MoE 架构,总参数 321B激活参数 38B。端到端设计降低解码成本同时实现顶级视觉语言推理能力。采用 MFA 与 AFD 架构,在旗舰与低端加速器上均保持高效。预训练使用超过 20T 文本与 4T 图文数据,覆盖多种语言,在数学、编程与多模态评测中表现领先。",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
"v0-1.0-md.description": "v0-1.0-md 是通过 v0 API 提供的旧版模型。",
"v0-1.5-lg.description": "v0-1.5-lg 适用于高级思维或推理任务。",
"v0-1.5-md.description": "v0-1.5-md 适用于日常任务和用户界面生成。",
"vercel/v0-1.0-md.description": "访问 v0 背后的模型,结合框架特定的推理能力和最新知识,用于生成、修复和优化现代 Web 应用。",
"vercel/v0-1.5-md.description": "访问 v0 背后的模型,结合框架特定的推理能力和最新知识,用于生成、修复和优化现代 Web 应用。",
"volcengine/doubao-seed-code.description": "豆包-Seed-Code 是字节跳动火山引擎推出的面向智能体编程优化的大模型,在编程和智能体基准测试中表现出色,支持 256K 上下文。",
"wan2.2-t2i-flash.description": "万象 2.2 极速版是最新模型,在创意性、稳定性和真实感方面全面升级,生成速度快,性价比高。",
"wan2.2-t2i-plus.description": "万象 2.2 专业版是最新模型,在创意性、稳定性和真实感方面全面升级,图像细节更丰富。",
"wanx-v1.description": "基础文本转图像模型。对应通义万象 1.0 通用版。",
"wanx2.0-t2i-turbo.description": "擅长纹理人像,速度适中,成本较低。对应通义万象 2.0 极速版。",
"wanx2.1-t2i-plus.description": "全面升级版本,图像细节更丰富,生成速度略慢。对应通义万象 2.1 专业版。",
"wanx2.1-t2i-turbo.description": "全面升级版本,生成速度快,整体质量强,性价比高。对应通义万象 2.1 极速版。",
"whisper-1.description": "通用语音识别模型,支持多语言 ASR、语音翻译和语言识别。",
"wizardlm2.description": "WizardLM 2 是微软 AI 推出的语言模型,擅长复杂对话、多语言任务、推理和助手应用。",
"wizardlm2:8x22b.description": "WizardLM 2 是微软 AI 推出的语言模型,擅长复杂对话、多语言任务、推理和助手应用。",
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast非推理版是 xAI 推出的高吞吐、低成本多模态模型(支持 2M 上下文窗口),适用于对延迟和成本敏感但不需要模型内推理的场景。可通过 API 的 reasoning 参数启用推理功能。提示词和生成内容可能被 xAI 或 OpenRouter 用于改进未来模型。",
"x-ai/grok-4-fast.description": "Grok 4 Fast 是 xAI 推出的高吞吐、低成本模型(支持 2M 上下文窗口),适用于高并发和长上下文场景。",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast非推理版是 xAI 推出的高吞吐、低成本多模态模型(支持 2M 上下文窗口),适用于对延迟和成本敏感但不需要模型内推理的场景。可通过 API 的 reasoning 参数启用推理功能。提示词和生成内容可能被 xAI 或 OpenRouter 用于改进未来模型。",
"x-ai/grok-4.1-fast.description": "Grok 4 Fast 是 xAI 推出的高吞吐、低成本模型(支持 2M 上下文窗口),适用于高并发和长上下文场景。",
"x-ai/grok-4.description": "Grok 4 是 xAI 的旗舰推理模型,具备强大的推理和多模态能力。",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 是 xAI 推出的快速代码模型,输出可读性强,适合工程使用。",
"xai/grok-2-vision.description": "Grok 2 Vision 擅长视觉任务在视觉数学推理MathVista和文档问答DocVQA方面表现卓越支持文档、图表、截图和照片等多种图像类型。",
"xai/grok-2.description": "Grok 2 是一款前沿模型,具备先进的推理能力,强大的对话、编程和推理表现,在 LMSYS 排名中优于 Claude 3.5 Sonnet 和 GPT-4 Turbo。",
"xai/grok-3-fast.description": "xAI 的旗舰模型,擅长企业场景如数据提取、编程和摘要,具备金融、医疗、法律和科学等领域的深度知识。快速版本运行在更快的基础设施上,响应速度更快但每个 token 成本更高。",
"xai/grok-3-mini-fast.description": "xAI 的轻量模型,在回答前进行思考,适用于简单或基于逻辑的任务,无需深度领域知识。提供原始推理轨迹。快速版本运行在更快的基础设施上,响应速度更快但每个 token 成本更高。",
"xai/grok-3-mini.description": "xAI 的轻量模型,在回答前进行思考,适用于简单或基于逻辑的任务,无需深度领域知识。提供原始推理轨迹。",
"xai/grok-3.description": "xAI 的旗舰模型,擅长企业场景如数据提取、编程和摘要,具备金融、医疗、法律和科学等领域的深度知识。",
"xai/grok-4.description": "xAI 最新旗舰模型,在自然语言、数学和推理方面表现卓越,是理想的全能型模型。",
"yi-large-fc.description": "基于 yi-large 构建,增强了工具调用能力,适用于智能体和工作流场景。",
"yi-large-preview.description": "早期版本,推荐使用更新的 yi-large。",
"yi-large-rag.description": "基于 yi-large 的高级服务,结合检索与生成,支持实时网页搜索,提供精准答案。",
"yi-large-turbo.description": "在质量、速度和成本之间实现出色平衡,具备卓越性价比和性能。",
"yi-large.description": "一款全新 1000 亿参数模型,擅长问答和文本生成。",
"yi-lightning-lite.description": "轻量版本,推荐使用 yi-lightning。",
"yi-lightning.description": "最新高性能模型,推理速度更快,输出质量更高。",
"yi-medium-200k.description": "支持 200K 长上下文的模型,适用于深度长文本理解与生成。",
"yi-medium.description": "调优后的中型模型,能力与性价比平衡,优化用于指令跟随任务。",
"yi-spark.description": "紧凑快速的模型,强化了数学和编程能力。",
"yi-vision-v2.description": "适用于复杂任务的视觉模型,具备强大的多图理解与分析能力。",
"yi-vision.description": "适用于复杂任务的视觉模型,具备强大的图像理解与分析能力。",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air 是 GLM 4.5 的轻量版本,适用于对成本敏感的场景,同时保留强大的推理能力。",
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗舰模型,采用混合推理,优化用于工程和长上下文任务。",
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗舰模型,具备更长上下文和更强编程能力。",
"zai-glm-4.6.description": "在编程和推理任务中表现出色,支持流式输出和工具调用,适用于智能体编程和复杂推理。",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款面向智能体应用的基础模型,采用专家混合架构,优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
"zai-org/GLM-4.5.description": "GLM-4.5 是一款面向智能体应用的基础模型,采用专家混合架构,深度优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智谱 AI 最新的多模态语言模型,基于 GLM-4.5-Air 旗舰文本模型(总参数 106B激活参数 12B采用 MoE 架构,在成本更低的同时保持强大性能。继承 GLM-4.1V-Thinking 路线,加入 3D-RoPE 提升三维空间推理能力。通过预训练、SFT 和 RL 优化,支持图像、视频和长文档,在 41 个公开多模态基准中排名领先。提供“思考模式”切换,平衡速度与深度。",
"zai-org/GLM-4.6.description": "相比 GLM-4.5GLM-4.6 将上下文长度从 128K 扩展至 200K适用于更复杂的智能体任务。在代码基准测试中得分更高在 Claude Code、Cline、Roo Code 和 Kilo Code 等应用中表现更强,包括更好的前端页面生成。推理能力增强,支持推理过程中的工具使用,整体能力更强。更好地集成于智能体框架,提升工具/搜索智能体能力,具备更符合人类偏好的写作风格和角色扮演自然度。",
"zai/glm-4.5-air.description": "GLM-4.5 和 GLM-4.5-Air 是我们面向智能体应用的最新旗舰模型,均采用 MoE 架构。GLM-4.5 总参数 355B每次前向激活 32BGLM-4.5-Air 更轻量,总参数 106B激活参数 12B。",
"zai/glm-4.5.description": "GLM-4.5 系列专为智能体设计,旗舰版 GLM-4.5 结合推理、编程和智能体能力,总参数 355B激活 32B提供双模式混合推理系统。",
"zai/glm-4.5v.description": "GLM-4.5V 基于 GLM-4.5-Air 构建,继承 GLM-4.1V-Thinking 的成熟技术,采用强大的 106B 参数 MoE 架构扩展能力。",
"zenmux/auto.description": "ZenMux 自动路由根据请求自动选择性价比最高、性能最优的支持模型。"
}