🤖 style: update i18n (#9294)

💄 style: update i18n

Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com>
This commit is contained in:
LobeHub Bot 2025-09-17 11:07:02 +08:00 committed by GitHub
parent 96ff5aa461
commit c018f3d05b
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
36 changed files with 4518 additions and 414 deletions

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "نموذج متعدد اللغات يحتوي على 52 مليار معلمة (12 مليار نشطة)، يوفر نافذة سياق طويلة تصل إلى 256 ألف كلمة، استدعاء دوال، إخراج منظم وتوليد قائم على الحقائق."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen لنماذج اللغة الكبيرة، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج الخبراء المختلطة (MoE). مبني على تدريب واسع النطاق، يحقق Qwen3 تقدمًا ثوريًا في الاستدلال، والامتثال للتعليمات، وقدرات الوكيل، ودعم اللغات المتعددة."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen لنماذج اللغة الكبيرة، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج الخبراء المختلطة (MoE). مبني على تدريب واسع النطاق، يحقق Qwen3 تقدمًا ثوريًا في الاستدلال، والامتثال للتعليمات، وقدرات الوكيل، ودعم اللغات المتعددة."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen لنماذج اللغة الكبيرة، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج الخبراء المختلطة (MoE). مبني على تدريب واسع النطاق، يحقق Qwen3 تقدمًا ثوريًا في الاستدلال، والامتثال للتعليمات، وقدرات الوكيل، ودعم اللغات المتعددة."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 هو الجيل الأحدث من سلسلة Qwen لنماذج اللغة الكبيرة، ويقدم مجموعة شاملة من النماذج الكثيفة ونماذج الخبراء المختلطة (MoE). مبني على تدريب واسع النطاق، يحقق Qwen3 تقدمًا ثوريًا في الاستدلال، والامتثال للتعليمات، وقدرات الوكيل، ودعم اللغات المتعددة."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct هو نموذج الكود الأكثر قدرة على الوكيل في Qwen، يتميز بأداء بارز في ترميز الوكيل، واستخدام متصفح الوكيل، ومهام الترميز الأساسية الأخرى، محققًا نتائج مماثلة لـ Claude Sonnet."
},
"amazon/nova-lite": {
"description": "نموذج متعدد الوسائط منخفض التكلفة للغاية، يعالج الصور والفيديو والنصوص بسرعة فائقة."
},
"amazon/nova-micro": {
"description": "نموذج نصي فقط يقدم استجابات بأدنى تأخير وبتكلفة منخفضة جدًا."
},
"amazon/nova-pro": {
"description": "نموذج متعدد الوسائط عالي الكفاءة يجمع بين الدقة والسرعة والتكلفة المثلى، مناسب لمجموعة واسعة من المهام."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 هو نموذج تضمين متعدد اللغات خفيف الوزن وفعال، يدعم أبعاد 1024 و512 و256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet يرفع المعايير في الصناعة، حيث يتفوق على نماذج المنافسين وClaude 3 Opus، ويظهر أداءً ممتازًا في تقييمات واسعة، مع سرعة وتكلفة تتناسب مع نماذجنا المتوسطة."
},
@ -627,25 +654,28 @@
"description": "الإصدار المحدث من Claude 2، مع نافذة سياقية مضاعفة، وتحسينات في الاعتمادية ومعدل الهلوسة والدقة المستندة إلى الأدلة في الوثائق الطويلة وسياقات RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتحقيق استجابة شبه فورية. يتمتع بأداء توجيهي سريع ودقيق."
"description": "Claude 3 Haiku هو أسرع نموذج حتى الآن من Anthropic، مصمم خصيصًا لأعباء العمل المؤسسية التي تتطلب عادةً مطالبات طويلة. يمكن لـ Haiku تحليل كميات كبيرة من الوثائق بسرعة، مثل التقارير الفصلية والعقود والقضايا القانونية، بتكلفة نصف تكلفة النماذج الأخرى في فئته."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus هو أقوى نموذج من Anthropic لمعالجة المهام المعقدة للغاية. يتميز بأداء ممتاز وذكاء وسلاسة وفهم."
"description": "Claude 3 Opus هو أذكى نموذج من Anthropic، يقدم أداءً رائدًا في السوق للمهام المعقدة للغاية. يتميز بسلاسة استثنائية وفهم شبيه بالبشر للتعامل مع المطالبات المفتوحة والسيناريوهات غير المسبوقة."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic. مقارنةً بـ Claude 3 Haiku، تم تحسين Claude 3.5 Haiku في جميع المهارات، وتفوق في العديد من اختبارات الذكاء على النموذج الأكبر من الجيل السابق Claude 3 Opus."
"description": "Claude 3.5 Haiku هو الجيل التالي من أسرع نماذجنا. يتمتع بسرعة مماثلة لـ Claude 3 Haiku، مع تحسينات في كل مجموعة مهارات، وتفوق في العديد من اختبارات الذكاء على أكبر نموذج لدينا من الجيل السابق Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet يقدم قدرات تتجاوز Opus وسرعة أكبر من Sonnet، مع الحفاظ على نفس السعر. يتميز Sonnet بمهارات خاصة في البرمجة وعلوم البيانات ومعالجة الصور والمهام الوكيلة."
"description": "Claude 3.5 Sonnet يحقق توازنًا مثاليًا بين الذكاء والسرعة، خاصة لأعباء العمل المؤسسية. يقدم أداءً قويًا بتكلفة أقل مقارنة بالمنافسين، ومصمم لتحمل عالي في نشرات الذكاء الاصطناعي على نطاق واسع."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet هو أكثر النماذج ذكاءً من Anthropic حتى الآن، وهو أيضًا أول نموذج مختلط للتفكير في السوق. يمكن لـ Claude 3.7 Sonnet إنتاج استجابات شبه فورية أو تفكير تدريجي ممتد، حيث يمكن للمستخدمين رؤية هذه العمليات بوضوح. يتميز Sonnet بشكل خاص في البرمجة، وعلوم البيانات، ومعالجة الصور، والمهام الوكيلة."
"description": "Claude 3.7 Sonnet هو أول نموذج استدلال مختلط، وأذكى نموذج حتى الآن من Anthropic. يقدم أداءً متقدمًا في الترميز، وتوليد المحتوى، وتحليل البيانات، ومهام التخطيط، مبنيًا على قدرات الهندسة البرمجية واستخدام الحاسوب في سلفه Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "كلود أوبوس 4 هو أقوى نموذج من أنثروبيك لمعالجة المهام المعقدة للغاية. يتميز بأداء ممتاز وذكاء وسلاسة وفهم عميق."
"description": "Claude Opus 4 هو أقوى نموذج حتى الآن من Anthropic، وأفضل نموذج ترميز في العالم، متصدرًا في اختبارات SWE-bench (72.5%) وTerminal-bench (43.2%). يوفر أداءً مستمرًا للمهام الطويلة التي تتطلب تركيزًا وجهدًا وآلاف الخطوات، قادرًا على العمل لساعات متواصلة، مما يوسع بشكل كبير قدرات وكلاء الذكاء الاصطناعي."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 هو بديل جاهز للاستخدام لـ Opus 4، يقدم أداءً ودقة ممتازة في مهام الترميز والوكالة العملية. يرفع أداء الترميز المتقدم إلى 74.5% في SWE-bench Verified، ويتعامل مع المشكلات المعقدة متعددة الخطوات بدقة واهتمام أكبر بالتفاصيل."
},
"anthropic/claude-sonnet-4": {
"description": "كلود سونيت 4 يمكنه إنتاج استجابات شبه فورية أو تفكير تدريجي مطول، حيث يمكن للمستخدمين رؤية هذه العمليات بوضوح. كما يمكن لمستخدمي API التحكم بدقة في مدة تفكير النموذج."
"description": "Claude Sonnet 4 يحسن بشكل كبير على قدرات Sonnet 3.7 الرائدة في الصناعة، ويظهر أداءً ممتازًا في الترميز، محققًا 72.7% في SWE-bench. يوازن النموذج بين الأداء والكفاءة، مناسب للحالات الداخلية والخارجية، ويحقق تحكمًا أكبر في التنفيذ من خلال قابلية تحكم محسنة."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B هو نموذج لغة ضخم نادر التنشيط يحتوي على 72 مليار معلمة و16 مليار معلمة نشطة، يعتمد على بنية الخبراء المختلطين المجمعة (MoGE). في مرحلة اختيار الخبراء، يتم تجميع الخبراء وتقيد تنشيط عدد متساوٍ من الخبراء داخل كل مجموعة لكل رمز، مما يحقق توازنًا في تحميل الخبراء ويعزز بشكل كبير كفاءة نشر النموذج على منصة Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ هو نموذج متقدم محسّن لـ RAG، مصمم للتعامل مع أعباء العمل على مستوى المؤسسات."
},
"cohere/command-a": {
"description": "Command A هو أقوى نموذج أداءً حتى الآن من Cohere، يتفوق في استخدام الأدوات، والوكالة، والتوليد المعزز بالاسترجاع (RAG)، وحالات الاستخدام متعددة اللغات. طول السياق يصل إلى 256K، ويعمل على اثنين من وحدات معالجة الرسومات فقط، مع زيادة في الإنتاجية بنسبة 150% مقارنة بـ Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R هو نموذج لغة كبير مُحسّن للتفاعل الحواري والمهام ذات السياق الطويل. يصنف ضمن فئة \"القابل للتوسع\"، ويوازن بين الأداء العالي والدقة القوية، مما يمكّن الشركات من تجاوز إثبات المفهوم والدخول في الإنتاج."
},
"cohere/command-r-plus": {
"description": "Command R+ هو أحدث نموذج لغة كبير من Cohere، مُحسّن للتفاعل الحواري والمهام ذات السياق الطويل. يهدف إلى تقديم أداء استثنائي يمكّن الشركات من تجاوز إثبات المفهوم والدخول في الإنتاج."
},
"cohere/embed-v4.0": {
"description": "نموذج يسمح بتصنيف النصوص أو الصور أو المحتوى المختلط أو تحويلها إلى تمثيلات مضمنة."
},
"command": {
"description": "نموذج حواري يتبع التعليمات، يظهر جودة عالية وموثوقية أكبر في المهام اللغوية، ويتميز بطول سياق أطول مقارنة بنموذجنا الأساسي للتوليد."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 هو نموذج استدلال هجين كبير يدعم سياق طويل يصل إلى 128K وتبديل أوضاع فعال، ويحقق أداءً وسرعة ممتازة في استدعاء الأدوات، وتوليد الأكواد، والمهام الاستدلالية المعقدة."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
"description": "تم ترقية نموذج DeepSeek R1 إلى إصدار صغير جديد، الإصدار الحالي هو DeepSeek-R1-0528. في التحديث الأخير، حسّن DeepSeek R1 عمق الاستدلال وقدرته بشكل ملحوظ من خلال استغلال موارد حسابية متزايدة وإدخال آليات تحسين خوارزمية بعد التدريب. النموذج يحقق أداءً ممتازًا في تقييمات معيارية متعددة مثل الرياضيات، والبرمجة، والمنطق العام، وأداؤه العام يقترب الآن من النماذج الرائدة مثل O3 وGemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 يعزز بشكل كبير قدرة الاستدلال للنموذج حتى مع وجود بيانات تعليمية قليلة جدًا. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 يعزز بشكل كبير قدرة الاستدلال للنموذج حتى مع وجود بيانات تعليمية قليلة جدًا. قبل إخراج الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B هو نموذج لغوي كبير يعتمد على Llama3.3 70B، حيث يحقق أداءً تنافسيًا مماثلاً للنماذج الرائدة الكبيرة من خلال استخدام التعديلات المستندة إلى مخرجات DeepSeek R1."
"description": "DeepSeek-R1-Distill-Llama-70B هو نسخة مكثفة وأكثر كفاءة من نموذج Llama 70B. يحافظ على أداء قوي في مهام توليد النصوص مع تقليل استهلاك الحوسبة لتسهيل النشر والبحث. يتم تشغيله بواسطة Groq باستخدام وحدة معالجة اللغة المخصصة (LPU) لتوفير استدلال سريع وفعال."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B هو نموذج لغوي كبير مكرر يعتمد على Llama-3.1-8B-Instruct، تم تدريبه باستخدام مخرجات DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 يعزز بشكل كبير من قدرة النموذج على الاستدلال في ظل وجود بيانات محدودة جدًا. قبل تقديم الإجابة النهائية، يقوم النموذج أولاً بإخراج سلسلة من التفكير لتحسين دقة الإجابة النهائية."
},
"deepseek/deepseek-v3": {
"description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
"description": "نموذج لغة كبير عام سريع مع قدرات استدلال محسنة."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base هو نسخة محسنة من نموذج DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "حقق DeepSeek-V3 تقدمًا كبيرًا في سرعة الاستدلال مقارنة بالنماذج السابقة. يحتل المرتبة الأولى بين النماذج المفتوحة المصدر، ويمكن مقارنته بأحدث النماذج المغلقة على مستوى العالم. يعتمد DeepSeek-V3 على بنية الانتباه المتعدد الرؤوس (MLA) وبنية DeepSeekMoE، والتي تم التحقق منها بشكل شامل في DeepSeek-V2. بالإضافة إلى ذلك، قدم DeepSeek-V3 استراتيجية مساعدة غير مدمرة للتوازن في الحمل، وحدد أهداف تدريب متعددة التسمية لتحقيق أداء أقوى."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "يمتلك GLM-Zero-Preview قدرة قوية على الاستدلال المعقد، ويظهر أداءً ممتازًا في مجالات الاستدلال المنطقي، والرياضيات، والبرمجة."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي وتحسينات تشمل سرعة فائقة، استخدام أدوات مدمجة، توليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash يقدم ميزات وتحسينات من الجيل التالي، بما في ذلك سرعة فائقة، واستخدام أدوات أصلية، وتوليد متعدد الوسائط، ونافذة سياق تصل إلى 1M توكن."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental هو أحدث نموذج ذكاء اصطناعي متعدد الوسائط من Google، مع تحسينات ملحوظة في الجودة مقارنة بالإصدارات السابقة، خاصة في المعرفة العالمية، الشيفرات، والسياقات الطويلة."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite يقدم ميزات الجيل التالي وتحسينات تشمل سرعة فائقة، استخدام أدوات مدمجة، توليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash هو النموذج الرئيسي الأكثر تقدمًا من Google، مصمم خصيصًا للمهام المتقدمة في الاستدلال، الترميز، الرياضيات والعلوم. يحتوي على قدرة مدمجة على \"التفكير\"، مما يمكنه من تقديم استجابات بدقة أعلى ومعالجة سياقية أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نسختين: نسخة التفكير ونسخة غير التفكير. تختلف تكلفة الإخراج بشكل ملحوظ بناءً على تفعيل قدرة التفكير. إذا اخترت النسخة القياسية (بدون لاحقة \":thinking\"), سيتجنب النموذج بوضوح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستلام رموز التفكير، يجب عليك اختيار النسخة \":thinking\"، والتي ستؤدي إلى تكلفة إخراج أعلى للتفكير.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\" كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash هو نموذج تفكيري يقدم قدرات شاملة ممتازة. مصمم لتحقيق توازن بين السعر والأداء، ويدعم متعدد الوسائط ونافذة سياق تصل إلى مليون رمز."
},
"google/gemini-2.5-flash-image-preview": {
"description": "نموذج تجريبي Gemini 2.5 Flash، يدعم توليد الصور."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite هو نموذج متوازن ومنخفض التأخير مع ميزانية تفكير قابلة للتكوين واتصال بالأدوات (مثل البحث في Google والتنفيذ البرمجي). يدعم مدخلات متعددة الوسائط ويوفر نافذة سياق تصل إلى مليون رمز."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash هو النموذج الرائد الأكثر تقدمًا من Google، مصمم للاستدلال المتقدم، الترميز، المهام الرياضية والعلمية. يحتوي على قدرة \"التفكير\" المدمجة، مما يمكّنه من تقديم استجابات بدقة أعلى ومعالجة سياقات أكثر تفصيلاً.\n\nملاحظة: يحتوي هذا النموذج على نوعين: التفكير وغير التفكير. تختلف تسعير الإخراج بشكل ملحوظ بناءً على ما إذا كانت قدرة التفكير مفعلة. إذا اخترت النوع القياسي (بدون لاحقة \" :thinking \")، سيتجنب النموذج بشكل صريح توليد رموز التفكير.\n\nلاستغلال قدرة التفكير واستقبال رموز التفكير، يجب عليك اختيار النوع \" :thinking \"، مما سيؤدي إلى تسعير إخراج تفكير أعلى.\n\nبالإضافة إلى ذلك، يمكن تكوين Gemini 2.5 Flash من خلال معلمة \"الحد الأقصى لعدد رموز الاستدلال\"، كما هو موضح في الوثائق (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro هو نموذج التفكير الأكثر تقدمًا من Google، قادر على الاستدلال في مسائل معقدة في البرمجة، الرياضيات ومجالات العلوم والتكنولوجيا والهندسة والرياضيات (STEM)، بالإضافة إلى استخدام السياق الطويل لتحليل مجموعات بيانات كبيرة، قواعد الشيفرة والمستندات."
"description": "Gemini 2.5 Pro هو نموذج Gemini المتقدم للاستدلال، قادر على حل المشكلات المعقدة. يحتوي على نافذة سياق تصل إلى مليوني رمز، ويدعم مدخلات متعددة الوسائط تشمل النصوص، الصور، الصوت، الفيديو، ومستندات PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "معاينة Gemini 2.5 Pro هي أحدث نموذج تفكيري من Google، قادر على استنتاج المشكلات المعقدة في مجالات البرمجة والرياضيات والعلوم والتكنولوجيا والهندسة والرياضيات (STEM)، بالإضافة إلى استخدام سياق طويل لتحليل مجموعات البيانات الكبيرة، وقواعد الشيفرة، والوثائق."
},
"google/gemini-embedding-001": {
"description": "نموذج تضمين متقدم يقدم أداءً ممتازًا في مهام اللغة الإنجليزية، متعددة اللغات، والبرمجة."
},
"google/gemini-flash-1.5": {
"description": "يقدم Gemini 1.5 Flash قدرات معالجة متعددة الوسائط محسّنة، مناسبة لمجموعة متنوعة من سيناريوهات المهام المعقدة."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "جيمّا 3 27B هو نموذج لغوي مفتوح المصدر من جوجل، وقد وضع معايير جديدة من حيث الكفاءة والأداء."
},
"google/text-embedding-005": {
"description": "نموذج تضمين نصي مركز على اللغة الإنجليزية ومحسن لمهام البرمجة واللغة الإنجليزية."
},
"google/text-multilingual-embedding-002": {
"description": "نموذج تضمين نص متعدد اللغات محسن لمهام عبر اللغات، يدعم عدة لغات."
},
"gpt-3.5-turbo": {
"description": "نموذج GPT 3.5 Turbo، مناسب لمجموعة متنوعة من مهام توليد وفهم النصوص، يشير حاليًا إلى gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "نسخة ألترا من سلسلة نموذج Imagen للجيل الرابع لتحويل النص إلى صورة"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small هو الخيار المثالي لمهام توليد الكود، وتصحيح الأخطاء، وإعادة الهيكلة، مع أدنى تأخير."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 هو نموذج لغوي كبير عالي الأداء بحجم صغير يعتمد على بنية MoE. يحتوي على 16 مليار معلمة إجمالية، لكن يتم تفعيل 1.4 مليار فقط لكل رمز (789 مليون غير مضمن)، مما يحقق سرعة توليد عالية جداً. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة وعلى نطاق واسع، بالرغم من أن المعلمات المفعلة تبلغ فقط 1.4 مليار، إلا أن Ling-mini-2.0 يظهر أداءً رفيع المستوى في المهام اللاحقة يمكن مقارنته بنماذج LLM الكثيفة التي تقل عن 10 مليارات والمع نماذج MoE الأكبر حجماً."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "نموذج نصي معدل للتعليمات من Llama 3.1، محسن لحالات استخدام الحوار متعدد اللغات، ويحقق أداءً ممتازًا في العديد من معايير الصناعة مقارنة بالعديد من نماذج الدردشة المفتوحة والمغلقة."
},
"meta/llama-3-70b": {
"description": "نموذج مفتوح المصدر مكون من 70 مليار معلمة، تم ضبطه بعناية من قبل Meta لأغراض الامتثال للتعليمات. يتم تشغيله بواسطة Groq باستخدام وحدة معالجة اللغة المخصصة (LPU) لتوفير استدلال سريع وفعال."
},
"meta/llama-3-8b": {
"description": "نموذج مفتوح المصدر مكون من 8 مليارات معلمة، تم ضبطه بعناية من قبل Meta لأغراض الامتثال للتعليمات. يتم تشغيله بواسطة Groq باستخدام وحدة معالجة اللغة المخصصة (LPU) لتوفير استدلال سريع وفعال."
},
"meta/llama-3.1-405b-instruct": {
"description": "نموذج لغوي متقدم، يدعم توليد البيانات الاصطناعية، وتقطير المعرفة، والاستدلال، مناسب للدردشة، والبرمجة، والمهام الخاصة."
},
"meta/llama-3.1-70b": {
"description": "نسخة محدثة من Meta Llama 3 70B Instruct، تشمل طول سياق موسع 128K، ودعم متعدد اللغات، وقدرات استدلال محسنة."
},
"meta/llama-3.1-70b-instruct": {
"description": "يمكنه تمكين المحادثات المعقدة، ويتميز بفهم سياقي ممتاز، وقدرات استدلال، وقدرة على توليد النصوص."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B يدعم نافذة سياق 128K، مما يجعله خيارًا مثاليًا لواجهات المحادثة الحية وتحليل البيانات، مع توفير توفير كبير في التكلفة مقارنة بالنماذج الأكبر. يتم تشغيله بواسطة Groq باستخدام وحدة معالجة اللغة المخصصة (LPU) لتوفير استدلال سريع وفعال."
},
"meta/llama-3.1-8b-instruct": {
"description": "نموذج متقدم من الطراز الأول، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-11b": {
"description": "نموذج توليد استدلال الصور مضبوط بالتعليمات (نص + إدخال صورة / إخراج نص)، محسن للتعرف البصري، استدلال الصور، توليد العناوين، والإجابة على الأسئلة العامة المتعلقة بالصور."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
},
"meta/llama-3.2-1b": {
"description": "نموذج نصي فقط، يدعم حالات الاستخدام على الجهاز مثل استرجاع المعرفة المحلية متعددة اللغات، التلخيص، وإعادة الصياغة."
},
"meta/llama-3.2-1b-instruct": {
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-3b": {
"description": "نموذج نصي فقط، مضبوط بعناية لدعم حالات الاستخدام على الجهاز مثل استرجاع المعرفة المحلية متعددة اللغات، التلخيص، وإعادة الصياغة."
},
"meta/llama-3.2-3b-instruct": {
"description": "نموذج لغوي صغير متقدم، يتمتع بفهم اللغة، وقدرات استدلال ممتازة، وقدرة على توليد النصوص."
},
"meta/llama-3.2-90b": {
"description": "نموذج توليد استدلال الصور مضبوط بالتعليمات (نص + إدخال صورة / إخراج نص)، محسن للتعرف البصري، استدلال الصور، توليد العناوين، والإجابة على الأسئلة العامة المتعلقة بالصور."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "نموذج متقدم للرؤية واللغة، بارع في إجراء استدلال عالي الجودة من الصور."
},
"meta/llama-3.3-70b": {
"description": "مزيج مثالي من الأداء والكفاءة. يدعم النموذج ذكاءً اصطناعيًا حواريًا عالي الأداء، مصممًا لإنشاء المحتوى، التطبيقات المؤسسية، والبحث، ويقدم قدرات متقدمة في فهم اللغة تشمل التلخيص النصي، التصنيف، تحليل المشاعر، وتوليد الكود."
},
"meta/llama-3.3-70b-instruct": {
"description": "نموذج لغوي متقدم، بارع في الاستدلال، والرياضيات، والمعرفة العامة، واستدعاء الدوال."
},
"meta/llama-4-maverick": {
"description": "مجموعة نماذج Llama 4 هي نماذج ذكاء اصطناعي متعددة الوسائط أصلية تدعم النص والتجارب متعددة الوسائط. تستفيد هذه النماذج من بنية الخبراء المختلطة لتقديم أداء رائد في الصناعة في فهم النصوص والصور. Llama 4 Maverick، نموذج مكون من 17 مليار معلمة مع 128 خبيرًا. مقدم الخدمة DeepInfra."
},
"meta/llama-4-scout": {
"description": "مجموعة نماذج Llama 4 هي نماذج ذكاء اصطناعي متعددة الوسائط أصلية تدعم النص والتجارب متعددة الوسائط. تستفيد هذه النماذج من بنية الخبراء المختلطة لتقديم أداء رائد في الصناعة في فهم النصوص والصور. Llama 4 Scout، نموذج مكون من 17 مليار معلمة مع 16 خبيرًا. مقدم الخدمة DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "نفس نموذج Phi-3-medium ولكن مع حجم سياق أكبر، مناسب لـ RAG أو القليل من التلميحات."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small هو خيار فعال من حيث التكلفة وسريع وموثوق، مناسب لمهام الترجمة، والتلخيص، وتحليل المشاعر."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 هو نموذج ترميز متقدم، مُحسّن للحالات التي تتطلب تأخيرًا منخفضًا وترددًا عاليًا. يتقن أكثر من 80 لغة برمجة، ويبرع في مهام الملء الوسيط (FIM)، تصحيح الكود، وتوليد الاختبارات."
},
"mistral/codestral-embed": {
"description": "نموذج تضمين الكود يمكن دمجه في قواعد بيانات ومستودعات الكود لدعم مساعدي الترميز."
},
"mistral/devstral-small": {
"description": "Devstral هو نموذج لغة كبير وكيل مخصص لمهام هندسة البرمجيات، مما يجعله خيارًا ممتازًا كوكلاء هندسة البرمجيات."
},
"mistral/magistral-medium": {
"description": "تفكير معقد مدعوم بفهم عميق، مع استدلال شفاف يمكنك متابعته والتحقق منه. يحافظ النموذج على استدلال عالي الدقة عبر لغات متعددة حتى عند التبديل بين اللغات أثناء المهمة."
},
"mistral/magistral-small": {
"description": "تفكير معقد مدعوم بفهم عميق، مع استدلال شفاف يمكنك متابعته والتحقق منه. يحافظ النموذج على استدلال عالي الدقة عبر لغات متعددة حتى عند التبديل بين اللغات أثناء المهمة."
},
"mistral/ministral-3b": {
"description": "نموذج مضغوط وفعال للمهام على الأجهزة مثل المساعدات الذكية والتحليل المحلي، يقدم أداء منخفض التأخير."
},
"mistral/ministral-8b": {
"description": "نموذج أقوى مع استدلال أسرع وأكثر كفاءة في الذاكرة، مثالي لسير العمل المعقد وتطبيقات الحافة ذات المتطلبات العالية."
},
"mistral/mistral-embed": {
"description": "نموذج تضمين نص عام للبحث الدلالي، التشابه، التجميع، وسير عمل RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large هو الخيار المثالي للمهام المعقدة التي تتطلب قدرات استدلال كبيرة أو تخصص عالي مثل توليد النصوص المركبة، توليد الكود، RAG أو الوكالة."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B هو نموذج مفتوح المصدر مكون من 24 مليار معلمة طورته Mistral.ai. Saba هو نموذج متخصص مدرب لأداء متميز في اللغات العربية، الفارسية، الأردية، العبرية، واللغات الهندية. يتم تشغيله بواسطة Groq باستخدام وحدة معالجة اللغة المخصصة (LPU) لتوفير استدلال سريع وفعال."
},
"mistral/mistral-small": {
"description": "Mistral Small هو الخيار المثالي للمهام البسيطة التي يمكن تنفيذها دفعة واحدة مثل التصنيف، دعم العملاء، أو توليد النصوص. يقدم أداءً ممتازًا بسعر معقول."
},
"mistral/mixtral-8x22b-instruct": {
"description": "نموذج 8x22b Instruct. 8x22b هو نموذج مفتوح المصدر من خبراء مختلطين مقدم من Mistral."
},
"mistral/pixtral-12b": {
"description": "نموذج 12B مع قدرات فهم الصور بالإضافة إلى النص."
},
"mistral/pixtral-large": {
"description": "Pixtral Large هو النموذج الثاني في عائلة النماذج متعددة الوسائط لدينا، ويظهر مستوى متقدمًا في فهم الصور. بشكل خاص، يمكن للنموذج فهم المستندات، المخططات، والصور الطبيعية، مع الحفاظ على قدرات فهم النص الرائدة في Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct معروف بأدائه العالي، مناسب لمهام لغوية متعددة."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج لغوي من نوع الخبراء المختلطين (MoE) من الطراز الأول، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة مفعلة. تشمل الميزات الرئيسية للنموذج: تعزيز ذكاء التكويد للوكيل، مع تحسينات ملحوظة في الأداء في اختبارات المعيار المفتوحة ومهام التكويد الواقعية للوكيل؛ تحسين تجربة التكويد في الواجهة الأمامية، مع تقدم في الجمالية والعملية في برمجة الواجهة الأمامية."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 هو نموذج لغة كبير مختلط الخبراء (MoE) ضخم طورته Moonshot AI، يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة في كل تمرير أمامي. مُحسّن لقدرات الوكيل، بما في ذلك استخدام الأدوات المتقدمة، الاستدلال، وتركيب الكود."
},
"moonshotai/kimi-k2-0905": {
"description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "نموذج kimi-k2-0905-preview يدعم طول سياق 256k، يتمتع بقدرات ترميز وكيل أقوى، وجمالية وعملية أفضل في الشيفرة الأمامية، وفهم سياق محسن."
},
"morph/morph-v3-fast": {
"description": "Morph يقدم نموذج ذكاء اصطناعي مخصص يطبق تغييرات الكود المقترحة من نماذج متقدمة مثل Claude أو GPT-4o على ملفات الكود الحالية بسرعة فائقة - أكثر من 4500 رمز في الثانية. يعمل كخطوة نهائية في سير عمل الترميز بالذكاء الاصطناعي. يدعم 16k رمز إدخال و16k رمز إخراج."
},
"morph/morph-v3-large": {
"description": "Morph يقدم نموذج ذكاء اصطناعي مخصص يطبق تغييرات الكود المقترحة من نماذج متقدمة مثل Claude أو GPT-4o على ملفات الكود الحالية بسرعة - أكثر من 2500 رمز في الثانية. يعمل كخطوة نهائية في سير عمل الترميز بالذكاء الاصطناعي. يدعم 16k رمز إدخال و16k رمز إخراج."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B هو إصدار مطور من Nous Hermes 2، ويحتوي على أحدث مجموعات البيانات المطورة داخليًا."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B هو نموذج خبير نادر، يستخدم عدة معلمات لزيادة سرعة الاستدلال، مناسب لمعالجة المهام متعددة اللغات وتوليد الشيفرة."
},
"openai/gpt-3.5-turbo": {
"description": "أكثر نماذج GPT-3.5 كفاءة من حيث الأداء والتكلفة من OpenAI، مُحسّن للدردشة، لكنه يؤدي جيدًا أيضًا في مهام الإكمال التقليدية."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "قدرات مشابهة لنماذج عصر GPT-3. متوافق مع نقاط نهاية الإكمال التقليدية بدلاً من نقاط نهاية إكمال الدردشة."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo من OpenAI يمتلك معرفة عامة واسعة وخبرة ميدانية، مما يمكنه من اتباع تعليمات اللغة الطبيعية المعقدة وحل المشكلات بدقة. تاريخ المعرفة حتى أبريل 2023، ونافذة سياق تصل إلى 128,000 رمز."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 هو نموذجنا الرائد للمهام المعقدة. إنه مثالي لحل المشكلات عبر مجالات متعددة."
"description": "GPT 4.1 هو النموذج الرائد من OpenAI، مناسب للمهام المعقدة. مثالي لحل المشكلات متعددة المجالات."
},
"openai/gpt-4.1-mini": {
"description": "يوفر GPT-4.1 mini توازنًا بين الذكاء والسرعة والتكلفة، مما يجعله نموذجًا جذابًا للعديد من الاستخدامات."
"description": "GPT 4.1 mini يوازن بين الذكاء والسرعة والتكلفة، مما يجعله نموذجًا جذابًا للعديد من حالات الاستخدام."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano هو أسرع وأقل تكلفة من نماذج GPT-4.1."
"description": "GPT-4.1 nano هو أسرع وأكفأ نموذج GPT 4.1 من حيث التكلفة."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الحقيقي للحفاظ على أحدث إصدار. يجمع بين فهم اللغة القوي وقدرة التوليد، مما يجعله مناسبًا لمجموعة واسعة من التطبيقات، بما في ذلك خدمة العملاء والتعليم والدعم الفني."
"description": "GPT-4o من OpenAI يمتلك معرفة عامة واسعة وخبرة ميدانية، قادر على اتباع تعليمات اللغة الطبيعية المعقدة وحل المشكلات بدقة. يقدم أداءً مماثلًا لـ GPT-4 Turbo عبر API أسرع وأرخص."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini هو أحدث نموذج من OpenAI تم إطلاقه بعد GPT-4 Omni، ويدعم إدخال النصوص والصور وإخراج النصوص. كأحد نماذجهم المتقدمة الصغيرة، فهو أرخص بكثير من النماذج الرائدة الأخرى في الآونة الأخيرة، وأرخص بأكثر من 60% من GPT-3.5 Turbo. يحتفظ بذكاء متقدم مع قيمة ممتازة. حصل GPT-4o mini على 82% في اختبار MMLU، وهو حاليًا يتفوق على GPT-4 في تفضيلات الدردشة."
"description": "GPT-4o mini من OpenAI هو أصغر نموذج متقدم وأكثر كفاءة من حيث التكلفة. متعدد الوسائط (يقبل نصوصًا أو صورًا ويخرج نصًا)، وأكثر ذكاءً من gpt-3.5-turbo، مع سرعة مماثلة."
},
"openai/gpt-5": {
"description": "GPT-5 هو النموذج الرائد من OpenAI، يتفوق في الاستدلال المعقد، المعرفة الواقعية الواسعة، المهام المكثفة للكود، والوكالة متعددة الخطوات."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini هو نموذج محسّن من حيث التكلفة، يقدم أداءً ممتازًا في مهام الاستدلال والدردشة. يوفر توازنًا مثاليًا بين السرعة والتكلفة والقدرة."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano هو نموذج عالي الإنتاجية، يتفوق في المهام البسيطة مثل التعليمات أو التصنيف."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B هو نموذج لغوي رائد يحتوي على 120 مليار معلمة، مزود بميزات تصفح الإنترنت وتنفيذ الأكواد، ويتميز بقدرات استدلالية."
"description": "نموذج لغة كبير عام عالي الكفاءة، يتمتع بقدرات استدلال قوية وقابلة للتحكم."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B هو نموذج لغوي رائد يحتوي على 20 مليار معلمة، مزود بميزات تصفح الإنترنت وتنفيذ الأكواد، ويتميز بقدرات استدلالية."
"description": "نموذج لغة مضغوط مفتوح المصدر، مُحسّن للتأخير المنخفض والبيئات ذات الموارد المحدودة، بما في ذلك النشر المحلي وعلى الحافة."
},
"openai/o1": {
"description": "o1 هو نموذج الاستدلال الجديد من OpenAI، يدعم إدخال الصور والنصوص ويخرج نصًا، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يتميز هذا النموذج بسياق يصل إلى 200 ألف كلمة وتاريخ معرفة حتى أكتوبر 2023."
"description": "o1 من OpenAI هو نموذج استدلال رائد، مصمم للمشكلات المعقدة التي تتطلب تفكيرًا عميقًا. يوفر قدرات استدلال قوية ودقة أعلى للمهام متعددة الخطوات."
},
"openai/o1-mini": {
"description": "o1-mini هو نموذج استدلال سريع وفعال من حيث التكلفة مصمم لتطبيقات البرمجة والرياضيات والعلوم. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
@ -2325,23 +2493,44 @@
"description": "o1 هو نموذج استدلال جديد من OpenAI، مناسب للمهام المعقدة التي تتطلب معرفة عامة واسعة. يحتوي هذا النموذج على 128K من السياق وتاريخ انتهاء المعرفة في أكتوبر 2023."
},
"openai/o3": {
"description": "o3 هو نموذج قوي شامل، يظهر أداءً ممتازًا في مجالات متعددة. إنه يضع معيارًا جديدًا لمهام الرياضيات والعلوم والبرمجة والتفكير البصري. كما أنه بارع في الكتابة التقنية واتباع التعليمات. يمكن للمستخدمين الاستفادة منه في تحليل النصوص والرموز والصور، وحل المشكلات المعقدة متعددة الخطوات."
"description": "o3 من OpenAI هو أقوى نموذج استدلال، يضع معايير جديدة في الترميز، الرياضيات، العلوم، والإدراك البصري. يتفوق في الاستعلامات المعقدة التي تتطلب تحليلات متعددة الجوانب، وله ميزة خاصة في تحليل الصور، المخططات، والرسوم البيانية."
},
"openai/o3-mini": {
"description": "o3-mini يقدم ذكاءً عاليًا بنفس تكلفة وأهداف التأخير مثل o1-mini."
"description": "o3-mini هو أحدث نموذج استدلال صغير من OpenAI، يقدم ذكاءً عاليًا بنفس تكلفة وتأخير o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini عالي المستوى من حيث الاستدلال، يقدم ذكاءً عاليًا بنفس تكلفة وأهداف التأخير مثل o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
"description": "o4-mini من OpenAI يقدم استدلالًا سريعًا وفعالًا من حيث التكلفة، مع أداء ممتاز بالنسبة لحجمه، خاصة في الرياضيات (الأفضل في اختبار AIME)، الترميز، والمهام البصرية."
},
"openai/o4-mini-high": {
"description": "o4-mini إصدار عالي من حيث مستوى الاستدلال، تم تحسينه للاستدلال السريع والفعال، ويظهر كفاءة وأداء عاليين في المهام البرمجية والرؤية."
},
"openai/text-embedding-3-large": {
"description": "أكثر نماذج التضمين كفاءة من OpenAI، مناسب للمهام الإنجليزية وغير الإنجليزية."
},
"openai/text-embedding-3-small": {
"description": "نسخة محسنة وأعلى أداء من نموذج تضمين ada من OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "نموذج تضمين نصي تقليدي من OpenAI."
},
"openrouter/auto": {
"description": "استنادًا إلى طول السياق، والموضوع، والتعقيد، سيتم إرسال طلبك إلى Llama 3 70B Instruct، أو Claude 3.5 Sonnet (التعديل الذاتي) أو GPT-4o."
},
"perplexity/sonar": {
"description": "منتج خفيف الوزن من Perplexity مع قدرة البحث الموجه، أسرع وأرخص من Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "المنتج الرائد من Perplexity مع قدرة البحث الموجه، يدعم الاستعلامات المتقدمة والمتابعات."
},
"perplexity/sonar-reasoning": {
"description": "نموذج يركز على الاستدلال، ينتج سلاسل تفكير (CoT) في الردود، ويقدم تفسيرات مفصلة مع بحث موجه."
},
"perplexity/sonar-reasoning-pro": {
"description": "نموذج استدلال متقدم يركز على إنتاج سلاسل تفكير (CoT) في الردود، مع قدرات بحث معززة واستعلامات بحث متعددة لكل طلب لتقديم تفسيرات شاملة."
},
"phi3": {
"description": "Phi-3 هو نموذج مفتوح خفيف الوزن أطلقته Microsoft، مناسب للتكامل الفعال واستدلال المعرفة على نطاق واسع."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "نموذج v0-1.5-md مناسب للمهام اليومية وتوليد واجهات المستخدم (UI)"
},
"vercel/v0-1.0-md": {
"description": "الوصول إلى النموذج خلف v0 لتوليد، إصلاح، وتحسين تطبيقات الويب الحديثة، مع استدلال مخصص للأطر المعينة ومعرفة حديثة."
},
"vercel/v0-1.5-md": {
"description": "الوصول إلى النموذج خلف v0 لتوليد، إصلاح، وتحسين تطبيقات الويب الحديثة، مع استدلال مخصص للأطر المعينة ومعرفة حديثة."
},
"wan2.2-t2i-flash": {
"description": "نسخة Wanxiang 2.2 فائقة السرعة، أحدث نموذج حاليًا. تم تحسين الإبداع، الاستقرار، والواقعية بشكل شامل، مع سرعة توليد عالية وقيمة ممتازة مقابل التكلفة."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "سيتم ترقية نموذج Spark X1 بشكل أكبر، حيث ستحقق المهام العامة مثل الاستدلال، وتوليد النصوص، وفهم اللغة نتائج تتماشى مع OpenAI o1 و DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 هو نموذج لغة متقدم بقدرات استدلال رائدة. يتميز بقدرات متقدمة في الدردشة، الترميز، والاستدلال، ويتفوق على Claude 3.5 Sonnet وGPT-4-Turbo في تصنيف LMSYS."
},
"xai/grok-2-vision": {
"description": "نموذج Grok 2 البصري يتفوق في المهام المعتمدة على الرؤية، ويقدم أداءً رائدًا في الاستدلال الرياضي البصري (MathVista) والأسئلة المعتمدة على الوثائق (DocVQA). قادر على معالجة معلومات بصرية متنوعة تشمل الوثائق، المخططات، الرسوم البيانية، لقطات الشاشة، والصور."
},
"xai/grok-3": {
"description": "النموذج الرائد من xAI، يتفوق في حالات الاستخدام المؤسسية مثل استخراج البيانات، الترميز، وتلخيص النصوص. يمتلك معرفة عميقة في مجالات المالية، الرعاية الصحية، القانون، والعلوم."
},
"xai/grok-3-fast": {
"description": "النموذج الرائد من xAI، يتفوق في حالات الاستخدام المؤسسية مثل استخراج البيانات، الترميز، وتلخيص النصوص. النسخة السريعة تقدم استجابات أسرع بكثير على بنية تحتية أسرع، مع تكلفة أعلى لكل رمز مخرج."
},
"xai/grok-3-mini": {
"description": "نموذج خفيف الوزن من xAI، يفكر قبل الاستجابة. مثالي للمهام البسيطة أو المنطقية التي لا تتطلب معرفة مجال عميقة. مسار التفكير الخام متاح."
},
"xai/grok-3-mini-fast": {
"description": "نموذج خفيف الوزن من xAI، يفكر قبل الاستجابة. مثالي للمهام البسيطة أو المنطقية التي لا تتطلب معرفة مجال عميقة. مسار التفكير الخام متاح. النسخة السريعة تقدم استجابات أسرع بكثير على بنية تحتية أسرع، مع تكلفة أعلى لكل رمز مخرج."
},
"xai/grok-4": {
"description": "أحدث وأعظم نموذج رائد من xAI، يقدم أداءً لا مثيل له في اللغة الطبيعية، الرياضيات، والاستدلال — الخيار المثالي متعدد الاستخدامات."
},
"yi-1.5-34b-chat": {
"description": "يي-1.5 هو إصدار مُحدّث من يي. تم تدريبه بشكل مُسبق باستخدام مكتبة بيانات عالية الجودة تحتوي على 500 مليار علامة (Token) على يي، وتم تحسينه أيضًا باستخدام 3 ملايين مثال متنوع للتدريب الدقيق."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V هو نموذج لغوي بصري (VLM) من الجيل الأحدث صدر عن Zhipu AI (智谱 AI). بُني النموذج على نموذج النص الرائد GLM-4.5-Air الذي يحتوي على 106B من المعاملات الإجمالية و12B من معاملات التنشيط، ويعتمد على بنية الخبراء المختلطين (MoE) بهدف تحقيق أداء متميز بتكلفة استدلال أقل. من الناحية التقنية، يواصل GLM-4.5V نهج GLM-4.1V-Thinking ويقدّم ابتكارات مثل ترميز المواقع الدوراني ثلاثي الأبعاد (3D-RoPE)، مما عزّز بشكل ملحوظ قدرته على إدراك واستنتاج العلاقات المكانية ثلاثية الأبعاد. وبفضل تحسينات في مراحل ما قبل التدريب، والتعديل بالإشراف، والتعلّم المعزّز، أصبح النموذج قادراً على معالجة محتوى بصري متنوّع مثل الصور والفيديوهات والمستندات الطويلة، وقد حقق مستوى متقدماً ضمن أفضل نماذج المصدر المفتوح في 41 معياراً متعدد الوسائط منشوراً. بالإضافة إلى ذلك، أضاف النموذج مفتاح \"وضع التفكير\" الذي يتيح للمستخدمين التبديل بين الاستجابة السريعة والاستدلال العميق بحرية لتوازن أفضل بين الكفاءة والفعالية."
},
"zai/glm-4.5": {
"description": "سلسلة نماذج GLM-4.5 هي نماذج أساسية مصممة خصيصًا للوكلاء. النموذج الرائد GLM-4.5 يدمج 355 مليار معلمة إجمالية (32 مليار نشطة)، موحدًا الاستدلال، الترميز، وقدرات الوكيل لتلبية متطلبات التطبيقات المعقدة. كنظام استدلال مختلط، يوفر وضعين تشغيليين."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 وGLM-4.5-Air هما أحدث نماذجنا الرائدة، مصممة كنماذج أساسية لتطبيقات الوكلاء. كلاهما يستخدم بنية الخبراء المختلطة (MoE). يحتوي GLM-4.5 على 355 مليار معلمة إجمالية و32 مليار معلمة نشطة في كل تمرير أمامي، بينما يتميز GLM-4.5-Air بتصميم مبسط مع 106 مليار معلمة إجمالية و12 مليار معلمة نشطة."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V مبني على نموذج GLM-4.5-Air الأساسي، يرث التقنيات المثبتة من GLM-4.1V-Thinking، ويوسعها بفعالية من خلال بنية MoE القوية التي تضم 106 مليار معلمة."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 هو مساعد برمجة تعاوني، كل ما عليك هو وصف أفكارك بلغة طبيعية، وسيقوم بإنشاء الشيفرة وواجهة المستخدم (UI) لمشروعك."
},
"vercelaigateway": {
"description": "بوابة Vercel AI توفر واجهة برمجة تطبيقات موحدة للوصول إلى أكثر من 100 نموذج، من خلال نقطة نهاية واحدة يمكن استخدامها مع نماذج مقدمي خدمات مثل OpenAI وAnthropic وGoogle وغيرها. تدعم إعداد الميزانية، مراقبة الاستخدام، موازنة تحميل الطلبات والتبديل التلقائي عند الفشل."
},
"vertexai": {
"description": "سلسلة جيميني من جوجل هي نماذج الذكاء الاصطناعي الأكثر تقدمًا وعمومية، تم تطويرها بواسطة جوجل ديب مايند، مصممة خصيصًا لتكون متعددة الوسائط، تدعم الفهم والمعالجة السلسة للنصوص، الأكواد، الصور، الصوتيات، والفيديو. تناسب مجموعة متنوعة من البيئات، من مراكز البيانات إلى الأجهزة المحمولة، مما يعزز بشكل كبير كفاءة نماذج الذكاء الاصطناعي وتطبيقاتها الواسعة."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Многоезичен модел с 52 милиарда параметри (12 милиарда активни), предлагащ прозорец за дълъг контекст от 256K, извикване на функции, структурирани изходи и генериране, базирано на факти."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 е най-новото поколение голям езиков модел от серията Qwen, предлагащ цялостен набор от плътни и смесени експертни (MoE) модели. Изграден върху обширно обучение, Qwen3 постига пробиви в разсъжденията, следването на инструкции, агентските способности и многоезичната поддръжка."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 е най-новото поколение голям езиков модел от серията Qwen, предлагащ цялостен набор от плътни и смесени експертни (MoE) модели. Изграден върху обширно обучение, Qwen3 постига пробиви в разсъжденията, следването на инструкции, агентските способности и многоезичната поддръжка."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 е най-новото поколение голям езиков модел от серията Qwen, предлагащ цялостен набор от плътни и смесени експертни (MoE) модели. Изграден върху обширно обучение, Qwen3 постига пробиви в разсъжденията, следването на инструкции, агентските способности и многоезичната поддръжка."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 е най-новото поколение голям езиков модел от серията Qwen, предлагащ цялостен набор от плътни и смесени експертни (MoE) модели. Изграден върху обширно обучение, Qwen3 постига пробиви в разсъжденията, следването на инструкции, агентските способности и многоезичната поддръжка."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct е най-агентският кодов модел на Qwen, с изключителна производителност в агентско кодиране, използване на агентски браузър и други основни кодови задачи, постигащ резултати, сравними с Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Много евтин мултимодален модел, който обработва изображения, видео и текст с изключително висока скорост."
},
"amazon/nova-micro": {
"description": "Модел само за текст, който осигурява най-ниска латентност на отговор при много ниска цена."
},
"amazon/nova-pro": {
"description": "Много способен мултимодален модел с оптимално съчетание на точност, скорост и цена, подходящ за широк спектър от задачи."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 е лек и ефективен многоезичен модел за вграждане, поддържащ размерности 1024, 512 и 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet повишава индустриалните стандарти, с производителност, надвишаваща конкурентните модели и Claude 3 Opus, с отлични резултати в широки оценки, като същевременно предлага скорост и разходи на нашите модели от средно ниво."
},
@ -627,25 +654,28 @@
"description": "Актуализирана версия на Claude 2, с двойно по-голям контекстуален прозорец и подобрения в надеждността, процента на халюцинации и точността, основана на доказателства, в контексти с дълги документи и RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku е най-бързият и компактен модел на Anthropic, проектиран за почти мигновени отговори. Той предлага бърза и точна насочена производителност."
"description": "Claude 3 Haiku е най-бързият модел на Anthropic досега, проектиран за корпоративни натоварвания с обикновено дълги подсказки. Haiku може бързо да анализира големи обеми документи като тримесечни отчети, договори или правни дела, като разходите са наполовина в сравнение с други модели от същия клас."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus е най-мощният модел на Anthropic, предназначен за обработка на изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, гладкост и разбиране."
"description": "Claude 3 Opus е най-интелигентният модел на Anthropic с водещи на пазара резултати при изключително сложни задачи. Той се справя с отворени подсказки и непознати сценарии с изключителна плавност и човешко разбиране."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku е най-бързият следващ модел на Anthropic. В сравнение с Claude 3 Haiku, Claude 3.5 Haiku показва подобрения в различни умения и надминава предишното поколение най-голям модел Claude 3 Opus в много интелектуални бенчмаркове."
"description": "Claude 3.5 Haiku е следващото поколение на нашия най-бърз модел. Със скорост, подобна на Claude 3 Haiku, той подобрява всяка компетентност и надминава предишния ни най-голям модел Claude 3 Opus в много интелигентни бенчмаркове."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet предлага способности, надхвърлящи Opus, и по-бърза скорост в сравнение с Sonnet, като същевременно запазва същата цена. Sonnet е особено силен в програмирането, науката за данни, визуалната обработка и агентските задачи."
"description": "Claude 3.5 Sonnet постига идеален баланс между интелигентност и скорост — особено за корпоративни натоварвания. Той предлага мощна производителност на по-ниска цена в сравнение с конкурентите и е проектиран за висока издръжливост при мащабни AI внедрявания."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic до момента и е първият хибриден модел за разсъждение на пазара. Claude 3.7 Sonnet може да генерира почти мигновени отговори или удължено стъпково мислене, което позволява на потребителите ясно да видят тези процеси. Sonnet е особено добър в програмирането, науката за данни, визуалната обработка и агентските задачи."
"description": "Claude 3.7 Sonnet е първият хибриден разсъдъчен модел и най-интелигентният модел на Anthropic досега. Той предлага водещи резултати в кодиране, генериране на съдържание, анализ на данни и планиране, изграждайки се върху софтуерните инженерни и компютърни умения на предшественика си Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 е най-мощният модел на Anthropic за справяне с изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, плавност и разбиране."
"description": "Claude Opus 4 е най-мощният модел на Anthropic досега и най-добрият кодов модел в света, водещ в SWE-bench (72.5%) и Terminal-bench (43.2%). Той осигурява устойчива производителност за дългосрочни задачи, изискващи фокус и хиляди стъпки, като може да работи непрекъснато часове — значително разширявайки възможностите на AI агентите."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 е plug-and-play алтернатива на Opus 4, осигуряваща изключителна производителност и точност за реални кодови и агентски задачи. Opus 4.1 повишава водещата кодова производителност до 74.5% в SWE-bench Verified и обработва сложни многостъпкови проблеми с по-голяма прецизност и внимание към детайлите."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 може да генерира почти мигновени отговори или удължено стъпково мислене, което потребителите могат ясно да проследят. Потребителите на API също така имат прецизен контрол върху времето за мислене на модела."
"description": "Claude Sonnet 4 значително подобрява водещите в индустрията възможности на Sonnet 3.7, с отлични резултати в кодиране и постига водещи 72.7% в SWE-bench. Моделът балансира производителност и ефективност, подходящ е за вътрешни и външни случаи и предлага по-голям контрол чрез подобрена управляемост."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B е голям езиков модел с 72 милиарда параметри и 16 милиарда активирани параметри, базиран на архитектурата с групирани смесени експерти (MoGE). Той групира експертите по време на избора им и ограничава активацията на токените да активират равен брой експерти във всяка група, което осигурява балансирано натоварване на експертите и значително подобрява ефективността на разгръщане на модела на платформата Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ е усъвършенстван оптимизиран модел за RAG, предназначен да се справя с натоварвания на корпоративно ниво."
},
"cohere/command-a": {
"description": "Command A е най-мощният модел на Cohere досега, с отлични резултати в използване на инструменти, агенти, генериране с подобрено извличане (RAG) и многоезични случаи. Command A поддържа контекст с дължина 256K и работи с два GPU, като осигурява 150% по-висок пропускателен капацитет спрямо Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R е голям езиков модел, оптимизиран за диалогови взаимодействия и задачи с дълъг контекст. Той е позициониран като модел от категорията „разширяем“, балансирайки висока производителност и точност, позволявайки на компаниите да преминат от концептуални доказателства към продукция."
},
"cohere/command-r-plus": {
"description": "Command R+ е най-новият голям езиков модел на Cohere, оптимизиран за диалогови взаимодействия и задачи с дълъг контекст. Целта му е да бъде изключително мощен, позволявайки на компаниите да преминат от концептуални доказателства към продукция."
},
"cohere/embed-v4.0": {
"description": "Модел, който позволява класифициране на текст, изображения или смесено съдържание или преобразуването им във вграждания."
},
"command": {
"description": "Диалогов модел, следващ инструкции, който показва високо качество и надеждност в езиковите задачи, с по-дълга контекстна дължина в сравнение с нашия основен генеративен модел."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 е голям хибриден модел за разсъждение, който поддържа 128K дълъг контекст и ефективно превключване на режими, постигащ изключителна производителност и скорост при използване на инструменти, генериране на код и сложни задачи за разсъждение."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
"description": "DeepSeek R1 моделът е получил малка версия ъпгрейд, текущата версия е DeepSeek-R1-0528. В последната актуализация DeepSeek R1 значително подобри дълбочината и способността за разсъждение чрез използване на увеличени изчислителни ресурси и въвеждане на алгоритмични оптимизации след обучението. Моделът постига отлични резултати в множество бенчмаркове като математика, програмиране и обща логика, като общата му производителност вече се доближава до водещи модели като O3 и Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 значително подобрява способността за разсъждение на модела дори с много малко анотирани данни. Преди да изведе окончателния отговор, моделът първо генерира мисловна верига, за да повиши точността на крайния отговор."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 значително подобрява способността за разсъждение на модела дори с много малко анотирани данни. Преди да изведе окончателния отговор, моделът първо генерира мисловна верига, за да повиши точността на крайния отговор."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B е голям езиков модел, базиран на Llama3.3 70B, който използва фина настройка на изхода на DeepSeek R1, за да постигне конкурентна производителност, сравнима с големите водещи модели."
"description": "DeepSeek-R1-Distill-Llama-70B е дистилиран и по-ефективен вариант на 70B Llama модела. Той запазва силна производителност при генериране на текст, намалявайки изчислителните разходи за по-лесно внедряване и изследване. Обслужва се от Groq с помощта на техния персонализиран хардуер за езикова обработка (LPU), осигурявайки бързо и ефективно разсъждение."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B е дестилиран голям езиков модел, базиран на Llama-3.1-8B-Instruct, обучен с изхода на DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 значително подобри способността на модела за разсъждение при наличието на много малко маркирани данни. Преди да предостави окончателния отговор, моделът първо ще изведе част от съдържанието на веригата на мислене, за да повиши точността на окончателния отговор."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 постига значителен напредък в скоростта на извеждане в сравнение с предишните модели. Той е на първо място сред отворените модели и може да се сравнява с най-съвременните затворени модели в света. DeepSeek-V3 използва архитектури с многоглаво внимание (MLA) и DeepSeekMoE, които бяха напълно валидирани в DeepSeek-V2. Освен това, DeepSeek-V3 въвежда помощна беззагубна стратегия за баланс на натоварването и задава цели за обучение с множество етикети, за да постигне по-силна производителност."
"description": "Бърз универсален голям езиков модел с подобрени способности за разсъждение."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base е подобрена версия на DeepSeek V3 модела."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 постига значителен напредък в скоростта на извеждане в сравнение с предишните модели. Той е на първо място сред отворените модели и може да се сравнява с най-съвременните затворени модели в света. DeepSeek-V3 използва архитектури с многоглаво внимание (MLA) и DeepSeekMoE, които бяха напълно валидирани в DeepSeek-V2. Освен това, DeepSeek-V3 въвежда помощна беззагубна стратегия за баланс на натоварването и задава цели за обучение с множество етикети, за да постигне по-силна производителност."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview притежава мощни способности за сложни разсъждения, показвайки отлични резултати в логическото разсъждение, математиката и програмирането."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash предлага следващо поколение функции и подобрения, включително изключителна скорост, нативна употреба на инструменти, многомодално генериране и контекстен прозорец от 1M токена."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental е най-новият експериментален мултимодален AI модел на Google, с определено подобрение в качеството в сравнение с предишните версии, особено по отношение на световни знания, код и дълъг контекст."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite предлага следващо поколение функции и подобрения, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash е най-усъвършенстваният основен модел на Google, специално проектиран за напреднали задачи по разсъждение, кодиране, математика и наука. Той включва вградена способност за „мислене“, която му позволява да предоставя отговори с по-висока точност и по-детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Ценообразуването на изхода се различава значително в зависимост от това дали способността за мислене е активирана. Ако изберете стандартния вариант (без суфикса „:thinking“), моделът ясно избягва генерирането на мисловни токени.\n\nЗа да използвате способността за мислене и да получавате мисловни токени, трябва да изберете варианта „:thinking“, което ще доведе до по-висока цена за изход с мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра „максимален брой токени за разсъждение“, както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash е мислещ модел, който предлага отлични всеобхватни възможности. Той е проектиран да балансира цена и производителност, поддържайки мултимодалност и контекстен прозорец от 1 милион токена."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash експериментален модел, поддържащ генериране на изображения."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite е балансиран, с ниска латентност модел с конфигурируем бюджет за мислене и свързаност с инструменти (например Google Search grounding и изпълнение на код). Поддържа мултимодален вход и предлага контекстен прозорец от 1 милион токена."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash е най-напредналият основен модел на Google, проектиран за напреднали разсъждения, кодиране, математика и научни задачи. Той включва вградена способност за \"мислене\", което му позволява да предоставя отговори с по-висока точност и детайлна обработка на контекста.\n\nЗабележка: Този модел има два варианта: с мислене и без мислене. Цените на изхода значително варират в зависимост от активирането на способността за мислене. Ако изберете стандартния вариант (без суфикс \":thinking\"), моделът ще избягва генерирането на токени за мислене.\n\nЗа да се възползвате от способността за мислене и да получите токени за мислене, трябва да изберете варианта \":thinking\", което ще доведе до по-високи цени на изхода за мислене.\n\nОсвен това, Gemini 2.5 Flash може да бъде конфигуриран чрез параметъра \"максимален брой токени за разсъждение\", както е описано в документацията (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro е най-усъвършенстваният мисловен модел на Google, способен да извършва разсъждения върху сложни проблеми в областта на кодирането, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
"description": "Gemini 2.5 Pro е нашият най-напреднал разсъдъчен Gemini модел, способен да решава сложни проблеми. Той разполага с контекстен прозорец от 2 милиона токена и поддържа мултимодален вход, включително текст, изображения, аудио, видео и PDF документи."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview е най-усъвършенстваният мисловен модел на Google, способен да извършва разсъждения върху сложни проблеми в областта на кодирането, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
},
"google/gemini-embedding-001": {
"description": "Водещ модел за вграждане с отлична производителност при задачи на английски, многоезични и кодови задачи."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash предлага оптимизирани мултимодални обработващи способности, подходящи за различни сложни задачи."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B е отворен езиков модел на Google, който поставя нови стандарти за ефективност и производителност."
},
"google/text-embedding-005": {
"description": "Текстово вграждане, оптимизирано за код и английски език."
},
"google/text-multilingual-embedding-002": {
"description": "Многоезичен модел за текстово вграждане, оптимизиран за междуезикови задачи, поддържащ множество езици."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, подходящ за различни задачи по генериране и разбиране на текст, в момента сочи към gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4-то поколение текст-към-изображение модел серия Ултра версия"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small е идеален за задачи по генериране, отстраняване на грешки и рефакториране на код с минимална латентност."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 е малък, високопроизводителен голям езиков модел, базиран на MoE архитектура. Той разполага с 16 милиарда общи параметри, но за всеки токен се активират само 1.4 милиарда (без вграждания 789 милиона), което осигурява изключително висока скорост на генериране. Благодарение на ефективния MoE дизайн и големия обем висококачествени тренировъчни данни, въпреки че активните параметри са само 1.4 милиарда, Ling-mini-2.0 демонстрира водещи резултати в задачи надолу по веригата, сравними с плътни LLM с по-малко от 10 милиарда параметри и по-големи MoE модели."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Текстов модел Llama 3.1 с фино настройване за инструкции, оптимизиран за многоезични диалогови случаи, с отлични резултати в множество налични отворени и затворени чат модели при стандартни индустриални бенчмаркове."
},
"meta/llama-3-70b": {
"description": "70-милиарден параметров отворен модел, прецизно настроен от Meta за следване на инструкции. Обслужва се от Groq с техния персонализиран хардуер за езикова обработка (LPU) за бързо и ефективно разсъждение."
},
"meta/llama-3-8b": {
"description": "8-милиарден параметров отворен модел, прецизно настроен от Meta за следване на инструкции. Обслужва се от Groq с техния персонализиран хардуер за езикова обработка (LPU) за бързо и ефективно разсъждение."
},
"meta/llama-3.1-405b-instruct": {
"description": "Напреднал LLM, поддържащ генериране на синтетични данни, дестилация на знания и разсъждение, подходящ за чатботове, програмиране и специфични задачи."
},
"meta/llama-3.1-70b": {
"description": "Обновена версия на Meta Llama 3 70B Instruct, включваща разширена дължина на контекста 128K, многоезичност и подобрени способности за разсъждение."
},
"meta/llama-3.1-70b-instruct": {
"description": "Улеснява сложни разговори, с изключителни способности за разбиране на контекста, разсъждение и генериране на текст."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B поддържа контекстен прозорец 128K, което го прави идеален за интерфейси за реално време и анализ на данни, като същевременно предлага значителни икономии в сравнение с по-големите модели. Обслужва се от Groq с техния персонализиран хардуер за езикова обработка (LPU) за бързо и ефективно разсъждение."
},
"meta/llama-3.1-8b-instruct": {
"description": "Напреднал, водещ модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-11b": {
"description": "Модел за генериране с разсъждения върху изображения (текст + входящи изображения / текстов изход), оптимизиран за визуално разпознаване, разсъждения върху изображения, генериране на заглавия и отговори на общи въпроси за изображения."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.2-1b": {
"description": "Модел само за текст, поддържащ локални случаи на употреба на устройството като многоезично локално извличане на знания, обобщение и пренаписване."
},
"meta/llama-3.2-1b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-3b": {
"description": "Модел само за текст, прецизно настроен за поддръжка на локални случаи на употреба на устройството като многоезично локално извличане на знания, обобщение и пренаписване."
},
"meta/llama-3.2-3b-instruct": {
"description": "Напреднал, водещ малък езиков модел с разбиране на езика, изключителни способности за разсъждение и генериране на текст."
},
"meta/llama-3.2-90b": {
"description": "Модел за генериране с разсъждения върху изображения (текст + входящи изображения / текстов изход), оптимизиран за визуално разпознаване, разсъждения върху изображения, генериране на заглавия и отговори на общи въпроси за изображения."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Водещ визуално-езиков модел, специализиран в извършване на висококачествени разсъждения от изображения."
},
"meta/llama-3.3-70b": {
"description": "Перфектна комбинация от производителност и ефективност. Моделът поддържа високопроизводителен диалогов AI, проектиран за създаване на съдържание, корпоративни приложения и изследвания, предоставяйки усъвършенствани езикови разбирания, включително обобщение на текст, класификация, анализ на настроения и генериране на код."
},
"meta/llama-3.3-70b-instruct": {
"description": "Напреднал LLM, специализиран в разсъждения, математика, общи познания и извикване на функции."
},
"meta/llama-4-maverick": {
"description": "Колекцията модели Llama 4 са родени мултимодални AI модели, поддържащи текст и мултимодални преживявания. Тези модели използват архитектура с хибридни експерти, предоставяйки водеща в индустрията производителност в разбирането на текст и изображения. Llama 4 Maverick, модел с 17 милиарда параметри и 128 експерти. Обслужва се от DeepInfra."
},
"meta/llama-4-scout": {
"description": "Колекцията модели Llama 4 са родени мултимодални AI модели, поддържащи текст и мултимодални преживявания. Тези модели използват архитектура с хибридни експерти, предоставяйки водеща в индустрията производителност в разбирането на текст и изображения. Llama 4 Scout, модел с 17 милиарда параметри и 16 експерти. Обслужва се от DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Същият модел Phi-3-medium, но с по-голям размер на контекста, подходящ за RAG или малко количество подсказки."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small е икономически ефективен, бърз и надежден вариант, подходящ за случаи на употреба като превод, резюме и анализ на настроението."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 е най-съвременният кодов модел, оптимизиран за ниска латентност и висока честота на използване. Владее над 80 програмни езика и се представя отлично в задачи като междинно попълване (FIM), корекция на код и генериране на тестове."
},
"mistral/codestral-embed": {
"description": "Кодов модел за вграждане, който може да бъде вграден в кодови бази данни и хранилища, за да поддържа кодови асистенти."
},
"mistral/devstral-small": {
"description": "Devstral е голям езиков модел агент за софтуерно инженерство, което го прави отличен избор за софтуерни инженерни агенти."
},
"mistral/magistral-medium": {
"description": "Сложно мислене, подкрепено от дълбоко разбиране с прозрачно разсъждение, което можете да следвате и проверявате. Моделът поддържа висока вярност на разсъжденията на множество езици, дори при смяна на езика в средата на задачата."
},
"mistral/magistral-small": {
"description": "Сложно мислене, подкрепено от дълбоко разбиране с прозрачно разсъждение, което можете да следвате и проверявате. Моделът поддържа висока вярност на разсъжденията на множество езици, дори при смяна на езика в средата на задачата."
},
"mistral/ministral-3b": {
"description": "Компактен и ефективен модел за задачи на устройства като интелигентни асистенти и локален анализ, осигуряващ ниска латентност."
},
"mistral/ministral-8b": {
"description": "По-мощен модел с по-бързо и паметно ефективно разсъждение, идеален за сложни работни потоци и изискващи приложения на ръба."
},
"mistral/mistral-embed": {
"description": "Универсален текстов модел за вграждане, използван за семантично търсене, сходство, клъстериране и RAG работни потоци."
},
"mistral/mistral-large": {
"description": "Mistral Large е идеален за сложни задачи, изискващи големи разсъдъчни способности или висока специализация — като синтетично генериране на текст, генериране на код, RAG или агенти."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B е 24-милиарден параметров отворен модел, разработен от Mistral.ai. Saba е специализиран модел, обучен да се представя отлично на арабски, персийски, урду, иврит и индийски езици. Обслужва се от Groq с техния персонализиран хардуер за езикова обработка (LPU) за бързо и ефективно разсъждение."
},
"mistral/mistral-small": {
"description": "Mistral Small е идеален за прости задачи, които могат да се обработват на партиди — като класификация, клиентска поддръжка или генериране на текст. Предлага отлична производителност на достъпна цена."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct модел. 8x22b е отворен модел с хибридни експерти, обслужван от Mistral."
},
"mistral/pixtral-12b": {
"description": "12-милиарден модел с възможности за разбиране на изображения, както и текст."
},
"mistral/pixtral-large": {
"description": "Pixtral Large е вторият модел в нашето мултимодално семейство, демонстриращ водещи в класа способности за разбиране на изображения. По-специално, моделът може да разбира документи, диаграми и естествени изображения, като същевременно запазва водещите способности за разбиране на текст на Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct е известен с високата си производителност, подходящ за множество езикови задачи."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 е най-новата и най-мощна версия на Kimi K2. Това е водещ езиков модел с хибридна експертна архитектура (MoE), с общо 1 трилион параметри и 32 милиарда активни параметри. Основните характеристики на модела включват: подобрена интелигентност при кодиране на агенти, с изразително подобрение в производителността при публични бенчмаркове и реални задачи за кодиране на агенти; усъвършенстван опит при фронтенд кодиране, с напредък както в естетиката, така и в практичността на фронтенд програмирането."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 е голям смесен експертен (MoE) езиков модел с 1 трилион общи параметри и 32 милиарда активни параметри на преден проход, разработен от Moonshot AI. Оптимизиран е за агентски способности, включително усъвършенствано използване на инструменти, разсъждения и синтез на код."
},
"moonshotai/kimi-k2-0905": {
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Моделът kimi-k2-0905-preview има контекстна дължина от 256k, с по-силни способности за агентно кодиране, по-изразителна естетика и практичност на фронтенд кода, както и по-добро разбиране на контекста."
},
"morph/morph-v3-fast": {
"description": "Morph предоставя специализиран AI модел, който прилага препоръчаните от водещи модели (като Claude или GPT-4o) промени в кода към съществуващите ви файлове БЪРЗО - над 4500+ токена в секунда. Той служи като последна стъпка в AI кодовия работен поток. Поддържа 16k входни и 16k изходни токена."
},
"morph/morph-v3-large": {
"description": "Morph предоставя специализиран AI модел, който прилага препоръчаните от водещи модели (като Claude или GPT-4o) промени в кода към съществуващите ви файлове БЪРЗО - над 2500+ токена в секунда. Той служи като последна стъпка в AI кодовия работен поток. Поддържа 16k входни и 16k изходни токена."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2, включваща най-новите вътрешно разработени набори от данни."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B е рядък експертен модел, който използва множество параметри за увеличаване на скоростта на разсъждение, подходящ за обработка на многоезични и кодови генериращи задачи."
},
"openai/gpt-3.5-turbo": {
"description": "Най-способният и икономичен модел от серията GPT-3.5 на OpenAI, оптимизиран за чат, но също така с добри резултати при традиционни задачи за завършване."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Подобни възможности на моделите от епохата GPT-3. Съвместим с традиционни крайни точки за завършване, а не с чат крайни точки."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo от OpenAI притежава обширни общи знания и експертиза в различни области, което му позволява да следва сложни инструкции на естествен език и да решава точно трудни проблеми. Знанията му са актуални до април 2023 г., а контекстният прозорец е 128 000 токена."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 е нашият флагмански модел за сложни задачи. Той е изключително подходящ за решаване на проблеми в различни области."
"description": "GPT 4.1 е водещият модел на OpenAI, подходящ за сложни задачи. Изключително подходящ за решаване на проблеми в различни области."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini предлага баланс между интелигентност, скорост и разходи, което го прави привлекателен модел за много случаи на употреба."
"description": "GPT 4.1 mini постига баланс между интелигентност, скорост и цена, което го прави привлекателен модел за много случаи на употреба."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano е най-бързият и най-икономичният модел на GPT-4.1."
"description": "GPT-4.1 nano е най-бързият и икономичен модел от серията GPT 4.1."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o е динамичен модел, който се актуализира в реално време, за да поддържа най-новата версия. Той комбинира мощно разбиране на езика и способности за генериране, подходящ за мащабни приложения, включително обслужване на клиенти, образование и техническа поддръжка."
"description": "GPT-4o от OpenAI притежава обширни общи знания и експертиза в различни области, способен да следва сложни инструкции на естествен език и да решава точно трудни проблеми. Предлага производителност, съпоставима с GPT-4 Turbo, но с по-бърз и по-евтин API."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini е най-новият модел на OpenAI, пуснат след GPT-4 Omni, който поддържа вход и изход на текст и изображения. Като най-напредналият им малък модел, той е значително по-евтин от другите нови модели и е с над 60% по-евтин от GPT-3.5 Turbo. Запазва най-съвременната интелигентност, като предлага значителна стойност за парите. GPT-4o mini получи 82% на теста MMLU и в момента е с по-висок рейтинг от GPT-4 в предпочитанията за чат."
"description": "GPT-4o mini от OpenAI е техният най-напреднал и икономичен малък модел. Той е мултимодален (приема текст или изображения като вход и генерира текст) и е по-интелигентен от gpt-3.5-turbo, като същевременно е също толкова бърз."
},
"openai/gpt-5": {
"description": "GPT-5 е водещият езиков модел на OpenAI, отличаващ се в сложни разсъждения, обширни знания за реалния свят, задачи с интензивен код и многостъпкови агентски задачи."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini е оптимизиран по отношение на разходите модел, който се представя отлично при задачи за разсъждение и чат. Предлага най-добрия баланс между скорост, цена и способности."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano е модел с висок пропускателен капацитет, който се справя отлично с прости инструкции или задачи за класификация."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B е водещ езиков модел с 120 милиарда параметри, вграден браузър за търсене и изпълнение на код, както и способности за разсъждение."
"description": "Изключително способен универсален голям езиков модел с мощни и контролируеми способности за разсъждение."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B е водещ езиков модел с 20 милиарда параметри, вграден браузър за търсене и изпълнение на код, както и способности за разсъждение."
"description": "Компактен езиков модел с отворени тегла, оптимизиран за ниска латентност и среди с ограничени ресурси, включително локални и ръбови внедрявания."
},
"openai/o1": {
"description": "o1 е новият модел за разсъждение на OpenAI, който поддържа вход с изображения и текст и генерира текст, подходящ за сложни задачи, изискващи широкообхватни общи знания. Моделът разполага с контекст от 200K и дата на знание до октомври 2023 г."
"description": "o1 на OpenAI е водещ модел за разсъждение, проектиран за сложни проблеми, изискващи дълбоко мислене. Той осигурява мощни способности за разсъждение и по-висока точност при сложни многостъпкови задачи."
},
"openai/o1-mini": {
"description": "o1-mini е бърз и икономичен модел за изводи, проектиран за приложения в програмирането, математиката и науката. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
@ -2325,23 +2493,44 @@
"description": "o1 е новият модел за изводи на OpenAI, подходящ за сложни задачи, изискващи обширни общи знания. Моделът разполага с контекст от 128K и дата на знание до октомври 2023."
},
"openai/o3": {
"description": "o3 е мощен универсален модел, който показва отлични резултати в множество области. Той поставя нови стандарти за математически, научни, програмистки и визуални задачи за разсъждение. Също така е добър в техническото писане и следването на инструкции. Потребителите могат да го използват за анализ на текст, код и изображения, за решаване на сложни проблеми с множество стъпки."
"description": "o3 на OpenAI е най-мощният модел за разсъждение, поставящ нови стандарти в кодиране, математика, наука и визуално възприятие. Отличава се при сложни заявки, изискващи многостранен анализ, с особен акцент върху анализа на изображения, диаграми и графики."
},
"openai/o3-mini": {
"description": "o3-mini предлага висока интелигентност при същите разходи и цели за закъснение като o1-mini."
"description": "o3-mini е най-новият малък модел за разсъждение на OpenAI, който предлага висока интелигентност при същите цели за цена и латентност като o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini high е версия с високо ниво на разсъждение, която предлага висока интелигентност при същите разходи и цели за закъснение като o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini е оптимизиран за бързо и ефективно извеждане, показвайки изключителна ефективност и производителност в задачи по кодиране и визуализация."
"description": "o4-mini на OpenAI предлага бързо и икономично разсъждение с отлична производителност за своя размер, особено в математика (най-добър в AIME бенчмарка), кодиране и визуални задачи."
},
"openai/o4-mini-high": {
"description": "o4-mini версия с високо ниво на извеждане, оптимизирана за бързо и ефективно извеждане, показваща изключителна ефективност и производителност в задачи по кодиране и визуализация."
},
"openai/text-embedding-3-large": {
"description": "Най-способният модел за вграждане на OpenAI, подходящ за задачи на английски и други езици."
},
"openai/text-embedding-3-small": {
"description": "Подобрена и по-високопроизводителна версия на ada модела за вграждане на OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Традиционният текстов модел за вграждане на OpenAI."
},
"openrouter/auto": {
"description": "В зависимост от дължината на контекста, темата и сложността, вашето запитване ще бъде изпратено до Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулиращ) или GPT-4o."
},
"perplexity/sonar": {
"description": "Лек продукт на Perplexity с възможности за търсене, по-бърз и по-евтин от Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Водещият продукт на Perplexity с възможности за търсене, поддържащ сложни заявки и последващи действия."
},
"perplexity/sonar-reasoning": {
"description": "Модел, фокусиран върху разсъждения, който издава мисловни вериги (CoT) в отговорите и предоставя подробни обяснения с търсене."
},
"perplexity/sonar-reasoning-pro": {
"description": "Разширен модел, фокусиран върху разсъждения, който издава мисловни вериги (CoT) в отговорите и предоставя комплексни обяснения с подобрени възможности за търсене и множество заявки за търсене на заявка."
},
"phi3": {
"description": "Phi-3 е лек отворен модел, представен от Microsoft, подходящ за ефективна интеграция и мащабно знание разсъждение."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Моделът v0-1.5-md е подходящ за ежедневни задачи и генериране на потребителски интерфейс (UI)"
},
"vercel/v0-1.0-md": {
"description": "Достъп до модела зад v0 за генериране, поправка и оптимизация на модерни уеб приложения с разсъждения, специфични за рамки, и актуални знания."
},
"vercel/v0-1.5-md": {
"description": "Достъп до модела зад v0 за генериране, поправка и оптимизация на модерни уеб приложения с разсъждения, специфични за рамки, и актуални знания."
},
"wan2.2-t2i-flash": {
"description": "Wanxiang 2.2 експресна версия, най-новият модел към момента. Комплексно подобрение в креативност, стабилност и реализъм, с бърза скорост на генериране и висока цена-ефективност."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Моделът Spark X1 ще бъде допълнително обновен, като на базата на водещите в страната резултати в математически задачи, ще постигне ефекти в общи задачи като разсъждение, генериране на текст и разбиране на език, сравними с OpenAI o1 и DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 е водещ езиков модел с най-съвременни способности за разсъждение. Той има напреднали умения в чат, кодиране и разсъждение, превъзхождайки Claude 3.5 Sonnet и GPT-4-Turbo в класацията LMSYS."
},
"xai/grok-2-vision": {
"description": "Grok 2 визуалният модел се представя отлично при задачи, базирани на визуална информация, предоставяйки водещи резултати в визуално математическо разсъждение (MathVista) и въпроси и отговори, базирани на документи (DocVQA). Той може да обработва разнообразна визуална информация, включително документи, диаграми, графики, екранни снимки и снимки."
},
"xai/grok-3": {
"description": "Флагманският модел на xAI, който се представя отлично в корпоративни случаи като извличане на данни, кодиране и обобщение на текст. Притежава дълбоки познания в областите финанси, здравеопазване, право и наука."
},
"xai/grok-3-fast": {
"description": "Флагманският модел на xAI, който се представя отлично в корпоративни случаи като извличане на данни, кодиране и обобщение на текст. Вариантът бърз модел се обслужва на по-бърза инфраструктура, осигурявайки много по-бързо време за отговор. Увеличената скорост идва с по-висока цена на токен изход."
},
"xai/grok-3-mini": {
"description": "Лек модел на xAI, който мисли преди да отговори. Отличен за прости или логически задачи, които не изискват дълбоки познания в областта. Първоначалните мисловни пътеки са достъпни."
},
"xai/grok-3-mini-fast": {
"description": "Лек модел на xAI, който мисли преди да отговори. Отличен за прости или логически задачи, които не изискват дълбоки познания в областта. Първоначалните мисловни пътеки са достъпни. Вариантът бърз модел се обслужва на по-бърза инфраструктура, осигурявайки много по-бързо време за отговор. Увеличената скорост идва с по-висока цена на токен изход."
},
"xai/grok-4": {
"description": "Най-новият и най-велик флагмански модел на xAI, предоставящ ненадмината производителност в естествен език, математика и разсъждения — перфектният универсален играч."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 е обновена версия на Yi. Тя използва висококачествен корпус от 500B токена за продължителна предварителна обучение на Yi и е майсторски подобрявана с 3M разнообразни примера за fino-tuning."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V е най-новото поколение визуално-езиков модел (VLM), публикуван от Zhipu AI (智谱 AI). Моделът е изграден върху водещия текстов модел GLM-4.5-Air, който разполага с общо 106 милиарда параметри и 12 милиарда активационни параметри, и използва архитектура с разбъркани експерти (Mixture of Experts, MoE), целяща постигане на висока производителност при по-ниски разходи за инференция. Технически GLM-4.5V продължава линията на GLM-4.1V-Thinking и въвежда иновации като триизмерно ротационно позиционно кодиране (3D-RoPE), което значително засилва възприемането и разсъжденията относно триизмерните пространствени взаимовръзки. Чрез оптимизации в етапите на предварително обучение, супервизирано фино настройване и подсилено обучение, моделът може да обработва различни визуални формати — изображения, видео и дълги документи — и в 41 публични мултимодални бенчмарка достига водещи резултати сред отворените модели от същия клас. Освен това моделът добавя превключвател за 'режим на мислене', който позволява на потребителите гъвкаво да избират между бърз отговор и дълбоко разсъждение, за да балансират ефективността и качеството."
},
"zai/glm-4.5": {
"description": "Серията модели GLM-4.5 е специално проектирана за агенти. Флагманът GLM-4.5 интегрира 355 милиарда общи параметри (32 милиарда активни), обединявайки разсъждения, кодиране и агентски способности за решаване на сложни приложения. Като хибридна разсъдъчна система, той предлага двойни режими на работа."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 и GLM-4.5-Air са нашите най-нови флагмански модели, специално проектирани като основни модели за агентски приложения. И двата използват архитектура с хибридни експерти (MoE). GLM-4.5 има 355 милиарда общи параметри с 32 милиарда активни на преден проход, докато GLM-4.5-Air е по-опростен с 106 милиарда общи параметри и 12 милиарда активни."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V е изграден върху основния модел GLM-4.5-Air, наследявайки проверените технологии на GLM-4.1V-Thinking и постига ефективно мащабиране чрез мощната MoE архитектура с 106 милиарда параметри."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 е асистент за програмиране в екип, който ви позволява да описвате идеите си с естествен език и автоматично генерира код и потребителски интерфейс (UI) за вашия проект"
},
"vercelaigateway": {
"description": "Vercel AI Gateway предоставя унифициран API за достъп до над 100 модела, позволявайки използването на модели от множество доставчици като OpenAI, Anthropic, Google и други чрез единна крайна точка. Поддържа настройка на бюджет, мониторинг на използването, балансиране на натоварването на заявките и аварийно пренасочване."
},
"vertexai": {
"description": "Серията Gemini на Google е най-напредналият и универсален AI модел, създаден от Google DeepMind, проектиран за мултимодалност, който поддържа безпроблемно разбиране и обработка на текст, код, изображения, аудио и видео. Подходящ за различни среди, от центрове за данни до мобилни устройства, значително увеличава ефективността и приложимостта на AI моделите."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Ein mehrsprachiges Modell mit 52 Milliarden Parametern (davon 12 Milliarden aktiv), das ein 256K langes Kontextfenster, Funktionsaufrufe, strukturierte Ausgaben und faktengestützte Generierung bietet."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 ist das neueste große Sprachmodell der Qwen-Serie und bietet eine umfassende Palette an dichten und gemischten Experten (MoE) Modellen. Basierend auf umfangreichem Training erzielt Qwen3 bahnbrechende Fortschritte in den Bereichen Inferenz, Befolgung von Anweisungen, Agentenfähigkeiten und mehrsprachige Unterstützung."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct ist das agentenfähigste Codierungsmodell von Qwen mit herausragender Leistung bei Agenten-Codierung, Agenten-Browsernutzung und anderen grundlegenden Codierungsaufgaben, vergleichbar mit Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Ein äußerst kostengünstiges multimodales Modell, das Bilder, Videos und Texteingaben extrem schnell verarbeitet."
},
"amazon/nova-micro": {
"description": "Ein reines Textmodell, das bei sehr niedrigen Kosten die geringste Latenz für Antworten bietet."
},
"amazon/nova-pro": {
"description": "Ein hochkompetentes multimodales Modell mit optimaler Kombination aus Genauigkeit, Geschwindigkeit und Kosten, geeignet für eine breite Palette von Aufgaben."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 ist ein leichtgewichtiges, effizientes mehrsprachiges Einbettungsmodell mit Unterstützung für 1024, 512 und 256 Dimensionen."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet hebt den Branchenstandard an, übertrifft die Konkurrenzmodelle und Claude 3 Opus und zeigt in umfassenden Bewertungen hervorragende Leistungen, während es die Geschwindigkeit und Kosten unserer mittleren Modelle beibehält."
},
@ -627,25 +654,28 @@
"description": "Die aktualisierte Version von Claude 2 bietet ein doppelt so großes Kontextfenster sowie Verbesserungen in der Zuverlässigkeit, der Halluzinationsrate und der evidenzbasierten Genauigkeit in langen Dokumenten und RAG-Kontexten."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, das darauf ausgelegt ist, nahezu sofortige Antworten zu liefern. Es bietet schnelle und präzise zielgerichtete Leistungen."
"description": "Claude 3 Haiku ist das bisher schnellste Modell von Anthropic, speziell für Unternehmens-Workloads mit meist längeren Eingabeaufforderungen entwickelt. Haiku kann große Dokumentenmengen wie Quartalsberichte, Verträge oder Rechtsfälle schnell analysieren und kostet dabei nur die Hälfte anderer Modelle seiner Leistungsklasse."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic zur Bearbeitung hochkomplexer Aufgaben. Es zeichnet sich durch hervorragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
"description": "Claude 3 Opus ist das intelligenteste Modell von Anthropic mit marktführender Leistung bei hochkomplexen Aufgaben. Es meistert offene Eingabeaufforderungen und unbekannte Szenarien mit herausragender Flüssigkeit und menschenähnlichem Verständnis."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku ist das schnellste nächste Generation Modell von Anthropic. Im Vergleich zu Claude 3 Haiku hat Claude 3.5 Haiku in allen Fähigkeiten Fortschritte gemacht und übertrifft in vielen intellektuellen Benchmark-Tests das größte Modell der vorherigen Generation, Claude 3 Opus."
"description": "Claude 3.5 Haiku ist die nächste Generation unseres schnellsten Modells. Mit ähnlicher Geschwindigkeit wie Claude 3 Haiku wurde Claude 3.5 Haiku in allen Kompetenzbereichen verbessert und übertrifft in vielen Intelligenz-Benchmarks unser bisher größtes Modell Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet bietet Fähigkeiten, die über Opus hinausgehen, und eine schnellere Geschwindigkeit als Sonnet, während es den gleichen Preis wie Sonnet beibehält. Sonnet ist besonders gut in Programmierung, Datenwissenschaft, visueller Verarbeitung und Agentenaufgaben."
"description": "Claude 3.5 Sonnet erreicht eine ideale Balance zwischen Intelligenz und Geschwindigkeit besonders für Unternehmens-Workloads. Im Vergleich zu ähnlichen Produkten bietet es starke Leistung zu geringeren Kosten und ist für hohe Belastbarkeit bei großflächigen KI-Einsätzen konzipiert."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic bis heute und das erste hybride Inferenzmodell auf dem Markt. Claude 3.7 Sonnet kann nahezu sofortige Antworten oder verlängerte, schrittweise Überlegungen erzeugen, wobei die Benutzer diesen Prozess klar nachvollziehen können. Sonnet ist besonders gut in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und Agentenaufgaben."
"description": "Claude 3.7 Sonnet ist das erste hybride Inferenzmodell und das intelligenteste Modell von Anthropic bisher. Es bietet modernste Leistung bei Codierung, Inhaltserstellung, Datenanalyse und Planungsaufgaben und baut auf den Software-Engineering- und Computerfähigkeiten seines Vorgängers Claude 3.5 Sonnet auf."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es zeichnet sich durch herausragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
"description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic und das weltweit beste Codierungsmodell mit Spitzenwerten bei SWE-bench (72,5 %) und Terminal-bench (43,2 %). Es bietet anhaltende Leistung für langfristige Aufgaben mit tausenden Schritten und kann stundenlang ununterbrochen arbeiten was die Fähigkeiten von KI-Agenten erheblich erweitert."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 ist ein Plug-and-Play-Ersatz für Opus 4 und bietet herausragende Leistung und Präzision für praktische Codierungs- und Agentenaufgaben. Opus 4.1 hebt die modernste Codierungsleistung auf 74,5 % bei SWE-bench Verified und behandelt komplexe mehrstufige Probleme mit höherer Genauigkeit und Detailgenauigkeit."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder verlängerte schrittweise Überlegungen erzeugen, die für den Nutzer klar nachvollziehbar sind. API-Nutzer können zudem die Denkzeit des Modells präzise steuern."
"description": "Claude Sonnet 4 baut auf den branchenführenden Fähigkeiten von Sonnet 3.7 auf und zeigt herausragende Codierungsleistung mit einem Spitzenwert von 72,7 % bei SWE-bench. Das Modell bietet eine ausgewogene Kombination aus Leistung und Effizienz, geeignet für interne und externe Anwendungsfälle, und ermöglicht durch verbesserte Steuerbarkeit eine größere Kontrolle über die Ergebnisse."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B ist ein spärlich besetztes großes Sprachmodell mit 72 Milliarden Parametern und 16 Milliarden aktivierten Parametern. Es basiert auf der gruppierten Mixture-of-Experts-Architektur (MoGE), bei der Experten in Gruppen eingeteilt werden und Tokens innerhalb jeder Gruppe eine gleiche Anzahl von Experten aktivieren, um eine ausgewogene Expertenauslastung zu gewährleisten. Dies verbessert die Effizienz der Modellausführung auf der Ascend-Plattform erheblich."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ ist ein hochmodernes, für RAG optimiertes Modell, das für unternehmensweite Arbeitslasten ausgelegt ist."
},
"cohere/command-a": {
"description": "Command A ist das leistungsstärkste Modell von Cohere mit hervorragender Leistung bei Werkzeugnutzung, Agenten, Retrieval-unterstützter Generierung (RAG) und mehrsprachigen Anwendungsfällen. Command A unterstützt eine Kontextlänge von 256K und läuft auf nur zwei GPUs, mit einer 150 % höheren Durchsatzrate im Vergleich zu Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R ist ein großes Sprachmodell, optimiert für dialogbasierte Interaktionen und Aufgaben mit langem Kontext. Es gehört zur Kategorie der \"skalierbaren\" Modelle und bietet eine Balance zwischen hoher Leistung und starker Genauigkeit, sodass Unternehmen über Proof-of-Concept hinaus in die Produktion gehen können."
},
"cohere/command-r-plus": {
"description": "Command R+ ist das neueste große Sprachmodell von Cohere, optimiert für dialogbasierte Interaktionen und Aufgaben mit langem Kontext. Es zielt darauf ab, außergewöhnliche Leistung zu bieten, damit Unternehmen über Proof-of-Concept hinaus in die Produktion gehen können."
},
"cohere/embed-v4.0": {
"description": "Ein Modell, das es ermöglicht, Text, Bilder oder gemischte Inhalte zu klassifizieren oder in Einbettungen umzuwandeln."
},
"command": {
"description": "Ein dialogbasiertes Modell, das Anweisungen folgt und in sprachlichen Aufgaben hohe Qualität und Zuverlässigkeit bietet. Im Vergleich zu unserem grundlegenden Generierungsmodell hat es eine längere Kontextlänge."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 ist ein großes hybrides Inferenzmodell, das 128K langen Kontext und effizienten Moduswechsel unterstützt. Es erzielt herausragende Leistung und Geschwindigkeit bei Tool-Aufrufen, Codegenerierung und komplexen Inferenzaufgaben."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
"description": "Das DeepSeek R1 Modell wurde in einer kleinen Version aktualisiert, aktuell DeepSeek-R1-0528. Das neueste Update verbessert die Inferenztiefe und -fähigkeit erheblich durch erhöhte Rechenressourcen und nachträgliche algorithmische Optimierungen. Das Modell zeigt hervorragende Leistungen in Mathematik, Programmierung und allgemeiner Logik und nähert sich führenden Modellen wie O3 und Gemini 2.5 Pro an."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 verbessert die Modellschlussfolgerungsfähigkeit erheblich, selbst bei sehr begrenzten annotierten Daten. Vor der Ausgabe der endgültigen Antwort generiert das Modell eine Denkprozesskette, um die Genauigkeit der Antwort zu erhöhen."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 verbessert die Modellschlussfolgerungsfähigkeit erheblich, selbst bei sehr begrenzten annotierten Daten. Vor der Ausgabe der endgültigen Antwort generiert das Modell eine Denkprozesskette, um die Genauigkeit der Antwort zu erhöhen."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B ist ein großes Sprachmodell, das auf Llama3.3 70B basiert und durch Feinabstimmung mit den Ausgaben von DeepSeek R1 eine wettbewerbsfähige Leistung erreicht, die mit großen, fortschrittlichen Modellen vergleichbar ist."
"description": "DeepSeek-R1-Distill-Llama-70B ist eine destillierte, effizientere Variante des 70B Llama Modells. Es behält starke Leistung bei Textgenerierungsaufgaben bei und reduziert den Rechenaufwand für einfachere Bereitstellung und Forschung. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B ist ein distilliertes großes Sprachmodell, das auf Llama-3.1-8B-Instruct basiert und durch Training mit den Ausgaben von DeepSeek R1 erstellt wurde."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 hat die Schlussfolgerungsfähigkeiten des Modells erheblich verbessert, selbst bei nur wenigen gekennzeichneten Daten. Bevor das Modell die endgültige Antwort ausgibt, gibt es zunächst eine Denkprozesskette aus, um die Genauigkeit der endgültigen Antwort zu erhöhen."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 hat einen bedeutenden Durchbruch in der Inferenzgeschwindigkeit im Vergleich zu früheren Modellen erzielt. Es belegt den ersten Platz unter den Open-Source-Modellen und kann mit den weltweit fortschrittlichsten proprietären Modellen konkurrieren. DeepSeek-V3 verwendet die Multi-Head-Latent-Attention (MLA) und die DeepSeekMoE-Architektur, die in DeepSeek-V2 umfassend validiert wurden. Darüber hinaus hat DeepSeek-V3 eine unterstützende verlustfreie Strategie für die Lastenverteilung eingeführt und mehrere Zielvorgaben für das Training von Mehrfachvorhersagen festgelegt, um eine stärkere Leistung zu erzielen."
"description": "Schnelles, universelles großes Sprachmodell mit verbesserter Inferenzfähigkeit."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base ist eine verbesserte Version des DeepSeek V3 Modells."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 hat einen bedeutenden Durchbruch in der Inferenzgeschwindigkeit im Vergleich zu früheren Modellen erzielt. Es belegt den ersten Platz unter den Open-Source-Modellen und kann mit den weltweit fortschrittlichsten proprietären Modellen konkurrieren. DeepSeek-V3 verwendet die Multi-Head-Latent-Attention (MLA) und die DeepSeekMoE-Architektur, die in DeepSeek-V2 umfassend validiert wurden. Darüber hinaus hat DeepSeek-V3 eine unterstützende verlustfreie Strategie für die Lastenverteilung eingeführt und mehrere Zielvorgaben für das Training von Mehrfachvorhersagen festgelegt, um eine stärkere Leistung zu erzielen."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview verfügt über starke Fähigkeiten zur komplexen Schlussfolgerung und zeigt hervorragende Leistungen in den Bereichen logisches Denken, Mathematik und Programmierung."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash bietet nächste Generation Funktionen und Verbesserungen, einschließlich außergewöhnlicher Geschwindigkeit, nativer Werkzeugnutzung, multimodaler Generierung und einem Kontextfenster von 1M Tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental ist Googles neuestes experimentelles multimodales KI-Modell, das im Vergleich zu früheren Versionen eine gewisse Qualitätsverbesserung aufweist, insbesondere in Bezug auf Weltwissen, Code und langen Kontext."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite bietet Funktionen der nächsten Generation und Verbesserungen, darunter herausragende Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, speziell entwickelt für anspruchsvolle Aufgaben in den Bereichen logisches Denken, Programmierung, Mathematik und Wissenschaft. Es verfügt über eingebaute \"Denkfähigkeiten\", die es ermöglichen, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell gibt es in zwei Varianten: mit und ohne Denkfähigkeit. Die Preisgestaltung für die Ausgabe variiert erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, vermeidet das Modell ausdrücklich die Erzeugung von Denk-Token.\n\nUm die Denkfähigkeit zu nutzen und Denk-Token zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Kosten für die Denk-Ausgabe führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"Maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash ist ein Denkmodell mit hervorragenden umfassenden Fähigkeiten. Es ist auf ein ausgewogenes Verhältnis von Preis und Leistung ausgelegt und unterstützt multimodale Eingaben sowie ein Kontextfenster von 1 Million Tokens."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash Experimentelles Modell, unterstützt Bildgenerierung"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite ist ein ausgewogenes, latenzarmes Modell mit konfigurierbarem Denkbudget und Werkzeuganbindung (z. B. Google Search Grounding und Codeausführung). Es unterstützt multimodale Eingaben und bietet ein Kontextfenster von 1 Million Tokens."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash ist Googles fortschrittlichstes Hauptmodell, das für fortgeschrittenes Denken, Codierung, Mathematik und wissenschaftliche Aufgaben entwickelt wurde. Es enthält die eingebaute Fähigkeit zu \"denken\", was es ihm ermöglicht, Antworten mit höherer Genauigkeit und detaillierter Kontextverarbeitung zu liefern.\n\nHinweis: Dieses Modell hat zwei Varianten: Denken und Nicht-Denken. Die Ausgabepreise variieren erheblich, je nachdem, ob die Denkfähigkeit aktiviert ist oder nicht. Wenn Sie die Standardvariante (ohne den Suffix \":thinking\") wählen, wird das Modell ausdrücklich vermeiden, Denk-Tokens zu generieren.\n\nUm die Denkfähigkeit zu nutzen und Denk-Tokens zu erhalten, müssen Sie die \":thinking\"-Variante wählen, was zu höheren Preisen für Denk-Ausgaben führt.\n\nDarüber hinaus kann Gemini 2.5 Flash über den Parameter \"maximale Tokenanzahl für das Denken\" konfiguriert werden, wie in der Dokumentation beschrieben (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
"description": "Gemini 2.5 Pro ist unser fortschrittlichstes Inferenz-Gemini-Modell, das komplexe Probleme lösen kann. Es verfügt über ein Kontextfenster von 2 Millionen Tokens und unterstützt multimodale Eingaben, darunter Text, Bilder, Audio, Video und PDF-Dokumente."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und MINT zu analysieren sowie große Datensätze, Codebasen und Dokumente mit langem Kontext zu untersuchen."
},
"google/gemini-embedding-001": {
"description": "Modernstes Einbettungsmodell mit hervorragender Leistung bei englischen, mehrsprachigen und Code-Aufgaben."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash bietet optimierte multimodale Verarbeitungsfähigkeiten, die für verschiedene komplexe Aufgabenszenarien geeignet sind."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B ist ein Open-Source-Sprachmodell von Google, das neue Maßstäbe in Bezug auf Effizienz und Leistung setzt."
},
"google/text-embedding-005": {
"description": "Englisch-fokussiertes Texteingebettetes Modell, optimiert für Code- und englischsprachige Aufgaben."
},
"google/text-multilingual-embedding-002": {
"description": "Mehrsprachiges Texteingebettetes Modell, optimiert für sprachübergreifende Aufgaben und unterstützt mehrere Sprachen."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo eignet sich für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben. Derzeit verweist es auf gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4. Generation Text-zu-Bild Modellserie Ultra-Version"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small ist ideal für Codegenerierung, Debugging und Refactoring-Aufgaben mit minimaler Latenz."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes großes Sprachmodell basierend auf der MoE-Architektur. Es verfügt über 16 Milliarden Gesamtparameter, aktiviert jedoch pro Token nur 1,4 Milliarden (nicht-Embedding 789 Millionen), was eine extrem hohe Generierungsgeschwindigkeit ermöglicht. Dank des effizienten MoE-Designs und umfangreicher, qualitativ hochwertiger Trainingsdaten zeigt Ling-mini-2.0 trotz nur 1,4 Milliarden aktivierter Parameter Spitzenleistungen bei nachgelagerten Aufgaben, die mit dichten LLMs unter 10 Milliarden und größeren MoE-Modellen vergleichbar sind."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 ist ein instruktionsoptimiertes Textmodell, das für mehrsprachige Dialoganwendungen optimiert wurde und in vielen verfügbaren offenen und geschlossenen Chatmodellen bei gängigen Branchenbenchmarks hervorragende Leistungen zeigt."
},
"meta/llama-3-70b": {
"description": "Ein von Meta sorgfältig für die Befolgung von Anweisungen abgestimmtes Open-Source-Modell mit 70 Milliarden Parametern. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
},
"meta/llama-3-8b": {
"description": "Ein von Meta sorgfältig für die Befolgung von Anweisungen abgestimmtes Open-Source-Modell mit 8 Milliarden Parametern. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
},
"meta/llama-3.1-405b-instruct": {
"description": "Fortgeschrittenes LLM, das die Generierung synthetischer Daten, Wissensverdichtung und Schlussfolgerungen unterstützt, geeignet für Chatbots, Programmierung und spezifische Aufgaben."
},
"meta/llama-3.1-70b": {
"description": "Aktualisierte Version von Meta Llama 3 70B Instruct mit erweitertem 128K Kontextfenster, Mehrsprachigkeit und verbesserter Inferenzfähigkeit."
},
"meta/llama-3.1-70b-instruct": {
"description": "Ermöglicht komplexe Gespräche mit hervorragendem Kontextverständnis, Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B unterstützt ein 128K Kontextfenster und ist ideal für Echtzeit-Dialogschnittstellen und Datenanalysen, während es im Vergleich zu größeren Modellen erhebliche Kosteneinsparungen bietet. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
},
"meta/llama-3.1-8b-instruct": {
"description": "Fortschrittliches, hochmodernes Modell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-11b": {
"description": "Anweisungsabgestimmtes Bildinferenz-Generierungsmodell (Text + Bildeingabe / Textausgabe), optimiert für visuelle Erkennung, Bildinferenz, Bildunterschriftenerstellung und allgemeine Fragen zu Bildern."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
},
"meta/llama-3.2-1b": {
"description": "Reines Textmodell, unterstützt On-Device-Anwendungsfälle wie mehrsprachige lokale Wissenssuche, Zusammenfassung und Umschreibung."
},
"meta/llama-3.2-1b-instruct": {
"description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-3b": {
"description": "Reines Textmodell, sorgfältig abgestimmt zur Unterstützung von On-Device-Anwendungsfällen wie mehrsprachige lokale Wissenssuche, Zusammenfassung und Umschreibung."
},
"meta/llama-3.2-3b-instruct": {
"description": "Fortschrittliches, hochmodernes kleines Sprachmodell mit Sprachverständnis, hervorragenden Schlussfolgerungsfähigkeiten und Textgenerierungsfähigkeiten."
},
"meta/llama-3.2-90b": {
"description": "Anweisungsabgestimmtes Bildinferenz-Generierungsmodell (Text + Bildeingabe / Textausgabe), optimiert für visuelle Erkennung, Bildinferenz, Bildunterschriftenerstellung und allgemeine Fragen zu Bildern."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Spitzenmäßiges visuelles Sprachmodell, das in der Lage ist, qualitativ hochwertige Schlussfolgerungen aus Bildern zu ziehen."
},
"meta/llama-3.3-70b": {
"description": "Perfekte Kombination aus Leistung und Effizienz. Das Modell unterstützt leistungsstarke Dialog-KI, ist für Inhaltserstellung, Unternehmensanwendungen und Forschung konzipiert und bietet fortschrittliche Sprachverständnisfähigkeiten, einschließlich Textzusammenfassung, Klassifikation, Sentimentanalyse und Codegenerierung."
},
"meta/llama-3.3-70b-instruct": {
"description": "Fortschrittliches LLM, das auf Schlussfolgern, Mathematik, Allgemeinwissen und Funktionsaufrufen spezialisiert ist."
},
"meta/llama-4-maverick": {
"description": "Die Llama 4 Modellreihe sind native multimodale KI-Modelle, die Text- und multimodale Erlebnisse unterstützen. Diese Modelle nutzen eine gemischte Expertenarchitektur und bieten branchenführende Leistung bei Text- und Bildverständnis. Llama 4 Maverick ist ein 17 Milliarden Parameter Modell mit 128 Experten. Bereitgestellt von DeepInfra."
},
"meta/llama-4-scout": {
"description": "Die Llama 4 Modellreihe sind native multimodale KI-Modelle, die Text- und multimodale Erlebnisse unterstützen. Diese Modelle nutzen eine gemischte Expertenarchitektur und bieten branchenführende Leistung bei Text- und Bildverständnis. Llama 4 Scout ist ein 17 Milliarden Parameter Modell mit 16 Experten. Bereitgestellt von DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Dasselbe Phi-3-medium-Modell, jedoch mit größerem Kontextfenster, geeignet für RAG oder wenige Eingabeaufforderungen."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small ist eine kosteneffiziente, schnelle und zuverlässige Option für Anwendungsfälle wie Übersetzung, Zusammenfassung und Sentimentanalyse."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 ist ein hochmodernes Codierungsmodell, optimiert für latenzarme und hochfrequente Anwendungsfälle. Es beherrscht über 80 Programmiersprachen und zeigt hervorragende Leistungen bei Aufgaben wie Fill-in-the-Middle (FIM), Codekorrektur und Testgenerierung."
},
"mistral/codestral-embed": {
"description": "Ein Code-Einbettungsmodell, das in Code-Datenbanken und Repositories eingebettet werden kann, um Codierungsassistenten zu unterstützen."
},
"mistral/devstral-small": {
"description": "Devstral ist ein agentenfähiges großes Sprachmodell für Software-Engineering-Aufgaben und somit eine ausgezeichnete Wahl für Software-Engineering-Agenten."
},
"mistral/magistral-medium": {
"description": "Komplexes Denken, unterstützt durch tiefes Verständnis mit nachvollziehbarer und überprüfbarer transparenter Argumentation. Das Modell behält auch bei Sprachwechseln während der Aufgabe eine hohe Genauigkeit in vielen Sprachen bei."
},
"mistral/magistral-small": {
"description": "Komplexes Denken, unterstützt durch tiefes Verständnis mit nachvollziehbarer und überprüfbarer transparenter Argumentation. Das Modell behält auch bei Sprachwechseln während der Aufgabe eine hohe Genauigkeit in vielen Sprachen bei."
},
"mistral/ministral-3b": {
"description": "Ein kompaktes, effizientes Modell für On-Device-Aufgaben wie intelligente Assistenten und lokale Analysen mit niedriger Latenz."
},
"mistral/ministral-8b": {
"description": "Ein leistungsfähigeres Modell mit schnellerer und speichereffizienter Inferenz, ideal für komplexe Workflows und anspruchsvolle Edge-Anwendungen."
},
"mistral/mistral-embed": {
"description": "Universelles Texteingebettetes Modell für semantische Suche, Ähnlichkeit, Clustering und RAG-Workflows."
},
"mistral/mistral-large": {
"description": "Mistral Large ist ideal für komplexe Aufgaben, die große Inferenzkapazitäten oder hohe Spezialisierung erfordern wie synthetische Textgenerierung, Codegenerierung, RAG oder Agenten."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B ist ein 24 Milliarden Parameter Open-Source-Modell von Mistral.ai. Saba ist ein spezialisiertes Modell, das für herausragende Leistungen in Arabisch, Persisch, Urdu, Hebräisch und indischen Sprachen trainiert wurde. Betrieben von Groq mit deren maßgeschneiderter Language Processing Unit (LPU) Hardware für schnelle und effiziente Inferenz."
},
"mistral/mistral-small": {
"description": "Mistral Small ist ideal für einfache Aufgaben, die in großen Mengen ausgeführt werden können wie Klassifikation, Kundensupport oder Textgenerierung. Es bietet hervorragende Leistung zu einem erschwinglichen Preis."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct Modell. 8x22b ist ein von Mistral bereitgestelltes gemischtes Experten-Open-Source-Modell."
},
"mistral/pixtral-12b": {
"description": "Ein 12 Milliarden Parameter Modell mit Bildverständnisfähigkeiten sowie Text."
},
"mistral/pixtral-large": {
"description": "Pixtral Large ist das zweite Modell unserer multimodalen Familie und demonstriert Spitzenleistungen im Bildverständnis. Insbesondere kann das Modell Dokumente, Diagramme und natürliche Bilder verstehen und behält dabei die führenden Textverständnisfähigkeiten von Mistral Large 2 bei."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct ist bekannt für seine hohe Leistung und eignet sich für eine Vielzahl von Sprachaufgaben."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 ist die neueste und leistungsstärkste Version von Kimi K2. Es handelt sich um ein erstklassiges Mixture-of-Experts (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktivierten Parametern. Die Hauptmerkmale dieses Modells umfassen: verbesserte Agenten-Codierungsintelligenz, die in öffentlichen Benchmark-Tests und realen Agenten-Codierungsaufgaben eine signifikante Leistungssteigerung zeigt; verbesserte Frontend-Codierungserfahrung mit Fortschritten in Ästhetik und Praktikabilität der Frontend-Programmierung."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 ist ein von Moonshot AI entwickeltes großes gemischtes Experten (MoE) Sprachmodell mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf. Es ist auf Agentenfähigkeiten optimiert, einschließlich fortgeschrittener Werkzeugnutzung, Inferenz und Code-Synthese."
},
"moonshotai/kimi-k2-0905": {
"description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Das Modell kimi-k2-0905-preview hat eine Kontextlänge von 256k, verfügt über stärkere Agentic-Coding-Fähigkeiten, eine herausragendere Ästhetik und Praktikabilität von Frontend-Code sowie ein besseres Kontextverständnis."
},
"morph/morph-v3-fast": {
"description": "Morph bietet ein spezialisiertes KI-Modell, das von führenden Modellen wie Claude oder GPT-4o vorgeschlagene Codeänderungen schnell auf Ihre bestehenden Code-Dateien anwendet mit über 4500 Tokens pro Sekunde. Es fungiert als letzter Schritt im KI-Codierungsworkflow und unterstützt 16k Eingabe- und 16k Ausgabe-Tokens."
},
"morph/morph-v3-large": {
"description": "Morph bietet ein spezialisiertes KI-Modell, das von führenden Modellen wie Claude oder GPT-4o vorgeschlagene Codeänderungen schnell auf Ihre bestehenden Code-Dateien anwendet mit über 2500 Tokens pro Sekunde. Es fungiert als letzter Schritt im KI-Codierungsworkflow und unterstützt 16k Eingabe- und 16k Ausgabe-Tokens."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B ist die aktualisierte Version von Nous Hermes 2 und enthält die neuesten intern entwickelten Datensätze."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B ist ein spärliches Expertenmodell, das mehrere Parameter nutzt, um die Schlussfolgerungsgeschwindigkeit zu erhöhen und sich für die Verarbeitung mehrsprachiger und Codegenerierungsaufgaben eignet."
},
"openai/gpt-3.5-turbo": {
"description": "OpenAIs leistungsfähigstes und kosteneffizientestes Modell der GPT-3.5-Reihe, optimiert für Chat-Anwendungen, aber auch gut für traditionelle Completion-Aufgaben geeignet."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Fähigkeiten ähnlich den Modellen der GPT-3-Ära. Kompatibel mit traditionellen Completion-Endpunkten, nicht mit Chat-Completion-Endpunkten."
},
"openai/gpt-4-turbo": {
"description": "OpenAIs gpt-4-turbo verfügt über umfangreiches Allgemeinwissen und Fachkenntnisse, kann komplexen natürlichen Sprachbefehlen folgen und schwierige Probleme präzise lösen. Wissensstand bis April 2023, Kontextfenster von 128.000 Tokens."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 ist unser Flaggschiff-Modell für komplexe Aufgaben. Es eignet sich hervorragend zur Lösung von Problemen über verschiedene Fachgebiete hinweg."
"description": "GPT 4.1 ist das Flaggschiffmodell von OpenAI, geeignet für komplexe Aufgaben. Es ist hervorragend für interdisziplinäre Problemlösungen."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini bietet ein Gleichgewicht zwischen Intelligenz, Geschwindigkeit und Kosten, was es zu einem attraktiven Modell für viele Anwendungsfälle macht."
"description": "GPT 4.1 mini bietet eine ausgewogene Kombination aus Intelligenz, Geschwindigkeit und Kosten und ist damit für viele Anwendungsfälle attraktiv."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano ist das schnellste und kosteneffektivste Modell der GPT-4.1-Reihe."
"description": "GPT-4.1 nano ist das schnellste und kosteneffizienteste Modell der GPT 4.1 Reihe."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird, um die neueste Version zu gewährleisten. Es kombiniert starke Sprachverständnis- und Generierungsfähigkeiten und eignet sich für großangelegte Anwendungsszenarien, einschließlich Kundenservice, Bildung und technischem Support."
"description": "GPT-4o von OpenAI verfügt über umfangreiches Allgemeinwissen und Fachkenntnisse, kann komplexen natürlichen Sprachbefehlen folgen und schwierige Probleme präzise lösen. Es bietet die Leistung von GPT-4 Turbo mit schnellerem und kostengünstigerem API-Zugriff."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini ist das neueste Modell von OpenAI, das nach GPT-4 Omni veröffentlicht wurde und Text- und Bild-Eingaben unterstützt. Als ihr fortschrittlichstes kleines Modell ist es viel günstiger als andere neueste Modelle und über 60 % günstiger als GPT-3.5 Turbo. Es behält die fortschrittlichste Intelligenz bei und bietet gleichzeitig ein hervorragendes Preis-Leistungs-Verhältnis. GPT-4o mini erzielte 82 % im MMLU-Test und rangiert derzeit in den Chat-Präferenzen über GPT-4."
"description": "GPT-4o mini von OpenAI ist ihr fortschrittlichstes und kosteneffizientestes kleines Modell. Es ist multimodal (akzeptiert Text- oder Bildeingaben und gibt Text aus) und intelligenter als gpt-3.5-turbo, bei gleicher Geschwindigkeit."
},
"openai/gpt-5": {
"description": "GPT-5 ist OpenAIs Flaggschiff-Sprachmodell mit herausragender Leistung bei komplexer Inferenz, umfangreichem Weltwissen, codeintensiven und mehrstufigen Agentenaufgaben."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini ist ein kostenoptimiertes Modell mit hervorragender Leistung bei Inferenz- und Chat-Aufgaben. Es bietet die beste Balance zwischen Geschwindigkeit, Kosten und Fähigkeiten."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano ist ein Modell mit hohem Durchsatz, das bei einfachen Anweisungen oder Klassifizierungsaufgaben hervorragende Leistungen zeigt."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B ist ein Spitzen-Sprachmodell mit 120 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
"description": "Extrem leistungsfähiges universelles großes Sprachmodell mit starker, kontrollierbarer Inferenzfähigkeit."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B ist ein Spitzen-Sprachmodell mit 20 Milliarden Parametern, integriertem Browser-Such- und Code-Ausführungsfunktionen sowie ausgeprägten Inferenzfähigkeiten."
"description": "Ein kompaktes, Open-Source-Gewichtsmodell, optimiert für niedrige Latenz und ressourcenbeschränkte Umgebungen, einschließlich lokaler und Edge-Bereitstellungen."
},
"openai/o1": {
"description": "o1 ist OpenAIs neues Inferenzmodell, das Bild- und Texteingaben unterstützt und Text ausgibt. Es eignet sich für komplexe Aufgaben, die umfangreiches Allgemeinwissen erfordern. Das Modell verfügt über einen Kontext von 200K und einen Wissensstand bis Oktober 2023."
"description": "OpenAIs o1 ist ein Flaggschiff-Inferenzmodell, entwickelt für komplexe Probleme, die tiefes Nachdenken erfordern. Es bietet starke Inferenzfähigkeiten und höhere Genauigkeit bei komplexen mehrstufigen Aufgaben."
},
"openai/o1-mini": {
"description": "o1-mini ist ein schnelles und kosteneffizientes Inferenzmodell, das für Programmier-, Mathematik- und Wissenschaftsanwendungen entwickelt wurde. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
@ -2325,23 +2493,44 @@
"description": "o1 ist OpenAIs neues Inferenzmodell, das für komplexe Aufgaben geeignet ist, die umfangreiches Allgemeinwissen erfordern. Das Modell hat einen Kontext von 128K und einen Wissensstand bis Oktober 2023."
},
"openai/o3": {
"description": "o3 ist ein leistungsstarkes Allround-Modell, das in mehreren Bereichen hervorragende Leistungen zeigt. Es setzt neue Maßstäbe für mathematische, wissenschaftliche, programmiertechnische und visuelle Denkaufgaben. Es ist auch versiert in technischer Schreibweise und der Befolgung von Anweisungen. Benutzer können es nutzen, um Texte, Code und Bilder zu analysieren und komplexe Probleme mit mehreren Schritten zu lösen."
"description": "OpenAIs o3 ist das leistungsstärkste Inferenzmodell mit neuen Spitzenleistungen in Codierung, Mathematik, Wissenschaft und visueller Wahrnehmung. Es ist besonders gut bei komplexen Anfragen, die multidisziplinäre Analyse erfordern, und hat besondere Stärken bei der Analyse von Bildern, Diagrammen und Grafiken."
},
"openai/o3-mini": {
"description": "o3-mini bietet hohe Intelligenz bei den gleichen Kosten- und Verzögerungszielen wie o1-mini."
"description": "o3-mini ist OpenAIs neuestes kleines Inferenzmodell, das bei gleichen Kosten- und Latenzzielen wie o1-mini hohe Intelligenz bietet."
},
"openai/o3-mini-high": {
"description": "o3-mini high ist eine hochintelligente Version mit dem gleichen Kosten- und Verzögerungsziel wie o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini ist für schnelle und effektive Inferenz optimiert und zeigt in Programmier- und visuellen Aufgaben eine hohe Effizienz und Leistung."
"description": "OpenAIs o4-mini bietet schnelle, kosteneffiziente Inferenz mit hervorragender Leistung für seine Größe, insbesondere bei Mathematik (beste Leistung im AIME-Benchmark), Codierung und visuellen Aufgaben."
},
"openai/o4-mini-high": {
"description": "o4-mini Hochleistungsmodell, optimiert für schnelle und effektive Inferenz, zeigt in Programmier- und visuellen Aufgaben eine hohe Effizienz und Leistung."
},
"openai/text-embedding-3-large": {
"description": "OpenAIs leistungsfähigstes Einbettungsmodell, geeignet für englische und nicht-englische Aufgaben."
},
"openai/text-embedding-3-small": {
"description": "OpenAIs verbesserte, leistungsstärkere Version des ada-Einbettungsmodells."
},
"openai/text-embedding-ada-002": {
"description": "OpenAIs traditionelles Texteingebettetes Modell."
},
"openrouter/auto": {
"description": "Je nach Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstregulierend) oder GPT-4o gesendet."
},
"perplexity/sonar": {
"description": "Perplexitys leichtgewichtiges Produkt mit Suchanbindung, schneller und günstiger als Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Perplexitys Flaggschiffprodukt mit Suchanbindung, unterstützt erweiterte Abfragen und Folgeaktionen."
},
"perplexity/sonar-reasoning": {
"description": "Ein auf Inferenz fokussiertes Modell, das Denkprozesse (CoT) in Antworten ausgibt und detaillierte Erklärungen mit Suchanbindung bietet."
},
"perplexity/sonar-reasoning-pro": {
"description": "Ein fortgeschrittenes, auf Inferenz fokussiertes Modell, das Denkprozesse (CoT) in Antworten ausgibt und umfassende Erklärungen mit verbesserter Suchfähigkeit und mehreren Suchanfragen pro Anfrage bietet."
},
"phi3": {
"description": "Phi-3 ist ein leichtgewichtiges offenes Modell von Microsoft, das für effiziente Integration und großangelegte Wissensschlüsse geeignet ist."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Das Modell v0-1.5-md ist für alltägliche Aufgaben und die Generierung von Benutzeroberflächen (UI) geeignet"
},
"vercel/v0-1.0-md": {
"description": "Zugriff auf das Modell hinter v0 zur Generierung, Reparatur und Optimierung moderner Webanwendungen mit frameworkspezifischer Inferenz und aktuellem Wissen."
},
"vercel/v0-1.5-md": {
"description": "Zugriff auf das Modell hinter v0 zur Generierung, Reparatur und Optimierung moderner Webanwendungen mit frameworkspezifischer Inferenz und aktuellem Wissen."
},
"wan2.2-t2i-flash": {
"description": "Wanxiang 2.2 Turbo-Version, das aktuell neueste Modell. Es bietet umfassende Verbesserungen in Kreativität, Stabilität und realistischer Textur, erzeugt schnell und bietet ein hervorragendes Preis-Leistungs-Verhältnis."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Das Spark X1 Modell wird weiter verbessert und erreicht in allgemeinen Aufgaben wie Schlussfolgerungen, Textgenerierung und Sprachverständnis Ergebnisse, die mit OpenAI o1 und DeepSeek R1 vergleichbar sind, basierend auf der bereits führenden Leistung in mathematischen Aufgaben."
},
"xai/grok-2": {
"description": "Grok 2 ist ein fortschrittliches Sprachmodell mit modernsten Inferenzfähigkeiten. Es bietet fortschrittliche Fähigkeiten in Chat, Codierung und Inferenz und übertrifft Claude 3.5 Sonnet und GPT-4-Turbo in der LMSYS-Rangliste."
},
"xai/grok-2-vision": {
"description": "Das visuelle Modell Grok 2 zeigt hervorragende Leistungen bei visuellen Aufgaben und bietet modernste Leistung bei visueller mathematischer Inferenz (MathVista) und dokumentenbasierter Fragebeantwortung (DocVQA). Es kann verschiedene visuelle Informationen verarbeiten, darunter Dokumente, Diagramme, Grafiken, Screenshots und Fotos."
},
"xai/grok-3": {
"description": "xAIs Flaggschiffmodell mit hervorragender Leistung bei Unternehmensanwendungen wie Datenerfassung, Codierung und Textzusammenfassung. Es verfügt über tiefes Fachwissen in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft."
},
"xai/grok-3-fast": {
"description": "xAIs Flaggschiffmodell mit hervorragender Leistung bei Unternehmensanwendungen wie Datenerfassung, Codierung und Textzusammenfassung. Die schnelle Modellvariante wird auf schnellerer Infrastruktur bereitgestellt und bietet deutlich schnellere Antwortzeiten. Die erhöhte Geschwindigkeit geht mit höheren Kosten pro ausgegebenem Token einher."
},
"xai/grok-3-mini": {
"description": "xAIs leichtgewichtiges Modell, das vor der Antwort nachdenkt. Ideal für einfache oder logikbasierte Aufgaben ohne tiefes Fachwissen. Der ursprüngliche Denkprozess ist zugänglich."
},
"xai/grok-3-mini-fast": {
"description": "xAIs leichtgewichtiges Modell, das vor der Antwort nachdenkt. Ideal für einfache oder logikbasierte Aufgaben ohne tiefes Fachwissen. Der ursprüngliche Denkprozess ist zugänglich. Die schnelle Modellvariante wird auf schnellerer Infrastruktur bereitgestellt und bietet deutlich schnellere Antwortzeiten. Die erhöhte Geschwindigkeit geht mit höheren Kosten pro ausgegebenem Token einher."
},
"xai/grok-4": {
"description": "xAIs neuestes und bestes Flaggschiffmodell mit unvergleichlicher Leistung in natürlicher Sprache, Mathematik und Inferenz der perfekte Allrounder."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 ist eine verbesserte Version von Yi. Es wurde mit einem hochwertigen Korpus von 500B Tokens auf Yi fortlaufend vortrainiert und auf 3M diversen Feinabstimmungsbeispielen feinjustiert."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V ist das neueste visuell-sprachliche Modell (VLM), das von Zhipu AI veröffentlicht wurde. Das Modell basiert auf dem Flaggschiff-Textmodell GLM-4.5-Air mit insgesamt 106 Milliarden Parametern und 12 Milliarden Aktivierungsparametern und verwendet eine Mixture-of-Experts-(MoE)-Architektur. Es zielt darauf ab, bei geringeren Inferenzkosten herausragende Leistung zu erzielen. Technisch setzt es die Entwicklungslinie von GLM-4.1V-Thinking fort und führt Innovationen wie die dreidimensionale Rotations-Positionskodierung (3D-RoPE) ein, wodurch die Wahrnehmung und das Schließen über dreidimensionale Raumbeziehungen deutlich verbessert werden. Durch Optimierungen in den Phasen des Pre-Trainings, der überwachten Feinabstimmung und des Reinforcement Learnings ist das Modell in der Lage, verschiedene visuelle Inhalte wie Bilder, Videos und lange Dokumente zu verarbeiten; in 41 öffentlichen multimodalen Benchmarks erreichte es Spitzenwerte unter frei verfügbaren Modellen derselben Klasse. Zudem wurde ein \"Denkmodus\"-Schalter hinzugefügt, der es Nutzern erlaubt, flexibel zwischen schneller Reaktion und tiefgehendem Schlussfolgern zu wählen, um Effizienz und Ergebnisqualität auszubalancieren."
},
"zai/glm-4.5": {
"description": "Die GLM-4.5 Modellreihe sind speziell für Agenten entwickelte Basismodelle. Das Flaggschiff GLM-4.5 integriert 355 Milliarden Gesamtparameter (32 Milliarden aktiv) und vereint Inferenz-, Codierungs- und Agentenfähigkeiten zur Lösung komplexer Anwendungsanforderungen. Als hybrides Inferenzsystem bietet es zwei Betriebsmodi."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 und GLM-4.5-Air sind unsere neuesten Flaggschiffmodelle, speziell als Basismodelle für Agentenanwendungen entwickelt. Beide nutzen eine gemischte Expertenarchitektur (MoE). GLM-4.5 hat 355 Milliarden Gesamtparameter mit 32 Milliarden aktiven Parametern pro Vorwärtsdurchlauf, während GLM-4.5-Air ein vereinfachtes Design mit 106 Milliarden Gesamtparametern und 12 Milliarden aktiven Parametern verwendet."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V basiert auf dem GLM-4.5-Air Basismodell, übernimmt bewährte Techniken von GLM-4.1V-Thinking und skaliert effektiv mit einer leistungsstarken MoE-Architektur mit 106 Milliarden Parametern."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 ist ein Pair-Programming-Assistent, bei dem Sie Ihre Ideen einfach in natürlicher Sprache beschreiben können, und er generiert Code und Benutzeroberflächen (UI) für Ihr Projekt."
},
"vercelaigateway": {
"description": "Vercel AI Gateway bietet eine einheitliche API zum Zugriff auf über 100 Modelle und ermöglicht die Nutzung von Modellen verschiedener Anbieter wie OpenAI, Anthropic und Google über einen einzigen Endpunkt. Unterstützt Budgeteinstellungen, Nutzungsüberwachung, Lastenausgleich und Failover."
},
"vertexai": {
"description": "Die Gemini-Serie von Google ist das fortschrittlichste, universelle KI-Modell, das von Google DeepMind entwickelt wurde. Es ist speziell für multimodale Anwendungen konzipiert und unterstützt das nahtlose Verständnis und die Verarbeitung von Text, Code, Bildern, Audio und Video. Es eignet sich für eine Vielzahl von Umgebungen, von Rechenzentren bis hin zu mobilen Geräten, und verbessert erheblich die Effizienz und Anwendbarkeit von KI-Modellen."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "A 52B parameter (12B active) multilingual model offering a 256K long context window, function calling, structured output, and fact-based generation."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 is the latest generation large language model in the Qwen series, offering a comprehensive set of dense and Mixture of Experts (MoE) models. Built on extensive training, Qwen3 delivers breakthrough advancements in reasoning, instruction following, agent capabilities, and multilingual support."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 is the latest generation large language model in the Qwen series, offering a comprehensive set of dense and Mixture of Experts (MoE) models. Built on extensive training, Qwen3 delivers breakthrough advancements in reasoning, instruction following, agent capabilities, and multilingual support."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 is the latest generation large language model in the Qwen series, offering a comprehensive set of dense and Mixture of Experts (MoE) models. Built on extensive training, Qwen3 delivers breakthrough advancements in reasoning, instruction following, agent capabilities, and multilingual support."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 is the latest generation large language model in the Qwen series, offering a comprehensive set of dense and Mixture of Experts (MoE) models. Built on extensive training, Qwen3 delivers breakthrough advancements in reasoning, instruction following, agent capabilities, and multilingual support."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct is Qwen's most agent-capable code model, demonstrating remarkable performance in agent coding, agent browser usage, and other fundamental coding tasks, achieving results comparable to Claude Sonnet."
},
"amazon/nova-lite": {
"description": "A very low-cost multimodal model that processes image, video, and text inputs at extremely high speed."
},
"amazon/nova-micro": {
"description": "A text-only model delivering the lowest latency responses at a very low cost."
},
"amazon/nova-pro": {
"description": "A highly capable multimodal model offering the best combination of accuracy, speed, and cost, suitable for a wide range of tasks."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 is a lightweight, efficient multilingual embedding model supporting 1024, 512, and 256 dimensions."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitor models and Claude 3 Opus, excelling in a wide range of evaluations while maintaining the speed and cost of our mid-tier models."
},
@ -627,25 +654,28 @@
"description": "An updated version of Claude 2, featuring double the context window and improvements in reliability, hallucination rates, and evidence-based accuracy in long documents and RAG contexts."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku is Anthropic's fastest and most compact model, designed for near-instantaneous responses. It features quick and accurate directional performance."
"description": "Claude 3 Haiku is Anthropic's fastest model to date, designed for enterprise workloads that typically involve longer prompts. Haiku can quickly analyze large volumes of documents such as quarterly filings, contracts, or legal cases, at half the cost of other models in its performance tier."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus is Anthropic's most powerful model for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension."
"description": "Claude 3 Opus is Anthropic's smartest model, delivering market-leading performance on highly complex tasks. It navigates open-ended prompts and novel scenarios with exceptional fluency and human-like understanding."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku is Anthropic's fastest next-generation model. Compared to Claude 3 Haiku, Claude 3.5 Haiku shows improvements across various skills and surpasses the previous generation's largest model, Claude 3 Opus, in many intelligence benchmarks."
"description": "Claude 3.5 Haiku is the next generation of our fastest model. Matching the speed of Claude 3 Haiku, it improves across every skill set and surpasses our previous largest model Claude 3 Opus on many intelligence benchmarks."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet offers capabilities that surpass Opus and faster speeds than Sonnet, while maintaining the same pricing as Sonnet. Sonnet excels particularly in programming, data science, visual processing, and agent tasks."
"description": "Claude 3.5 Sonnet strikes an ideal balance between intelligence and speed—especially for enterprise workloads. It delivers powerful performance at lower cost compared to peers and is designed for high durability in large-scale AI deployments."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet is Anthropic's most advanced model to date and the first hybrid reasoning model on the market. Claude 3.7 Sonnet can generate near-instant responses or extended step-by-step reasoning, allowing users to clearly observe these processes. Sonnet excels particularly in programming, data science, visual processing, and agent tasks."
"description": "Claude 3.7 Sonnet is the first hybrid reasoning model and Anthropic's smartest model to date. It offers state-of-the-art performance in coding, content generation, data analysis, and planning tasks, building on the software engineering and computer usage capabilities of its predecessor Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 is Anthropic's most powerful model designed for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension."
"description": "Claude Opus 4 is Anthropic's most powerful model yet and the world's best coding model, leading on SWE-bench (72.5%) and Terminal-bench (43.2%). It provides sustained performance for long-term tasks requiring focused effort and thousands of steps, capable of continuous operation for hours—significantly extending AI agent capabilities."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 is a plug-and-play alternative to Opus 4, delivering excellent performance and accuracy for practical coding and agent tasks. Opus 4.1 advances state-of-the-art coding performance to 74.5% on SWE-bench Verified, handling complex multi-step problems with greater rigor and attention to detail."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 can generate near-instant responses or extended step-by-step reasoning, allowing users to clearly observe these processes. API users also have fine-grained control over the model's thinking time."
"description": "Claude Sonnet 4 significantly improves upon the industry-leading capabilities of Sonnet 3.7, excelling in coding with state-of-the-art 72.7% on SWE-bench. The model balances performance and efficiency, suitable for both internal and external use cases, and offers enhanced controllability for greater command over outcomes."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B is a sparse large language model with 72 billion parameters and 16 billion activated parameters. It is based on the Group Mixture of Experts (MoGE) architecture, which groups experts during the expert selection phase and constrains tokens to activate an equal number of experts within each group, achieving expert load balancing and significantly improving deployment efficiency on the Ascend platform."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ is a state-of-the-art RAG-optimized model designed to handle enterprise-level workloads."
},
"cohere/command-a": {
"description": "Command A is Cohere's most powerful model to date, excelling in tool use, agents, retrieval-augmented generation (RAG), and multilingual use cases. With a context length of 256K, it runs on just two GPUs and achieves 150% higher throughput compared to Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R is a large language model optimized for conversational interactions and long-context tasks. Positioned in the \"scalable\" category, it balances high performance and strong accuracy, enabling companies to move beyond proof of concept into production."
},
"cohere/command-r-plus": {
"description": "Command R+ is Cohere's latest large language model optimized for conversational interactions and long-context tasks. It aims for exceptional performance, enabling companies to transition from proof of concept to production."
},
"cohere/embed-v4.0": {
"description": "A model that enables classification or embedding transformation of text, images, or mixed content."
},
"command": {
"description": "An instruction-following dialogue model that delivers high quality and reliability in language tasks, with a longer context length compared to our base generation models."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 is a large hybrid reasoning model supporting 128K long context and efficient mode switching, delivering outstanding performance and speed in tool invocation, code generation, and complex reasoning tasks."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
"description": "The DeepSeek R1 model has undergone minor version upgrades, currently at DeepSeek-R1-0528. The latest update significantly enhances inference depth and capability by leveraging increased compute resources and post-training algorithmic optimizations. The model performs excellently on benchmarks in mathematics, programming, and general logic, with overall performance approaching leading models like O3 and Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 greatly improves model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first generates a chain of thought to enhance answer accuracy."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 greatly improves model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first generates a chain of thought to enhance answer accuracy."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B is a large language model based on Llama3.3 70B, which achieves competitive performance comparable to large cutting-edge models by utilizing fine-tuning from DeepSeek R1 outputs."
"description": "DeepSeek-R1-Distill-Llama-70B is a distilled, more efficient variant of the 70B Llama model. It maintains strong performance on text generation tasks while reducing computational overhead for easier deployment and research. Served by Groq using its custom Language Processing Unit (LPU) hardware for fast, efficient inference."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B is a distilled large language model based on Llama-3.1-8B-Instruct, trained using outputs from DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 significantly enhances model reasoning capabilities with minimal labeled data. Before outputting the final answer, the model first provides a chain of thought to improve the accuracy of the final response."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 has achieved a significant breakthrough in inference speed compared to previous models. It ranks first among open-source models and can compete with the world's most advanced closed-source models. DeepSeek-V3 employs Multi-Head Latent Attention (MLA) and DeepSeekMoE architectures, which have been thoroughly validated in DeepSeek-V2. Additionally, DeepSeek-V3 introduces an auxiliary lossless strategy for load balancing and sets multi-label prediction training objectives for enhanced performance."
"description": "A fast, general-purpose large language model with enhanced reasoning capabilities."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base is an improved version of the DeepSeek V3 model."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 has achieved a significant breakthrough in inference speed compared to previous models. It ranks first among open-source models and can compete with the world's most advanced closed-source models. DeepSeek-V3 employs Multi-Head Latent Attention (MLA) and DeepSeekMoE architectures, which have been thoroughly validated in DeepSeek-V2. Additionally, DeepSeek-V3 introduces an auxiliary lossless strategy for load balancing and sets multi-label prediction training objectives for enhanced performance."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview possesses strong complex reasoning abilities, excelling in logical reasoning, mathematics, programming, and other fields."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, built-in tool usage, multimodal generation, and a 1 million token context window."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash offers next-generation features and improvements, including exceptional speed, native tool usage, multimodal generation, and a 1M token context window."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental is Google's latest experimental multimodal AI model, showing a quality improvement compared to historical versions, especially in world knowledge, code, and long context."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite provides next-generation features and improvements, including exceptional speed, built-in tool usage, multimodal generation, and a 1 million token context window."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It features built-in \"thinking\" capabilities, enabling it to provide responses with higher accuracy and more nuanced contextual understanding.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly depending on whether the thinking capability is activated. If you choose the standard variant (without the \":thinking\" suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the \":thinking\" variant, which incurs higher pricing for thinking outputs.\n\nAdditionally, Gemini 2.5 Flash can be configured via the \"max tokens for reasoning\" parameter, as detailed in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash is a thoughtful model delivering excellent comprehensive capabilities. It is designed to balance price and performance, supporting multimodal inputs and a 1 million token context window."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash experimental model, supporting image generation."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite is a balanced, low-latency model with configurable reasoning budget and tool connectivity (e.g., Google Search grounding and code execution). It supports multimodal inputs and offers a 1 million token context window."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash is Google's most advanced flagship model, designed for advanced reasoning, coding, mathematics, and scientific tasks. It includes built-in 'thinking' capabilities that allow it to provide responses with higher accuracy and detailed context handling.\n\nNote: This model has two variants: thinking and non-thinking. Output pricing varies significantly based on whether the thinking capability is activated. If you choose the standard variant (without the ':thinking' suffix), the model will explicitly avoid generating thinking tokens.\n\nTo leverage the thinking capability and receive thinking tokens, you must select the ':thinking' variant, which will incur higher thinking output pricing.\n\nAdditionally, Gemini 2.5 Flash can be configured via the 'maximum tokens for reasoning' parameter, as described in the documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro is Google's most advanced thinking model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context processing."
"description": "Gemini 2.5 Pro is our most advanced reasoning Gemini model, capable of solving complex problems. It features a 2 million token context window and supports multimodal inputs including text, images, audio, video, and PDF documents."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview is Google's most advanced thinking model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using extended context."
},
"google/gemini-embedding-001": {
"description": "A state-of-the-art embedding model delivering excellent performance on English, multilingual, and code tasks."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash offers optimized multimodal processing capabilities, suitable for various complex task scenarios."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B is an open-source language model from Google that sets new standards in efficiency and performance."
},
"google/text-embedding-005": {
"description": "An English-focused text embedding model optimized for code and English language tasks."
},
"google/text-multilingual-embedding-002": {
"description": "A multilingual text embedding model optimized for cross-lingual tasks, supporting multiple languages."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo is suitable for various text generation and understanding tasks. Currently points to gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4th generation text-to-image model series Ultra version"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small is ideal for code generation, debugging, and refactoring tasks, offering minimal latency."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 is a compact, high-performance large language model based on the MoE architecture. It has 16 billion total parameters, but only activates 1.4 billion per token (non-embedding 789 million), enabling extremely fast generation speeds. Thanks to its efficient MoE design and large-scale, high-quality training data, Ling-mini-2.0 delivers top-tier performance on downstream tasks comparable to dense LLMs under 10 billion parameters and even larger MoE models, despite having only 1.4 billion activated parameters."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 instruction-tuned text model optimized for multilingual dialogue use cases, performing excellently on common industry benchmarks among many available open-source and closed chat models."
},
"meta/llama-3-70b": {
"description": "A 70 billion parameter open-source model finely tuned by Meta for instruction following. Served by Groq using its custom Language Processing Unit (LPU) hardware for fast, efficient inference."
},
"meta/llama-3-8b": {
"description": "An 8 billion parameter open-source model finely tuned by Meta for instruction following. Served by Groq using its custom Language Processing Unit (LPU) hardware for fast, efficient inference."
},
"meta/llama-3.1-405b-instruct": {
"description": "An advanced LLM supporting synthetic data generation, knowledge distillation, and reasoning, suitable for chatbots, programming, and domain-specific tasks."
},
"meta/llama-3.1-70b": {
"description": "An updated version of Meta Llama 3 70B Instruct, featuring extended 128K context length, multilingual support, and improved reasoning capabilities."
},
"meta/llama-3.1-70b-instruct": {
"description": "Empowering complex conversations with exceptional context understanding, reasoning capabilities, and text generation abilities."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B supports a 128K context window, making it ideal for real-time conversational interfaces and data analysis, while offering significant cost savings compared to larger models. Served by Groq using its custom Language Processing Unit (LPU) hardware for fast, efficient inference."
},
"meta/llama-3.1-8b-instruct": {
"description": "An advanced cutting-edge model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-11b": {
"description": "Instruction-tuned image reasoning generation model (text + image input / text output), optimized for visual recognition, image reasoning, captioning, and answering general questions about images."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
},
"meta/llama-3.2-1b": {
"description": "Text-only model supporting on-device use cases such as multilingual local knowledge retrieval, summarization, and rewriting."
},
"meta/llama-3.2-1b-instruct": {
"description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-3b": {
"description": "Text-only model carefully tuned to support on-device use cases such as multilingual local knowledge retrieval, summarization, and rewriting."
},
"meta/llama-3.2-3b-instruct": {
"description": "A cutting-edge small language model with language understanding, excellent reasoning capabilities, and text generation abilities."
},
"meta/llama-3.2-90b": {
"description": "Instruction-tuned image reasoning generation model (text + image input / text output), optimized for visual recognition, image reasoning, captioning, and answering general questions about images."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "A state-of-the-art vision-language model adept at high-quality reasoning from images."
},
"meta/llama-3.3-70b": {
"description": "The perfect blend of performance and efficiency. This model supports high-performance conversational AI, designed for content creation, enterprise applications, and research, offering advanced language understanding capabilities including text summarization, classification, sentiment analysis, and code generation."
},
"meta/llama-3.3-70b-instruct": {
"description": "An advanced LLM skilled in reasoning, mathematics, common sense, and function calling."
},
"meta/llama-4-maverick": {
"description": "The Llama 4 model family consists of native multimodal AI models supporting text and multimodal experiences. These models leverage a Mixture of Experts architecture to deliver industry-leading performance in text and image understanding. Llama 4 Maverick, a 17 billion parameter model with 128 experts, is served by DeepInfra."
},
"meta/llama-4-scout": {
"description": "The Llama 4 model family consists of native multimodal AI models supporting text and multimodal experiences. These models leverage a Mixture of Experts architecture to deliver industry-leading performance in text and image understanding. Llama 4 Scout, a 17 billion parameter model with 16 experts, is served by DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "The same Phi-3-medium model but with a larger context size, suitable for RAG or few-shot prompting."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small is a cost-effective, fast, and reliable option suitable for use cases such as translation, summarization, and sentiment analysis."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 is a state-of-the-art coding model optimized for low-latency, high-frequency use cases. Proficient in over 80 programming languages, it excels at fill-in-the-middle (FIM), code correction, and test generation tasks."
},
"mistral/codestral-embed": {
"description": "A code embedding model that can be embedded into code databases and repositories to support coding assistants."
},
"mistral/devstral-small": {
"description": "Devstral is an agent large language model for software engineering tasks, making it an excellent choice for software engineering agents."
},
"mistral/magistral-medium": {
"description": "Complex thinking supported by deep understanding, featuring transparent reasoning you can follow and verify. This model maintains high-fidelity reasoning across many languages, even when switching languages mid-task."
},
"mistral/magistral-small": {
"description": "Complex thinking supported by deep understanding, featuring transparent reasoning you can follow and verify. This model maintains high-fidelity reasoning across many languages, even when switching languages mid-task."
},
"mistral/ministral-3b": {
"description": "A compact, efficient model for on-device tasks such as intelligent assistants and local analytics, providing low-latency performance."
},
"mistral/ministral-8b": {
"description": "A more powerful model with faster, memory-efficient inference, ideal for complex workflows and demanding edge applications."
},
"mistral/mistral-embed": {
"description": "A general-purpose text embedding model for semantic search, similarity, clustering, and RAG workflows."
},
"mistral/mistral-large": {
"description": "Mistral Large is ideal for complex tasks requiring large-scale reasoning capabilities or high specialization—such as synthetic text generation, code generation, RAG, or agents."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B is a 24 billion parameter open-source model developed by Mistral.ai. Saba is a specialized model trained to excel in Arabic, Persian, Urdu, Hebrew, and Indian languages. Served by Groq using its custom Language Processing Unit (LPU) hardware for fast, efficient inference."
},
"mistral/mistral-small": {
"description": "Mistral Small is ideal for simple tasks that can be batched—such as classification, customer support, or text generation. It delivers excellent performance at an affordable price point."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct model. 8x22b is a Mixture of Experts open-source model served by Mistral."
},
"mistral/pixtral-12b": {
"description": "A 12B model with image understanding capabilities as well as text."
},
"mistral/pixtral-large": {
"description": "Pixtral Large is the second model in our multimodal family, demonstrating cutting-edge image understanding. Specifically, it can comprehend documents, charts, and natural images while maintaining the leading text understanding capabilities of Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct is known for its high performance, suitable for various language tasks."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is the latest and most powerful version of Kimi K2. It is a top-tier Mixture of Experts (MoE) language model with a total of 1 trillion parameters and 32 billion activated parameters. Key features of this model include enhanced agent coding intelligence, demonstrating significant performance improvements in public benchmark tests and real-world agent coding tasks; and an improved frontend coding experience, with advancements in both aesthetics and practicality for frontend programming."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 is a large-scale Mixture of Experts (MoE) language model developed by Moonshot AI, with a total of 1 trillion parameters and 32 billion active parameters per forward pass. It is optimized for agent capabilities, including advanced tool use, reasoning, and code synthesis."
},
"moonshotai/kimi-k2-0905": {
"description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "The kimi-k2-0905-preview model has a context length of 256k, featuring stronger Agentic Coding capabilities, more outstanding aesthetics and practicality of frontend code, and better context understanding."
},
"morph/morph-v3-fast": {
"description": "Morph offers a specialized AI model that applies code changes suggested by cutting-edge models like Claude or GPT-4o to your existing code files FAST - 4500+ tokens/second. It acts as the final step in the AI coding workflow. Supports 16k input tokens and 16k output tokens."
},
"morph/morph-v3-large": {
"description": "Morph offers a specialized AI model that applies code changes suggested by cutting-edge models like Claude or GPT-4o to your existing code files FAST - 2500+ tokens/second. It acts as the final step in the AI coding workflow. Supports 16k input tokens and 16k output tokens."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B is an upgraded version of Nous Hermes 2, featuring the latest internally developed datasets."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B is a sparse expert model that leverages multiple parameters to enhance reasoning speed, suitable for handling multilingual and code generation tasks."
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI's most capable and cost-effective model in the GPT-3.5 series, optimized for chat purposes but also performing well on traditional completion tasks."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capabilities similar to GPT-3 era models. Compatible with traditional completion endpoints rather than chat completion endpoints."
},
"openai/gpt-4-turbo": {
"description": "OpenAI's gpt-4-turbo features broad general knowledge and domain expertise, enabling it to follow complex natural language instructions and accurately solve difficult problems. Its knowledge cutoff is April 2023, with a 128,000 token context window."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 is our flagship model for complex tasks. It is particularly well-suited for cross-domain problem solving."
"description": "GPT 4.1 is OpenAI's flagship model, suited for complex tasks. It excels at cross-domain problem solving."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini strikes a balance between intelligence, speed, and cost, making it an attractive model for many use cases."
"description": "GPT 4.1 mini balances intelligence, speed, and cost, making it an attractive model for many use cases."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano is the fastest and most cost-effective version of the GPT-4.1 model."
"description": "GPT-4.1 nano is the fastest and most cost-effective GPT 4.1 model."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o is a dynamic model that updates in real-time to maintain the latest version. It combines powerful language understanding and generation capabilities, suitable for large-scale application scenarios, including customer service, education, and technical support."
"description": "GPT-4o from OpenAI has broad general knowledge and domain expertise, capable of following complex natural language instructions and accurately solving challenging problems. It matches GPT-4 Turbo's performance with a faster, cheaper API."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini is the latest model released by OpenAI following GPT-4 Omni, supporting both text and image input while outputting text. As their most advanced small model, it is significantly cheaper than other recent cutting-edge models and over 60% cheaper than GPT-3.5 Turbo. It maintains state-of-the-art intelligence while offering remarkable cost-effectiveness. GPT-4o mini scored 82% on the MMLU test and currently ranks higher than GPT-4 in chat preferences."
"description": "GPT-4o mini from OpenAI is their most advanced and cost-effective small model. It is multimodal (accepting text or image inputs and outputting text) and more intelligent than gpt-3.5-turbo, while maintaining similar speed."
},
"openai/gpt-5": {
"description": "GPT-5 is OpenAI's flagship language model, excelling in complex reasoning, extensive real-world knowledge, code-intensive, and multi-step agent tasks."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini is a cost-optimized model performing well on reasoning/chat tasks. It offers the best balance of speed, cost, and capability."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano is a high-throughput model excelling at simple instruction or classification tasks."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B is a top-tier language model with 120 billion parameters, featuring built-in browser search and code execution capabilities, along with strong reasoning skills."
"description": "An extremely capable general-purpose large language model with powerful, controllable reasoning abilities."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B is a top-tier language model with 20 billion parameters, featuring built-in browser search and code execution capabilities, along with strong reasoning skills."
"description": "A compact, open-source weighted language model optimized for low latency and resource-constrained environments, including local and edge deployments."
},
"openai/o1": {
"description": "o1 is OpenAI's new reasoning model that supports multimodal input and outputs text, suitable for complex tasks requiring broad general knowledge. This model features a 200K context window and a knowledge cutoff date of October 2023."
"description": "OpenAI's o1 is a flagship reasoning model designed for complex problems requiring deep thought. It provides strong reasoning capabilities and higher accuracy for complex multi-step tasks."
},
"openai/o1-mini": {
"description": "o1-mini is a fast and cost-effective reasoning model designed for programming, mathematics, and scientific applications. This model features a 128K context and has a knowledge cutoff date of October 2023."
@ -2325,23 +2493,44 @@
"description": "o1 is OpenAI's new reasoning model, suitable for complex tasks that require extensive general knowledge. This model features a 128K context and has a knowledge cutoff date of October 2023."
},
"openai/o3": {
"description": "O3 is a versatile and powerful model that excels in multiple domains. It sets a new benchmark for tasks in mathematics, science, programming, and visual reasoning. It is also proficient in technical writing and following instructions. Users can leverage it to analyze text, code, and images, solving complex problems that require multiple steps."
"description": "OpenAI's o3 is the most powerful reasoning model, setting new state-of-the-art levels in coding, mathematics, science, and visual perception. It excels at complex queries requiring multifaceted analysis, with special strengths in analyzing images, charts, and graphs."
},
"openai/o3-mini": {
"description": "O3-mini delivers high intelligence at the same cost and latency targets as o1-mini."
"description": "o3-mini is OpenAI's latest small reasoning model, delivering high intelligence at the same cost and latency targets as o1-mini."
},
"openai/o3-mini-high": {
"description": "O3-mini high inference level version provides high intelligence at the same cost and latency targets as o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini is optimized for fast and efficient inference, demonstrating high efficiency and performance in coding and visual tasks."
"description": "OpenAI's o4-mini offers fast, cost-effective reasoning with excellent performance for its size, especially in mathematics (best in AIME benchmark), coding, and visual tasks."
},
"openai/o4-mini-high": {
"description": "o4-mini high inference level version, optimized for fast and efficient inference, demonstrating high efficiency and performance in coding and visual tasks."
},
"openai/text-embedding-3-large": {
"description": "OpenAI's most capable embedding model, suitable for English and non-English tasks."
},
"openai/text-embedding-3-small": {
"description": "OpenAI's improved, higher-performance version of the ada embedding model."
},
"openai/text-embedding-ada-002": {
"description": "OpenAI's traditional text embedding model."
},
"openrouter/auto": {
"description": "Based on context length, topic, and complexity, your request will be sent to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-regulating), or GPT-4o."
},
"perplexity/sonar": {
"description": "Perplexity's lightweight product with search grounding capabilities, faster and cheaper than Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Perplexity's flagship product with search grounding capabilities, supporting advanced queries and follow-up actions."
},
"perplexity/sonar-reasoning": {
"description": "A reasoning-focused model that outputs chain-of-thought (CoT) in responses, providing detailed explanations with search grounding."
},
"perplexity/sonar-reasoning-pro": {
"description": "An advanced reasoning-focused model that outputs chain-of-thought (CoT) in responses, offering comprehensive explanations with enhanced search capabilities and multiple search queries per request."
},
"phi3": {
"description": "Phi-3 is a lightweight open model launched by Microsoft, suitable for efficient integration and large-scale knowledge reasoning."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "The v0-1.5-md model is suitable for everyday tasks and user interface (UI) generation."
},
"vercel/v0-1.0-md": {
"description": "Access the model behind v0 to generate, fix, and optimize modern web applications, with framework-specific reasoning and up-to-date knowledge."
},
"vercel/v0-1.5-md": {
"description": "Access the model behind v0 to generate, fix, and optimize modern web applications, with framework-specific reasoning and up-to-date knowledge."
},
"wan2.2-t2i-flash": {
"description": "Wanxiang 2.2 Flash version, the latest model currently available. Fully upgraded in creativity, stability, and realism, with fast generation speed and high cost-effectiveness."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "The Spark X1 model will undergo further upgrades, achieving results in reasoning, text generation, and language understanding tasks that match OpenAI o1 and DeepSeek R1, building on its leading position in domestic mathematical tasks."
},
"xai/grok-2": {
"description": "Grok 2 is a cutting-edge language model with state-of-the-art reasoning capabilities. It excels in chat, coding, and reasoning, outperforming Claude 3.5 Sonnet and GPT-4-Turbo on the LMSYS leaderboard."
},
"xai/grok-2-vision": {
"description": "Grok 2 Vision model excels at vision-based tasks, delivering state-of-the-art performance in visual math reasoning (MathVista) and document-based question answering (DocVQA). It can process various visual information including documents, charts, graphs, screenshots, and photos."
},
"xai/grok-3": {
"description": "xAI's flagship model, excelling in enterprise use cases such as data extraction, coding, and text summarization. It has deep domain knowledge in finance, healthcare, legal, and scientific fields."
},
"xai/grok-3-fast": {
"description": "xAI's flagship model excelling in enterprise use cases like data extraction, coding, and text summarization. The fast variant is served on faster infrastructure, providing much quicker response times at the cost of higher per-token output expenses."
},
"xai/grok-3-mini": {
"description": "xAI's lightweight model that thinks before responding. Ideal for simple or logic-based tasks that do not require deep domain knowledge. Raw thought traces are accessible."
},
"xai/grok-3-mini-fast": {
"description": "xAI's lightweight model that thinks before responding. Ideal for simple or logic-based tasks that do not require deep domain knowledge. Raw thought traces are accessible. The fast variant is served on faster infrastructure, providing much quicker response times at the cost of higher per-token output expenses."
},
"xai/grok-4": {
"description": "xAI's latest and greatest flagship model, delivering unparalleled performance in natural language, mathematics, and reasoning—an ideal all-rounder."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 is an upgraded version of Yi. It continues pre-training on Yi using a high-quality corpus of 500B tokens and is fine-tuned on 3M diverse samples."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V is the latest-generation vision-language model (VLM) released by Zhipu AI. It is built on the flagship text model GLM-4.5-Air, which has 106B total parameters and 12B active parameters, and adopts a Mixture-of-Experts (MoE) architecture to deliver outstanding performance at reduced inference cost. Technically, GLM-4.5V continues the trajectory of GLM-4.1V-Thinking and introduces innovations such as three-dimensional rotary position encoding (3D-RoPE), significantly improving perception and reasoning of three-dimensional spatial relationships. Through optimizations across pretraining, supervised fine-tuning, and reinforcement learning stages, the model can handle a wide range of visual content including images, video, and long documents, and has achieved top-tier performance among comparable open-source models across 41 public multimodal benchmarks. The model also adds a \"Thinking Mode\" toggle that lets users flexibly choose between fast responses and deep reasoning to balance efficiency and effectiveness."
},
"zai/glm-4.5": {
"description": "The GLM-4.5 series models are foundational models specifically designed for agents. The flagship GLM-4.5 integrates 355 billion total parameters (32 billion active), unifying reasoning, coding, and agent capabilities to address complex application needs. As a hybrid reasoning system, it offers dual operating modes."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 and GLM-4.5-Air are our latest flagship models, specifically designed as foundational models for agent applications. Both utilize a Mixture of Experts (MoE) architecture. GLM-4.5 has 355 billion total parameters with 32 billion active per forward pass, while GLM-4.5-Air features a streamlined design with 106 billion total parameters and 12 billion active."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V is built on the GLM-4.5-Air foundational model, inheriting the proven techniques of GLM-4.1V-Thinking while achieving efficient scaling through a powerful 106 billion parameter MoE architecture."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 is a pair programming assistant that generates code and user interfaces (UI) for your projects based on your natural language descriptions."
},
"vercelaigateway": {
"description": "Vercel AI Gateway provides a unified API to access over 100 models, allowing you to use models from multiple providers such as OpenAI, Anthropic, and Google through a single endpoint. It supports budget settings, usage monitoring, request load balancing, and failover."
},
"vertexai": {
"description": "Google's Gemini series is its most advanced and versatile AI model, developed by Google DeepMind. It is designed for multimodal use, supporting seamless understanding and processing of text, code, images, audio, and video. Suitable for a variety of environments, from data centers to mobile devices, it significantly enhances the efficiency and applicability of AI models."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Un modelo multilingüe de 52 mil millones de parámetros (12 mil millones activos), que ofrece una ventana de contexto larga de 256K, llamadas a funciones, salida estructurada y generación basada en hechos."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 es la última generación de modelos de lenguaje a gran escala de la serie Qwen, que ofrece un conjunto completo de modelos densos y de expertos mixtos (MoE). Basado en un entrenamiento extenso, Qwen3 proporciona avances revolucionarios en razonamiento, cumplimiento de instrucciones, capacidades de agente y soporte multilingüe."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 es la última generación de modelos de lenguaje a gran escala de la serie Qwen, que ofrece un conjunto completo de modelos densos y de expertos mixtos (MoE). Basado en un entrenamiento extenso, Qwen3 proporciona avances revolucionarios en razonamiento, cumplimiento de instrucciones, capacidades de agente y soporte multilingüe."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 es la última generación de modelos de lenguaje a gran escala de la serie Qwen, que ofrece un conjunto completo de modelos densos y de expertos mixtos (MoE). Basado en un entrenamiento extenso, Qwen3 proporciona avances revolucionarios en razonamiento, cumplimiento de instrucciones, capacidades de agente y soporte multilingüe."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 es la última generación de modelos de lenguaje a gran escala de la serie Qwen, que ofrece un conjunto completo de modelos densos y de expertos mixtos (MoE). Basado en un entrenamiento extenso, Qwen3 proporciona avances revolucionarios en razonamiento, cumplimiento de instrucciones, capacidades de agente y soporte multilingüe."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct es el modelo de código más orientado a agentes de Qwen, con un rendimiento destacado en codificación de agentes, uso de navegadores de agentes y otras tareas básicas de codificación, alcanzando resultados comparables a Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Un modelo multimodal de muy bajo costo que procesa entradas de imágenes, videos y texto a una velocidad extremadamente rápida."
},
"amazon/nova-micro": {
"description": "Un modelo solo de texto que ofrece respuestas con la latencia más baja a un costo muy reducido."
},
"amazon/nova-pro": {
"description": "Un modelo multimodal altamente competente que ofrece la mejor combinación de precisión, velocidad y costo, adecuado para una amplia gama de tareas."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 es un modelo de incrustaciones multilingüe ligero y eficiente, compatible con dimensiones de 1024, 512 y 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a modelos competidores y a Claude 3 Opus, destacándose en evaluaciones amplias, mientras mantiene la velocidad y costo de nuestros modelos de nivel medio."
},
@ -627,25 +654,28 @@
"description": "La versión actualizada de Claude 2, con el doble de ventana de contexto, así como mejoras en la fiabilidad, tasa de alucinaciones y precisión basada en evidencia en contextos de documentos largos y RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para lograr respuestas casi instantáneas. Tiene un rendimiento de orientación rápido y preciso."
"description": "Claude 3 Haiku es el modelo más rápido de Anthropic hasta la fecha, diseñado para cargas de trabajo empresariales que suelen involucrar indicaciones largas. Haiku puede analizar rápidamente grandes volúmenes de documentos, como informes trimestrales, contratos o casos legales, a la mitad del costo de otros modelos de su clase."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus es el modelo más potente de Anthropic para manejar tareas altamente complejas. Destaca en rendimiento, inteligencia, fluidez y comprensión."
"description": "Claude 3 Opus es el modelo más inteligente de Anthropic, con un rendimiento líder en el mercado en tareas altamente complejas. Navega indicaciones abiertas y escenarios inéditos con fluidez excepcional y comprensión humana."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, Claude 3.5 Haiku ha mejorado en todas las habilidades y ha superado al modelo más grande de la generación anterior, Claude 3 Opus, en muchas pruebas de inteligencia."
"description": "Claude 3.5 Haiku es la siguiente generación de nuestro modelo más rápido. Con una velocidad similar a Claude 3 Haiku, Claude 3.5 Haiku mejora en cada conjunto de habilidades y supera a nuestro modelo más grande anterior, Claude 3 Opus, en muchas pruebas de referencia de inteligencia."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet ofrece capacidades que superan a Opus y una velocidad más rápida que Sonnet, manteniendo el mismo precio que Sonnet. Sonnet es especialmente hábil en programación, ciencia de datos, procesamiento visual y tareas de agente."
"description": "Claude 3.5 Sonnet logra un equilibrio ideal entre inteligencia y velocidad, especialmente para cargas de trabajo empresariales. Ofrece un rendimiento potente a menor costo en comparación con productos similares y está diseñado para alta durabilidad en implementaciones de IA a gran escala."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic hasta la fecha y el primer modelo de razonamiento híbrido en el mercado. Claude 3.7 Sonnet puede generar respuestas casi instantáneas o un pensamiento prolongado y gradual, permitiendo a los usuarios observar claramente estos procesos. Sonnet es especialmente hábil en programación, ciencia de datos, procesamiento visual y tareas de agente."
"description": "Claude 3.7 Sonnet es el primer modelo de razonamiento híbrido y el más inteligente de Anthropic hasta la fecha. Ofrece un rendimiento de vanguardia en codificación, generación de contenido, análisis de datos y tareas de planificación, construido sobre las capacidades de ingeniería de software y computación de su predecesor Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 es el modelo más potente de Anthropic para manejar tareas altamente complejas. Destaca por su rendimiento, inteligencia, fluidez y capacidad de comprensión excepcionales."
"description": "Claude Opus 4 es el modelo más potente de Anthropic y el mejor modelo de codificación del mundo, liderando en SWE-bench (72.5%) y Terminal-bench (43.2%). Proporciona rendimiento sostenido para tareas a largo plazo que requieren esfuerzo concentrado y miles de pasos, capaz de trabajar continuamente durante horas, ampliando significativamente las capacidades de los agentes de IA."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 es una alternativa plug-and-play a Opus 4, que ofrece un rendimiento y precisión excepcionales para tareas prácticas de codificación y agentes. Eleva el rendimiento de codificación de vanguardia a un 74.5% verificado en SWE-bench y maneja problemas complejos de múltiples pasos con mayor rigor y atención al detalle."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos prolongados paso a paso, que los usuarios pueden seguir claramente. Los usuarios de la API también pueden controlar con precisión el tiempo de reflexión del modelo."
"description": "Claude Sonnet 4 mejora significativamente las capacidades líderes de Sonnet 3.7, destacándose en codificación con un rendimiento de vanguardia del 72.7% en SWE-bench. El modelo equilibra rendimiento y eficiencia, adecuado para casos de uso internos y externos, y ofrece mayor control mediante una mejor capacidad de control."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B es un modelo de lenguaje grande disperso con 72 mil millones de parámetros y 16 mil millones de parámetros activados. Está basado en la arquitectura de expertos mixtos agrupados (MoGE), que agrupa expertos durante la selección y restringe la activación de un número igual de expertos por grupo para cada token, logrando un balance de carga entre expertos y mejorando significativamente la eficiencia de despliegue en la plataforma Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ es un modelo optimizado de última generación para RAG, diseñado para manejar cargas de trabajo empresariales."
},
"cohere/command-a": {
"description": "Command A es el modelo más potente de Cohere hasta la fecha, sobresaliendo en uso de herramientas, agentes, generación mejorada por recuperación (RAG) y casos multilingües. Con una longitud de contexto de 256K, funciona con solo dos GPU y ofrece un rendimiento 150% superior en comparación con Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R es un modelo de lenguaje grande optimizado para interacciones conversacionales y tareas de contexto largo. Se posiciona en la categoría \"escalable\", equilibrando alto rendimiento y precisión para permitir que las empresas avancen más allá de la prueba de concepto hacia la producción."
},
"cohere/command-r-plus": {
"description": "Command R+ es el modelo de lenguaje grande más reciente de Cohere, optimizado para interacciones conversacionales y tareas de contexto largo. Su objetivo es ofrecer un rendimiento excepcional para que las empresas puedan superar la prueba de concepto y pasar a producción."
},
"cohere/embed-v4.0": {
"description": "Un modelo que permite clasificar texto, imágenes o contenido mixto o convertirlos en incrustaciones."
},
"command": {
"description": "Un modelo de conversación que sigue instrucciones, ofreciendo alta calidad y fiabilidad en tareas lingüísticas, además de tener una longitud de contexto más larga que nuestros modelos de generación básicos."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 es un modelo híbrido de razonamiento grande que soporta contexto largo de 128K y cambio eficiente de modos, logrando un rendimiento y velocidad sobresalientes en llamadas a herramientas, generación de código y tareas complejas de razonamiento."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
"description": "El modelo DeepSeek R1 ha recibido una actualización menor, actualmente en la versión DeepSeek-R1-0528. En la última actualización, DeepSeek R1 mejora significativamente la profundidad y capacidad de razonamiento al aprovechar recursos computacionales aumentados y mecanismos de optimización algorítmica post-entrenamiento. El modelo destaca en evaluaciones de referencia en matemáticas, programación y lógica general, acercándose al rendimiento de modelos líderes como O3 y Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 mejora enormemente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de generar la respuesta final, el modelo produce una cadena de pensamiento para aumentar la precisión de la respuesta."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 mejora enormemente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de generar la respuesta final, el modelo produce una cadena de pensamiento para aumentar la precisión de la respuesta."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B es un modelo de lenguaje de gran tamaño basado en Llama3.3 70B, que utiliza el ajuste fino de la salida de DeepSeek R1 para lograr un rendimiento competitivo comparable a los modelos de vanguardia de gran tamaño."
"description": "DeepSeek-R1-Distill-Llama-70B es una variante destilada y más eficiente del modelo Llama de 70B. Mantiene un rendimiento sólido en tareas de generación de texto, reduciendo el costo computacional para facilitar su despliegue e investigación. Operado por Groq con su hardware personalizado de unidad de procesamiento de lenguaje (LPU) para ofrecer inferencia rápida y eficiente."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B es un modelo de lenguaje grande destilado basado en Llama-3.1-8B-Instruct, entrenado utilizando la salida de DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 mejora significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Antes de proporcionar la respuesta final, el modelo genera una cadena de pensamiento para mejorar la precisión de la respuesta final."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 ha logrado un avance significativo en la velocidad de inferencia en comparación con modelos anteriores. Se clasifica como el número uno entre los modelos de código abierto y puede competir con los modelos cerrados más avanzados del mundo. DeepSeek-V3 utiliza la arquitectura de atención multi-cabeza (MLA) y DeepSeekMoE, que han sido completamente validadas en DeepSeek-V2. Además, DeepSeek-V3 ha introducido una estrategia auxiliar sin pérdidas para el balanceo de carga y ha establecido objetivos de entrenamiento de predicción de múltiples etiquetas para lograr un rendimiento más robusto."
"description": "Modelo de lenguaje grande universal rápido con capacidades de razonamiento mejoradas."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base es una versión mejorada del modelo DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 ha logrado un avance significativo en la velocidad de inferencia en comparación con modelos anteriores. Se clasifica como el número uno entre los modelos de código abierto y puede competir con los modelos cerrados más avanzados del mundo. DeepSeek-V3 utiliza la arquitectura de atención multi-cabeza (MLA) y DeepSeekMoE, que han sido completamente validadas en DeepSeek-V2. Además, DeepSeek-V3 ha introducido una estrategia auxiliar sin pérdidas para el balanceo de carga y ha establecido objetivos de entrenamiento de predicción de múltiples etiquetas para lograr un rendimiento más robusto."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview posee una poderosa capacidad de razonamiento complejo, destacándose en áreas como razonamiento lógico, matemáticas y programación."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash ofrece funcionalidades de próxima generación y mejoras, incluyendo velocidad sobresaliente, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash ofrece funciones y mejoras de próxima generación, incluyendo velocidad excepcional, uso de herramientas nativas, generación multimodal y una ventana de contexto de 1M tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental es el último modelo de IA multimodal experimental de Google, con una mejora de calidad en comparación con versiones anteriores, especialmente en conocimiento del mundo, código y contexto largo."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite ofrece funcionalidades de próxima generación y mejoras, incluyendo velocidad sobresaliente, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para tareas avanzadas de razonamiento, codificación, matemáticas y ciencias. Incluye una capacidad incorporada de \"pensamiento\" que le permite proporcionar respuestas con mayor precisión y un manejo detallado del contexto.\n\nNota: este modelo tiene dos variantes: con pensamiento y sin pensamiento. La tarificación de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo \":thinking\"), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe seleccionar la variante \":thinking\", lo que generará una tarificación más alta para la salida de pensamiento.\n\nAdemás, Gemini 2.5 Flash se puede configurar mediante el parámetro \"máximo de tokens para razonamiento\", como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash es un modelo de pensamiento que ofrece capacidades integrales sobresalientes. Está diseñado para equilibrar precio y rendimiento, soportando multimodalidad y una ventana de contexto de 1 millón de tokens."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modelo experimental Gemini 2.5 Flash, compatible con generación de imágenes."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite es un modelo equilibrado y de baja latencia, con presupuesto de pensamiento configurable y conectividad de herramientas (por ejemplo, búsqueda de Google y ejecución de código). Soporta entradas multimodales y ofrece una ventana de contexto de 1 millón de tokens."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para razonamiento avanzado, codificación, matemáticas y tareas científicas. Incluye la capacidad de 'pensar' incorporada, lo que le permite proporcionar respuestas con mayor precisión y un manejo más detallado del contexto.\n\nNota: Este modelo tiene dos variantes: con pensamiento y sin pensamiento. La fijación de precios de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo ':thinking'), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe elegir la variante ':thinking', lo que resultará en un precio de salida de pensamiento más alto.\n\nAdemás, Gemini 2.5 Flash se puede configurar a través del parámetro 'número máximo de tokens de razonamiento', como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash es el modelo principal más avanzado de Google, diseñado para razonamiento avanzado, codificación, matemáticas y tareas científicas. Incluye la capacidad de 'pensar' incorporada, lo que le permite proporcionar respuestas con mayor precisión y un manejo más detallado del contexto.\n\nNota: Este modelo tiene dos variantes: con pensamiento y sin pensamiento. La fijación de precios de salida varía significativamente según si la capacidad de pensamiento está activada. Si elige la variante estándar (sin el sufijo ':thinking'), el modelo evitará explícitamente generar tokens de pensamiento.\n\nPara aprovechar la capacidad de pensamiento y recibir tokens de pensamiento, debe elegir la variante ':thinking', lo que resultará en un precio de salida de pensamiento más alto.\n\nAdemás, Gemini 2.5 Flash se puede configurar a través del parámetro 'número máximo de tokens de razonamiento', como se describe en la documentación (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
"description": "Gemini 2.5 Pro es nuestro modelo Gemini de inferencia más avanzado, capaz de resolver problemas complejos. Cuenta con una ventana de contexto de 2 millones de tokens y soporta entradas multimodales, incluyendo texto, imágenes, audio, video y documentos PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como de analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
},
"google/gemini-embedding-001": {
"description": "Modelo de incrustaciones de última generación con rendimiento sobresaliente en tareas en inglés, multilingües y de código."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash ofrece capacidades de procesamiento multimodal optimizadas, adecuadas para una variedad de escenarios de tareas complejas."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B es un modelo de lenguaje de código abierto de Google, que establece nuevos estándares en eficiencia y rendimiento."
},
"google/text-embedding-005": {
"description": "Modelo de incrustaciones de texto enfocado en inglés, optimizado para tareas de código y lenguaje inglés."
},
"google/text-multilingual-embedding-002": {
"description": "Modelo de incrustaciones de texto multilingüe optimizado para tareas translingüísticas, compatible con múltiples idiomas."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, adecuado para diversas tareas de generación y comprensión de texto, actualmente apunta a gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Serie de modelos de texto a imagen de cuarta generación de Imagen, versión Ultra"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small es la opción ideal para tareas de generación, depuración y refactorización de código, con latencia mínima."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 es un modelo de lenguaje grande de alto rendimiento y tamaño pequeño basado en la arquitectura MoE. Cuenta con 16 mil millones de parámetros totales, pero solo activa 1.4 mil millones por token (no embedding 789 millones), lo que permite una velocidad de generación extremadamente alta. Gracias al diseño eficiente de MoE y a un entrenamiento a gran escala con datos de alta calidad, a pesar de tener solo 1.4 mil millones de parámetros activados, Ling-mini-2.0 demuestra un rendimiento de primer nivel en tareas downstream, comparable a modelos densos de menos de 10 mil millones de parámetros y a modelos MoE de mayor escala."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modelo de texto ajustado por instrucciones Llama 3.1, optimizado para casos de uso de diálogo multilingüe, con un rendimiento destacado en muchos modelos de chat abiertos y cerrados disponibles y en puntos de referencia industriales comunes."
},
"meta/llama-3-70b": {
"description": "Modelo de código abierto de 70 mil millones de parámetros ajustado cuidadosamente por Meta para cumplimiento de instrucciones. Operado por Groq con su hardware personalizado de unidad de procesamiento de lenguaje (LPU) para ofrecer inferencia rápida y eficiente."
},
"meta/llama-3-8b": {
"description": "Modelo de código abierto de 8 mil millones de parámetros ajustado cuidadosamente por Meta para cumplimiento de instrucciones. Operado por Groq con su hardware personalizado de unidad de procesamiento de lenguaje (LPU) para ofrecer inferencia rápida y eficiente."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avanzado, que soporta generación de datos sintéticos, destilación de conocimiento y razonamiento, adecuado para chatbots, programación y tareas de dominio específico."
},
"meta/llama-3.1-70b": {
"description": "Versión actualizada de Meta Llama 3 70B Instruct, que incluye una longitud de contexto extendida de 128K, soporte multilingüe y capacidades de razonamiento mejoradas."
},
"meta/llama-3.1-70b-instruct": {
"description": "Potencia diálogos complejos, con excelente comprensión del contexto, capacidad de razonamiento y generación de texto."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B soporta una ventana de contexto de 128K, lo que lo hace ideal para interfaces de conversación en tiempo real y análisis de datos, ofreciendo un ahorro de costos significativo en comparación con modelos más grandes. Operado por Groq con su hardware personalizado de unidad de procesamiento de lenguaje (LPU) para ofrecer inferencia rápida y eficiente."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modelo de última generación avanzado, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-11b": {
"description": "Modelo de generación de razonamiento visual ajustado por instrucciones (entrada de texto + imagen / salida de texto), optimizado para reconocimiento visual, razonamiento de imágenes, generación de títulos y respuestas a preguntas generales sobre imágenes."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
},
"meta/llama-3.2-1b": {
"description": "Modelo solo de texto, compatible con casos de uso en dispositivos, como recuperación de conocimiento local multilingüe, resumen y reescritura."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-3b": {
"description": "Modelo solo de texto, ajustado cuidadosamente para soportar casos de uso en dispositivos, como recuperación de conocimiento local multilingüe, resumen y reescritura."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modelo de lenguaje pequeño de última generación, con comprensión del lenguaje, excelente capacidad de razonamiento y generación de texto."
},
"meta/llama-3.2-90b": {
"description": "Modelo de generación de razonamiento visual ajustado por instrucciones (entrada de texto + imagen / salida de texto), optimizado para reconocimiento visual, razonamiento de imágenes, generación de títulos y respuestas a preguntas generales sobre imágenes."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modelo de visión-lenguaje de vanguardia, experto en razonamiento de alta calidad a partir de imágenes."
},
"meta/llama-3.3-70b": {
"description": "Combinación perfecta de rendimiento y eficiencia. Este modelo soporta IA conversacional de alto rendimiento, diseñado para creación de contenido, aplicaciones empresariales e investigación, ofreciendo capacidades avanzadas de comprensión del lenguaje, incluyendo resumen de texto, clasificación, análisis de sentimientos y generación de código."
},
"meta/llama-3.3-70b-instruct": {
"description": "Modelo LLM avanzado, experto en razonamiento, matemáticas, sentido común y llamadas a funciones."
},
"meta/llama-4-maverick": {
"description": "La colección de modelos Llama 4 es una IA multimodal nativa que soporta experiencias de texto y multimodales. Estos modelos utilizan una arquitectura de expertos mixtos para ofrecer un rendimiento líder en la industria en comprensión de texto e imágenes. Llama 4 Maverick, un modelo de 17 mil millones de parámetros con 128 expertos. Proporcionado por DeepInfra."
},
"meta/llama-4-scout": {
"description": "La colección de modelos Llama 4 es una IA multimodal nativa que soporta experiencias de texto y multimodales. Estos modelos utilizan una arquitectura de expertos mixtos para ofrecer un rendimiento líder en la industria en comprensión de texto e imágenes. Llama 4 Scout, un modelo de 17 mil millones de parámetros con 16 expertos. Proporcionado por DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "El mismo modelo Phi-3-medium, pero con un tamaño de contexto mayor, adecuado para RAG o indicaciones breves."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small es una opción rentable, rápida y confiable, adecuada para casos de uso como traducción, resumen y análisis de sentimientos."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 es un modelo de codificación de última generación optimizado para casos de uso de baja latencia y alta frecuencia. Domina más de 80 lenguajes de programación y sobresale en tareas como relleno intermedio (FIM), corrección de código y generación de pruebas."
},
"mistral/codestral-embed": {
"description": "Modelo de incrustación de código que puede integrarse en bases de datos y repositorios de código para apoyar asistentes de codificación."
},
"mistral/devstral-small": {
"description": "Devstral es un modelo de lenguaje grande agente para tareas de ingeniería de software, ideal para agentes de ingeniería de software."
},
"mistral/magistral-medium": {
"description": "Pensamiento complejo respaldado por comprensión profunda, con razonamiento transparente que puede seguir y verificar. Este modelo mantiene un razonamiento de alta fidelidad en múltiples idiomas, incluso cuando cambia de idioma a mitad de tarea."
},
"mistral/magistral-small": {
"description": "Pensamiento complejo respaldado por comprensión profunda, con razonamiento transparente que puede seguir y verificar. Este modelo mantiene un razonamiento de alta fidelidad en múltiples idiomas, incluso cuando cambia de idioma a mitad de tarea."
},
"mistral/ministral-3b": {
"description": "Un modelo compacto y eficiente para tareas en dispositivos como asistentes inteligentes y análisis local, que ofrece un rendimiento de baja latencia."
},
"mistral/ministral-8b": {
"description": "Un modelo más potente con inferencia más rápida y eficiente en memoria, ideal para flujos de trabajo complejos y aplicaciones exigentes en el borde."
},
"mistral/mistral-embed": {
"description": "Modelo de incrustación de texto universal para búsqueda semántica, similitud, agrupamiento y flujos de trabajo RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large es ideal para tareas complejas que requieren capacidades de inferencia grandes o altamente especializadas, como generación de texto sintético, generación de código, RAG o agentes."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B es un modelo de código abierto de 24 mil millones de parámetros desarrollado por Mistral.ai. Saba es un modelo especializado entrenado para un rendimiento sobresaliente en árabe, persa, urdu, hebreo y lenguas indias. Operado por Groq con su hardware personalizado de unidad de procesamiento de lenguaje (LPU) para ofrecer inferencia rápida y eficiente."
},
"mistral/mistral-small": {
"description": "Mistral Small es ideal para tareas simples que pueden procesarse en lotes, como clasificación, soporte al cliente o generación de texto. Ofrece un rendimiento excelente a un precio asequible."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modelo 8x22b Instruct. 8x22b es un modelo de expertos mixtos de código abierto operado por Mistral."
},
"mistral/pixtral-12b": {
"description": "Un modelo de 12B con capacidades de comprensión de imágenes además de texto."
},
"mistral/pixtral-large": {
"description": "Pixtral Large es el segundo modelo de nuestra familia multimodal, demostrando un nivel avanzado de comprensión de imágenes. En particular, el modelo puede entender documentos, gráficos y imágenes naturales, manteniendo la capacidad líder en comprensión de texto de Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct es conocido por su alto rendimiento, adecuado para diversas tareas de lenguaje."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo de lenguaje de expertos mixtos (MoE) de primer nivel, con un total de un billón de parámetros y 32 mil millones de parámetros activados. Las principales características de este modelo incluyen: inteligencia mejorada para agentes de codificación, mostrando un rendimiento notable en pruebas de referencia públicas y en tareas reales de agentes de codificación; y una experiencia mejorada en la codificación frontend, con avances tanto en la estética como en la funcionalidad de la programación frontend."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 es un modelo de lenguaje de expertos mixtos (MoE) a gran escala desarrollado por Moonshot AI, con un total de un billón de parámetros y 32 mil millones de parámetros activos por pasada. Está optimizado para capacidades de agente, incluyendo uso avanzado de herramientas, razonamiento y síntesis de código."
},
"moonshotai/kimi-k2-0905": {
"description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "El modelo kimi-k2-0905-preview tiene una longitud de contexto de 256k, con una mayor capacidad de codificación agentiva, una estética y funcionalidad mejoradas en el código frontend, y una mejor comprensión del contexto."
},
"morph/morph-v3-fast": {
"description": "Morph ofrece un modelo de IA especializado que aplica rápidamente los cambios de código sugeridos por modelos de vanguardia como Claude o GPT-4o a sus archivos de código existentes, con una velocidad de más de 4500 tokens por segundo. Actúa como el último paso en el flujo de trabajo de codificación de IA. Soporta 16k tokens de entrada y 16k tokens de salida."
},
"morph/morph-v3-large": {
"description": "Morph ofrece un modelo de IA especializado que aplica cambios de código sugeridos por modelos de vanguardia como Claude o GPT-4o a sus archivos de código existentes, con una velocidad de más de 2500 tokens por segundo. Actúa como el último paso en el flujo de trabajo de codificación de IA. Soporta 16k tokens de entrada y 16k tokens de salida."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B es una versión mejorada de Nous Hermes 2, que incluye los conjuntos de datos más recientes desarrollados internamente."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B es un modelo de expertos dispersos que utiliza múltiples parámetros para mejorar la velocidad de razonamiento, adecuado para el procesamiento de tareas de múltiples idiomas y generación de código."
},
"openai/gpt-3.5-turbo": {
"description": "El modelo más competente y rentable de la serie GPT-3.5 de OpenAI, optimizado para propósitos de chat, pero que también funciona bien en tareas tradicionales de completado."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacidades similares a los modelos de la era GPT-3. Compatible con puntos finales de completado tradicionales en lugar de puntos finales de completado de chat."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo de OpenAI posee un amplio conocimiento general y experiencia en dominios, permitiéndole seguir instrucciones complejas en lenguaje natural y resolver problemas difíciles con precisión. Su fecha de corte de conocimiento es abril de 2023 y tiene una ventana de contexto de 128,000 tokens."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 es nuestro modelo insignia para tareas complejas. Es especialmente adecuado para resolver problemas interdisciplinarios."
"description": "GPT 4.1 es el modelo insignia de OpenAI, adecuado para tareas complejas. Es excelente para resolver problemas interdisciplinarios."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini ofrece un equilibrio entre inteligencia, velocidad y costo, lo que lo convierte en un modelo atractivo para muchos casos de uso."
"description": "GPT 4.1 mini equilibra inteligencia, velocidad y costo, convirtiéndolo en un modelo atractivo para muchos casos de uso."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano es el modelo GPT-4.1 más rápido y rentable."
"description": "GPT-4.1 nano es el modelo GPT 4.1 más rápido y rentable."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o es un modelo dinámico que se actualiza en tiempo real para mantener la versión más actual. Combina una poderosa comprensión y generación de lenguaje, adecuado para escenarios de aplicación a gran escala, incluyendo servicio al cliente, educación y soporte técnico."
"description": "GPT-4o de OpenAI tiene un amplio conocimiento general y experiencia en dominios, capaz de seguir instrucciones complejas en lenguaje natural y resolver problemas difíciles con precisión. Ofrece un rendimiento equivalente a GPT-4 Turbo con una API más rápida y económica."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini es el modelo más reciente de OpenAI, lanzado después de GPT-4 Omni, que admite entradas de texto e imagen y genera texto como salida. Como su modelo más avanzado de tamaño pequeño, es mucho más económico que otros modelos de vanguardia recientes y más de un 60% más barato que GPT-3.5 Turbo. Mantiene una inteligencia de vanguardia mientras ofrece una relación calidad-precio notable. GPT-4o mini obtuvo un puntaje del 82% en la prueba MMLU y actualmente se clasifica por encima de GPT-4 en preferencias de chat."
"description": "GPT-4o mini de OpenAI es su modelo pequeño más avanzado y rentable. Es multimodal (acepta entradas de texto o imagen y produce texto) y es más inteligente que gpt-3.5-turbo, manteniendo la misma velocidad."
},
"openai/gpt-5": {
"description": "GPT-5 es el modelo de lenguaje insignia de OpenAI, sobresaliendo en razonamiento complejo, amplio conocimiento del mundo real, tareas intensivas en código y tareas de agente de múltiples pasos."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini es un modelo optimizado en costos que sobresale en tareas de razonamiento y chat. Ofrece el mejor equilibrio entre velocidad, costo y capacidad."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano es un modelo de alto rendimiento que sobresale en tareas simples de instrucciones o clasificación."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B es un modelo de lenguaje de vanguardia con 120 mil millones de parámetros, que incorpora funciones de búsqueda en navegador y ejecución de código, además de capacidades de razonamiento."
"description": "Modelo de lenguaje grande universal extremadamente competente con capacidades de razonamiento potentes y controlables."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B es un modelo de lenguaje de vanguardia con 20 mil millones de parámetros, que incorpora funciones de búsqueda en navegador y ejecución de código, además de capacidades de razonamiento."
"description": "Modelo de lenguaje compacto con pesos de código abierto, optimizado para baja latencia y entornos con recursos limitados, incluyendo despliegues locales y en el borde."
},
"openai/o1": {
"description": "o1 es el nuevo modelo de razonamiento de OpenAI, que admite entradas de texto e imagen y produce texto, adecuado para tareas complejas que requieren un conocimiento general amplio. Este modelo cuenta con un contexto de 200K y una fecha de corte de conocimiento en octubre de 2023."
"description": "o1 de OpenAI es un modelo de inferencia insignia diseñado para problemas complejos que requieren pensamiento profundo. Proporciona capacidades de razonamiento potentes y mayor precisión para tareas complejas de múltiples pasos."
},
"openai/o1-mini": {
"description": "o1-mini es un modelo de inferencia rápido y rentable diseñado para aplicaciones de programación, matemáticas y ciencias. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
@ -2325,23 +2493,44 @@
"description": "o1 es el nuevo modelo de inferencia de OpenAI, adecuado para tareas complejas que requieren un amplio conocimiento general. Este modelo tiene un contexto de 128K y una fecha de corte de conocimiento en octubre de 2023."
},
"openai/o3": {
"description": "o3 es un modelo versátil y potente que destaca en múltiples campos. Establece un nuevo estándar para tareas de matemáticas, ciencias, programación y razonamiento visual. También es hábil en redacción técnica y seguimiento de instrucciones. Los usuarios pueden utilizarlo para analizar texto, código e imágenes, resolviendo problemas complejos de múltiples pasos."
"description": "o3 de OpenAI es el modelo de inferencia más potente, estableciendo nuevos estándares en codificación, matemáticas, ciencias y percepción visual. Sobresale en consultas complejas que requieren análisis multifacético, con ventajas especiales en análisis de imágenes, gráficos y diagramas."
},
"openai/o3-mini": {
"description": "o3-mini ofrece alta inteligencia con los mismos objetivos de costo y latencia que o1-mini."
"description": "o3-mini es el modelo de inferencia pequeño más reciente de OpenAI, que ofrece alta inteligencia con los mismos objetivos de costo y latencia que o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini de alto nivel de razonamiento proporciona alta inteligencia con los mismos objetivos de costo y latencia que o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini está optimizado para una inferencia rápida y efectiva, mostrando una alta eficiencia y rendimiento en tareas de codificación y visuales."
"description": "o4-mini de OpenAI ofrece inferencia rápida y rentable, con un rendimiento sobresaliente para su tamaño, especialmente en matemáticas (destacando en la prueba de referencia AIME), codificación y tareas visuales."
},
"openai/o4-mini-high": {
"description": "Versión de alto nivel de inferencia de o4-mini, optimizada para una inferencia rápida y efectiva, mostrando una alta eficiencia y rendimiento en tareas de codificación y visuales."
},
"openai/text-embedding-3-large": {
"description": "El modelo de incrustaciones más competente de OpenAI, adecuado para tareas en inglés y otros idiomas."
},
"openai/text-embedding-3-small": {
"description": "Versión mejorada y de mayor rendimiento del modelo de incrustaciones ada de OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modelo tradicional de incrustaciones de texto de OpenAI."
},
"openrouter/auto": {
"description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enviará a Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajuste) o GPT-4o."
},
"perplexity/sonar": {
"description": "Producto ligero de Perplexity con capacidad de búsqueda fundamentada, más rápido y económico que Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Producto insignia de Perplexity con capacidad de búsqueda fundamentada, que soporta consultas avanzadas y operaciones de seguimiento."
},
"perplexity/sonar-reasoning": {
"description": "Modelo enfocado en razonamiento que produce cadenas de pensamiento (CoT) en las respuestas, ofreciendo explicaciones detalladas con búsqueda fundamentada."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modelo avanzado enfocado en razonamiento que produce cadenas de pensamiento (CoT) en las respuestas, ofreciendo explicaciones integrales con capacidades de búsqueda mejoradas y múltiples consultas de búsqueda por solicitud."
},
"phi3": {
"description": "Phi-3 es un modelo abierto ligero lanzado por Microsoft, adecuado para una integración eficiente y razonamiento de conocimiento a gran escala."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "El modelo v0-1.5-md es adecuado para tareas cotidianas y generación de interfaces de usuario (UI)"
},
"vercel/v0-1.0-md": {
"description": "Acceso al modelo detrás de v0 para generar, reparar y optimizar aplicaciones web modernas, con razonamiento específico para frameworks y conocimiento actualizado."
},
"vercel/v0-1.5-md": {
"description": "Acceso al modelo detrás de v0 para generar, reparar y optimizar aplicaciones web modernas, con razonamiento específico para frameworks y conocimiento actualizado."
},
"wan2.2-t2i-flash": {
"description": "Versión ultra rápida Wanxiang 2.2, el modelo más reciente. Mejora integral en creatividad, estabilidad y realismo, con velocidad de generación rápida y alta relación calidad-precio."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "El modelo Spark X1 se actualizará aún más, logrando resultados en tareas generales como razonamiento, generación de texto y comprensión del lenguaje que se comparan con OpenAI o1 y DeepSeek R1, además de liderar en tareas matemáticas en el país."
},
"xai/grok-2": {
"description": "Grok 2 es un modelo de lenguaje de vanguardia con capacidades de razonamiento avanzadas. Sobresale en chat, codificación y razonamiento, superando a Claude 3.5 Sonnet y GPT-4-Turbo en la clasificación LMSYS."
},
"xai/grok-2-vision": {
"description": "El modelo visual Grok 2 sobresale en tareas basadas en visión, ofreciendo un rendimiento de vanguardia en razonamiento matemático visual (MathVista) y preguntas y respuestas basadas en documentos (DocVQA). Puede procesar diversos tipos de información visual, incluyendo documentos, gráficos, diagramas, capturas de pantalla y fotografías."
},
"xai/grok-3": {
"description": "Modelo insignia de xAI que sobresale en casos de uso empresariales como extracción de datos, codificación y resumen de texto. Posee un profundo conocimiento en finanzas, salud, derecho y ciencias."
},
"xai/grok-3-fast": {
"description": "Modelo insignia de xAI que sobresale en casos de uso empresariales como extracción de datos, codificación y resumen de texto. La variante rápida del modelo opera en infraestructura más veloz, ofreciendo tiempos de respuesta mucho más rápidos que el estándar, a un costo mayor por token de salida."
},
"xai/grok-3-mini": {
"description": "Modelo ligero de xAI que piensa antes de responder. Ideal para tareas simples o basadas en lógica que no requieren profundo conocimiento especializado. La trayectoria de pensamiento original es accesible."
},
"xai/grok-3-mini-fast": {
"description": "Modelo ligero de xAI que piensa antes de responder. Ideal para tareas simples o basadas en lógica que no requieren profundo conocimiento especializado. La trayectoria de pensamiento original es accesible. La variante rápida del modelo opera en infraestructura más veloz, ofreciendo tiempos de respuesta mucho más rápidos que el estándar, a un costo mayor por token de salida."
},
"xai/grok-4": {
"description": "El modelo insignia más reciente y avanzado de xAI, que ofrece un rendimiento inigualable en lenguaje natural, matemáticas y razonamiento, siendo un competidor perfecto y versátil."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 es una versión mejorada de Yi. Utiliza un corpus de alta calidad de 500B tokens para continuar el preentrenamiento de Yi y se微调 en 3M muestras de ajuste fino diversificadas."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V es la última generación de modelo de lenguaje visual (VLM) publicada por Zhipu AI. Este modelo se basa en el modelo de texto insignia GLM-4.5-Air, que cuenta con 106.000 millones de parámetros totales y 12.000 millones de parámetros de activación, y emplea una arquitectura de expertos mixtos (MoE) para lograr un rendimiento excelente con un coste de inferencia reducido. Técnicamente, GLM-4.5V continúa la línea de GLM-4.1V-Thinking e introduce innovaciones como el codificado rotacional de posiciones en 3D (3D-RoPE), que mejora de forma notable la percepción y el razonamiento sobre las relaciones en el espacio tridimensional. Gracias a optimizaciones en preentrenamiento, ajuste supervisado y aprendizaje por refuerzo, este modelo es capaz de procesar diversos tipos de contenido visual, como imágenes, vídeo y documentos largos, y ha alcanzado niveles punteros entre los modelos open source de su categoría en 41 benchmarks multimodales públicos. Además, el modelo incorpora un interruptor de 'modo de pensamiento' que permite a los usuarios alternar entre respuestas rápidas y razonamiento profundo para equilibrar eficiencia y rendimiento."
},
"zai/glm-4.5": {
"description": "La serie de modelos GLM-4.5 está diseñada específicamente como modelos base para agentes inteligentes. El modelo insignia GLM-4.5 integra 355 mil millones de parámetros totales (32 mil millones activos), unificando razonamiento, codificación y capacidades de agente para abordar demandas complejas de aplicaciones. Como sistema de razonamiento híbrido, ofrece modos de operación dual."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 y GLM-4.5-Air son nuestros modelos insignia más recientes, diseñados específicamente como modelos base para aplicaciones de agentes. Ambos utilizan una arquitectura de expertos mixtos (MoE). GLM-4.5 tiene un total de 355 mil millones de parámetros con 32 mil millones activos por pasada, mientras que GLM-4.5-Air presenta un diseño más simplificado con 106 mil millones de parámetros totales y 12 mil millones activos."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V está construido sobre el modelo base GLM-4.5-Air, heredando la tecnología verificada de GLM-4.1V-Thinking y logrando una escalabilidad eficiente mediante una potente arquitectura MoE de 106 mil millones de parámetros."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 es un asistente de programación en pareja; solo necesitas describir tus ideas en lenguaje natural y él generará código e interfaces de usuario (UI) para tu proyecto."
},
"vercelaigateway": {
"description": "Vercel AI Gateway ofrece una API unificada para acceder a más de 100 modelos, permitiendo el uso de modelos de varios proveedores como OpenAI, Anthropic y Google a través de un único punto de acceso. Soporta configuración de presupuesto, monitoreo de uso, balanceo de carga de solicitudes y conmutación por error."
},
"vertexai": {
"description": "La serie Gemini de Google es su modelo de IA más avanzado y versátil, desarrollado por Google DeepMind, diseñado específicamente para ser multimodal, soportando la comprensión y procesamiento sin interrupciones de texto, código, imágenes, audio y video. Es adecuado para una variedad de entornos, desde centros de datos hasta dispositivos móviles, mejorando enormemente la eficiencia y la aplicabilidad de los modelos de IA."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "یک مدل چندزبانه با ۵۲ میلیارد پارامتر (۱۲ میلیارد فعال) که پنجره زمینه ۲۵۶ هزار توکنی، فراخوانی توابع، خروجی ساختاریافته و تولید مبتنی بر واقعیت را ارائه می‌دهد."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 جدیدترین نسل از مدل‌های زبان بزرگ در سری Qwen است که مجموعه‌ای جامع از مدل‌های متراکم و متخصص ترکیبی (MoE) را ارائه می‌دهد. بر اساس آموزش گسترده ساخته شده، Qwen3 پیشرفت‌های چشمگیری در استدلال، پیروی از دستورالعمل‌ها، توانایی‌های نمایندگی و پشتیبانی چندزبانه ارائه می‌دهد."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct مدل کدگذاری با بالاترین توان نمایندگی در Qwen است که در کدنویسی نمایندگی، استفاده از مرورگر نمایندگی و سایر وظایف پایه کدنویسی عملکرد قابل توجهی دارد و نتایجی معادل Claude Sonnet ارائه می‌دهد."
},
"amazon/nova-lite": {
"description": "یک مدل چندرسانه‌ای بسیار کم‌هزینه که سرعت بسیار بالایی در پردازش ورودی‌های تصویر، ویدئو و متن دارد."
},
"amazon/nova-micro": {
"description": "یک مدل فقط متنی که با هزینه بسیار پایین پاسخ‌هایی با کمترین تأخیر ارائه می‌دهد."
},
"amazon/nova-pro": {
"description": "یک مدل چندرسانه‌ای بسیار توانمند با ترکیب بهینه دقت، سرعت و هزینه که برای طیف گسترده‌ای از وظایف مناسب است."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 یک مدل جاسازی چندزبانه سبک و کارآمد است که از ابعاد 1024، 512 و 256 پشتیبانی می‌کند."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet استانداردهای صنعت را ارتقا داده است، عملکردی بهتر از مدل‌های رقیب و Claude 3 Opus دارد، در ارزیابی‌های گسترده به خوبی عمل کرده و در عین حال سرعت و هزینه مدل‌های سطح متوسط ما را حفظ می‌کند."
},
@ -627,25 +654,28 @@
"description": "نسخه به‌روزرسانی شده Claude 2، با دو برابر پنجره متنی و بهبود در قابلیت اطمینان، کاهش توهمات و دقت مبتنی بر شواهد در اسناد طولانی و زمینه‌های RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای ارائه پاسخ‌های تقریباً فوری طراحی شده است. این مدل دارای عملکرد سریع و دقیق جهت‌دار است."
"description": "Claude 3 Haiku سریع‌ترین مدل Anthropic تا به امروز است که برای بارهای کاری شرکتی که معمولاً شامل ورودی‌های طولانی است طراحی شده است. Haiku می‌تواند حجم زیادی از اسناد مانند گزارش‌های فصلی، قراردادها یا پرونده‌های حقوقی را به سرعت تحلیل کند و هزینه آن نصف مدل‌های هم‌رده خود است."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک عالی عمل می‌کند."
"description": "Claude 3 Opus هوشمندترین مدل Anthropic است که در وظایف بسیار پیچیده عملکرد پیشرو در بازار دارد. این مدل می‌تواند با روانی و درک انسانی برجسته، ورودی‌های باز و سناریوهای ناآشنا را مدیریت کند."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku سریع‌ترین مدل نسل بعدی Anthropic است. در مقایسه با Claude 3 Haiku، Claude 3.5 Haiku در تمام مهارت‌ها بهبود یافته و در بسیاری از آزمون‌های هوش از بزرگترین مدل نسل قبلی، Claude 3 Opus پیشی گرفته است."
"description": "Claude 3.5 Haiku نسل بعدی سریع‌ترین مدل ما است. با سرعتی مشابه Claude 3 Haiku، در هر مجموعه مهارتی بهبود یافته و در بسیاری از آزمون‌های هوشمندی از مدل بزرگ قبلی ما Claude 3 Opus پیشی گرفته است."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet توانایی‌هایی فراتر از Opus ارائه می‌دهد و سرعتی سریع‌تر از Sonnet دارد، در حالی که قیمت آن با Sonnet یکسان است. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
"description": "Claude 3.5 Sonnet تعادل ایده‌آلی بین هوشمندی و سرعت برقرار می‌کند - به ویژه برای بارهای کاری شرکتی. در مقایسه با محصولات مشابه، عملکرد قدرتمندی با هزینه کمتر ارائه می‌دهد و برای دوام بالا در استقرارهای گسترده هوش مصنوعی طراحی شده است."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet هو هوش مصنوعی پیشرفته‌ترین مدل Anthropic است و همچنین اولین مدل استدلال ترکیبی در بازار به شمار می‌رود. Claude 3.7 Sonnet می‌تواند پاسخ‌های تقریباً آنی یا تفکر تدریجی و طولانی‌تری تولید کند که کاربران می‌توانند این فرآیندها را به وضوح مشاهده کنند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
"description": "Claude 3.7 Sonnet اولین مدل استدلال ترکیبی و هوشمندترین مدل Anthropic تا به امروز است. این مدل عملکرد پیشرفته‌ای در کدنویسی، تولید محتوا، تحلیل داده و برنامه‌ریزی ارائه می‌دهد و بر پایه توانایی‌های مهندسی نرم‌افزار و استفاده از کامپیوتر مدل پیشین خود Claude 3.5 Sonnet ساخته شده است."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 قوی‌ترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک برتری چشمگیری دارد."
"description": "Claude Opus 4 قدرتمندترین مدل Anthropic تا به امروز و بهترین مدل کدنویسی جهان است که در آزمون‌های SWE-bench (72.5%) و Terminal-bench (43.2%) پیشتاز است. این مدل عملکرد مداومی برای وظایف طولانی‌مدت که نیازمند تمرکز و هزاران مرحله هستند ارائه می‌دهد و توانایی‌های نمایندگی هوش مصنوعی را به طور قابل توجهی گسترش می‌دهد."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 جایگزینی plug-and-play برای Opus 4 است که عملکرد و دقت برجسته‌ای در وظایف کدنویسی و نمایندگی واقعی ارائه می‌دهد. Opus 4.1 عملکرد پیشرفته کدنویسی را به 74.5% در SWE-bench Verified ارتقا داده و مسائل چندمرحله‌ای پیچیده را با دقت و توجه بیشتر به جزئیات مدیریت می‌کند."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام به گام طولانی‌مدت تولید کند که کاربران می‌توانند این فرآیندها را به وضوح مشاهده کنند. کاربران API همچنین می‌توانند زمان تفکر مدل را به دقت کنترل کنند."
"description": "Claude Sonnet 4 بهبود قابل توجهی بر توانایی‌های پیشرو در صنعت Sonnet 3.7 دارد و در کدنویسی عملکرد برجسته‌ای با 72.7% در SWE-bench ارائه می‌دهد. این مدل تعادل بین عملکرد و کارایی را حفظ کرده و برای موارد استفاده داخلی و خارجی مناسب است و با کنترل‌پذیری بهبود یافته، کنترل بیشتری بر نتایج فراهم می‌کند."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B یک مدل زبان بزرگ پراکنده با 72 میلیارد پارامتر و 16 میلیارد پارامتر فعال است که بر اساس معماری متخصصان ترکیبی گروه‌بندی شده (MoGE) ساخته شده است. در مرحله انتخاب متخصص، متخصصان به گروه‌هایی تقسیم می‌شوند و توکن‌ها در هر گروه به تعداد مساوی متخصصان فعال می‌شوند تا تعادل بار متخصصان حفظ شود، که به طور قابل توجهی کارایی استقرار مدل را در پلتفرم Ascend افزایش می‌دهد."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ یک مدل بهینه‌سازی شده پیشرفته برای RAG است که برای بارهای کاری سازمانی طراحی شده است."
},
"cohere/command-a": {
"description": "Command A قوی‌ترین مدل Cohere تا به امروز است که در استفاده از ابزارها، نمایندگی، تولید تقویت‌شده با بازیابی (RAG) و موارد چندزبانه عملکرد برجسته‌ای دارد. طول زمینه Command A برابر با 256K است و با تنها دو GPU اجرا می‌شود و نسبت به Command R+ 08-2024، توان عملیاتی 150% افزایش یافته است."
},
"cohere/command-r": {
"description": "Command R یک مدل زبان بزرگ بهینه‌شده برای تعاملات مکالمه‌ای و وظایف با زمینه طولانی است. این مدل در دسته \"قابل مقیاس\" قرار دارد و تعادل بین عملکرد بالا و دقت قوی را برقرار می‌کند تا شرکت‌ها را قادر سازد از مرحله اثبات مفهوم به تولید برسند."
},
"cohere/command-r-plus": {
"description": "Command R+ جدیدترین مدل زبان بزرگ Cohere است که برای تعاملات مکالمه‌ای و وظایف با زمینه طولانی بهینه شده است. هدف آن ارائه عملکرد بسیار برجسته است تا شرکت‌ها بتوانند از مرحله اثبات مفهوم به تولید برسند."
},
"cohere/embed-v4.0": {
"description": "مدلی که امکان دسته‌بندی یا تبدیل متن، تصویر یا محتوای ترکیبی به جاسازی را فراهم می‌کند."
},
"command": {
"description": "یک مدل گفتگوی پیروی از دستور که در وظایف زبانی کیفیت بالاتر و قابلیت اطمینان بیشتری را ارائه می‌دهد و نسبت به مدل‌های تولید پایه ما دارای طول زمینه بیشتری است."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 یک مدل بزرگ استدلال ترکیبی است که از زمینه طولانی 128K و تغییر حالت کارآمد پشتیبانی می‌کند و در فراخوانی ابزارها، تولید کد و وظایف استدلال پیچیده عملکرد و سرعت برجسته‌ای دارد."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
"description": "مدل DeepSeek R1 به‌روزرسانی‌های جزئی دریافت کرده و نسخه فعلی DeepSeek-R1-0528 است. در آخرین به‌روزرسانی، DeepSeek R1 با بهره‌گیری از منابع محاسباتی افزایش‌یافته و مکانیزم‌های بهینه‌سازی الگوریتمی پس از آموزش، عمق و توان استدلال خود را به طور قابل توجهی بهبود بخشیده است. این مدل در ارزیابی‌های معیار مختلف مانند ریاضیات، برنامه‌نویسی و منطق عمومی عملکرد برجسته‌ای دارد و عملکرد کلی آن اکنون به مدل‌های پیشرو مانند O3 و Gemini 2.5 Pro نزدیک شده است."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 با داشتن داده‌های برچسب‌خورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید می‌کند تا دقت پاسخ نهایی را بهبود بخشد."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 با داشتن داده‌های برچسب‌خورده بسیار محدود، توانایی استدلال مدل را به طور چشمگیری افزایش داده است. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره فکری را تولید می‌کند تا دقت پاسخ نهایی را بهبود بخشد."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B یک مدل زبان بزرگ مبتنی بر Llama3.3 70B است که با استفاده از تنظیمات DeepSeek R1 به عملکرد رقابتی معادل مدل‌های پیشرفته بزرگ دست یافته است."
"description": "DeepSeek-R1-Distill-Llama-70B نسخه تقطیر شده و بهینه‌تر مدل 70B Llama است. این مدل در وظایف تولید متن عملکرد قوی خود را حفظ کرده و هزینه محاسباتی را کاهش داده تا استقرار و پژوهش را تسهیل کند. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B یک مدل زبان بزرگ تقطیر شده مبتنی بر Llama-3.1-8B-Instruct است که با استفاده از خروجی DeepSeek R1 آموزش دیده است."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 با وجود داده‌های برچسب‌گذاری شده بسیار کم، توانایی استدلال مدل را به طرز چشمگیری افزایش می‌دهد. قبل از ارائه پاسخ نهایی، مدل ابتدا یک زنجیره تفکر را تولید می‌کند تا دقت پاسخ نهایی را افزایش دهد."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
"description": "مدل زبان بزرگ سریع و عمومی با توان استدلال بهبود یافته."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base نسخه بهبود یافته مدل DeepSeek V3 است."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 در سرعت استدلال به یک پیشرفت عمده نسبت به مدل‌های قبلی دست یافته است. این مدل در بین مدل‌های متن باز رتبه اول را دارد و می‌تواند با پیشرفته‌ترین مدل‌های بسته جهانی رقابت کند. DeepSeek-V3 از معماری توجه چندسر (MLA) و DeepSeekMoE استفاده می‌کند که این معماری‌ها در DeepSeek-V2 به طور کامل تأیید شده‌اند. علاوه بر این، DeepSeek-V3 یک استراتژی کمکی بدون ضرر برای تعادل بار معرفی کرده و اهداف آموزشی پیش‌بینی چند برچسبی را برای بهبود عملکرد تعیین کرده است."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview دارای توانایی‌های پیچیده استدلال است و در زمینه‌های استدلال منطقی، ریاضیات، برنامه‌نویسی و غیره عملکرد عالی دارد."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash ویژگی‌ها و بهبودهای نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده از ابزارهای بومی، تولید چندرسانه‌ای و پنجره متن 1M توکن."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental جدیدترین مدل هوش مصنوعی چندرسانه‌ای آزمایشی گوگل است که نسبت به نسخه‌های قبلی خود بهبود کیفیت قابل توجهی دارد، به ویژه در زمینه دانش جهانی، کد و زمینه‌های طولانی."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite ویژگی‌ها و قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده داخلی از ابزارها، تولید چندرسانه‌ای و پنجره زمینه 1 میلیون توکن."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash پیشرفته‌ترین مدل اصلی گوگل است که به‌طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن امکان می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش دقیق‌تر زمینه ارائه دهد.\n\nتوجه: این مدل دو نسخه دارد: تفکری و غیرتفکری. قیمت‌گذاری خروجی به طور قابل توجهی بسته به فعال بودن قابلیت تفکر متفاوت است. اگر نسخه استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به‌طور صریح از تولید توکن‌های تفکر خودداری می‌کند.\n\nبرای بهره‌مندی از قابلیت تفکر و دریافت توکن‌های تفکر، باید نسخه «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر برای خروجی تفکر می‌شود.\n\nعلاوه بر این، Gemini 2.5 Flash را می‌توان از طریق پارامتر «حداکثر توکن‌های استدلال» پیکربندی کرد، همان‌طور که در مستندات آمده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash یک مدل تفکر است که توانایی‌های جامع برجسته‌ای ارائه می‌دهد. این مدل برای تعادل بین قیمت و عملکرد طراحی شده و از ورودی‌های چندرسانه‌ای و پنجره زمینه 1 میلیون توکن پشتیبانی می‌کند."
},
"google/gemini-2.5-flash-image-preview": {
"description": "مدل آزمایشی Gemini 2.5 Flash با پشتیبانی از تولید تصویر"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite یک مدل متعادل و با تأخیر کم است که بودجه تفکر و اتصال ابزار قابل تنظیم (مانند جستجوی Google و اجرای کد) دارد. این مدل از ورودی‌های چندرسانه‌ای پشتیبانی می‌کند و پنجره زمینه 1 میلیون توکن ارائه می‌دهد."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمت‌گذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکن‌های تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکن‌های تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash می‌تواند از طریق پارامتر «حداکثر تعداد توکن‌های استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash مدل اصلی پیشرفته گوگل است که به طور خاص برای استدلال پیشرفته، کدنویسی، ریاضیات و وظایف علمی طراحی شده است. این مدل دارای قابلیت «تفکر» داخلی است که به آن اجازه می‌دهد پاسخ‌هایی با دقت بالاتر و پردازش زمینه‌ای دقیق‌تری ارائه دهد.\n\nتوجه: این مدل دارای دو واریانت است: تفکر و غیرتفکر. قیمت‌گذاری خروجی بسته به فعال بودن قابلیت تفکر به طور قابل توجهی متفاوت است. اگر شما واریانت استاندارد (بدون پسوند «:thinking») را انتخاب کنید، مدل به وضوح از تولید توکن‌های تفکر اجتناب خواهد کرد.\n\nبرای استفاده از قابلیت تفکر و دریافت توکن‌های تفکر، شما باید واریانت «:thinking» را انتخاب کنید که منجر به قیمت‌گذاری بالاتر خروجی تفکر خواهد شد.\n\nعلاوه بر این، Gemini 2.5 Flash می‌تواند از طریق پارامتر «حداکثر تعداد توکن‌های استدلال» پیکربندی شود، همانطور که در مستندات توضیح داده شده است (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro پیشرفته‌ترین مدل تفکری گوگل است که قادر به استدلال درباره مسائل پیچیده در حوزه کد، ریاضیات و STEM بوده و می‌تواند با استفاده از زمینه طولانی، داده‌های بزرگ، مخازن کد و مستندات را تحلیل کند."
"description": "Gemini 2.5 Pro پیشرفته‌ترین مدل استدلال Gemini ما است که قادر به حل مسائل پیچیده است. این مدل دارای پنجره زمینه 2 میلیون توکن بوده و از ورودی‌های چندرسانه‌ای شامل متن، تصویر، صدا، ویدئو و اسناد PDF پشتیبانی می‌کند."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل فکری گوگل است که قادر به استدلال درباره مسائل پیچیده در زمینه کد، ریاضیات و حوزه‌های STEM بوده و همچنین می‌تواند با استفاده از متن‌های طولانی، مجموعه‌های داده بزرگ، کدها و مستندات را تحلیل کند."
},
"google/gemini-embedding-001": {
"description": "مدل جاسازی پیشرفته با عملکرد برجسته در وظایف زبان انگلیسی، چندزبانه و کد."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash قابلیت پردازش چندوجهی بهینه‌شده را ارائه می‌دهد و برای انواع سناریوهای پیچیده مناسب است."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B یک مدل زبان متن باز از گوگل است که استانداردهای جدیدی را در زمینه کارایی و عملکرد تعیین کرده است."
},
"google/text-embedding-005": {
"description": "مدل جاسازی متن متمرکز بر زبان انگلیسی بهینه شده برای وظایف کد و زبان انگلیسی."
},
"google/text-multilingual-embedding-002": {
"description": "مدل جاسازی متن چندزبانه بهینه شده برای وظایف بین‌زبانی با پشتیبانی از زبان‌های متعدد."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 توربو، مناسب برای انواع وظایف تولید و درک متن، در حال حاضر به gpt-3.5-turbo-0125 اشاره می‌کند"
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "نسخه اولترا سری مدل متن به تصویر نسل چهارم Imagen"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small انتخاب ایده‌آل برای تولید، اشکال‌زدایی و بازسازی کد با کمترین تأخیر است."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 یک مدل زبان بزرگ کوچک‌حجم و با عملکرد بالا مبتنی بر معماری MoE است. این مدل دارای ۱۶ میلیارد پارامتر کل است، اما برای هر توکن تنها ۱.۴ میلیارد پارامتر فعال (بدون در نظر گرفتن تعبیه ۷۸۹ میلیون) فعال می‌شود، که منجر به سرعت تولید بسیار بالا می‌شود. به لطف طراحی کارآمد MoE و داده‌های آموزشی بزرگ و با کیفیت، با وجود پارامترهای فعال تنها ۱.۴ میلیارد، Ling-mini-2.0 در وظایف پایین‌دستی عملکردی در حد مدل‌های LLM متراکم زیر ۱۰ میلیارد و مدل‌های MoE بزرگ‌تر ارائه می‌دهد."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "مدل متنی تنظیم شده برای دستورالعمل Llama 3.1 که برای موارد استفاده گفتگوهای چندزبانه بهینه شده و در بسیاری از مدل‌های چت متن‌باز و بسته موجود، در معیارهای صنعتی رایج عملکرد برجسته‌ای دارد."
},
"meta/llama-3-70b": {
"description": "مدل متن‌باز 70 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعمل‌ها به دقت تنظیم شده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
},
"meta/llama-3-8b": {
"description": "مدل متن‌باز 8 میلیارد پارامتری که توسط Meta برای پیروی از دستورالعمل‌ها به دقت تنظیم شده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
},
"meta/llama-3.1-405b-instruct": {
"description": "مدل LLM پیشرفته که از تولید داده‌های ترکیبی، تقطیر دانش و استدلال پشتیبانی می‌کند و برای ربات‌های چت، برنامه‌نویسی و وظایف خاص مناسب است."
},
"meta/llama-3.1-70b": {
"description": "نسخه به‌روزشده Meta Llama 3 70B Instruct با طول زمینه 128K گسترش یافته، چندزبانه و توان استدلال بهبود یافته."
},
"meta/llama-3.1-70b-instruct": {
"description": "توانمندسازی گفتگوهای پیچیده با درک زمینه‌ای عالی، توانایی استدلال و قابلیت تولید متن."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B از پنجره زمینه 128K پشتیبانی می‌کند که آن را برای رابط‌های گفتگوی بلادرنگ و تحلیل داده ایده‌آل می‌سازد و در عین حال صرفه‌جویی قابل توجهی در هزینه نسبت به مدل‌های بزرگ‌تر ارائه می‌دهد. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
},
"meta/llama-3.1-8b-instruct": {
"description": "مدل پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-11b": {
"description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
},
"meta/llama-3.2-1b": {
"description": "مدل فقط متنی که از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصه‌سازی و بازنویسی پشتیبانی می‌کند."
},
"meta/llama-3.2-1b-instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-3b": {
"description": "مدل فقط متنی که به دقت برای پشتیبانی از موارد استفاده روی دستگاه مانند بازیابی دانش محلی چندزبانه، خلاصه‌سازی و بازنویسی تنظیم شده است."
},
"meta/llama-3.2-3b-instruct": {
"description": "مدل زبان کوچک پیشرفته و پیشرفته که دارای درک زبان، توانایی استدلال عالی و قابلیت تولید متن است."
},
"meta/llama-3.2-90b": {
"description": "مدل تولید استدلال تصویری تنظیم شده با دستورالعمل (ورودی متن + تصویر / خروجی متن) که برای شناسایی بصری، استدلال تصویری، تولید عنوان و پاسخ به سوالات عمومی درباره تصاویر بهینه شده است."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "مدل بینایی-زبان پیشرفته که در استدلال با کیفیت بالا از تصاویر مهارت دارد."
},
"meta/llama-3.3-70b": {
"description": "ترکیب کامل عملکرد و کارایی. این مدل از گفتگوی هوش مصنوعی با عملکرد بالا پشتیبانی می‌کند و برای ایجاد محتوا، برنامه‌های شرکتی و پژوهش طراحی شده است و توانایی‌های پیشرفته درک زبان از جمله خلاصه‌سازی متن، دسته‌بندی، تحلیل احساسات و تولید کد را ارائه می‌دهد."
},
"meta/llama-3.3-70b-instruct": {
"description": "مدل LLM پیشرفته که در استدلال، ریاضیات، دانش عمومی و فراخوانی توابع مهارت دارد."
},
"meta/llama-4-maverick": {
"description": "مجموعه مدل‌های Llama 4 مدل‌های هوش مصنوعی چندرسانه‌ای بومی هستند که از تجربه‌های متنی و چندرسانه‌ای پشتیبانی می‌کنند. این مدل‌ها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه می‌دهند. Llama 4 Maverick، مدلی با 17 میلیارد پارامتر و 128 متخصص است. توسط DeepInfra ارائه می‌شود."
},
"meta/llama-4-scout": {
"description": "مجموعه مدل‌های Llama 4 مدل‌های هوش مصنوعی چندرسانه‌ای بومی هستند که از تجربه‌های متنی و چندرسانه‌ای پشتیبانی می‌کنند. این مدل‌ها با استفاده از معماری متخصص ترکیبی عملکرد پیشرو در صنعت در درک متن و تصویر ارائه می‌دهند. Llama 4 Scout، مدلی با 17 میلیارد پارامتر و 16 متخصص است. توسط DeepInfra ارائه می‌شود."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "همان مدل Phi-3-medium با اندازه زمینه بزرگ‌تر، مناسب برای RAG یا تعداد کمی از پرامپت‌ها."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small یک گزینه مقرون‌به‌صرفه، سریع و قابل‌اعتماد است که برای موارد استفاده‌ای مانند ترجمه، خلاصه‌سازی و تحلیل احساسات مناسب است."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 مدل کدنویسی پیشرفته‌ای است که برای موارد استفاده با تأخیر کم و فرکانس بالا بهینه شده است. این مدل به بیش از 80 زبان برنامه‌نویسی مسلط است و در وظایفی مانند پر کردن میانی (FIM)، اصلاح کد و تولید تست عملکرد برجسته‌ای دارد."
},
"mistral/codestral-embed": {
"description": "مدل جاسازی کد که می‌تواند در پایگاه‌های داده و مخازن کد جاسازی شود تا از دستیارهای کدنویسی پشتیبانی کند."
},
"mistral/devstral-small": {
"description": "Devstral یک مدل زبان بزرگ نمایندگی برای وظایف مهندسی نرم‌افزار است که آن را به انتخابی عالی برای نمایندگان مهندسی نرم‌افزار تبدیل می‌کند."
},
"mistral/magistral-medium": {
"description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه می‌دهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبان‌های متعدد حفظ می‌کند."
},
"mistral/magistral-small": {
"description": "تفکر پیچیده با درک عمیق که استدلال شفاف قابل پیگیری و تأیید را ارائه می‌دهد. این مدل حتی هنگام تغییر زبان در میانه وظیفه، استدلال با وفاداری بالا را در زبان‌های متعدد حفظ می‌کند."
},
"mistral/ministral-3b": {
"description": "مدلی جمع‌وجور و کارآمد برای وظایف روی دستگاه مانند دستیار هوشمند و تحلیل محلی که عملکرد با تأخیر کم ارائه می‌دهد."
},
"mistral/ministral-8b": {
"description": "مدلی قدرتمندتر با استدلال سریع‌تر و بهینه‌تر از نظر حافظه که برای جریان‌های کاری پیچیده و برنامه‌های لبه‌ای با نیازهای بالا ایده‌آل است."
},
"mistral/mistral-embed": {
"description": "مدل جاسازی متن عمومی برای جستجوی معنایی، تشابه، خوشه‌بندی و جریان‌های کاری RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large انتخاب ایده‌آل برای وظایف پیچیده است که نیازمند توان استدلال بزرگ یا تخصص بالا هستند — مانند تولید متن ترکیبی، تولید کد، RAG یا نمایندگی."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B مدل متن‌باز 24 میلیارد پارامتری توسعه یافته توسط Mistral.ai است. Saba مدلی تخصصی است که برای عملکرد برجسته در زبان‌های عربی، فارسی، اردو، عبری و زبان‌های هندی آموزش دیده است. توسط Groq با استفاده از سخت‌افزار واحد پردازش زبان سفارشی (LPU) ارائه می‌شود تا استدلال سریع و کارآمد فراهم کند."
},
"mistral/mistral-small": {
"description": "Mistral Small انتخاب ایده‌آل برای وظایف ساده‌ای است که می‌توانند به صورت دسته‌ای انجام شوند — مانند دسته‌بندی، پشتیبانی مشتری یا تولید متن. این مدل عملکرد عالی را با قیمت مقرون‌به‌صرفه ارائه می‌دهد."
},
"mistral/mixtral-8x22b-instruct": {
"description": "مدل 8x22b Instruct. 8x22b مدل متن‌باز متخصص ترکیبی است که توسط Mistral ارائه می‌شود."
},
"mistral/pixtral-12b": {
"description": "مدل 12 میلیارد پارامتری با توانایی درک تصویر و متن."
},
"mistral/pixtral-large": {
"description": "Pixtral Large دومین مدل خانواده چندرسانه‌ای ما است که سطح پیشرفته‌ای از درک تصویر را نشان می‌دهد. به طور خاص، این مدل قادر به درک اسناد، نمودارها و تصاویر طبیعی است و در عین حال توانایی پیشرو در درک متن مدل Mistral Large 2 را حفظ می‌کند."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct به دلیل عملکرد بالا شناخته شده است و برای وظایف مختلف زبانی مناسب است."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل یک مدل زبان برتر با معماری متخصص ترکیبی (MoE) است که دارای ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال می‌باشد. ویژگی‌های اصلی این مدل شامل: هوش کدگذاری عامل بهبود یافته که در آزمون‌های معیار عمومی و وظایف واقعی کدگذاری عامل عملکرد قابل توجهی نشان می‌دهد؛ تجربه کدگذاری فرانت‌اند بهبود یافته که از نظر زیبایی و کاربردی بودن برنامه‌نویسی فرانت‌اند پیشرفت داشته است."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 مدل زبان بزرگ متخصص ترکیبی (MoE) با مقیاس بزرگ توسعه یافته توسط Moonshot AI است که دارای 1 تریلیون پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است. این مدل برای توانایی نمایندگی بهینه شده است، از جمله استفاده پیشرفته از ابزارها، استدلال و ترکیب کد."
},
"moonshotai/kimi-k2-0905": {
"description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "مدل پیش‌نمایش kimi-k2-0905 دارای طول متن ۲۵۶ هزار توکنی است و توانایی‌های قوی‌تری در برنامه‌نویسی عامل‌محور، زیبایی و کاربردی بودن کدهای فرانت‌اند و درک بهتر متن دارد."
},
"morph/morph-v3-fast": {
"description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدل‌های پیشرفته مانند Claude یا GPT-4o را به فایل‌های کد موجود شما به سرعت اعمال می‌کند — بیش از 4500 توکن در ثانیه. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل می‌کند و از ورودی و خروجی 16k توکن پشتیبانی می‌کند."
},
"morph/morph-v3-large": {
"description": "Morph مدل هوش مصنوعی تخصصی است که تغییرات کد پیشنهادی مدل‌های پیشرفته مانند Claude یا GPT-4o را به فایل‌های کد موجود شما با سرعت بیش از 2500 توکن در ثانیه اعمال می‌کند. این مدل به عنوان مرحله نهایی در جریان کاری کدنویسی هوش مصنوعی عمل می‌کند و از ورودی و خروجی 16k توکن پشتیبانی می‌کند."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "هرمس ۲ پرو لاما ۳ ۸B نسخه ارتقاء یافته Nous Hermes 2 است که شامل جدیدترین مجموعه داده‌های توسعه‌یافته داخلی می‌باشد."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B یک مدل متخصص پراکنده است که با استفاده از پارامترهای متعدد سرعت استنتاج را افزایش می‌دهد و برای پردازش وظایف چندزبانه و تولید کد مناسب است."
},
"openai/gpt-3.5-turbo": {
"description": "توانمندترین و مقرون‌به‌صرفه‌ترین مدل در سری GPT-3.5 از OpenAI که برای اهداف مکالمه بهینه شده است، اما در وظایف تکمیل سنتی نیز عملکرد خوبی دارد."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "توانایی مشابه مدل‌های دوره GPT-3. با نقاط انتهایی تکمیل سنتی سازگار است، نه نقاط انتهایی تکمیل مکالمه."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo از OpenAI دانش عمومی گسترده و تخصص حوزه‌ای دارد که آن را قادر می‌سازد دستورالعمل‌های پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. تاریخ قطع دانش آن آوریل 2023 است و پنجره زمینه آن 128,000 توکن است."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 پرچمدار مدل‌های ما برای وظایف پیچیده است. این مدل برای حل مسائل بین‌رشته‌ای بسیار مناسب است."
"description": "GPT 4.1 مدل پرچمدار OpenAI برای وظایف پیچیده است. این مدل برای حل مسائل چندرشته‌ای بسیار مناسب است."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini تعادلی بین هوش، سرعت و هزینه ارائه می‌دهد و آن را به مدلی جذاب در بسیاری از موارد استفاده تبدیل می‌کند."
"description": "GPT 4.1 mini تعادل بین هوشمندی، سرعت و هزینه را برقرار می‌کند و آن را به مدلی جذاب برای بسیاری از موارد استفاده تبدیل می‌کند."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano سریع‌ترین و مقرون به صرفه‌ترین مدل GPT-4.1 است."
"description": "GPT-4.1 nano سریع‌ترین و مقرون‌به‌صرفه‌ترین مدل GPT 4.1 است."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o یک مدل پویا است که به‌صورت زنده به‌روزرسانی می‌شود تا همیشه نسخه‌ی جدید و به‌روز باشد. این مدل ترکیبی از توانایی‌های قدرتمند درک و تولید زبان را ارائه می‌دهد و برای کاربردهای گسترده مانند خدمات مشتری، آموزش و پشتیبانی فنی مناسب است."
"description": "GPT-4o از OpenAI دانش عمومی گسترده و تخصص حوزه‌ای دارد که آن را قادر می‌سازد دستورالعمل‌های پیچیده زبان طبیعی را دنبال کرده و مسائل دشوار را با دقت حل کند. این مدل عملکرد GPT-4 Turbo را با API سریع‌تر و ارزان‌تر ارائه می‌دهد."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini جدیدترین مدل OpenAI است که پس از GPT-4 Omni عرضه شده و از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد. به عنوان پیشرفته‌ترین مدل کوچک آن‌ها، این مدل بسیار ارزان‌تر از سایر مدل‌های پیشرفته اخیر است و بیش از ۶۰٪ ارزان‌تر از GPT-3.5 Turbo می‌باشد. این مدل هوشمندی پیشرفته را حفظ کرده و در عین حال از نظر اقتصادی بسیار مقرون به صرفه است. GPT-4o mini در آزمون MMLU امتیاز ۸۲٪ را کسب کرده و در حال حاضر در ترجیحات چت بالاتر از GPT-4 رتبه‌بندی شده است."
"description": "GPT-4o mini از OpenAI کوچک‌ترین مدل پیشرفته و مقرون‌به‌صرفه آن‌ها است. این مدل چندرسانه‌ای است (ورودی متن یا تصویر را می‌پذیرد و خروجی متن ارائه می‌دهد) و هوشمندتر از gpt-3.5-turbo است، اما سرعت مشابهی دارد."
},
"openai/gpt-5": {
"description": "GPT-5 مدل زبان پرچمدار OpenAI است که در استدلال پیچیده، دانش گسترده دنیای واقعی، وظایف کدمحور و نمایندگی چندمرحله‌ای عملکرد برجسته‌ای دارد."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini مدلی بهینه‌شده از نظر هزینه است که در وظایف استدلال/مکالمه عملکرد خوبی دارد. این مدل تعادل بهینه‌ای بین سرعت، هزینه و توانایی ارائه می‌دهد."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano مدلی با توان عملیاتی بالا است که در وظایف دستورالعمل ساده یا دسته‌بندی عملکرد خوبی دارد."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B یک مدل زبان پیشرفته با 120 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
"description": "مدل زبان بزرگ عمومی بسیار توانمند با توان استدلال قوی و قابل کنترل."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B یک مدل زبان پیشرفته با 20 میلیارد پارامتر است که دارای قابلیت جستجوی مرورگر و اجرای کد می‌باشد و توانایی استدلال دارد."
"description": "مدل زبان جمع‌وجور با وزن‌های متن‌باز که برای تأخیر کم و محیط‌های محدود منابع بهینه شده است، شامل استقرار محلی و لبه."
},
"openai/o1": {
"description": "o1 مدل استدلال جدید OpenAI است که از ورودی‌های تصویری و متنی پشتیبانی می‌کند و خروجی متنی ارائه می‌دهد، مناسب برای وظایف پیچیده‌ای که نیاز به دانش عمومی گسترده دارند. این مدل دارای زمینه ۲۰۰ هزار توکنی و تاریخ قطع دانش در اکتبر ۲۰۲۳ است."
"description": "o1 از OpenAI مدل استدلال پرچمدار است که برای مسائل پیچیده نیازمند تفکر عمیق طراحی شده است. این مدل توان استدلال قوی و دقت بالاتری برای وظایف چندمرحله‌ای پیچیده ارائه می‌دهد."
},
"openai/o1-mini": {
"description": "o1-mini یک مدل استنتاج سریع و مقرون‌به‌صرفه است که برای برنامه‌نویسی، ریاضیات و کاربردهای علمی طراحی شده است. این مدل دارای ۱۲۸ هزار بایت زمینه و تاریخ قطع دانش تا اکتبر ۲۰۲۳ می‌باشد."
@ -2325,23 +2493,44 @@
"description": "o1 مدل جدید استنتاج OpenAI است که برای وظایف پیچیده‌ای که به دانش عمومی گسترده نیاز دارند، مناسب است. این مدل دارای 128K زمینه و تاریخ قطع دانش تا اکتبر 2023 است."
},
"openai/o3": {
"description": "o3 یک مدل قدرتمند و چندمنظوره است که در زمینه‌های مختلف عملکرد عالی دارد. این مدل استانداردهای جدیدی را برای وظایف ریاضی، علمی، برنامه‌نویسی و استدلال بصری تعیین کرده است. همچنین در نوشتن فنی و پیروی از دستورالعمل‌ها مهارت دارد. کاربران می‌توانند از آن برای تحلیل متن، کد و تصویر و حل مسائل پیچیده چند مرحله‌ای استفاده کنند."
"description": "o3 از OpenAI قدرتمندترین مدل استدلال است که سطوح پیشرفته جدیدی در کدنویسی، ریاضیات، علوم و درک بصری ایجاد کرده است. این مدل در پرسش‌های پیچیده که نیازمند تحلیل چندجانبه هستند مهارت دارد و در تحلیل تصاویر، نمودارها و گراف‌ها برتری خاصی دارد."
},
"openai/o3-mini": {
"description": "o3-mini هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه می‌دهد."
"description": "o3-mini جدیدترین مدل استدلال کوچک OpenAI است که هوشمندی بالایی را با همان اهداف هزینه و تأخیر o1-mini ارائه می‌دهد."
},
"openai/o3-mini-high": {
"description": "نسخه o3-mini با سطح استدلال بالا، هوش بالایی را در همان هزینه و هدف تأخیر o1-mini ارائه می‌دهد."
},
"openai/o4-mini": {
"description": "o4-mini به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
"description": "o4-mini از OpenAI استدلال سریع و مقرون‌به‌صرفه ارائه می‌دهد و در اندازه خود عملکرد برجسته‌ای دارد، به ویژه در ریاضیات (بهترین عملکرد در آزمون AIME)، کدنویسی و وظایف بصری."
},
"openai/o4-mini-high": {
"description": "نسخه با سطح استدلال بالا o4-mini، که به‌طور خاص برای استدلال سریع و مؤثر بهینه‌سازی شده و در وظایف کدنویسی و بصری عملکرد بسیار بالایی دارد."
},
"openai/text-embedding-3-large": {
"description": "توانمندترین مدل جاسازی OpenAI برای وظایف انگلیسی و غیرانگلیسی."
},
"openai/text-embedding-3-small": {
"description": "نسخه بهبود یافته و با عملکرد بالاتر مدل جاسازی ada از OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "مدل جاسازی متن سنتی OpenAI."
},
"openrouter/auto": {
"description": "با توجه به طول متن، موضوع و پیچیدگی، درخواست شما به Llama 3 70B Instruct، Claude 3.5 Sonnet (تنظیم خودکار) یا GPT-4o ارسال خواهد شد."
},
"perplexity/sonar": {
"description": "محصول سبک Perplexity با قابلیت جستجوی مبتنی بر زمینه، سریع‌تر و ارزان‌تر از Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "محصول پرچمدار Perplexity با قابلیت جستجوی مبتنی بر زمینه که از پرسش‌های پیشرفته و عملیات پیگیری پشتیبانی می‌کند."
},
"perplexity/sonar-reasoning": {
"description": "مدلی متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخ‌ها ارائه می‌دهد و توضیحات مفصل با جستجوی مبتنی بر زمینه فراهم می‌کند."
},
"perplexity/sonar-reasoning-pro": {
"description": "مدل پیشرفته متمرکز بر استدلال که زنجیره تفکر (CoT) را در پاسخ‌ها ارائه می‌دهد و توضیحات جامع با قابلیت جستجوی پیشرفته و چندین پرس‌وجوی جستجو برای هر درخواست فراهم می‌کند."
},
"phi3": {
"description": "Phi-3 یک مدل سبک و باز از مایکروسافت است که برای یکپارچه‌سازی کارآمد و استدلال دانش در مقیاس بزرگ مناسب است."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "مدل v0-1.5-md برای وظایف روزمره و تولید رابط کاربری (UI) مناسب است"
},
"vercel/v0-1.0-md": {
"description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینه‌سازی برنامه‌های وب مدرن با استدلال چارچوب خاص و دانش به‌روز."
},
"vercel/v0-1.5-md": {
"description": "دسترسی به مدل پشت v0 برای تولید، رفع اشکال و بهینه‌سازی برنامه‌های وب مدرن با استدلال چارچوب خاص و دانش به‌روز."
},
"wan2.2-t2i-flash": {
"description": "نسخه سریع Wanxiang 2.2، جدیدترین مدل فعلی. در خلاقیت، پایداری و واقع‌گرایی به طور کامل ارتقا یافته، سرعت تولید بالا و نسبت قیمت به کیفیت عالی دارد."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "مدل Spark X1 به‌زودی ارتقا خواهد یافت و در زمینه وظایف ریاضی که در کشور پیشرو است، عملکردهای استدلال، تولید متن و درک زبان را با OpenAI o1 و DeepSeek R1 مقایسه خواهد کرد."
},
"xai/grok-2": {
"description": "Grok 2 مدل زبان پیشرفته با توان استدلال پیشرفته است. این مدل در مکالمه، کدنویسی و استدلال توانایی‌های پیشرفته دارد و در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4-Turbo قرار دارد."
},
"xai/grok-2-vision": {
"description": "مدل بصری Grok 2 در وظایف مبتنی بر دید عملکرد برجسته‌ای دارد و در استدلال ریاضی بصری (MathVista) و پرسش و پاسخ مبتنی بر سند (DocVQA) عملکرد پیشرفته ارائه می‌دهد. این مدل قادر به پردازش انواع اطلاعات بصری از جمله اسناد، نمودارها، جداول، اسکرین‌شات‌ها و عکس‌ها است."
},
"xai/grok-3": {
"description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصه‌سازی متن عملکرد برجسته‌ای دارد. دارای دانش عمیق حوزه در مالی، مراقبت‌های بهداشتی، حقوقی و علوم است."
},
"xai/grok-3-fast": {
"description": "مدل پرچمدار xAI که در موارد استفاده شرکتی مانند استخراج داده، کدنویسی و خلاصه‌سازی متن عملکرد برجسته‌ای دارد. نسخه سریع‌تر مدل روی زیرساخت سریع‌تر ارائه می‌شود و زمان پاسخ بسیار کوتاه‌تری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
},
"xai/grok-3-mini": {
"description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر می‌کند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است."
},
"xai/grok-3-mini-fast": {
"description": "مدل سبک وزن xAI که قبل از پاسخ دادن تفکر می‌کند. برای وظایف ساده یا مبتنی بر منطق که نیاز به دانش عمیق حوزه ندارند بسیار مناسب است. مسیر تفکر خام قابل دسترسی است. نسخه سریع‌تر مدل روی زیرساخت سریع‌تر ارائه می‌شود و زمان پاسخ بسیار کوتاه‌تری دارد. افزایش سرعت با هزینه بالاتر به ازای هر توکن خروجی همراه است."
},
"xai/grok-4": {
"description": "جدیدترین و بزرگ‌ترین مدل پرچمدار xAI که عملکرد بی‌نظیری در زبان طبیعی، ریاضیات و استدلال ارائه می‌دهد — انتخابی کامل و همه‌کاره."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 نسخه‌ی به‌روزرسانی شده‌ی Yi است. این مدل با استفاده از یک مجموعه داده با کیفیت بالا شامل 500 میلیارد توکن برای پیش‌آموزی و 3 میلیون نمونه متنوع برای آموزش ریزی مجدداً آموزش داده شده است."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V نسل جدیدی از مدل‌های زبان-بینایی (VLM) است که توسط Zhipu AI (智谱 AI) منتشر شده. این مدل بر پایهٔ مدل متنی پرچم‌دار GLM-4.5-Air ساخته شده که دارای 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعال‌سازی است؛ از معماری متخصصان ترکیبی (MoE) بهره می‌برد و هدفش ارائهٔ عملکرد برجسته با هزینهٔ استدلال کمتر است. از منظر فناوری، GLM-4.5V راهبرد GLM-4.1V-Thinking را ادامه می‌دهد و نوآوری‌هایی مانند کدگذاری موقعیت چرخشی سه‌بعدی (3D-RoPE) را معرفی کرده که به‌طور چشمگیری درک و استدلال نسبت‌های فضایی سه‌بعدی را تقویت می‌کند. با بهینه‌سازی در مراحل پیش‌آموزش، ریزتنظیم نظارتی و یادگیری تقویتی، این مدل قادر به پردازش انواع محتواهای بصری از جمله تصویر، ویدیو و اسناد بلند شده و در 41 معیار چندوجهی عمومی به سطح برتر مدل‌های متن‌باز هم‌رده دست یافته است. علاوه بر این، یک سوئیچ «حالت تفکر» به مدل افزوده شده که به کاربران اجازه می‌دهد بین پاسخ‌دهی سریع و استدلال عمیق به‌صورت انعطاف‌پذیر انتخاب کنند تا تعادل بین کارایی و کیفیت برقرار شود."
},
"zai/glm-4.5": {
"description": "مجموعه مدل‌های GLM-4.5 مدل‌های پایه طراحی شده برای نمایندگان هوشمند هستند. مدل پرچمدار GLM-4.5 با 355 میلیارد پارامتر کل (32 میلیارد فعال) یکپارچه‌سازی استدلال، کدنویسی و توانایی‌های نمایندگی را برای حل نیازهای پیچیده برنامه‌ها ارائه می‌دهد. به عنوان یک سیستم استدلال ترکیبی، دو حالت عملیاتی دارد."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 و GLM-4.5-Air مدل‌های پرچمدار جدید ما هستند که به عنوان مدل‌های پایه برای برنامه‌های نمایندگی طراحی شده‌اند. هر دو از معماری متخصص ترکیبی (MoE) بهره می‌برند. GLM-4.5 دارای 355 میلیارد پارامتر کل و 32 میلیارد پارامتر فعال در هر عبور جلو است، در حالی که GLM-4.5-Air طراحی ساده‌تری دارد با 106 میلیارد پارامتر کل و 12 میلیارد پارامتر فعال."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V بر پایه مدل پایه GLM-4.5-Air ساخته شده است، فناوری اثبات شده GLM-4.1V-Thinking را به ارث برده و در عین حال با معماری قدرتمند MoE با 106 میلیارد پارامتر به طور مؤثر مقیاس‌پذیر شده است."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 یک دستیار برنامه‌نویسی جفتی است که تنها با توصیف ایده‌ها به زبان طبیعی، می‌تواند کد و رابط کاربری (UI) را برای پروژه شما تولید کند"
},
"vercelaigateway": {
"description": "دروازه هوش مصنوعی Vercel یک API یکپارچه برای دسترسی به بیش از ۱۰۰ مدل ارائه می‌دهد که از طریق یک نقطه انتهایی واحد می‌توان از مدل‌های ارائه‌دهندگان مختلفی مانند OpenAI، Anthropic، Google و غیره استفاده کرد. این سرویس از تنظیم بودجه، نظارت بر استفاده، تعادل بار درخواست‌ها و انتقال خطا پشتیبانی می‌کند."
},
"vertexai": {
"description": "سری Gemini گوگل پیشرفته‌ترین و عمومی‌ترین مدل‌های هوش مصنوعی است که توسط Google DeepMind طراحی شده و به‌طور خاص برای چندرسانه‌ای طراحی شده است و از درک و پردازش بی‌وقفه متن، کد، تصویر، صدا و ویدیو پشتیبانی می‌کند. این مدل‌ها برای محیط‌های مختلف از مراکز داده تا دستگاه‌های همراه مناسب هستند و به‌طور قابل توجهی کارایی و کاربردهای مدل‌های هوش مصنوعی را افزایش می‌دهند."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Un modèle multilingue de 52 milliards de paramètres (12 milliards actifs), offrant une fenêtre contextuelle longue de 256K, des appels de fonctions, une sortie structurée et une génération factuelle."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 est la dernière génération de grands modèles de langage de la série Qwen, offrant un ensemble complet de modèles experts denses et hybrides (MoE). Basé sur un entraînement étendu, Qwen3 réalise des avancées majeures en matière de raisonnement, de suivi des instructions, de capacités d'agent et de support multilingue."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct est le modèle de code le plus agentif de Qwen, avec des performances remarquables en codage agent, utilisation d'agents navigateurs et autres tâches de codage fondamentales, atteignant des résultats comparables à Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Un modèle multimodal à très faible coût, traitant les entrées d'images, vidéos et textes à une vitesse extrêmement rapide."
},
"amazon/nova-micro": {
"description": "Un modèle uniquement textuel offrant des réponses à latence minimale à très faible coût."
},
"amazon/nova-pro": {
"description": "Un modèle multimodal très performant, offrant le meilleur compromis entre précision, vitesse et coût, adapté à une large gamme de tâches."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 est un modèle d'embedding multilingue léger et efficace, supportant des dimensions de 1024, 512 et 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet élève les normes de l'industrie, surpassant les modèles concurrents et Claude 3 Opus, avec d'excellentes performances dans une large gamme d'évaluations, tout en offrant la vitesse et le coût de nos modèles de niveau intermédiaire."
},
@ -627,25 +654,28 @@
"description": "Version mise à jour de Claude 2, avec une fenêtre contextuelle doublée, ainsi que des améliorations en fiabilité, taux d'hallucination et précision basée sur des preuves dans des documents longs et des contextes RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact d'Anthropic, conçu pour offrir des réponses quasi instantanées. Il présente des performances directionnelles rapides et précises."
"description": "Claude 3 Haiku est le modèle le plus rapide d'Anthropic à ce jour, conçu pour les charges de travail d'entreprise impliquant généralement des invites longues. Haiku peut analyser rapidement de nombreux documents, tels que rapports trimestriels, contrats ou dossiers juridiques, à un coût moitié moindre que d'autres modèles de sa catégorie."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en termes de performance, d'intelligence, de fluidité et de compréhension."
"description": "Claude 3 Opus est le modèle le plus intelligent d'Anthropic, offrant des performances de pointe sur des tâches très complexes. Il maîtrise avec fluidité et compréhension humaine les invites ouvertes et les scénarios inédits."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku est le modèle de nouvelle génération le plus rapide d'Anthropic. Par rapport à Claude 3 Haiku, Claude 3.5 Haiku présente des améliorations dans toutes les compétences et surpasse le plus grand modèle de la génération précédente, Claude 3 Opus, dans de nombreux tests de référence intellectuels."
"description": "Claude 3.5 Haiku est la nouvelle génération de notre modèle le plus rapide. Avec une vitesse comparable à Claude 3 Haiku, il améliore chaque compétence et dépasse dans de nombreux benchmarks intelligents notre plus grand modèle précédent, Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet offre des capacités supérieures à celles d'Opus et une vitesse plus rapide que Sonnet, tout en maintenant le même prix que Sonnet. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
"description": "Claude 3.5 Sonnet atteint un équilibre idéal entre intelligence et vitesse, particulièrement adapté aux charges de travail d'entreprise. Par rapport à ses pairs, il offre des performances puissantes à moindre coût, conçu pour une haute durabilité dans les déploiements d'IA à grande échelle."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic à ce jour, et le premier modèle de raisonnement hybride sur le marché. Claude 3.7 Sonnet peut produire des réponses quasi instantanées ou un raisonnement prolongé, permettant aux utilisateurs de voir clairement ces processus. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
"description": "Claude 3.7 Sonnet est le premier modèle hybride de raisonnement et le plus intelligent d'Anthropic à ce jour. Il offre des performances de pointe en codage, génération de contenu, analyse de données et planification, s'appuyant sur les capacités en ingénierie logicielle et informatique de son prédécesseur Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
"description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic et le meilleur modèle de codage au monde, en tête sur SWE-bench (72,5 %) et Terminal-bench (43,2 %). Il assure des performances durables pour des tâches longues nécessitant concentration et milliers d'étapes, capable de fonctionner plusieurs heures d'affilée, étendant significativement les capacités des agents IA."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 est une alternative plug-and-play à Opus 4, offrant des performances et une précision exceptionnelles pour les tâches de codage et d'agent. Il porte la performance de codage à 74,5 % sur SWE-bench Verified, traitant les problèmes complexes à plusieurs étapes avec rigueur et souci du détail accrus."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou des réflexions prolongées étape par étape, que l'utilisateur peut suivre clairement. Les utilisateurs de l'API peuvent également contrôler précisément la durée de réflexion du modèle."
"description": "Claude Sonnet 4 améliore significativement les capacités de Sonnet 3.7, excelle en codage avec un score de pointe de 72,7 % sur SWE-bench. Ce modèle équilibre performance et efficacité, adapté aux cas d'usage internes et externes, avec un contrôle accru grâce à une meilleure contrôlabilité."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B est un grand modèle de langage sparse à 72 milliards de paramètres, avec 16 milliards de paramètres activés. Il repose sur une architecture Mixture of Experts groupée (MoGE), qui regroupe les experts lors de la sélection et contraint chaque token à activer un nombre égal d'experts dans chaque groupe, assurant ainsi un équilibre de charge entre les experts et améliorant considérablement l'efficacité de déploiement sur la plateforme Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ est un modèle optimisé RAG de pointe, conçu pour gérer des charges de travail d'entreprise."
},
"cohere/command-a": {
"description": "Command A est le modèle le plus performant de Cohere à ce jour, excellent dans l'utilisation d'outils, les agents, la génération augmentée par récupération (RAG) et les cas multilingues. Avec une longueur de contexte de 256K, il fonctionne sur seulement deux GPU, offrant un débit 150 % supérieur à Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R est un grand modèle de langage optimisé pour les interactions conversationnelles et les tâches à long contexte. Il se positionne dans la catégorie \"scalable\", équilibrant haute performance et forte précision, permettant aux entreprises de dépasser la preuve de concept pour la production."
},
"cohere/command-r-plus": {
"description": "Command R+ est le dernier grand modèle de langage de Cohere, optimisé pour les interactions conversationnelles et les tâches à long contexte. Il vise une performance exceptionnelle, permettant aux entreprises de passer de la preuve de concept à la production."
},
"cohere/embed-v4.0": {
"description": "Un modèle permettant de classifier ou de transformer en embeddings des textes, images ou contenus mixtes."
},
"command": {
"description": "Un modèle de dialogue qui suit des instructions, offrant une haute qualité et une fiabilité accrue dans les tâches linguistiques, avec une longueur de contexte plus longue que notre modèle de génération de base."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 est un grand modèle d'inférence hybride supportant un contexte long de 128K et un changement de mode efficace, offrant des performances et une rapidité exceptionnelles dans l'appel d'outils, la génération de code et les tâches de raisonnement complexes."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
"description": "Le modèle DeepSeek R1 a bénéficié d'une mise à jour mineure, version actuelle DeepSeek-R1-0528. Cette mise à jour améliore significativement la profondeur et la capacité de raisonnement grâce à des ressources de calcul accrues et des optimisations algorithmiques post-entraînement. Il excelle dans plusieurs benchmarks en mathématiques, programmation et logique générale, approchant les performances des modèles leaders comme O3 et Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère une chaîne de pensée pour améliorer la précision de la réponse."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B est un modèle de langage de grande taille basé sur Llama3.3 70B, qui utilise le fine-tuning des sorties de DeepSeek R1 pour atteindre des performances compétitives comparables aux grands modèles de pointe."
"description": "DeepSeek-R1-Distill-Llama-70B est une variante distillée et plus efficace du modèle Llama 70B. Il conserve de solides performances en génération de texte tout en réduisant les coûts de calcul pour faciliter le déploiement et la recherche. Il est servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B est un modèle de langage distillé basé sur Llama-3.1-8B-Instruct, entraîné en utilisant les sorties de DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 améliore considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Avant de fournir la réponse finale, le modèle génère d'abord une chaîne de pensée pour améliorer l'exactitude de la réponse finale."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 a réalisé une percée majeure en termes de vitesse d'inférence par rapport aux modèles précédents. Il se classe au premier rang des modèles open source et peut rivaliser avec les modèles fermés les plus avancés au monde. DeepSeek-V3 utilise une architecture d'attention multi-tête (MLA) et DeepSeekMoE, qui ont été entièrement validées dans DeepSeek-V2. De plus, DeepSeek-V3 a introduit une stratégie auxiliaire sans perte pour l'équilibrage de charge et a établi des objectifs d'entraînement de prédiction multi-étiquettes pour obtenir de meilleures performances."
"description": "Un grand modèle de langage universel rapide avec des capacités de raisonnement améliorées."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base est une version améliorée du modèle DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 a réalisé une percée majeure en termes de vitesse d'inférence par rapport aux modèles précédents. Il se classe au premier rang des modèles open source et peut rivaliser avec les modèles fermés les plus avancés au monde. DeepSeek-V3 utilise une architecture d'attention multi-tête (MLA) et DeepSeekMoE, qui ont été entièrement validées dans DeepSeek-V2. De plus, DeepSeek-V3 a introduit une stratégie auxiliaire sans perte pour l'équilibrage de charge et a établi des objectifs d'entraînement de prédiction multi-étiquettes pour obtenir de meilleures performances."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview possède de puissantes capacités de raisonnement complexe, se distinguant dans les domaines du raisonnement logique, des mathématiques et de la programmation."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash propose des fonctionnalités et des améliorations de nouvelle génération, y compris une vitesse exceptionnelle, l'utilisation d'outils natifs, la génération multimodale et une fenêtre de contexte de 1M tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental est le dernier modèle d'IA multimodal expérimental de Google, offrant une amélioration de qualité par rapport aux versions précédentes, en particulier pour les connaissances générales, le code et les longs contextes."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite offre des fonctionnalités de nouvelle génération et des améliorations, incluant une vitesse exceptionnelle, l'utilisation d'outils intégrés, la génération multimodale et une fenêtre de contexte de 1 million de tokens."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash est le modèle principal le plus avancé de Google, conçu pour des tâches avancées de raisonnement, de codage, de mathématiques et de sciences. Il intègre une capacité de « réflexion » intégrée, lui permettant de fournir des réponses avec une précision accrue et un traitement contextuel plus détaillé.\n\nRemarque : ce modèle existe en deux variantes : avec réflexion et sans réflexion. Le tarif de sortie varie considérablement selon que la capacité de réflexion est activée ou non. Si vous choisissez la variante standard (sans le suffixe « :thinking »), le modèle évitera explicitement de générer des jetons de réflexion.\n\nPour exploiter la capacité de réflexion et recevoir des jetons de réflexion, vous devez sélectionner la variante « :thinking », ce qui entraînera un tarif de sortie plus élevé pour la réflexion.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre « nombre maximal de jetons pour le raisonnement », comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash est un modèle de réflexion offrant d'excellentes capacités globales. Il vise un équilibre entre prix et performance, supportant le multimodal et une fenêtre de contexte de 1 million de tokens."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modèle expérimental Gemini 2.5 Flash, supportant la génération d'images."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite est un modèle équilibré à faible latence, avec un budget de réflexion configurable et une connectivité aux outils (par exemple, recherche Google ancrée et exécution de code). Il supporte les entrées multimodales et offre une fenêtre de contexte de 1 million de tokens."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash est le modèle phare le plus avancé de Google, conçu pour des tâches de raisonnement avancé, de codage, de mathématiques et de sciences. Il comprend des capacités de 'pensée' intégrées, lui permettant de fournir des réponses avec une plus grande précision et un traitement contextuel détaillé.\n\nRemarque : ce modèle a deux variantes : pensée et non-pensée. La tarification de sortie varie considérablement en fonction de l'activation de la capacité de pensée. Si vous choisissez la variante standard (sans le suffixe ':thinking'), le modèle évitera explicitement de générer des jetons de pensée.\n\nPour tirer parti de la capacité de pensée et recevoir des jetons de pensée, vous devez choisir la variante ':thinking', ce qui entraînera une tarification de sortie de pensée plus élevée.\n\nDe plus, Gemini 2.5 Flash peut être configuré via le paramètre 'nombre maximal de jetons de raisonnement', comme décrit dans la documentation (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro est le modèle de réflexion le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que danalyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
"description": "Gemini 2.5 Pro est notre modèle Gemini de raisonnement le plus avancé, capable de résoudre des problèmes complexes. Il dispose d'une fenêtre de contexte de 2 millions de tokens et supporte des entrées multimodales incluant texte, images, audio, vidéo et documents PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, des bases de code et des documents en utilisant un contexte étendu."
},
"google/gemini-embedding-001": {
"description": "Modèle d'embedding de pointe, performant en anglais, multilingue et tâches de code."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash propose des capacités de traitement multimodal optimisées, adaptées à divers scénarios de tâches complexes."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B est un modèle de langage open source de Google, qui a établi de nouvelles normes en matière d'efficacité et de performance."
},
"google/text-embedding-005": {
"description": "Modèle d'embedding textuel focalisé sur l'anglais, optimisé pour les tâches de code et de langue anglaise."
},
"google/text-multilingual-embedding-002": {
"description": "Modèle d'embedding textuel multilingue optimisé pour les tâches interlinguistiques, supportant plusieurs langues."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, adapté à diverses tâches de génération et de compréhension de texte, pointe actuellement vers gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Série de modèles de génération d'images à partir de texte Imagen 4e génération version Ultra"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small est idéal pour les tâches de génération, débogage et refactorisation de code, avec une latence minimale."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 est un modèle linguistique de grande taille à haute performance et petite taille basé sur l'architecture MoE. Il possède 16 milliards de paramètres au total, mais n'active que 1,4 milliard par token (789 millions hors embeddings), ce qui permet une vitesse de génération extrêmement élevée. Grâce à une conception MoE efficace et à un entraînement à grande échelle avec des données de haute qualité, malgré seulement 1,4 milliard de paramètres activés, Ling-mini-2.0 affiche des performances de pointe comparables à celles des modèles denses de moins de 10 milliards de paramètres et des modèles MoE de plus grande taille dans les tâches en aval."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modèle textuel Llama 3.1 ajusté aux instructions, optimisé pour les cas d'usage de dialogue multilingue, performant sur de nombreux benchmarks industriels parmi les modèles de chat open source et propriétaires disponibles."
},
"meta/llama-3-70b": {
"description": "Modèle open source de 70 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3-8b": {
"description": "Modèle open source de 8 milliards de paramètres finement ajusté par Meta pour le suivi des instructions. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avancé, prenant en charge la génération de données synthétiques, la distillation de connaissances et le raisonnement, adapté aux chatbots, à la programmation et aux tâches spécifiques."
},
"meta/llama-3.1-70b": {
"description": "Version mise à jour de Meta Llama 3 70B Instruct, incluant une longueur de contexte étendue à 128K, multilingue et capacités de raisonnement améliorées."
},
"meta/llama-3.1-70b-instruct": {
"description": "Permet des dialogues complexes, avec une excellente compréhension du contexte, des capacités de raisonnement et de génération de texte."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B supporte une fenêtre de contexte de 128K, idéal pour les interfaces de dialogue en temps réel et l'analyse de données, tout en offrant des économies de coûts significatives par rapport aux modèles plus grands. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modèle de pointe avancé, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-11b": {
"description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.2-1b": {
"description": "Modèle uniquement textuel, supportant les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-3b": {
"description": "Modèle uniquement textuel, finement ajusté pour supporter les cas d'usage sur appareil tels que la recherche locale multilingue, le résumé et la réécriture."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modèle de langage de pointe de petite taille, doté de compréhension linguistique, d'excellentes capacités de raisonnement et de génération de texte."
},
"meta/llama-3.2-90b": {
"description": "Modèle de génération d'inférence d'image ajusté par instruction (entrée texte + image / sortie texte), optimisé pour la reconnaissance visuelle, l'inférence d'image, la génération de légendes et la réponse aux questions générales sur les images."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modèle visuel-linguistique de pointe, spécialisé dans le raisonnement de haute qualité à partir d'images."
},
"meta/llama-3.3-70b": {
"description": "Combinaison parfaite de performance et d'efficacité. Ce modèle supporte une IA conversationnelle haute performance, conçu pour la création de contenu, les applications d'entreprise et la recherche, offrant des capacités avancées de compréhension du langage, incluant résumé de texte, classification, analyse de sentiment et génération de code."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avancé, spécialisé dans le raisonnement, les mathématiques, le bon sens et les appels de fonction."
},
"meta/llama-4-maverick": {
"description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Maverick, un modèle de 17 milliards de paramètres avec 128 experts, est servi par DeepInfra."
},
"meta/llama-4-scout": {
"description": "La collection de modèles Llama 4 est une IA multimodale native, supportant les expériences textuelles et multimodales. Ces modèles utilisent une architecture d'experts hybrides pour offrir des performances de pointe en compréhension de texte et d'image. Llama 4 Scout, un modèle de 17 milliards de paramètres avec 16 experts, est servi par DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Même modèle Phi-3-medium, mais avec une taille de contexte plus grande, adapté au RAG ou aux prompts courts."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small est une option rentable, rapide et fiable, adaptée aux cas d'utilisation tels que la traduction, le résumé et l'analyse des sentiments."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 est un modèle de codage de pointe, optimisé pour les cas d'usage à faible latence et haute fréquence. Maîtrisant plus de 80 langages de programmation, il excelle dans les tâches de remplissage intermédiaire (FIM), correction de code et génération de tests."
},
"mistral/codestral-embed": {
"description": "Modèle d'embedding de code pouvant être intégré dans des bases de données et dépôts de code pour soutenir les assistants de codage."
},
"mistral/devstral-small": {
"description": "Devstral est un grand modèle de langage agent pour les tâches d'ingénierie logicielle, en faisant un excellent choix pour les agents en ingénierie logicielle."
},
"mistral/magistral-medium": {
"description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
},
"mistral/magistral-small": {
"description": "Pensée complexe soutenue par une compréhension profonde, avec un raisonnement transparent que vous pouvez suivre et vérifier. Ce modèle maintient un raisonnement fidèle dans de nombreuses langues, même lors de changements de langue en cours de tâche."
},
"mistral/ministral-3b": {
"description": "Un modèle compact et efficace pour les tâches sur appareil telles qu'assistants intelligents et analyses locales, offrant une faible latence."
},
"mistral/ministral-8b": {
"description": "Un modèle plus puissant avec un raisonnement plus rapide et économe en mémoire, idéal pour les flux de travail complexes et les applications exigeantes en périphérie."
},
"mistral/mistral-embed": {
"description": "Modèle d'embedding textuel universel pour la recherche sémantique, la similarité, le clustering et les workflows RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large est idéal pour les tâches complexes nécessitant une grande capacité de raisonnement ou une spécialisation élevée, telles que la génération de texte synthétique, le codage, le RAG ou les agents."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B est un modèle open source de 24 milliards de paramètres développé par Mistral.ai. Saba est un modèle spécialisé entraîné pour exceller en arabe, persan, ourdou, hébreu et langues indiennes. Servi par Groq avec son matériel personnalisé LPU pour un raisonnement rapide et efficace."
},
"mistral/mistral-small": {
"description": "Mistral Small est idéal pour les tâches simples pouvant être traitées en lots, telles que la classification, le support client ou la génération de texte. Il offre d'excellentes performances à un prix abordable."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modèle 8x22b Instruct. 8x22b est un modèle open source à experts hybrides servi par Mistral."
},
"mistral/pixtral-12b": {
"description": "Un modèle de 12 milliards de paramètres avec capacités de compréhension d'image et de texte."
},
"mistral/pixtral-large": {
"description": "Pixtral Large est le deuxième modèle de notre famille multimodale, démontrant un niveau avancé de compréhension d'image. En particulier, il peut comprendre documents, graphiques et images naturelles, tout en conservant les capacités de compréhension textuelle de pointe de Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct est réputé pour ses performances élevées, adapté à diverses tâches linguistiques."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 est la version la plus récente et la plus puissante de Kimi K2. Il s'agit d'un modèle linguistique de pointe à experts mixtes (MoE), avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés. Les principales caractéristiques de ce modèle incluent : une intelligence de codage d'agents améliorée, démontrant des performances significatives dans les tests de référence publics et les tâches réelles d'agents de codage ; une expérience de codage frontale améliorée, avec des progrès tant en esthétique qu'en praticité pour la programmation frontale."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 est un modèle de langage à experts hybrides (MoE) à grande échelle développé par Moonshot AI, avec un total de 1 000 milliards de paramètres et 32 milliards de paramètres activés par passage avant. Il est optimisé pour les capacités d'agent, incluant l'utilisation avancée d'outils, le raisonnement et la synthèse de code."
},
"moonshotai/kimi-k2-0905": {
"description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Le modèle kimi-k2-0905-preview dispose d'une longueur de contexte de 256k, offrant une capacité renforcée de codage agentique, une meilleure esthétique et utilité du code front-end, ainsi qu'une compréhension contextuelle améliorée."
},
"morph/morph-v3-fast": {
"description": "Morph propose un modèle IA spécialisé qui applique rapidement les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 4500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
},
"morph/morph-v3-large": {
"description": "Morph propose un modèle IA spécialisé qui applique les modifications de code suggérées par des modèles de pointe (comme Claude ou GPT-4o) à vos fichiers de code existants - RAPIDE - plus de 2500 tokens/seconde. Il agit comme la dernière étape dans le flux de travail de codage IA. Supporte 16k tokens d'entrée et 16k tokens de sortie."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B est une version améliorée de Nous Hermes 2, intégrant les derniers ensembles de données développés en interne."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B est un modèle d'expert épars, utilisant plusieurs paramètres pour améliorer la vitesse de raisonnement, adapté au traitement de tâches multilingues et de génération de code."
},
"openai/gpt-3.5-turbo": {
"description": "Le modèle le plus performant et rentable de la série GPT-3.5 d'OpenAI, optimisé pour le chat mais également performant pour les tâches de complétion traditionnelles."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacités similaires aux modèles de l'ère GPT-3. Compatible avec les points de terminaison de complétion traditionnels, pas les complétions de chat."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Sa date de coupure des connaissances est avril 2023, avec une fenêtre de contexte de 128 000 tokens."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 est notre modèle phare pour les tâches complexes. Il est particulièrement adapté à la résolution de problèmes interdomaines."
"description": "GPT 4.1 est le modèle phare d'OpenAI, adapté aux tâches complexes. Il excelle dans la résolution de problèmes interdomaines."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini offre un équilibre entre intelligence, rapidité et coût, ce qui en fait un modèle attrayant pour de nombreux cas d'utilisation."
"description": "GPT 4.1 mini équilibre intelligence, vitesse et coût, en faisant un modèle attractif pour de nombreux cas d'usage."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano est le modèle GPT-4.1 le plus rapide et le plus rentable."
"description": "GPT-4.1 nano est le modèle GPT 4.1 le plus rapide et le plus rentable."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o est un modèle dynamique, mis à jour en temps réel pour rester à jour avec la dernière version. Il combine une compréhension et une génération de langage puissantes, adapté à des scénarios d'application à grande échelle, y compris le service client, l'éducation et le support technique."
"description": "GPT-4o d'OpenAI possède une vaste connaissance générale et une expertise sectorielle, capable de suivre des instructions complexes en langage naturel et de résoudre précisément des problèmes difficiles. Il offre des performances équivalentes à GPT-4 Turbo avec une API plus rapide et moins coûteuse."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini est le dernier modèle d'OpenAI lancé après GPT-4 Omni, prenant en charge les entrées d'images et de texte et produisant du texte en sortie. En tant que leur modèle compact le plus avancé, il est beaucoup moins cher que d'autres modèles de pointe récents et coûte plus de 60 % de moins que GPT-3.5 Turbo. Il maintient une intelligence de pointe tout en offrant un rapport qualité-prix significatif. GPT-4o mini a obtenu un score de 82 % au test MMLU et se classe actuellement au-dessus de GPT-4 en termes de préférences de chat."
"description": "GPT-4o mini d'OpenAI est leur modèle petit, avancé et rentable. Il est multimodal (accepte texte ou image en entrée et produit du texte), plus intelligent que gpt-3.5-turbo tout en étant aussi rapide."
},
"openai/gpt-5": {
"description": "GPT-5 est le modèle de langage phare d'OpenAI, excellent en raisonnement complexe, vaste connaissance du monde réel, tâches intensives en code et agents multi-étapes."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini est un modèle optimisé pour le coût, performant en raisonnement et tâches de chat. Il offre un équilibre optimal entre vitesse, coût et capacité."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano est un modèle à haut débit, performant pour les instructions simples ou les tâches de classification."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B est un modèle linguistique de pointe doté de 120 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
"description": "Modèle de langage général extrêmement performant avec des capacités de raisonnement puissantes et contrôlables."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B est un modèle linguistique de pointe doté de 20 milliards de paramètres, intégrant des fonctions de recherche via navigateur et d'exécution de code, ainsi que des capacités de raisonnement."
"description": "Modèle de langage compact avec poids open source, optimisé pour la faible latence et les environnements à ressources limitées, incluant le déploiement local et en périphérie."
},
"openai/o1": {
"description": "o1 est le nouveau modèle d'inférence d'OpenAI, prenant en charge les entrées multimodales (texte et image) et produisant du texte, adapté aux tâches complexes nécessitant des connaissances générales étendues. Ce modèle dispose d'un contexte de 200K et d'une date de coupure des connaissances en octobre 2023."
"description": "o1 d'OpenAI est un modèle de raisonnement phare, conçu pour les problèmes complexes nécessitant une réflexion approfondie. Il offre un raisonnement puissant et une précision accrue pour les tâches complexes à plusieurs étapes."
},
"openai/o1-mini": {
"description": "o1-mini est un modèle de raisonnement rapide et économique conçu pour les applications de programmation, de mathématiques et de sciences. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
@ -2325,23 +2493,44 @@
"description": "o1 est le nouveau modèle de raisonnement d'OpenAI, adapté aux tâches complexes nécessitant une vaste connaissance générale. Ce modèle dispose d'un contexte de 128K et d'une date limite de connaissance en octobre 2023."
},
"openai/o3": {
"description": "o3 est un modèle polyvalent et puissant, qui excelle dans de nombreux domaines. Il établit de nouvelles normes pour les tâches de mathématiques, de sciences, de programmation et de raisonnement visuel. Il est également doué pour la rédaction technique et le respect des instructions. Les utilisateurs peuvent l'utiliser pour analyser des textes, du code et des images, et résoudre des problèmes complexes en plusieurs étapes."
"description": "o3 d'OpenAI est le modèle de raisonnement le plus puissant, établissant de nouveaux standards en codage, mathématiques, sciences et perception visuelle. Il excelle dans les requêtes complexes nécessitant une analyse multidimensionnelle, avec un avantage particulier pour l'analyse d'images, graphiques et diagrammes."
},
"openai/o3-mini": {
"description": "o3-mini offre une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
"description": "o3-mini est le dernier petit modèle de raisonnement d'OpenAI, offrant une intelligence élevée avec les mêmes objectifs de coût et latence que o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini haute version de raisonnement, offrant une grande intelligence avec les mêmes objectifs de coût et de latence que o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini est optimisé pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
"description": "o4-mini d'OpenAI offre un raisonnement rapide et rentable, avec des performances exceptionnelles pour sa taille, notamment en mathématiques (meilleur sur le benchmark AIME), codage et tâches visuelles."
},
"openai/o4-mini-high": {
"description": "Version à haut niveau d'inférence d'o4-mini, optimisée pour une inférence rapide et efficace, offrant une grande efficacité et performance dans les tâches de codage et visuelles."
},
"openai/text-embedding-3-large": {
"description": "Le modèle d'embedding le plus performant d'OpenAI, adapté aux tâches en anglais et non anglaises."
},
"openai/text-embedding-3-small": {
"description": "Version améliorée et plus performante du modèle d'embedding ada d'OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modèle d'embedding textuel traditionnel d'OpenAI."
},
"openrouter/auto": {
"description": "En fonction de la longueur du contexte, du sujet et de la complexité, votre demande sera envoyée à Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-régulé) ou GPT-4o."
},
"perplexity/sonar": {
"description": "Produit léger de Perplexity avec capacité de recherche ancrée, plus rapide et moins cher que Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Produit phare de Perplexity avec capacité de recherche ancrée, supportant des requêtes avancées et des suivis."
},
"perplexity/sonar-reasoning": {
"description": "Modèle axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications détaillées avec recherche ancrée."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) dans les réponses, offrant des explications complètes avec capacités de recherche améliorées et multiples requêtes de recherche par demande."
},
"phi3": {
"description": "Phi-3 est un modèle ouvert léger lancé par Microsoft, adapté à une intégration efficace et à un raisonnement de connaissances à grande échelle."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Le modèle v0-1.5-md convient aux tâches quotidiennes et à la génération d'interfaces utilisateur (UI)"
},
"vercel/v0-1.0-md": {
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
},
"vercel/v0-1.5-md": {
"description": "Accès au modèle derrière v0 pour générer, réparer et optimiser des applications Web modernes, avec raisonnement spécifique aux frameworks et connaissances à jour."
},
"wan2.2-t2i-flash": {
"description": "Version ultra-rapide Wanxiang 2.2, le modèle le plus récent à ce jour. Améliorations globales en créativité, stabilité et réalisme, avec une vitesse de génération rapide et un excellent rapport qualité-prix."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Le modèle Spark X1 sera mis à niveau, et sur la base de ses performances déjà leaders dans les tâches mathématiques, il atteindra des résultats comparables dans des tâches générales telles que le raisonnement, la génération de texte et la compréhension du langage, en se mesurant à OpenAI o1 et DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 est un modèle de langage de pointe avec des capacités de raisonnement avancées. Il excelle en chat, codage et raisonnement, surpassant Claude 3.5 Sonnet et GPT-4-Turbo dans le classement LMSYS."
},
"xai/grok-2-vision": {
"description": "Le modèle visuel Grok 2 excelle dans les tâches basées sur la vision, offrant des performances de pointe en raisonnement mathématique visuel (MathVista) et en questions-réponses basées sur documents (DocVQA). Il peut traiter diverses informations visuelles, y compris documents, graphiques, diagrammes, captures d'écran et photos."
},
"xai/grok-3": {
"description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. Il possède une expertise approfondie dans les domaines financier, médical, juridique et scientifique."
},
"xai/grok-3-fast": {
"description": "Modèle phare de xAI, performant pour les cas d'usage d'entreprise tels que l'extraction de données, le codage et le résumé de texte. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
},
"xai/grok-3-mini": {
"description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible."
},
"xai/grok-3-mini-fast": {
"description": "Modèle léger de xAI, réfléchissant avant de répondre. Idéal pour les tâches simples ou logiques ne nécessitant pas une expertise approfondie. La trajectoire de pensée brute est accessible. La variante rapide est servie sur une infrastructure plus rapide, offrant des temps de réponse bien supérieurs au standard, au coût accru par token de sortie."
},
"xai/grok-4": {
"description": "Le dernier et meilleur modèle phare de xAI, offrant des performances inégalées en langage naturel, mathématiques et raisonnement — un véritable modèle polyvalent."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 est une version améliorée de Yi. Il utilise un corpus de haute qualité de 500 milliards de tokens pour poursuivre l'entraînement préalable de Yi, et est affiné sur 3 millions d'exemples de fine-tuning variés."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V est la dernière génération de modèle langage-visuel (VLM) publiée par Zhipu AI. Ce modèle est construit sur le modèle texte phare GLM-4.5-Air, qui compte 106 milliards de paramètres au total et 12 milliards de paramètres d'activation, et adopte une architecture de mixture d'experts (MoE) afin d'obtenir des performances excellentes à un coût d'inférence réduit. Sur le plan technique, GLM-4.5V prolonge la lignée de GLM-4.1V-Thinking et introduit des innovations telles que l'encodage de position rotatif en 3D (3D-RoPE), renforçant de façon significative la perception et le raisonnement des relations spatiales tridimensionnelles. Grâce aux optimisations apportées lors des phases de pré-entraînement, d'affinage supervisé et d'apprentissage par renforcement, ce modèle est capable de traiter divers contenus visuels, notamment des images, des vidéos et des documents longs, et atteint un niveau de pointe parmi les modèles open source de la même catégorie sur 41 benchmarks multimodaux publics. De plus, le modèle intègre un interrupteur « mode réflexion » permettant aux utilisateurs de choisir de manière flexible entre réponses rapides et raisonnement approfondi, pour équilibrer efficacité et qualité."
},
"zai/glm-4.5": {
"description": "La série de modèles GLM-4.5 est conçue spécifiquement pour les agents. Le modèle phare GLM-4.5 intègre 355 milliards de paramètres totaux (32 milliards actifs), unifiant raisonnement, codage et capacités d'agent pour répondre à des besoins applicatifs complexes. En tant que système de raisonnement hybride, il offre deux modes d'opération."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 et GLM-4.5-Air sont nos derniers modèles phares, conçus comme modèles de base pour les applications d'agents. Les deux utilisent une architecture d'experts hybrides (MoE). GLM-4.5 compte 355 milliards de paramètres totaux avec 32 milliards actifs par passage avant, tandis que GLM-4.5-Air adopte une conception plus simplifiée avec 106 milliards de paramètres totaux et 12 milliards actifs."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V est construit sur le modèle de base GLM-4.5-Air, héritant des techniques éprouvées de GLM-4.1V-Thinking, tout en réalisant une mise à l'échelle efficace grâce à une puissante architecture MoE de 106 milliards de paramètres."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 est un assistant de programmation en binôme. Il vous suffit de décrire vos idées en langage naturel, et il génère le code et l'interface utilisateur (UI) pour votre projet."
},
"vercelaigateway": {
"description": "Vercel AI Gateway offre une API unifiée pour accéder à plus de 100 modèles, permettant d'utiliser les modèles de plusieurs fournisseurs tels qu'OpenAI, Anthropic, Google, via un point de terminaison unique. Il prend en charge la gestion du budget, la surveillance de l'utilisation, l'équilibrage de charge des requêtes et la tolérance aux pannes."
},
"vertexai": {
"description": "La série Gemini de Google est son modèle d'IA le plus avancé et polyvalent, développé par Google DeepMind, conçu pour être multimodal, prenant en charge la compréhension et le traitement sans couture de texte, de code, d'images, d'audio et de vidéo. Adapté à divers environnements, des centres de données aux appareils mobiles, il améliore considérablement l'efficacité et l'applicabilité des modèles d'IA."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Un modello multilingue con 52 miliardi di parametri (12 miliardi attivi), offre una finestra contestuale lunga 256K token, chiamate di funzione, output strutturati e generazione basata su fatti."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 è l'ultima generazione della serie Qwen di grandi modelli linguistici, che offre un set completo di modelli densi e a esperti misti (MoE). Basato su un ampio addestramento, Qwen3 rappresenta un progresso rivoluzionario in ragionamento, aderenza alle istruzioni, capacità di agente e supporto multilingue."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct è il modello di codice più agente di Qwen, con prestazioni significative nella codifica agente, nell'uso di browser agente e in altri compiti di codifica di base, raggiungendo risultati comparabili a Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Un modello multimodale a bassissimo costo, estremamente veloce nell'elaborazione di input di immagini, video e testo."
},
"amazon/nova-micro": {
"description": "Un modello solo testo che offre risposte a latenza minima a costi molto bassi."
},
"amazon/nova-pro": {
"description": "Un modello multimodale altamente capace, con la migliore combinazione di accuratezza, velocità e costo, adatto a una vasta gamma di compiti."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 è un modello di embedding multilingue leggero ed efficiente, disponibile in dimensioni da 1024, 512 e 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet ha elevato gli standard del settore, superando i modelli concorrenti e Claude 3 Opus, dimostrando prestazioni eccezionali in una vasta gamma di valutazioni, mantenendo la velocità e i costi dei nostri modelli di livello medio."
},
@ -627,25 +654,28 @@
"description": "Versione aggiornata di Claude 2, con una finestra di contesto doppia e miglioramenti nella affidabilità, nel tasso di allucinazione e nell'accuratezza basata su prove nei contesti di documenti lunghi e RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per fornire risposte quasi istantanee. Ha prestazioni direzionali rapide e accurate."
"description": "Claude 3 Haiku è il modello più veloce di Anthropic finora, progettato per carichi di lavoro aziendali che solitamente coinvolgono prompt lunghi. Haiku può analizzare rapidamente grandi quantità di documenti, come report trimestrali, contratti o casi legali, a metà del costo rispetto ad altri modelli della sua classe di prestazioni."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e comprensione."
"description": "Claude 3 Opus è il modello più intelligente di Anthropic, con prestazioni leader di mercato in compiti altamente complessi. Gestisce prompt aperti e scenari mai visti con fluidità eccezionale e comprensione simile a quella umana."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, Claude 3.5 Haiku ha migliorato le proprie capacità e ha superato il modello più grande della generazione precedente, Claude 3 Opus, in molti test di intelligenza."
"description": "Claude 3.5 Haiku è la nuova generazione del nostro modello più veloce. Con velocità simile a Claude 3 Haiku, Claude 3.5 Haiku migliora ogni set di competenze e supera in molti benchmark intelligenti il nostro modello più grande della generazione precedente, Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet offre capacità superiori rispetto a Opus e una velocità maggiore rispetto a Sonnet, mantenendo lo stesso prezzo di Sonnet. Sonnet è particolarmente abile in programmazione, scienza dei dati, elaborazione visiva e compiti di agenzia."
"description": "Claude 3.5 Sonnet raggiunge un equilibrio ideale tra intelligenza e velocità, particolarmente adatto per carichi di lavoro aziendali. Offre prestazioni potenti a costi inferiori rispetto ai concorrenti ed è progettato per alta durabilità nelle implementazioni AI su larga scala."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic fino ad oggi ed è il primo modello di ragionamento ibrido sul mercato. Claude 3.7 Sonnet può generare risposte quasi istantanee o pensieri prolungati e graduali, consentendo agli utenti di vedere chiaramente questi processi. Sonnet è particolarmente abile nella programmazione, nella scienza dei dati, nell'elaborazione visiva e nei compiti di agenzia."
"description": "Claude 3.7 Sonnet è il primo modello di ragionamento ibrido ed è il modello più intelligente di Anthropic finora. Offre prestazioni all'avanguardia in codifica, generazione di contenuti, analisi dati e pianificazione, costruito sulle capacità di ingegneria del software e uso informatico del suo predecessore Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e capacità di comprensione."
"description": "Claude Opus 4 è il modello più potente di Anthropic e il miglior modello di codifica al mondo, leader nei benchmark SWE-bench (72,5%) e Terminal-bench (43,2%). Fornisce prestazioni continue per compiti a lungo termine che richiedono sforzi concentrati e migliaia di passaggi, lavorando per ore consecutive e ampliando significativamente le capacità degli agenti AI."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 è un'alternativa plug-and-play a Opus 4, offrendo prestazioni e precisione eccezionali per compiti di codifica e agenti pratici. Opus 4.1 porta le prestazioni di codifica all'avanguardia al 74,5% verificato da SWE-bench, gestendo problemi complessi a più passaggi con maggiore rigore e attenzione ai dettagli."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 può generare risposte quasi istantanee o un ragionamento esteso e graduale, che gli utenti possono osservare chiaramente. Gli utenti API possono anche controllare con precisione il tempo di riflessione del modello."
"description": "Claude Sonnet 4 migliora significativamente le capacità leader del settore di Sonnet 3.7, eccellendo nella codifica con un punteggio all'avanguardia del 72,7% su SWE-bench. Il modello bilancia prestazioni ed efficienza, adatto a casi d'uso interni ed esterni, e offre un controllo maggiore sull'implementazione grazie a una controllabilità migliorata."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B è un modello linguistico di grandi dimensioni a parametri sparsi con 72 miliardi di parametri totali e 16 miliardi di parametri attivati, basato sull'architettura Mixture of Group Experts (MoGE). Durante la fase di selezione degli esperti, gli esperti sono raggruppati e il token attiva un numero uguale di esperti all'interno di ogni gruppo, garantendo un bilanciamento del carico degli esperti e migliorando significativamente l'efficienza di distribuzione del modello sulla piattaforma Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ è un modello ottimizzato all'avanguardia per RAG, progettato per gestire carichi di lavoro aziendali."
},
"cohere/command-a": {
"description": "Command A è il modello più performante di Cohere finora, eccellente nell'uso di strumenti, agenti, generazione potenziata da recupero (RAG) e casi d'uso multilingue. Command A supporta una lunghezza di contesto di 256K e può essere eseguito con solo due GPU, offrendo un throughput superiore del 150% rispetto a Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R è un grande modello linguistico ottimizzato per interazioni conversazionali e compiti con contesti lunghi. Si colloca nella categoria \"scalabile\", bilanciando alte prestazioni e forte accuratezza, permettendo alle aziende di superare la fase di prova concettuale e passare alla produzione."
},
"cohere/command-r-plus": {
"description": "Command R+ è l'ultimo grande modello linguistico di Cohere, ottimizzato per interazioni conversazionali e compiti con contesti lunghi. Mira a prestazioni eccezionali, consentendo alle aziende di superare la prova concettuale e passare alla produzione."
},
"cohere/embed-v4.0": {
"description": "Un modello che consente di classificare o trasformare testo, immagini o contenuti misti in embedding."
},
"command": {
"description": "Un modello di dialogo che segue le istruzioni, con alta qualità e maggiore affidabilità nelle attività linguistiche, e una lunghezza di contesto più lunga rispetto ai nostri modelli generativi di base."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 è un grande modello di ragionamento ibrido che supporta contesti lunghi fino a 128K e un cambio efficiente di modalità. Offre prestazioni e velocità eccellenti nell'uso di strumenti, generazione di codice e compiti di ragionamento complessi."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
"description": "Il modello DeepSeek R1 ha ricevuto un aggiornamento minore, attualmente versione DeepSeek-R1-0528. Nell'ultimo aggiornamento, DeepSeek R1 ha migliorato significativamente la profondità e la capacità di ragionamento sfruttando risorse computazionali aumentate e introducendo meccanismi di ottimizzazione algoritmica post-addestramento. Il modello eccelle in benchmark di matematica, programmazione e logica generale, avvicinandosi alle prestazioni di modelli leader come O3 e Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 migliora notevolmente la capacità di ragionamento del modello anche con pochissimi dati annotati. Prima di fornire la risposta finale, il modello genera una catena di pensieri per aumentare la precisione della risposta."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 migliora notevolmente la capacità di ragionamento del modello anche con pochissimi dati annotati. Prima di fornire la risposta finale, il modello genera una catena di pensieri per aumentare la precisione della risposta."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B è un grande modello di linguaggio basato su Llama3.3 70B, che utilizza il fine-tuning dell'output di DeepSeek R1 per raggiungere prestazioni competitive paragonabili a quelle dei modelli all'avanguardia di grandi dimensioni."
"description": "DeepSeek-R1-Distill-Llama-70B è una variante distillata e più efficiente del modello Llama da 70B. Mantiene prestazioni robuste nelle attività di generazione testuale, riducendo il carico computazionale per facilitare il deployment e la ricerca. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B è un modello di linguaggio distillato basato su Llama-3.1-8B-Instruct, addestrato utilizzando l'output di DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 ha notevolmente migliorato le capacità di ragionamento del modello con pochissimi dati etichettati. Prima di fornire la risposta finale, il modello genera una catena di pensiero per migliorare l'accuratezza della risposta finale."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 ha realizzato un significativo progresso nella velocità di inferenza rispetto ai modelli precedenti. Si posiziona al primo posto tra i modelli open source e può competere con i modelli closed source più avanzati al mondo. DeepSeek-V3 utilizza l'architettura Multi-Head Latent Attention (MLA) e DeepSeekMoE, che sono state ampiamente validate in DeepSeek-V2. Inoltre, DeepSeek-V3 ha introdotto una strategia ausiliaria senza perdita per il bilanciamento del carico e ha stabilito obiettivi di addestramento per la previsione multi-etichetta per ottenere prestazioni superiori."
"description": "Un modello linguistico grande universale veloce con capacità di ragionamento potenziate."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base è una versione migliorata del modello DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 ha realizzato un significativo progresso nella velocità di inferenza rispetto ai modelli precedenti. Si posiziona al primo posto tra i modelli open source e può competere con i modelli closed source più avanzati al mondo. DeepSeek-V3 utilizza l'architettura Multi-Head Latent Attention (MLA) e DeepSeekMoE, che sono state ampiamente validate in DeepSeek-V2. Inoltre, DeepSeek-V3 ha introdotto una strategia ausiliaria senza perdita per il bilanciamento del carico e ha stabilito obiettivi di addestramento per la previsione multi-etichetta per ottenere prestazioni superiori."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview possiede potenti capacità di ragionamento complesso, eccellendo nei campi del ragionamento logico, della matematica e della programmazione."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash offre funzionalità di nuova generazione e miglioramenti, inclusa velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto di 1 milione di token."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash offre funzionalità e miglioramenti di nuova generazione, tra cui velocità eccezionale, utilizzo di strumenti nativi, generazione multimodale e una finestra di contesto di 1M token."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental è il più recente modello AI multimodale sperimentale di Google, con un miglioramento della qualità rispetto alle versioni storiche, in particolare per quanto riguarda la conoscenza del mondo, il codice e il lungo contesto."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite offre funzionalità di nuova generazione e miglioramenti, inclusa velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto di 1 milione di token."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per compiti avanzati di ragionamento, codifica, matematica e scienze. Include capacità di “pensiero” integrate, che gli permettono di fornire risposte con maggiore accuratezza e una gestione più dettagliata del contesto.\n\nNota: questo modello ha due varianti: con pensiero e senza pensiero. Il prezzo di output varia significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso “:thinking”), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi selezionare la variante “:thinking”, che comporta un prezzo di output più elevato per il pensiero.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro “max tokens for reasoning”, come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash è un modello di ragionamento che offre capacità eccellenti e complete. È progettato per bilanciare prezzo e prestazioni, supportando input multimodali e una finestra di contesto di 1 milione di token."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modello sperimentale Gemini 2.5 Flash, supporta la generazione di immagini."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite è un modello bilanciato a bassa latenza con budget di ragionamento configurabile e connettività agli strumenti (ad esempio, Google Search grounding ed esecuzione di codice). Supporta input multimodali e offre una finestra di contesto di 1 milione di token."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash è il modello principale più avanzato di Google, progettato per ragionamenti avanzati, codifica, matematica e compiti scientifici. Include capacità di 'pensiero' integrate, permettendo di fornire risposte con maggiore accuratezza e una gestione contestuale più dettagliata.\n\nNota: questo modello ha due varianti: pensiero e non pensiero. I prezzi di output variano significativamente a seconda che la capacità di pensiero sia attivata o meno. Se scegli la variante standard (senza il suffisso ':thinking'), il modello eviterà esplicitamente di generare token di pensiero.\n\nPer sfruttare la capacità di pensiero e ricevere token di pensiero, devi scegliere la variante ':thinking', che comporterà un prezzo di output di pensiero più elevato.\n\nInoltre, Gemini 2.5 Flash può essere configurato tramite il parametro 'numero massimo di token per il ragionamento', come descritto nella documentazione (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro è il modello di pensiero più avanzato di Google, capace di ragionare su problemi complessi nel codice, nella matematica e nei campi STEM, nonché di analizzare grandi set di dati, codebase e documenti utilizzando un contesto esteso."
"description": "Gemini 2.5 Pro è il nostro modello Gemini di ragionamento più avanzato, capace di risolvere problemi complessi. Ha una finestra di contesto di 2 milioni di token e supporta input multimodali tra cui testo, immagini, audio, video e documenti PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel campo del codice, della matematica e delle STEM, oltre a utilizzare un contesto esteso per analizzare grandi set di dati, repository di codice e documenti."
},
"google/gemini-embedding-001": {
"description": "Modello di embedding all'avanguardia con prestazioni eccellenti in compiti in inglese, multilingue e codice."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash offre capacità di elaborazione multimodale ottimizzate, adatte a vari scenari di compiti complessi."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B è un modello linguistico open source di Google, che ha stabilito nuovi standard in termini di efficienza e prestazioni."
},
"google/text-embedding-005": {
"description": "Modello di embedding testuale focalizzato sull'inglese, ottimizzato per compiti di codice e linguaggio inglese."
},
"google/text-multilingual-embedding-002": {
"description": "Modello di embedding testuale multilingue ottimizzato per compiti cross-lingua, supporta molte lingue."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, adatto a una varietà di compiti di generazione e comprensione del testo, attualmente punta a gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Serie di modelli di generazione di immagini da testo di quarta generazione Imagen versione Ultra"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small è la scelta ideale per compiti di generazione, debug e refactoring di codice, con latenza minima."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 è un modello linguistico di grandi dimensioni ad alte prestazioni e di piccole dimensioni basato sull'architettura MoE. Possiede 16 miliardi di parametri totali, ma per ogni token ne attiva solo 1,4 miliardi (non embedding 789 milioni), consentendo così una velocità di generazione estremamente elevata. Grazie a un design MoE efficiente e a dati di addestramento di alta qualità su larga scala, nonostante i soli 1,4 miliardi di parametri attivi, Ling-mini-2.0 dimostra prestazioni di punta in compiti downstream comparabili a modelli LLM densi sotto i 10 miliardi e a modelli MoE di dimensioni maggiori."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modello testuale Llama 3.1 ottimizzato per istruzioni, progettato per casi d'uso di dialogo multilingue, con prestazioni eccellenti in molti benchmark industriali rispetto a numerosi modelli di chat open source e proprietari."
},
"meta/llama-3-70b": {
"description": "Modello open source da 70 miliardi di parametri finemente ottimizzato da Meta per l'aderenza alle istruzioni. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3-8b": {
"description": "Modello open source da 8 miliardi di parametri finemente ottimizzato da Meta per l'aderenza alle istruzioni. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avanzato, supporta la generazione di dati sintetici, la distillazione della conoscenza e il ragionamento, adatto per chatbot, programmazione e compiti specifici."
},
"meta/llama-3.1-70b": {
"description": "Versione aggiornata di Meta Llama 3 70B Instruct, con lunghezza di contesto estesa a 128K, supporto multilingue e capacità di ragionamento migliorate."
},
"meta/llama-3.1-70b-instruct": {
"description": "Abilita conversazioni complesse, con eccellenti capacità di comprensione del contesto, ragionamento e generazione di testo."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B supporta una finestra di contesto di 128K, ideale per interfacce di dialogo in tempo reale e analisi dati, offrendo risparmi significativi sui costi rispetto a modelli più grandi. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modello all'avanguardia, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-11b": {
"description": "Modello di generazione di ragionamento visivo regolato con istruzioni (input testo + immagine / output testo), ottimizzato per riconoscimento visivo, ragionamento su immagini, generazione di didascalie e risposte a domande generali sulle immagini."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.2-1b": {
"description": "Modello solo testo, supporta casi d'uso on-device come recupero di conoscenza locale multilingue, sintesi e riscrittura."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-3b": {
"description": "Modello solo testo, finemente ottimizzato per supportare casi d'uso on-device come recupero di conoscenza locale multilingue, sintesi e riscrittura."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modello linguistico all'avanguardia di piccole dimensioni, dotato di comprensione del linguaggio, eccellenti capacità di ragionamento e generazione di testo."
},
"meta/llama-3.2-90b": {
"description": "Modello di generazione di ragionamento visivo regolato con istruzioni (input testo + immagine / output testo), ottimizzato per riconoscimento visivo, ragionamento su immagini, generazione di didascalie e risposte a domande generali sulle immagini."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modello visivo-linguistico all'avanguardia, specializzato nel ragionamento di alta qualità a partire dalle immagini."
},
"meta/llama-3.3-70b": {
"description": "Combinazione perfetta di prestazioni ed efficienza. Il modello supporta AI conversazionale ad alte prestazioni, progettato per creazione di contenuti, applicazioni aziendali e ricerca, offrendo capacità avanzate di comprensione linguistica, inclusi riassunti testuali, classificazione, analisi del sentiment e generazione di codice."
},
"meta/llama-3.3-70b-instruct": {
"description": "LLM avanzato, specializzato in ragionamento, matematica, conoscenze generali e chiamate di funzione."
},
"meta/llama-4-maverick": {
"description": "La collezione di modelli Llama 4 è un AI multimodale nativa che supporta esperienze testuali e multimodali. Questi modelli utilizzano un'architettura a esperti misti per offrire prestazioni leader nel settore nella comprensione di testo e immagini. Llama 4 Maverick, un modello da 17 miliardi di parametri con 128 esperti. Servito da DeepInfra."
},
"meta/llama-4-scout": {
"description": "La collezione di modelli Llama 4 è un AI multimodale nativa che supporta esperienze testuali e multimodali. Questi modelli utilizzano un'architettura a esperti misti per offrire prestazioni leader nel settore nella comprensione di testo e immagini. Llama 4 Scout, un modello da 17 miliardi di parametri con 16 esperti. Servito da DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Stesso modello Phi-3-medium, ma con una dimensione del contesto maggiore, adatto per RAG o pochi prompt."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small è un'opzione economica, veloce e affidabile, adatta per casi d'uso come traduzione, sintesi e analisi del sentiment."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 è un modello di codifica all'avanguardia, ottimizzato per casi d'uso a bassa latenza e alta frequenza. Esperto in oltre 80 linguaggi di programmazione, eccelle in compiti come filling intermedio (FIM), correzione del codice e generazione di test."
},
"mistral/codestral-embed": {
"description": "Modello di embedding di codice che può essere integrato in database e repository di codice per supportare assistenti di codifica."
},
"mistral/devstral-small": {
"description": "Devstral è un grande modello linguistico agente per compiti di ingegneria del software, rendendolo una scelta eccellente per agenti di ingegneria del software."
},
"mistral/magistral-medium": {
"description": "Pensiero complesso supportato da una profonda comprensione, con ragionamento trasparente che puoi seguire e verificare. Il modello mantiene un ragionamento ad alta fedeltà in molte lingue, anche quando cambia lingua a metà compito."
},
"mistral/magistral-small": {
"description": "Pensiero complesso supportato da una profonda comprensione, con ragionamento trasparente che puoi seguire e verificare. Il modello mantiene un ragionamento ad alta fedeltà in molte lingue, anche quando cambia lingua a metà compito."
},
"mistral/ministral-3b": {
"description": "Un modello compatto ed efficiente per compiti on-device come assistenti intelligenti e analisi locali, che offre prestazioni a bassa latenza."
},
"mistral/ministral-8b": {
"description": "Un modello più potente con inferenza più veloce e efficiente in memoria, ideale per flussi di lavoro complessi e applicazioni edge esigenti."
},
"mistral/mistral-embed": {
"description": "Modello di embedding testuale universale per ricerca semantica, similarità, clustering e flussi di lavoro RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large è la scelta ideale per compiti complessi che richiedono grandi capacità di ragionamento o alta specializzazione, come generazione di testo sintetico, generazione di codice, RAG o agenti."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B è un modello open source da 24 miliardi di parametri sviluppato da Mistral.ai. Saba è un modello specializzato addestrato per eccellere in arabo, persiano, urdu, ebraico e lingue indiane. Servito da Groq con il suo hardware personalizzato Language Processing Unit (LPU) per inferenze rapide ed efficienti."
},
"mistral/mistral-small": {
"description": "Mistral Small è la scelta ideale per compiti semplici che possono essere eseguiti in batch, come classificazione, supporto clienti o generazione di testo. Offre ottime prestazioni a un prezzo accessibile."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modello 8x22b Instruct. 8x22b è un modello open source a esperti misti servito da Mistral."
},
"mistral/pixtral-12b": {
"description": "Un modello da 12 miliardi con capacità di comprensione delle immagini, oltre al testo."
},
"mistral/pixtral-large": {
"description": "Pixtral Large è il secondo modello della nostra famiglia multimodale, che dimostra capacità di comprensione delle immagini all'avanguardia. In particolare, il modello è in grado di comprendere documenti, grafici e immagini naturali, mantenendo le capacità di comprensione testuale leader di Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct è noto per le sue alte prestazioni, adatto per vari compiti linguistici."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 è l'ultima e più potente versione di Kimi K2. Si tratta di un modello linguistico di esperti misti (MoE) all'avanguardia, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi. Le caratteristiche principali del modello includono: intelligenza potenziata per la codifica degli agenti, con miglioramenti significativi nelle prestazioni sia nei test di riferimento pubblici sia nelle attività di codifica degli agenti nel mondo reale; esperienza di codifica frontend migliorata, con progressi sia nell'estetica che nella praticità della programmazione frontend."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 è un modello linguistico a esperti misti (MoE) su larga scala sviluppato da Moonshot AI, con un totale di 1 trilione di parametri e 32 miliardi di parametri attivi per ogni passaggio in avanti. Ottimizzato per capacità di agente, inclusi uso avanzato di strumenti, ragionamento e sintesi di codice."
},
"moonshotai/kimi-k2-0905": {
"description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Il modello kimi-k2-0905-preview ha una lunghezza di contesto di 256k, con capacità di Agentic Coding più forti, una migliore estetica e praticità del codice frontend, e una migliore comprensione del contesto."
},
"morph/morph-v3-fast": {
"description": "Morph offre un modello AI specializzato che applica rapidamente le modifiche al codice suggerite da modelli all'avanguardia come Claude o GPT-4o ai tuoi file di codice esistenti - VELOCE - oltre 4500 token al secondo. Funziona come l'ultimo passo nel flusso di lavoro di codifica AI. Supporta 16k token in input e 16k token in output."
},
"morph/morph-v3-large": {
"description": "Morph offre un modello AI specializzato che applica le modifiche al codice suggerite da modelli all'avanguardia come Claude o GPT-4o ai tuoi file di codice esistenti - VELOCE - oltre 2500 token al secondo. Funziona come l'ultimo passo nel flusso di lavoro di codifica AI. Supporta 16k token in input e 16k token in output."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2, contenente i più recenti dataset sviluppati internamente."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B è un modello di esperti sparsi, che utilizza più parametri per aumentare la velocità di ragionamento, adatto per gestire compiti di generazione di linguaggio e codice multilingue."
},
"openai/gpt-3.5-turbo": {
"description": "Il modello più capace e conveniente della serie GPT-3.5 di OpenAI, ottimizzato per scopi di chat ma con buone prestazioni anche in compiti di completamento tradizionali."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacità simili ai modelli dell'era GPT-3. Compatibile con endpoint di completamento tradizionali, non con endpoint di completamento chat."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo di OpenAI possiede una vasta conoscenza generale e competenze settoriali, permettendogli di seguire istruzioni complesse in linguaggio naturale e risolvere problemi difficili con precisione. La sua conoscenza è aggiornata ad aprile 2023 e ha una finestra di contesto di 128.000 token."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 è il nostro modello di punta per compiti complessi. È particolarmente adatto per risolvere problemi trasversali."
"description": "GPT 4.1 è il modello di punta di OpenAI, adatto a compiti complessi. È eccellente nella risoluzione di problemi interdisciplinari."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini offre un equilibrio tra intelligenza, velocità e costo, rendendolo un modello attraente per molti casi d'uso."
"description": "GPT 4.1 mini bilancia intelligenza, velocità e costo, rendendolo un modello attraente per molti casi d'uso."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano è il modello GPT-4.1 più veloce e conveniente."
"description": "GPT-4.1 nano è il modello GPT 4.1 più veloce e conveniente."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o è un modello dinamico, aggiornato in tempo reale per mantenere la versione più recente. Combina potenti capacità di comprensione e generazione del linguaggio, adatto a scenari di applicazione su larga scala, tra cui assistenza clienti, istruzione e supporto tecnico."
"description": "GPT-4o di OpenAI possiede una vasta conoscenza generale e competenze settoriali, capace di seguire istruzioni complesse in linguaggio naturale e risolvere problemi difficili con precisione. Offre prestazioni equivalenti a GPT-4 Turbo con un'API più veloce e meno costosa."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini è il modello più recente di OpenAI, lanciato dopo GPT-4 Omni, che supporta input visivi e testuali e produce output testuali. Come il loro modello di piccole dimensioni più avanzato, è molto più economico rispetto ad altri modelli all'avanguardia recenti e costa oltre il 60% in meno rispetto a GPT-3.5 Turbo. Mantiene un'intelligenza all'avanguardia, offrendo un notevole rapporto qualità-prezzo. GPT-4o mini ha ottenuto un punteggio dell'82% nel test MMLU e attualmente è classificato più in alto di GPT-4 per preferenze di chat."
"description": "GPT-4o mini di OpenAI è il loro modello piccolo più avanzato e conveniente. È multimodale (accetta input di testo o immagini e produce testo) ed è più intelligente di gpt-3.5-turbo, mantenendo la stessa velocità."
},
"openai/gpt-5": {
"description": "GPT-5 è il modello linguistico di punta di OpenAI, eccellente in ragionamento complesso, ampia conoscenza del mondo reale, compiti intensivi di codice e agenti a più passaggi."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini è un modello ottimizzato per i costi, con ottime prestazioni in compiti di ragionamento e chat. Offre il miglior equilibrio tra velocità, costo e capacità."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano è un modello ad alto throughput, eccellente in compiti semplici di istruzioni o classificazione."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B è un modello linguistico di punta con 120 miliardi di parametri, dotato di funzionalità integrate di ricerca browser e esecuzione di codice, oltre a capacità di ragionamento."
"description": "Modello linguistico grande universale estremamente capace, con potenti capacità di ragionamento controllabile."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B è un modello linguistico di punta con 20 miliardi di parametri, dotato di funzionalità integrate di ricerca browser e esecuzione di codice, oltre a capacità di ragionamento."
"description": "Modello linguistico compatto con pesi open source, ottimizzato per bassa latenza e ambienti con risorse limitate, inclusi deployment locali e edge."
},
"openai/o1": {
"description": "o1 è il nuovo modello di ragionamento di OpenAI, supporta input di testo e immagini e produce output testuali, adatto a compiti complessi che richiedono una vasta conoscenza generale. Il modello ha un contesto di 200K token e una data di cut-off della conoscenza a ottobre 2023."
"description": "o1 di OpenAI è un modello di ragionamento di punta, progettato per problemi complessi che richiedono pensiero profondo. Offre potenti capacità di ragionamento e maggiore accuratezza per compiti complessi a più passaggi."
},
"openai/o1-mini": {
"description": "o1-mini è un modello di inferenza rapido ed economico progettato per applicazioni di programmazione, matematica e scienza. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
@ -2325,23 +2493,44 @@
"description": "o1 è il nuovo modello di inferenza di OpenAI, adatto a compiti complessi che richiedono una vasta conoscenza generale. Questo modello ha un contesto di 128K e una data di cutoff della conoscenza di ottobre 2023."
},
"openai/o3": {
"description": "o3 è un modello potente e versatile, che si distingue in diversi ambiti. Stabilisce nuovi standard per compiti di matematica, scienza, programmazione e ragionamento visivo. È anche abile nella scrittura tecnica e nel seguire istruzioni. Gli utenti possono utilizzarlo per analizzare testi, codici e immagini, risolvendo problemi complessi in più passaggi."
"description": "o3 di OpenAI è il modello di ragionamento più potente, stabilendo nuovi standard in codifica, matematica, scienza e percezione visiva. Eccelle in query complesse che richiedono analisi multidisciplinari, con vantaggi speciali nell'analisi di immagini, grafici e diagrammi."
},
"openai/o3-mini": {
"description": "o3-mini offre alta intelligenza mantenendo gli stessi obiettivi di costo e latenza di o1-mini."
"description": "o3-mini è l'ultimo modello di ragionamento piccolo di OpenAI, che offre alta intelligenza con gli stessi obiettivi di costo e latenza di o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini alta versione di ragionamento, offre alta intelligenza mantenendo gli stessi obiettivi di costo e latenza di o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini è ottimizzato per un'inferenza rapida ed efficace, mostrando un'elevata efficienza e prestazioni in compiti di codifica e visivi."
"description": "o4-mini di OpenAI offre ragionamento veloce e conveniente, con prestazioni eccezionali per la sua dimensione, specialmente in matematica (eccellente nel benchmark AIME), codifica e compiti visivi."
},
"openai/o4-mini-high": {
"description": "Versione ad alta capacità di inferenza di o4-mini, ottimizzata per un'inferenza rapida ed efficace, mostrando un'elevata efficienza e prestazioni in compiti di codifica e visivi."
},
"openai/text-embedding-3-large": {
"description": "Il modello di embedding più capace di OpenAI, adatto a compiti in inglese e non inglese."
},
"openai/text-embedding-3-small": {
"description": "Versione migliorata e più performante del modello di embedding ada di OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modello tradizionale di embedding testuale di OpenAI."
},
"openrouter/auto": {
"description": "In base alla lunghezza del contesto, al tema e alla complessità, la tua richiesta verrà inviata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-regolato) o GPT-4o."
},
"perplexity/sonar": {
"description": "Prodotto leggero di Perplexity con capacità di ricerca integrata, più veloce e meno costoso di Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Prodotto di punta di Perplexity con capacità di ricerca integrata, supporta query avanzate e operazioni successive."
},
"perplexity/sonar-reasoning": {
"description": "Modello focalizzato sul ragionamento che produce catene di pensiero (CoT) nelle risposte, offrendo spiegazioni dettagliate con ricerca integrata."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) nelle risposte, offrendo spiegazioni complete con capacità di ricerca potenziata e molteplici query di ricerca per richiesta."
},
"phi3": {
"description": "Phi-3 è un modello open source leggero lanciato da Microsoft, adatto per integrazioni efficienti e ragionamento su larga scala."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Il modello v0-1.5-md è adatto per compiti quotidiani e generazione di interfacce utente (UI)"
},
"vercel/v0-1.0-md": {
"description": "Accesso al modello dietro v0 per generare, correggere e ottimizzare applicazioni web moderne, con ragionamento specifico per framework e conoscenze aggiornate."
},
"vercel/v0-1.5-md": {
"description": "Accesso al modello dietro v0 per generare, correggere e ottimizzare applicazioni web moderne, con ragionamento specifico per framework e conoscenze aggiornate."
},
"wan2.2-t2i-flash": {
"description": "Versione ultra-veloce Wanxiang 2.2, modello più recente. Miglioramenti completi in creatività, stabilità e realismo, con velocità di generazione elevata e ottimo rapporto qualità-prezzo."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Il modello Spark X1 sarà ulteriormente aggiornato, raggiungendo risultati in compiti generali come ragionamento, generazione di testo e comprensione del linguaggio, in linea con OpenAI o1 e DeepSeek R1, partendo da una posizione di leadership nei compiti matematici."
},
"xai/grok-2": {
"description": "Grok 2 è un modello linguistico all'avanguardia con capacità di ragionamento avanzate. Eccelle in chat, codifica e ragionamento, superando Claude 3.5 Sonnet e GPT-4-Turbo nella classifica LMSYS."
},
"xai/grok-2-vision": {
"description": "Il modello visivo Grok 2 eccelle in compiti basati sulla visione, offrendo prestazioni all'avanguardia in ragionamento matematico visivo (MathVista) e domande e risposte basate su documenti (DocVQA). È in grado di elaborare varie informazioni visive, inclusi documenti, grafici, diagrammi, screenshot e fotografie."
},
"xai/grok-3": {
"description": "Modello di punta di xAI, eccellente in casi d'uso aziendali come estrazione dati, codifica e sintesi testuale. Possiede una profonda conoscenza settoriale in finanza, sanità, legale e scienza."
},
"xai/grok-3-fast": {
"description": "Modello di punta di xAI, eccellente in casi d'uso aziendali come estrazione dati, codifica e sintesi testuale. La variante veloce del modello è servita su infrastrutture più rapide, offrendo tempi di risposta molto più brevi a un costo maggiore per token in output."
},
"xai/grok-3-mini": {
"description": "Modello leggero di xAI che riflette prima di rispondere. Ideale per compiti semplici o logici che non richiedono profonda conoscenza settoriale. La traccia di pensiero grezza è accessibile."
},
"xai/grok-3-mini-fast": {
"description": "Modello leggero di xAI che riflette prima di rispondere. Ideale per compiti semplici o logici che non richiedono profonda conoscenza settoriale. La traccia di pensiero grezza è accessibile. La variante veloce del modello è servita su infrastrutture più rapide, offrendo tempi di risposta molto più brevi a un costo maggiore per token in output."
},
"xai/grok-4": {
"description": "Il modello di punta più recente e migliore di xAI, che offre prestazioni senza pari in linguaggio naturale, matematica e ragionamento — il perfetto tuttofare."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 è una versione aggiornata di Yi. Utilizza un corpus di alta qualità di 500B token per il pre-addestramento continuo di Yi e viene finetunato su 3M campioni di micro-tuning diversificati."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V è lultima generazione di modelli visivolinguistici (VLM) rilasciata da Zhipu AI (智谱 AI). Il modello è costruito sul modello testuale di punta GLM-4.5Air, che dispone di 106 miliardi di parametri totali e 12 miliardi di parametri di attivazione, e adotta unarchitettura mixture-of-experts (MoE) con lobiettivo di offrire prestazioni eccellenti a un costo di inferenza ridotto. Dal punto di vista tecnico, GLM-4.5V prosegue la linea di GLM-4.1VThinking e introduce innovazioni come il codificatore di posizione rotazionale tridimensionale (3DRoPE), migliorando in modo significativo la percezione e il ragionamento sulle relazioni spaziali 3D. Grazie allottimizzazione nelle fasi di preaddestramento, finetuning supervisionato e apprendimento per rinforzo, il modello è in grado di gestire diversi tipi di contenuti visivi — immagini, video e documenti lunghi — e ha raggiunto livelli di eccellenza tra i modelli open source della stessa categoria in 41 benchmark multimodali pubblici. Inoltre, il modello introduce un interruttore per la “modalità pensiero” che consente allutente di scegliere con flessibilità tra risposte rapide e ragionamenti approfonditi, bilanciando efficienza ed efficacia."
},
"zai/glm-4.5": {
"description": "La serie di modelli GLM-4.5 è progettata specificamente come modelli base per agenti intelligenti. Il modello di punta GLM-4.5 integra 355 miliardi di parametri totali (32 miliardi attivi), unificando capacità di ragionamento, codifica e agenti per soddisfare esigenze applicative complesse. Come sistema di ragionamento ibrido, offre modalità operative doppie."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 e GLM-4.5-Air sono i nostri modelli di punta più recenti, progettati specificamente come modelli base per applicazioni agenti. Entrambi utilizzano un'architettura a esperti misti (MoE). GLM-4.5 ha 355 miliardi di parametri totali con 32 miliardi attivi per passaggio in avanti, mentre GLM-4.5-Air ha un design più snello con 106 miliardi di parametri totali e 12 miliardi attivi."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V è costruito sul modello base GLM-4.5-Air, eredita la tecnologia verificata di GLM-4.1V-Thinking e si espande efficacemente con una potente architettura MoE da 106 miliardi di parametri."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 è un assistente di programmazione in coppia: basta descrivere le tue idee in linguaggio naturale e lui genererà codice e interfacce utente (UI) per il tuo progetto"
},
"vercelaigateway": {
"description": "Vercel AI Gateway offre un'API unificata per accedere a oltre 100 modelli, consentendo l'utilizzo di modelli di diversi fornitori come OpenAI, Anthropic, Google tramite un unico endpoint. Supporta impostazioni di budget, monitoraggio dell'utilizzo, bilanciamento del carico delle richieste e failover."
},
"vertexai": {
"description": "La serie Gemini di Google è il suo modello AI più avanzato e versatile, sviluppato da Google DeepMind, progettato per essere multimodale e supportare la comprensione e l'elaborazione senza soluzione di continuità di testo, codice, immagini, audio e video. Adatta a una varietà di ambienti, dai data center ai dispositivi mobili, migliora notevolmente l'efficienza e l'ampia applicabilità dei modelli AI."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "52Bパラメータうち12Bがアクティブの多言語モデルで、256Kの長いコンテキストウィンドウ、関数呼び出し、構造化出力、事実に基づく生成を提供します。"
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパートMoEモデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。"
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパートMoEモデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。"
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパートMoEモデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。"
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 は Qwen シリーズの最新世代の大規模言語モデルで、包括的な密集型および混合エキスパートMoEモデルのセットを提供します。広範なトレーニングに基づき、Qwen3 は推論、指示遵守、エージェント能力、多言語対応において画期的な進歩を実現しています。"
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct は Qwen シリーズで最もエージェント能力に優れたコードモデルであり、エージェントによるコーディング、ブラウザ操作、その他の基本的なコーディングタスクにおいて顕著な性能を発揮し、Claude Sonnet と同等の結果を達成しています。"
},
"amazon/nova-lite": {
"description": "非常に低コストで、画像、動画、テキスト入力を高速に処理するマルチモーダルモデルです。"
},
"amazon/nova-micro": {
"description": "テキストのみのモデルで、非常に低コストで最小遅延の応答を提供します。"
},
"amazon/nova-pro": {
"description": "高い能力を持つマルチモーダルモデルで、正確性、速度、コストの最適なバランスを実現し、幅広いタスクに適しています。"
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 は軽量で効率的な多言語埋め込みモデルで、1024、512、256次元をサポートします。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnetは業界標準を向上させ、競合モデルやClaude 3 Opusを超える性能を持ち、広範な評価で優れたパフォーマンスを示し、私たちの中程度のモデルの速度とコストを兼ね備えています。"
},
@ -627,25 +654,28 @@
"description": "Claude 2の更新版で、コンテキストウィンドウが2倍になり、長文書やRAGコンテキストにおける信頼性、幻覚率、証拠に基づく正確性が改善されています。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 HaikuはAnthropicの最も迅速でコンパクトなモデルで、ほぼ瞬時の応答を実現することを目的としています。迅速かつ正確な指向性能を備えています。"
"description": "Claude 3 Haiku は Anthropic の中で最も高速なモデルで、通常長いプロンプトを伴う企業向けワークロードに特化しています。Haiku は四半期報告書、契約書、法的案件など大量の文書を迅速に分析でき、そのコストは同クラスの他モデルの半分です。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opusは、Anthropicが高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知能、流暢さ、理解力において卓越したパフォーマンスを発揮します。"
"description": "Claude 3 Opus は Anthropic の最も知能的なモデルで、高度に複雑なタスクにおいて市場をリードする性能を持ちます。卓越した流暢さと人間に近い理解力で、オープンプロンプトや未経験のシナリオを自在に扱います。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haikuは、Anthropicの最も高速な次世代モデルです。Claude 3 Haikuと比較して、Claude 3.5 Haikuはすべてのスキルで向上しており、多くの知能ベンチマークテストで前世代の最大モデルClaude 3 Opusを超えています。"
"description": "Claude 3.5 Haiku は当社の最速モデルの次世代版です。Claude 3 Haiku と同等の速度を維持しつつ、すべてのスキルセットで改善され、多くの知能ベンチマークで前世代最大モデル Claude 3 Opus を上回っています。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 SonnetはOpusを超える能力を提供し、Sonnetよりも速い速度を持ちながら、Sonnetと同じ価格を維持します。Sonnetは特にプログラミング、データサイエンス、視覚処理、代理タスクに優れています。"
"description": "Claude 3.5 Sonnet は知能と速度の理想的なバランスを実現し、特に企業向けワークロードに適しています。同等製品と比較して低コストで強力な性能を提供し、大規模AI展開における高耐久性を念頭に設計されています。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnetは、Anthropicがこれまでに開発した最も知能の高いモデルであり、市場で初めての混合推論モデルです。Claude 3.7 Sonnetは、ほぼ瞬時の応答や段階的な思考を生成することができ、ユーザーはこれらのプロセスを明確に見ることができます。Sonnetは特にプログラミング、データサイエンス、視覚処理、代理タスクに優れています。"
"description": "Claude 3.7 Sonnet は初のハイブリッド推論モデルであり、Anthropic 史上最も知能的なモデルです。コーディング、コンテンツ生成、データ分析、計画タスクにおいて最先端の性能を提供し、前身の Claude 3.5 Sonnet のソフトウェア工学およびコンピュータ利用能力を基盤としています。"
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 は、Anthropic が高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知能、流暢さ、理解力の面で卓越した能力を発揮します。"
"description": "Claude Opus 4 は Anthropic 史上最強のモデルであり、世界最高のコーディングモデルです。SWE-bench72.5%)および Terminal-bench43.2%でトップを走っています。数千ステップに及ぶ長期タスクに持続的な性能を提供し、数時間連続稼働が可能で、AIエージェントの能力を大幅に拡張します。"
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 は Opus 4 のプラグアンドプレイ代替モデルで、実際のコーディングおよびエージェントタスクに卓越した性能と精度を提供します。SWE-bench Verified で74.5%の最先端コーディング性能を達成し、複雑な多段階問題をより厳密かつ詳細に処理します。"
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 はほぼ即時の応答や段階的な思考の延長を生成でき、ユーザーはこれらのプロセスを明確に確認できます。API ユーザーはモデルの思考時間を細かく制御することも可能です。"
"description": "Claude Sonnet 4 は Sonnet 3.7 の業界トップの能力を大幅に向上させ、コーディングで優れた性能を発揮し、SWE-bench で最先端の72.7%を達成しました。性能と効率のバランスが取れており、内部および外部のユースケースに適し、強化された制御性により実装の管理性が向上しています。"
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B は、720億パラメータ、160億アクティベーションパラメータのスパース大規模言語モデルであり、グループ化された混合エキスパートMoGEアーキテクチャに基づいています。エキスパート選択段階でエキスパートをグループ化し、各グループ内でトークンが均等にエキスパートをアクティベートするよう制約を設けることで、エキスパートの負荷バランスを実現し、昇騰プラットフォーム上でのモデル展開効率を大幅に向上させています。"
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+は最先端のRAG最適化モデルで、企業レベルのワークロードに対応することを目的としています。"
},
"cohere/command-a": {
"description": "Command A は Cohere 史上最も高性能なモデルで、ツール使用、エージェント、検索強化生成RAG、多言語ユースケースで優れた性能を示します。256Kのコンテキスト長を持ち、わずか2つのGPUで動作し、Command R+ 08-2024 と比較してスループットが150%向上しています。"
},
"cohere/command-r": {
"description": "Command R は対話型および長文コンテキストタスクに最適化された大規模言語モデルです。\"スケーラブル\"カテゴリに位置し、高性能と高精度のバランスを実現し、企業が概念実証を超えて本番環境に移行できるよう支援します。"
},
"cohere/command-r-plus": {
"description": "Command R+ は Cohere の最新大規模言語モデルで、対話型および長文コンテキストタスクに最適化されています。性能面で非常に優れており、企業が概念実証を超えて本番環境に移行できることを目指しています。"
},
"cohere/embed-v4.0": {
"description": "テキスト、画像、または混合コンテンツを分類または埋め込みに変換できるモデルです。"
},
"command": {
"description": "指示に従う対話モデルで、言語タスクにおいて高品質で信頼性が高く、私たちの基本生成モデルよりも長いコンテキスト長を持っています。"
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 は128Kの長いコンテキストと効率的なモード切替をサポートする大型ハイブリッド推論モデルで、ツール呼び出し、コード生成、複雑な推論タスクにおいて卓越した性能と速度を実現しています。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
"description": "DeepSeek R1 モデルは小規模なバージョンアップを経て、現在のバージョンは DeepSeek-R1-0528 です。最新のアップデートでは、計算資源の増加とトレーニング後のアルゴリズム最適化を活用し、推論の深度と能力が大幅に向上しました。数学、プログラミング、一般論理など複数のベンチマークで優れた性能を示し、全体的な性能は O3 や Gemini 2.5 Pro といった先行モデルに近づいています。"
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1は極めて少ないラベル付きデータでモデルの推論能力を大幅に向上させました。最終回答を出力する前に、モデルは思考の連鎖を出力し、最終答えの正確性を高めます。"
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1は極めて少ないラベル付きデータでモデルの推論能力を大幅に向上させました。最終回答を出力する前に、モデルは思考の連鎖を出力し、最終答えの正確性を高めます。"
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70BはLlama3.3 70Bに基づく大規模言語モデルで、DeepSeek R1の出力を微調整に利用し、大規模な最前線モデルと同等の競争力のある性能を実現しています。"
"description": "DeepSeek-R1-Distill-Llama-70B は 70B Llama モデルの蒸留版で、より効率的な変種です。テキスト生成タスクで強力な性能を維持しつつ、計算コストを削減し、展開や研究に適しています。Groq のカスタム言語処理ユニットLPUハードウェアでサービス提供され、高速かつ効率的な推論を実現します。"
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8BはLlama-3.1-8B-Instructに基づく蒸留大言語モデルで、DeepSeek R1の出力を使用してトレーニングされています。"
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1は、わずかなラベル付きデータしかない状況で、モデルの推論能力を大幅に向上させました。最終的な回答を出力する前に、モデルは思考の連鎖を出力し、最終的な答えの正確性を向上させます。"
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3は推論速度において前のモデルに比べて大きなブレークスルーを達成しました。オープンソースモデルの中で1位にランクインし、世界の最先端のクローズドモデルと肩を並べることができます。DeepSeek-V3はマルチヘッド潜在注意MLAとDeepSeekMoEアーキテクチャを採用しており、これらのアーキテクチャはDeepSeek-V2で完全に検証されています。さらに、DeepSeek-V3は負荷分散のための補助的な非損失戦略を開発し、より強力な性能を得るためにマルチラベル予測トレーニング目標を設定しました。"
"description": "強化された推論能力を持つ高速汎用大規模言語モデルです。"
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base は DeepSeek V3 モデルの改良版です。"
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3は推論速度において前のモデルに比べて大きなブレークスルーを達成しました。オープンソースモデルの中で1位にランクインし、世界の最先端のクローズドモデルと肩を並べることができます。DeepSeek-V3はマルチヘッド潜在注意MLAとDeepSeekMoEアーキテクチャを採用しており、これらのアーキテクチャはDeepSeek-V2で完全に検証されています。さらに、DeepSeek-V3は負荷分散のための補助的な非損失戦略を開発し、より強力な性能を得るためにマルチラベル予測トレーニング目標を設定しました。"
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Previewは、強力な複雑な推論能力を備え、論理推論、数学、プログラミングなどの分野で優れたパフォーマンスを発揮します。"
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash は次世代の機能と改良を提供し、卓越した速度、組み込みツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。"
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flashは、卓越した速度、ネイティブツールの使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを含む次世代の機能と改善を提供します。"
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimentalは、Googleの最新の実験的なマルチモーダルAIモデルであり、歴史的なバージョンと比較して特に世界知識、コード、長いコンテキストにおいて品質が向上しています。"
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite は次世代の機能と改良を提供し、卓越した速度、組み込みツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。"
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash は、Google の最先端の主力モデルであり、高度な推論、コーディング、数学および科学タスク向けに設計されています。内蔵の「思考」機能を備えており、より高い精度と詳細なコンテキスト処理を伴う応答を提供できます。\n\n注意このモデルには「思考」バリアントと非「思考」バリアントの2種類があります。出力の価格は思考機能の有効化により大きく異なります。標準バリアント「:thinking」サフィックスなしを選択した場合、モデルは明確に思考トークンの生成を回避します。\n\n思考機能を利用し思考トークンを受け取るには、「:thinking」バリアントを選択する必要があり、これにより思考出力の価格が高くなります。\n\nさらに、Gemini 2.5 Flash はドキュメントに記載されている「推論最大トークン数」パラメータhttps://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoningを通じて設定可能です。"
"description": "Gemini 2.5 Flash は思考モデルで、優れた包括的能力を提供します。価格と性能のバランスを目指し、マルチモーダルと100万トークンのコンテキストウィンドウをサポートします。"
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash 実験モデル、画像生成に対応"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite はバランスの取れた低遅延モデルで、思考予算とツール接続性Google Search の根拠付けやコード実行を設定可能です。マルチモーダル入力をサポートし、100万トークンのコンテキストウィンドウを提供します。"
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flashは、Googleの最先端の主力モデルであり、高度な推論、コーディング、数学、科学タスクのために設計されています。内蔵の「思考」能力を備えており、より高い精度と詳細なコンテキスト処理で応答を提供します。\n\n注意このモデルには、思考と非思考の2つのバリアントがあります。出力の価格は、思考能力が有効かどうかによって大きく異なります。標準バリアント「:thinking」サフィックスなしを選択すると、モデルは明示的に思考トークンの生成を避けます。\n\n思考能力を利用して思考トークンを受け取るには、「:thinking」バリアントを選択する必要があり、これにより思考出力の価格が高くなります。\n\nさらに、Gemini 2.5 Flashは、「推論最大トークン数」パラメータを介して構成可能であり、文書に記載されています (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flashは、Googleの最先端の主力モデルであり、高度な推論、コーディング、数学、科学タスクのために設計されています。内蔵の「思考」能力を備えており、より高い精度と詳細なコンテキスト処理で応答を提供します。\n\n注意このモデルには、思考と非思考の2つのバリアントがあります。出力の価格は、思考能力が有効かどうかによって大きく異なります。標準バリアント「:thinking」サフィックスなしを選択すると、モデルは明示的に思考トークンの生成を避けます。\n\n思考能力を利用して思考トークンを受け取るには、「:thinking」バリアントを選択する必要があり、これにより思考出力の価格が高くなります。\n\nさらに、Gemini 2.5 Flashは、「推論最大トークン数」パラメータを介して構成可能であり、文書に記載されています (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro は、Google の最先端の思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行い、長いコンテキストを用いて大規模なデータセット、コードベース、ドキュメントを分析できます。"
"description": "Gemini 2.5 Pro は当社の最先端推論 Gemini モデルで、複雑な問題を解決可能です。200万トークンのコンテキストウィンドウを持ち、テキスト、画像、音声、動画、PDFドキュメントなどのマルチモーダル入力をサポートします。"
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview は、Google の最先端の思考モデルであり、コード、数学、STEM 分野の複雑な問題を推論し、長いコンテキストを用いて大規模なデータセット、コードベース、ドキュメントを分析することができます。"
},
"google/gemini-embedding-001": {
"description": "最先端の埋め込みモデルで、英語、多言語、コードタスクにおいて優れた性能を発揮します。"
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flashは、最適化されたマルチモーダル処理能力を提供し、さまざまな複雑なタスクシナリオに適しています。"
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27Bは、Googleのオープンソース言語モデルで、効率と性能の面で新たな基準を打ち立てました。"
},
"google/text-embedding-005": {
"description": "コードおよび英語言語タスクに最適化された英語中心のテキスト埋め込みモデルです。"
},
"google/text-multilingual-embedding-002": {
"description": "多言語タスクに最適化された多言語テキスト埋め込みモデルで、多数の言語をサポートします。"
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turboは、さまざまなテキスト生成と理解タスクに適しており、現在はgpt-3.5-turbo-0125を指しています。"
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 第4世代テキストから画像へのモデルシリーズ ウルトラバージョン"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small はコード生成、デバッグ、リファクタリングタスクに最適で、最小遅延を実現します。"
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 は MoE アーキテクチャに基づく小型高性能大規模言語モデルです。総パラメータ数は16Bですが、各トークンあたりの活性化パラメータはわずか1.4B非埋め込み部分は789Mであり、非常に高速な生成速度を実現しています。効率的な MoE 設計と大規模かつ高品質なトレーニングデータのおかげで、活性化パラメータが1.4Bに過ぎないにもかかわらず、Ling-mini-2.0 は下流タスクにおいて10B以下のデンスLLMやより大規模なMoEモデルに匹敵するトップクラスの性能を発揮します。"
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1の指示調整済みテキストモデルで、多言語対話ユースケースに最適化され、多くの利用可能なオープンソースおよびクローズドチャットモデルの中で一般的な業界ベンチマークで優れた性能を発揮します。"
},
"meta/llama-3-70b": {
"description": "Meta によって指示遵守目的で精緻化された700億パラメータのオープンソースモデルです。Groq のカスタム言語処理ユニットLPUハードウェアでサービス提供され、高速かつ効率的な推論を実現します。"
},
"meta/llama-3-8b": {
"description": "Meta によって指示遵守目的で精緻化された80億パラメータのオープンソースモデルです。Groq のカスタム言語処理ユニットLPUハードウェアでサービス提供され、高速かつ効率的な推論を実現します。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高度なLLMで、合成データ生成、知識蒸留、推論をサポートし、チャットボット、プログラミング、特定の分野のタスクに適しています。"
},
"meta/llama-3.1-70b": {
"description": "Meta Llama 3 70B Instruct のアップデート版で、拡張された128Kコンテキスト長、多言語対応、推論能力の向上を含みます。"
},
"meta/llama-3.1-70b-instruct": {
"description": "複雑な対話を可能にし、卓越した文脈理解、推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B は128Kコンテキストウィンドウをサポートし、リアルタイム対話インターフェースやデータ分析に最適で、大型モデルと比較して大幅なコスト削減を実現します。Groq のカスタム言語処理ユニットLPUハードウェアでサービス提供されます。"
},
"meta/llama-3.1-8b-instruct": {
"description": "高度な最先端モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-11b": {
"description": "指示調整された画像推論生成モデル(テキスト+画像入力/テキスト出力)で、視覚認識、画像推論、キャプション生成、画像に関する一般的な質問応答に最適化されています。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
},
"meta/llama-3.2-1b": {
"description": "テキストのみのモデルで、多言語のローカル知識検索、要約、リライトなどのデバイス上ユースケースをサポートします。"
},
"meta/llama-3.2-1b-instruct": {
"description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-3b": {
"description": "テキストのみのモデルで、多言語のローカル知識検索、要約、リライトなどのデバイス上ユースケースをサポートするよう精緻化されています。"
},
"meta/llama-3.2-3b-instruct": {
"description": "最先端の小型言語モデルで、言語理解、卓越した推論能力、テキスト生成能力を備えています。"
},
"meta/llama-3.2-90b": {
"description": "指示調整された画像推論生成モデル(テキスト+画像入力/テキスト出力)で、視覚認識、画像推論、キャプション生成、画像に関する一般的な質問応答に最適化されています。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "最先端の視覚-言語モデルで、画像から高品質な推論を行うのが得意です。"
},
"meta/llama-3.3-70b": {
"description": "性能と効率の完璧な融合を実現したモデルです。高性能対話AIをサポートし、コンテンツ作成、企業アプリケーション、研究に特化し、テキスト要約、分類、感情分析、コード生成などの高度な言語理解能力を提供します。"
},
"meta/llama-3.3-70b-instruct": {
"description": "高度なLLMで、推論、数学、常識、関数呼び出しに優れています。"
},
"meta/llama-4-maverick": {
"description": "Llama 4 モデル群はネイティブマルチモーダルAIモデルで、テキストとマルチモーダル体験をサポートします。これらのモデルは混合エキスパートアーキテクチャを活用し、テキストと画像理解において業界トップの性能を提供します。Llama 4 Maverick は170億パラメータ、128エキスパートを持つモデルで、DeepInfra によってサービス提供されています。"
},
"meta/llama-4-scout": {
"description": "Llama 4 モデル群はネイティブマルチモーダルAIモデルで、テキストとマルチモーダル体験をサポートします。これらのモデルは混合エキスパートアーキテクチャを活用し、テキストと画像理解において業界トップの性能を提供します。Llama 4 Scout は170億パラメータ、16エキスパートを持つモデルで、DeepInfra によってサービス提供されています。"
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "同じPhi-3-mediumモデルですが、より大きなコンテキストサイズを持ち、RAGや少数ショットに適しています。"
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Smallは、コスト効率が高く、迅速かつ信頼性の高い選択肢で、翻訳、要約、感情分析などのユースケースに適しています。"
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 は最先端のコーディングモデルで、低遅延・高頻度ユースケースに最適化されています。80以上のプログラミング言語に精通し、中間埋め込みFIM、コード修正、テスト生成などのタスクで優れた性能を発揮します。"
},
"mistral/codestral-embed": {
"description": "コードデータベースやリポジトリに埋め込んでコーディングアシスタントを支援するコード埋め込みモデルです。"
},
"mistral/devstral-small": {
"description": "Devstral はソフトウェアエンジニアリングタスク向けのエージェント大規模言語モデルで、ソフトウェアエンジニアリングエージェントに最適です。"
},
"mistral/magistral-medium": {
"description": "複雑な思考を深い理解に支えられ、追跡可能で検証可能な透明な推論を備えています。タスク途中で言語を切り替えても、多数の言語で高忠実度の推論を維持します。"
},
"mistral/magistral-small": {
"description": "複雑な思考を深い理解に支えられ、追跡可能で検証可能な透明な推論を備えています。タスク途中で言語を切り替えても、多数の言語で高忠実度の推論を維持します。"
},
"mistral/ministral-3b": {
"description": "コンパクトで効率的なモデルで、スマートアシスタントやローカル分析などのデバイス上タスクに低遅延性能を提供します。"
},
"mistral/ministral-8b": {
"description": "より強力で高速かつメモリ効率の良い推論を持ち、複雑なワークフローや要求の厳しいエッジアプリケーションに最適です。"
},
"mistral/mistral-embed": {
"description": "意味検索、類似性、クラスタリング、RAGワークフロー向けの汎用テキスト埋め込みモデルです。"
},
"mistral/mistral-large": {
"description": "大規模推論能力や高度な専門性を必要とする複雑なタスクに最適なモデルで、合成テキスト生成、コード生成、RAG、エージェントに適しています。"
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B は Mistral.ai による240億パラメータのオープンソースモデルです。Saba はアラビア語、ペルシャ語、ウルドゥー語、ヘブライ語、インド言語での優れた性能を目指して特別に訓練されたモデルです。Groq のカスタム言語処理ユニットLPUハードウェアでサービス提供され、高速かつ効率的な推論を実現します。"
},
"mistral/mistral-small": {
"description": "Mistral Small は分類、カスタマーサポート、テキスト生成などのバッチ処理可能なシンプルなタスクに最適で、手頃な価格で優れた性能を提供します。"
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct モデル。8x22b は Mistral によってサービス提供される混合エキスパートのオープンソースモデルです。"
},
"mistral/pixtral-12b": {
"description": "画像理解能力を持つ12Bモデルで、テキストも扱えます。"
},
"mistral/pixtral-large": {
"description": "Pixtral Large は当社のマルチモーダルファミリーの第2モデルで、最先端の画像理解を示します。特に文書、図表、自然画像を理解でき、Mistral Large 2 の優れたテキスト理解能力も維持しています。"
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instructは、高性能で知られ、多言語タスクに適しています。"
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 は Kimi K2 の最新かつ最強のバージョンです。これはトップクラスの混合専門家MoE言語モデルであり、総パラメータ数は1兆、活性化パラメータ数は320億を誇ります。このモデルの主な特徴は、強化されたエージェントのコーディング知能であり、公開ベンチマークテストおよび実世界のエージェントコーディングタスクで顕著な性能向上を示しています。また、フロントエンドのコーディング体験も改善され、フロントエンドプログラミングの美観と実用性の両面で進歩しています。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 は Moonshot AI による大規模混合エキスパートMoE言語モデルで、総パラメータ数1兆、1回のフォワードパスあたり320億の活性化パラメータを持ちます。高度なツール使用、推論、コード合成などのエージェント能力に最適化されています。"
},
"moonshotai/kimi-k2-0905": {
"description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "kimi-k2-0905-previewモデルは256kのコンテキスト長を持ち、より強力なエージェントコーディング能力、より優れたフロントエンドコードの美観と実用性、そしてより良いコンテキスト理解能力を備えています。"
},
"morph/morph-v3-fast": {
"description": "Morph は Claude や GPT-4o のような最先端モデルが提案するコード変更を既存のコードファイルに高速に適用する専用AIモデルを提供します。高速で4500+トークン/秒の処理速度を持ち、AIコーディングワークフローの最終段階を担います。16k入力トークンと16k出力トークンをサポートします。"
},
"morph/morph-v3-large": {
"description": "Morph は Claude や GPT-4o のような最先端モデルが提案するコード変更を既存のコードファイルに適用する専用AIモデルを提供します。2500+トークン/秒の高速処理を持ち、AIコーディングワークフローの最終段階を担います。16k入力トークンと16k出力トークンをサポートします。"
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8BはNous Hermes 2のアップグレード版で、最新の内部開発データセットを含んでいます。"
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7Bは、スパースエキスパートモデルであり、複数のパラメータを利用して推論速度を向上させ、多言語およびコード生成タスクの処理に適しています。"
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI の GPT-3.5 シリーズで最も有能かつコスト効率の高いモデルで、チャット用途に最適化されていますが、従来の完了タスクでも良好な性能を示します。"
},
"openai/gpt-3.5-turbo-instruct": {
"description": "GPT-3 時代のモデルに類似した能力を持ち、従来の完了エンドポイントに対応し、チャット完了エンドポイントではありません。"
},
"openai/gpt-4-turbo": {
"description": "OpenAI の gpt-4-turbo は広範な一般知識と専門知識を持ち、自然言語の複雑な指示に従い、難解な問題を正確に解決します。知識カットオフは2023年4月で、128,000トークンのコンテキストウィンドウを備えています。"
},
"openai/gpt-4.1": {
"description": "GPT-4.1は、複雑なタスクに使用するためのフラッグシップモデルです。異なる分野での問題解決に非常に適しています。"
"description": "GPT 4.1 は OpenAI のフラッグシップモデルで、複雑なタスクに適しています。多分野にわたる問題解決に非常に優れています。"
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 miniは、知性、速度、コストのバランスを提供し、多くのユースケースにおいて魅力的なモデルとなっています。"
"description": "GPT 4.1 mini は知能、速度、コストのバランスを取り、多くのユースケースに魅力的なモデルです。"
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nanoは、最も速く、コスト効率の高いGPT-4.1モデルです。"
"description": "GPT-4.1 nano は最速かつ最もコスト効率の良い GPT 4.1 モデルです。"
},
"openai/gpt-4o": {
"description": "ChatGPT-4oは動的モデルで、最新のバージョンを維持するためにリアルタイムで更新されます。強力な言語理解と生成能力を組み合わせており、顧客サービス、教育、技術サポートなどの大規模なアプリケーションシナリオに適しています。"
"description": "OpenAI の GPT-4o は広範な一般知識と専門知識を持ち、自然言語の複雑な指示に従い、難解な問題を正確に解決します。より高速かつ低コストのAPIで GPT-4 Turbo と同等の性能を発揮します。"
},
"openai/gpt-4o-mini": {
"description": "GPT-4o miniはOpenAIがGPT-4 Omniの後に発表した最新モデルで、画像とテキストの入力をサポートし、テキストを出力します。彼らの最先端の小型モデルとして、最近の他の最前線モデルよりもはるかに安価で、GPT-3.5 Turboよりも60%以上安価です。最先端の知能を維持しつつ、顕著なコストパフォーマンスを誇ります。GPT-4o miniはMMLUテストで82%のスコアを獲得し、現在チャットの好みでGPT-4よりも高い評価を得ています。"
"description": "OpenAI の GPT-4o mini は最先端かつコスト効率の高い小型モデルです。マルチモーダル対応テキストまたは画像入力を受け付けテキスト出力で、gpt-3.5-turbo より高い知能を持ちつつ同等の速度を実現しています。"
},
"openai/gpt-5": {
"description": "GPT-5 は OpenAI のフラッグシップ言語モデルで、複雑な推論、広範な現実世界知識、コード集約型および多段階エージェントタスクに優れた性能を示します。"
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini はコスト最適化されたモデルで、推論・チャットタスクに優れています。速度、コスト、能力の最適なバランスを提供します。"
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano は高スループットモデルで、単純な指示や分類タスクに優れています。"
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120Bは1200億パラメータを持つ最先端の言語モデルで、ブラウザ検索とコード実行機能を内蔵し、推論能力も備えています。"
"description": "非常に有能な汎用大規模言語モデルで、強力かつ制御可能な推論能力を持ちます。"
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20Bは200億パラメータを持つ最先端の言語モデルで、ブラウザ検索とコード実行機能を内蔵し、推論能力も備えています。"
"description": "コンパクトでオープンソースの重みを持つ言語モデルで、低遅延かつリソース制限環境(ローカルやエッジ展開)に最適化されています。"
},
"openai/o1": {
"description": "o1はOpenAIの新しい推論モデルで、画像とテキストの入力をサポートし、テキストを出力します。広範な一般知識を必要とする複雑なタスクに適しています。このモデルは20万トークンのコンテキストと2023年10月の知識カットオフを備えています。"
"description": "OpenAI の o1 はフラッグシップ推論モデルで、深い思考を要する複雑な問題に特化しています。複雑な多段階タスクに強力な推論能力と高い正確性を提供します。"
},
"openai/o1-mini": {
"description": "o1-miniは、プログラミング、数学、科学のアプリケーションシーンに特化して設計された迅速で経済的な推論モデルです。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
@ -2325,23 +2493,44 @@
"description": "o1はOpenAIの新しい推論モデルで、広範な一般知識を必要とする複雑なタスクに適しています。このモデルは128Kのコンテキストを持ち、2023年10月の知識のカットオフがあります。"
},
"openai/o3": {
"description": "o3は、さまざまな分野で優れたパフォーマンスを発揮する強力な万能モデルです。数学、科学、プログラミング、視覚的推論タスクにおいて新たな基準を打ち立てました。また、技術的な執筆や指示の遵守にも優れています。ユーザーはこれを利用して、テキスト、コード、画像を分析し、複雑な多段階の問題を解決できます。"
"description": "OpenAI の o3 は最強の推論モデルで、コーディング、数学、科学、視覚認識において新たな最先端を打ち立てています。多面的な分析を要する複雑なクエリに優れ、画像、図表、グラフの解析に特に強みを持ちます。"
},
"openai/o3-mini": {
"description": "o3-miniは、o1-miniと同じコストと遅延目標で高い知性を提供します。"
"description": "o3-mini は OpenAI の最新小型推論モデルで、o1-mini と同等のコストと遅延目標で高い知能を提供します。"
},
"openai/o3-mini-high": {
"description": "o3-mini高推論レベル版は、o1-miniと同じコストと遅延目標で高い知性を提供します。"
},
"openai/o4-mini": {
"description": "o4-miniは迅速かつ効果的な推論のために最適化されており、コーディングや視覚タスクで非常に高い効率と性能を発揮します。"
"description": "OpenAI の o4-mini は高速かつコスト効率の良い推論を提供し、そのサイズにおいて卓越した性能を持ち、特に数学AIMEベンチマークで最高評価、コーディング、視覚タスクに優れています。"
},
"openai/o4-mini-high": {
"description": "o4-mini高推論レベル版で、迅速かつ効果的な推論のために最適化されており、コーディングや視覚タスクで非常に高い効率と性能を発揮します。"
},
"openai/text-embedding-3-large": {
"description": "OpenAI の最も有能な埋め込みモデルで、英語および非英語タスクに適しています。"
},
"openai/text-embedding-3-small": {
"description": "OpenAI の改良された高性能 ada 埋め込みモデルのバージョンです。"
},
"openai/text-embedding-ada-002": {
"description": "OpenAI の従来型テキスト埋め込みモデルです。"
},
"openrouter/auto": {
"description": "コンテキストの長さ、テーマ、複雑さに応じて、あなたのリクエストはLlama 3 70B Instruct、Claude 3.5 Sonnet自己調整、またはGPT-4oに送信されます。"
},
"perplexity/sonar": {
"description": "Perplexity の軽量製品で、検索根拠付け機能を持ち、Sonar Pro より高速かつ低コストです。"
},
"perplexity/sonar-pro": {
"description": "Perplexity のフラッグシップ製品で、検索根拠付け機能を持ち、高度なクエリとフォローアップ操作をサポートします。"
},
"perplexity/sonar-reasoning": {
"description": "推論に特化したモデルで、応答に思考連鎖CoTを出力し、検索根拠付けされた詳細な説明を提供します。"
},
"perplexity/sonar-reasoning-pro": {
"description": "高度な推論特化モデルで、応答に思考連鎖CoTを出力し、強化された検索能力と複数検索クエリを各リクエストで実行する包括的な説明を提供します。"
},
"phi3": {
"description": "Phi-3は、Microsoftが提供する軽量オープンモデルであり、高効率な統合と大規模な知識推論に適しています。"
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "v0-1.5-md モデルは、日常的なタスクやユーザーインターフェースUI生成に適しています"
},
"vercel/v0-1.0-md": {
"description": "v0 の背後にあるモデルにアクセスし、特定フレームワークの推論と最新知識を用いてモダンなWebアプリを生成、修正、最適化します。"
},
"vercel/v0-1.5-md": {
"description": "v0 の背後にあるモデルにアクセスし、特定フレームワークの推論と最新知識を用いてモダンなWebアプリを生成、修正、最適化します。"
},
"wan2.2-t2i-flash": {
"description": "万相2.2の高速版で、現時点で最新のモデルです。創造性、安定性、写実的質感が全面的にアップグレードされ、生成速度が速く、コストパフォーマンスに優れています。"
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Spark X1 モデルはさらにアップグレードされ、元の数学タスクで国内のリーダーシップを維持しつつ、推論、テキスト生成、言語理解などの一般的なタスクで OpenAI o1 および DeepSeek R1 に匹敵する効果を実現します。"
},
"xai/grok-2": {
"description": "Grok 2 は最先端の推論能力を持つ最前線の言語モデルです。チャット、コーディング、推論において高度な能力を持ち、LMSYSランキングで Claude 3.5 Sonnet や GPT-4-Turbo を上回ります。"
},
"xai/grok-2-vision": {
"description": "Grok 2 ビジョンモデルは視覚ベースのタスクで優れた性能を示し、視覚数学推論MathVistaや文書ベースの質問応答DocVQAで最先端の性能を提供します。文書、図表、グラフ、スクリーンショット、写真など多様な視覚情報を処理可能です。"
},
"xai/grok-3": {
"description": "xAI のフラッグシップモデルで、データ抽出、コーディング、テキスト要約など企業ユースケースで優れた性能を発揮します。金融、医療、法律、科学分野に深い専門知識を持ちます。"
},
"xai/grok-3-fast": {
"description": "xAI のフラッグシップモデルで、データ抽出、コーディング、テキスト要約など企業ユースケースで優れた性能を発揮します。金融、医療、法律、科学分野に深い専門知識を持ちます。高速モデルバリアントはより高速なインフラ上でサービスを提供し、標準よりもはるかに速い応答時間を実現します。速度向上は出力トークンあたりのコスト増を伴います。"
},
"xai/grok-3-mini": {
"description": "xAI の軽量モデルで、応答前に思考を行います。深い専門知識を必要としない単純または論理ベースのタスクに最適です。元の思考経路にアクセス可能です。"
},
"xai/grok-3-mini-fast": {
"description": "xAI の軽量モデルで、応答前に思考を行います。深い専門知識を必要としない単純または論理ベースのタスクに最適です。元の思考経路にアクセス可能です。高速モデルバリアントはより高速なインフラ上でサービスを提供し、標準よりもはるかに速い応答時間を実現します。速度向上は出力トークンあたりのコスト増を伴います。"
},
"xai/grok-4": {
"description": "xAI の最新かつ最高のフラッグシップモデルで、自然言語、数学、推論において比類なき性能を提供し、完璧なオールラウンダーです。"
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5は、Yiのアップグレード版です。500Bトークンの高品質なコーパスを使用してYiの事前学習を継続し、3Mの多様なファインチューニングサンプルでファインチューニングを行います。"
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5Vは智譜AIZhipu AIが公開した最新世代の視覚言語モデルVLMです。本モデルは総パラメータ数106B、アクティベーションパラメータ12Bを有するフラッグシップのテキストモデルGLM-4.5-Airを基盤に構築され、混合エキスパートMoEアーキテクチャを採用することで、より低い推論コストで卓越した性能を実現することを目的としています。GLM-4.5Vは技術的にGLM-4.1V-Thinkingの路線を継承し、三次元回転位置エンコーディング3D-RoPEなどの革新を導入することで三次元空間関係の認識と推論能力を大幅に強化しました。事前学習、教師あり微調整、強化学習の各段階での最適化により、本モデルは画像、動画、長文ドキュメントなど多様な視覚コンテンツを処理する能力を備え、41件の公開マルチモーダルベンチマークにおいて同クラスのオープンソースモデルのトップレベルに到達しています。さらに、モデルには「思考モード」スイッチが追加されており、迅速な応答と深い推論の間で柔軟に選択して効率と効果のバランスを取ることが可能です。"
},
"zai/glm-4.5": {
"description": "GLM-4.5 シリーズモデルはエージェント向けに設計された基盤モデルです。フラッグシップの GLM-4.5 は総パラメータ3550億320億アクティブを統合し、推論、コーディング、エージェント能力を統一して複雑なアプリケーションニーズに対応します。ハイブリッド推論システムとして二重の動作モードを提供します。"
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 と GLM-4.5-Air はエージェントアプリケーション向けに設計された最新のフラッグシップ基盤モデルです。両者とも混合エキスパートMoEアーキテクチャを活用しています。GLM-4.5 は総パラメータ3550億、1回のフォワードパスあたり320億のアクティブパラメータを持ち、GLM-4.5-Air はより簡素化された設計で総パラメータ1060億、アクティブパラメータ120億です。"
},
"zai/glm-4.5v": {
"description": "GLM-4.5V は GLM-4.5-Air 基盤モデルに基づき、GLM-4.1V-Thinking の検証済み技術を継承しつつ、強力な1060億パラメータの MoE アーキテクチャで効率的にスケールアップしています。"
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 はペアプログラミングアシスタントです。自然言語でアイデアを説明するだけで、プロジェクトのコードやユーザーインターフェースUIを生成します。"
},
"vercelaigateway": {
"description": "Vercel AI Gateway は、100以上のモデルにアクセスできる統一APIを提供し、単一のエンドポイントでOpenAI、Anthropic、Googleなど複数のプロバイダーのモデルを利用できます。予算設定、使用状況の監視、リクエストの負荷分散およびフェイルオーバーをサポートしています。"
},
"vertexai": {
"description": "GoogleのGeminiシリーズは、Google DeepMindによって開発された最先端の汎用AIモデルであり、マルチモーダル設計に特化しています。テキスト、コード、画像、音声、動画のシームレスな理解と処理をサポートし、データセンターからモバイルデバイスまでのさまざまな環境で使用できます。AIモデルの効率と適用範囲を大幅に向上させます。"
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "52B 매개변수(활성 12B)를 가진 다국어 모델로, 256K 길이의 컨텍스트 창, 함수 호출, 구조화된 출력 및 사실 기반 생성을 제공합니다."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3는 Qwen 시리즈의 최신 세대 대형 언어 모델로, 포괄적인 밀집 및 혼합 전문가(MoE) 모델 세트를 제공합니다. 광범위한 학습을 기반으로 Qwen3는 추론, 지시 준수, 에이전트 능력 및 다국어 지원에서 획기적인 발전을 이뤘습니다."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct는 Qwen 시리즈 중 가장 에이전트 특화된 코드 모델로, 에이전트 코딩, 에이전트 브라우저 사용 및 기타 기본 코딩 작업에서 뛰어난 성능을 발휘하며 Claude Sonnet과 동등한 결과를 달성했습니다."
},
"amazon/nova-lite": {
"description": "매우 저비용의 멀티모달 모델로, 이미지, 비디오 및 텍스트 입력을 매우 빠르게 처리합니다."
},
"amazon/nova-micro": {
"description": "텍스트 전용 모델로, 매우 낮은 비용으로 최소 지연 응답을 제공합니다."
},
"amazon/nova-pro": {
"description": "높은 역량을 갖춘 멀티모달 모델로, 정확성, 속도 및 비용의 최적 조합을 제공하며 광범위한 작업에 적합합니다."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2는 경량화되고 효율적인 다국어 임베딩 모델로, 1024, 512 및 256 차원을 지원합니다."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet는 업계 표준을 향상시켜 경쟁 모델 및 Claude 3 Opus를 초월하며, 광범위한 평가에서 뛰어난 성능을 보이고, 중간 수준 모델의 속도와 비용을 갖추고 있습니다."
},
@ -627,25 +654,28 @@
"description": "Claude 2의 업데이트 버전으로, 두 배의 컨텍스트 창을 갖추고 있으며, 긴 문서 및 RAG 컨텍스트에서의 신뢰성, 환각률 및 증거 기반 정확성이 개선되었습니다."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 거의 즉각적인 응답을 목표로 합니다. 빠르고 정확한 방향성 성능을 제공합니다."
"description": "Claude 3 Haiku는 Anthropic의 가장 빠른 모델로, 일반적으로 긴 프롬프트가 필요한 기업 워크로드에 최적화되어 있습니다. Haiku는 분기별 문서, 계약서 또는 법률 사건과 같은 대량 문서를 신속히 분석하며, 비용은 동급 성능 모델의 절반 수준입니다."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus는 Anthropic이 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력에서 뛰어난 성과를 보입니다."
"description": "Claude 3 Opus는 Anthropic의 가장 지능적인 모델로, 매우 복잡한 작업에서 시장 선도적인 성능을 보입니다. 탁월한 유창성과 인간과 유사한 이해력을 바탕으로 개방형 프롬프트와 전례 없는 시나리오를 능숙하게 처리합니다."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku는 Anthropic의 가장 빠른 차세대 모델입니다. Claude 3 Haiku와 비교하여 Claude 3.5 Haiku는 모든 기술에서 향상되었으며, 많은 지능 벤치마크 테스트에서 이전 세대의 가장 큰 모델인 Claude 3 Opus를 초월했습니다."
"description": "Claude 3.5 Haiku는 가장 빠른 모델의 차세대 버전입니다. Claude 3 Haiku와 유사한 속도를 유지하면서 모든 기술 영역에서 개선되었으며, 많은 지능 벤치마크에서 이전 세대 최대 모델인 Claude 3 Opus를 능가합니다."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet은 Opus를 초월하는 능력과 Sonnet보다 더 빠른 속도를 제공하며, Sonnet과 동일한 가격을 유지합니다. Sonnet은 프로그래밍, 데이터 과학, 비주얼 처리 및 에이전트 작업에 특히 강합니다."
"description": "Claude 3.5 Sonnet은 지능과 속도 사이의 이상적인 균형을 이룹니다—특히 기업 워크로드에 적합합니다. 동급 제품 대비 낮은 비용으로 강력한 성능을 제공하며, 대규모 AI 배포에서 높은 내구성을 위해 설계되었습니다."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet은 Anthropic이 지금까지 개발한 가장 지능적인 모델로, 시장에서 최초의 혼합 추론 모델입니다. Claude 3.7 Sonnet은 거의 즉각적인 응답이나 연장된 단계적 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. Sonnet은 프로그래밍, 데이터 과학, 시각 처리, 대리 작업에 특히 뛰어납니다."
"description": "Claude 3.7 Sonnet은 최초의 혼합 추론 모델이자 Anthropic의 가장 지능적인 모델입니다. 코딩, 콘텐츠 생성, 데이터 분석 및 계획 작업에서 최첨단 성능을 제공하며, 이전 모델인 Claude 3.5 Sonnet의 소프트웨어 엔지니어링 및 컴퓨터 활용 능력을 기반으로 구축되었습니다."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4는 Anthropic에서 고도로 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력 면에서 뛰어난 성과를 보입니다."
"description": "Claude Opus 4는 Anthropic의 가장 강력한 모델이자 세계 최고의 코딩 모델로, SWE-bench(72.5%) 및 Terminal-bench(43.2%)에서 선두를 달리고 있습니다. 수천 단계가 필요한 장기 작업에 지속적인 성능을 제공하며, 수시간 연속 작업이 가능해 AI 에이전트의 능력을 크게 확장합니다."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1은 Opus 4의 플러그 앤 플레이 대체 모델로, 실제 코딩 및 에이전트 작업에서 뛰어난 성능과 정확도를 제공합니다. Opus 4.1은 SWE-bench Verified에서 74.5%의 최첨단 코딩 성능을 달성했으며, 복잡한 다단계 문제를 더 엄격하고 세밀하게 처리합니다."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4는 거의 즉각적인 응답이나 단계별 심층 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수도 있습니다."
"description": "Claude Sonnet 4는 Sonnet 3.7의 업계 선도 능력을 크게 향상시켰으며, 코딩에서 뛰어난 성능을 보이고 SWE-bench에서 최첨단 72.7%를 달성했습니다. 이 모델은 성능과 효율성 사이의 균형을 이루며, 내부 및 외부 사용 사례에 적합하고 향상된 제어성을 통해 구현에 대한 더 큰 통제를 제공합니다."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B는 720억 개의 파라미터와 160억 활성 파라미터를 가진 희소 대형 언어 모델로, 그룹 혼합 전문가(MoGE) 아키텍처를 기반으로 합니다. 전문가 선택 단계에서 전문가를 그룹화하고 각 그룹 내에서 토큰이 동일 수의 전문가를 활성화하도록 제한하여 전문가 부하 균형을 달성함으로써 Ascend 플랫폼에서의 모델 배포 효율성을 크게 향상시켰습니다."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+는 최첨단 RAG 최적화 모델로, 기업용 워크로드에 대응하도록 설계되었습니다."
},
"cohere/command-a": {
"description": "Command A는 Cohere의 가장 강력한 모델로, 도구 사용, 에이전트, 검색 강화 생성(RAG) 및 다국어 사용 사례에서 뛰어난 성능을 보입니다. Command A는 256K의 컨텍스트 길이를 가지며, 단 두 개의 GPU로 실행 가능하고 Command R+ 08-2024 대비 처리량이 150% 향상되었습니다."
},
"cohere/command-r": {
"description": "Command R은 대화 상호작용 및 긴 컨텍스트 작업에 최적화된 대형 언어 모델입니다. '확장 가능' 범주에 속하며, 높은 성능과 강력한 정확성 사이의 균형을 이루어 기업이 개념 증명을 넘어 생산 단계로 나아갈 수 있도록 지원합니다."
},
"cohere/command-r-plus": {
"description": "Command R+는 Cohere의 최신 대형 언어 모델로, 대화 상호작용 및 긴 컨텍스트 작업에 최적화되어 있습니다. 성능 면에서 매우 뛰어나 기업이 개념 증명을 넘어 생산 단계로 진입할 수 있도록 설계되었습니다."
},
"cohere/embed-v4.0": {
"description": "텍스트, 이미지 또는 혼합 콘텐츠를 분류하거나 임베딩으로 변환할 수 있는 모델입니다."
},
"command": {
"description": "지시를 따르는 대화 모델로, 언어 작업에서 높은 품질과 신뢰성을 제공하며, 우리의 기본 생성 모델에 비해 더 긴 컨텍스트 길이를 가지고 있습니다."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1은 128K 긴 컨텍스트와 효율적인 모드 전환을 지원하는 대형 하이브리드 추론 모델로, 도구 호출, 코드 생성 및 복잡한 추론 작업에서 탁월한 성능과 속도를 구현했습니다."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
"description": "DeepSeek R1 모델은 소규모 버전 업그레이드를 거쳐 현재 버전은 DeepSeek-R1-0528입니다. 최신 업데이트에서 DeepSeek R1은 증가된 계산 자원과 학습 후 도입된 알고리즘 최적화 메커니즘을 활용하여 추론 깊이와 능력을 크게 향상시켰습니다. 이 모델은 수학, 프로그래밍 및 일반 논리 등 여러 벤치마크에서 뛰어난 성능을 보이며, 전체 성능은 현재 O3 및 Gemini 2.5 Pro와 같은 선도 모델에 근접합니다."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1은 매우 적은 라벨 데이터만으로도 모델 추론 능력을 크게 향상시켰습니다. 최종 답변 출력 전에 모델이 사고 과정(chain-of-thought)을 먼저 출력하여 최종 답변의 정확도를 높입니다."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1은 매우 적은 라벨 데이터만으로도 모델 추론 능력을 크게 향상시켰습니다. 최종 답변 출력 전에 모델이 사고 과정(chain-of-thought)을 먼저 출력하여 최종 답변의 정확도를 높입니다."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B는 Llama3.3 70B를 기반으로 한 대형 언어 모델로, DeepSeek R1의 출력을 활용하여 대형 최첨단 모델과 동등한 경쟁 성능을 달성했습니다."
"description": "DeepSeek-R1-Distill-Llama-70B는 70B Llama 모델의 증류 및 더 효율적인 변형입니다. 텍스트 생성 작업에서 강력한 성능을 유지하면서 배포 및 연구를 위한 계산 비용을 줄였습니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B는 Llama-3.1-8B-Instruct를 기반으로 한 증류 대형 언어 모델로, DeepSeek R1의 출력을 사용하여 훈련되었습니다."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1은 극히 적은 주석 데이터로 모델의 추론 능력을 크게 향상시킵니다. 최종 답변을 출력하기 전에 모델은 먼저 사고의 연쇄 내용을 출력하여 최종 답변의 정확성을 높입니다."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3는 추론 속도에서 이전 모델에 비해 중대한 돌파구를 이루었습니다. 오픈 소스 모델 중 1위를 차지하며, 세계에서 가장 진보된 폐쇄형 모델과 견줄 수 있습니다. DeepSeek-V3는 다중 헤드 잠재 주의(Multi-Head Latent Attention, MLA)와 DeepSeekMoE 아키텍처를 채택하였으며, 이 아키텍처는 DeepSeek-V2에서 철저히 검증되었습니다. 또한, DeepSeek-V3는 부하 균형을 위한 보조 무손실 전략을 개척하고, 더 강력한 성능을 위해 다중 레이블 예측 훈련 목표를 설정했습니다."
"description": "향상된 추론 능력을 갖춘 빠르고 범용적인 대형 언어 모델입니다."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base는 DeepSeek V3 모델의 개선된 버전입니다."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3는 추론 속도에서 이전 모델에 비해 중대한 돌파구를 이루었습니다. 오픈 소스 모델 중 1위를 차지하며, 세계에서 가장 진보된 폐쇄형 모델과 견줄 수 있습니다. DeepSeek-V3는 다중 헤드 잠재 주의(Multi-Head Latent Attention, MLA)와 DeepSeekMoE 아키텍처를 채택하였으며, 이 아키텍처는 DeepSeek-V2에서 철저히 검증되었습니다. 또한, DeepSeek-V3는 부하 균형을 위한 보조 무손실 전략을 개척하고, 더 강력한 성능을 위해 다중 레이블 예측 훈련 목표를 설정했습니다."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview는 강력한 복잡한 추론 능력을 갖추고 있으며, 논리 추론, 수학, 프로그래밍 등 분야에서 우수한 성능을 발휘합니다."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash는 뛰어난 속도, 원주율 도구 사용, 다중 모달 생성 및 1M 토큰 문맥 창을 포함한 차세대 기능과 개선 사항을 제공합니다."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental은 Google의 최신 실험적 다중 모달 AI 모델로, 역사적 버전과 비교하여 품질이 향상되었으며, 특히 세계 지식, 코드 및 긴 맥락에 대해 개선되었습니다."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite는 차세대 기능과 개선된 성능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하여 더 높은 정확도와 세밀한 문맥 처리가 가능한 응답을 제공합니다.\n\n참고: 이 모델에는 사고형과 비사고형 두 가지 변형이 있습니다. 출력 가격은 사고 능력 활성화 여부에 따라 크게 다릅니다. 표준 변형(:thinking 접미사 없음)을 선택하면 모델이 명확히 사고 토큰 생성을 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 받으려면 :thinking 변형을 선택해야 하며, 이 경우 더 높은 사고 출력 가격이 적용됩니다.\n\n또한, Gemini 2.5 Flash는 문서(https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)에 설명된 대로 '최대 추론 토큰 수' 매개변수를 통해 구성할 수 있습니다."
"description": "Gemini 2.5 Flash는 사고 모델로서 뛰어난 종합 능력을 제공합니다. 가격과 성능의 균형을 목표로 하며, 멀티모달 및 100만 토큰의 컨텍스트 윈도우를 지원합니다."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash 실험 모델로, 이미지 생성을 지원합니다."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite는 균형 잡힌 저지연 모델로, 구성 가능한 사고 예산과 도구 연결성(예: Google 검색 기반 및 코드 실행)을 제공합니다. 멀티모달 입력을 지원하며 100만 토큰의 컨텍스트 윈도우를 제공합니다."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하고 있어 더 높은 정확성과 세밀한 맥락 처리를 통해 응답을 제공합니다.\n\n주의: 이 모델에는 두 가지 변형이 있습니다: 사고 및 비사고. 출력 가격은 사고 능력이 활성화되었는지 여부에 따라 크게 다릅니다. 표준 변형(:thinking 접미사가 없는)을 선택하면 모델이 사고 토큰 생성을 명확히 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 수신하려면 :thinking 변형을 선택해야 하며, 이는 더 높은 사고 출력 가격을 발생시킵니다.\n\n또한, Gemini 2.5 Flash는 문서에 설명된 대로 '추론 최대 토큰 수' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash는 Google의 최첨단 주력 모델로, 고급 추론, 코딩, 수학 및 과학 작업을 위해 설계되었습니다. 내장된 '사고' 능력을 포함하고 있어 더 높은 정확성과 세밀한 맥락 처리를 통해 응답을 제공합니다.\n\n주의: 이 모델에는 두 가지 변형이 있습니다: 사고 및 비사고. 출력 가격은 사고 능력이 활성화되었는지 여부에 따라 크게 다릅니다. 표준 변형(:thinking 접미사가 없는)을 선택하면 모델이 사고 토큰 생성을 명확히 피합니다.\n\n사고 능력을 활용하고 사고 토큰을 수신하려면 :thinking 변형을 선택해야 하며, 이는 더 높은 사고 출력 가격을 발생시킵니다.\n\n또한, Gemini 2.5 Flash는 문서에 설명된 대로 '추론 최대 토큰 수' 매개변수를 통해 구성할 수 있습니다 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 사용해 대규모 데이터 세트, 코드베이스 및 문서를 분석합니다."
"description": "Gemini 2.5 Pro는 가장 진보된 추론 Gemini 모델로, 복잡한 문제 해결이 가능합니다. 200만 토큰의 컨텍스트 윈도우를 가지며, 텍스트, 이미지, 오디오, 비디오 및 PDF 문서를 포함한 멀티모달 입력을 지원합니다."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 사용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
},
"google/gemini-embedding-001": {
"description": "최첨단 임베딩 모델로, 영어, 다국어 및 코드 작업에서 뛰어난 성능을 보입니다."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash는 최적화된 다중 모달 처리 능력을 제공하며, 다양한 복잡한 작업 시나리오에 적합합니다."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B는 구글의 오픈 소스 언어 모델로, 효율성과 성능 면에서 새로운 기준을 세웠습니다."
},
"google/text-embedding-005": {
"description": "코드 및 영어 언어 작업에 최적화된 영어 중심 텍스트 임베딩 모델입니다."
},
"google/text-multilingual-embedding-002": {
"description": "다국어 작업에 최적화된 다국어 텍스트 임베딩 모델로, 다양한 언어를 지원합니다."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo는 다양한 텍스트 생성 및 이해 작업에 적합하며, 현재 gpt-3.5-turbo-0125를 가리킵니다."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4세대 텍스트-이미지 모델 시리즈 울트라 버전"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small은 코드 생성, 디버깅 및 리팩토링 작업에 이상적이며, 최소 지연 시간을 자랑합니다."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0은 MoE 아키텍처 기반의 소형 고성능 대형 언어 모델입니다. 총 160억 개의 파라미터를 보유하고 있지만, 각 토큰당 활성화되는 파라미터는 14억(비임베딩 7억 8,900만)으로 매우 높은 생성 속도를 자랑합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터 덕분에, 활성화 파라미터가 14억에 불과함에도 불구하고 Ling-mini-2.0은 하위 작업에서 100억 이하의 dense LLM 및 더 큰 규모의 MoE 모델과 견줄 만한 최상위 성능을 보여줍니다."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 지침 조정 텍스트 모델로, 다국어 대화 사례에 최적화되어 있으며, 다수의 오픈소스 및 폐쇄형 챗 모델 중에서 일반 산업 벤치마크에서 우수한 성능을 보입니다."
},
"meta/llama-3-70b": {
"description": "Meta에서 지시 준수 목적을 위해 정교하게 조정한 700억 매개변수 오픈소스 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
},
"meta/llama-3-8b": {
"description": "Meta에서 지시 준수 목적을 위해 정교하게 조정한 80억 매개변수 오픈소스 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
},
"meta/llama-3.1-405b-instruct": {
"description": "합성 데이터 생성, 지식 증류 및 추론을 지원하는 고급 LLM으로, 챗봇, 프로그래밍 및 특정 분야 작업에 적합합니다."
},
"meta/llama-3.1-70b": {
"description": "Meta Llama 3 70B Instruct의 업데이트 버전으로, 확장된 128K 컨텍스트 길이, 다국어 및 향상된 추론 능력을 포함합니다."
},
"meta/llama-3.1-70b-instruct": {
"description": "복잡한 대화를 가능하게 하며, 뛰어난 맥락 이해, 추론 능력 및 텍스트 생성 능력을 갖추고 있습니다."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B는 128K 컨텍스트 윈도우를 지원하여 실시간 대화 인터페이스 및 데이터 분석에 이상적이며, 더 큰 모델 대비 상당한 비용 절감을 제공합니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
},
"meta/llama-3.1-8b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 고급 최첨단 모델입니다."
},
"meta/llama-3.2-11b": {
"description": "지시 조정된 이미지 추론 생성 모델(텍스트 + 이미지 입력 / 텍스트 출력)로, 시각 인식, 이미지 추론, 캡션 생성 및 이미지 관련 일반 질문 응답에 최적화되어 있습니다."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
},
"meta/llama-3.2-1b": {
"description": "텍스트 전용 모델로, 다국어 로컬 지식 검색, 요약 및 재작성과 같은 장치 내 사용 사례를 지원합니다."
},
"meta/llama-3.2-1b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"meta/llama-3.2-3b": {
"description": "텍스트 전용 모델로, 다국어 로컬 지식 검색, 요약 및 재작성과 같은 장치 내 사용 사례를 위해 정교하게 조정되었습니다."
},
"meta/llama-3.2-3b-instruct": {
"description": "언어 이해, 뛰어난 추론 능력 및 텍스트 생성 능력을 갖춘 최첨단 소형 언어 모델입니다."
},
"meta/llama-3.2-90b": {
"description": "지시 조정된 이미지 추론 생성 모델(텍스트 + 이미지 입력 / 텍스트 출력)로, 시각 인식, 이미지 추론, 캡션 생성 및 이미지 관련 일반 질문 응답에 최적화되어 있습니다."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "이미지에서 고품질 추론을 수행하는 최첨단 비주얼-언어 모델입니다."
},
"meta/llama-3.3-70b": {
"description": "성능과 효율성의 완벽한 조합입니다. 이 모델은 고성능 대화형 AI를 지원하며, 콘텐츠 생성, 기업 애플리케이션 및 연구에 적합합니다. 텍스트 요약, 분류, 감정 분석 및 코드 생성 등 최첨단 언어 이해 능력을 제공합니다."
},
"meta/llama-3.3-70b-instruct": {
"description": "추론, 수학, 상식 및 함수 호출에 능숙한 고급 LLM입니다."
},
"meta/llama-4-maverick": {
"description": "Llama 4 모델군은 본래 멀티모달 AI 모델로, 텍스트 및 멀티모달 경험을 지원합니다. 이 모델들은 혼합 전문가 아키텍처를 활용하여 텍스트 및 이미지 이해에서 업계 선도적인 성능을 제공합니다. Llama 4 Maverick은 170억 매개변수와 128명의 전문가를 갖춘 모델로, DeepInfra에서 서비스됩니다."
},
"meta/llama-4-scout": {
"description": "Llama 4 모델군은 본래 멀티모달 AI 모델로, 텍스트 및 멀티모달 경험을 지원합니다. 이 모델들은 혼합 전문가 아키텍처를 활용하여 텍스트 및 이미지 이해에서 업계 선도적인 성능을 제공합니다. Llama 4 Scout는 170억 매개변수와 16명의 전문가를 갖춘 모델로, DeepInfra에서 서비스됩니다."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "동일한 Phi-3-medium 모델이지만 더 큰 컨텍스트 크기를 제공하여 RAG 또는 소량 프롬프트에 적합합니다."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small은 번역, 요약 및 감정 분석과 같은 사용 사례에 적합한 비용 효율적이고 빠르며 신뢰할 수 있는 옵션입니다."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01은 최첨단 코딩 모델로, 저지연 및 고빈도 사용 사례에 최적화되어 있습니다. 80개 이상의 프로그래밍 언어에 능통하며, 중간 채우기(FIM), 코드 수정 및 테스트 생성 작업에서 뛰어난 성능을 보입니다."
},
"mistral/codestral-embed": {
"description": "코딩 어시스턴트를 지원하기 위해 코드 데이터베이스 및 저장소에 임베딩할 수 있는 코드 임베딩 모델입니다."
},
"mistral/devstral-small": {
"description": "Devstral은 소프트웨어 엔지니어링 작업을 위한 에이전트 대형 언어 모델로, 소프트웨어 엔지니어링 에이전트에 이상적입니다."
},
"mistral/magistral-medium": {
"description": "복잡한 사고를 지원하는 깊은 이해를 바탕으로, 투명한 추론을 제공하여 사용자가 따라가고 검증할 수 있습니다. 작업 중간에 언어를 전환해도 여러 언어에서 높은 충실도의 추론을 유지합니다."
},
"mistral/magistral-small": {
"description": "복잡한 사고를 지원하는 깊은 이해를 바탕으로, 투명한 추론을 제공하여 사용자가 따라가고 검증할 수 있습니다. 작업 중간에 언어를 전환해도 여러 언어에서 높은 충실도의 추론을 유지합니다."
},
"mistral/ministral-3b": {
"description": "스마트 어시스턴트 및 로컬 분석과 같은 장치 내 작업을 위한 컴팩트하고 효율적인 모델로, 낮은 지연 성능을 제공합니다."
},
"mistral/ministral-8b": {
"description": "더 강력한 모델로, 더 빠르고 메모리 효율적인 추론을 제공하여 복잡한 워크플로우 및 까다로운 엣지 애플리케이션에 이상적입니다."
},
"mistral/mistral-embed": {
"description": "의미 검색, 유사성, 클러스터링 및 RAG 워크플로우에 사용되는 범용 텍스트 임베딩 모델입니다."
},
"mistral/mistral-large": {
"description": "Mistral Large는 대규모 추론 능력이나 고도로 전문화된 작업에 이상적이며, 합성 텍스트 생성, 코드 생성, RAG 또는 에이전트 작업에 적합합니다."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B는 Mistral.ai가 개발한 240억 매개변수 오픈소스 모델입니다. Saba는 아랍어, 페르시아어, 우르두어, 히브리어 및 인도 언어에서 뛰어난 성능을 발휘하도록 특별히 훈련된 전문 모델입니다. Groq의 맞춤형 언어 처리 유닛(LPU) 하드웨어를 사용하여 빠르고 효율적인 추론을 제공합니다."
},
"mistral/mistral-small": {
"description": "Mistral Small은 분류, 고객 지원 또는 텍스트 생성과 같이 대량 처리 가능한 간단한 작업에 이상적입니다. 합리적인 가격대에 뛰어난 성능을 제공합니다."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct 모델입니다. 8x22b는 Mistral이 서비스하는 혼합 전문가 오픈소스 모델입니다."
},
"mistral/pixtral-12b": {
"description": "텍스트와 함께 이미지 이해 능력을 갖춘 12B 모델입니다."
},
"mistral/pixtral-large": {
"description": "Pixtral Large는 멀티모달 제품군의 두 번째 모델로, 최첨단 수준의 이미지 이해를 보여줍니다. 특히 문서, 차트 및 자연 이미지 이해가 가능하며, Mistral Large 2의 선도적인 텍스트 이해 능력을 유지합니다."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct는 높은 성능으로 유명하며, 다양한 언어 작업에 적합합니다."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905는 Kimi K2의 최신이자 가장 강력한 버전입니다. 이 모델은 총 1조 개의 파라미터와 320억 개의 활성화 파라미터를 가진 최첨단 혼합 전문가(MoE) 언어 모델입니다. 주요 특징으로는 향상된 에이전트 코딩 지능으로, 공개 벤치마크 테스트와 실제 코딩 에이전트 작업에서 뛰어난 성능 향상을 보였으며, 프론트엔드 코딩 경험이 개선되어 프론트엔드 프로그래밍의 미적 측면과 실용성 모두에서 진전을 이루었습니다."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2는 Moonshot AI가 개발한 대규모 혼합 전문가(MoE) 언어 모델로, 총 1조 매개변수와 한 번의 순전파당 320억 활성 매개변수를 갖추고 있습니다. 고급 도구 사용, 추론 및 코드 합성을 포함한 에이전트 능력에 최적화되어 있습니다."
},
"moonshotai/kimi-k2-0905": {
"description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "kimi-k2-0905-preview 모델은 256k 문맥 길이를 가지며, 더욱 강력한 에이전틱 코딩(Agentic Coding) 능력, 뛰어난 프론트엔드 코드의 미적 감각과 실용성, 그리고 향상된 문맥 이해 능력을 갖추고 있습니다."
},
"morph/morph-v3-fast": {
"description": "Morph는 Claude 또는 GPT-4o와 같은 최첨단 모델이 제안하는 코드 변경 사항을 기존 코드 파일에 빠르게 적용하는 전문 AI 모델입니다. 초당 4500+ 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계를 담당합니다. 16k 입력 토큰과 16k 출력 토큰을 지원합니다."
},
"morph/morph-v3-large": {
"description": "Morph는 Claude 또는 GPT-4o와 같은 최첨단 모델이 제안하는 코드 변경 사항을 기존 코드 파일에 적용하는 전문 AI 모델입니다. 초당 2500+ 토큰 처리 속도를 제공하며, AI 코딩 워크플로우의 마지막 단계를 담당합니다. 16k 입력 토큰과 16k 출력 토큰을 지원합니다."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 업그레이드 버전으로, 최신 내부 개발 데이터 세트를 포함하고 있습니다."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B는 희소 전문가 모델로, 여러 매개변수를 활용하여 추론 속도를 높이며, 다국어 및 코드 생성 작업 처리에 적합합니다."
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI의 GPT-3.5 시리즈 중 가장 유능하고 비용 효율적인 모델로, 채팅 목적에 최적화되어 있지만 전통적인 완성 작업에서도 우수한 성능을 보입니다."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "GPT-3 시대 모델과 유사한 능력을 갖추었으며, 전통적인 완성 엔드포인트와 호환되며 채팅 완성 엔드포인트는 아닙니다."
},
"openai/gpt-4-turbo": {
"description": "OpenAI의 gpt-4-turbo는 광범위한 일반 지식과 도메인 전문성을 갖추어 자연어의 복잡한 지시를 따르고 어려운 문제를 정확히 해결할 수 있습니다. 지식 컷오프는 2023년 4월이며, 컨텍스트 윈도우는 128,000 토큰입니다."
},
"openai/gpt-4.1": {
"description": "GPT-4.1은 복잡한 작업을 위한 우리의 플래그십 모델입니다. 다양한 분야의 문제를 해결하는 데 매우 적합합니다."
"description": "GPT 4.1은 OpenAI의 플래그십 모델로, 복잡한 작업에 적합하며 다분야 문제 해결에 뛰어납니다."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini는 지능, 속도 및 비용 간의 균형을 제공하여 많은 사용 사례에서 매력적인 모델이 됩니다."
"description": "GPT 4.1 mini는 지능, 속도 및 비용 사이의 균형을 이루어 다양한 사용 사례에 매력적인 모델입니다."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT-4.1 모델입니다."
"description": "GPT-4.1 nano는 가장 빠르고 비용 효율적인 GPT 4.1 모델입니다."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o는 동적 모델로, 최신 버전을 유지하기 위해 실시간으로 업데이트됩니다. 강력한 언어 이해 및 생성 능력을 결합하여 고객 서비스, 교육 및 기술 지원을 포함한 대규모 응용 프로그램에 적합합니다."
"description": "OpenAI의 GPT-4o는 광범위한 일반 지식과 도메인 전문성을 갖추어 자연어의 복잡한 지시를 따르고 어려운 문제를 정확히 해결할 수 있습니다. GPT-4 Turbo와 동등한 성능을 더 빠르고 저렴한 API로 제공합니다."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini는 OpenAI가 GPT-4 Omni 이후에 출시한 최신 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 가장 진보된 소형 모델로, 최근의 다른 최첨단 모델보다 훨씬 저렴하며, GPT-3.5 Turbo보다 60% 이상 저렴합니다. 최첨단 지능을 유지하면서도 뛰어난 가성비를 자랑합니다. GPT-4o mini는 MMLU 테스트에서 82%의 점수를 기록했으며, 현재 채팅 선호도에서 GPT-4보다 높은 순위를 차지하고 있습니다."
"description": "OpenAI의 GPT-4o mini는 가장 진보되고 비용 효율적인 소형 모델입니다. 멀티모달(텍스트 또는 이미지 입력을 받아 텍스트 출력)이며, gpt-3.5-turbo보다 더 높은 지능을 가지면서도 동일한 속도를 유지합니다."
},
"openai/gpt-5": {
"description": "GPT-5는 OpenAI의 플래그십 언어 모델로, 복잡한 추론, 광범위한 현실 세계 지식, 코드 집약적 및 다단계 에이전트 작업에서 뛰어난 성능을 보입니다."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini는 비용 최적화된 모델로, 추론 및 채팅 작업에서 우수한 성능을 보이며 속도, 비용 및 능력 사이에서 최적의 균형을 제공합니다."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano는 높은 처리량을 제공하는 모델로, 간단한 지시나 분류 작업에 적합합니다."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B는 1,200억 개의 파라미터를 가진 최첨단 언어 모델로, 내장된 브라우저 검색 및 코드 실행 기능과 추론 능력을 갖추고 있습니다."
"description": "강력하고 제어 가능한 추론 능력을 갖춘 매우 유능한 범용 대형 언어 모델입니다."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B는 200억 개의 파라미터를 가진 최첨단 언어 모델로, 내장된 브라우저 검색 및 코드 실행 기능과 추론 능력을 갖추고 있습니다."
"description": "저지연 및 자원 제한 환경(로컬 및 엣지 배포 포함)에 최적화된 컴팩트한 오픈소스 가중치 언어 모델입니다."
},
"openai/o1": {
"description": "o1은 OpenAI의 새로운 추론 모델로, 이미지와 텍스트 입력을 지원하며 텍스트를 출력합니다. 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 20만 토큰의 컨텍스트와 2023년 10월 기준 지식을 보유하고 있습니다."
"description": "OpenAI의 o1은 깊은 사고가 필요한 복잡한 문제를 위해 설계된 플래그십 추론 모델로, 복잡한 다단계 작업에 강력한 추론 능력과 높은 정확도를 제공합니다."
},
"openai/o1-mini": {
"description": "o1-mini는 프로그래밍, 수학 및 과학 응용 프로그램을 위해 설계된 빠르고 경제적인 추론 모델입니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
@ -2325,23 +2493,44 @@
"description": "o1은 OpenAI의 새로운 추론 모델로, 광범위한 일반 지식이 필요한 복잡한 작업에 적합합니다. 이 모델은 128K의 컨텍스트와 2023년 10월의 지식 기준일을 가지고 있습니다."
},
"openai/o3": {
"description": "o3는 다재다능하고 강력한 모델로, 여러 분야에서 뛰어난 성능을 발휘합니다. 수학, 과학, 프로그래밍 및 시각적 추론 작업에 대한 새로운 기준을 설정했습니다. 기술 작문 및 지시 준수에도 능숙합니다. 사용자는 이를 통해 텍스트, 코드 및 이미지를 분석하고, 다단계 복잡한 문제를 해결할 수 있습니다."
"description": "OpenAI의 o3는 가장 강력한 추론 모델로, 코딩, 수학, 과학 및 시각 인식 분야에서 새로운 최첨단 수준을 설정했습니다. 다면적 분석이 필요한 복잡한 쿼리에 능하며, 이미지, 차트 및 그래픽 분석에 특별한 강점을 가집니다."
},
"openai/o3-mini": {
"description": "o3-mini는 o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
"description": "o3-mini는 OpenAI의 최신 소형 추론 모델로, o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
},
"openai/o3-mini-high": {
"description": "o3-mini 고급 추론 버전은 o1-mini와 동일한 비용 및 지연 목표에서 높은 지능을 제공합니다."
},
"openai/o4-mini": {
"description": "o4-mini는 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
"description": "OpenAI의 o4-mini는 빠르고 비용 효율적인 추론을 제공하며, 특히 수학(AIME 벤치마크 최고 성능), 코딩 및 시각 작업에서 뛰어난 성능을 보입니다."
},
"openai/o4-mini-high": {
"description": "o4-mini 고급 추론 버전으로, 빠르고 효율적인 추론을 위해 최적화되어 있으며, 코딩 및 시각적 작업에서 매우 높은 효율성과 성능을 자랑합니다."
},
"openai/text-embedding-3-large": {
"description": "OpenAI의 가장 유능한 임베딩 모델로, 영어 및 비영어 작업에 적합합니다."
},
"openai/text-embedding-3-small": {
"description": "OpenAI의 개선되고 성능이 향상된 ada 임베딩 모델 버전입니다."
},
"openai/text-embedding-ada-002": {
"description": "OpenAI의 전통적인 텍스트 임베딩 모델입니다."
},
"openrouter/auto": {
"description": "요청은 컨텍스트 길이, 주제 및 복잡성에 따라 Llama 3 70B Instruct, Claude 3.5 Sonnet(자기 조정) 또는 GPT-4o로 전송됩니다."
},
"perplexity/sonar": {
"description": "Perplexity의 경량 제품으로, 검색 기반 기능을 갖추었으며 Sonar Pro보다 빠르고 저렴합니다."
},
"perplexity/sonar-pro": {
"description": "Perplexity의 플래그십 제품으로, 검색 기반 기능을 갖추고 고급 쿼리 및 후속 작업을 지원합니다."
},
"perplexity/sonar-reasoning": {
"description": "추론에 중점을 둔 모델로, 응답에 사고 사슬(CoT)을 출력하며 검색 기반의 상세한 설명을 제공합니다."
},
"perplexity/sonar-reasoning-pro": {
"description": "고급 추론 중심 모델로, 응답에 사고 사슬(CoT)을 출력하며 향상된 검색 기능과 각 요청에 여러 검색 쿼리를 포함한 종합적인 설명을 제공합니다."
},
"phi3": {
"description": "Phi-3는 Microsoft에서 출시한 경량 오픈 모델로, 효율적인 통합 및 대규모 지식 추론에 적합합니다."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "v0-1.5-md 모델은 일상 작업 및 사용자 인터페이스(UI) 생성에 적합합니다"
},
"vercel/v0-1.0-md": {
"description": "특정 프레임워크 추론과 최신 지식을 갖춘 현대 웹 애플리케이션 생성, 수정 및 최적화를 위한 v0 기반 모델에 접근합니다."
},
"vercel/v0-1.5-md": {
"description": "특정 프레임워크 추론과 최신 지식을 갖춘 현대 웹 애플리케이션 생성, 수정 및 최적화를 위한 v0 기반 모델에 접근합니다."
},
"wan2.2-t2i-flash": {
"description": "만상2.2 초고속 버전으로, 현재 최신 모델입니다. 창의성, 안정성, 사실적 질감이 전면 업그레이드되었으며, 생성 속도가 빠르고 비용 효율성이 높습니다."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Spark X1 모델은 추가 업그레이드를 통해 기존의 수학 과제에서 국내 선두를 유지하며, 추론, 텍스트 생성, 언어 이해 등 일반 과제에서 OpenAI o1 및 DeepSeek R1과 동등한 성과를 달성합니다."
},
"xai/grok-2": {
"description": "Grok 2는 최첨단 추론 능력을 갖춘 최전선 언어 모델로, 채팅, 코딩 및 추론에서 뛰어난 능력을 보이며 LMSYS 순위에서 Claude 3.5 Sonnet 및 GPT-4-Turbo를 능가합니다."
},
"xai/grok-2-vision": {
"description": "Grok 2 비전 모델은 시각 기반 작업에서 뛰어난 성능을 보이며, 시각 수학 추론(MathVista) 및 문서 기반 질의응답(DocVQA)에서 최첨단 성능을 제공합니다. 문서, 차트, 그래프, 스크린샷 및 사진 등 다양한 시각 정보를 처리할 수 있습니다."
},
"xai/grok-3": {
"description": "xAI의 플래그십 모델로, 데이터 추출, 코딩 및 텍스트 요약과 같은 기업용 사례에서 뛰어난 성능을 보입니다. 금융, 의료, 법률 및 과학 분야에 깊은 도메인 지식을 갖추고 있습니다."
},
"xai/grok-3-fast": {
"description": "xAI의 플래그십 모델로, 데이터 추출, 코딩 및 텍스트 요약과 같은 기업용 사례에서 뛰어난 성능을 보입니다. 빠른 모델 변형은 더 빠른 인프라에서 서비스를 제공하며 표준 모델보다 훨씬 빠른 응답 시간을 제공합니다. 속도 향상은 출력 토큰당 더 높은 비용을 수반합니다."
},
"xai/grok-3-mini": {
"description": "xAI의 경량 모델로, 응답 전에 사고를 수행합니다. 깊은 도메인 지식이 필요 없는 간단하거나 논리 기반 작업에 적합하며, 원시 사고 경로에 접근할 수 있습니다."
},
"xai/grok-3-mini-fast": {
"description": "xAI의 경량 모델로, 응답 전에 사고를 수행합니다. 깊은 도메인 지식이 필요 없는 간단하거나 논리 기반 작업에 적합하며, 원시 사고 경로에 접근할 수 있습니다. 빠른 모델 변형은 더 빠른 인프라에서 서비스를 제공하며 표준 모델보다 훨씬 빠른 응답 시간을 제공합니다. 속도 향상은 출력 토큰당 더 높은 비용을 수반합니다."
},
"xai/grok-4": {
"description": "xAI의 최신이자 최고의 플래그십 모델로, 자연어, 수학 및 추론에서 비할 데 없는 성능을 제공하는 완벽한 만능 선수입니다."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5는 Yi의 업그레이드 버전입니다. 500B 토큰의 고품질 데이터셋을 사용하여 Yi를 추가로 사전 학습시키고, 3M개의 다양한 미세 조정 샘플을 사용하여 미세 조정되었습니다."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V는 Zhipu AI(智谱 AI)가 발표한 최신 세대의 비전-언어 모델(VLM)입니다. 이 모델은 총 106B 파라미터와 12B 활성 파라미터를 보유한 플래그십 텍스트 모델 GLM-4.5-Air를 기반으로 구축되었으며, 혼합 전문가(MoE) 아키텍처를 채택해 더 낮은 추론 비용으로 우수한 성능을 달성하는 것을 목표로 합니다. GLM-4.5V는 기술적으로 GLM-4.1V-Thinking의 노선을 계승하면서 3차원 회전 위치 인코딩(3D-RoPE) 등 혁신을 도입하여 3차원 공간 관계에 대한 인식 및 추론 능력을 크게 향상시켰습니다. 사전 학습, 감독 미세조정, 강화학습 단계에서의 최적화를 통해 이 모델은 이미지, 비디오, 장문 문서 등 다양한 시각 콘텐츠를 처리할 수 있으며, 41개의 공개 멀티모달 벤치마크에서 동급 오픈소스 모델 중 최상위 수준의 성능을 기록했습니다. 또한 모델에는 '사고 모드' 스위치가 추가되어 사용자가 빠른 응답과 심층 추론 사이에서 유연하게 선택해 효율성과 효과를 균형 있게 조절할 수 있습니다."
},
"zai/glm-4.5": {
"description": "GLM-4.5 시리즈 모델은 에이전트를 위해 특별히 설계된 기본 모델입니다. 플래그십 GLM-4.5는 총 3550억 매개변수(320억 활성)를 통합하여 추론, 코딩 및 에이전트 능력을 통합해 복잡한 응용 요구를 해결합니다. 혼합 추론 시스템으로서 이중 작동 모드를 제공합니다."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 및 GLM-4.5-Air는 에이전트 애플리케이션을 위한 기본 모델로 특별히 설계된 최신 플래그십 모델입니다. 두 모델 모두 혼합 전문가(MoE) 아키텍처를 활용합니다. GLM-4.5는 총 3550억 매개변수와 한 번의 순전파당 320억 활성 매개변수를 가지며, GLM-4.5-Air는 더 단순화된 설계로 총 1060억 매개변수와 120억 활성 매개변수를 갖추고 있습니다."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V는 GLM-4.5-Air 기본 모델을 기반으로 구축되었으며, 검증된 GLM-4.1V-Thinking 기술을 계승하면서 강력한 1060억 매개변수 MoE 아키텍처를 통해 효율적인 확장을 실현했습니다."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0는 페어 프로그래밍 도우미로, 자연어로 아이디어를 설명하기만 하면 프로젝트에 필요한 코드와 사용자 인터페이스(UI)를 생성해 줍니다."
},
"vercelaigateway": {
"description": "Vercel AI Gateway는 100개 이상의 모델에 접근할 수 있는 통합 API를 제공합니다. 단일 엔드포인트를 통해 OpenAI, Anthropic, Google 등 다양한 공급자의 모델을 사용할 수 있습니다. 예산 설정, 사용 모니터링, 요청 부하 분산 및 장애 조치를 지원합니다."
},
"vertexai": {
"description": "구글의 제미니 시리즈는 구글 딥마인드가 개발한 최첨단 범용 AI 모델로, 다중 모드에 맞춰 설계되어 텍스트, 코드, 이미지, 오디오 및 비디오의 원활한 이해와 처리를 지원합니다. 데이터 센터에서 모바일 장치에 이르기까지 다양한 환경에 적합하며, AI 모델의 효율성과 응용 범위를 크게 향상시킵니다."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Een meertalig model met 52 miljard parameters (waarvan 12 miljard actief), biedt een contextvenster van 256K tokens, functieaanroepen, gestructureerde output en feitelijke generatie."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 is de nieuwste generatie grote taalmodellen in de Qwen-serie, die een uitgebreide set van zowel dichte als hybride expert (MoE) modellen biedt. Gebaseerd op uitgebreide training levert Qwen3 baanbrekende vooruitgang in redeneren, instructienaleving, agentcapaciteiten en meertalige ondersteuning."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct is het meest agentgerichte codemodel van Qwen, met opmerkelijke prestaties in agentcodering, agentbrowsergebruik en andere fundamentele codeertaken, vergelijkbaar met de resultaten van Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Een zeer kostenefficiënt multimodaal model dat extreem snel afbeeldingen, video en tekst verwerkt."
},
"amazon/nova-micro": {
"description": "Een puur tekstmodel dat tegen zeer lage kosten de laagste latentie respons biedt."
},
"amazon/nova-pro": {
"description": "Een zeer capabel multimodaal model met de beste combinatie van nauwkeurigheid, snelheid en kosten, geschikt voor een breed scala aan taken."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 is een lichtgewicht, efficiënt meertalig embed-model dat 1024, 512 en 256 dimensies ondersteunt."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet heeft de industrienormen verbeterd, met prestaties die de concurrentiemodellen en Claude 3 Opus overtreffen, en presteert uitstekend in brede evaluaties, met de snelheid en kosten van ons gemiddelde model."
},
@ -627,25 +654,28 @@
"description": "De bijgewerkte versie van Claude 2, met een verdubbeling van het contextvenster en verbeteringen in betrouwbaarheid, hallucinatiepercentages en op bewijs gebaseerde nauwkeurigheid in lange documenten en RAG-contexten."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor bijna onmiddellijke reacties. Het biedt snelle en nauwkeurige gerichte prestaties."
"description": "Claude 3 Haiku is het snelste model van Anthropic tot nu toe, ontworpen voor bedrijfsworkloads die doorgaans langere prompts vereisen. Haiku kan snel grote hoeveelheden documenten analyseren, zoals kwartaalrapporten, contracten of juridische zaken, tegen de helft van de kosten van andere modellen in zijn prestatieniveau."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het excelleert in prestaties, intelligentie, vloeiendheid en begrip."
"description": "Claude 3 Opus is het slimste model van Anthropic met marktleidende prestaties bij zeer complexe taken. Het kan open prompts en ongeziene scenario's met uitstekende vloeiendheid en mensachtige begrip hanteren."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku is het snelste volgende generatie model van Anthropic. In vergelijking met Claude 3 Haiku heeft Claude 3.5 Haiku verbeteringen in verschillende vaardigheden en overtreft het de grootste modellen van de vorige generatie, Claude 3 Opus, in veel intellectuele benchmarktests."
"description": "Claude 3.5 Haiku is de volgende generatie van ons snelste model. Met een vergelijkbare snelheid als Claude 3 Haiku, is Claude 3.5 Haiku verbeterd in elke vaardigheid en overtreft het in veel intelligentie benchmarks ons vorige grootste model Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet biedt mogelijkheden die verder gaan dan Opus en een snellere snelheid dan Sonnet, terwijl het dezelfde prijs als Sonnet behoudt. Sonnet is bijzonder goed in programmeren, datawetenschap, visuele verwerking en agenttaken."
"description": "Claude 3.5 Sonnet bereikt een ideale balans tussen intelligentie en snelheid, vooral voor bedrijfsworkloads. Het levert krachtige prestaties tegen lagere kosten dan vergelijkbare producten en is ontworpen voor hoge duurzaamheid in grootschalige AI-implementaties."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet is het meest geavanceerde model van Anthropic tot nu toe en het eerste hybride redeneermodel op de markt. Claude 3.7 Sonnet kan bijna onmiddellijke reacties of uitgebreide stapsgewijze overpeinzingen genereren, waarbij gebruikers deze processen duidelijk kunnen volgen. Sonnet is bijzonder goed in programmeren, datawetenschap, visuele verwerking en agenttaken."
"description": "Claude 3.7 Sonnet is het eerste hybride redeneermodel en het slimste model van Anthropic tot nu toe. Het biedt geavanceerde prestaties in codering, contentgeneratie, data-analyse en planningsopdrachten, voortbouwend op de software-engineering en computergebruikcapaciteiten van zijn voorganger Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het blinkt uit in prestaties, intelligentie, vloeiendheid en begrip."
"description": "Claude Opus 4 is het krachtigste model van Anthropic tot nu toe en het beste codemodel ter wereld, leidend op SWE-bench (72,5%) en Terminal-bench (43,2%). Het levert consistente prestaties voor langdurige taken die focus en duizenden stappen vereisen, en kan urenlang onafgebroken werken wat de capaciteiten van AI-agenten aanzienlijk uitbreidt."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 is een plug-and-play alternatief voor Opus 4, dat uitstekende prestaties en nauwkeurigheid biedt voor praktische codeer- en agenttaken. Opus 4.1 verhoogt de geavanceerde codeerprestaties tot 74,5% op SWE-bench Verified en behandelt complexe meerstapsproblemen met grotere nauwkeurigheid en aandacht voor detail."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 kan bijna onmiddellijke reacties genereren of uitgebreide stapsgewijze overwegingen, waarbij gebruikers deze processen duidelijk kunnen volgen. API-gebruikers kunnen ook de denktijd van het model nauwkeurig regelen."
"description": "Claude Sonnet 4 bouwt voort op de toonaangevende capaciteiten van Sonnet 3.7 en blinkt uit in codering met een geavanceerde score van 72,7% op SWE-bench. Het model balanceert prestaties en efficiëntie, geschikt voor interne en externe toepassingen, en biedt grotere controle via verbeterde beheersbaarheid."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B is een sparsely activated groot taalmodel met 72 miljard parameters en 16 miljard geactiveerde parameters. Het is gebaseerd op de Group Mixture of Experts (MoGE) architectuur, waarbij experts worden gegroepeerd tijdens de selectie en tokens binnen elke groep een gelijk aantal experts activeren, wat zorgt voor een gebalanceerde expertbelasting en de efficiëntie van modelimplementatie op het Ascend-platform aanzienlijk verbetert."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ is een geavanceerd RAG-geoptimaliseerd model, ontworpen voor bedrijfsniveau workloads."
},
"cohere/command-a": {
"description": "Command A is het krachtigste model van Cohere tot nu toe, met uitstekende prestaties in toolgebruik, agenten, retrieval-augmented generation (RAG) en meertalige toepassingen. Command A heeft een contextlengte van 256K en kan draaien op slechts twee GPU's, met een 150% hogere doorvoer dan Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R is een groot taalmodel geoptimaliseerd voor dialooginteracties en lange contexttaken. Het valt in de categorie 'schaalbare' modellen en balanceert hoge prestaties met sterke nauwkeurigheid, waardoor bedrijven verder kunnen gaan dan proof-of-concept naar productie."
},
"cohere/command-r-plus": {
"description": "Command R+ is het nieuwste grote taalmodel van Cohere, geoptimaliseerd voor dialooginteracties en lange contexttaken. Het streeft naar uitzonderlijke prestaties, zodat bedrijven verder kunnen gaan dan proof-of-concept naar productie."
},
"cohere/embed-v4.0": {
"description": "Een model dat tekst, afbeeldingen of gemengde inhoud kan classificeren of omzetten in embeddings."
},
"command": {
"description": "Een instructievolgend dialoogmodel dat hoge kwaliteit en betrouwbaarheid biedt voor taaltaken, met een langere contextlengte dan ons basisgeneratiemodel."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 is een groot hybride redeneermodel dat 128K lange context ondersteunt en efficiënte moduswisselingen mogelijk maakt. Het levert uitstekende prestaties en snelheid bij toolaanroepen, codegeneratie en complexe redeneertaken."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
"description": "Het DeepSeek R1-model heeft een kleine versie-upgrade ondergaan, momenteel DeepSeek-R1-0528. In de nieuwste update verbetert DeepSeek R1 aanzienlijk de diepte en capaciteit van redeneren door gebruik te maken van verhoogde rekenkracht en na training geïntroduceerde algoritmische optimalisaties. Het model presteert uitstekend op benchmarks voor wiskunde, programmeren en algemene logica, en nadert nu de prestaties van toonaangevende modellen zoals O3 en Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 verbetert de redeneercapaciteit van het model aanzienlijk, zelfs met zeer weinig gelabelde data. Voor het geven van het uiteindelijke antwoord genereert het model eerst een keten van gedachten om de nauwkeurigheid van het antwoord te verhogen."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 verbetert de redeneercapaciteit van het model aanzienlijk, zelfs met zeer weinig gelabelde data. Voor het geven van het uiteindelijke antwoord genereert het model eerst een keten van gedachten om de nauwkeurigheid van het antwoord te verhogen."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B is een groot taalmodel gebaseerd op Llama3.3 70B, dat gebruikmaakt van de fine-tuning van DeepSeek R1-output en vergelijkbare concurrentieprestaties bereikt als grote vooraanstaande modellen."
"description": "DeepSeek-R1-Distill-Llama-70B is een gedistilleerde, efficiëntere variant van het 70B Llama-model. Het behoudt sterke prestaties bij tekstgeneratietaken en vermindert de rekenbelasting voor gemakkelijke implementatie en onderzoek. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B is een gedistilleerd groot taalmodel gebaseerd op Llama-3.1-8B-Instruct, dat is getraind met behulp van de output van DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 heeft de redeneringscapaciteiten van het model aanzienlijk verbeterd, zelfs met zeer weinig gelabelde gegevens. Voordat het model het uiteindelijke antwoord geeft, genereert het eerst een denkproces om de nauwkeurigheid van het uiteindelijke antwoord te verbeteren."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 heeft een belangrijke doorbraak bereikt in inferentiesnelheid ten opzichte van eerdere modellen. Het staat op de eerste plaats onder open-source modellen en kan zich meten met de meest geavanceerde gesloten modellen ter wereld. DeepSeek-V3 maakt gebruik van Multi-Head Latent Attention (MLA) en de DeepSeekMoE-architectuur, die grondig zijn gevalideerd in DeepSeek-V2. Bovendien introduceert DeepSeek-V3 een aanvullende verliesloze strategie voor load balancing en stelt het multi-label voorspellingsdoelen in om sterkere prestaties te behalen."
"description": "Snel en universeel groot taalmodel met verbeterde redeneercapaciteiten."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base is een verbeterde versie van het DeepSeek V3-model."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 heeft een belangrijke doorbraak bereikt in inferentiesnelheid ten opzichte van eerdere modellen. Het staat op de eerste plaats onder open-source modellen en kan zich meten met de meest geavanceerde gesloten modellen ter wereld. DeepSeek-V3 maakt gebruik van Multi-Head Latent Attention (MLA) en de DeepSeekMoE-architectuur, die grondig zijn gevalideerd in DeepSeek-V2. Bovendien introduceert DeepSeek-V3 een aanvullende verliesloze strategie voor load balancing en stelt het multi-label voorspellingsdoelen in om sterkere prestaties te behalen."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview heeft krachtige complexe redeneercapaciteiten en presteert uitstekend in logische redenering, wiskunde en programmeren."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash biedt next-gen functies en verbeteringen, waaronder uitstekende snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1M tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental is Google's nieuwste experimentele multimodale AI-model, met een aanzienlijke kwaliteitsverbetering ten opzichte van eerdere versies, vooral voor wereldkennis, code en lange context."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite biedt next-generation functies en verbeteringen, waaronder uitstekende snelheid, ingebouwde toolintegratie, multimodale generatie en een contextvenster van 1 miljoen tokens."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash is het meest geavanceerde hoofdmodel van Google, speciaal ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denk'-mogelijkheden, waardoor het reacties kan leveren met hogere nauwkeurigheid en gedetailleerdere contextverwerking.\n\nLet op: dit model heeft twee varianten: denkend en niet-denkend. De prijsstelling van de output verschilt aanzienlijk afhankelijk van of de denkcapaciteit is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' achtervoegsel), zal het model expliciet vermijden denk-tokens te genereren.\n\nOm gebruik te maken van de denkcapaciteit en denk-tokens te ontvangen, moet u de ':thinking' variant selecteren, wat resulteert in een hogere prijs voor denk-output.\n\nDaarnaast kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'maximale tokens voor redenering', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash is een denkmodel met uitstekende allround capaciteiten. Het is ontworpen om een balans te vinden tussen prijs en prestaties, ondersteunt multimodale input en een contextvenster van 1 miljoen tokens."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash experimenteel model, ondersteunt beeldgeneratie"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite is een gebalanceerd, laag-latentie model met configureerbaar denkbudget en toolconnectiviteit (zoals Google Search grounding en code-executie). Het ondersteunt multimodale input en biedt een contextvenster van 1 miljoen tokens."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash is Google's meest geavanceerde hoofmodel, ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denkkracht', waardoor het in staat is om antwoorden te geven met een hogere nauwkeurigheid en gedetailleerde contextverwerking.\n\nLet op: dit model heeft twee varianten: denken en niet-denken. De outputprijs verschilt aanzienlijk afhankelijk van of de denkkracht is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' suffix), zal het model expliciet vermijden om denk-tokens te genereren.\n\nOm gebruik te maken van de denkkracht en denk-tokens te ontvangen, moet u de ':thinking' variant kiezen, wat resulteert in hogere prijzen voor denk-output.\n\nBovendien kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'max tokens for reasoning', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash is Google's meest geavanceerde hoofmodel, ontworpen voor geavanceerde redenering, codering, wiskunde en wetenschappelijke taken. Het bevat ingebouwde 'denkkracht', waardoor het in staat is om antwoorden te geven met een hogere nauwkeurigheid en gedetailleerde contextverwerking.\n\nLet op: dit model heeft twee varianten: denken en niet-denken. De outputprijs verschilt aanzienlijk afhankelijk van of de denkkracht is geactiveerd. Als u de standaardvariant kiest (zonder de ':thinking' suffix), zal het model expliciet vermijden om denk-tokens te genereren.\n\nOm gebruik te maken van de denkkracht en denk-tokens te ontvangen, moet u de ':thinking' variant kiezen, wat resulteert in hogere prijzen voor denk-output.\n\nBovendien kan Gemini 2.5 Flash worden geconfigureerd via de parameter 'max tokens for reasoning', zoals beschreven in de documentatie (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro is het meest geavanceerde denkmodel van Google, in staat om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en om met lange context grote datasets, codebases en documentatie te analyseren."
"description": "Gemini 2.5 Pro is ons meest geavanceerde redeneermodel, in staat om complexe problemen op te lossen. Het heeft een contextvenster van 2 miljoen tokens en ondersteunt multimodale input, waaronder tekst, afbeeldingen, audio, video en PDF-documenten."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview is het meest geavanceerde denkkader van Google, dat in staat is om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en grote datasets, codebases en documenten te analyseren met behulp van lange context."
},
"google/gemini-embedding-001": {
"description": "State-of-the-art embed-model met uitstekende prestaties in Engels, meertalige en codeertaken."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash biedt geoptimaliseerde multimodale verwerkingscapaciteiten, geschikt voor verschillende complexe taakscenario's."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B is een open-source taalmodel van Google dat nieuwe normen heeft gesteld op het gebied van efficiëntie en prestaties."
},
"google/text-embedding-005": {
"description": "Engels-georiënteerd tekstembed-model geoptimaliseerd voor codeer- en Engelse taalopdrachten."
},
"google/text-multilingual-embedding-002": {
"description": "Meertalig tekstembed-model geoptimaliseerd voor cross-linguale taken, ondersteunt meerdere talen."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, geschikt voor verschillende tekstgeneratie- en begrijptaken, wijst momenteel naar gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4e generatie tekst-naar-beeld modelserie Ultra versie"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small is ideaal voor codegeneratie, debugging en refactoring taken met minimale latentie."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 is een klein, hoogwaardig groot taalmodel gebaseerd op de MoE-architectuur. Het heeft in totaal 16 miljard parameters, maar activeert slechts 1,4 miljard per token (non-embedding 789 miljoen), wat zorgt voor een extreem hoge generatie snelheid. Dankzij het efficiënte MoE-ontwerp en grootschalige, hoogwaardige trainingsdata levert Ling-mini-2.0, ondanks slechts 1,4 miljard geactiveerde parameters, toch topprestaties die vergelijkbaar zijn met dense LLM's onder de 10 miljard en grotere MoE-modellen in downstream taken."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 tekstmodel met instructie-finetuning, geoptimaliseerd voor meertalige dialoogtoepassingen, presteert uitstekend op veelgebruikte industriële benchmarks vergeleken met beschikbare open-source en gesloten chatmodellen."
},
"meta/llama-3-70b": {
"description": "Een open-source model met 70 miljard parameters, zorgvuldig afgestemd door Meta voor instructienaleving. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
},
"meta/llama-3-8b": {
"description": "Een open-source model met 8 miljard parameters, zorgvuldig afgestemd door Meta voor instructienaleving. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
},
"meta/llama-3.1-405b-instruct": {
"description": "Geavanceerd LLM, ondersteunt synthetische gegevensgeneratie, kennisdistillatie en redeneren, geschikt voor chatbots, programmeren en specifieke domeintaken."
},
"meta/llama-3.1-70b": {
"description": "Een bijgewerkte versie van Meta Llama 3 70B Instruct, met een uitgebreid contextvenster van 128K tokens, meertalige ondersteuning en verbeterde redeneercapaciteiten."
},
"meta/llama-3.1-70b-instruct": {
"description": "In staat om complexe gesprekken te ondersteunen, met uitstekende contextbegrip, redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B ondersteunt een contextvenster van 128K tokens, ideaal voor realtime dialooginterfaces en data-analyse, met aanzienlijke kostenbesparingen ten opzichte van grotere modellen. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
},
"meta/llama-3.1-8b-instruct": {
"description": "Geavanceerd, state-of-the-art model met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-11b": {
"description": "Instructie-afgestemd multimodaal redeneermodel (tekst + beeldinvoer / tekstuitvoer), geoptimaliseerd voor visuele herkenning, beeldredenering, titelgeneratie en het beantwoorden van algemene vragen over afbeeldingen."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
},
"meta/llama-3.2-1b": {
"description": "Puur tekstmodel, geschikt voor on-device toepassingen zoals meertalige lokale kennisopvraging, samenvatting en herschrijven."
},
"meta/llama-3.2-1b-instruct": {
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-3b": {
"description": "Puur tekstmodel, zorgvuldig afgestemd voor ondersteuning van on-device toepassingen zoals meertalige lokale kennisopvraging, samenvatting en herschrijven."
},
"meta/llama-3.2-3b-instruct": {
"description": "Geavanceerd, state-of-the-art klein taalmodel met taalbegrip, uitstekende redeneringsvaardigheden en tekstgeneratiecapaciteiten."
},
"meta/llama-3.2-90b": {
"description": "Instructie-afgestemd multimodaal redeneermodel (tekst + beeldinvoer / tekstuitvoer), geoptimaliseerd voor visuele herkenning, beeldredenering, titelgeneratie en het beantwoorden van algemene vragen over afbeeldingen."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "State-of-the-art visueel-taalmodel, gespecialiseerd in hoogwaardige redeneringen vanuit afbeeldingen."
},
"meta/llama-3.3-70b": {
"description": "De perfecte combinatie van prestaties en efficiëntie. Dit model ondersteunt krachtige dialoog-AI, ontworpen voor contentcreatie, bedrijfsapplicaties en onderzoek, met geavanceerde taalbegripcapaciteiten zoals tekstsamenvatting, classificatie, sentimentanalyse en codegeneratie."
},
"meta/llama-3.3-70b-instruct": {
"description": "Geavanceerd LLM, gespecialiseerd in redeneren, wiskunde, algemene kennis en functieaanroepen."
},
"meta/llama-4-maverick": {
"description": "De Llama 4 modelreeks is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt. Deze modellen gebruiken een hybride expertarchitectuur om toonaangevende prestaties te leveren in tekst- en beeldbegrip. Llama 4 Maverick is een model met 17 miljard parameters en 128 experts. Gehost door DeepInfra."
},
"meta/llama-4-scout": {
"description": "De Llama 4 modelreeks is een native multimodaal AI-model dat tekst- en multimodale ervaringen ondersteunt. Deze modellen gebruiken een hybride expertarchitectuur om toonaangevende prestaties te leveren in tekst- en beeldbegrip. Llama 4 Scout is een model met 17 miljard parameters en 16 experts. Gehost door DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Hetzelfde Phi-3-medium model, maar met een groter contextvenster, geschikt voor RAG of weinig prompts."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small is een kosteneffectieve, snelle en betrouwbare optie voor gebruikscases zoals vertaling, samenvatting en sentimentanalyse."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 is een geavanceerd codemodel, geoptimaliseerd voor lage latentie en hoge frequentie gebruiksscenario's. Het beheerst meer dan 80 programmeertalen en blinkt uit in taken zoals fill-in-the-middle (FIM), codecorrectie en testgeneratie."
},
"mistral/codestral-embed": {
"description": "Een code-embed-model dat kan worden ingebed in code-databases en repositories ter ondersteuning van code-assistenten."
},
"mistral/devstral-small": {
"description": "Devstral is een agent-groot taalmodel voor software engineering taken, waardoor het een uitstekende keuze is voor software engineering agenten."
},
"mistral/magistral-medium": {
"description": "Complex denken ondersteund door diepgaand begrip, met transparante redenering die u kunt volgen en verifiëren. Dit model behoudt hoge-fideliteit redenering in meerdere talen, zelfs bij tussentijdse taalwisselingen in taken."
},
"mistral/magistral-small": {
"description": "Complex denken ondersteund door diepgaand begrip, met transparante redenering die u kunt volgen en verifiëren. Dit model behoudt hoge-fideliteit redenering in meerdere talen, zelfs bij tussentijdse taalwisselingen in taken."
},
"mistral/ministral-3b": {
"description": "Een compact, efficiënt model voor on-device taken zoals slimme assistenten en lokale analyse, met lage latentie prestaties."
},
"mistral/ministral-8b": {
"description": "Een krachtiger model met snellere, geheugen-efficiënte inferentie, ideaal voor complexe workflows en veeleisende edge-toepassingen."
},
"mistral/mistral-embed": {
"description": "Een universeel tekst-embed-model voor semantisch zoeken, gelijkenis, clustering en RAG-workflows."
},
"mistral/mistral-large": {
"description": "Mistral Large is ideaal voor complexe taken die grote redeneercapaciteit of hoge specialisatie vereisen, zoals synthetische tekstgeneratie, codegeneratie, RAG of agenten."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B is een open-source model met 24 miljard parameters ontwikkeld door Mistral.ai. Saba is een gespecialiseerd model dat is getraind om uit te blinken in Arabisch, Perzisch, Urdu, Hebreeuws en Indiase talen. Gehost door Groq met hun aangepaste Language Processing Unit (LPU) hardware voor snelle en efficiënte inferentie."
},
"mistral/mistral-small": {
"description": "Mistral Small is ideaal voor eenvoudige taken die in bulk kunnen worden uitgevoerd, zoals classificatie, klantenondersteuning of tekstgeneratie. Het biedt uitstekende prestaties tegen een betaalbare prijs."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct model. 8x22b is een hybride expert open-source model dat door Mistral wordt gehost."
},
"mistral/pixtral-12b": {
"description": "Een 12 miljard parameters model met beeldbegripcapaciteiten, naast tekst."
},
"mistral/pixtral-large": {
"description": "Pixtral Large is het tweede model in onze multimodale familie en toont geavanceerde beeldbegrip. Het model kan documenten, diagrammen en natuurlijke beelden begrijpen, terwijl het de toonaangevende tekstbegripcapaciteiten van Mistral Large 2 behoudt."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct staat bekend om zijn hoge prestaties en is geschikt voor verschillende taalgerelateerde taken."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste versie van Kimi K2. Het is een toonaangevend hybride expert (MoE) taalmodel met in totaal 1 biljoen parameters en 32 miljard geactiveerde parameters. De belangrijkste kenmerken van dit model zijn: verbeterde agent-coderingsintelligentie, met aanzienlijke prestatieverbeteringen in openbare benchmarktests en echte agent-coderingsopdrachten; verbeterde front-end coderingservaring, met vooruitgang in zowel esthetiek als bruikbaarheid van front-end programmeren."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 is een grootschalig hybride expert (MoE) taalmodel ontwikkeld door Moonshot AI, met in totaal 1 biljoen parameters en 32 miljard actieve parameters per voorwaartse pass. Het is geoptimaliseerd voor agentcapaciteiten, waaronder geavanceerd toolgebruik, redeneren en code-synthese."
},
"moonshotai/kimi-k2-0905": {
"description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Het kimi-k2-0905-preview model heeft een contextlengte van 256k, beschikt over sterkere Agentic Coding-capaciteiten, een opvallender esthetiek en bruikbaarheid van frontend-code, en een beter contextbegrip."
},
"morph/morph-v3-fast": {
"description": "Morph biedt een gespecialiseerd AI-model dat codewijzigingen, voorgesteld door toonaangevende modellen zoals Claude of GPT-4o, snel toepast op uw bestaande codebestanden - FAST - meer dan 4500 tokens per seconde. Het fungeert als de laatste stap in AI-codeerworkflows. Ondersteunt 16k input tokens en 16k output tokens."
},
"morph/morph-v3-large": {
"description": "Morph biedt een gespecialiseerd AI-model dat codewijzigingen, voorgesteld door toonaangevende modellen zoals Claude of GPT-4o, toepast op uw bestaande codebestanden - FAST - meer dan 2500 tokens per seconde. Het fungeert als de laatste stap in AI-codeerworkflows. Ondersteunt 16k input tokens en 16k output tokens."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B is een upgrade van Nous Hermes 2, met de nieuwste intern ontwikkelde datasets."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B is een spaarzaam expertmodel dat meerdere parameters benut om de inferentiesnelheid te verhogen, geschikt voor het verwerken van meertalige en codegeneratietaken."
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI's meest capabele en kosteneffectieve model in de GPT-3.5-serie, geoptimaliseerd voor chatdoeleinden maar presteert ook goed bij traditionele voltooiingstaken."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Vergelijkbare capaciteiten als modellen uit het GPT-3-tijdperk. Compatibel met traditionele voltooiingseindpunten in plaats van chatvoltooiingseindpunten."
},
"openai/gpt-4-turbo": {
"description": "OpenAI's gpt-4-turbo beschikt over uitgebreide algemene kennis en domeinspecialisatie, waardoor het complexe natuurlijke taalopdrachten kan volgen en moeilijke problemen nauwkeurig kan oplossen. De kennisdatum is april 2023 en het contextvenster is 128.000 tokens."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 is ons vlaggenschipmodel voor complexe taken. Het is zeer geschikt voor het oplossen van problemen over verschillende domeinen."
"description": "GPT 4.1 is het vlaggenschipmodel van OpenAI, geschikt voor complexe taken. Het is uitstekend in het oplossen van problemen over verschillende domeinen heen."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini biedt een balans tussen intelligentie, snelheid en kosten, waardoor het een aantrekkelijke keuze is voor veel gebruiksscenario's."
"description": "GPT 4.1 mini balanceert intelligentie, snelheid en kosten, waardoor het een aantrekkelijk model is voor veel toepassingen."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT-4.1 model."
"description": "GPT-4.1 nano is het snelste en meest kosteneffectieve GPT 4.1-model."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt om de meest actuele versie te behouden. Het combineert krachtige taalbegrip- en generatiecapaciteiten, geschikt voor grootschalige toepassingsscenario's, waaronder klantenservice, onderwijs en technische ondersteuning."
"description": "GPT-4o van OpenAI heeft uitgebreide algemene kennis en domeinspecialisatie, kan complexe natuurlijke taalopdrachten volgen en moeilijke problemen nauwkeurig oplossen. Het biedt prestaties vergelijkbaar met GPT-4 Turbo via een snellere en goedkopere API."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini is het nieuwste model van OpenAI, gelanceerd na GPT-4 Omni, dat tekst- en afbeeldingsinvoer ondersteunt en tekstuitvoer genereert. Als hun meest geavanceerde kleine model is het veel goedkoper dan andere recente toonaangevende modellen en meer dan 60% goedkoper dan GPT-3.5 Turbo. Het behoudt de meest geavanceerde intelligentie met een aanzienlijke prijs-kwaliteitverhouding. GPT-4o mini behaalde 82% op de MMLU-test en staat momenteel hoger in chatvoorkeuren dan GPT-4."
"description": "GPT-4o mini van OpenAI is hun meest geavanceerde en kosteneffectieve kleine model. Het is multimodaal (accepteert tekst- of beeldinvoer en genereert tekst) en intelligenter dan gpt-3.5-turbo, met vergelijkbare snelheid."
},
"openai/gpt-5": {
"description": "GPT-5 is het vlaggenschip taalmodel van OpenAI, uitmuntend in complex redeneren, uitgebreide wereldkennis, code-intensieve en meerstaps agenttaken."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini is een kosten-geoptimaliseerd model dat uitblinkt in redeneer- en chattaken. Het biedt de beste balans tussen snelheid, kosten en capaciteit."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano is een model met hoge doorvoer, uitstekend in eenvoudige instructies of classificatietaken."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B is een toonaangevend taalmodel met 120 miljard parameters, ingebouwde browserzoekfunctie en code-uitvoeringsmogelijkheden, en beschikt over redeneervermogen."
"description": "Een uiterst capabel universeel groot taalmodel met krachtige, controleerbare redeneercapaciteiten."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B is een toonaangevend taalmodel met 20 miljard parameters, ingebouwde browserzoekfunctie en code-uitvoeringsmogelijkheden, en beschikt over redeneervermogen."
"description": "Een compact open-source taalmodel, geoptimaliseerd voor lage latentie en omgevingen met beperkte middelen, inclusief lokale en edge-implementaties."
},
"openai/o1": {
"description": "o1 is het nieuwe redeneermodel van OpenAI, ondersteunt tekst- en beeldinvoer en genereert tekstuitvoer, geschikt voor complexe taken die brede algemene kennis vereisen. Dit model heeft een context van 200K en een kennisafkapdatum van oktober 2023."
"description": "OpenAI's o1 is het vlaggenschip redeneermodel, ontworpen voor complexe problemen die diep nadenken vereisen. Het biedt krachtige redeneercapaciteiten en hogere nauwkeurigheid voor complexe meerstaps taken."
},
"openai/o1-mini": {
"description": "o1-mini is een snel en kosteneffectief redeneermodel dat is ontworpen voor programmeer-, wiskunde- en wetenschappelijke toepassingen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
@ -2325,23 +2493,44 @@
"description": "o1 is het nieuwe redeneermodel van OpenAI, geschikt voor complexe taken die uitgebreide algemene kennis vereisen. Dit model heeft een context van 128K en een kennisafkapdatum van oktober 2023."
},
"openai/o3": {
"description": "o3 is een krachtige, veelzijdige model dat uitblinkt in verschillende domeinen. Het stelt nieuwe normen voor wiskunde, wetenschap, programmeren en visuele redeneertaken. Het is ook bedreven in technische schrijfvaardigheid en het opvolgen van instructies. Gebruikers kunnen het gebruiken om teksten, code en afbeeldingen te analyseren en complexe problemen met meerdere stappen op te lossen."
"description": "OpenAI's o3 is het krachtigste redeneermodel, dat nieuwe toonaangevende niveaus bereikt in codering, wiskunde, wetenschap en visuele perceptie. Het blinkt uit in complexe queries die veelzijdige analyse vereisen, met speciale sterkte in het analyseren van afbeeldingen, diagrammen en grafieken."
},
"openai/o3-mini": {
"description": "o3-mini biedt hoge intelligentie met dezelfde kosten- en vertragingdoelen als o1-mini."
"description": "o3-mini is het nieuwste kleine redeneermodel van OpenAI, dat hoge intelligentie biedt met dezelfde kosten- en latentie-doelen als o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini high is een versie met een hoog redeneerniveau die hoge intelligentie biedt met dezelfde kosten- en vertragingdoelen als o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini is geoptimaliseerd voor snelle en efficiënte inferentie, met hoge efficiëntie en prestaties in codering en visuele taken."
"description": "OpenAI's o4-mini biedt snelle, kosteneffectieve redeneermogelijkheden met uitstekende prestaties voor zijn formaat, vooral in wiskunde (beste in AIME benchmark), codering en visuele taken."
},
"openai/o4-mini-high": {
"description": "o4-mini high inference level versie, geoptimaliseerd voor snelle en efficiënte inferentie, met hoge efficiëntie en prestaties in codering en visuele taken."
},
"openai/text-embedding-3-large": {
"description": "OpenAI's meest capabele embed-model, geschikt voor Engelse en niet-Engelse taken."
},
"openai/text-embedding-3-small": {
"description": "Een verbeterde, beter presterende versie van OpenAI's ada embed-model."
},
"openai/text-embedding-ada-002": {
"description": "OpenAI's traditionele tekstembed-model."
},
"openrouter/auto": {
"description": "Afhankelijk van de contextlengte, het onderwerp en de complexiteit, wordt uw verzoek verzonden naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelfregulerend) of GPT-4o."
},
"perplexity/sonar": {
"description": "Perplexity's lichtgewicht product met zoekondersteuning, sneller en goedkoper dan Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Perplexity's vlaggenschipproduct met zoekondersteuning, geschikt voor geavanceerde queries en vervolgacties."
},
"perplexity/sonar-reasoning": {
"description": "Een op redenering gericht model dat chain-of-thought (CoT) outputt in reacties en gedetailleerde uitleg biedt met zoekondersteuning."
},
"perplexity/sonar-reasoning-pro": {
"description": "Een geavanceerd op redenering gericht model dat chain-of-thought (CoT) outputt in reacties en uitgebreide uitleg biedt met verbeterde zoekmogelijkheden en meerdere zoekopdrachten per verzoek."
},
"phi3": {
"description": "Phi-3 is een lichtgewicht open model van Microsoft, geschikt voor efficiënte integratie en grootschalige kennisinferentie."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Het v0-1.5-md model is geschikt voor dagelijkse taken en het genereren van gebruikersinterfaces (UI)"
},
"vercel/v0-1.0-md": {
"description": "Toegang tot het model achter v0 voor het genereren, repareren en optimaliseren van moderne webapplicaties, met framework-specifieke redenering en up-to-date kennis."
},
"vercel/v0-1.5-md": {
"description": "Toegang tot het model achter v0 voor het genereren, repareren en optimaliseren van moderne webapplicaties, met framework-specifieke redenering en up-to-date kennis."
},
"wan2.2-t2i-flash": {
"description": "Wanxiang 2.2 Flash-versie, het nieuwste model. Volledige upgrades in creativiteit, stabiliteit en realistische textuur, met snelle generatie en hoge kosteneffectiviteit."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Het Spark X1-model zal verder worden geüpgraded, met verbeterde prestaties in redenering, tekstgeneratie en taalbegrip, ter vergelijking met OpenAI o1 en DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 is een geavanceerd taalmodel met state-of-the-art redeneercapaciteiten. Het blinkt uit in chat, codering en redeneren, en presteert beter dan Claude 3.5 Sonnet en GPT-4-Turbo op de LMSYS-ranglijst."
},
"xai/grok-2-vision": {
"description": "Grok 2 Vision model presteert uitstekend in visuele taken, met state-of-the-art prestaties in visuele wiskundige redenering (MathVista) en documentgebaseerde vraag-antwoord (DocVQA). Het kan diverse visuele informatie verwerken, waaronder documenten, diagrammen, grafieken, screenshots en foto's."
},
"xai/grok-3": {
"description": "xAI's vlaggenschipmodel, uitmuntend in bedrijfsgebruik zoals data-extractie, codering en tekstsamenvatting. Het beschikt over diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap."
},
"xai/grok-3-fast": {
"description": "xAI's vlaggenschipmodel, uitmuntend in bedrijfsgebruik zoals data-extractie, codering en tekstsamenvatting. De snelle variant wordt gehost op snellere infrastructuur en biedt aanzienlijk snellere responstijden. De verhoogde snelheid gaat gepaard met hogere kosten per outputtoken."
},
"xai/grok-3-mini": {
"description": "xAI's lichtgewicht model dat nadenkt vóór het reageren. Zeer geschikt voor eenvoudige of logische taken zonder diepgaande domeinkennis. De ruwe gedachtegang is toegankelijk."
},
"xai/grok-3-mini-fast": {
"description": "xAI's lichtgewicht model dat nadenkt vóór het reageren. Zeer geschikt voor eenvoudige of logische taken zonder diepgaande domeinkennis. De ruwe gedachtegang is toegankelijk. De snelle variant wordt gehost op snellere infrastructuur en biedt aanzienlijk snellere responstijden. De verhoogde snelheid gaat gepaard met hogere kosten per outputtoken."
},
"xai/grok-4": {
"description": "xAI's nieuwste en beste vlaggenschipmodel, met ongeëvenaarde prestaties in natuurlijke taal, wiskunde en redeneren de perfecte allrounder."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 is een geüpgradeerde versie van Yi. Het wordt voortdurend voorgetraind met een hoge-kwaliteitscorpus van 500B tokens op basis van Yi, en fijn afgesteld op 3M diverse fijnafstemmingssamples."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V is de nieuwste generatie visueel-taalmodel (VLM) uitgebracht door Zhipu AI (智谱 AI). Het model is gebouwd op het vlaggenschip-tekstmodel GLM-4.5-Air, dat beschikt over in totaal 106 miljard parameters en 12 miljard activatieparameters, en maakt gebruik van een mixture-of-experts (MoE)-architectuur, met als doel uitstekende prestaties te leveren tegen lagere inferentie-kosten. Technisch bouwt GLM-4.5V voort op de lijn van GLM-4.1V-Thinking en introduceert innovaties zoals driedimensionale roterende positiecodering (3D-RoPE), wat het vermogen om driedimensionale ruimtelijke relaties waar te nemen en te redeneren aanzienlijk versterkt. Door optimalisaties tijdens pretraining, gecontroleerde fine-tuning en reinforcement learning is het model in staat om diverse visuele inhoud te verwerken, waaronder afbeeldingen, video's en lange documenten, en behaalde het in 41 openbare multimodale benchmarks topprestaties vergeleken met gelijkwaardige open-sourcemodellen. Daarnaast bevat het model een nieuwe 'denkmodus'-schakelaar waarmee gebruikers flexibel kunnen kiezen tussen snelle respons en diepgaande redenering om efficiëntie en effectiviteit in balans te brengen."
},
"zai/glm-4.5": {
"description": "De GLM-4.5 modelreeks is speciaal ontworpen als basismodellen voor agenten. Het vlaggenschip GLM-4.5 integreert 355 miljard totale parameters (32 miljard actief) en verenigt redeneer-, codeer- en agentcapaciteiten om complexe toepassingsbehoeften aan te pakken. Als hybride redeneersysteem biedt het dubbele operationele modi."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 en GLM-4.5-Air zijn onze nieuwste vlaggenschipmodellen, speciaal ontworpen als basismodellen voor agenttoepassingen. Beide maken gebruik van een hybride expert (MoE) architectuur. GLM-4.5 heeft 355 miljard totale parameters met 32 miljard actieve parameters per voorwaartse pass, terwijl GLM-4.5-Air een vereenvoudigd ontwerp heeft met 106 miljard totale parameters en 12 miljard actieve parameters."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V is gebouwd op het GLM-4.5-Air basismodel, erft de bewezen technologie van GLM-4.1V-Thinking en realiseert efficiënte schaalvergroting via een krachtige MoE-architectuur met 106 miljard parameters."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 is een pair programming-assistent; je hoeft alleen je ideeën in natuurlijke taal te beschrijven, en het genereert code en gebruikersinterfaces (UI) voor je project."
},
"vercelaigateway": {
"description": "Vercel AI Gateway biedt een uniforme API voor toegang tot meer dan 100 modellen, waarmee u via één enkele endpoint modellen van verschillende aanbieders zoals OpenAI, Anthropic en Google kunt gebruiken. Ondersteunt budgetinstellingen, gebruiksmonitoring, verzoekbelastingbalancering en failover."
},
"vertexai": {
"description": "De Gemini-serie van Google is zijn meest geavanceerde, algemene AI-modellen, ontwikkeld door Google DeepMind. Deze modellen zijn ontworpen voor multimodale toepassingen en ondersteunen naadloze begrip en verwerking van tekst, code, afbeeldingen, audio en video. Ze zijn geschikt voor verschillende omgevingen, van datacenters tot mobiele apparaten, en verbeteren aanzienlijk de efficiëntie en toepasbaarheid van AI-modellen."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Model wielojęzyczny o 52 miliardach parametrów (12 miliardów aktywnych), oferujący okno kontekstowe o długości 256K, wywoływanie funkcji, strukturalne wyjście oraz generowanie oparte na faktach."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 to najnowsza generacja dużych modeli językowych z serii Qwen, oferująca kompleksowy zestaw modeli gęstych i hybrydowych ekspertów (MoE). Dzięki szerokiemu treningowi Qwen3 zapewnia przełomowe postępy w zakresie wnioskowania, przestrzegania instrukcji, zdolności agentów oraz wsparcia wielojęzycznego."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 to najnowsza generacja dużych modeli językowych z serii Qwen, oferująca kompleksowy zestaw modeli gęstych i hybrydowych ekspertów (MoE). Dzięki szerokiemu treningowi Qwen3 zapewnia przełomowe postępy w zakresie wnioskowania, przestrzegania instrukcji, zdolności agentów oraz wsparcia wielojęzycznego."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 to najnowsza generacja dużych modeli językowych z serii Qwen, oferująca kompleksowy zestaw modeli gęstych i hybrydowych ekspertów (MoE). Dzięki szerokiemu treningowi Qwen3 zapewnia przełomowe postępy w zakresie wnioskowania, przestrzegania instrukcji, zdolności agentów oraz wsparcia wielojęzycznego."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 to najnowsza generacja dużych modeli językowych z serii Qwen, oferująca kompleksowy zestaw modeli gęstych i hybrydowych ekspertów (MoE). Dzięki szerokiemu treningowi Qwen3 zapewnia przełomowe postępy w zakresie wnioskowania, przestrzegania instrukcji, zdolności agentów oraz wsparcia wielojęzycznego."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct to najbardziej agentowy model kodowania z serii Qwen, wyróżniający się znakomitą wydajnością w kodowaniu agentowym, korzystaniu z przeglądarki przez agenta oraz innych podstawowych zadaniach kodowania, osiągając wyniki porównywalne z Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Bardzo niskokosztowy model multimodalny, który przetwarza obrazy, wideo i tekst z niezwykłą szybkością."
},
"amazon/nova-micro": {
"description": "Model tekstowy oferujący najniższe opóźnienia przy bardzo niskich kosztach."
},
"amazon/nova-pro": {
"description": "Wysoce kompetentny model multimodalny, oferujący optymalne połączenie dokładności, szybkości i kosztów, odpowiedni do szerokiego zakresu zadań."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 to lekki, wydajny model wielojęzycznych osadzeń, obsługujący wymiary 1024, 512 i 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet podnosi standardy branżowe, przewyższając modele konkurencji oraz Claude 3 Opus, osiągając doskonałe wyniki w szerokim zakresie ocen, jednocześnie oferując szybkość i koszty na poziomie naszych modeli średniej klasy."
},
@ -627,25 +654,28 @@
"description": "Zaktualizowana wersja Claude 2, z podwójnym oknem kontekstowym oraz poprawioną niezawodnością, wskaźnikiem halucynacji i dokładnością opartą na dowodach w kontekście długich dokumentów i RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model Anthropic, zaprojektowany do niemal natychmiastowych odpowiedzi. Oferuje szybkie i dokładne wyniki w ukierunkowanych zadaniach."
"description": "Claude 3 Haiku to najszybszy model Anthropic, zaprojektowany do obciążeń korporacyjnych zwykle obejmujących długie podpowiedzi. Haiku potrafi szybko analizować duże ilości dokumentów, takich jak raporty kwartalne, umowy czy sprawy prawne, przy kosztach stanowiących połowę innych modeli o podobnej klasie wydajności."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus to najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałymi osiągami, inteligencją, płynnością i zdolnością rozumienia."
"description": "Claude 3 Opus to najbardziej inteligentny model Anthropic, oferujący wiodącą na rynku wydajność w bardzo złożonych zadaniach. Potrafi płynnie i z ludzkim zrozumieniem radzić sobie z otwartymi podpowiedziami i nieznanymi wcześniej scenariuszami."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku, Claude 3.5 Haiku wykazuje poprawę w różnych umiejętnościach i przewyższa największy model poprzedniej generacji, Claude 3 Opus, w wielu testach inteligencji."
"description": "Claude 3.5 Haiku to następna generacja naszego najszybszego modelu. Oferuje podobną szybkość jak Claude 3 Haiku, ale z ulepszeniami we wszystkich zestawach umiejętności i przewyższa w wielu testach inteligencji nasz poprzedni największy model Claude 3 Opus."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet oferuje możliwości przewyższające Opus oraz szybsze tempo niż Sonnet, zachowując tę samą cenę. Sonnet szczególnie dobrze radzi sobie z programowaniem, nauką o danych, przetwarzaniem wizualnym i zadaniami agenta."
"description": "Claude 3.5 Sonnet osiąga idealną równowagę między inteligencją a szybkością — szczególnie dla obciążeń korporacyjnych. W porównaniu z konkurencją oferuje potężną wydajność przy niższych kosztach i jest zaprojektowany z myślą o wysokiej trwałości w dużych wdrożeniach AI."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet to najinteligentniejszy model stworzony przez Anthropic, a także pierwszy na rynku model mieszanej dedukcji. Claude 3.7 Sonnet potrafi generować niemal natychmiastowe odpowiedzi lub wydłużone, krok po kroku myślenie, które użytkownicy mogą wyraźnie obserwować. Sonnet szczególnie dobrze radzi sobie z programowaniem, nauką o danych, przetwarzaniem wizualnym oraz zadaniami agenta."
"description": "Claude 3.7 Sonnet to pierwszy model hybrydowego wnioskowania i najbardziej inteligentny model Anthropic do tej pory. Oferuje zaawansowaną wydajność w kodowaniu, generowaniu treści, analizie danych i planowaniu, budując na fundamentach inżynierii oprogramowania i umiejętności komputerowych poprzednika Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 to najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałą wydajnością, inteligencją, płynnością i zdolnością rozumienia."
"description": "Claude Opus 4 to najsilniejszy model Anthropic i najlepszy na świecie model kodowania, prowadzący w benchmarkach SWE-bench (72,5%) i Terminal-bench (43,2%). Zapewnia ciągłą wydajność dla długotrwałych zadań wymagających skupienia i tysięcy kroków, mogąc pracować nieprzerwanie przez wiele godzin — znacznie rozszerzając możliwości agentów AI."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 to plug-and-play alternatywa dla Opus 4, oferująca doskonałą wydajność i precyzję w praktycznych zadaniach kodowania i agentów. Podnosi najnowocześniejszą wydajność kodowania do 74,5% w SWE-bench Verified i radzi sobie złożonymi, wieloetapowymi problemami z większą rygorystycznością i dbałością o szczegóły."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub wydłużone, stopniowe rozumowanie, które użytkownicy mogą wyraźnie obserwować. Użytkownicy API mają również precyzyjną kontrolę nad czasem rozmyślania modelu."
"description": "Claude Sonnet 4 to znacząca poprawa w stosunku do Sonnet 3.7, oferująca doskonałą wydajność w kodowaniu z rekordowym wynikiem 72,7% w SWE-bench. Model osiąga równowagę między wydajnością a efektywnością, nadaje się do zastosowań wewnętrznych i zewnętrznych oraz zapewnia większą kontrolę dzięki ulepszonej sterowalności."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B to rzadki, duży model językowy o 72 miliardach parametrów i 16 miliardach aktywowanych parametrów, oparty na architekturze grupowanych ekspertów (MoGE). W fazie wyboru ekspertów model grupuje ekspertów i ogranicza aktywację tokenów do równej liczby ekspertów w każdej grupie, co zapewnia równomierne obciążenie ekspertów i znacznie poprawia efektywność wdrożenia modelu na platformie Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ to zaawansowany model zoptymalizowany pod kątem RAG, stworzony do obsługi obciążeń na poziomie przedsiębiorstwa."
},
"cohere/command-a": {
"description": "Command A to najsilniejszy model Cohere, wyróżniający się w użyciu narzędzi, agentach, generowaniu wspomaganym wyszukiwaniem (RAG) i zastosowaniach wielojęzycznych. Posiada długość kontekstu 256K i działa na zaledwie dwóch GPU, oferując 150% wyższą przepustowość w porównaniu do Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R to duży model językowy zoptymalizowany pod kątem interakcji konwersacyjnych i zadań z długim kontekstem. Należy do kategorii \"skalowalnych\" modeli, łącząc wysoką wydajność z dużą dokładnością, umożliwiając firmom przejście od proof-of-concept do produkcji."
},
"cohere/command-r-plus": {
"description": "Command R+ to najnowszy duży model językowy Cohere, zoptymalizowany pod kątem interakcji konwersacyjnych i zadań z długim kontekstem. Jego celem jest osiągnięcie wyjątkowej wydajności, umożliwiając firmom przejście od proof-of-concept do produkcji."
},
"cohere/embed-v4.0": {
"description": "Model umożliwiający klasyfikację tekstu, obrazów lub treści mieszanych oraz konwersję na osadzenia."
},
"command": {
"description": "Model konwersacyjny, który przestrzega instrukcji, oferujący wysoką jakość i niezawodność w zadaniach językowych, a także dłuższą długość kontekstu w porównaniu do naszych podstawowych modeli generacyjnych."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 to duży hybrydowy model wnioskowania obsługujący długi kontekst 128K i efektywne przełączanie trybów, osiągający doskonałą wydajność i szybkość w wywoływaniu narzędzi, generowaniu kodu oraz złożonych zadaniach wnioskowania."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
"description": "Model DeepSeek R1 przeszedł drobną aktualizację do wersji DeepSeek-R1-0528. W najnowszej aktualizacji DeepSeek R1 znacznie poprawił głębokość i zdolności wnioskowania dzięki zwiększonym zasobom obliczeniowym i wprowadzeniu optymalizacji algorytmicznych po treningu. Model osiąga znakomite wyniki w benchmarkach matematycznych, programistycznych i ogólnej logiki, zbliżając się do czołowych modeli, takich jak O3 i Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 znacząco poprawia zdolność wnioskowania modelu nawet przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi model najpierw generuje łańcuch myślowy, co zwiększa dokładność końcowej odpowiedzi."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 znacząco poprawia zdolność wnioskowania modelu nawet przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi model najpierw generuje łańcuch myślowy, co zwiększa dokładność końcowej odpowiedzi."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B to duży model językowy oparty na Llama3.3 70B, który wykorzystuje dostrojenie na podstawie wyjścia DeepSeek R1, osiągając konkurencyjną wydajność porównywalną z dużymi modelami na czołowej pozycji."
"description": "DeepSeek-R1-Distill-Llama-70B to zdystylowana, bardziej wydajna wersja modelu Llama 70B. Utrzymuje silną wydajność w zadaniach generowania tekstu, zmniejszając koszty obliczeniowe dla łatwiejszego wdrożenia i badań. Obsługiwany przez Groq na ich niestandardowym sprzęcie LPU, zapewnia szybkie i efektywne wnioskowanie."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B to destylowany duży model językowy oparty na Llama-3.1-8B-Instruct, wytrenowany przy użyciu wyjścia DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 znacznie poprawił zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Przed wygenerowaniem ostatecznej odpowiedzi, model najpierw wygeneruje fragment myślenia, aby zwiększyć dokładność końcowej odpowiedzi."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 osiągnął znaczący przełom w szybkości wnioskowania w porównaniu do wcześniejszych modeli. Zajmuje pierwsze miejsce wśród modeli open source i może konkurować z najnowocześniejszymi modelami zamkniętymi na świecie. DeepSeek-V3 wykorzystuje architekturę wielogłowicowej uwagi (MLA) oraz DeepSeekMoE, które zostały w pełni zweryfikowane w DeepSeek-V2. Ponadto, DeepSeek-V3 wprowadza pomocniczą strategię bezstratną do równoważenia obciążenia oraz ustala cele treningowe dla wieloetykietowego przewidywania, aby uzyskać lepszą wydajność."
"description": "Szybki, uniwersalny duży model językowy z ulepszonymi zdolnościami wnioskowania."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base to ulepszona wersja modelu DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 osiągnął znaczący przełom w szybkości wnioskowania w porównaniu do wcześniejszych modeli. Zajmuje pierwsze miejsce wśród modeli open source i może konkurować z najnowocześniejszymi modelami zamkniętymi na świecie. DeepSeek-V3 wykorzystuje architekturę wielogłowicowej uwagi (MLA) oraz DeepSeekMoE, które zostały w pełni zweryfikowane w DeepSeek-V2. Ponadto, DeepSeek-V3 wprowadza pomocniczą strategię bezstratną do równoważenia obciążenia oraz ustala cele treningowe dla wieloetykietowego przewidywania, aby uzyskać lepszą wydajność."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview posiada silne zdolności do złożonego wnioskowania, wyróżniając się w dziedzinach takich jak wnioskowanie logiczne, matematyka i programowanie."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash oferuje funkcje nowej generacji i ulepszenia, w tym doskonałą szybkość, wbudowane użycie narzędzi, generowanie multimodalne oraz okno kontekstu o rozmiarze 1 miliona tokenów."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash oferuje funkcje i ulepszenia nowej generacji, w tym doskonałą prędkość, natywne korzystanie z narzędzi, generowanie multimodalne oraz okno kontekstowe o długości 1M tokenów."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental to najnowszy eksperymentalny model AI Google, który w porównaniu do wcześniejszych wersji wykazuje pewne poprawy jakości, szczególnie w zakresie wiedzy o świecie, kodu i długiego kontekstu."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite oferuje funkcje nowej generacji i ulepszenia, w tym doskonałą szybkość, wbudowane użycie narzędzi, generowanie multimodalne oraz okno kontekstu o rozmiarze 1 miliona tokenów."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany specjalnie do zaawansowanego rozumowania, kodowania, matematyki i zadań naukowych. Zawiera wbudowaną zdolność „myślenia”, co pozwala na generowanie odpowiedzi o wyższej dokładności i bardziej szczegółowej analizie kontekstu.\n\nUwaga: ten model ma dwie odmiany: z myśleniem i bez myślenia. Cena wyjścia różni się znacząco w zależności od tego, czy zdolność myślenia jest aktywna. Jeśli wybierzesz standardową odmianę (bez sufiksu „:thinking”), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać ze zdolności myślenia i otrzymywać tokeny myślenia, musisz wybrać odmianę „:thinking”, co wiąże się z wyższą ceną za wyjście myślenia.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru „maksymalna liczba tokenów do rozumowania”, jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash to model myślący, oferujący doskonałe, wszechstronne możliwości. Zaprojektowany, by znaleźć równowagę między ceną a wydajnością, obsługuje multimodalność i okno kontekstu o rozmiarze 1 miliona tokenów."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Eksperymentalny model Gemini 2.5 Flash, wspierający generowanie obrazów."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite to zrównoważony, niskoopóźnieniowy model z konfigurowalnym budżetem myślenia i łącznością narzędzi (np. Google Search grounding i wykonywanie kodu). Obsługuje multimodalne wejścia i oferuje okno kontekstu o rozmiarze 1 miliona tokenów."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany z myślą o zaawansowanym wnioskowaniu, kodowaniu, matematyce i zadaniach naukowych. Zawiera wbudowaną zdolność 'myślenia', co pozwala mu na dostarczanie odpowiedzi z wyższą dokładnością i szczegółowym przetwarzaniem kontekstu.\n\nUwaga: ten model ma dwa warianty: myślenie i niemyslenie. Ceny wyjściowe różnią się znacznie w zależności od tego, czy zdolność myślenia jest aktywowana. Jeśli wybierzesz standardowy wariant (bez sufiksu ':thinking'), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać z zdolności myślenia i otrzymać tokeny myślenia, musisz wybrać wariant ':thinking', co spowoduje wyższe ceny wyjściowe za myślenie.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru 'maksymalna liczba tokenów do wnioskowania', jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash to najnowocześniejszy model główny Google, zaprojektowany z myślą o zaawansowanym wnioskowaniu, kodowaniu, matematyce i zadaniach naukowych. Zawiera wbudowaną zdolność 'myślenia', co pozwala mu na dostarczanie odpowiedzi z wyższą dokładnością i szczegółowym przetwarzaniem kontekstu.\n\nUwaga: ten model ma dwa warianty: myślenie i niemyslenie. Ceny wyjściowe różnią się znacznie w zależności od tego, czy zdolność myślenia jest aktywowana. Jeśli wybierzesz standardowy wariant (bez sufiksu ':thinking'), model wyraźnie unika generowania tokenów myślenia.\n\nAby skorzystać z zdolności myślenia i otrzymać tokeny myślenia, musisz wybrać wariant ':thinking', co spowoduje wyższe ceny wyjściowe za myślenie.\n\nPonadto Gemini 2.5 Flash można konfigurować za pomocą parametru 'maksymalna liczba tokenów do wnioskowania', jak opisano w dokumentacji (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro to najnowocześniejszy model myślowy Google, zdolny do rozumowania nad złożonymi problemami w dziedzinie kodowania, matematyki i STEM oraz do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów z wykorzystaniem długiego kontekstu."
"description": "Gemini 2.5 Pro to nasz najbardziej zaawansowany model wnioskowania Gemini, zdolny do rozwiązywania złożonych problemów. Posiada okno kontekstu o rozmiarze 2 milionów tokenów i obsługuje multimodalne wejścia, w tym tekst, obrazy, dźwięk, wideo i dokumenty PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview to najnowocześniejszy model myślowy Google, zdolny do rozumowania nad złożonymi problemami w dziedzinie kodowania, matematyki i STEM oraz do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów przy użyciu długiego kontekstu."
},
"google/gemini-embedding-001": {
"description": "Najnowocześniejszy model osadzeń, oferujący doskonałą wydajność w zadaniach anglojęzycznych, wielojęzycznych i kodowych."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash oferuje zoptymalizowane możliwości przetwarzania multimodalnego, odpowiednie do różnych złożonych scenariuszy zadań."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B to otwarty model językowy stworzony przez Google, który ustanowił nowe standardy w zakresie wydajności i efektywności."
},
"google/text-embedding-005": {
"description": "Model osadzeń tekstowych skoncentrowany na języku angielskim, zoptymalizowany pod kątem zadań kodowania i języka angielskiego."
},
"google/text-multilingual-embedding-002": {
"description": "Model osadzeń tekstowych wielojęzycznych, zoptymalizowany pod kątem zadań międzyjęzykowych, obsługujący wiele języków."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, odpowiedni do różnych zadań generowania i rozumienia tekstu, obecnie wskazuje na gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Seria modeli tekst-na-obraz Imagen czwartej generacji, wersja Ultra"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small to idealny wybór do generowania, debugowania i refaktoryzacji kodu, oferujący minimalne opóźnienia."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 to mały, wysokowydajny model językowy oparty na architekturze MoE. Posiada 16 miliardów parametrów ogółem, jednak dla każdego tokena aktywowanych jest tylko 1,4 miliarda (nie obejmując osadzeń 789 milionów), co umożliwia bardzo wysoką prędkość generowania. Dzięki efektywnemu projektowi MoE oraz dużej, wysokiej jakości bazie treningowej, mimo że aktywowanych parametrów jest tylko 1,4 miliarda, Ling-mini-2.0 osiąga w zadaniach końcowych wydajność porównywalną z modelami dense LLM poniżej 10 miliardów parametrów oraz większymi modelami MoE."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Model tekstowy Llama 3.1 dostrojony pod kątem instrukcji, zoptymalizowany do wielojęzycznych zastosowań dialogowych, osiągający doskonałe wyniki w wielu dostępnych otwartych i zamkniętych modelach czatu na popularnych branżowych benchmarkach."
},
"meta/llama-3-70b": {
"description": "Model open source o 70 miliardach parametrów, starannie dostrojony przez Meta do celów przestrzegania instrukcji. Obsługiwany przez Groq na ich niestandardowym sprzęcie LPU, zapewnia szybkie i wydajne wnioskowanie."
},
"meta/llama-3-8b": {
"description": "Model open source o 8 miliardach parametrów, starannie dostrojony przez Meta do celów przestrzegania instrukcji. Obsługiwany przez Groq na ich niestandardowym sprzęcie LPU, zapewnia szybkie i wydajne wnioskowanie."
},
"meta/llama-3.1-405b-instruct": {
"description": "Zaawansowany LLM, wspierający generowanie danych syntetycznych, destylację wiedzy i wnioskowanie, odpowiedni do chatbotów, programowania i zadań w określonych dziedzinach."
},
"meta/llama-3.1-70b": {
"description": "Zaktualizowana wersja Meta Llama 3 70B Instruct, obejmująca rozszerzoną długość kontekstu 128K, wsparcie wielojęzyczne i ulepszone zdolności wnioskowania."
},
"meta/llama-3.1-70b-instruct": {
"description": "Umożliwia złożone rozmowy, posiadając doskonałe zrozumienie kontekstu, zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B obsługuje okno kontekstu 128K, co czyni go idealnym wyborem do interfejsów rozmów na żywo i analizy danych, oferując jednocześnie znaczące oszczędności kosztów w porównaniu z większymi modelami. Obsługiwany przez Groq na ich niestandardowym sprzęcie LPU, zapewnia szybkie i wydajne wnioskowanie."
},
"meta/llama-3.1-8b-instruct": {
"description": "Zaawansowany, nowoczesny model, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-11b": {
"description": "Model generujący wnioskowania obrazowe dostosowany do instrukcji (wejście tekst + obraz / wyjście tekst), zoptymalizowany pod kątem rozpoznawania wizualnego, wnioskowania obrazowego, generowania podpisów i odpowiadania na ogólne pytania dotyczące obrazów."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
},
"meta/llama-3.2-1b": {
"description": "Model tylko tekstowy, wspierający zastosowania na urządzeniach, takie jak wielojęzyczne lokalne wyszukiwanie wiedzy, streszczanie i przepisywanie."
},
"meta/llama-3.2-1b-instruct": {
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-3b": {
"description": "Model tylko tekstowy, starannie dostrojony do wspierania zastosowań na urządzeniach, takich jak wielojęzyczne lokalne wyszukiwanie wiedzy, streszczanie i przepisywanie."
},
"meta/llama-3.2-3b-instruct": {
"description": "Zaawansowany, nowoczesny mały model językowy, posiadający zrozumienie języka, doskonałe zdolności wnioskowania i generowania tekstu."
},
"meta/llama-3.2-90b": {
"description": "Model generujący wnioskowania obrazowe dostosowany do instrukcji (wejście tekst + obraz / wyjście tekst), zoptymalizowany pod kątem rozpoznawania wizualnego, wnioskowania obrazowego, generowania podpisów i odpowiadania na ogólne pytania dotyczące obrazów."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Nowoczesny model wizualno-językowy, specjalizujący się w wysokiej jakości wnioskowaniu z obrazów."
},
"meta/llama-3.3-70b": {
"description": "Idealne połączenie wydajności i efektywności. Model wspiera wysokowydajne AI konwersacyjne, zaprojektowany do tworzenia treści, zastosowań korporacyjnych i badań, oferując zaawansowane zdolności rozumienia języka, w tym streszczanie tekstu, klasyfikację, analizę sentymentu i generowanie kodu."
},
"meta/llama-3.3-70b-instruct": {
"description": "Zaawansowany LLM, specjalizujący się w wnioskowaniu, matematyce, zdrowym rozsądku i wywoływaniu funkcji."
},
"meta/llama-4-maverick": {
"description": "Zestaw modeli Llama 4 to natywne modele AI multimodalne, wspierające tekst i doświadczenia multimodalne. Modele te wykorzystują architekturę hybrydowych ekspertów, oferując wiodącą w branży wydajność w rozumieniu tekstu i obrazów. Llama 4 Maverick to model o 17 miliardach parametrów z 128 ekspertami. Dostarczany przez DeepInfra."
},
"meta/llama-4-scout": {
"description": "Zestaw modeli Llama 4 to natywne modele AI multimodalne, wspierające tekst i doświadczenia multimodalne. Modele te wykorzystują architekturę hybrydowych ekspertów, oferując wiodącą w branży wydajność w rozumieniu tekstu i obrazów. Llama 4 Scout to model o 17 miliardach parametrów z 16 ekspertami. Dostarczany przez DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Ten sam model Phi-3-medium, ale z większym rozmiarem kontekstu, odpowiedni do RAG lub nielicznych podpowiedzi."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small to opcja o wysokiej efektywności kosztowej, szybka i niezawodna, odpowiednia do tłumaczeń, podsumowań i analizy sentymentu."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 to najnowocześniejszy model kodowania, zoptymalizowany pod kątem niskich opóźnień i wysokiej częstotliwości zastosowań. Obsługuje ponad 80 języków programowania i wyróżnia się w zadaniach takich jak wypełnianie środkowe (FIM), korekta kodu i generowanie testów."
},
"mistral/codestral-embed": {
"description": "Model osadzeń kodu, który można osadzić w bazach danych i repozytoriach kodu, wspierający asystentów kodowania."
},
"mistral/devstral-small": {
"description": "Devstral to agentowy duży model językowy do zadań inżynierii oprogramowania, idealny jako agent inżynierii oprogramowania."
},
"mistral/magistral-medium": {
"description": "Złożone myślenie wspierane głębokim zrozumieniem, z przejrzystym rozumowaniem, które można śledzić i weryfikować. Model utrzymuje wysoką wierność rozumowania w wielu językach, nawet przy zmianie języka w trakcie zadania."
},
"mistral/magistral-small": {
"description": "Złożone myślenie wspierane głębokim zrozumieniem, z przejrzystym rozumowaniem, które można śledzić i weryfikować. Model utrzymuje wysoką wierność rozumowania w wielu językach, nawet przy zmianie języka w trakcie zadania."
},
"mistral/ministral-3b": {
"description": "Kompaktowy, wydajny model do zadań na urządzeniach, takich jak inteligentni asystenci i lokalna analiza, oferujący niskie opóźnienia."
},
"mistral/ministral-8b": {
"description": "Mocniejszy model z szybszym i bardziej pamięciooszczędnym wnioskowaniem, idealny do złożonych przepływów pracy i wymagających zastosowań brzegowych."
},
"mistral/mistral-embed": {
"description": "Uniwersalny model osadzeń tekstowych do wyszukiwania semantycznego, podobieństwa, klastrowania i przepływów pracy RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large to idealny wybór do złożonych zadań wymagających dużej mocy wnioskowania lub wysokiej specjalizacji — takich jak generowanie tekstu syntetycznego, generowanie kodu, RAG lub agenci."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B to otwarty model o 24 miliardach parametrów opracowany przez Mistral.ai. Saba to specjalistyczny model wytrenowany do doskonałości w językach arabskim, perskim, urdu, hebrajskim i językach indyjskich. Obsługiwany przez Groq na ich niestandardowym sprzęcie LPU, zapewnia szybkie i wydajne wnioskowanie."
},
"mistral/mistral-small": {
"description": "Mistral Small to idealny wybór do prostych zadań, które można przetwarzać hurtowo — takich jak klasyfikacja, obsługa klienta czy generowanie tekstu. Oferuje doskonałą wydajność w przystępnej cenie."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Model 8x22b Instruct. 8x22b to otwarty model hybrydowych ekspertów obsługiwany przez Mistral."
},
"mistral/pixtral-12b": {
"description": "Model 12B z umiejętnościami rozumienia obrazów oraz tekstu."
},
"mistral/pixtral-large": {
"description": "Pixtral Large to drugi model w naszej rodzinie multimodalnej, prezentujący zaawansowany poziom rozumienia obrazów. Model potrafi rozumieć dokumenty, wykresy i obrazy naturalne, zachowując jednocześnie wiodące zdolności rozumienia tekstu Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct jest znany z wysokiej wydajności, idealny do różnorodnych zadań językowych."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to zaawansowany model językowy typu Mixture of Experts (MoE) z 1 bilionem parametrów ogółem i 32 miliardami aktywowanych parametrów. Główne cechy modelu to: wzmocniona inteligencja kodowania agentów, która wykazuje znaczącą poprawę wydajności w publicznych testach porównawczych oraz w rzeczywistych zadaniach kodowania agentów; ulepszone doświadczenie kodowania front-end, z postępami zarówno w estetyce, jak i funkcjonalności programowania front-endowego."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 to duży model językowy hybrydowych ekspertów (MoE) opracowany przez Moonshot AI, z 1 bilionem parametrów łącznie i 32 miliardami aktywnych parametrów na pojedyncze przejście. Model jest zoptymalizowany pod kątem zdolności agentowych, w tym zaawansowanego użycia narzędzi, wnioskowania i syntezy kodu."
},
"moonshotai/kimi-k2-0905": {
"description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Model kimi-k2-0905-preview obsługuje długość kontekstu do 256k, oferując silniejsze zdolności Agentic Coding, bardziej estetyczny i praktyczny kod frontendowy oraz lepsze rozumienie kontekstu."
},
"morph/morph-v3-fast": {
"description": "Morph oferuje specjalistyczny model AI, który szybko stosuje zmiany kodu sugerowane przez najnowocześniejsze modele, takie jak Claude czy GPT-4o, do istniejących plików kodu — SZYBKOŚĆ ponad 4500 tokenów/sekundę. Działa jako ostatni krok w przepływie pracy kodowania AI. Obsługuje 16k tokenów wejściowych i 16k tokenów wyjściowych."
},
"morph/morph-v3-large": {
"description": "Morph oferuje specjalistyczny model AI, który stosuje zmiany kodu sugerowane przez najnowocześniejsze modele, takie jak Claude czy GPT-4o, do istniejących plików kodu — SZYBKOŚĆ ponad 2500 tokenów/sekundę. Działa jako ostatni krok w przepływie pracy kodowania AI. Obsługuje 16k tokenów wejściowych i 16k tokenów wyjściowych."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B to ulepszona wersja Nous Hermes 2, zawierająca najnowsze wewnętrznie opracowane zbiory danych."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B to model rzadkiego eksperta, który wykorzystuje wiele parametrów do zwiększenia prędkości wnioskowania, odpowiedni do przetwarzania zadań wielojęzycznych i generowania kodu."
},
"openai/gpt-3.5-turbo": {
"description": "Najbardziej kompetentny i opłacalny model z serii GPT-3.5 od OpenAI, zoptymalizowany pod kątem czatu, ale również dobrze radzący sobie z tradycyjnymi zadaniami uzupełniania."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Model o zdolnościach podobnych do modeli z ery GPT-3, kompatybilny z tradycyjnymi punktami końcowymi uzupełniania, a nie czatu."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo od OpenAI posiada szeroką wiedzę ogólną i specjalistyczną, umożliwiającą wykonywanie złożonych instrukcji w języku naturalnym i precyzyjne rozwiązywanie trudnych problemów. Data zakończenia wiedzy to kwiecień 2023, a okno kontekstu wynosi 128 000 tokenów."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 to nasz flagowy model do złożonych zadań. Idealnie nadaje się do rozwiązywania problemów w różnych dziedzinach."
"description": "GPT 4.1 to flagowy model OpenAI, przeznaczony do złożonych zadań. Doskonale nadaje się do rozwiązywania problemów międzydziedzinowych."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini oferuje równowagę między inteligencją, szybkością a kosztami, co czyni go atrakcyjnym modelem w wielu zastosowaniach."
"description": "GPT 4.1 mini osiąga równowagę między inteligencją, szybkością i kosztami, czyniąc go atrakcyjnym modelem dla wielu zastosowań."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano to najszybszy i najbardziej opłacalny model GPT-4.1."
"description": "GPT-4.1 nano to najszybszy i najbardziej opłacalny model GPT 4.1."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o to dynamiczny model, który jest na bieżąco aktualizowany, aby utrzymać najnowszą wersję. Łączy potężne zdolności rozumienia i generowania języka, idealny do zastosowań na dużą skalę, w tym obsługi klienta, edukacji i wsparcia technicznego."
"description": "GPT-4o od OpenAI posiada szeroką wiedzę ogólną i specjalistyczną, umożliwiającą wykonywanie złożonych instrukcji w języku naturalnym i precyzyjne rozwiązywanie trudnych problemów. Oferuje wydajność porównywalną z GPT-4 Turbo, ale z szybszym i tańszym API."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini to najnowszy model OpenAI, wydany po GPT-4 Omni, obsługujący wejścia tekstowe i wizualne. Jako ich najnowocześniejszy mały model, jest znacznie tańszy od innych niedawnych modeli czołowych i kosztuje o ponad 60% mniej niż GPT-3.5 Turbo. Utrzymuje najnowocześniejszą inteligencję, oferując jednocześnie znaczną wartość za pieniądze. GPT-4o mini uzyskał wynik 82% w teście MMLU i obecnie zajmuje wyższą pozycję w preferencjach czatu niż GPT-4."
"description": "GPT-4o mini od OpenAI to ich najbardziej zaawansowany i opłacalny mały model. Jest multimodalny (przyjmuje tekst lub obrazy i generuje tekst) oraz inteligentniejszy niż gpt-3.5-turbo, zachowując podobną szybkość."
},
"openai/gpt-5": {
"description": "GPT-5 to flagowy model językowy OpenAI, wyróżniający się w złożonym wnioskowaniu, szerokiej wiedzy o świecie, zadaniach intensywnie kodujących i wieloetapowych zadaniach agentowych."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini to model zoptymalizowany pod kątem kosztów, oferujący doskonałą wydajność w zadaniach wnioskowania i czatu. Zapewnia najlepszą równowagę między szybkością, kosztami i możliwościami."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano to model o wysokiej przepustowości, doskonały w prostych zadaniach instrukcyjnych lub klasyfikacyjnych."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B to zaawansowany model językowy z 120 miliardami parametrów, wyposażony w funkcje przeglądarki internetowej, wykonywania kodu oraz zdolności wnioskowania."
"description": "Niezwykle kompetentny, uniwersalny duży model językowy z potężnymi i kontrolowanymi zdolnościami wnioskowania."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B to zaawansowany model językowy z 20 miliardami parametrów, wyposażony w funkcje przeglądarki internetowej, wykonywania kodu oraz zdolności wnioskowania."
"description": "Kompaktowy model językowy z otwartym kodem, zoptymalizowany pod kątem niskich opóźnień i środowisk o ograniczonych zasobach, w tym wdrożeń lokalnych i brzegowych."
},
"openai/o1": {
"description": "o1 to nowy model wnioskowania OpenAI, obsługujący wejścia tekstowo-obrazowe i generujący tekst, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model posiada kontekst o długości 200K oraz datę odcięcia wiedzy na październik 2023."
"description": "o1 od OpenAI to flagowy model wnioskowania, zaprojektowany do złożonych problemów wymagających głębokiego myślenia. Zapewnia potężne zdolności wnioskowania i wyższą dokładność w złożonych, wieloetapowych zadaniach."
},
"openai/o1-mini": {
"description": "o1-mini to szybki i ekonomiczny model wnioskowania zaprojektowany z myślą o programowaniu, matematyce i zastosowaniach naukowych. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
@ -2325,23 +2493,44 @@
"description": "o1 to nowy model wnioskowania OpenAI, odpowiedni do złożonych zadań wymagających szerokiej wiedzy ogólnej. Model ten ma kontekst 128K i datę graniczną wiedzy z października 2023 roku."
},
"openai/o3": {
"description": "o3 to wszechstronny i potężny model, który osiąga doskonałe wyniki w wielu dziedzinach. Ustanawia nowe standardy w zadaniach związanych z matematyką, nauką, programowaniem i rozumowaniem wizualnym. Doskonale radzi sobie również z pisaniem technicznym i przestrzeganiem instrukcji. Użytkownicy mogą go wykorzystać do analizy tekstów, kodu i obrazów, rozwiązując złożone problemy wieloetapowe."
"description": "o3 od OpenAI to najsilniejszy model wnioskowania, ustanawiający nowe standardy w kodowaniu, matematyce, nauce i percepcji wizualnej. Doskonale radzi sobie ze złożonymi zapytaniami wymagającymi wieloaspektowej analizy, z wyjątkowymi zdolnościami w analizie obrazów, wykresów i grafów."
},
"openai/o3-mini": {
"description": "o3-mini oferuje wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
"description": "o3-mini to najnowszy mały model wnioskowania OpenAI, oferujący wysoką inteligencję przy tych samych celach kosztowych i opóźnieniowych co o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini w wersji o wysokim poziomie rozumowania, oferujący wysoką inteligencję przy tych samych kosztach i celach opóźnienia co o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągający wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
"description": "o4-mini od OpenAI oferuje szybkie i opłacalne wnioskowanie z doskonałą wydajnością w swojej klasie, szczególnie w zadaniach matematycznych (najlepsze wyniki w benchmarku AIME), kodowaniu i zadaniach wizualnych."
},
"openai/o4-mini-high": {
"description": "o4-mini w wersji o wysokim poziomie wnioskowania, zoptymalizowany do szybkiego i efektywnego wnioskowania, osiągający wysoką wydajność i efektywność w zadaniach kodowania i wizualnych."
},
"openai/text-embedding-3-large": {
"description": "Najbardziej kompetentny model osadzeń OpenAI, odpowiedni do zadań w języku angielskim i innych językach."
},
"openai/text-embedding-3-small": {
"description": "Ulepszona, bardziej wydajna wersja modelu osadzeń ada od OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Tradycyjny model osadzeń tekstowych od OpenAI."
},
"openrouter/auto": {
"description": "W zależności od długości kontekstu, tematu i złożoności, Twoje zapytanie zostanie wysłane do Llama 3 70B Instruct, Claude 3.5 Sonnet (samoregulacja) lub GPT-4o."
},
"perplexity/sonar": {
"description": "Lekki produkt Perplexity z funkcją wyszukiwania, szybszy i tańszy niż Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Flagowy produkt Perplexity z funkcją wyszukiwania, obsługujący zaawansowane zapytania i działania następcze."
},
"perplexity/sonar-reasoning": {
"description": "Model skoncentrowany na wnioskowaniu, generujący łańcuchy myślowe (CoT) w odpowiedziach, oferujący szczegółowe wyjaśnienia z funkcją wyszukiwania."
},
"perplexity/sonar-reasoning-pro": {
"description": "Zaawansowany model skoncentrowany na wnioskowaniu, generujący łańcuchy myślowe (CoT) w odpowiedziach, oferujący ulepszone możliwości wyszukiwania i wielokrotne zapytania wyszukiwania na każde żądanie."
},
"phi3": {
"description": "Phi-3 to lekki model otwarty wydany przez Microsoft, odpowiedni do efektywnej integracji i dużej skali wnioskowania wiedzy."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Model v0-1.5-md jest odpowiedni do codziennych zadań i generowania interfejsu użytkownika (UI)"
},
"vercel/v0-1.0-md": {
"description": "Dostęp do modelu stojącego za v0 do generowania, naprawiania i optymalizacji nowoczesnych aplikacji webowych, z rozumowaniem specyficznym dla frameworków i aktualną wiedzą."
},
"vercel/v0-1.5-md": {
"description": "Dostęp do modelu stojącego za v0 do generowania, naprawiania i optymalizacji nowoczesnych aplikacji webowych, z rozumowaniem specyficznym dla frameworków i aktualną wiedzą."
},
"wan2.2-t2i-flash": {
"description": "Wersja ekspresowa Wanxiang 2.2, najnowszy model. Kompleksowo ulepszony pod względem kreatywności, stabilności i realizmu, generuje szybko i oferuje wysoką opłacalność."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Model Spark X1 zostanie dalej ulepszony, osiągając wyniki w zadaniach ogólnych, takich jak rozumowanie, generowanie tekstu i rozumienie języka, które będą porównywalne z OpenAI o1 i DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 to nowoczesny model językowy o zaawansowanych zdolnościach wnioskowania. Wyróżnia się w czacie, kodowaniu i wnioskowaniu, przewyższając Claude 3.5 Sonnet i GPT-4-Turbo na liście LMSYS."
},
"xai/grok-2-vision": {
"description": "Model wizualny Grok 2 doskonale radzi sobie z zadaniami opartymi na wizji, oferując najnowocześniejszą wydajność w wizualnym wnioskowaniu matematycznym (MathVista) i pytaniach opartych na dokumentach (DocVQA). Potrafi przetwarzać różnorodne informacje wizualne, w tym dokumenty, wykresy, diagramy, zrzuty ekranu i zdjęcia."
},
"xai/grok-3": {
"description": "Flagowy model xAI, doskonały w zastosowaniach korporacyjnych, takich jak ekstrakcja danych, kodowanie i streszczanie tekstu. Posiada głęboką wiedzę dziedzinową w finansach, opiece zdrowotnej, prawie i nauce."
},
"xai/grok-3-fast": {
"description": "Flagowy model xAI, doskonały w zastosowaniach korporacyjnych, takich jak ekstrakcja danych, kodowanie i streszczanie tekstu. Wersja szybka działa na szybszej infrastrukturze, oferując znacznie krótsze czasy odpowiedzi. Zwiększona szybkość wiąże się z wyższym kosztem na token wyjściowy."
},
"xai/grok-3-mini": {
"description": "Lekki model xAI, który myśli przed odpowiedzią. Idealny do prostych lub logicznych zadań, które nie wymagają głębokiej wiedzy dziedzinowej. Dostępne są surowe ścieżki myślowe."
},
"xai/grok-3-mini-fast": {
"description": "Lekki model xAI, który myśli przed odpowiedzią. Idealny do prostych lub logicznych zadań, które nie wymagają głębokiej wiedzy dziedzinowej. Dostępne są surowe ścieżki myślowe. Wersja szybka działa na szybszej infrastrukturze, oferując znacznie krótsze czasy odpowiedzi. Zwiększona szybkość wiąże się z wyższym kosztem na token wyjściowy."
},
"xai/grok-4": {
"description": "Najnowszy i najlepszy flagowy model xAI, oferujący niezrównaną wydajność w języku naturalnym, matematyce i wnioskowaniu — idealny wszechstronny zawodnik."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 to ulepszona wersja Yi. Używa ona wysokiej jakości korpusu danych o rozmiarze 500B tokenów do dalszego wstępnego treningu Yi, a także do dopasowywania na 3M różnorodnych próbkach dopasowujących."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V to najnowszej generacji model wizualnojęzykowy (VLM) wydany przez Zhipu AI. Model zbudowano na flagowym modelu tekstowym GLM-4.5-Air, który dysponuje 106 mld parametrów łącznie oraz 12 mld parametrów aktywacyjnych. Wykorzystuje architekturę Mixture-of-Experts (MoE) i został zaprojektowany, by przy niższych kosztach inferencji osiągać znakomitą wydajność. GLM-4.5V technicznie kontynuuje podejście GLM-4.1V-Thinking i wprowadza innowacje takie jak trójwymiarowe obrotowe kodowanie pozycji (3DRoPE), co znacząco poprawia postrzeganie i wnioskowanie dotyczące relacji przestrzennych w 3D. Dzięki optymalizacjom w fazach pretrenowania, nadzorowanego dostrajania i uczenia przez wzmocnienie model potrafi przetwarzać obrazy, filmy i długie dokumenty, osiągając czołowe wyniki wśród otwartoźródłowych modeli w 41 publicznych benchmarkach multimodalnych. Dodatkowo model zyskał przełącznik „trybu myślenia”, który pozwala użytkownikom elastycznie wybierać między szybką odpowiedzią a głębokim rozumowaniem, aby zrównoważyć efektywność i skuteczność."
},
"zai/glm-4.5": {
"description": "Seria modeli GLM-4.5 to podstawowe modele zaprojektowane specjalnie dla agentów. Flagowy GLM-4.5 integruje 355 miliardów parametrów łącznie (32 miliardy aktywnych), łącząc zdolności wnioskowania, kodowania i agentów do rozwiązywania złożonych wymagań aplikacji. Jako system hybrydowego wnioskowania oferuje podwójne tryby operacyjne."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 i GLM-4.5-Air to nasze najnowsze flagowe modele, zaprojektowane jako podstawowe modele dla zastosowań agentowych. Oba wykorzystują architekturę hybrydowych ekspertów (MoE). GLM-4.5 ma 355 miliardów parametrów łącznie i 32 miliardy aktywnych na pojedyncze przejście, podczas gdy GLM-4.5-Air ma uproszczoną konstrukcję z 106 miliardami parametrów łącznie i 12 miliardami aktywnych."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V zbudowany jest na bazie GLM-4.5-Air, dziedzicząc zweryfikowane technologie GLM-4.1V-Thinking, jednocześnie skutecznie skalując się dzięki potężnej architekturze MoE z 106 miliardami parametrów."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 to asystent programowania w parach, który pozwala opisać pomysły w naturalnym języku, a następnie generuje kod i interfejs użytkownika (UI) dla Twojego projektu"
},
"vercelaigateway": {
"description": "Vercel AI Gateway zapewnia zunifikowane API do dostępu do ponad 100 modeli, umożliwiając korzystanie z modeli wielu dostawców, takich jak OpenAI, Anthropic, Google, za pośrednictwem jednego punktu końcowego. Obsługuje ustawienia budżetu, monitorowanie wykorzystania, równoważenie obciążenia żądań oraz przełączanie awaryjne."
},
"vertexai": {
"description": "Seria Gemini od Google to najnowocześniejsze, uniwersalne modele AI stworzone przez Google DeepMind, zaprojektowane z myślą o multimodalności, wspierające bezproblemowe rozumienie i przetwarzanie tekstu, kodu, obrazów, dźwięku i wideo. Odpowiednie do różnych środowisk, od centrów danych po urządzenia mobilne, znacznie zwiększa efektywność i wszechstronność modeli AI."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Um modelo multilíngue com 52 bilhões de parâmetros (12 bilhões ativos), oferecendo janela de contexto longa de 256K, chamadas de função, saída estruturada e geração baseada em fatos."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 é a mais recente geração da série Qwen de grandes modelos de linguagem, oferecendo um conjunto abrangente de modelos densos e de especialistas mistos (MoE). Construído com base em um treinamento extensivo, o Qwen3 proporciona avanços revolucionários em raciocínio, conformidade com instruções, capacidades de agente e suporte multilíngue."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct é o modelo de código mais agente da série Qwen, com desempenho notável em codificação de agentes, uso de navegadores por agentes e outras tarefas básicas de codificação, alcançando resultados comparáveis ao Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Um modelo multimodal de custo muito baixo, que processa entradas de imagem, vídeo e texto com velocidade extremamente rápida."
},
"amazon/nova-micro": {
"description": "Um modelo apenas de texto que oferece respostas com a menor latência a um custo muito baixo."
},
"amazon/nova-pro": {
"description": "Um modelo multimodal altamente capaz, com a melhor combinação de precisão, velocidade e custo, adequado para uma ampla gama de tarefas."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 é um modelo leve e eficiente de embeddings multilíngues, suportando dimensões de 1024, 512 e 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "O Claude 3.5 Sonnet eleva o padrão da indústria, superando modelos concorrentes e o Claude 3 Opus, apresentando um desempenho excepcional em avaliações amplas, ao mesmo tempo que mantém a velocidade e o custo de nossos modelos de nível médio."
},
@ -627,25 +654,28 @@
"description": "A versão atualizada do Claude 2, com o dobro da janela de contexto, além de melhorias na confiabilidade, taxa de alucinação e precisão baseada em evidências em documentos longos e contextos RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para oferecer respostas quase instantâneas. Ele possui desempenho direcionado rápido e preciso."
"description": "Claude 3 Haiku é o modelo mais rápido da Anthropic até hoje, projetado para cargas de trabalho empresariais que geralmente envolvem prompts longos. Haiku pode analisar rapidamente grandes volumes de documentos, como arquivos trimestrais, contratos ou casos jurídicos, com custo equivalente à metade de outros modelos em sua classe de desempenho."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluência e compreensão."
"description": "Claude 3 Opus é o modelo mais inteligente da Anthropic, com desempenho líder de mercado em tarefas altamente complexas. Ele navega com fluidez excepcional e compreensão humana em prompts abertos e cenários inéditos."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic. Em comparação com Claude 3 Haiku, Claude 3.5 Haiku apresenta melhorias em várias habilidades e supera o maior modelo da geração anterior, Claude 3 Opus, em muitos testes de inteligência."
"description": "Claude 3.5 Haiku é a próxima geração do nosso modelo mais rápido. Com velocidade semelhante ao Claude 3 Haiku, o Claude 3.5 Haiku apresenta melhorias em todas as habilidades e supera nosso maior modelo da geração anterior, Claude 3 Opus, em muitos benchmarks de inteligência."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet oferece capacidades que vão além do Opus e uma velocidade superior ao Sonnet, mantendo o mesmo preço do Sonnet. O Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente."
"description": "Claude 3.5 Sonnet alcança um equilíbrio ideal entre inteligência e velocidade — especialmente para cargas de trabalho empresariais. Em comparação com produtos similares, oferece desempenho robusto a um custo menor e é projetado para alta durabilidade em implantações de IA em larga escala."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic até agora e é o primeiro modelo de raciocínio misto do mercado. Claude 3.7 Sonnet pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente."
"description": "Claude 3.7 Sonnet é o primeiro modelo de raciocínio híbrido e o mais inteligente da Anthropic até hoje. Ele oferece desempenho de ponta em codificação, geração de conteúdo, análise de dados e tarefas de planejamento, construído sobre as capacidades de engenharia de software e computação do seu predecessor, Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e capacidade de compreensão."
"description": "Claude Opus 4 é o modelo mais poderoso da Anthropic até hoje e o melhor modelo de codificação do mundo, liderando nos benchmarks SWE-bench (72,5%) e Terminal-bench (43,2%). Ele oferece desempenho sustentado para tarefas de longo prazo que exigem esforço concentrado e milhares de etapas, podendo trabalhar continuamente por horas — ampliando significativamente as capacidades dos agentes de IA."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 é uma alternativa plug-and-play ao Opus 4, oferecendo desempenho e precisão excepcionais para tarefas práticas de codificação e agentes. Ele eleva o desempenho de codificação de ponta para 74,5% no SWE-bench Verified e lida com problemas complexos de múltiplas etapas com maior rigor e atenção aos detalhes."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Usuários da API também podem controlar detalhadamente o tempo de raciocínio do modelo."
"description": "Claude Sonnet 4 apresenta melhorias significativas sobre a capacidade líder do setor do Sonnet 3.7, destacando-se em codificação com um desempenho de ponta de 72,7% no SWE-bench. O modelo equilibra desempenho e eficiência, adequado para casos de uso internos e externos, e oferece maior controle sobre as implementações por meio de controlabilidade aprimorada."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B é um modelo de linguagem grande esparso com 72 bilhões de parâmetros e 16 bilhões de parâmetros ativados, baseado na arquitetura Mixture of Experts em grupos (MoGE). Ele agrupa especialistas na fase de seleção e restringe a ativação de um número igual de especialistas dentro de cada grupo para cada token, alcançando equilíbrio na carga dos especialistas e melhorando significativamente a eficiência de implantação do modelo na plataforma Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ é um modelo otimizado de ponta para RAG, projetado para cargas de trabalho empresariais."
},
"cohere/command-a": {
"description": "Command A é o modelo de maior desempenho da Cohere até hoje, destacando-se no uso de ferramentas, agentes, geração aprimorada por recuperação (RAG) e casos multilíngues. Com um comprimento de contexto de 256K, roda em apenas dois GPUs, oferecendo um aumento de 150% na taxa de transferência em comparação com o Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R é um grande modelo de linguagem otimizado para interações de diálogo e tarefas de contexto longo. Ele se posiciona na categoria \"escalável\", equilibrando alto desempenho e forte precisão, permitindo que empresas avancem além da prova de conceito para produção."
},
"cohere/command-r-plus": {
"description": "Command R+ é o mais recente grande modelo de linguagem da Cohere, otimizado para interações de diálogo e tarefas de contexto longo. Seu objetivo é oferecer desempenho excepcional, permitindo que empresas avancem além da prova de conceito para produção."
},
"cohere/embed-v4.0": {
"description": "Um modelo que permite classificar texto, imagens ou conteúdo misto ou convertê-los em embeddings."
},
"command": {
"description": "Um modelo de diálogo que segue instruções, apresentando alta qualidade e confiabilidade em tarefas linguísticas, além de um comprimento de contexto mais longo em comparação com nosso modelo de geração básico."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 é um grande modelo híbrido de raciocínio que suporta contexto longo de 128K e troca eficiente de modos, alcançando desempenho e velocidade excepcionais em chamadas de ferramentas, geração de código e tarefas complexas de raciocínio."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
"description": "O modelo DeepSeek R1 recebeu uma atualização menor, atualmente na versão DeepSeek-R1-0528. Na atualização mais recente, o DeepSeek R1 melhorou significativamente a profundidade e capacidade de raciocínio ao aproveitar recursos computacionais aumentados e introduzir mecanismos de otimização algorítmica pós-treinamento. O modelo apresenta desempenho excelente em benchmarks de matemática, programação e lógica geral, aproximando-se do desempenho de modelos líderes como O3 e Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 melhora significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 melhora significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B é um grande modelo de linguagem baseado no Llama3.3 70B, que utiliza o ajuste fino da saída do DeepSeek R1 para alcançar um desempenho competitivo comparável aos grandes modelos de ponta."
"description": "DeepSeek-R1-Distill-Llama-70B é uma variante destilada e mais eficiente do modelo Llama 70B. Mantém desempenho robusto em tarefas de geração de texto, reduzindo o custo computacional para facilitar implantação e pesquisa. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B é um modelo de linguagem grande destilado baseado no Llama-3.1-8B-Instruct, treinado usando a saída do DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 melhorou significativamente a capacidade de raciocínio do modelo com muito poucos dados rotulados. Antes de fornecer a resposta final, o modelo gera uma cadeia de pensamento para aumentar a precisão da resposta final."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
"description": "Modelo grande de linguagem universal rápido com capacidades de raciocínio aprimoradas."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base é uma versão aprimorada do modelo DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 alcançou um avanço significativo na velocidade de inferência em comparação com os modelos anteriores. Classificado como o número um entre os modelos de código aberto, pode competir com os modelos fechados mais avançados do mundo. DeepSeek-V3 utiliza a arquitetura de Atenção Multi-Cabeça (MLA) e DeepSeekMoE, que foram amplamente validadas no DeepSeek-V2. Além disso, DeepSeek-V3 introduziu uma estratégia auxiliar sem perdas para balanceamento de carga e definiu objetivos de treinamento de previsão de múltiplos rótulos para obter um desempenho mais forte."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "O GLM-Zero-Preview possui uma poderosa capacidade de raciocínio complexo, destacando-se em áreas como raciocínio lógico, matemática e programação."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash oferece funcionalidades e melhorias de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e uma janela de contexto de 1M tokens."
},
"google/gemini-2.0-flash-exp:free": {
"description": "O Gemini 2.0 Flash Experimental é o mais recente modelo de IA multimodal experimental do Google, com melhorias de qualidade em comparação com versões anteriores, especialmente em conhecimento do mundo, código e longos contextos."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite oferece funcionalidades de próxima geração e melhorias, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para tarefas avançadas de raciocínio, codificação, matemática e ciências. Ele possui uma capacidade embutida de \"pensamento\", permitindo respostas com maior precisão e processamento detalhado do contexto.\n\nObservação: este modelo possui duas variantes: com pensamento e sem pensamento. O preço de saída varia significativamente dependendo se a capacidade de pensamento está ativada. Se você escolher a variante padrão (sem o sufixo \":thinking\"), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara utilizar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante \":thinking\", o que resultará em um preço de saída mais alto para o pensamento.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro \"máximo de tokens para raciocínio\", conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash é um modelo de raciocínio que oferece capacidades abrangentes excepcionais. Projetado para equilibrar preço e desempenho, suporta multimodalidade e janela de contexto de 1 milhão de tokens."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Modelo experimental Gemini 2.5 Flash, com suporte para geração de imagens."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite é um modelo equilibrado e de baixa latência, com orçamento de raciocínio configurável e conectividade de ferramentas (por exemplo, pesquisa Google fundamentada e execução de código). Suporta entrada multimodal e oferece janela de contexto de 1 milhão de tokens."
},
"google/gemini-2.5-flash-preview": {
"description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "O Gemini 2.5 Flash é o modelo principal mais avançado do Google, projetado para raciocínio avançado, codificação, matemática e tarefas científicas. Ele possui a capacidade de 'pensar' embutida, permitindo que forneça respostas com maior precisão e um tratamento de contexto mais detalhado.\n\nNota: Este modelo possui duas variantes: com e sem 'pensamento'. A precificação da saída varia significativamente dependendo da ativação da capacidade de pensamento. Se você escolher a variante padrão (sem o sufixo ':thinking'), o modelo evitará explicitamente gerar tokens de pensamento.\n\nPara aproveitar a capacidade de pensamento e receber tokens de pensamento, você deve escolher a variante ':thinking', que resultará em uma precificação de saída de pensamento mais alta.\n\nAlém disso, o Gemini 2.5 Flash pode ser configurado através do parâmetro 'número máximo de tokens para raciocínio', conforme descrito na documentação (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
"description": "Gemini 2.5 Pro é nosso modelo Gemini de raciocínio mais avançado, capaz de resolver problemas complexos. Possui janela de contexto de 2 milhões de tokens e suporta entrada multimodal, incluindo texto, imagem, áudio, vídeo e documentos PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos usando contexto extenso."
},
"google/gemini-embedding-001": {
"description": "Modelo de embeddings de última geração com desempenho excelente em tarefas de inglês, multilíngue e código."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash oferece capacidades de processamento multimodal otimizadas, adequadas para uma variedade de cenários de tarefas complexas."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B é um modelo de linguagem de código aberto do Google, que estabelece novos padrões em eficiência e desempenho."
},
"google/text-embedding-005": {
"description": "Modelo de embeddings de texto focado em inglês, otimizado para tarefas de código e linguagem inglesa."
},
"google/text-multilingual-embedding-002": {
"description": "Modelo de embeddings de texto multilíngue otimizado para tarefas cross-linguísticas, suportando múltiplos idiomas."
},
"gpt-3.5-turbo": {
"description": "O GPT 3.5 Turbo é adequado para uma variedade de tarefas de geração e compreensão de texto, atualmente apontando para gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Série de modelos de texto para imagem da 4ª geração Imagen, versão Ultra"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small é a escolha ideal para tarefas de geração, depuração e refatoração de código, com latência mínima."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 é um modelo de linguagem grande de alto desempenho e pequeno porte baseado na arquitetura MoE. Ele possui 16 bilhões de parâmetros totais, mas ativa apenas 1,4 bilhão por token (789 milhões não-embedding), alcançando assim uma velocidade de geração extremamente alta. Graças ao design eficiente do MoE e a um grande volume de dados de treinamento de alta qualidade, apesar de ativar apenas 1,4 bilhão de parâmetros, o Ling-mini-2.0 ainda apresenta desempenho de ponta em tarefas downstream, comparável a modelos dense LLM abaixo de 10 bilhões e a modelos MoE de maior escala."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Modelo de texto ajustado para instruções Llama 3.1, otimizado para casos de uso de diálogo multilíngue, com desempenho superior em benchmarks comuns do setor entre muitos modelos de chat open source e proprietários disponíveis."
},
"meta/llama-3-70b": {
"description": "Modelo open source de 70 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
},
"meta/llama-3-8b": {
"description": "Modelo open source de 8 bilhões de parâmetros ajustado pela Meta para conformidade com instruções. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM avançado, suporta geração de dados sintéticos, destilação de conhecimento e raciocínio, adequado para chatbots, programação e tarefas de domínio específico."
},
"meta/llama-3.1-70b": {
"description": "Versão atualizada do Meta Llama 3 70B Instruct, incluindo extensão do comprimento de contexto para 128K, multilíngue e capacidades de raciocínio aprimoradas."
},
"meta/llama-3.1-70b-instruct": {
"description": "Capacita diálogos complexos, com excelente compreensão de contexto, capacidade de raciocínio e geração de texto."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B suporta janela de contexto de 128K, tornando-o ideal para interfaces de diálogo em tempo real e análise de dados, oferecendo economia significativa de custos em comparação com modelos maiores. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
},
"meta/llama-3.1-8b-instruct": {
"description": "Modelo de ponta avançado, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-11b": {
"description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
},
"meta/llama-3.2-1b": {
"description": "Modelo apenas de texto, suportando casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
},
"meta/llama-3.2-1b-instruct": {
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-3b": {
"description": "Modelo apenas de texto, cuidadosamente ajustado para suportar casos de uso em dispositivos, como recuperação de conhecimento local multilíngue, resumo e reescrita."
},
"meta/llama-3.2-3b-instruct": {
"description": "Modelo de linguagem de ponta avançado e compacto, com compreensão de linguagem, excelente capacidade de raciocínio e geração de texto."
},
"meta/llama-3.2-90b": {
"description": "Modelo de geração de raciocínio visual ajustado por instrução (entrada de texto + imagem / saída de texto), otimizado para reconhecimento visual, raciocínio sobre imagens, geração de legendas e respostas a perguntas gerais sobre imagens."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Modelo de visão-linguagem de ponta, especializado em raciocínio de alta qualidade a partir de imagens."
},
"meta/llama-3.3-70b": {
"description": "Combinação perfeita de desempenho e eficiência. Este modelo suporta IA de diálogo de alto desempenho, projetado para criação de conteúdo, aplicações empresariais e pesquisa, oferecendo capacidades avançadas de compreensão de linguagem, incluindo resumo de texto, classificação, análise de sentimento e geração de código."
},
"meta/llama-3.3-70b-instruct": {
"description": "Modelo LLM avançado, especializado em raciocínio, matemática, conhecimento geral e chamadas de função."
},
"meta/llama-4-maverick": {
"description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Maverick, um modelo de 17 bilhões de parâmetros com 128 especialistas. Atendido pela DeepInfra."
},
"meta/llama-4-scout": {
"description": "A coleção de modelos Llama 4 é uma IA multimodal nativa, suportando experiências de texto e multimodais. Esses modelos utilizam arquitetura de especialistas mistos para oferecer desempenho líder do setor em compreensão de texto e imagem. Llama 4 Scout, um modelo de 17 bilhões de parâmetros com 16 especialistas. Atendido pela DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "O mesmo modelo Phi-3-medium, mas com contexto maior, adequado para RAG ou poucos prompts."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small é uma opção de alto custo-benefício, rápida e confiável, adequada para casos de uso como tradução, resumo e análise de sentimentos."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 é um modelo de codificação de ponta, otimizado para casos de uso de baixa latência e alta frequência. Fluente em mais de 80 linguagens de programação, destaca-se em tarefas como preenchimento intermediário (FIM), correção de código e geração de testes."
},
"mistral/codestral-embed": {
"description": "Modelo de embeddings de código que pode ser incorporado em bancos de dados e repositórios de código para suportar assistentes de codificação."
},
"mistral/devstral-small": {
"description": "Devstral é um grande modelo de linguagem agente para tarefas de engenharia de software, tornando-o uma excelente escolha para agentes de engenharia de software."
},
"mistral/magistral-medium": {
"description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
},
"mistral/magistral-small": {
"description": "Pensamento complexo suportado por compreensão profunda, com raciocínio transparente que você pode seguir e verificar. O modelo mantém raciocínio de alta fidelidade em múltiplos idiomas, mesmo ao alternar idiomas no meio da tarefa."
},
"mistral/ministral-3b": {
"description": "Um modelo compacto e eficiente para tarefas em dispositivos, como assistentes inteligentes e análises locais, oferecendo desempenho de baixa latência."
},
"mistral/ministral-8b": {
"description": "Um modelo mais poderoso, com inferência mais rápida e eficiente em memória, ideal para fluxos de trabalho complexos e aplicações de borda exigentes."
},
"mistral/mistral-embed": {
"description": "Modelo universal de embeddings de texto para busca semântica, similaridade, agrupamento e fluxos de trabalho RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large é ideal para tarefas complexas que exigem grandes capacidades de raciocínio ou alta especialização — como geração de texto sintético, geração de código, RAG ou agentes."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B é um modelo open source de 24 bilhões de parâmetros desenvolvido pela Mistral.ai. Saba é um modelo especializado treinado para desempenho excepcional em árabe, persa, urdu, hebraico e línguas indianas. Atendido pela Groq usando seu hardware personalizado de unidade de processamento de linguagem (LPU) para fornecer inferência rápida e eficiente."
},
"mistral/mistral-small": {
"description": "Mistral Small é ideal para tarefas simples que podem ser processadas em lote — como classificação, suporte ao cliente ou geração de texto. Oferece excelente desempenho a um preço acessível."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Modelo 8x22b Instruct. 8x22b é um modelo open source de especialistas mistos atendido pela Mistral."
},
"mistral/pixtral-12b": {
"description": "Um modelo de 12 bilhões com capacidades de compreensão de imagem, além de texto."
},
"mistral/pixtral-large": {
"description": "Pixtral Large é o segundo modelo da nossa família multimodal, demonstrando compreensão de imagem em nível de ponta. Especificamente, o modelo pode entender documentos, gráficos e imagens naturais, mantendo a liderança em compreensão de texto do Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct é conhecido por seu alto desempenho, adequado para diversas tarefas de linguagem."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 é a versão mais recente e poderosa do Kimi K2. Trata-se de um modelo de linguagem de especialistas mistos (MoE) de ponta, com um total de 1 trilhão de parâmetros e 32 bilhões de parâmetros ativados. As principais características deste modelo incluem: inteligência aprimorada para codificação de agentes, demonstrando melhorias significativas em testes de referência públicos e em tarefas reais de codificação de agentes; experiência de codificação front-end melhorada, com avanços tanto na estética quanto na funcionalidade da programação front-end."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 é um modelo de linguagem de especialistas mistos (MoE) em grande escala desenvolvido pela Moonshot AI, com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos por passagem. Otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código."
},
"moonshotai/kimi-k2-0905": {
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "O modelo kimi-k2-0905-preview possui comprimento de contexto de 256k, com capacidades aprimoradas de Agentic Coding, maior estética e praticidade do código front-end, além de melhor compreensão do contexto."
},
"morph/morph-v3-fast": {
"description": "Morph oferece um modelo de IA especializado que aplica rapidamente as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 4500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
},
"morph/morph-v3-large": {
"description": "Morph oferece um modelo de IA especializado que aplica as alterações de código sugeridas por modelos de ponta como Claude ou GPT-4o aos seus arquivos de código existentes — RÁPIDO - mais de 2500 tokens/segundo. Atua como a etapa final no fluxo de trabalho de codificação de IA. Suporta 16k tokens de entrada e 16k tokens de saída."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B é uma versão aprimorada do Nous Hermes 2, contendo os conjuntos de dados mais recentes desenvolvidos internamente."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B é um modelo de especialistas esparsos, utilizando múltiplos parâmetros para aumentar a velocidade de raciocínio, adequado para tarefas de geração de linguagem e código."
},
"openai/gpt-3.5-turbo": {
"description": "O modelo mais capaz e econômico da série GPT-3.5 da OpenAI, otimizado para fins de chat, mas também com bom desempenho em tarefas tradicionais de completamento."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Capacidades semelhantes aos modelos da era GPT-3. Compatível com endpoints tradicionais de completamento, em vez de endpoints de completamento de chat."
},
"openai/gpt-4-turbo": {
"description": "O gpt-4-turbo da OpenAI possui amplo conhecimento geral e especialização em domínios, permitindo seguir instruções complexas em linguagem natural e resolver problemas difíceis com precisão. Sua data de corte de conhecimento é abril de 2023, com janela de contexto de 128.000 tokens."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 é nosso modelo principal para tarefas complexas. Ele é extremamente adequado para resolver problemas interdisciplinares."
"description": "GPT 4.1 é o modelo principal da OpenAI, adequado para tarefas complexas. É excelente para resolver problemas interdisciplinares."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, tornando-se um modelo atraente para muitos casos de uso."
"description": "GPT 4.1 mini equilibra inteligência, velocidade e custo, tornando-o um modelo atraente para muitos casos de uso."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano é o modelo GPT-4.1 mais rápido e com melhor custo-benefício."
"description": "GPT-4.1 nano é o modelo GPT 4.1 mais rápido e econômico."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o é um modelo dinâmico, atualizado em tempo real para manter a versão mais recente. Combina uma poderosa capacidade de compreensão e geração de linguagem, adequado para cenários de aplicação em larga escala, incluindo atendimento ao cliente, educação e suporte técnico."
"description": "GPT-4o da OpenAI possui amplo conhecimento geral e especialização em domínios, capaz de seguir instruções complexas em linguagem natural e resolver problemas difíceis com precisão. Oferece desempenho equivalente ao GPT-4 Turbo com API mais rápida e barata."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini é o mais recente modelo da OpenAI, lançado após o GPT-4 Omni, que suporta entrada de texto e imagem e saída de texto. Como seu modelo compacto mais avançado, é muito mais barato do que outros modelos de ponta recentes e custa mais de 60% menos que o GPT-3.5 Turbo. Ele mantém inteligência de ponta, ao mesmo tempo que oferece uma relação custo-benefício significativa. O GPT-4o mini obteve uma pontuação de 82% no teste MMLU e atualmente está classificado acima do GPT-4 em preferências de chat."
"description": "GPT-4o mini da OpenAI é seu modelo pequeno mais avançado e econômico. É multimodal (aceita entrada de texto ou imagem e gera texto) e mais inteligente que o gpt-3.5-turbo, mantendo a mesma velocidade."
},
"openai/gpt-5": {
"description": "GPT-5 é o modelo de linguagem principal da OpenAI, excelente em raciocínio complexo, amplo conhecimento do mundo real, tarefas intensivas em código e agentes de múltiplas etapas."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini é um modelo otimizado para custo, com bom desempenho em tarefas de raciocínio/chat. Oferece o melhor equilíbrio entre velocidade, custo e capacidade."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano é um modelo de alto rendimento, excelente para tarefas simples de instrução ou classificação."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B é um modelo de linguagem de ponta com 120 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
"description": "Modelo grande de linguagem geral extremamente capaz, com forte capacidade de raciocínio controlável."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B é um modelo de linguagem de ponta com 20 bilhões de parâmetros, incorporando funcionalidades de busca no navegador e execução de código, além de possuir capacidades de raciocínio."
"description": "Modelo de linguagem compacto com pesos open source, otimizado para baixa latência e ambientes com recursos limitados, incluindo implantação local e na borda."
},
"openai/o1": {
"description": "o1 é o novo modelo de raciocínio da OpenAI, que suporta entrada de texto e imagem e gera texto, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 200K e data de corte de conhecimento em outubro de 2023."
"description": "O o1 da OpenAI é o modelo principal de raciocínio, projetado para problemas complexos que exigem pensamento profundo. Oferece forte capacidade de raciocínio e maior precisão para tarefas complexas de múltiplas etapas."
},
"openai/o1-mini": {
"description": "o1-mini é um modelo de raciocínio rápido e econômico, projetado para cenários de programação, matemática e ciências. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
@ -2325,23 +2493,44 @@
"description": "o1 é o novo modelo de raciocínio da OpenAI, adequado para tarefas complexas que exigem amplo conhecimento geral. Este modelo possui um contexto de 128K e uma data limite de conhecimento em outubro de 2023."
},
"openai/o3": {
"description": "o3 é um modelo poderoso e versátil, que se destaca em várias áreas. Ele estabelece novos padrões para tarefas de matemática, ciência, programação e raciocínio visual. Também é habilidoso em redação técnica e seguimento de instruções. Os usuários podem utilizá-lo para analisar textos, códigos e imagens, resolvendo problemas complexos em várias etapas."
"description": "O o3 da OpenAI é o modelo de raciocínio mais poderoso, estabelecendo novos padrões em codificação, matemática, ciência e percepção visual. É excelente para consultas complexas que exigem análise multifacetada, com vantagens especiais na análise de imagens, gráficos e diagramas."
},
"openai/o3-mini": {
"description": "o3-mini oferece alta inteligência com os mesmos objetivos de custo e latência que o o1-mini."
"description": "o3-mini é o mais recente modelo pequeno de raciocínio da OpenAI, oferecendo alta inteligência com os mesmos objetivos de custo e latência do o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini de alta capacidade de raciocínio oferece alta inteligência com os mesmos objetivos de custo e latência que o o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini é otimizado para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
"description": "O o4-mini da OpenAI oferece raciocínio rápido e econômico, com desempenho excepcional para seu tamanho, especialmente em matemática (melhor desempenho no benchmark AIME), codificação e tarefas visuais."
},
"openai/o4-mini-high": {
"description": "Versão de alto nível de inferência do o4-mini, otimizada para inferência rápida e eficaz, apresentando alta eficiência e desempenho em tarefas de codificação e visuais."
},
"openai/text-embedding-3-large": {
"description": "O modelo de embeddings mais capaz da OpenAI, adequado para tarefas em inglês e não inglês."
},
"openai/text-embedding-3-small": {
"description": "Versão aprimorada e de melhor desempenho do modelo ada de embeddings da OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Modelo tradicional de embeddings de texto da OpenAI."
},
"openrouter/auto": {
"description": "Com base no comprimento do contexto, tema e complexidade, sua solicitação será enviada para Llama 3 70B Instruct, Claude 3.5 Sonnet (autoajustável) ou GPT-4o."
},
"perplexity/sonar": {
"description": "Produto leve da Perplexity com capacidade de pesquisa fundamentada, mais rápido e barato que o Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Produto principal da Perplexity com capacidade de pesquisa fundamentada, suportando consultas avançadas e operações subsequentes."
},
"perplexity/sonar-reasoning": {
"description": "Modelo focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações detalhadas com pesquisa fundamentada."
},
"perplexity/sonar-reasoning-pro": {
"description": "Modelo avançado focado em raciocínio que gera cadeias de pensamento (CoT) nas respostas, oferecendo explicações abrangentes com capacidade de pesquisa aprimorada e múltiplas consultas de pesquisa por solicitação."
},
"phi3": {
"description": "Phi-3 é um modelo leve e aberto lançado pela Microsoft, adequado para integração eficiente e raciocínio de conhecimento em larga escala."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "O modelo v0-1.5-md é adequado para tarefas diárias e geração de interfaces de usuário (UI)"
},
"vercel/v0-1.0-md": {
"description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
},
"vercel/v0-1.5-md": {
"description": "Acesso ao modelo por trás do v0 para gerar, corrigir e otimizar aplicações web modernas, com raciocínio específico para frameworks e conhecimento atualizado."
},
"wan2.2-t2i-flash": {
"description": "Versão ultrarrápida Wanxiang 2.2, modelo mais recente. Atualizações abrangentes em criatividade, estabilidade e realismo, com alta velocidade de geração e excelente custo-benefício."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "O modelo Spark X1 será aprimorado ainda mais, mantendo a liderança em tarefas matemáticas no país, e alcançando resultados em tarefas gerais como raciocínio, geração de texto e compreensão de linguagem que se comparam ao OpenAI o1 e DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 é um modelo de linguagem de ponta com capacidades avançadas de raciocínio. Possui habilidades avançadas em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4-Turbo no ranking LMSYS."
},
"xai/grok-2-vision": {
"description": "O modelo visual Grok 2 apresenta desempenho excepcional em tarefas baseadas em visão, oferecendo desempenho de ponta em raciocínio matemático visual (MathVista) e perguntas e respostas baseadas em documentos (DocVQA). Ele pode processar diversos tipos de informações visuais, incluindo documentos, gráficos, tabelas, capturas de tela e fotos."
},
"xai/grok-3": {
"description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. Possui profundo conhecimento em finanças, saúde, direito e ciências."
},
"xai/grok-3-fast": {
"description": "Modelo principal da xAI, com desempenho excelente em casos de uso empresariais como extração de dados, codificação e resumo de texto. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
},
"xai/grok-3-mini": {
"description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível."
},
"xai/grok-3-mini-fast": {
"description": "Modelo leve da xAI que pensa antes de responder. Ideal para tarefas simples ou baseadas em lógica que não exigem profundo conhecimento de domínio. A trajetória de pensamento bruta é acessível. A variante rápida do modelo é atendida em infraestrutura mais veloz, oferecendo tempos de resposta muito mais rápidos que o padrão. O aumento de velocidade tem custo maior por token de saída."
},
"xai/grok-4": {
"description": "O mais recente e melhor modelo principal da xAI, oferecendo desempenho incomparável em linguagem natural, matemática e raciocínio — o competidor perfeito para todas as tarefas."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 é uma versão aprimorada do Yi. Ele usa um corpus de alta qualidade com 500B tokens para continuar o pré-treinamento do Yi e é refinado com 3M amostras de ajuste fino diversificadas."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V é a mais recente geração de modelo de linguagem visual (VLM) lançada pela Zhipu AI (智谱 AI). O modelo é construído sobre o modelo de texto carrochefe GLM-4.5-Air, que possui 106 bilhões de parâmetros totais e 12 bilhões de parâmetros de ativação, adotando uma arquitetura de especialistas mistos (MoE) com o objetivo de oferecer desempenho de alto nível a um custo de inferência reduzido. Tecnicamente, o GLM-4.5V dá continuidade à linha do GLM-4.1V-Thinking e introduz inovações como a codificação de posição rotacional 3D (3D-RoPE), que aumentam significativamente a percepção e o raciocínio sobre relações espaciais tridimensionais. Por meio de otimizações nas fases de pré-treinamento, ajuste fino supervisionado e aprendizado por reforço, o modelo é capaz de processar diversos tipos de conteúdo visual — incluindo imagens, vídeos e longos documentos — e alcançou desempenho de ponta entre modelos open-source da mesma categoria em 41 benchmarks multimodais públicos. Além disso, o modelo inclui um interruptor de \"modo de pensamento\", que permite aos usuários alternar de forma flexível entre respostas rápidas e raciocínio aprofundado, equilibrando eficiência e eficácia."
},
"zai/glm-4.5": {
"description": "A série de modelos GLM-4.5 é uma base projetada especificamente para agentes. O modelo principal GLM-4.5 integra 355 bilhões de parâmetros totais (32 bilhões ativos), unificando raciocínio, codificação e capacidades de agente para atender a demandas complexas de aplicações. Como sistema de raciocínio híbrido, oferece modos operacionais duplos."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 e GLM-4.5-Air são nossos modelos principais mais recentes, projetados especificamente como bases para aplicações de agentes. Ambos utilizam arquitetura de especialistas mistos (MoE). GLM-4.5 possui 355 bilhões de parâmetros totais com 32 bilhões ativos por passagem, enquanto GLM-4.5-Air tem design mais simplificado, com 106 bilhões de parâmetros totais e 12 bilhões ativos."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V é construído sobre o modelo base GLM-4.5-Air, herdando a tecnologia comprovada do GLM-4.1V-Thinking, enquanto alcança escalabilidade eficiente por meio da poderosa arquitetura MoE de 106 bilhões de parâmetros."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 é um assistente de programação em par; basta descrever suas ideias em linguagem natural, e ele gerará código e interface de usuário (UI) para o seu projeto"
},
"vercelaigateway": {
"description": "O Vercel AI Gateway oferece uma API unificada para acessar mais de 100 modelos, permitindo o uso de modelos de vários provedores como OpenAI, Anthropic, Google, entre outros, através de um único endpoint. Suporta configuração de orçamento, monitoramento de uso, balanceamento de carga de requisições e failover."
},
"vertexai": {
"description": "A série Gemini do Google é seu modelo de IA mais avançado e versátil, desenvolvido pelo Google DeepMind, projetado para ser multimodal, suportando compreensão e processamento sem costura de texto, código, imagens, áudio e vídeo. Adequado para uma variedade de ambientes, desde data centers até dispositivos móveis, aumentando significativamente a eficiência e a aplicabilidade dos modelos de IA."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Многоязычная модель с 52 млрд параметров (12 млрд активных), предоставляющая окно контекста длиной 256K, вызовы функций, структурированный вывод и генерацию на основе фактов."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 — это новейшее поколение крупномасштабных языковых моделей серии Qwen, предлагающее полный набор плотных и смешанных экспертных (MoE) моделей. Благодаря обширному обучению Qwen3 демонстрирует прорывные достижения в области вывода, следования инструкциям, агентных возможностей и поддержки нескольких языков."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct — самый агентно-ориентированный кодовый модель серии Qwen, демонстрирующий выдающиеся результаты в агентном кодировании, использовании браузера агентом и других базовых задачах кодирования, сопоставимые с Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Очень недорогая мультимодальная модель с чрезвычайно высокой скоростью обработки изображений, видео и текстовых данных."
},
"amazon/nova-micro": {
"description": "Только текстовая модель, обеспечивающая минимальную задержку отклика при очень низкой стоимости."
},
"amazon/nova-pro": {
"description": "Высокопроизводительная мультимодальная модель с оптимальным сочетанием точности, скорости и стоимости, подходящая для широкого спектра задач."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 — легкая и эффективная многоязычная модель встраивания с поддержкой размерностей 1024, 512 и 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet устанавливает новые отраслевые стандарты, превосходя модели конкурентов и Claude 3 Opus, демонстрируя отличные результаты в широком спектре оценок, при этом обладая скоростью и стоимостью наших моделей среднего уровня."
},
@ -627,25 +654,28 @@
"description": "Обновленная версия Claude 2, обладающая двойным контекстным окном и улучшениями в надежности, уровне галлюцинаций и точности на основе доказательств в длинных документах и контексте RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku — это самая быстрая и компактная модель от Anthropic, предназначенная для почти мгновенных ответов. Она обладает быстрой и точной направленной производительностью."
"description": "Claude 3 Haiku — самая быстрая модель Anthropic на сегодняшний день, разработанная для корпоративных нагрузок с обычно длинными подсказками. Haiku быстро анализирует большие объемы документов, таких как квартальные отчеты, контракты или судебные дела, при этом стоимость вдвое ниже, чем у других моделей с аналогичным уровнем производительности."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus — это самая мощная модель от Anthropic для обработки высококомплексных задач. Она демонстрирует выдающиеся результаты по производительности, интеллекту, плавности и пониманию."
"description": "Claude 3 Opus — самая интеллектуальная модель Anthropic с лидирующей на рынке производительностью в сложных задачах. Она демонстрирует выдающуюся плавность и человекоподобное понимание при работе с открытыми подсказками и новыми сценариями."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku — это самая быстрая модель следующего поколения от Anthropic. По сравнению с Claude 3 Haiku, Claude 3.5 Haiku продемонстрировала улучшения во всех навыках и превзошла предыдущую крупнейшую модель Claude 3 Opus во многих интеллектуальных бенчмарках."
"description": "Claude 3.5 Haiku — следующее поколение нашей самой быстрой модели. При скорости, сопоставимой с Claude 3 Haiku, она улучшена по всем навыкам и превосходит нашего предыдущего крупнейшего Claude 3 Opus во многих интеллектуальных тестах."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet предлагает возможности, превосходящие Opus, и скорость, превышающую Sonnet, при этом сохраняя ту же цену. Sonnet особенно хорошо справляется с программированием, наукой о данных, визуальной обработкой и агентскими задачами."
"description": "Claude 3.5 Sonnet достигает идеального баланса между интеллектом и скоростью, особенно для корпоративных нагрузок. По сравнению с аналогами, он обеспечивает мощную производительность при меньших затратах и разработан для высокой надежности в масштабных развертываниях ИИ."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet — это самая умная модель от Anthropic на сегодняшний день и первая в мире смешанная модель вывода. Claude 3.7 Sonnet может генерировать почти мгновенные ответы или длительные пошаговые размышления, позволяя пользователям четко видеть эти процессы. Sonnet особенно хорошо справляется с программированием, научными данными, визуальной обработкой и агентскими задачами."
"description": "Claude 3.7 Sonnet — первая гибридная модель вывода и самая интеллектуальная модель Anthropic на сегодняшний день. Она обеспечивает передовые возможности в кодировании, генерации контента, анализе данных и планировании, построена на базе программных и вычислительных способностей предшественника Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 — самый мощный модель Anthropic для решения высоко сложных задач. Она демонстрирует выдающиеся показатели в производительности, интеллекте, плавности и понимании."
"description": "Claude Opus 4 — самая мощная модель Anthropic и лучший в мире кодовый модель, лидирующий в SWE-bench (72,5%) и Terminal-bench (43,2%). Обеспечивает устойчивую производительность для длительных задач, требующих сосредоточенности и тысяч шагов, способна работать непрерывно в течение нескольких часов, значительно расширяя возможности ИИ-агентов."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 — готовая к использованию альтернатива Opus 4, обеспечивающая выдающуюся производительность и точность для реальных задач кодирования и агентных операций. Opus 4.1 повышает передовые показатели кодирования до 74,5% в SWE-bench Verified и с большей тщательностью и вниманием к деталям решает сложные многошаговые задачи."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 способен генерировать практически мгновенные ответы или длительные поэтапные размышления, которые пользователи могут ясно отслеживать. API-пользователи также могут точно контролировать время размышлений модели."
"description": "Claude Sonnet 4 значительно улучшен по сравнению с Sonnet 3.7, демонстрируя выдающиеся результаты в кодировании с передовым показателем 72,7% в SWE-bench. Модель сбалансирована по производительности и эффективности, подходит для внутренних и внешних сценариев и обеспечивает большую управляемость благодаря расширенным возможностям контроля."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B — это разреженная большая языковая модель с 72 миллиардами параметров и 16 миллиардами активных параметров, основанная на архитектуре группового смешанного эксперта (MoGE). В фазе выбора экспертов эксперты группируются, и токен активирует равное количество экспертов в каждой группе, что обеспечивает баланс нагрузки между экспертами и значительно повышает эффективность развертывания модели на платформе Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ — передовая оптимизированная модель для RAG, предназначенная для корпоративных рабочих нагрузок."
},
"cohere/command-a": {
"description": "Command A — самая производительная модель Cohere на сегодняшний день, отлично справляющаяся с использованием инструментов, агентными задачами, генерацией с поддержкой поиска (RAG) и многоязычными сценариями. Контекстная длина Command A составляет 256K, модель работает на двух GPU и обеспечивает на 150% большую пропускную способность по сравнению с Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R — крупномасштабная языковая модель, оптимизированная для диалогового взаимодействия и задач с длинным контекстом. Она относится к категории \"масштабируемых\" моделей, обеспечивая баланс между высокой производительностью и точностью, позволяя компаниям перейти от прототипов к промышленному использованию."
},
"cohere/command-r-plus": {
"description": "Command R+ — последняя крупномасштабная языковая модель Cohere, оптимизированная для диалогового взаимодействия и задач с длинным контекстом. Цель — выдающаяся производительность, позволяющая компаниям перейти от прототипов к промышленному использованию."
},
"cohere/embed-v4.0": {
"description": "Модель, позволяющая классифицировать текст, изображения или смешанный контент либо преобразовывать их в векторные представления (эмбеддинги)."
},
"command": {
"description": "Диалоговая модель, следуя инструкциям, которая демонстрирует высокое качество и надежность в языковых задачах, а также имеет более длинную длину контекста по сравнению с нашей базовой генеративной моделью."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 — крупная гибридная модель рассуждений с поддержкой длинного контекста до 128K и эффективным переключением режимов, демонстрирующая выдающуюся производительность и скорость при вызове инструментов, генерации кода и выполнении сложных задач рассуждений."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
"description": "Модель DeepSeek R1 получила небольшое обновление до версии DeepSeek-R1-0528. В последнем обновлении DeepSeek R1 значительно улучшила глубину и качество вывода за счет увеличения вычислительных ресурсов и внедрения алгоритмических оптимизаций после обучения. Модель демонстрирует отличные результаты в математике, программировании и общей логике, приближаясь по производительности к лидерам, таким как O3 и Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 значительно улучшил способность модели к рассуждению при минимальном количестве размеченных данных. Перед выводом окончательного ответа модель сначала генерирует цепочку рассуждений для повышения точности ответа."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B — это крупная языковая модель на основе Llama3.3 70B, которая использует доработку, полученную от DeepSeek R1, для достижения конкурентоспособной производительности, сопоставимой с крупными передовыми моделями."
"description": "DeepSeek-R1-Distill-Llama-70B — дистиллированная и более эффективная версия модели Llama 70B. Она сохраняет высокую производительность в задачах генерации текста при сниженных вычислительных затратах для удобства развертывания и исследований. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B — это дистиллированная большая языковая модель на основе Llama-3.1-8B-Instruct, обученная с использованием выходных данных DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 значительно улучшила способности модели к рассуждению при наличии лишь очень ограниченных размеченных данных. Перед тем как предоставить окончательный ответ, модель сначала выводит цепочку размышлений, чтобы повысить точность окончательного ответа."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 достиг значительного прорыва в скорости вывода по сравнению с предыдущими моделями. Она занимает первое место среди открытых моделей и может соперничать с самыми современными закрытыми моделями в мире. DeepSeek-V3 использует архитектуры многоголового потенциального внимания (MLA) и DeepSeekMoE, которые были полностью проверены в DeepSeek-V2. Кроме того, DeepSeek-V3 внедрила вспомогательную безубыточную стратегию для балансировки нагрузки и установила цели обучения для многомаркерного прогнозирования для достижения более высокой производительности."
"description": "Быстрая универсальная крупномасштабная языковая модель с улучшенными возможностями вывода."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base — улучшенная версия модели DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 достиг значительного прорыва в скорости вывода по сравнению с предыдущими моделями. Она занимает первое место среди открытых моделей и может соперничать с самыми современными закрытыми моделями в мире. DeepSeek-V3 использует архитектуры многоголового потенциального внимания (MLA) и DeepSeekMoE, которые были полностью проверены в DeepSeek-V2. Кроме того, DeepSeek-V3 внедрила вспомогательную безубыточную стратегию для балансировки нагрузки и установила цели обучения для многомаркерного прогнозирования для достижения более высокой производительности."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview обладает мощными способностями к сложному выводу, демонстрируя отличные результаты в области логического вывода, математики и программирования."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash предлагает функции следующего поколения и улучшения, включая выдающуюся скорость, использование встроенных инструментов, многомодальную генерацию и контекстное окно на 1M токенов."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental — это последняя экспериментальная мультимодальная AI модель от Google, которая демонстрирует определенное улучшение качества по сравнению с историческими версиями, особенно в области мировых знаний, кода и длинного контекста."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite предлагает функции следующего поколения и улучшенные возможности, включая выдающуюся скорость, встроенное использование инструментов, мультимодальную генерацию и контекстное окно на 1 миллион токенов."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash — это передовая основная модель Google, специально разработанная для сложных задач рассуждения, кодирования, математики и науки. Она включает встроенную функцию «мышления», которая позволяет предоставлять ответы с более высокой точностью и тщательной обработкой контекста.\n\nВнимание: у этой модели есть два варианта: с мышлением и без. Ценообразование вывода значительно отличается в зависимости от активации функции мышления. Если вы выбираете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов мышления.\n\nЧтобы использовать функцию мышления и получать токены мышления, необходимо выбрать вариант с суффиксом \":thinking\", что приведет к более высокой стоимости вывода с мышлением.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра «максимальное количество токенов для рассуждения», как описано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash — модель для размышлений с выдающимися всесторонними возможностями. Она сбалансирована по цене и производительности, поддерживает мультимодальность и контекстное окно на 1 миллион токенов."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Экспериментальная модель Gemini 2.5 Flash, поддерживающая генерацию изображений."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite — сбалансированная модель с низкой задержкой, с настраиваемым бюджетом размышлений и подключением инструментов (например, Google Search и выполнение кода). Поддерживает мультимодальный ввод и контекстное окно на 1 миллион токенов."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash — это самая современная основная модель от Google, разработанная для сложного рассуждения, кодирования, математических и научных задач. Она включает встроенную способность \"думать\", что позволяет ей давать ответы с более высокой точностью и детализированной обработкой контекста.\n\nОбратите внимание: эта модель имеет два варианта: с \"думанием\" и без. Цены на вывод значительно различаются в зависимости от того, активирована ли способность думать. Если вы выберете стандартный вариант (без суффикса \":thinking\"), модель явно избегает генерации токенов для размышлений.\n\nЧтобы воспользоваться способностью думать и получать токены для размышлений, вы должны выбрать вариант \":thinking\", что приведет к более высокой цене на вывод размышлений.\n\nКроме того, Gemini 2.5 Flash можно настроить с помощью параметра \"максимальное количество токенов для рассуждения\", как указано в документации (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro — это передовая модель мышления Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
"description": "Gemini 2.5 Pro — наш самый продвинутый модель Gemini для вывода, способная решать сложные задачи. Имеет контекстное окно на 2 миллиона токенов и поддерживает мультимодальный ввод, включая текст, изображения, аудио, видео и PDF-документы."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview — это самая передовая модель мышления от Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
},
"google/gemini-embedding-001": {
"description": "Передовая модель встраивания с отличной производительностью в задачах на английском, многоязычных и кодовых задачах."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash предлагает оптимизированные возможности многомодальной обработки, подходящие для различных сложных задач."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B — это открытая языковая модель от Google, которая установила новые стандарты в области эффективности и производительности."
},
"google/text-embedding-005": {
"description": "Оптимизированная для кода и английского языка модель текстового встраивания с фокусом на английский."
},
"google/text-multilingual-embedding-002": {
"description": "Многоязычная модель текстового встраивания, оптимизированная для межъязыковых задач, поддерживающая множество языков."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo подходит для различных задач генерации и понимания текста, в настоящее время ссылается на gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Ультра-версия серии моделей Imagen 4-го поколения для преобразования текста в изображение"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small — идеальный выбор для задач генерации, отладки и рефакторинга кода с минимальной задержкой."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 — это компактная высокопроизводительная большая языковая модель на базе архитектуры MoE. Она содержит 16 миллиардов параметров, при этом для каждого токена активируется всего 1,4 миллиарда (не включая эмбеддинги — 789 миллионов), что обеспечивает чрезвычайно высокую скорость генерации. Благодаря эффективному дизайну MoE и масштабным высококачественным обучающим данным, несмотря на всего 1,4 миллиарда активных параметров, Ling-mini-2.0 демонстрирует в задачах нижнего уровня производительность, сопоставимую с плотными LLM размером до 10 миллиардов параметров и более крупными MoE-моделями."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Текстовая модель Llama 3.1 с донастройкой по инструкциям, оптимизированная для многоязычных диалогов, демонстрирующая высокие результаты на популярных отраслевых бенчмарках среди доступных открытых и закрытых чат-моделей."
},
"meta/llama-3-70b": {
"description": "Открытая модель с 70 миллиардами параметров, тщательно настроенная Meta для следования инструкциям. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
},
"meta/llama-3-8b": {
"description": "Открытая модель с 8 миллиардами параметров, тщательно настроенная Meta для следования инструкциям. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
},
"meta/llama-3.1-405b-instruct": {
"description": "Современная LLM, поддерживающая генерацию синтетических данных, дистилляцию знаний и рассуждения, подходит для чат-ботов, программирования и специализированных задач."
},
"meta/llama-3.1-70b": {
"description": "Обновленная версия Meta Llama 3 70B Instruct с расширенной длиной контекста 128K, многоязычностью и улучшенными возможностями вывода."
},
"meta/llama-3.1-70b-instruct": {
"description": "Обеспечивает сложные диалоги, обладая выдающимся пониманием контекста, способностями к рассуждению и генерации текста."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B поддерживает окно контекста 128K, что делает её идеальной для интерфейсов реального времени и анализа данных, при этом обеспечивая значительную экономию по сравнению с более крупными моделями. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
},
"meta/llama-3.1-8b-instruct": {
"description": "Современная передовая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-11b": {
"description": "Модель генерации с выводом изображений, настроенная по инструкциям (текст + изображение на входе / текст на выходе), оптимизированная для визуального распознавания, вывода изображений, генерации заголовков и ответов на общие вопросы об изображениях."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
},
"meta/llama-3.2-1b": {
"description": "Только текстовая модель, поддерживающая локальные сценарии, такие как многоязычный поиск знаний, суммирование и перефразирование."
},
"meta/llama-3.2-1b-instruct": {
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-3b": {
"description": "Только текстовая модель, тщательно настроенная для поддержки локальных сценариев, таких как многоязычный поиск знаний, суммирование и перефразирование."
},
"meta/llama-3.2-3b-instruct": {
"description": "Современная передовая компактная языковая модель, обладающая пониманием языка, выдающимися способностями к рассуждению и генерации текста."
},
"meta/llama-3.2-90b": {
"description": "Модель генерации с выводом изображений, настроенная по инструкциям (текст + изображение на входе / текст на выходе), оптимизированная для визуального распознавания, вывода изображений, генерации заголовков и ответов на общие вопросы об изображениях."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Современная визуально-языковая модель, специализирующаяся на высококачественном рассуждении на основе изображений."
},
"meta/llama-3.3-70b": {
"description": "Идеальное сочетание производительности и эффективности. Модель поддерживает высокопроизводительный диалоговый ИИ, разработана для создания контента, корпоративных приложений и исследований, обеспечивая передовые возможности понимания языка, включая суммирование текста, классификацию, анализ настроений и генерацию кода."
},
"meta/llama-3.3-70b-instruct": {
"description": "Современная LLM, специализирующаяся на рассуждениях, математике, здравом смысле и вызовах функций."
},
"meta/llama-4-maverick": {
"description": "Набор моделей Llama 4 — это нативные мультимодальные ИИ-модели, поддерживающие текст и мультимодальные взаимодействия. Эти модели используют архитектуру смешанных экспертов для обеспечения лидирующей в отрасли производительности в понимании текста и изображений. Llama 4 Maverick — модель с 17 миллиардами параметров и 128 экспертами. Обслуживается DeepInfra."
},
"meta/llama-4-scout": {
"description": "Набор моделей Llama 4 — это нативные мультимодальные ИИ-модели, поддерживающие текст и мультимодальные взаимодействия. Эти модели используют архитектуру смешанных экспертов для обеспечения лидирующей в отрасли производительности в понимании текста и изображений. Llama 4 Scout — модель с 17 миллиардами параметров и 16 экспертами. Обслуживается DeepInfra."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Та же модель Phi-3-medium, но с увеличенным размером контекста, подходящая для RAG или небольшого количества подсказок."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small — это экономически эффективный, быстрый и надежный вариант для таких случаев, как перевод, резюме и анализ настроений."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 — передовая модель кодирования, оптимизированная для низкой задержки и высокочастотных сценариев. Поддерживает более 80 языков программирования, отлично справляется с задачами заполнения пропусков (FIM), исправления кода и генерации тестов."
},
"mistral/codestral-embed": {
"description": "Модель кодовых эмбеддингов, которую можно встроить в базы данных и репозитории кода для поддержки помощников по программированию."
},
"mistral/devstral-small": {
"description": "Devstral — агентная крупномасштабная языковая модель для задач программной инженерии, отличный выбор для агентных решений в области разработки ПО."
},
"mistral/magistral-medium": {
"description": "Сложное мышление, поддерживаемое глубоким пониманием, с прозрачным рассуждением, которое вы можете проследить и проверить. Модель сохраняет высокую точность рассуждений на многих языках, даже при смене языка в середине задачи."
},
"mistral/magistral-small": {
"description": "Сложное мышление, поддерживаемое глубоким пониманием, с прозрачным рассуждением, которое вы можете проследить и проверить. Модель сохраняет высокую точность рассуждений на многих языках, даже при смене языка в середине задачи."
},
"mistral/ministral-3b": {
"description": "Компактная и эффективная модель для задач на устройствах, таких как интеллектуальные помощники и локальный анализ, обеспечивающая низкую задержку."
},
"mistral/ministral-8b": {
"description": "Более мощная модель с более быстрой и энергоэффективной работой, идеальна для сложных рабочих процессов и требовательных приложений на периферии."
},
"mistral/mistral-embed": {
"description": "Универсальная модель текстовых эмбеддингов для семантического поиска, определения сходства, кластеризации и рабочих процессов RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large — идеальный выбор для сложных задач, требующих большой вычислительной мощности или высокой специализации, таких как синтез текста, генерация кода, RAG или агентные задачи."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B — открытая модель с 24 миллиардами параметров, разработанная Mistral.ai. Saba — специализированная модель, обученная для выдающихся результатов на арабском, персидском, урду, иврите и индийских языках. Обслуживается на аппаратуре Groq с использованием их специализированных языковых процессорных блоков (LPU) для быстрой и эффективной работы."
},
"mistral/mistral-small": {
"description": "Mistral Small — идеальный выбор для простых задач, которые можно выполнять пакетно, таких как классификация, поддержка клиентов или генерация текста. Обеспечивает отличную производительность по доступной цене."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct — модель с 8 экспертами по 22 миллиарда параметров, открытая модель с архитектурой смешанных экспертов, обслуживаемая Mistral."
},
"mistral/pixtral-12b": {
"description": "Модель с 12 миллиардами параметров, обладающая способностями к пониманию изображений и текста."
},
"mistral/pixtral-large": {
"description": "Pixtral Large — вторая модель в нашей мультимодальной семье, демонстрирующая передовые возможности понимания изображений. В частности, модель способна понимать документы, диаграммы и естественные изображения, сохраняя при этом лидирующие возможности понимания текста, присущие Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct известен своей высокой производительностью и подходит для множества языковых задач."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 — это последняя и самая мощная версия Kimi K2. Это передовая языковая модель с архитектурой смешанных экспертов (MoE), обладающая общим числом параметров в 1 триллион и 32 миллиардами активных параметров. Основные характеристики модели включают: улучшенный интеллект кодирующих агентов, демонстрирующий значительный прирост производительности на открытых бенчмарках и в реальных задачах кодирования агентов; усовершенствованный опыт фронтенд-кодирования, с улучшениями как в эстетике, так и в практичности фронтенд-программирования."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 — крупномасштабная смешанная экспертная (MoE) языковая модель с триллионом параметров и 32 миллиардами активных параметров на проход. Оптимизирована для агентных возможностей, включая продвинутое использование инструментов, рассуждения и синтез кода."
},
"moonshotai/kimi-k2-0905": {
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Модель kimi-k2-0905-preview с длиной контекста 256k обладает более сильными возможностями агентного кодирования, улучшенной эстетикой и практичностью фронтенд-кода, а также лучшим пониманием контекста."
},
"morph/morph-v3-fast": {
"description": "Morph предлагает специализированную ИИ-модель, которая быстро применяет изменения к вашему существующему коду, рекомендованные передовыми моделями, такими как Claude или GPT-4o — скорость более 4500 токенов в секунду. Является завершающим этапом в рабочем процессе ИИ-кодирования. Поддерживает 16k входных и 16k выходных токенов."
},
"morph/morph-v3-large": {
"description": "Morph предлагает специализированную ИИ-модель, которая применяет изменения к вашему существующему коду, рекомендованные передовыми моделями, такими как Claude или GPT-4o — скорость более 2500 токенов в секунду. Является завершающим этапом в рабочем процессе ИИ-кодирования. Поддерживает 16k входных и 16k выходных токенов."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B — это обновленная версия Nous Hermes 2, содержащая последние внутренние разработанные наборы данных."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B — это разреженная экспертная модель, использующая несколько параметров для повышения скорости вывода, подходит для обработки многоязычных и кодовых задач."
},
"openai/gpt-3.5-turbo": {
"description": "Самая производительная и экономичная модель серии GPT-3.5 от OpenAI, оптимизированная для чат-целей, но также хорошо работающая в традиционных задачах завершения."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Модель с возможностями, аналогичными моделям эпохи GPT-3. Совместима с традиционными конечными точками завершения, а не с чат-завершениями."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo от OpenAI обладает обширными универсальными знаниями и экспертными областями, позволяя следовать сложным инструкциям на естественном языке и точно решать сложные задачи. Дата отсечения знаний — апрель 2023 года, окно контекста — 128 000 токенов."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 — это наша флагманская модель для сложных задач. Она идеально подходит для решения междисциплинарных проблем."
"description": "GPT 4.1 — флагманская модель OpenAI для сложных задач. Отлично подходит для междисциплинарного решения проблем."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini предлагает баланс между интеллектом, скоростью и стоимостью, что делает её привлекательной моделью для многих случаев использования."
"description": "GPT 4.1 mini сбалансирована по интеллекту, скорости и стоимости, что делает её привлекательной моделью для многих сценариев."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano — это самая быстрая и экономически эффективная модель из GPT-4.1."
"description": "GPT-4.1 nano — самая быстрая и экономичная модель GPT 4.1."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o — это динамическая модель, которая обновляется в реальном времени, чтобы оставаться актуальной. Она сочетает в себе мощные способности понимания и генерации языка, подходит для масштабных приложений, включая обслуживание клиентов, образование и техническую поддержку."
"description": "GPT-4o от OpenAI обладает обширными универсальными знаниями и экспертными областями, способен следовать сложным инструкциям на естественном языке и точно решать сложные задачи. Обеспечивает производительность, сопоставимую с GPT-4 Turbo, при более высокой скорости и меньшей стоимости API."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini — это последняя модель от OpenAI, выпущенная после GPT-4 Omni, поддерживающая ввод изображений и текста с выводом текста. Как их самый продвинутый компактный модель, она значительно дешевле других недавних передовых моделей и более чем на 60% дешевле GPT-3.5 Turbo. Она сохраняет передовой уровень интеллекта при значительном соотношении цена-качество. GPT-4o mini набрала 82% в тесте MMLU и в настоящее время занимает более высокое место по предпочтениям в чате, чем GPT-4."
"description": "GPT-4o mini от OpenAI — их самая передовая и экономичная компактная модель. Мультимодальная (принимает текст или изображения на вход и выдает текст), умнее, чем gpt-3.5-turbo, при такой же скорости."
},
"openai/gpt-5": {
"description": "GPT-5 — флагманская языковая модель OpenAI, демонстрирующая выдающиеся способности в сложных рассуждениях, обширных знаниях о реальном мире, задачах с интенсивным кодированием и многошаговых агентных задачах."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini — оптимизированная по стоимости модель с отличной производительностью в задачах рассуждений и диалогов. Обеспечивает лучший баланс скорости, стоимости и возможностей."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano — высокопроизводительная модель, отлично справляющаяся с простыми инструкциями и задачами классификации."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B — передовая языковая модель с 120 миллиардами параметров, встроенным поиском в браузере и возможностями выполнения кода, обладающая навыками рассуждения."
"description": "Чрезвычайно мощная универсальная крупномасштабная языковая модель с сильными и управляемыми возможностями рассуждения."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B — передовая языковая модель с 20 миллиардами параметров, встроенным поиском в браузере и возможностями выполнения кода, обладающая навыками рассуждения."
"description": "Компактная модель с открытыми весами, оптимизированная для низкой задержки и ресурсов ограниченных сред, включая локальное и периферийное развертывание."
},
"openai/o1": {
"description": "o1 — новая модель рассуждений от OpenAI, поддерживающая ввод изображений и текста с выводом текста, предназначенная для сложных задач, требующих широких универсальных знаний. Модель обладает контекстом в 200K и датой отсечения знаний — октябрь 2023 года."
"description": "o1 от OpenAI — флагманская модель вывода, разработанная для сложных задач, требующих глубокого анализа. Обеспечивает мощные возможности рассуждения и повышенную точность для многошаговых задач."
},
"openai/o1-mini": {
"description": "o1-mini — это быстрое и экономичное модель вывода, разработанная для программирования, математики и научных приложений. Модель имеет контекст 128K и срок знания до октября 2023 года."
@ -2325,23 +2493,44 @@
"description": "o1 — это новая модель вывода от OpenAI, подходящая для сложных задач, требующих обширных общих знаний. Модель имеет контекст 128K и срок знания до октября 2023 года."
},
"openai/o3": {
"description": "o3 — это мощная универсальная модель, которая демонстрирует отличные результаты в различных областях. Она устанавливает новые стандарты для задач в математике, науке, программировании и визуальном мышлении. Она также хорошо справляется с техническим письмом и соблюдением инструкций. Пользователи могут использовать её для анализа текста, кода и изображений, а также для решения сложных многошаговых задач."
"description": "o3 от OpenAI — самая мощная модель вывода, устанавливающая новые стандарты в кодировании, математике, науке и визуальном восприятии. Отлично справляется со сложными запросами, требующими многогранного анализа, особенно в обработке изображений, диаграмм и графиков."
},
"openai/o3-mini": {
"description": "o3-mini обеспечивает высокий интеллект при тех же целях по стоимости и задержке, что и o1-mini."
"description": "o3-mini — последняя компактная модель вывода OpenAI, обеспечивающая высокий интеллект при тех же затратах и задержках, что и o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini high — версия с высоким уровнем вывода, которая обеспечивает высокий интеллект при тех же целях по стоимости и задержке, что и o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini оптимизирована для быстрого и эффективного вывода, демонстрируя высокую эффективность и производительность в задачах кодирования и визуализации."
"description": "o4-mini от OpenAI обеспечивает быстрый и экономичный вывод с выдающейся производительностью для своего размера, особенно в математике (лучшие результаты в тесте AIME), кодировании и визуальных задачах."
},
"openai/o4-mini-high": {
"description": "o4-mini версия с высоким уровнем вывода, оптимизированная для быстрого и эффективного вывода, демонстрирующая высокую эффективность и производительность в задачах кодирования и визуализации."
},
"openai/text-embedding-3-large": {
"description": "Самая производительная модель встраивания OpenAI для задач на английском и других языках."
},
"openai/text-embedding-3-small": {
"description": "Улучшенная и более производительная версия модели встраивания ada от OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Традиционная модель текстового встраивания OpenAI."
},
"openrouter/auto": {
"description": "В зависимости от длины контекста, темы и сложности ваш запрос будет отправлен в Llama 3 70B Instruct, Claude 3.5 Sonnet (саморегулирующийся) или GPT-4o."
},
"perplexity/sonar": {
"description": "Легковесный продукт Perplexity с возможностью поиска, быстрее и дешевле, чем Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Флагманский продукт Perplexity с возможностью поиска, поддерживающий расширенные запросы и последующие действия."
},
"perplexity/sonar-reasoning": {
"description": "Модель, ориентированная на рассуждения, выводящая цепочки мыслей (CoT) в ответах и предоставляющая подробные объяснения с поисковой поддержкой."
},
"perplexity/sonar-reasoning-pro": {
"description": "Продвинутая модель, ориентированная на рассуждения, выводящая цепочки мыслей (CoT) в ответах, с улучшенными возможностями поиска и несколькими поисковыми запросами на каждый запрос для комплексных объяснений."
},
"phi3": {
"description": "Phi-3 — это легковесная открытая модель, выпущенная Microsoft, подходящая для эффективной интеграции и масштабного вывода знаний."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Модель v0-1.5-md подходит для повседневных задач и генерации пользовательского интерфейса (UI)"
},
"vercel/v0-1.0-md": {
"description": "Доступ к модели v0 для генерации, исправления и оптимизации современных веб-приложений с рассуждениями, специфичными для фреймворков, и актуальными знаниями."
},
"vercel/v0-1.5-md": {
"description": "Доступ к модели v0 для генерации, исправления и оптимизации современных веб-приложений с рассуждениями, специфичными для фреймворков, и актуальными знаниями."
},
"wan2.2-t2i-flash": {
"description": "Экспресс-версия Wanxiang 2.2 — самая новая модель на данный момент. Полное обновление в креативности, стабильности и реалистичности, высокая скорость генерации и отличное соотношение цена-качество."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Модель Spark X1 будет дополнительно обновлена, и на основе уже существующих лидерских позиций в математических задачах, достигнет сопоставимых результатов в общих задачах, таких как рассуждение, генерация текста и понимание языка, с OpenAI o1 и DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 — передовая языковая модель с выдающимися возможностями рассуждения. Обладает продвинутыми навыками в чатах, кодировании и рассуждениях, превосходя Claude 3.5 Sonnet и GPT-4-Turbo в рейтинге LMSYS."
},
"xai/grok-2-vision": {
"description": "Визуальная модель Grok 2 демонстрирует выдающиеся результаты в задачах, основанных на визуальной информации, обеспечивая передовые показатели в визуальной математике (MathVista) и вопросах по документам (DocVQA). Способна обрабатывать разнообразную визуальную информацию, включая документы, диаграммы, графики, скриншоты и фотографии."
},
"xai/grok-3": {
"description": "Флагманская модель xAI, отлично подходящая для корпоративных сценариев, таких как извлечение данных, кодирование и суммирование текста. Обладает глубокими знаниями в финансах, здравоохранении, юриспруденции и науке."
},
"xai/grok-3-fast": {
"description": "Флагманская модель xAI для корпоративных задач, таких как извлечение данных, кодирование и суммирование текста. Быстрая версия модели работает на более производительной инфраструктуре, обеспечивая значительно более быстрое время отклика. Увеличение скорости достигается за счет более высокой стоимости на каждый выходной токен."
},
"xai/grok-3-mini": {
"description": "Легковесная модель xAI, размышляющая перед ответом. Отлично подходит для простых или логических задач без необходимости глубоких знаний в предметной области. Исходные цепочки мыслей доступны."
},
"xai/grok-3-mini-fast": {
"description": "Легковесная модель xAI, размышляющая перед ответом. Отлично подходит для простых или логических задач без необходимости глубоких знаний в предметной области. Исходные цепочки мыслей доступны. Быстрая версия модели работает на более производительной инфраструктуре, обеспечивая значительно более быстрое время отклика. Увеличение скорости достигается за счет более высокой стоимости на каждый выходной токен."
},
"xai/grok-4": {
"description": "Новейшая и лучшая флагманская модель xAI, обеспечивающая непревзойденную производительность в естественном языке, математике и рассуждениях — идеальный универсал."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 — это обновленная версия Yi. Она использует 500B токенов высококачественного корпуса данных для продолжения предварительной тренировки на основе Yi и微调在3M个多样化的微调样本上。"
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V — это новое поколение визуально-языковой модели (VLM), выпущенной Zhipu AI (智谱 AI). Модель построена на флагманской текстовой модели GLM-4.5-Air с общим числом параметров 106B и 12B активных параметров, использует архитектуру смешанных экспертов (MoE) и призвана обеспечивать выдающуюся производительность при более низкой стоимости вывода. Технически GLM-4.5V продолжает линию GLM-4.1V-Thinking и вводит такие новшества, как трёхмерная вращательная позиционная кодировка (3D-RoPE), значительно усиливающие восприятие и выводы о трёхмерных пространственных отношениях. Благодаря оптимизациям на этапах предобучения, контролируемой донастройки и обучения с подкреплением модель способна обрабатывать различные визуальные данные — изображения, видео и длинные документы — и в 41 открытом мультимодальном бенчмарке достигла уровня лучших в своём классе открытых моделей. Кроме того, в модели добавлен переключатель «режим размышления», позволяющий пользователю гибко выбирать между быстрой отдачей и глубокой аналитикой, балансируя эффективность и качество."
},
"zai/glm-4.5": {
"description": "Серия моделей GLM-4.5 — базовые модели, специально разработанные для агентов. Флагман GLM-4.5 включает 355 миллиардов параметров (32 миллиарда активных), объединяя возможности вывода, кодирования и агентирования для решения сложных прикладных задач. Как гибридная система вывода, она предлагает двойной режим работы."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 и GLM-4.5-Air — наши новейшие флагманские модели, специально разработанные как базовые модели для агентных приложений. Обе используют архитектуру смешанных экспертов (MoE). GLM-4.5 имеет 355 миллиардов параметров с 32 миллиардами активных на проход, а GLM-4.5-Air — более упрощённую конструкцию с 106 миллиардами параметров и 12 миллиардами активных."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V построена на базе GLM-4.5-Air, наследуя проверенные технологии GLM-4.1V-Thinking и обеспечивая эффективное масштабирование благодаря мощной архитектуре MoE с 106 миллиардами параметров."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 — это помощник для парного программирования, который позволяет вам описывать идеи на естественном языке, а он генерирует код и пользовательский интерфейс (UI) для вашего проекта"
},
"vercelaigateway": {
"description": "Vercel AI Gateway предоставляет единый API для доступа к более чем 100 моделям, позволяя использовать модели от OpenAI, Anthropic, Google и других поставщиков через одну конечную точку. Поддерживает настройку бюджета, мониторинг использования, балансировку нагрузки запросов и отказоустойчивость."
},
"vertexai": {
"description": "Серия Gemini от Google — это самые современные и универсальные AI-модели, разработанные Google DeepMind, специально созданные для мультимодальности, поддерживающие бесшовное понимание и обработку текста, кода, изображений, аудио и видео. Подходят для различных сред, от дата-центров до мобильных устройств, значительно повышая эффективность и универсальность применения AI-моделей."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "52 milyar parametreli (12 milyar aktif) çok dilli model, 256K uzun bağlam penceresi, fonksiyon çağrısı, yapılandırılmış çıktı ve gerçeklere dayalı üretim sunar."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3, Qwen serisinin en yeni nesil büyük dil modeli olup, kapsamlı bir yoğun ve karma uzman (MoE) model seti sunar. Geniş çaplı eğitimlere dayanarak, Qwen3 çıkarım, talimat takibi, ajan yetenekleri ve çok dilli destek alanlarında çığır açan ilerlemeler sağlar."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct, Qwen serisinin en yetenekli kodlama modeli olup, ajan kodlama, ajan tarayıcı kullanımı ve diğer temel kodlama görevlerinde belirgin performans sergiler ve Claude Sonnet ile karşılaştırılabilir sonuçlar elde eder."
},
"amazon/nova-lite": {
"description": "Çok düşük maliyetli çok modlu bir model olup, görüntü, video ve metin girişlerini çok hızlı işler."
},
"amazon/nova-micro": {
"description": "Sadece metin modeli olup, çok düşük maliyetle en düşük gecikmeli yanıtları sunar."
},
"amazon/nova-pro": {
"description": "Yüksek yetenekli çok modlu model olup, doğruluk, hız ve maliyetin en iyi kombinasyonunu sunar ve geniş görev yelpazesi için uygundur."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2, hafif, verimli çok dilli gömme modeli olup, 1024, 512 ve 256 boyutlarını destekler."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet, endüstri standartlarını yükselterek, rakip modelleri ve Claude 3 Opus'u geride bırakarak geniş bir değerlendirmede mükemmel performans sergilerken, orta seviye modellerimizin hızı ve maliyeti ile birlikte gelir."
},
@ -627,25 +654,28 @@
"description": "Claude 2'nin güncellenmiş versiyonu, iki kat daha büyük bir bağlam penceresine sahiptir ve uzun belgeler ve RAG bağlamındaki güvenilirlik, yanılsama oranı ve kanıta dayalı doğrulukta iyileştirmeler sunar."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku, Anthropic'in en hızlı ve en kompakt modelidir; neredeyse anlık yanıtlar sağlamak için tasarlanmıştır. Hızlı ve doğru yönlendirme performansına sahiptir."
"description": "Claude 3 Haiku, Anthropic'in şimdiye kadarki en hızlı modeli olup, genellikle uzun istemler içeren kurumsal iş yükleri için tasarlanmıştır. Haiku, çeyrek dosyaları, sözleşmeler veya hukuk davaları gibi büyük belge yığınlarını hızlıca analiz edebilir ve maliyeti performans seviyesindeki diğer modellere göre yarı yarıya düşüktür."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus, Anthropic'in son derece karmaşık görevleri işlemek için en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından olağanüstü bir performans sergiler."
"description": "Claude 3 Opus, Anthropic'in en zeki modeli olup, yüksek karmaşıklıktaki görevlerde piyasa lideri performans sunar. Açık uçlu istemleri ve daha önce görülmemiş senaryoları üstün akıcılık ve insan benzeri anlayışla yönetebilir."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku, Anthropic'in en hızlı bir sonraki nesil modelidir. Claude 3 Haiku ile karşılaştırıldığında, Claude 3.5 Haiku, birçok beceride iyileşme göstermiştir ve birçok zeka kıyaslamasında bir önceki neslin en büyük modeli Claude 3 Opus'u geride bırakmıştır."
"description": "Claude 3.5 Haiku, en hızlı modelimizin bir sonraki neslidir. Claude 3 Haiku ile benzer hızda olup, her beceri setinde geliştirilmiş ve birçok zeka kıyaslamasında önceki nesil en büyük modelimiz Claude 3 Opus'u geride bırakmıştır."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet, Opus'tan daha fazla yetenek ve Sonnet'ten daha hızlı bir hız sunar; aynı zamanda Sonnet ile aynı fiyatı korur. Sonnet, programlama, veri bilimi, görsel işleme ve ajan görevlerinde özellikle başarılıdır."
"description": "Claude 3.5 Sonnet, zeka ve hız arasında ideal dengeyi sağlar—özellikle kurumsal iş yükleri için. Benzer ürünlere kıyasla daha düşük maliyetle güçlü performans sunar ve büyük ölçekli yapay zeka dağıtımlarında yüksek dayanıklılık için tasarlanmıştır."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en akıllı modeli ve piyasadaki ilk karma akıl yürütme modelidir. Claude 3.7 Sonnet, neredeyse anlık yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir. Sonnet, programlama, veri bilimi, görsel işleme ve temsilci görevlerde özellikle yeteneklidir."
"description": "Claude 3.7 Sonnet, ilk karma çıkarım modeli olup, Anthropic'in şimdiye kadarki en zeki modelidir. Kodlama, içerik oluşturma, veri analizi ve planlama görevlerinde en ileri performansı sunar ve selefi Claude 3.5 Sonnet'in yazılım mühendisliği ve bilgisayar kullanımı yetenekleri üzerine inşa edilmiştir."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4, Anthropic tarafından yüksek karmaşıklıktaki görevleri işlemek için geliştirilen en güçlü modeldir. Performans, zeka, akıcılık ve anlama yeteneği açısından üstün bir performans sergiler."
"description": "Claude Opus 4, Anthropic'in şimdiye kadarki en güçlü modeli ve dünyanın en iyi kodlama modeli olup, SWE-bench (%72.5) ve Terminal-bench (%43.2) testlerinde liderdir. Uzun süreli, binlerce adımlı görevlerde sürekli performans sağlar ve saatlerce kesintisiz çalışabilir—AI ajanlarının yeteneklerini önemli ölçüde genişletir."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1, Opus 4'ün tak-çalıştır alternatifi olup, gerçek kodlama ve ajan görevlerinde üstün performans ve doğruluk sunar. Opus 4.1, en ileri kodlama performansını SWE-bench Verified'de %74.5'e yükseltir ve karmaşık çok adımlı problemleri daha yüksek titizlik ve detay odaklılıkla ele alır."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4, neredeyse anında yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir. API kullanıcıları ayrıca modelin düşünme süresini ayrıntılı olarak kontrol edebilir."
"description": "Claude Sonnet 4, Sonnet 3.7'nin sektör lideri yetenekleri üzerine önemli geliştirmeler yapmış olup, kodlama alanında mükemmel performans sergiler ve SWE-bench'te en ileri %72.7 skoruna ulaşır. Model, performans ve verimlilik arasında denge sağlar, hem dahili hem de harici kullanım durumları için uygundur ve geliştirilmiş kontrol edilebilirlik ile uygulama üzerinde daha fazla hakimiyet sunar."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B, 72 milyar parametreli ve 16 milyar parametre aktive eden seyrek büyük bir dil modelidir. Bu model, grup tabanlı uzman karışımı (MoGE) mimarisine dayanır; uzman seçim aşamasında uzmanları gruplar halinde düzenler ve her grupta token başına eşit sayıda uzmanı aktive ederek uzman yük dengesini sağlar. Bu sayede Ascend platformunda modelin dağıtım verimliliği önemli ölçüde artırılmıştır."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+, işletme düzeyindeki iş yükleri için tasarlanmış, en gelişmiş RAG optimize modelidir."
},
"cohere/command-a": {
"description": "Command A, Cohere'in şimdiye kadarki en güçlü modeli olup, araç kullanımı, ajanlık, arama destekli üretim (RAG) ve çok dilli kullanım durumlarında üstün performans gösterir. Command A'nın bağlam uzunluğu 256K'dır, sadece iki GPU ile çalışabilir ve Command R+ 08-2024'e kıyasla işlem hacminde %150 artış sağlar."
},
"cohere/command-r": {
"description": "Command R, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiş büyük bir dil modelidir. \"Ölçeklenebilir\" model kategorisinde konumlanır ve yüksek performans ile güçlü doğruluk arasında denge kurarak şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
},
"cohere/command-r-plus": {
"description": "Command R+, Cohere'in en yeni büyük dil modeli olup, diyalog etkileşimleri ve uzun bağlam görevleri için optimize edilmiştir. Performansta olağanüstü olmayı hedefler ve şirketlerin kavram kanıtını aşarak üretime geçmesini sağlar."
},
"cohere/embed-v4.0": {
"description": "Metin, görüntü veya karma içeriklerin sınıflandırılması veya gömme haline dönüştürülmesine olanak tanıyan model."
},
"command": {
"description": "Dil görevlerinde yüksek kalite ve güvenilirlik sunan, talimatları izleyen bir diyalog modelidir ve temel üretim modelimize göre daha uzun bir bağlam uzunluğuna sahiptir."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1, 128K uzun bağlam ve verimli mod geçişini destekleyen büyük hibrit çıkarım modelidir; araç çağrıları, kod üretimi ve karmaşık çıkarım görevlerinde üstün performans ve hız sağlar."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
"description": "DeepSeek R1 modeli küçük bir sürüm güncellemesi aldı, mevcut sürüm DeepSeek-R1-0528'dir. Son güncellemede, DeepSeek R1 artırılmış hesaplama kaynakları ve eğitim sonrası algoritma optimizasyon mekanizmaları kullanarak çıkarım derinliği ve yeteneğini önemli ölçüde artırdı. Model, matematik, programlama ve genel mantık gibi birçok kıyaslama testinde üstün performans gösterir ve genel performansı artık O3 ve Gemini 2.5 Pro gibi lider modellerle yakındır."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1, çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Nihai yanıtı vermeden önce, model doğruluğu artırmak için bir düşünce zinciri çıktısı üretir."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B, Llama3.3 70B tabanlı büyük bir dil modelidir ve DeepSeek R1'in çıktısını kullanarak ince ayar yaparak büyük öncü modellerle rekabet edebilecek bir performans elde etmiştir."
"description": "DeepSeek-R1-Distill-Llama-70B, 70B Llama modelinin damıtılmış ve daha verimli bir varyantıdır. Metin üretimi görevlerinde güçlü performansını korur, hesaplama maliyetini azaltarak dağıtım ve araştırmayı kolaylaştırır. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B, Llama-3.1-8B-Instruct tabanlı bir damıtılmış büyük dil modelidir ve DeepSeek R1'in çıktısını kullanarak eğitilmiştir."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1, yalnızca çok az etiketli veri ile modelin akıl yürütme yeteneğini büyük ölçüde artırır. Model, nihai yanıtı vermeden önce bir düşünce zinciri içeriği sunarak nihai yanıtın doğruluğunu artırır."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3, çıkarım hızında önceki modellere göre önemli bir atılım gerçekleştirmiştir. Açık kaynak modeller arasında birinci sırada yer almakta ve dünya çapındaki en gelişmiş kapalı kaynak modellerle rekabet edebilmektedir. DeepSeek-V3, DeepSeek-V2'de kapsamlı bir şekilde doğrulanan çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarilerini kullanmaktadır. Ayrıca, DeepSeek-V3, yük dengeleme için yardımcı kayıpsız bir strateji geliştirmiştir ve daha güçlü bir performans elde etmek için çok etiketli tahmin eğitim hedefleri belirlemiştir."
"description": "Gelişmiş çıkarım yeteneklerine sahip hızlı, genel amaçlı büyük dil modeli."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base, DeepSeek V3 modelinin geliştirilmiş bir versiyonudur."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3, çıkarım hızında önceki modellere göre önemli bir atılım gerçekleştirmiştir. Açık kaynak modeller arasında birinci sırada yer almakta ve dünya çapındaki en gelişmiş kapalı kaynak modellerle rekabet edebilmektedir. DeepSeek-V3, DeepSeek-V2'de kapsamlı bir şekilde doğrulanan çok başlı potansiyel dikkat (MLA) ve DeepSeekMoE mimarilerini kullanmaktadır. Ayrıca, DeepSeek-V3, yük dengeleme için yardımcı kayıpsız bir strateji geliştirmiştir ve daha güçlü bir performans elde etmek için çok etiketli tahmin eğitim hedefleri belirlemiştir."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview, karmaşık akıl yürütme yeteneklerine sahip olup, mantıksal akıl yürütme, matematik, programlama gibi alanlarda mükemmel performans sergilemektedir."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash, mükemmel hız, yerel araç kullanımı, çok modlu üretim ve 1M token bağlam penceresi dahil olmak üzere bir sonraki nesil özellikler ve iyileştirmeler sunar."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Deneysel, Google'ın en yeni deneysel çok modlu AI modelidir ve önceki sürümlere göre belirli bir kalite artışı sağlamaktadır, özellikle dünya bilgisi, kod ve uzun bağlam için."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite, üstün hız, yerleşik araç kullanımı, çok modlu üretim ve 1 milyon token bağlam penceresi dahil olmak üzere yeni nesil özellikler ve geliştirmeler sunar."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modeli olup, ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Yerleşik \"düşünme\" yeteneği sayesinde, daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (\" :thinking\" eki olmayan) seçerseniz, model düşünme tokenları üretmekten açıkça kaçınır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenları almak için \" :thinking\" varyantını seçmeniz gerekir; bu, daha yüksek bir düşünme çıktı fiyatlandırmasıyla sonuçlanır.\n\nAyrıca, Gemini 2.5 Flash, belgelerde belirtildiği gibi (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning) \"maksimum akıl yürütme token sayısı\" parametresi ile yapılandırılabilir."
"description": "Gemini 2.5 Flash, kapsamlı yetenekler sunan düşünme modelidir. Fiyat ve performans arasında denge kurmayı amaçlar, çok modlu ve 1 milyon token bağlam penceresini destekler."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash deneysel modeli, görüntü oluşturmayı destekler."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite, dengeli, düşük gecikmeli bir model olup, yapılandırılabilir düşünme bütçesi ve araç bağlantısı (örneğin Google Arama temelli ve kod yürütme) sunar. Çok modlu girişi destekler ve 1 milyon token bağlam penceresi sağlar."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash, Google'ın en gelişmiş ana modelidir ve ileri düzey akıl yürütme, kodlama, matematik ve bilimsel görevler için tasarlanmıştır. Daha yüksek doğruluk ve ayrıntılı bağlam işleme ile yanıtlar sunabilen yerleşik 'düşünme' yeteneğine sahiptir.\n\nNot: Bu modelin iki varyantı vardır: düşünme ve düşünmeme. Çıktı fiyatlandırması, düşünme yeteneğinin etkin olup olmamasına göre önemli ölçüde farklılık gösterir. Standart varyantı (':thinking' eki olmadan) seçerseniz, model açıkça düşünme tokenleri üretmekten kaçınacaktır.\n\nDüşünme yeteneğinden yararlanmak ve düşünme tokenleri almak için, ':thinking' varyantını seçmelisiniz; bu, daha yüksek düşünme çıktı fiyatlandırması ile sonuçlanacaktır.\n\nAyrıca, Gemini 2.5 Flash, belgede belirtildiği gibi 'akıl yürütme maksimum token sayısı' parametresi ile yapılandırılabilir (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro, Google'ın en gelişmiş düşünme modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütebilir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
"description": "Gemini 2.5 Pro, karmaşık problemleri çözebilen en gelişmiş çıkarım Gemini modelimizdir. 2 milyon token bağlam penceresine sahiptir ve metin, görüntü, ses, video ve PDF belgeleri dahil çok modlu girişleri destekler."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modeli olup, kodlama, matematik ve STEM alanlarındaki karmaşık sorunları çözme yeteneğine sahiptir ve uzun bağlam kullanarak büyük veri setleri, kod tabanları ve belgeleri analiz edebilir."
},
"google/gemini-embedding-001": {
"description": "İngilizce, çok dilli ve kod görevlerinde üstün performans sunan en gelişmiş gömme modeli."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash, optimize edilmiş çok modlu işleme yetenekleri sunar ve çeşitli karmaşık görev senaryolarına uygundur."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B, Google'ın verimlilik ve performans açısından yeni standartlar belirleyen açık kaynaklı bir dil modelidir."
},
"google/text-embedding-005": {
"description": "Kod ve İngilizce dil görevleri için optimize edilmiş İngilizce odaklı metin gömme modeli."
},
"google/text-multilingual-embedding-002": {
"description": "Çoklu dil görevleri için optimize edilmiş çok dilli metin gömme modeli, birçok dili destekler."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, çeşitli metin üretimi ve anlama görevleri için uygundur, şu anda gpt-3.5-turbo-0125'e işaret ediyor."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4. nesil metinden görüntüye model serisi Ultra versiyonu"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small, kod üretimi, hata ayıklama ve yeniden yapılandırma görevleri için ideal olup, minimum gecikme sunar."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0, MoE mimarisi temelinde geliştirilmiş, küçük boyutlu yüksek performanslı büyük bir dil modelidir. Toplamda 16 milyar parametreye sahiptir, ancak her token için yalnızca 1.4 milyar (embedding dışı 789M) aktif hale gelir, bu da son derece yüksek üretim hızını mümkün kılar. Verimli MoE tasarımı ve büyük ölçekli yüksek kaliteli eğitim verileri sayesinde, aktif parametre sayısı sadece 1.4 milyar olmasına rağmen, Ling-mini-2.0, alt görevlerde 10 milyar altı yoğun LLM'ler ve daha büyük ölçekli MoE modelleriyle rekabet edebilecek üst düzey performans sergiler."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 talimat ayarlı metin modeli, çok dilli diyalog senaryoları için optimize edilmiştir ve birçok açık ve kapalı sohbet modeli arasında yaygın endüstri kıyaslamalarında üstün performans sergiler."
},
"meta/llama-3-70b": {
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 70 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
},
"meta/llama-3-8b": {
"description": "Meta tarafından talimat takibi amaçlı özenle ayarlanmış 8 milyar parametre açık kaynak modeli. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
},
"meta/llama-3.1-405b-instruct": {
"description": "Gelişmiş LLM, sentetik veri üretimi, bilgi damıtma ve akıl yürütmeyi destekler, sohbet botları, programlama ve belirli alan görevleri için uygundur."
},
"meta/llama-3.1-70b": {
"description": "Meta Llama 3 70B Instruct'in güncellenmiş versiyonu olup, genişletilmiş 128K bağlam uzunluğu, çok dillilik ve geliştirilmiş çıkarım yetenekleri içerir."
},
"meta/llama-3.1-70b-instruct": {
"description": "Karmaşık diyalogları güçlendiren, mükemmel bağlam anlama, akıl yürütme yeteneği ve metin üretimi yeteneğine sahip."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B, 128K bağlam penceresini destekler ve gerçek zamanlı diyalog arayüzleri ile veri analizi için ideal bir seçimdir; daha büyük modellere kıyasla önemli maliyet tasarrufu sağlar. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
},
"meta/llama-3.1-8b-instruct": {
"description": "En son teknolojiye sahip model, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-11b": {
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
},
"meta/llama-3.2-1b": {
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını destekler."
},
"meta/llama-3.2-1b-instruct": {
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-3b": {
"description": "Sadece metin modeli olup, çok dilli yerel bilgi arama, özetleme ve yeniden yazma gibi cihaz üzeri kullanım durumlarını desteklemek için özenle ayarlanmıştır."
},
"meta/llama-3.2-3b-instruct": {
"description": "En son teknolojiye sahip küçük dil modeli, dil anlama, mükemmel akıl yürütme yeteneği ve metin üretimi yeteneğine sahiptir."
},
"meta/llama-3.2-90b": {
"description": "Talimat ayarlı görüntü çıkarım üretim modeli (metin + görüntü girişi / metin çıktısı) olup, görsel tanıma, görüntü çıkarımı, başlık oluşturma ve görüntü ile ilgili genel soruları yanıtlamada optimize edilmiştir."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Gelişmiş görsel-dil modeli, görüntülerden yüksek kaliteli akıl yürütme yapma konusunda uzmandır."
},
"meta/llama-3.3-70b": {
"description": "Performans ve verimliliğin mükemmel birleşimi. Model, yüksek performanslı diyalog yapay zekasını destekler, içerik oluşturma, kurumsal uygulamalar ve araştırma için tasarlanmıştır ve metin özetleme, sınıflandırma, duygu analizi ve kod üretimi dahil gelişmiş dil anlama yetenekleri sunar."
},
"meta/llama-3.3-70b-instruct": {
"description": "Akıllı LLM, akıl yürütme, matematik, genel bilgi ve fonksiyon çağrılarında uzmandır."
},
"meta/llama-4-maverick": {
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Maverick, 17 milyar parametreli ve 128 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
},
"meta/llama-4-scout": {
"description": "Llama 4 model ailesi, metin ve çok modlu deneyimleri destekleyen yerel çok modlu yapay zeka modelleridir. Bu modeller, karma uzman mimarisi kullanarak metin ve görüntü anlama alanında sektör lideri performans sunar. Llama 4 Scout, 17 milyar parametreli ve 16 uzmanlı bir modeldir. DeepInfra tarafından hizmet verilmektedir."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Aynı Phi-3-medium modeli, ancak daha büyük bağlam boyutuna sahip olup RAG veya az sayıda istem için uygundur."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small, çeviri, özetleme ve duygu analizi gibi kullanım durumları için maliyet etkin, hızlı ve güvenilir bir seçenektir."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01, düşük gecikme ve yüksek frekanslı kullanım durumları için optimize edilmiş en gelişmiş kodlama modelidir. 80'den fazla programlama dilinde uzman olup, orta doldurma (FIM), kod düzeltme ve test üretimi gibi görevlerde üstün performans gösterir."
},
"mistral/codestral-embed": {
"description": "Kod veritabanları ve depolarına gömülebilen, kodlama asistanlarını destekleyen kod gömme modeli."
},
"mistral/devstral-small": {
"description": "Devstral, yazılım mühendisliği görevleri için bir ajan büyük dil modeli olup, yazılım mühendisliği ajanları için mükemmel bir seçimdir."
},
"mistral/magistral-medium": {
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
},
"mistral/magistral-small": {
"description": "Derin anlayışa dayanan karmaşık düşünce, takip edilebilir ve doğrulanabilir şeffaf çıkarım sunar. Model, görev ortasında dil değiştirse bile birçok dilde yüksek sadakatli çıkarım sağlar."
},
"mistral/ministral-3b": {
"description": "Akıllı asistanlar ve yerel analiz gibi cihaz üzeri görevler için kompakt, verimli model olup, düşük gecikmeli performans sunar."
},
"mistral/ministral-8b": {
"description": "Daha güçlü, daha hızlı ve bellek açısından verimli çıkarım sunan model olup, karmaşık iş akışları ve zorlu uç uygulamalar için idealdir."
},
"mistral/mistral-embed": {
"description": "Anlamsal arama, benzerlik, kümeleme ve RAG iş akışları için genel amaçlı metin gömme modeli."
},
"mistral/mistral-large": {
"description": "Mistral Large, büyük çıkarım yetenekleri veya yüksek uzmanlık gerektiren karmaşık görevler için ideal seçimdir—örneğin sentez metin üretimi, kod üretimi, RAG veya ajanlık."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B, Mistral.ai tarafından geliştirilen 24 milyar parametreli açık kaynak modelidir. Saba, Arapça, Farsça, Urduca, İbranice ve Hint dillerinde üstün performans göstermek üzere özel olarak eğitilmiş bir modeldir. Groq tarafından özel Dil İşleme Birimi (LPU) donanımı ile hizmet verilir ve hızlı, verimli çıkarım sağlar."
},
"mistral/mistral-small": {
"description": "Mistral Small, sınıflandırma, müşteri desteği veya metin üretimi gibi toplu yapılabilen basit görevler için ideal seçimdir. Uygun fiyat noktasında mükemmel performans sunar."
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct modeli. 8x22b, Mistral tarafından hizmet verilen karma uzman açık kaynak modelidir."
},
"mistral/pixtral-12b": {
"description": "Görüntü anlama yeteneğine sahip 12 milyar parametreli model ve metin."
},
"mistral/pixtral-large": {
"description": "Pixtral Large, çok modlu ailemizdeki ikinci model olup, ileri düzey görüntü anlama yetenekleri sergiler. Özellikle belge, grafik ve doğal görüntüleri anlayabilir ve Mistral Large 2'nin lider metin anlama yeteneklerini korur."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct, yüksek performansıyla tanınır ve çeşitli dil görevleri için uygundur."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905, Kimi K2'nin en yeni ve en güçlü versiyonudur. Bu, toplamda 1 trilyon parametreye ve 32 milyar aktif parametreye sahip, üst düzey bir Hibrit Uzman (MoE) dil modelidir. Modelin başlıca özellikleri şunlardır: geliştirilmiş ajan kodlama zekası, açık benchmark testlerinde ve gerçek dünya ajan kodlama görevlerinde belirgin performans artışı; ön uç kodlama deneyiminde iyileştirmeler, ön uç programlamada estetik ve işlevsellik açısından ilerlemeler."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük ölçekli karma uzman (MoE) dil modeli olup, toplamda 1 trilyon parametre ve her ileri geçişte 32 milyar aktif parametreye sahiptir. Ajan yetenekleri için optimize edilmiştir; gelişmiş araç kullanımı, çıkarım ve kod sentezi içerir."
},
"moonshotai/kimi-k2-0905": {
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256kdır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "kimi-k2-0905-preview modelinin bağlam uzunluğu 256kdır, daha güçlü Agentic Kodlama yeteneklerine, ön uç kodlarının estetik ve işlevselliğinde belirgin gelişmelere ve daha iyi bağlam anlama yeteneğine sahiptir."
},
"morph/morph-v3-fast": {
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 4500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
},
"morph/morph-v3-large": {
"description": "Morph, Claude veya GPT-4o gibi ileri modellerin önerdiği kod değişikliklerini mevcut kod dosyalarınıza UYGULAR - HIZLI - 2500+ token/saniye. AI kodlama iş akışında son adım olarak görev yapar. 16k giriş token ve 16k çıkış token destekler."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B, Nous Hermes 2'nin güncellenmiş versiyonudur ve en son iç geliştirme veri setlerini içermektedir."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B, birden fazla parametre kullanarak akıl yürütme hızını artıran seyrek uzman modelidir, çok dilli ve kod üretim görevlerini işlemek için uygundur."
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI'nin GPT-3.5 serisindeki en yetenekli ve maliyet etkin modeli olup, sohbet amaçlı optimize edilmiştir ancak geleneksel tamamlama görevlerinde de iyi performans gösterir."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "GPT-3 dönemindeki modellere benzer yetenekler sunar. Sohbet tamamlama uç noktası yerine geleneksel tamamlama uç noktası ile uyumludur."
},
"openai/gpt-4-turbo": {
"description": "OpenAI'den gpt-4-turbo, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. Bilgi kesim tarihi Nisan 2023'tür ve 128.000 token bağlam penceresine sahiptir."
},
"openai/gpt-4.1": {
"description": "GPT-4.1, karmaşık görevler için kullandığımız amiral gemisi modelidir. Farklı alanlarda sorun çözmek için son derece uygundur."
"description": "GPT 4.1, OpenAI'nin amiral gemisi modeli olup, karmaşık görevler için uygundur. Alanlar arası problem çözmede mükemmeldir."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini, zeka, hız ve maliyet arasında bir denge sunarak birçok kullanım durumu için çekici bir model haline getirir."
"description": "GPT 4.1 mini, zeka, hız ve maliyet arasında denge kurar ve birçok kullanım durumu için çekici bir modeldir."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano, en hızlı ve en maliyet etkin GPT-4.1 modelidir."
"description": "GPT-4.1 nano, GPT 4.1 modelleri arasında en hızlı ve en maliyet etkin olanıdır."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o, güncel en son sürümü korumak için gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretme yeteneklerini birleştirir, müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli uygulama senaryoları için uygundur."
"description": "OpenAI'den GPT-4o, geniş genel bilgi ve alan uzmanlığına sahip olup, karmaşık doğal dil talimatlarını takip edebilir ve zor problemleri doğru şekilde çözebilir. GPT-4 Turbo performansını daha hızlı ve daha uygun maliyetli API ile eşler."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini, OpenAI'nin GPT-4 Omni'den sonra sunduğu en son modeldir; görsel ve metin girişi destekler ve metin çıktısı verir. En gelişmiş küçük model olarak, diğer son zamanlardaki öncü modellere göre çok daha ucuzdur ve GPT-3.5 Turbo'dan %60'tan fazla daha ucuzdur. En son teknolojiyi korurken, önemli bir maliyet etkinliği sunar. GPT-4o mini, MMLU testinde %82 puan almış olup, şu anda sohbet tercihleri açısından GPT-4'ün üzerinde bir sıralamaya sahiptir."
"description": "OpenAI'nin en gelişmiş ve maliyet etkin küçük modeli olan GPT-4o mini, çok modludur (metin veya görüntü girişi alır ve metin çıktısı verir) ve gpt-3.5-turbo'dan daha zeki ancak aynı hızdadır."
},
"openai/gpt-5": {
"description": "GPT-5, OpenAI'nin amiral gemisi dil modeli olup, karmaşık çıkarım, geniş gerçek dünya bilgisi, kod yoğun ve çok adımlı ajan görevlerinde üstün performans gösterir."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini, maliyet optimize edilmiş bir model olup, çıkarım/sohbet görevlerinde üstün performans sunar. Hız, maliyet ve yetenek arasında en iyi dengeyi sağlar."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano, yüksek işlem hacmine sahip model olup, basit talimat veya sınıflandırma görevlerinde üstün performans gösterir."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B, 120 milyar parametreye sahip üst düzey bir dil modelidir, yerleşik tarayıcı arama ve kod yürütme özellikleri ile birlikte çıkarım yeteneğine sahiptir."
"description": "Son derece yetenekli genel amaçlı büyük dil modeli olup, güçlü ve kontrol edilebilir çıkarım yeteneklerine sahiptir."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B, 20 milyar parametreye sahip üst düzey bir dil modelidir, yerleşik tarayıcı arama ve kod yürütme özellikleri ile birlikte çıkarım yeteneğine sahiptir."
"description": "Kompakt, açık kaynak ağırlıklı dil modeli olup, düşük gecikme ve kaynak kısıtlı ortamlar için optimize edilmiştir; yerel ve uç dağıtımları destekler."
},
"openai/o1": {
"description": "o1, OpenAI'nin yeni çıkarım modeli olup, metin ve görsel girişleri destekler ve metin çıktısı üretir; geniş kapsamlı genel bilgi gerektiren karmaşık görevler için uygundur. Model, 200K bağlam uzunluğuna ve 2023 Ekim bilgi kesim tarihine sahiptir."
"description": "OpenAI'nin o1 modeli, derin düşünme gerektiren karmaşık problemler için amiral gemisi çıkarım modelidir. Karmaşık çok adımlı görevlerde güçlü çıkarım yeteneği ve yüksek doğruluk sunar."
},
"openai/o1-mini": {
"description": "o1-mini, programlama, matematik ve bilim uygulama senaryoları için tasarlanmış hızlı ve ekonomik bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
@ -2325,23 +2493,44 @@
"description": "o1, OpenAI'nin geniş genel bilgiye ihtiyaç duyan karmaşık görevler için uygun yeni bir akıl yürütme modelidir. Bu model, 128K bağlam ve Ekim 2023 bilgi kesim tarihi ile donatılmıştır."
},
"openai/o3": {
"description": "o3, birçok alanda mükemmel performans sergileyen güçlü bir modeldir. Matematik, bilim, programlama ve görsel akıl yürütme görevleri için yeni bir standart belirler. Ayrıca teknik yazım ve talimat takibi konusunda da uzmandır. Kullanıcılar, metin, kod ve görüntüleri analiz ederek çok adımlı karmaşık problemleri çözebilir."
"description": "OpenAI'nin o3 modeli, kodlama, matematik, bilim ve görsel algılamada yeni en ileri seviyeler belirleyen en güçlü çıkarım modelidir. Çok yönlü analiz gerektiren karmaşık sorgularda uzmandır ve görüntü, grafik ve diyagram analizinde özel avantajlara sahiptir."
},
"openai/o3-mini": {
"description": "o3-mini, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
"description": "o3-mini, OpenAI'nin en yeni küçük çıkarım modeli olup, o1-mini ile aynı maliyet ve gecikme hedeflerinde yüksek zeka sunar."
},
"openai/o3-mini-high": {
"description": "o3-mini yüksek akıl yürütme seviyesi, o1-mini ile aynı maliyet ve gecikme hedefleri altında yüksek zeka sunar."
},
"openai/o4-mini": {
"description": "o4-mini, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
"description": "OpenAI'nin o4-mini modeli, hızlı ve maliyet etkin çıkarım sunar ve boyutuna göre özellikle matematik (AIME kıyaslamasında en iyi performans), kodlama ve görsel görevlerde üstün performans gösterir."
},
"openai/o4-mini-high": {
"description": "o4-mini yüksek çıkarım seviyesinde, hızlı ve etkili çıkarım için optimize edilmiştir ve kodlama ile görsel görevlerde son derece yüksek verimlilik ve performans sergiler."
},
"openai/text-embedding-3-large": {
"description": "OpenAI'nin en yetenekli gömme modeli olup, İngilizce ve İngilizce dışı görevlerde kullanılır."
},
"openai/text-embedding-3-small": {
"description": "OpenAI'nin geliştirilmiş, daha yüksek performanslı ada gömme modeli versiyonu."
},
"openai/text-embedding-ada-002": {
"description": "OpenAI'nin klasik metin gömme modeli."
},
"openrouter/auto": {
"description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz, Llama 3 70B Instruct, Claude 3.5 Sonnet (kendini ayarlama) veya GPT-4o'ya gönderilecektir."
},
"perplexity/sonar": {
"description": "Perplexity'nin hafif ürünü olup, arama temelli yeteneklere sahiptir ve Sonar Pro'dan daha hızlı ve daha ucuzdur."
},
"perplexity/sonar-pro": {
"description": "Perplexity'nin amiral gemisi ürünü olup, arama temelli yeteneklere sahiptir ve gelişmiş sorgular ile takip işlemlerini destekler."
},
"perplexity/sonar-reasoning": {
"description": ıkarıma odaklanan model olup, yanıtlarında düşünce zinciri (CoT) sunar ve arama temelli detaylııklamalar sağlar."
},
"perplexity/sonar-reasoning-pro": {
"description": "Gelişmiş çıkarım odaklı model olup, yanıtlarında düşünce zinciri (CoT) sunar, geliştirilmiş arama yetenekleri ve her istek için birden fazla arama sorgusu ile kapsamlııklamalar sağlar."
},
"phi3": {
"description": "Phi-3, Microsoft tarafından sunulan hafif bir açık modeldir, verimli entegrasyon ve büyük ölçekli bilgi akıl yürütme için uygundur."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "v0-1.5-md modeli, günlük görevler ve kullanıcı arayüzü (UI) oluşturma için uygundur"
},
"vercel/v0-1.0-md": {
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
},
"vercel/v0-1.5-md": {
"description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modele erişim; belirli çerçeveler için çıkarım ve güncel bilgi içerir."
},
"wan2.2-t2i-flash": {
"description": "Wanxiang 2.2 hızlı sürüm, mevcut en yeni modeldir. Yaratıcılık, kararlılık ve gerçekçilikte kapsamlı yükseltmeler sunar; hızlı üretim hızı ve yüksek maliyet performansı sağlar."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Spark X1 modeli daha da geliştirilecek; önceki matematik görevlerinde ulusal liderlik temelinde, akıl yürütme, metin üretimi, dil anlama gibi genel görevlerde OpenAI o1 ve DeepSeek R1 ile karşılaştırılabilir sonuçlar elde edilecektir."
},
"xai/grok-2": {
"description": "Grok 2, en ileri çıkarım yeteneklerine sahip öncü bir dil modelidir. Sohbet, kodlama ve çıkarımda gelişmiş yetenekler sunar ve LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4-Turbo'nun önündedir."
},
"xai/grok-2-vision": {
"description": "Grok 2 görsel modeli, görsel tabanlı görevlerde üstün performans sunar; görsel matematik çıkarımı (MathVista) ve belge tabanlı soru-cevap (DocVQA) alanlarında en ileri performansı sağlar. Belgeler, grafikler, diyagramlar, ekran görüntüleri ve fotoğraflar dahil çeşitli görsel bilgileri işleyebilir."
},
"xai/grok-3": {
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir."
},
"xai/grok-3-fast": {
"description": "xAI'nin amiral gemisi modeli olup, veri çıkarımı, kodlama ve metin özetleme gibi kurumsal kullanım durumlarında üstün performans gösterir. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
},
"xai/grok-3-mini": {
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır."
},
"xai/grok-3-mini-fast": {
"description": "xAI'nin hafif modeli olup, yanıt öncesi düşünme yapar. Derin alan bilgisi gerektirmeyen basit veya mantığa dayalı görevler için idealdir. Ham düşünce izleri erişilebilir durumdadır. Hızlı model varyantı, daha hızlı altyapıda hizmet verir ve standart modele göre çok daha hızlı yanıt süreleri sunar. Artan hız, çıktı başına daha yüksek maliyetle dengelenir."
},
"xai/grok-4": {
"description": "xAI'nin en yeni ve en büyük amiral gemisi modeli olup, doğal dil, matematik ve çıkarımda eşsiz performans sunar—mükemmel çok yönlü oyuncu."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5, Yi'nin geliştirilmiş sürümüdür. Yüksek kaliteli 500B token'lı veri kümesi üzerinde devam eden ön eğitimi ve 3M çeşitlendirilmiş ince ayar örneği üzerinde ince ayarını içerir."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V, Zhipu AI智谱 AI tarafından yayımlanan en son nesil görsel-dil modeli (VLM)'dir. Bu model, 106 milyar toplam parametre ve 12 milyar aktivasyon parametresine sahip amiral gemisi metin modeli GLM-4.5-Air üzerine inşa edilmiş olup, karma uzman (Mixture-of-Experts, MoE) mimarisini kullanır ve daha düşük çıkarım maliyetiyle üstün performans sağlamayı hedefler. GLM-4.5V teknik olarak GLM-4.1V-Thinking hattını sürdürürken üç boyutlu döndürmeli pozisyon kodlaması (3D-RoPE) gibi yenilikleri de getirerek üç boyutlu uzaysal ilişkilerin algılanması ve çıkarımı yeteneğini önemli ölçüde güçlendirir. Ön eğitme, denetimli ince ayar ve pekiştirmeli öğrenme aşamalarında yapılan optimizasyonlar sayesinde model; görüntü, video ve uzun belgeler gibi çeşitli görsel içerikleri işleyebilir ve 41 açık çok modlu kıyaslama testinde aynı seviyedeki açık kaynak modeller arasında en üst düzey performansa ulaşmıştır. Ayrıca modele eklenen \"düşünme modu\" anahtarı, kullanıcıların hızlı yanıt ile derin çıkarım arasında esnekçe tercih yaparak verim ile etki arasında denge kurmasına olanak tanır."
},
"zai/glm-4.5": {
"description": "GLM-4.5 serisi modeller, ajanlar için özel olarak tasarlanmış temel modellerdir. Amiral gemisi GLM-4.5, 355 milyar toplam parametre (32 milyar aktif) içerir ve karma çıkarım, kodlama ve ajan yeteneklerini birleştirerek karmaşık uygulama ihtiyaçlarını karşılar. Karma çıkarım sistemi olarak çift modlu çalışma sunar."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 ve GLM-4.5-Air, ajan uygulamalarına yönelik temel modeller olarak tasarlanmış en yeni amiral gemisi modellerimizdir. Her ikisi de karma uzman (MoE) mimarisinden yararlanır. GLM-4.5 toplamda 355 milyar parametreye ve her ileri geçişte 32 milyar aktif parametreye sahiptir; GLM-4.5-Air ise daha sade bir tasarıma sahip olup toplamda 106 milyar parametre ve 12 milyar aktif parametre içerir."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V, GLM-4.5-Air temel modeli üzerine inşa edilmiştir, GLM-4.1V-Thinking'in doğrulanmış teknolojisini devralır ve güçlü 106 milyar parametreli MoE mimarisi ile etkili ölçeklenebilirlik sağlar."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0, eşli programlama asistanıdır; sadece doğal dilde fikirlerinizi tanımlamanız yeterlidir, o da projeniz için kod ve kullanıcı arayüzü (UI) oluşturur"
},
"vercelaigateway": {
"description": "Vercel AI Gateway, 100'den fazla modele erişim sağlamak için birleşik bir API sunar; tek bir uç nokta üzerinden OpenAI, Anthropic, Google ve diğer sağlayıcıların modellerini kullanmanıza olanak tanır. Bütçe ayarları, kullanım izleme, istek yük dengeleme ve hata toleransı desteklenmektedir."
},
"vertexai": {
"description": "Google'un Gemini serisi, Google DeepMind tarafından geliştirilen en gelişmiş ve genel amaçlı AI modelleridir. Çok modlu tasarım için özel olarak oluşturulmuş olup, metin, kod, görüntü, ses ve video gibi içeriklerin kesintisiz anlaşılması ve işlenmesini destekler. Veri merkezlerinden mobil cihazlara kadar çeşitli ortamlarda kullanılabilir, AI modellerinin verimliliğini ve uygulama kapsamını büyük ölçüde artırır."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "Một mô hình đa ngôn ngữ với 52 tỷ tham số (12 tỷ tham số hoạt động), cung cấp cửa sổ ngữ cảnh dài 256K, gọi hàm, đầu ra có cấu trúc và sinh dựa trên sự thật."
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 là thế hệ mới nhất trong dòng mô hình ngôn ngữ lớn Qwen, cung cấp một bộ mô hình chuyên gia dày đặc và hỗn hợp (MoE) toàn diện. Được xây dựng dựa trên đào tạo rộng rãi, Qwen3 mang lại bước đột phá trong suy luận, tuân thủ chỉ dẫn, khả năng đại lý và hỗ trợ đa ngôn ngữ."
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct là mô hình mã hóa có khả năng đại lý cao nhất của Qwen, thể hiện hiệu suất nổi bật trong mã hóa đại lý, sử dụng trình duyệt đại lý và các nhiệm vụ mã hóa cơ bản khác, đạt kết quả tương đương với Claude Sonnet."
},
"amazon/nova-lite": {
"description": "Một mô hình đa phương thức với chi phí rất thấp, xử lý đầu vào hình ảnh, video và văn bản với tốc độ cực nhanh."
},
"amazon/nova-micro": {
"description": "Một mô hình chỉ văn bản, cung cấp phản hồi với độ trễ thấp nhất ở chi phí rất thấp."
},
"amazon/nova-pro": {
"description": "Một mô hình đa phương thức rất năng lực, kết hợp tối ưu giữa độ chính xác, tốc độ và chi phí, phù hợp cho nhiều nhiệm vụ đa dạng."
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 là mô hình nhúng đa ngôn ngữ nhẹ, hiệu quả, hỗ trợ các chiều 1024, 512 và 256."
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet nâng cao tiêu chuẩn ngành, hiệu suất vượt trội hơn các mô hình cạnh tranh và Claude 3 Opus, thể hiện xuất sắc trong nhiều đánh giá, đồng thời có tốc độ và chi phí của mô hình tầm trung của chúng tôi."
},
@ -627,25 +654,28 @@
"description": "Phiên bản cập nhật của Claude 2, có cửa sổ ngữ cảnh gấp đôi, cùng với độ tin cậy, tỷ lệ ảo giác và độ chính xác dựa trên bằng chứng được cải thiện trong các tài liệu dài và ngữ cảnh RAG."
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế để đạt được phản hồi gần như ngay lập tức. Nó có hiệu suất định hướng nhanh chóng và chính xác."
"description": "Claude 3 Haiku là mô hình nhanh nhất của Anthropic cho đến nay, được thiết kế cho các khối lượng công việc doanh nghiệp thường liên quan đến các lời nhắc dài. Haiku có thể phân tích nhanh lượng lớn tài liệu như báo cáo quý, hợp đồng hoặc vụ kiện pháp lý với chi phí chỉ bằng một nửa so với các mô hình cùng cấp hiệu suất."
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic, được sử dụng để xử lý các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí thông minh, sự trôi chảy và khả năng hiểu biết."
"description": "Claude 3 Opus là mô hình thông minh nhất của Anthropic, dẫn đầu thị trường trong các nhiệm vụ phức tạp cao. Nó có khả năng xử lý các lời nhắc mở và các tình huống chưa từng thấy với độ trôi chảy xuất sắc và hiểu biết gần như con người."
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, Claude 3.5 Haiku có sự cải thiện trong nhiều kỹ năng và vượt qua mô hình lớn nhất thế hệ trước Claude 3 Opus trong nhiều bài kiểm tra trí tuệ."
"description": "Claude 3.5 Haiku là thế hệ tiếp theo của mô hình nhanh nhất của chúng tôi. Với tốc độ tương đương Claude 3 Haiku, Claude 3.5 Haiku được cải thiện trên mọi kỹ năng và vượt qua mô hình lớn nhất thế hệ trước Claude 3 Opus trong nhiều bài kiểm tra trí tuệ."
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet cung cấp khả năng vượt trội hơn Opus và tốc độ nhanh hơn Sonnet, trong khi vẫn giữ giá tương tự. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử lý hình ảnh và các nhiệm vụ đại lý."
"description": "Claude 3.5 Sonnet đạt sự cân bằng lý tưởng giữa trí tuệ và tốc độ — đặc biệt phù hợp cho khối lượng công việc doanh nghiệp. So với các sản phẩm cùng loại, nó cung cấp hiệu suất mạnh mẽ với chi phí thấp hơn và được thiết kế cho độ bền cao trong triển khai AI quy mô lớn."
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic cho đến nay, và cũng là mô hình suy luận hỗn hợp đầu tiên trên thị trường. Claude 3.7 Sonnet có khả năng tạo ra phản hồi gần như ngay lập tức hoặc suy nghĩ từng bước kéo dài, cho phép người dùng thấy rõ những quá trình này. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử lý hình ảnh và các nhiệm vụ đại diện."
"description": "Claude 3.7 Sonnet là mô hình suy luận hỗn hợp đầu tiên và là mô hình thông minh nhất của Anthropic cho đến nay. Nó cung cấp hiệu suất tiên tiến trong mã hóa, tạo nội dung, phân tích dữ liệu và lập kế hoạch, xây dựng trên nền tảng khả năng kỹ thuật phần mềm và sử dụng máy tính của Claude 3.5 Sonnet."
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dùng để xử lý các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí tuệ, sự mượt mà và khả năng hiểu biết."
"description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic cho đến nay và là mô hình mã hóa tốt nhất thế giới, dẫn đầu trên các bảng đánh giá SWE-bench (72,5%) và Terminal-bench (43,2%). Nó cung cấp hiệu suất liên tục cho các nhiệm vụ dài hạn đòi hỏi sự tập trung cao và hàng nghìn bước, có thể làm việc liên tục trong nhiều giờ — mở rộng đáng kể khả năng của các đại lý AI."
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 là phiên bản thay thế plug-and-play của Opus 4, cung cấp hiệu suất và độ chính xác vượt trội cho các nhiệm vụ mã hóa và đại lý thực tế. Opus 4.1 nâng cao hiệu suất mã hóa tiên tiến lên 74,5% trên SWE-bench Verified và xử lý các vấn đề phức tạp nhiều bước với độ nghiêm ngặt và chú ý đến chi tiết cao hơn."
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 có thể tạo ra phản hồi gần như tức thì hoặc suy nghĩ từng bước kéo dài, người dùng có thể rõ ràng quan sát quá trình này. Người dùng API cũng có thể kiểm soát chi tiết thời gian suy nghĩ của mô hình."
"description": "Claude Sonnet 4 cải tiến đáng kể dựa trên khả năng dẫn đầu ngành của Sonnet 3.7, thể hiện xuất sắc trong mã hóa với điểm số tiên tiến 72,7% trên SWE-bench. Mô hình cân bằng giữa hiệu suất và hiệu quả, phù hợp cho các trường hợp sử dụng nội bộ và bên ngoài, đồng thời cung cấp kiểm soát lớn hơn thông qua khả năng điều khiển nâng cao."
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B là một mô hình ngôn ngữ lớn thưa thớt với 72 tỷ tham số và 16 tỷ tham số kích hoạt, dựa trên kiến trúc chuyên gia hỗn hợp theo nhóm (MoGE). Nó phân nhóm các chuyên gia trong giai đoạn lựa chọn chuyên gia và giới hạn token kích hoạt số lượng chuyên gia bằng nhau trong mỗi nhóm, từ đó đạt được cân bằng tải chuyên gia và cải thiện đáng kể hiệu quả triển khai mô hình trên nền tảng Ascend."
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ là mô hình tối ưu RAG tiên tiến nhất, được thiết kế để xử lý khối lượng công việc cấp doanh nghiệp."
},
"cohere/command-a": {
"description": "Command A là mô hình hiệu suất cao nhất của Cohere cho đến nay, xuất sắc trong việc sử dụng công cụ, đại lý, tạo tăng cường truy xuất (RAG) và các trường hợp đa ngôn ngữ. Command A có độ dài ngữ cảnh 256K, chỉ cần hai GPU để vận hành, tăng thông lượng 150% so với Command R+ 08-2024."
},
"cohere/command-r": {
"description": "Command R là mô hình ngôn ngữ lớn được tối ưu cho tương tác hội thoại và các nhiệm vụ ngữ cảnh dài. Nó thuộc loại mô hình \"có thể mở rộng\", cân bằng giữa hiệu suất cao và độ chính xác mạnh mẽ, giúp các công ty vượt qua giai đoạn chứng minh khái niệm và tiến vào sản xuất."
},
"cohere/command-r-plus": {
"description": "Command R+ là mô hình ngôn ngữ lớn mới nhất của Cohere, được tối ưu cho tương tác hội thoại và các nhiệm vụ ngữ cảnh dài. Mục tiêu của nó là đạt hiệu suất xuất sắc, giúp các công ty vượt qua giai đoạn chứng minh khái niệm và tiến vào sản xuất."
},
"cohere/embed-v4.0": {
"description": "Mô hình cho phép phân loại hoặc chuyển đổi văn bản, hình ảnh hoặc nội dung hỗn hợp thành các vector nhúng."
},
"command": {
"description": "Một mô hình đối thoại tuân theo chỉ dẫn, thể hiện chất lượng cao và đáng tin cậy trong các nhiệm vụ ngôn ngữ, đồng thời có độ dài ngữ cảnh dài hơn so với mô hình sinh cơ bản của chúng tôi."
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 là mô hình suy luận hỗn hợp lớn hỗ trợ ngữ cảnh dài 128K và chuyển đổi chế độ hiệu quả, đạt hiệu suất và tốc độ xuất sắc trong việc gọi công cụ, tạo mã và các nhiệm vụ suy luận phức tạp."
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
"description": "Mô hình DeepSeek R1 đã được nâng cấp phiên bản nhỏ, hiện tại là DeepSeek-R1-0528. Trong bản cập nhật mới nhất, DeepSeek R1 đã cải thiện đáng kể độ sâu và khả năng suy luận bằng cách tận dụng tài nguyên tính toán tăng và cơ chế tối ưu thuật toán sau đào tạo. Mô hình thể hiện xuất sắc trong các bài đánh giá chuẩn về toán học, lập trình và logic chung, hiệu suất tổng thể hiện gần bằng các mô hình hàng đầu như O3 và Gemini 2.5 Pro."
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 đã cải thiện đáng kể khả năng suy luận của mô hình ngay cả khi có rất ít dữ liệu gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ nhằm nâng cao độ chính xác của câu trả lời cuối."
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B là mô hình ngôn ngữ lớn dựa trên Llama3.3 70B, mô hình này sử dụng đầu ra tinh chỉnh từ DeepSeek R1 để đạt được hiệu suất cạnh tranh tương đương với các mô hình tiên tiến lớn."
"description": "DeepSeek-R1-Distill-Llama-70B là biến thể chưng cất và hiệu quả hơn của mô hình Llama 70B. Nó duy trì hiệu suất mạnh mẽ trong các nhiệm vụ tạo văn bản, giảm chi phí tính toán để dễ dàng triển khai và nghiên cứu. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B là một mô hình ngôn ngữ lớn đã được tinh chế dựa trên Llama-3.1-8B-Instruct, được đào tạo bằng cách sử dụng đầu ra từ DeepSeek R1."
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 đã nâng cao khả năng suy luận của mô hình một cách đáng kể với rất ít dữ liệu được gán nhãn. Trước khi đưa ra câu trả lời cuối cùng, mô hình sẽ xuất ra một chuỗi suy nghĩ để nâng cao độ chính xác của câu trả lời cuối cùng."
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3 đã đạt được bước đột phá lớn về tốc độ suy diễn so với các mô hình trước đó. Nó đứng đầu trong số các mô hình mã nguồn mở và có thể so sánh với các mô hình đóng nguồn tiên tiến nhất trên toàn cầu. DeepSeek-V3 sử dụng kiến trúc Attention đa đầu (MLA) và DeepSeekMoE, những kiến trúc này đã được xác thực toàn diện trong DeepSeek-V2. Hơn nữa, DeepSeek-V3 đã sáng tạo ra một chiến lược phụ trợ không mất mát cho cân bằng tải và thiết lập mục tiêu đào tạo dự đoán đa nhãn để đạt được hiệu suất mạnh mẽ hơn."
"description": "Mô hình ngôn ngữ lớn đa năng nhanh với khả năng suy luận nâng cao."
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base là phiên bản cải tiến của mô hình DeepSeek V3."
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3 đã đạt được bước đột phá lớn về tốc độ suy diễn so với các mô hình trước đó. Nó đứng đầu trong số các mô hình mã nguồn mở và có thể so sánh với các mô hình đóng nguồn tiên tiến nhất trên toàn cầu. DeepSeek-V3 sử dụng kiến trúc Attention đa đầu (MLA) và DeepSeekMoE, những kiến trúc này đã được xác thực toàn diện trong DeepSeek-V2. Hơn nữa, DeepSeek-V3 đã sáng tạo ra một chiến lược phụ trợ không mất mát cho cân bằng tải và thiết lập mục tiêu đào tạo dự đoán đa nhãn để đạt được hiệu suất mạnh mẽ hơn."
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview có khả năng suy luận phức tạp mạnh mẽ, thể hiện xuất sắc trong các lĩnh vực suy luận logic, toán học, lập trình."
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash cung cấp các tính năng và cải tiến thế hệ tiếp theo, bao gồm tốc độ vượt trội, sử dụng công cụ bản địa, tạo đa phương tiện và cửa sổ ngữ cảnh 1M token."
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental là mô hình AI đa phương tiện thử nghiệm mới nhất của Google, có sự cải thiện về chất lượng so với các phiên bản trước, đặc biệt là đối với kiến thức thế giới, mã và ngữ cảnh dài."
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite cung cấp các tính năng thế hệ tiếp theo và cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp, tạo đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế dành riêng cho các nhiệm vụ suy luận nâng cao, mã hóa, toán học và khoa học. Nó bao gồm khả năng \"suy nghĩ\" tích hợp, cho phép cung cấp các phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh tinh tế hơn.\n\nLưu ý: Mô hình này có hai biến thể: có suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố \":thinking\"), mô hình sẽ rõ ràng tránh tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể \":thinking\", điều này sẽ dẫn đến giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số \"Số token suy luận tối đa\", như được mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
"description": "Gemini 2.5 Flash là mô hình tư duy cung cấp khả năng toàn diện xuất sắc. Nó được thiết kế để cân bằng giữa giá cả và hiệu suất, hỗ trợ đa phương thức và cửa sổ ngữ cảnh 1 triệu token."
},
"google/gemini-2.5-flash-image-preview": {
"description": "Mô hình thử nghiệm Gemini 2.5 Flash, hỗ trợ tạo hình ảnh."
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite là mô hình cân bằng, độ trễ thấp với ngân sách tư duy và kết nối công cụ có thể cấu hình (ví dụ: Google Search có căn cứ và thực thi mã). Nó hỗ trợ đầu vào đa phương thức và cung cấp cửa sổ ngữ cảnh 1 triệu token."
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash là mô hình chủ lực tiên tiến nhất của Google, được thiết kế cho suy luận nâng cao, lập trình, toán học và các nhiệm vụ khoa học. Nó bao gồm khả năng 'suy nghĩ' tích hợp, cho phép nó cung cấp phản hồi với độ chính xác cao hơn và xử lý ngữ cảnh chi tiết hơn.\n\nLưu ý: Mô hình này có hai biến thể: suy nghĩ và không suy nghĩ. Giá đầu ra có sự khác biệt đáng kể tùy thuộc vào việc khả năng suy nghĩ có được kích hoạt hay không. Nếu bạn chọn biến thể tiêu chuẩn (không có hậu tố ':thinking'), mô hình sẽ rõ ràng tránh việc tạo ra các token suy nghĩ.\n\nĐể tận dụng khả năng suy nghĩ và nhận các token suy nghĩ, bạn phải chọn biến thể ':thinking', điều này sẽ tạo ra giá đầu ra suy nghĩ cao hơn.\n\nNgoài ra, Gemini 2.5 Flash có thể được cấu hình thông qua tham số 'số token tối đa cho suy luận', như đã mô tả trong tài liệu (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)."
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong mã hóa, toán học và lĩnh vực STEM, cũng như sử dụng ngữ cảnh dài để phân tích các bộ dữ liệu lớn, kho mã và tài liệu."
"description": "Gemini 2.5 Pro là mô hình Gemini suy luận tiên tiến nhất của chúng tôi, có khả năng giải quyết các vấn đề phức tạp. Nó có cửa sổ ngữ cảnh 2 triệu token, hỗ trợ đầu vào đa phương thức bao gồm văn bản, hình ảnh, âm thanh, video và tài liệu PDF."
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã hóa, toán học và STEM, cũng như phân tích các bộ dữ liệu lớn, kho mã và tài liệu bằng ngữ cảnh dài."
},
"google/gemini-embedding-001": {
"description": "Mô hình nhúng tiên tiến, thể hiện hiệu suất xuất sắc trong các nhiệm vụ tiếng Anh, đa ngôn ngữ và mã hóa."
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash cung cấp khả năng xử lý đa phương thức được tối ưu hóa, phù hợp cho nhiều tình huống nhiệm vụ phức tạp."
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B là một mô hình ngôn ngữ mã nguồn mở của Google, thiết lập tiêu chuẩn mới về hiệu suất và hiệu quả."
},
"google/text-embedding-005": {
"description": "Mô hình nhúng văn bản tập trung vào tiếng Anh, được tối ưu cho các nhiệm vụ mã hóa và ngôn ngữ tiếng Anh."
},
"google/text-multilingual-embedding-002": {
"description": "Mô hình nhúng văn bản đa ngôn ngữ được tối ưu cho các nhiệm vụ đa ngôn ngữ, hỗ trợ nhiều ngôn ngữ."
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo, phù hợp cho nhiều nhiệm vụ sinh và hiểu văn bản, hiện tại trỏ đến gpt-3.5-turbo-0125."
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Phiên bản Ultra của dòng mô hình chuyển đổi văn bản thành hình ảnh thế hệ thứ 4 của Imagen"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small là lựa chọn lý tưởng cho các nhiệm vụ tạo mã, gỡ lỗi và tái cấu trúc với độ trễ tối thiểu."
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 là một mô hình ngôn ngữ lớn hiệu suất cao kích thước nhỏ dựa trên kiến trúc MoE. Nó có tổng số 16 tỷ tham số, nhưng mỗi token chỉ kích hoạt 1.4 tỷ tham số (không bao gồm embedding là 789 triệu), từ đó đạt được tốc độ sinh nhanh vượt trội. Nhờ thiết kế MoE hiệu quả và dữ liệu huấn luyện quy mô lớn, chất lượng cao, mặc dù tham số kích hoạt chỉ là 1.4 tỷ, Ling-mini-2.0 vẫn thể hiện hiệu suất hàng đầu trong các nhiệm vụ hạ nguồn, có thể sánh ngang với các mô hình LLM dense dưới 10 tỷ tham số và các mô hình MoE quy mô lớn hơn."
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Mô hình văn bản Llama 3.1 được tinh chỉnh chỉ dẫn, tối ưu cho các trường hợp sử dụng đối thoại đa ngôn ngữ, thể hiện xuất sắc trên nhiều chuẩn mực ngành so với nhiều mô hình trò chuyện mã nguồn mở và đóng hiện có."
},
"meta/llama-3-70b": {
"description": "Mô hình mã nguồn mở 70 tỷ tham số được Meta tinh chỉnh kỹ lưỡng cho mục đích tuân thủ chỉ dẫn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
},
"meta/llama-3-8b": {
"description": "Mô hình mã nguồn mở 8 tỷ tham số được Meta tinh chỉnh kỹ lưỡng cho mục đích tuân thủ chỉ dẫn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
},
"meta/llama-3.1-405b-instruct": {
"description": "LLM cao cấp, hỗ trợ tạo dữ liệu tổng hợp, chưng cất kiến thức và suy luận, phù hợp cho chatbot, lập trình và các nhiệm vụ chuyên biệt."
},
"meta/llama-3.1-70b": {
"description": "Phiên bản cập nhật của Meta Llama 3 70B Instruct, bao gồm độ dài ngữ cảnh mở rộng 128K, đa ngôn ngữ và khả năng suy luận cải tiến."
},
"meta/llama-3.1-70b-instruct": {
"description": "Tăng cường cuộc đối thoại phức tạp, có khả năng hiểu ngữ cảnh xuất sắc, suy luận và sinh văn bản."
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B hỗ trợ cửa sổ ngữ cảnh 128K, là lựa chọn lý tưởng cho giao diện đối thoại thời gian thực và phân tích dữ liệu, đồng thời tiết kiệm chi phí đáng kể so với các mô hình lớn hơn. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
},
"meta/llama-3.1-8b-instruct": {
"description": "Mô hình tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-11b": {
"description": "Mô hình tạo suy luận hình ảnh được điều chỉnh chỉ dẫn (đầu vào văn bản + hình ảnh / đầu ra văn bản), tối ưu cho nhận dạng hình ảnh, suy luận hình ảnh, tạo chú thích và trả lời các câu hỏi chung về hình ảnh."
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
},
"meta/llama-3.2-1b": {
"description": "Mô hình chỉ văn bản, hỗ trợ các trường hợp sử dụng trên thiết bị như truy xuất kiến thức địa phương đa ngôn ngữ, tóm tắt và viết lại."
},
"meta/llama-3.2-1b-instruct": {
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-3b": {
"description": "Mô hình chỉ văn bản, được tinh chỉnh kỹ lưỡng để hỗ trợ các trường hợp sử dụng trên thiết bị như truy xuất kiến thức địa phương đa ngôn ngữ, tóm tắt và viết lại."
},
"meta/llama-3.2-3b-instruct": {
"description": "Mô hình ngôn ngữ nhỏ tiên tiến hàng đầu, có khả năng hiểu ngôn ngữ, suy luận xuất sắc và khả năng sinh văn bản."
},
"meta/llama-3.2-90b": {
"description": "Mô hình tạo suy luận hình ảnh được điều chỉnh chỉ dẫn (đầu vào văn bản + hình ảnh / đầu ra văn bản), tối ưu cho nhận dạng hình ảnh, suy luận hình ảnh, tạo chú thích và trả lời các câu hỏi chung về hình ảnh."
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "Mô hình thị giác-ngôn ngữ tiên tiến, xuất sắc trong việc suy luận chất lượng cao từ hình ảnh."
},
"meta/llama-3.3-70b": {
"description": "Sự kết hợp hoàn hảo giữa hiệu suất và hiệu quả. Mô hình hỗ trợ AI đối thoại hiệu suất cao, được thiết kế cho tạo nội dung, ứng dụng doanh nghiệp và nghiên cứu, cung cấp khả năng hiểu ngôn ngữ tiên tiến bao gồm tóm tắt văn bản, phân loại, phân tích cảm xúc và tạo mã."
},
"meta/llama-3.3-70b-instruct": {
"description": "Mô hình LLM tiên tiến, xuất sắc trong suy luận, toán học, kiến thức chung và gọi hàm."
},
"meta/llama-4-maverick": {
"description": "Bộ mô hình Llama 4 là các mô hình AI đa phương thức nguyên bản, hỗ trợ trải nghiệm văn bản và đa phương thức. Các mô hình này sử dụng kiến trúc chuyên gia hỗn hợp để cung cấp hiệu suất hàng đầu ngành trong hiểu văn bản và hình ảnh. Llama 4 Maverick, mô hình 17 tỷ tham số với 128 chuyên gia. Được DeepInfra phục vụ."
},
"meta/llama-4-scout": {
"description": "Bộ mô hình Llama 4 là các mô hình AI đa phương thức nguyên bản, hỗ trợ trải nghiệm văn bản và đa phương thức. Các mô hình này sử dụng kiến trúc chuyên gia hỗn hợp để cung cấp hiệu suất hàng đầu ngành trong hiểu văn bản và hình ảnh. Llama 4 Scout, mô hình 17 tỷ tham số với 16 chuyên gia. Được DeepInfra phục vụ."
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "Cùng mô hình Phi-3-medium nhưng với kích thước ngữ cảnh lớn hơn, phù hợp cho RAG hoặc ít gợi ý."
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small là lựa chọn hiệu quả về chi phí, nhanh chóng và đáng tin cậy, phù hợp cho các trường hợp như dịch thuật, tóm tắt và phân tích cảm xúc."
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 là mô hình mã hóa tiên tiến, được tối ưu cho các trường hợp sử dụng độ trễ thấp và tần suất cao. Thành thạo hơn 80 ngôn ngữ lập trình, nó thể hiện xuất sắc trong các nhiệm vụ như điền giữa (FIM), sửa lỗi mã và tạo kiểm thử."
},
"mistral/codestral-embed": {
"description": "Mô hình nhúng mã để tích hợp vào cơ sở dữ liệu và kho lưu trữ mã, hỗ trợ trợ lý mã hóa."
},
"mistral/devstral-small": {
"description": "Devstral là mô hình ngôn ngữ lớn đại lý cho các nhiệm vụ kỹ thuật phần mềm, là lựa chọn tuyệt vời cho đại lý kỹ thuật phần mềm."
},
"mistral/magistral-medium": {
"description": "Tư duy phức tạp được hỗ trợ bởi sự hiểu biết sâu sắc, với suy luận minh bạch mà bạn có thể theo dõi và xác minh. Mô hình duy trì suy luận độ trung thực cao trên nhiều ngôn ngữ ngay cả khi chuyển đổi ngôn ngữ giữa chừng trong nhiệm vụ."
},
"mistral/magistral-small": {
"description": "Tư duy phức tạp được hỗ trợ bởi sự hiểu biết sâu sắc, với suy luận minh bạch mà bạn có thể theo dõi và xác minh. Mô hình duy trì suy luận độ trung thực cao trên nhiều ngôn ngữ ngay cả khi chuyển đổi ngôn ngữ giữa chừng trong nhiệm vụ."
},
"mistral/ministral-3b": {
"description": "Mô hình nhỏ gọn, hiệu quả cho các nhiệm vụ trên thiết bị như trợ lý thông minh và phân tích cục bộ, cung cấp hiệu suất độ trễ thấp."
},
"mistral/ministral-8b": {
"description": "Mô hình mạnh mẽ hơn với suy luận nhanh hơn và tiết kiệm bộ nhớ, là lựa chọn lý tưởng cho các quy trình làm việc phức tạp và ứng dụng biên đòi hỏi cao."
},
"mistral/mistral-embed": {
"description": "Mô hình nhúng văn bản đa năng cho tìm kiếm ngữ nghĩa, tương đồng, phân cụm và quy trình làm việc RAG."
},
"mistral/mistral-large": {
"description": "Mistral Large là lựa chọn lý tưởng cho các nhiệm vụ phức tạp đòi hỏi khả năng suy luận lớn hoặc chuyên môn cao — như tạo văn bản tổng hợp, tạo mã, RAG hoặc đại lý."
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B là mô hình mã nguồn mở 24 tỷ tham số do Mistral.ai phát triển. Saba là mô hình chuyên biệt được huấn luyện để thể hiện xuất sắc trong các ngôn ngữ Ả Rập, Ba Tư, Urdu, Do Thái và các ngôn ngữ Ấn Độ. Được Groq phục vụ bằng phần cứng đơn vị xử lý ngôn ngữ (LPU) tùy chỉnh để cung cấp suy luận nhanh và hiệu quả."
},
"mistral/mistral-small": {
"description": "Mistral Small là lựa chọn lý tưởng cho các nhiệm vụ đơn giản có thể xử lý theo lô — như phân loại, hỗ trợ khách hàng hoặc tạo văn bản. Nó cung cấp hiệu suất xuất sắc với mức giá phải chăng."
},
"mistral/mixtral-8x22b-instruct": {
"description": "Mô hình 8x22b Instruct. 8x22b là mô hình chuyên gia hỗn hợp mã nguồn mở được Mistral phục vụ."
},
"mistral/pixtral-12b": {
"description": "Mô hình 12B có khả năng hiểu hình ảnh cùng với văn bản."
},
"mistral/pixtral-large": {
"description": "Pixtral Large là mô hình thứ hai trong gia đình đa phương thức của chúng tôi, thể hiện khả năng hiểu hình ảnh tiên tiến. Đặc biệt, mô hình có thể hiểu tài liệu, biểu đồ và hình ảnh tự nhiên, đồng thời duy trì khả năng hiểu văn bản hàng đầu của Mistral Large 2."
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct nổi bật với hiệu suất cao, phù hợp cho nhiều nhiệm vụ ngôn ngữ."
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 là phiên bản mới nhất và mạnh mẽ nhất của Kimi K2. Đây là một mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) hàng đầu với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt. Các đặc điểm chính của mô hình bao gồm: tăng cường trí tuệ mã hóa tác nhân, thể hiện sự cải thiện đáng kể trong các bài kiểm tra chuẩn công khai và các nhiệm vụ mã hóa tác nhân trong thế giới thực; cải tiến trải nghiệm mã hóa giao diện người dùng, nâng cao cả về tính thẩm mỹ và tính thực tiễn trong lập trình giao diện."
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 là mô hình ngôn ngữ chuyên gia hỗn hợp (MoE) quy mô lớn do Moonshot AI phát triển, với tổng số tham số lên đến 1 nghìn tỷ và 32 tỷ tham số kích hoạt mỗi lần truyền tiến. Nó được tối ưu cho khả năng đại lý, bao gồm sử dụng công cụ nâng cao, suy luận và tổng hợp mã."
},
"moonshotai/kimi-k2-0905": {
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "Mô hình kimi-k2-0905-preview có độ dài ngữ cảnh 256k, sở hữu năng lực Agentic Coding mạnh mẽ hơn, mã front-end đẹp mắt và thực dụng hơn, cùng khả năng hiểu ngữ cảnh tốt hơn."
},
"morph/morph-v3-fast": {
"description": "Morph cung cấp mô hình AI chuyên biệt, áp dụng các thay đổi mã được đề xuất bởi các mô hình tiên tiến như Claude hoặc GPT-4o vào các tệp mã hiện có của bạn với tốc độ nhanh — hơn 4500 token/giây. Nó đóng vai trò là bước cuối cùng trong quy trình làm việc mã hóa AI. Hỗ trợ 16k token đầu vào và 16k token đầu ra."
},
"morph/morph-v3-large": {
"description": "Morph cung cấp mô hình AI chuyên biệt, áp dụng các thay đổi mã được đề xuất bởi các mô hình tiên tiến như Claude hoặc GPT-4o vào các tệp mã hiện có của bạn với tốc độ nhanh — hơn 2500 token/giây. Nó đóng vai trò là bước cuối cùng trong quy trình làm việc mã hóa AI. Hỗ trợ 16k token đầu vào và 16k token đầu ra."
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B là phiên bản nâng cấp của Nous Hermes 2, bao gồm bộ dữ liệu phát triển nội bộ mới nhất."
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B là một mô hình chuyên gia thưa thớt, sử dụng nhiều tham số để tăng tốc độ suy luận, phù hợp cho việc xử lý đa ngôn ngữ và sinh mã."
},
"openai/gpt-3.5-turbo": {
"description": "Mô hình hiệu quả nhất và tiết kiệm chi phí nhất trong dòng GPT-3.5 của OpenAI, được tối ưu cho mục đích trò chuyện nhưng cũng hoạt động tốt trong các nhiệm vụ hoàn thành truyền thống."
},
"openai/gpt-3.5-turbo-instruct": {
"description": "Khả năng tương tự các mô hình thời GPT-3. Tương thích với điểm cuối hoàn thành truyền thống thay vì điểm cuối hoàn thành trò chuyện."
},
"openai/gpt-4-turbo": {
"description": "gpt-4-turbo của OpenAI có kiến thức tổng quát rộng và chuyên môn lĩnh vực, cho phép tuân theo các chỉ dẫn ngôn ngữ tự nhiên phức tạp và giải quyết chính xác các vấn đề khó. Kiến thức cập nhật đến tháng 4 năm 2023, cửa sổ ngữ cảnh 128.000 token."
},
"openai/gpt-4.1": {
"description": "GPT-4.1 là mô hình hàng đầu của chúng tôi cho các nhiệm vụ phức tạp. Nó rất phù hợp để giải quyết vấn đề xuyên lĩnh vực."
"description": "GPT 4.1 là mô hình hàng đầu của OpenAI, phù hợp cho các nhiệm vụ phức tạp. Nó rất thích hợp để giải quyết vấn đề đa lĩnh vực."
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini cung cấp sự cân bằng giữa trí tuệ, tốc độ và chi phí, khiến nó trở thành một mô hình hấp dẫn cho nhiều trường hợp sử dụng."
"description": "GPT 4.1 mini cân bằng giữa trí tuệ, tốc độ và chi phí, là mô hình hấp dẫn cho nhiều trường hợp sử dụng."
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano là mô hình GPT-4.1 nhanh nhất và tiết kiệm chi phí nhất."
"description": "GPT-4.1 nano là mô hình GPT 4.1 nhanh nhất và tiết kiệm chi phí nhất."
},
"openai/gpt-4o": {
"description": "ChatGPT-4o là một mô hình động, cập nhật theo thời gian để giữ phiên bản mới nhất. Nó kết hợp khả năng hiểu và tạo ngôn ngữ mạnh mẽ, phù hợp với các tình huống ứng dụng quy mô lớn, bao gồm dịch vụ khách hàng, giáo dục và hỗ trợ kỹ thuật."
"description": "GPT-4o của OpenAI có kiến thức tổng quát rộng và chuyên môn lĩnh vực, có khả năng tuân theo các chỉ dẫn ngôn ngữ tự nhiên phức tạp và giải quyết chính xác các vấn đề khó. Nó cung cấp hiệu suất tương đương GPT-4 Turbo với API nhanh hơn và rẻ hơn."
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini là mô hình mới nhất của OpenAI, được phát hành sau GPT-4 Omni, hỗ trợ đầu vào hình ảnh và văn bản, và đầu ra văn bản. Là mô hình nhỏ tiên tiến nhất của họ, nó rẻ hơn nhiều so với các mô hình tiên tiến gần đây khác và rẻ hơn hơn 60% so với GPT-3.5 Turbo. Nó giữ lại trí thông minh tiên tiến nhất trong khi có giá trị sử dụng đáng kể. GPT-4o mini đạt 82% điểm trong bài kiểm tra MMLU và hiện đứng đầu về sở thích trò chuyện so với GPT-4."
"description": "GPT-4o mini của OpenAI là mô hình nhỏ tiên tiến và tiết kiệm chi phí nhất của họ. Nó đa phương thức (chấp nhận đầu vào văn bản hoặc hình ảnh và xuất ra văn bản), thông minh hơn gpt-3.5-turbo nhưng tốc độ tương đương."
},
"openai/gpt-5": {
"description": "GPT-5 là mô hình ngôn ngữ hàng đầu của OpenAI, xuất sắc trong suy luận phức tạp, kiến thức thực tế rộng lớn, các nhiệm vụ mã hóa chuyên sâu và đại lý đa bước."
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini là mô hình tối ưu chi phí, thể hiện tốt trong các nhiệm vụ suy luận/trò chuyện. Nó cung cấp sự cân bằng tốt nhất giữa tốc độ, chi phí và khả năng."
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano là mô hình có thông lượng cao, thể hiện tốt trong các nhiệm vụ chỉ dẫn đơn giản hoặc phân loại."
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B là mô hình ngôn ngữ hàng đầu với 120 tỷ tham số, tích hợp chức năng tìm kiếm trình duyệt và thực thi mã, đồng thời có khả năng suy luận."
"description": "Mô hình ngôn ngữ lớn đa năng cực kỳ năng lực, với khả năng suy luận mạnh mẽ và có thể kiểm soát."
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B là mô hình ngôn ngữ hàng đầu với 20 tỷ tham số, tích hợp chức năng tìm kiếm trình duyệt và thực thi mã, đồng thời có khả năng suy luận."
"description": "Mô hình ngôn ngữ trọng số mã nguồn mở nhỏ gọn, được tối ưu cho độ trễ thấp và môi trường tài nguyên hạn chế, bao gồm triển khai cục bộ và biên."
},
"openai/o1": {
"description": "o1 là mô hình suy luận mới của OpenAI, hỗ trợ đầu vào hình ảnh và văn bản, đồng thời xuất ra văn bản, phù hợp cho các nhiệm vụ phức tạp đòi hỏi kiến thức phổ quát rộng rãi. Mô hình này có ngữ cảnh 200K và kiến thức cập nhật đến tháng 10 năm 2023."
"description": "o1 của OpenAI là mô hình suy luận hàng đầu, được thiết kế cho các vấn đề phức tạp đòi hỏi suy nghĩ sâu sắc. Nó cung cấp khả năng suy luận mạnh mẽ và độ chính xác cao cho các nhiệm vụ đa bước phức tạp."
},
"openai/o1-mini": {
"description": "o1-mini là một mô hình suy diễn nhanh chóng và tiết kiệm chi phí, được thiết kế cho các ứng dụng lập trình, toán học và khoa học. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
@ -2325,23 +2493,44 @@
"description": "o1 là mô hình suy diễn mới của OpenAI, phù hợp cho các nhiệm vụ phức tạp cần kiến thức tổng quát rộng rãi. Mô hình này có ngữ cảnh 128K và thời điểm cắt kiến thức vào tháng 10 năm 2023."
},
"openai/o3": {
"description": "o3 là một mô hình mạnh mẽ toàn diện, thể hiện xuất sắc trong nhiều lĩnh vực. Nó thiết lập tiêu chuẩn mới cho các nhiệm vụ toán học, khoa học, lập trình và suy luận hình ảnh. Nó cũng giỏi trong việc viết kỹ thuật và tuân thủ hướng dẫn. Người dùng có thể sử dụng nó để phân tích văn bản, mã và hình ảnh, giải quyết các vấn đề phức tạp nhiều bước."
"description": "o3 của OpenAI là mô hình suy luận mạnh nhất, thiết lập các tiêu chuẩn mới trong mã hóa, toán học, khoa học và nhận thức thị giác. Nó xuất sắc trong các truy vấn phức tạp đòi hỏi phân tích đa chiều, có lợi thế đặc biệt trong phân tích hình ảnh, biểu đồ và đồ họa."
},
"openai/o3-mini": {
"description": "o3-mini cung cấp trí tuệ cao với cùng chi phí và mục tiêu độ trễ như o1-mini."
"description": "o3-mini là mô hình suy luận nhỏ mới nhất của OpenAI, cung cấp trí tuệ cao với chi phí và độ trễ tương đương o1-mini."
},
"openai/o3-mini-high": {
"description": "o3-mini phiên bản cao cấp về suy luận, cung cấp trí tuệ cao với cùng chi phí và mục tiêu độ trễ như o1-mini."
},
"openai/o4-mini": {
"description": "o4-mini được tối ưu hóa cho suy luận nhanh chóng và hiệu quả, thể hiện hiệu suất và hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
"description": "o4-mini của OpenAI cung cấp suy luận nhanh và tiết kiệm chi phí, với hiệu suất xuất sắc trong kích thước của nó, đặc biệt trong toán học (đạt điểm cao nhất trong bài kiểm tra chuẩn AIME), mã hóa và các nhiệm vụ thị giác."
},
"openai/o4-mini-high": {
"description": "o4-mini phiên bản cao cấp, được tối ưu hóa cho suy luận nhanh chóng và hiệu quả, thể hiện hiệu suất và hiệu quả cao trong các nhiệm vụ mã hóa và hình ảnh."
},
"openai/text-embedding-3-large": {
"description": "Mô hình nhúng hiệu quả nhất của OpenAI, phù hợp cho các nhiệm vụ tiếng Anh và phi tiếng Anh."
},
"openai/text-embedding-3-small": {
"description": "Phiên bản cải tiến và hiệu suất cao hơn của mô hình nhúng ada của OpenAI."
},
"openai/text-embedding-ada-002": {
"description": "Mô hình nhúng văn bản truyền thống của OpenAI."
},
"openrouter/auto": {
"description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được gửi đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự điều chỉnh) hoặc GPT-4o."
},
"perplexity/sonar": {
"description": "Sản phẩm nhẹ của Perplexity với khả năng tìm kiếm có căn cứ, nhanh hơn và rẻ hơn Sonar Pro."
},
"perplexity/sonar-pro": {
"description": "Sản phẩm hàng đầu của Perplexity với khả năng tìm kiếm có căn cứ, hỗ trợ truy vấn nâng cao và các thao tác tiếp theo."
},
"perplexity/sonar-reasoning": {
"description": "Mô hình tập trung vào suy luận, xuất ra chuỗi suy nghĩ (CoT) trong phản hồi, cung cấp giải thích chi tiết có căn cứ tìm kiếm."
},
"perplexity/sonar-reasoning-pro": {
"description": "Mô hình tập trung suy luận nâng cao, xuất ra chuỗi suy nghĩ (CoT) trong phản hồi, cung cấp giải thích toàn diện với khả năng tìm kiếm nâng cao và nhiều truy vấn tìm kiếm cho mỗi yêu cầu."
},
"phi3": {
"description": "Phi-3 là mô hình mở nhẹ do Microsoft phát hành, phù hợp cho việc tích hợp hiệu quả và suy luận kiến thức quy mô lớn."
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "Mô hình v0-1.5-md phù hợp cho các nhiệm vụ hàng ngày và tạo giao diện người dùng (UI)"
},
"vercel/v0-1.0-md": {
"description": "Truy cập mô hình phía sau v0 để tạo, sửa lỗi và tối ưu hóa ứng dụng Web hiện đại, với suy luận theo khung cụ thể và kiến thức cập nhật."
},
"vercel/v0-1.5-md": {
"description": "Truy cập mô hình phía sau v0 để tạo, sửa lỗi và tối ưu hóa ứng dụng Web hiện đại, với suy luận theo khung cụ thể và kiến thức cập nhật."
},
"wan2.2-t2i-flash": {
"description": "Phiên bản tốc độ cao Wanxiang 2.2, là mô hình mới nhất hiện nay. Nâng cấp toàn diện về sáng tạo, ổn định và cảm giác thực, tốc độ tạo nhanh, hiệu quả chi phí cao."
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Mô hình Spark X1 sẽ được nâng cấp thêm, trên nền tảng dẫn đầu trong các nhiệm vụ toán học trong nước, đạt được hiệu quả trong các nhiệm vụ chung như suy luận, tạo văn bản, hiểu ngôn ngữ tương đương với OpenAI o1 và DeepSeek R1."
},
"xai/grok-2": {
"description": "Grok 2 là mô hình ngôn ngữ tiên tiến với khả năng suy luận hàng đầu. Nó có năng lực vượt trội trong trò chuyện, mã hóa và suy luận, đứng trên Claude 3.5 Sonnet và GPT-4-Turbo trên bảng xếp hạng LMSYS."
},
"xai/grok-2-vision": {
"description": "Mô hình thị giác Grok 2 thể hiện xuất sắc trong các nhiệm vụ dựa trên hình ảnh, cung cấp hiệu suất tiên tiến trong suy luận toán học dựa trên hình ảnh (MathVista) và hỏi đáp dựa trên tài liệu (DocVQA). Nó có khả năng xử lý đa dạng thông tin hình ảnh, bao gồm tài liệu, biểu đồ, đồ thị, ảnh chụp màn hình và ảnh chụp."
},
"xai/grok-3": {
"description": "Mô hình hàng đầu của xAI, xuất sắc trong các trường hợp sử dụng doanh nghiệp như trích xuất dữ liệu, mã hóa và tóm tắt văn bản. Có kiến thức chuyên sâu trong các lĩnh vực tài chính, chăm sóc sức khỏe, pháp lý và khoa học."
},
"xai/grok-3-fast": {
"description": "Mô hình hàng đầu của xAI, xuất sắc trong các trường hợp sử dụng doanh nghiệp như trích xuất dữ liệu, mã hóa và tóm tắt văn bản. Biến thể mô hình nhanh phục vụ trên cơ sở hạ tầng nhanh hơn, cung cấp thời gian phản hồi nhanh hơn nhiều so với tiêu chuẩn. Tốc độ tăng đi kèm chi phí token đầu ra cao hơn."
},
"xai/grok-3-mini": {
"description": "Mô hình nhẹ của xAI, suy nghĩ trước khi phản hồi. Rất phù hợp cho các nhiệm vụ đơn giản hoặc dựa trên logic không đòi hỏi kiến thức chuyên sâu. Có thể truy cập đường đi suy nghĩ thô."
},
"xai/grok-3-mini-fast": {
"description": "Mô hình nhẹ của xAI, suy nghĩ trước khi phản hồi. Rất phù hợp cho các nhiệm vụ đơn giản hoặc dựa trên logic không đòi hỏi kiến thức chuyên sâu. Có thể truy cập đường đi suy nghĩ thô. Biến thể mô hình nhanh phục vụ trên cơ sở hạ tầng nhanh hơn, cung cấp thời gian phản hồi nhanh hơn nhiều so với tiêu chuẩn. Tốc độ tăng đi kèm chi phí token đầu ra cao hơn."
},
"xai/grok-4": {
"description": "Mô hình hàng đầu mới nhất và tuyệt vời nhất của xAI, cung cấp hiệu suất vô song trong ngôn ngữ tự nhiên, toán học và suy luận — lựa chọn toàn năng hoàn hảo."
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 là phiên bản nâng cấp của Yi. Nó sử dụng 500B token từ cơ sở dữ liệu chất lượng cao để tiếp tục tiền huấn luyện trên Yi, và được tinh chỉnh trên 3M mẫu đa dạng."
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V là thế hệ mô hình ngôn ngữ thị giác (VLM) mới nhất được phát hành bởi Zhipu AI. Mô hình này được xây dựng trên cơ sở mô hình văn bản chủ lực GLM-4.5-Air với tổng 106 tỷ tham số và 12 tỷ tham số kích hoạt, sử dụng kiến trúc chuyên gia hỗn hợp (Mixture of Experts - MoE), nhằm đạt hiệu năng xuất sắc với chi phí suy luận thấp hơn. Về mặt kỹ thuật, GLM-4.5V tiếp nối hướng phát triển của GLM-4.1V-Thinking và giới thiệu các đổi mới như mã hóa vị trí xoay ba chiều (3D-RoPE), đáng kể nâng cao khả năng nhận thức và suy luận về các mối quan hệ trong không gian 3D. Thông qua tối ưu hóa ở các giai đoạn tiền huấn luyện, tinh chỉnh có giám sát và học tăng cường, mô hình có khả năng xử lý nhiều dạng nội dung thị giác như hình ảnh, video và tài liệu dài, và đã đạt vị trí hàng đầu trong số các mô hình mã nguồn mở cùng cấp trên 41 bộ đánh giá đa phương thức công khai. Ngoài ra, mô hình còn bổ sung công tắc “chế độ tư duy”, cho phép người dùng linh hoạt lựa chọn giữa phản hồi nhanh và suy luận sâu để cân bằng hiệu quả và chất lượng."
},
"zai/glm-4.5": {
"description": "Dòng mô hình GLM-4.5 được thiết kế đặc biệt cho các tác nhân thông minh. Mô hình hàng đầu GLM-4.5 tích hợp 355 tỷ tham số tổng (32 tỷ tham số kích hoạt), hợp nhất khả năng suy luận, mã hóa và đại lý để giải quyết các yêu cầu ứng dụng phức tạp. Là hệ thống suy luận hỗn hợp, nó cung cấp hai chế độ hoạt động."
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 và GLM-4.5-Air là các mô hình hàng đầu mới nhất của chúng tôi, được thiết kế đặc biệt làm mô hình nền tảng cho các ứng dụng đại lý. Cả hai đều sử dụng kiến trúc chuyên gia hỗn hợp (MoE). GLM-4.5 có tổng số tham số 355 tỷ với 32 tỷ tham số kích hoạt mỗi lần truyền tiến, trong khi GLM-4.5-Air có thiết kế đơn giản hơn với tổng số tham số 106 tỷ và 12 tỷ tham số kích hoạt."
},
"zai/glm-4.5v": {
"description": "GLM-4.5V được xây dựng trên mô hình nền tảng GLM-4.5-Air, kế thừa công nghệ đã được xác minh của GLM-4.1V-Thinking, đồng thời mở rộng hiệu quả với kiến trúc MoE 106 tỷ tham số mạnh mẽ."
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 là một trợ lý lập trình theo cặp, bạn chỉ cần mô tả ý tưởng bằng ngôn ngữ tự nhiên, nó sẽ tạo mã và giao diện người dùng (UI) cho dự án của bạn"
},
"vercelaigateway": {
"description": "Vercel AI Gateway cung cấp API thống nhất để truy cập hơn 100 mô hình, cho phép sử dụng các mô hình từ nhiều nhà cung cấp như OpenAI, Anthropic, Google chỉ qua một điểm cuối duy nhất. Hỗ trợ thiết lập ngân sách, giám sát sử dụng, cân bằng tải yêu cầu và chuyển đổi dự phòng."
},
"vertexai": {
"description": "Dòng sản phẩm Gemini của Google là mô hình AI tiên tiến và đa năng nhất của họ, được phát triển bởi Google DeepMind, được thiết kế đặc biệt cho đa phương thức, hỗ trợ hiểu và xử lý liền mạch văn bản, mã, hình ảnh, âm thanh và video. Phù hợp với nhiều môi trường từ trung tâm dữ liệu đến thiết bị di động, nâng cao đáng kể hiệu quả và tính ứng dụng của mô hình AI."
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "一个52B参数12B活跃的多语言模型提供256K长上下文窗口、函数调用、结构化输出和基于事实的生成。"
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型语言模型,提供了一套全面的密集和混合专家 (MoE) 模型。基于广泛的训练构建Qwen3 在推理、指令遵循、代理能力和多语言支持方面提供了突破性的进展。"
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct 是 Qwen 最具代理性的代码模型,在代理编码、代理浏览器使用和其他基础编码任务方面具有显著性能,达到了与 Claude Sonnet 相当的结果。"
},
"amazon/nova-lite": {
"description": "一个非常低成本的多模态模型,处理图像、视频和文本输入的速度极快。"
},
"amazon/nova-micro": {
"description": "一个仅文本模型,以非常低的成本提供最低延迟的响应。"
},
"amazon/nova-pro": {
"description": "一个高度能干的多模态模型,具有准确性、速度和成本的最佳组合,适用于广泛的任务。"
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 是一个轻量级、高效的多语言嵌入模型,支持 1024、512 和 256 维度。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet 提升了行业标准,性能超过竞争对手模型和 Claude 3 Opus在广泛的评估中表现出色同时具有我们中等层级模型的速度和成本。"
},
@ -627,25 +654,28 @@
"description": "Claude 2 的更新版,具有双倍的上下文窗口,以及在长文档和 RAG 上下文中的可靠性、幻觉率和基于证据的准确性的改进。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最紧凑的模型,旨在实现近乎即时的响应。它具有快速且准确的定向性能。"
"description": "Claude 3 Haiku 是 Anthropic 迄今为止最快的模型专为通常涉及较长提示的企业工作负载而设计。Haiku 可以快速分析大量文档,如季度文件、合同或法律案件,成本是其性能等级中其他模型的一半。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
"description": "Claude 3 Opus 是 Anthropic 最智能的模型,在高度复杂的任务上具有市场领先的性能。它能够以卓越的流畅度和类人理解力驾驭开放式提示和前所未见的场景。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。与 Claude 3 Haiku 相比Claude 3.5 Haiku 在各项技能上都有所提升,并在许多智力基准测试中超越了上一代最大的模型 Claude 3 Opus。"
"description": "Claude 3.5 Haiku 是我们最快模型的下一代。与 Claude 3 Haiku 的速度相似Claude 3.5 Haiku 在每个技能集上都得到了改进,并在许多智能基准测试中超越了我们上一代最大的模型 Claude 3 Opus。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同时保持与 Sonnet 相同的价格。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
"description": "Claude 3.5 Sonnet 在智能和速度之间达到了理想的平衡——特别是对于企业工作负载。与同类产品相比,它以更低的成本提供了强大的性能,并专为大规模 AI 部署中的高耐久性而设计。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
"description": "Claude 3.7 Sonnet 是第一个混合推理模型,也是 Anthropic 迄今为止最智能的模型。它在编码、内容生成、数据分析和规划任务方面提供了最先进的性能,在其前身 Claude 3.5 Sonnet 的软件工程和计算机使用能力基础上进行了构建。"
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
"description": "Claude Opus 4 是 Anthropic 迄今为止最强大的模型,也是世界上最好的编码模型,在 SWE-bench (72.5%) 和 Terminal-bench (43.2%) 上领先。它为需要专注努力和数千个步骤的长期任务提供持续性能,能够连续工作数小时——显著扩展了 AI 代理的能力。"
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 是 Opus 4 的即插即用替代品为实际编码和代理任务提供卓越的性能和精度。Opus 4.1 将最先进的编码性能提升到 SWE-bench Verified 的 74.5%,并以更高的严谨性和对细节的关注处理复杂的多步问题。"
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 可以产生近乎即时的响应或延长的逐步思考用户可以清晰地看到这些过程。API 用户还可以对模型思考的时间进行细致的控制"
"description": "Claude Sonnet 4 在 Sonnet 3.7 的行业领先能力基础上进行了显著改进,在编码方面表现出色,在 SWE-bench 上达到了最先进的 72.7%。该模型在性能和效率之间取得了平衡,适用于内部和外部用例,并通过增强的可控性实现对实现的更大控制。"
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B 是一款 720 亿参数、激活 160 亿参的稀疏大语言模型它基于分组混合专家MoGE架构它在专家选择阶段对专家进行分组并约束 token 在每个组内激活等量专家,从而实现专家负载均衡,显著提升模型在昇腾平台的部署效率。"
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+是一个最先进的RAG优化模型旨在应对企业级工作负载。"
},
"cohere/command-a": {
"description": "Command A 是 Cohere 迄今为止性能最强的模型,在工具使用、代理、检索增强生成 (RAG) 和多语言用例方面表现出色。Command A 的上下文长度为 256K仅需两个 GPU 即可运行,与 Command R+ 08-2024 相比吞吐量提高了 150%。"
},
"cohere/command-r": {
"description": "Command R 是一个针对对话交互和长上下文任务优化的大型语言模型。它定位于\"可扩展\"类别的模型,在高性能和强准确性之间取得平衡,使公司能够超越概念验证并进入生产。"
},
"cohere/command-r-plus": {
"description": "Command R+ 是 Cohere 最新的大型语言模型,针对对话交互和长上下文任务进行了优化。它的目标是在性能上极其出色,使公司能够超越概念验证并进入生产。"
},
"cohere/embed-v4.0": {
"description": "一个允许对文本、图像或混合内容进行分类或转换为嵌入的模型。"
},
"command": {
"description": "一个遵循指令的对话模型,在语言任务中表现出高质量、更可靠,并且相比我们的基础生成模型具有更长的上下文长度。"
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1是一款支持128K长上下文和高效模式切换的大型混合推理模型它在工具调用、代码生成和复杂推理任务上实现了卓越的性能与速度。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek R1是DeepSeek团队发布的最新开源模型具备非常强悍的推理性能尤其在数学、编程和推理任务上达到了与OpenAI的o1模型相当的水平。"
"description": "DeepSeek R1 模型已经进行了小版本升级,当前版本为 DeepSeek-R1-0528。在最新更新中DeepSeek R1 通过利用增加的计算资源和在训练后引入算法优化机制,显著提高了推理深度和推理能力。该模型在数学、编程和一般逻辑等多个基准评估中表现出色,其整体性能现在正接近领先模型,如 O3 和 Gemini 2.5 Pro。"
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B是基于Llama3.3 70B的大型语言模型该模型利用DeepSeek R1输出的微调实现了与大型前沿模型相当的竞争性能。"
"description": "DeepSeek-R1-Distill-Llama-70B 是 70B Llama 模型的蒸馏、更高效变体。它在文本生成任务中保持强大性能,减少计算开销以便于部署和研究。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。"
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B 是一种基于 Llama-3.1-8B-Instruct 的蒸馏大语言模型,通过使用 DeepSeek R1 的输出进行训练而得。"
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 在仅有极少标注数据的情况下,极大提升了模型推理能力。在输出最终回答之前,模型会先输出一段思维链内容,以提升最终答案的准确性。"
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 MLA 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。"
"description": "具有增强推理能力的快速通用大型语言模型"
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base 是 DeepSeek V3 模型的改进版本。"
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3在推理速度方面实现了比之前模型的重大突破。在开源模型中排名第一并可与全球最先进的闭源模型相媲美。DeepSeek-V3 采用了多头潜在注意力 MLA 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了全面验证。此外DeepSeek-V3 开创了一种用于负载均衡的辅助无损策略,并设定了多标记预测训练目标以获得更强的性能。"
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview具备强大的复杂推理能力在逻辑推理、数学、编程等领域表现优异。"
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash 提供下一代功能和改进的功能,包括卓越的速度、内置工具使用、多模态生成和 100 万 token 的上下文窗口。"
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash 提供下一代功能和改进包括卓越的速度、原生工具使用、多模态生成和1M令牌上下文窗口。"
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental 是 Google 最新的实验性多模态AI模型与历史版本相比有一定的质量提升特别是对于世界知识、代码和长上下文。"
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite 提供下一代功能和改进的功能,包括卓越的速度、内置工具使用、多模态生成和 100 万 token 的上下文窗口。"
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash 是 Google 最先进的主力模型,专为高级推理、编码、数学和科学任务而设计。它包含内置的“思考”能力,使其能够提供具有更高准确性和细致上下文处理的响应。\n\n注意此模型有两个变体思考和非思考。输出定价根据思考能力是否激活而有显著差异。如果您选择标准变体不带“:thinking”后缀模型将明确避免生成思考令牌。\n\n要利用思考能力并接收思考令牌您必须选择“:thinking”变体这将产生更高的思考输出定价。\n\n此外Gemini 2.5 Flash 可通过“推理最大令牌数”参数进行配置,如文档中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
"description": "Gemini 2.5 Flash 是一个思考模型,提供出色的全面能力。它旨在价格和性能之间取得平衡,支持多模态和 100 万 token 的上下文窗口。"
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash 实验模型,支持图像生成"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite 是一个平衡、低延迟的模型具有可配置的思考预算和工具连接性例如Google Search 接地和代码执行)。它支持多模态输入,并提供 100 万 token 的上下文窗口。"
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash 是 Google 最先进的主力模型,专为高级推理、编码、数学和科学任务而设计。它包含内置的“思考”能力,使其能够提供具有更高准确性和细致上下文处理的响应。\n\n注意此模型有两个变体思考和非思考。输出定价根据思考能力是否激活而有显著差异。如果您选择标准变体不带“:thinking”后缀模型将明确避免生成思考令牌。\n\n要利用思考能力并接收思考令牌您必须选择“:thinking”变体这将产生更高的思考输出定价。\n\n此外Gemini 2.5 Flash 可通过“推理最大令牌数”参数进行配置,如文档中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash 是 Google 最先进的主力模型,专为高级推理、编码、数学和科学任务而设计。它包含内置的“思考”能力,使其能够提供具有更高准确性和细致上下文处理的响应。\n\n注意此模型有两个变体思考和非思考。输出定价根据思考能力是否激活而有显著差异。如果您选择标准变体不带“:thinking”后缀模型将明确避免生成思考令牌。\n\n要利用思考能力并接收思考令牌您必须选择“:thinking”变体这将产生更高的思考输出定价。\n\n此外Gemini 2.5 Flash 可通过“推理最大令牌数”参数进行配置,如文档中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro 是 Google 最先进的思维模型能够对代码、数学和STEM领域的复杂问题进行推理以及使用长上下文分析大型数据集、代码库和文档。"
"description": "Gemini 2.5 Pro 是我们最先进的推理 Gemini 模型,能够解决复杂问题。它具有 200 万 token 的上下文窗口,支持包括文本、图像、音频、视频和 PDF 文档在内的多模态输入。"
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型能够对代码、数学和STEM领域的复杂问题进行推理以及使用长上下文分析大型数据集、代码库和文档。"
},
"google/gemini-embedding-001": {
"description": "最先进的嵌入模型,在英语、多语言和代码任务中具有出色的性能。"
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash 提供了优化后的多模态处理能力,适用多种复杂任务场景。"
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B 是谷歌的一款开源语言模型,以其在效率和性能方面设立了新的标准。"
},
"google/text-embedding-005": {
"description": "针对代码和英语语言任务优化的英语聚焦文本嵌入模型。"
},
"google/text-multilingual-embedding-002": {
"description": "针对跨语言任务优化的多语言文本嵌入模型,支持多种语言。"
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo适用于各种文本生成和理解任务Currently points to gpt-3.5-turbo-0125"
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 4th generation text-to-image model series Ultra version"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small 是代码生成、调试和重构任务的理想选择,具有最小延迟。"
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 是一款基于 MoE 架构的小尺寸高性能大语言模型。它拥有 16B 总参数,但每个 token 仅激活 1.4Bnon-embedding 789M从而实现了极高的生成速度。得益于高效的 MoE 设计与大规模高质量训练数据,尽管激活参数仅为 1.4BLing-mini-2.0 依然在下游任务中展现出可媲美 10B 以下 dense LLM 及更大规模 MoE 模型的顶尖性能"
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1指令调优的文本模型,针对多语言对话用例进行了优化,在许多可用的开源和封闭聊天模型中,在常见行业基准上表现优异。"
},
"meta/llama-3-70b": {
"description": "由 Meta 精心调整用于指令遵循目的的 700 亿参数开源模型。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。"
},
"meta/llama-3-8b": {
"description": "由 Meta 精心调整用于指令遵循目的的 80 亿参数开源模型。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高级 LLM支持合成数据生成、知识蒸馏和推理适用于聊天机器人、编程和特定领域任务。"
},
"meta/llama-3.1-70b": {
"description": "Meta Llama 3 70B Instruct 的更新版本,包括扩展的 128K 上下文长度、多语言和改进的推理能力。"
},
"meta/llama-3.1-70b-instruct": {
"description": "赋能复杂对话,具备卓越的上下文理解、推理能力和文本生成能力。"
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B 支持 128K 上下文窗口,使其成为实时对话界面和数据分析的理想选择,同时与更大的模型相比提供显著的成本节约。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。"
},
"meta/llama-3.1-8b-instruct": {
"description": "先进的最尖端模型,具备语言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-11b": {
"description": "指令调整的图像推理生成模型(文本 + 图像输入 / 文本输出),针对视觉识别、图像推理、标题生成和回答关于图像的一般问题进行了优化。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "尖端的视觉-语言模型,擅长从图像中进行高质量推理。"
},
"meta/llama-3.2-1b": {
"description": "仅文本模型,支持设备上用例,如多语言本地知识检索、摘要和重写。"
},
"meta/llama-3.2-1b-instruct": {
"description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-3b": {
"description": "仅文本模型,精心调整用于支持设备上用例,如多语言本地知识检索、摘要和重写。"
},
"meta/llama-3.2-3b-instruct": {
"description": "先进的最尖端小型语言模型,具备语言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-90b": {
"description": "指令调整的图像推理生成模型(文本 + 图像输入 / 文本输出),针对视觉识别、图像推理、标题生成和回答关于图像的一般问题进行了优化。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "尖端的视觉-语言模型,擅长从图像中进行高质量推理。"
},
"meta/llama-3.3-70b": {
"description": "性能与效率的完美结合。该模型支持高性能对话 AI专为内容创建、企业应用和研究而设计提供先进的语言理解能力包括文本摘要、分类、情感分析和代码生成。"
},
"meta/llama-3.3-70b-instruct": {
"description": "先进的 LLM擅长推理、数学、常识和函数调用。"
},
"meta/llama-4-maverick": {
"description": "Llama 4 模型集合是原生多模态 AI 模型支持文本和多模态体验。这些模型利用混合专家架构在文本和图像理解方面提供行业领先的性能。Llama 4 Maverick一个 170 亿参数模型,具有 128 个专家。由 DeepInfra 提供服务。"
},
"meta/llama-4-scout": {
"description": "Llama 4 模型集合是原生多模态 AI 模型支持文本和多模态体验。这些模型利用混合专家架构在文本和图像理解方面提供行业领先的性能。Llama 4 Scout一个 170 亿参数模型,具有 16 个专家。由 DeepInfra 提供服务。"
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "相同的Phi-3-medium模型但具有更大的上下文大小适用于RAG或少量提示。"
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small是成本效益高、快速且可靠的选项适用于翻译、摘要和情感分析等用例。"
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 是最先进的编码模型,针对低延迟、高频率用例进行了优化。精通 80 多种编程语言,它在中间填充 (FIM)、代码纠正和测试生成等任务上表现出色。"
},
"mistral/codestral-embed": {
"description": "可以嵌入代码数据库和存储库以支持编码助手的代码嵌入模型。"
},
"mistral/devstral-small": {
"description": "Devstral 是一个用于软件工程任务的代理大型语言模型,使其成为软件工程代理的绝佳选择。"
},
"mistral/magistral-medium": {
"description": "复杂思维,由深刻理解支持,具有您可以遵循和验证的透明推理。该模型即使在任务中途切换语言时,也能在众多语言中保持高保真推理。"
},
"mistral/magistral-small": {
"description": "复杂思维,由深刻理解支持,具有您可以遵循和验证的透明推理。该模型即使在任务中途切换语言时,也能在众多语言中保持高保真推理。"
},
"mistral/ministral-3b": {
"description": "一个紧凑、高效的模型,用于智能助手和本地分析等设备上任务,提供低延迟性能。"
},
"mistral/ministral-8b": {
"description": "一个更强大的模型,具有更快、内存高效的推理,是复杂工作流程和要求苛刻的边缘应用的理想选择。"
},
"mistral/mistral-embed": {
"description": "用于语义搜索、相似性、聚类和 RAG 工作流的通用文本嵌入模型。"
},
"mistral/mistral-large": {
"description": "Mistral Large 是复杂任务的理想选择这些任务需要大型推理能力或高度专业化——如合成文本生成、代码生成、RAG 或代理。"
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B 是一个由 Mistral.ai 开发的 240 亿参数开源模型。Saba 是一个专门训练以在阿拉伯语、波斯语、乌尔都语、希伯来语和印度语言方面表现出色的专门模型。由 Groq 使用其自定义语言处理单元 (LPU) 硬件提供服务,以提供快速高效的推理。"
},
"mistral/mistral-small": {
"description": "Mistral Small 是简单任务的理想选择,这些任务可以批量完成——如分类、客户支持或文本生成。它以可承受的价格点提供出色的性能。"
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct 模型。8x22b 是由 Mistral 提供服务的混合专家开源模型。"
},
"mistral/pixtral-12b": {
"description": "一个具有图像理解能力的 12B 模型,以及文本。"
},
"mistral/pixtral-large": {
"description": "Pixtral Large 是我们多模态家族中的第二个模型,展示了前沿水平的图像理解。特别是,该模型能够理解文档、图表和自然图像,同时保持了 Mistral Large 2 的领先文本理解能力。"
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct 以高性能著称,适用于多种语言任务。"
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最强大的版本。它是一款顶尖的混合专家MoE语言模型拥有 1 万亿的总参数和 320 亿的激活参数。该模型的主要特性包括:增强的智能体编码智能,在公开基准测试和真实世界的编码智能体任务中表现出显著的性能提升;改进的前端编码体验,在前端编程的美观性和实用性方面均有进步。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 是由月之暗面 AI 开发的大规模混合专家 (MoE) 语言模型,具有 1 万亿总参数和每次前向传递 320 亿激活参数。它针对代理能力进行了优化,包括高级工具使用、推理和代码合成。"
},
"moonshotai/kimi-k2-0905": {
"description": "kimi-k2-0905-preview 模型上下文长度为 256k具备更强的 Agentic Coding 能力、更突出的前端代码的美观度和实用性、以及更好的上下文理解能力。"
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "kimi-k2-0905-preview 模型上下文长度为 256k具备更强的 Agentic Coding 能力、更突出的前端代码的美观度和实用性、以及更好的上下文理解能力。"
},
"morph/morph-v3-fast": {
"description": "Morph 提供了一个专门的 AI 模型,将前沿模型(如 Claude 或 GPT-4o建议的代码更改应用到您的现有代码文件中 FAST - 4500+ tokens/秒。它充当 AI 编码工作流程中的最后一步。支持 16k 输入 tokens 和 16k 输出 tokens。"
},
"morph/morph-v3-large": {
"description": "Morph 提供了一个专门的 AI 模型,将前沿模型(如 Claude 或 GPT-4o建议的代码更改应用到您的现有代码文件中 FAST - 2500+ tokens/秒。它充当 AI 编码工作流程中的最后一步。支持 16k 输入 tokens 和 16k 输出 tokens。"
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2的升级版本包含最新的内部开发的数据集。"
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B是一个稀疏专家模型利用多个参数提高推理速度适合处理多语言和代码生成任务。"
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI 在 GPT-3.5 系列中最能干且最具成本效益的模型,针对聊天目的进行了优化,但在传统完成任务中也表现良好。"
},
"openai/gpt-3.5-turbo-instruct": {
"description": "与 GPT-3 时代模型类似的能力。与传统的完成端点兼容,而不是聊天完成端点。"
},
"openai/gpt-4-turbo": {
"description": "来自 OpenAI 的 gpt-4-turbo 具有广泛的通用知识和领域专长,使其能够遵循自然语言的复杂指令并准确解决困难问题。它的知识截止日期为 2023 年 4 月,上下文窗口为 128,000 个 token。"
},
"openai/gpt-4.1": {
"description": "GPT-4.1 是我们用于复杂任务的旗舰模型。它非常适合跨领域解决问题。"
"description": "GPT 4.1 是 OpenAI 的旗舰模型,适用于复杂任务。它非常适合跨领域解决问题。"
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini 提供了智能、速度和成本之间的平衡,使其成为许多用例中有吸引力的模型。"
"description": "GPT 4.1 mini 在智能、速度和成本之间取得了平衡,使其成为许多用例的有吸引力的模型。"
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano 是最快最具成本效益的GPT-4.1模型。"
"description": "GPT-4.1 nano 是最快、最具成本效益的 GPT 4.1 模型。"
},
"openai/gpt-4o": {
"description": "ChatGPT-4o 是一款动态模型,实时更新以保持当前最新版本。它结合了强大的语言理解与生成能力,适合于大规模应用场景,包括客户服务、教育和技术支持。"
"description": "GPT-4o 来自 OpenAI具有广泛的通用知识和领域专长能够遵循自然语言的复杂指令并准确解决难题。它以更快、更便宜的 API 匹配 GPT-4 Turbo 的性能。"
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini是OpenAI在GPT-4 Omni之后推出的最新模型支持图文输入并输出文本。作为他们最先进的小型模型它比其他近期的前沿模型便宜很多并且比GPT-3.5 Turbo便宜超过60%。它保持了最先进的智能同时具有显著的性价比。GPT-4o mini在MMLU测试中获得了 82% 的得分,目前在聊天偏好上排名高于 GPT-4。"
"description": "GPT-4o mini 来自 OpenAI 是他们最先进且最具成本效益的小模型。它是多模态的(接受文本或图像输入并输出文本),并且比 gpt-3.5-turbo 具有更高的智能性,但速度同样快。"
},
"openai/gpt-5": {
"description": "GPT-5 是 OpenAI 的旗舰语言模型,在复杂推理、广泛的现实世界知识、代码密集型和多步代理任务方面表现出色。"
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini 是一个成本优化的模型,在推理/聊天任务方面表现出色。它在速度、成本和能力之间提供了最佳平衡。"
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano 是一个高吞吐量模型,在简单指令或分类任务方面表现出色。"
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B 是一款拥有 1200 亿参数的顶尖语言模型,内置浏览器搜索和代码执行功能,并具备推理能力。"
"description": "极其能干的通用大型语言模型,具有强大、可控的推理能力"
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B 是一款拥有 200 亿参数的顶尖语言模型,内置浏览器搜索和代码执行功能,并具备推理能力。"
"description": "一个紧凑、开源权重的语言模型,针对低延迟和资源受限环境进行了优化,包括本地和边缘部署"
},
"openai/o1": {
"description": "o1是OpenAI新的推理模型支持图文输入并输出文本适用于需要广泛通用知识的复杂任务。该模型具有200K上下文和2023年10月的知识截止日期。"
"description": "OpenAI 的 o1 是旗舰推理模型,专为需要深度思考的复杂问题而设计。它为复杂多步任务提供了强大的推理能力和更高的准确性。"
},
"openai/o1-mini": {
"description": "o1-mini是一款针对编程、数学和科学应用场景而设计的快速、经济高效的推理模型。该模型具有128K上下文和2023年10月的知识截止日期。"
@ -2325,23 +2493,44 @@
"description": "o1是OpenAI新的推理模型适用于需要广泛通用知识的复杂任务。该模型具有128K上下文和2023年10月的知识截止日期。"
},
"openai/o3": {
"description": "o3 是一款全能强大的模型,在多个领域表现出色。它为数学、科学、编程和视觉推理任务树立了新标杆。它也擅长技术写作和指令遵循。用户可利用它分析文本、代码和图像,解决多步骤的复杂问题。"
"description": "OpenAI 的 o3 是最强大的推理模型,在编码、数学、科学和视觉感知方面设立了新的最先进水平。它擅长需要多方面分析的复杂查询,在分析图像、图表和图形方面具有特殊优势。"
},
"openai/o3-mini": {
"description": "o3-mini o1-mini 相同成本和延迟目标下提供高智能。"
"description": "o3-mini 是 OpenAI 最新的小型推理模型,在 o1-mini 相同成本和延迟目标下提供高智能。"
},
"openai/o3-mini-high": {
"description": "o3-mini 高推理等级版,在与 o1-mini 相同的成本和延迟目标下提供高智能。"
},
"openai/o4-mini": {
"description": "o4-mini 专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。"
"description": "OpenAI 的 o4-mini 提供快速、成本效益高的推理在其尺寸上具有卓越性能特别是在数学AIME 基准测试中表现最佳)、编码和视觉任务方面。"
},
"openai/o4-mini-high": {
"description": "o4-mini 高推理等级版,专为快速有效的推理而优化,在编码和视觉任务中表现出极高的效率和性能。"
},
"openai/text-embedding-3-large": {
"description": "OpenAI 最能干的嵌入模型,适用于英语和非英语任务。"
},
"openai/text-embedding-3-small": {
"description": "OpenAI 改进的、性能更高的 ada 嵌入模型版本。"
},
"openai/text-embedding-ada-002": {
"description": "OpenAI 的传统文本嵌入模型。"
},
"openrouter/auto": {
"description": "根据上下文长度、主题和复杂性,你的请求将发送到 Llama 3 70B Instruct、Claude 3.5 Sonnet自我调节或 GPT-4o。"
},
"perplexity/sonar": {
"description": "Perplexity 的轻量级产品,具有搜索接地能力,比 Sonar Pro 更快、更便宜。"
},
"perplexity/sonar-pro": {
"description": "Perplexity 的旗舰产品,具有搜索接地能力,支持高级查询和后续操作。"
},
"perplexity/sonar-reasoning": {
"description": "一个专注于推理的模型,在响应中输出思维链 (CoT),提供具有搜索接地的详细解释。"
},
"perplexity/sonar-reasoning-pro": {
"description": "一个高级推理聚焦模型,在响应中输出思维链 (CoT),提供具有增强搜索能力和每个请求多个搜索查询的综合解释。"
},
"phi3": {
"description": "Phi-3 是微软推出的轻量级开放模型,适用于高效集成和大规模知识推理。"
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "v0-1.5-md 模型适用于日常任务和用户界面UI生成"
},
"vercel/v0-1.0-md": {
"description": "访问 v0 背后的模型以生成、修复和优化现代 Web 应用,具有特定框架的推理和最新知识。"
},
"vercel/v0-1.5-md": {
"description": "访问 v0 背后的模型以生成、修复和优化现代 Web 应用,具有特定框架的推理和最新知识。"
},
"wan2.2-t2i-flash": {
"description": "万相2.2极速版,当前最新模型。在创意性、稳定性、写实质感上全面升级,生成速度快,性价比高。"
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Spark X1 模型将进一步升级,在原来数学任务国内领先基础上,推理、文本生成、语言理解等通用任务实现效果对标 OpenAI o1 和 DeepSeek R1。"
},
"xai/grok-2": {
"description": "Grok 2 是一个具有最先进推理能力的前沿语言模型。它在聊天、编码和推理方面具有先进能力,在 LMSYS 排行榜上优于 Claude 3.5 Sonnet 和 GPT-4-Turbo。"
},
"xai/grok-2-vision": {
"description": "Grok 2 视觉模型在基于视觉的任务方面表现出色,在视觉数学推理 (MathVista) 和基于文档的问答 (DocVQA) 方面提供最先进的性能。它能够处理各种视觉信息,包括文档、图表、图表、屏幕截图和照片。"
},
"xai/grok-3": {
"description": "xAI 的旗舰模型,在企业用例方面表现出色,如数据提取、编码和文本摘要。在金融、医疗保健、法律和科学领域拥有深厚的领域知识。"
},
"xai/grok-3-fast": {
"description": "xAI 的旗舰模型,在企业用例方面表现出色,如数据提取、编码和文本摘要。在金融、医疗保健、法律和科学领域拥有深厚的领域知识。快速模型变体在更快的基础设施上提供服务,提供比标准快得多的响应时间。增加的速度以每个输出 token 更高的成本为代价。"
},
"xai/grok-3-mini": {
"description": "xAI 的轻量级模型,在响应之前进行思考。非常适合不需要深厚领域知识的简单或基于逻辑的任务。原始思维轨迹可访问。"
},
"xai/grok-3-mini-fast": {
"description": "xAI 的轻量级模型,在响应之前进行思考。非常适合不需要深厚领域知识的简单或基于逻辑的任务。原始思维轨迹可访问。快速模型变体在更快的基础设施上提供服务,提供比标准快得多的响应时间。增加的速度以每个输出 token 更高的成本为代价。"
},
"xai/grok-4": {
"description": "xAI 最新和最伟大的旗舰模型,在自然语言、数学和推理方面提供无与伦比的性能——完美的全能选手。"
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 是 Yi 的升级版本。 它使用 500B Tokens 的高质量语料库在 Yi 上持续进行预训练,并在 3M 个多样化的微调样本上进行微调。"
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V 是由智谱 AIZhipu AI发布的最新一代视觉语言模型VLM该模型基于拥有 106B 总参数和 12B 激活参数的旗舰文本模型 GLM-4.5-Air 构建采用了混合专家MoE架构旨在以更低的推理成本实现卓越性能 GLM-4.5V 在技术上延续了 GLM-4.1V-Thinking 的路线并引入了三维旋转位置编码3D-RoPE等创新显著增强了对三维空间关系的感知与推理能力。通过在预训练、监督微调和强化学习阶段的优化该模型具备了处理图像、视频、长文档等多种视觉内容的能力在 41 个公开的多模态基准测试中达到了同级别开源模型的顶尖水平此外,模型还新增了“思考模式”开关,允许用户在快速响应和深度推理之间灵活选择,以平衡效率与效果。"
},
"zai/glm-4.5": {
"description": "GLM-4.5 系列模型是专门为智能体设计的基础模型。旗舰 GLM-4.5 集成了 3550 亿总参数320 亿活跃),统一了推理、编码和代理能力以解决复杂的应用需求。作为混合推理系统,它提供双重操作模式。"
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 和 GLM-4.5-Air 是我们最新的旗舰模型,专门设计为面向代理应用的基础模型。两者都利用混合专家 (MoE) 架构。GLM-4.5 的总参数数为 3550 亿,每次前向传递有 320 亿活跃参数,而 GLM-4.5-Air 采用更简化的设计,总参数数为 1060 亿,活跃参数为 120 亿。"
},
"zai/glm-4.5v": {
"description": "GLM-4.5V 基于 GLM-4.5-Air 基础模型构建,继承了 GLM-4.1V-Thinking 的经过验证的技术,同时通过强大的 1060 亿参数 MoE 架构实现了有效的扩展。"
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 是一个配对编程助手你只需用自然语言描述想法它就能为你的项目生成代码和用户界面UI"
},
"vercelaigateway": {
"description": "Vercel AI Gateway 提供统一的 API 来访问 100+ 模型,通过单一端点即可使用 OpenAI、Anthropic、Google 等多个提供商的模型。支持预算设置、使用监控、请求负载均衡和故障转移。"
},
"vertexai": {
"description": "Google 的 Gemini 系列是其最先进、通用的 AI模型由 Google DeepMind 打造专为多模态设计支持文本、代码、图像、音频和视频的无缝理解与处理。适用于从数据中心到移动设备的多种环境极大提升了AI模型的效率与应用广泛性。"
},

View file

@ -602,6 +602,33 @@
"ai21-labs/AI21-Jamba-1.5-Mini": {
"description": "一個 52B 參數12B 活躍)的多語言模型,提供 256K 長上下文視窗、函數呼叫、結構化輸出和基於事實的生成。"
},
"alibaba/qwen-3-14b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型語言模型,提供了一套全面的密集和混合專家 (MoE) 模型。基於廣泛的訓練構建Qwen3 在推理、指令遵循、代理能力和多語言支持方面提供了突破性的進展。"
},
"alibaba/qwen-3-235b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型語言模型,提供了一套全面的密集和混合專家 (MoE) 模型。基於廣泛的訓練構建Qwen3 在推理、指令遵循、代理能力和多語言支持方面提供了突破性的進展。"
},
"alibaba/qwen-3-30b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型語言模型,提供了一套全面的密集和混合專家 (MoE) 模型。基於廣泛的訓練構建Qwen3 在推理、指令遵循、代理能力和多語言支持方面提供了突破性的進展。"
},
"alibaba/qwen-3-32b": {
"description": "Qwen3 是 Qwen 系列中最新一代的大型語言模型,提供了一套全面的密集和混合專家 (MoE) 模型。基於廣泛的訓練構建Qwen3 在推理、指令遵循、代理能力和多語言支持方面提供了突破性的進展。"
},
"alibaba/qwen3-coder": {
"description": "Qwen3-Coder-480B-A35B-Instruct 是 Qwen 最具代理性的程式碼模型,在代理編碼、代理瀏覽器使用和其他基礎編碼任務方面具有顯著性能,達到了與 Claude Sonnet 相當的結果。"
},
"amazon/nova-lite": {
"description": "一個非常低成本的多模態模型,處理影像、影片和文字輸入的速度極快。"
},
"amazon/nova-micro": {
"description": "一個僅文字模型,以非常低的成本提供最低延遲的回應。"
},
"amazon/nova-pro": {
"description": "一個高度能幹的多模態模型,具有準確性、速度和成本的最佳組合,適用於廣泛的任務。"
},
"amazon/titan-embed-text-v2": {
"description": "Amazon Titan Text Embeddings V2 是一個輕量級、高效的多語言嵌入模型,支援 1024、512 和 256 維度。"
},
"anthropic.claude-3-5-sonnet-20240620-v1:0": {
"description": "Claude 3.5 Sonnet提升了行業標準性能超過競爭對手模型和Claude 3 Opus在廣泛的評估中表現出色同時具有我們中等層級模型的速度和成本。"
},
@ -627,25 +654,28 @@
"description": "Claude 2的更新版具有雙倍的上下文窗口以及在長文檔和RAG上下文中的可靠性、幻覺率和基於證據的準確性的改進。"
},
"anthropic/claude-3-haiku": {
"description": "Claude 3 Haiku 是 Anthropic 的最快且最緊湊的模型,旨在實現近乎即時的響應。它具有快速且準確的定向性能。"
"description": "Claude 3 Haiku 是 Anthropic 迄今為止最快的模型專為通常涉及較長提示的企業工作負載而設計。Haiku 可以快速分析大量文件,如季度文件、合約或法律案件,成本是其性能等級中其他模型的一半。"
},
"anthropic/claude-3-opus": {
"description": "Claude 3 Opus 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智能、流暢性和理解力方面表現卓越。"
"description": "Claude 3 Opus 是 Anthropic 最智能的模型,在高度複雜的任務上具有市場領先的性能。它能夠以卓越的流暢度和類人理解力駕馭開放式提示和前所未見的場景。"
},
"anthropic/claude-3.5-haiku": {
"description": "Claude 3.5 Haiku 是 Anthropic 最快的下一代模型。與 Claude 3 Haiku 相比Claude 3.5 Haiku 在各項技能上都有所提升,並在許多智力基準測試中超越了上一代最大的模型 Claude 3 Opus。"
"description": "Claude 3.5 Haiku 是我們最快模型的下一代。與 Claude 3 Haiku 的速度相似Claude 3.5 Haiku 在每個技能集上都得到了改進,並在許多智能基準測試中超越了我們上一代最大的模型 Claude 3 Opus。"
},
"anthropic/claude-3.5-sonnet": {
"description": "Claude 3.5 Sonnet 提供了超越 Opus 的能力和比 Sonnet 更快的速度,同時保持與 Sonnet 相同的價格。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
"description": "Claude 3.5 Sonnet 在智能和速度之間達到了理想的平衡——特別是對於企業工作負載。與同類產品相比,它以更低的成本提供了強大的性能,並專為大規模 AI 部署中的高耐久性而設計。"
},
"anthropic/claude-3.7-sonnet": {
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今為止最智能的模型也是市場上首個混合推理模型。Claude 3.7 Sonnet 可以產生近乎即時的回應或延長的逐步思考使用者可以清晰地看到這些過程。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
"description": "Claude 3.7 Sonnet 是第一個混合推理模型,也是 Anthropic 迄今為止最智能的模型。它在編碼、內容生成、資料分析和規劃任務方面提供了最先進的性能,在其前身 Claude 3.5 Sonnet 的軟體工程和電腦使用能力基礎上進行了構建。"
},
"anthropic/claude-opus-4": {
"description": "Claude Opus 4 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智慧、流暢性和理解力方面表現卓越。"
"description": "Claude Opus 4 是 Anthropic 迄今為止最強大的模型,也是世界上最好的編碼模型,在 SWE-bench (72.5%) 和 Terminal-bench (43.2%) 上領先。它為需要專注努力和數千個步驟的長期任務提供持續性能,能夠連續工作數小時——顯著擴展了 AI 代理的能力。"
},
"anthropic/claude-opus-4.1": {
"description": "Claude Opus 4.1 是 Opus 4 的即插即用替代品為實際編碼和代理任務提供卓越的性能和精度。Opus 4.1 將最先進的編碼性能提升到 SWE-bench Verified 的 74.5%,並以更高的嚴謹性和對細節的關注處理複雜的多步問題。"
},
"anthropic/claude-sonnet-4": {
"description": "Claude Sonnet 4 可以產生近乎即時的回應或延長的逐步思考使用者可以清楚地看到這些過程。API 使用者還可以對模型思考的時間進行細緻的控制。"
"description": "Claude Sonnet 4 在 Sonnet 3.7 的行業領先能力基礎上進行了顯著改進,在編碼方面表現出色,在 SWE-bench 上達到了最先進的 72.7%。該模型在性能和效率之間取得了平衡,適用於內部和外部用例,並透過增強的可控性實現對實現的更大控制。"
},
"ascend-tribe/pangu-pro-moe": {
"description": "Pangu-Pro-MoE 72B-A16B 是一款 720 億參數、激活 160 億參的稀疏大型語言模型它基於分組混合專家MoGE架構它在專家選擇階段對專家進行分組並約束 token 在每個組內激活等量專家,從而實現專家負載均衡,顯著提升模型在昇騰平台的部署效率。"
@ -797,6 +827,18 @@
"cohere/Cohere-command-r-plus": {
"description": "Command R+ 是一個最先進的 RAG 優化模型,旨在應對企業級工作負載。"
},
"cohere/command-a": {
"description": "Command A 是 Cohere 迄今為止性能最強的模型,在工具使用、代理、檢索增強生成 (RAG) 和多語言用例方面表現出色。Command A 的上下文長度為 256K僅需兩個 GPU 即可運行,與 Command R+ 08-2024 相比吞吐量提高了 150%。"
},
"cohere/command-r": {
"description": "Command R 是一個針對對話互動和長上下文任務優化的大型語言模型。它定位於「可擴展」類別的模型,在高性能和強準確性之間取得平衡,使公司能夠超越概念驗證並進入生產。"
},
"cohere/command-r-plus": {
"description": "Command R+ 是 Cohere 最新的大型語言模型,針對對話互動和長上下文任務進行了優化。它的目標是在性能上極其出色,使公司能夠超越概念驗證並進入生產。"
},
"cohere/embed-v4.0": {
"description": "一個允許對文字、影像或混合內容進行分類或轉換為嵌入的模型。"
},
"command": {
"description": "一個遵循指令的對話模型,在語言任務中表現出高質量、更可靠,並且相比我們的基礎生成模型具有更長的上下文長度。"
},
@ -975,7 +1017,7 @@
"description": "DeepSeek-V3.1 是一款支援 128K 長上下文與高效模式切換的大型混合推理模型,它在工具調用、程式碼生成和複雜推理任務上實現了卓越的效能與速度。"
},
"deepseek/deepseek-r1": {
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
"description": "DeepSeek R1 模型已經進行了小版本升級,當前版本為 DeepSeek-R1-0528。在最新更新中DeepSeek R1 透過利用增加的計算資源和在訓練後引入演算法優化機制,顯著提高了推理深度和推理能力。該模型在數學、程式設計和一般邏輯等多個基準評估中表現出色,其整體性能現在正接近領先模型,如 O3 和 Gemini 2.5 Pro。"
},
"deepseek/deepseek-r1-0528": {
"description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
@ -984,7 +1026,7 @@
"description": "DeepSeek-R1 在僅有極少標註資料的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-r1-distill-llama-70b": {
"description": "DeepSeek R1 Distill Llama 70B是基於Llama3.3 70B的大型語言模型該模型利用DeepSeek R1輸出的微調實現了與大型前沿模型相當的競爭性能。"
"description": "DeepSeek-R1-Distill-Llama-70B 是 70B Llama 模型的蒸餾、更高效變體。它在文字生成任務中保持強大性能,減少計算開銷以便於部署和研究。由 Groq 使用其自訂語言處理單元 (LPU) 硬體提供服務,以提供快速高效的推理。"
},
"deepseek/deepseek-r1-distill-llama-8b": {
"description": "DeepSeek R1 Distill Llama 8B是一種基於Llama-3.1-8B-Instruct的蒸餾大語言模型通過使用DeepSeek R1的輸出進行訓練而得。"
@ -1002,7 +1044,10 @@
"description": "DeepSeek-R1 在僅有極少標註數據的情況下,極大提升了模型推理能力。在輸出最終回答之前,模型會先輸出一段思維鏈內容,以提升最終答案的準確性。"
},
"deepseek/deepseek-v3": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力MLA和DeepSeekMoE架構這些架構在DeepSeek-V2中得到了全面驗證。此外DeepSeek-V3開創了一種用於負載均衡的輔助無損策略並設定了多標記預測訓練目標以獲得更強的性能。"
"description": "具有增強推理能力的快速通用大型語言模型"
},
"deepseek/deepseek-v3.1-base": {
"description": "DeepSeek V3.1 Base 是 DeepSeek V3 模型的改進版本。"
},
"deepseek/deepseek-v3/community": {
"description": "DeepSeek-V3在推理速度方面實現了比之前模型的重大突破。在開源模型中排名第一並可與全球最先進的閉源模型相媲美。DeepSeek-V3 采用了多頭潛在注意力MLA和DeepSeekMoE架構這些架構在DeepSeek-V2中得到了全面驗證。此外DeepSeek-V3開創了一種用於負載均衡的輔助無損策略並設定了多標記預測訓練目標以獲得更強的性能。"
@ -1430,18 +1475,27 @@
"glm-zero-preview": {
"description": "GLM-Zero-Preview具備強大的複雜推理能力在邏輯推理、數學、程式設計等領域表現優異。"
},
"google/gemini-2.0-flash": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進的功能,包括卓越的速度、內建工具使用、多模態生成和 100 萬 token 的上下文視窗。"
},
"google/gemini-2.0-flash-001": {
"description": "Gemini 2.0 Flash 提供下一代功能和改進包括卓越的速度、原生工具使用、多模態生成和1M令牌上下文窗口。"
},
"google/gemini-2.0-flash-exp:free": {
"description": "Gemini 2.0 Flash Experimental 是 Google 最新的實驗性多模態 AI 模型,與歷史版本相比有一定的質量提升,特別是對於世界知識、程式碼和長上下文。"
},
"google/gemini-2.0-flash-lite": {
"description": "Gemini 2.0 Flash Lite 提供下一代功能和改進的功能,包括卓越的速度、內建工具使用、多模態生成和 100 萬 token 的上下文視窗。"
},
"google/gemini-2.5-flash": {
"description": "Gemini 2.5 Flash 是 Google 最先進的主力模型,專為高階推理、編碼、數學和科學任務而設計。它包含內建的「思考」能力,使其能夠提供具有更高準確性和細緻上下文處理的回應。\n\n注意此模型有兩個變體思考和非思考。輸出定價根據思考能力是否啟用而有顯著差異。如果您選擇標準變體不帶「:thinking」後綴模型將明確避免生成思考令牌。\n\n要利用思考能力並接收思考令牌您必須選擇「:thinking」變體這將產生較高的思考輸出定價。\n\n此外Gemini 2.5 Flash 可透過「推理最大令牌數」參數進行配置,如文件中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
"description": "Gemini 2.5 Flash 是一個思考模型,提供出色的全面能力。它旨在價格和性能之間取得平衡,支援多模態和 100 萬 token 的上下文視窗。"
},
"google/gemini-2.5-flash-image-preview": {
"description": "Gemini 2.5 Flash 實驗模型,支援圖像生成"
},
"google/gemini-2.5-flash-lite": {
"description": "Gemini 2.5 Flash-Lite 是一個平衡、低延遲的模型具有可配置的思考預算和工具連接性例如Google Search 接地和程式碼執行)。它支援多模態輸入,並提供 100 萬 token 的上下文視窗。"
},
"google/gemini-2.5-flash-preview": {
"description": "Gemini 2.5 Flash 是 Google 最先進的主力模型,專為高級推理、編碼、數學和科學任務而設計。它包含內建的「思考」能力,使其能夠提供具有更高準確性和細緻上下文處理的回應。\n\n注意此模型有兩個變體思考和非思考。輸出定價根據思考能力是否啟用而有顯著差異。如果您選擇標準變體不帶「:thinking」後綴模型將明確避免生成思考令牌。\n\n要利用思考能力並接收思考令牌您必須選擇「:thinking」變體這將產生更高的思考輸出定價。\n\n此外Gemini 2.5 Flash 可通過「推理最大令牌數」參數進行配置,如文檔中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
@ -1449,11 +1503,14 @@
"description": "Gemini 2.5 Flash 是 Google 最先進的主力模型,專為高級推理、編碼、數學和科學任務而設計。它包含內建的「思考」能力,使其能夠提供具有更高準確性和細緻上下文處理的回應。\n\n注意此模型有兩個變體思考和非思考。輸出定價根據思考能力是否啟用而有顯著差異。如果您選擇標準變體不帶「:thinking」後綴模型將明確避免生成思考令牌。\n\n要利用思考能力並接收思考令牌您必須選擇「:thinking」變體這將產生更高的思考輸出定價。\n\n此外Gemini 2.5 Flash 可通過「推理最大令牌數」參數進行配置,如文檔中所述 (https://openrouter.ai/docs/use-cases/reasoning-tokens#max-tokens-for-reasoning)。"
},
"google/gemini-2.5-pro": {
"description": "Gemini 2.5 Pro 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
"description": "Gemini 2.5 Pro 是我們最先進的推理 Gemini 模型,能夠解決複雜問題。它具有 200 萬 token 的上下文視窗,支援包括文字、影像、音訊、影片和 PDF 文件在內的多模態輸入。"
},
"google/gemini-2.5-pro-preview": {
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
},
"google/gemini-embedding-001": {
"description": "最先進的嵌入模型,在英語、多語言和程式碼任務中具有出色的性能。"
},
"google/gemini-flash-1.5": {
"description": "Gemini 1.5 Flash 提供了優化後的多模態處理能力,適用於多種複雜任務場景。"
},
@ -1490,6 +1547,12 @@
"google/gemma-3-27b-it": {
"description": "Gemma 3 27B 是谷歌的一款開源語言模型,以其在效率和性能方面設立了新的標準。"
},
"google/text-embedding-005": {
"description": "針對程式碼和英語語言任務優化的英語聚焦文字嵌入模型。"
},
"google/text-multilingual-embedding-002": {
"description": "針對跨語言任務優化的多語言文字嵌入模型,支援多種語言。"
},
"gpt-3.5-turbo": {
"description": "GPT 3.5 Turbo適用於各種文本生成和理解任務Currently points to gpt-3.5-turbo-0125"
},
@ -1781,6 +1844,9 @@
"imagen-4.0-ultra-generate-preview-06-06": {
"description": "Imagen 第四代文字轉圖像模型系列 超級版"
},
"inception/mercury-coder-small": {
"description": "Mercury Coder Small 是程式碼生成、除錯和重構任務的理想選擇,具有最小延遲。"
},
"inclusionAI/Ling-mini-2.0": {
"description": "Ling-mini-2.0 是一款基於 MoE 架構的小尺寸高效能大型語言模型。它擁有 16B 總參數,但每個 token 僅激活 1.4Bnon-embedding 789M從而實現了極高的生成速度。得益於高效的 MoE 設計與大規模高品質訓練資料,儘管激活參數僅為 1.4BLing-mini-2.0 依然在下游任務中展現出可媲美 10B 以下 dense LLM 及更大規模 MoE 模型的頂尖性能。"
},
@ -2057,30 +2123,63 @@
"meta/Meta-Llama-3.1-8B-Instruct": {
"description": "Llama 3.1 指令調校的文本模型,針對多語言對話用例進行優化,在許多可用的開源和封閉聊天模型中,在常見產業基準上表現優異。"
},
"meta/llama-3-70b": {
"description": "由 Meta 精心調整用於指令遵循目的的 700 億參數開源模型。由 Groq 使用其自訂語言處理單元 (LPU) 硬體提供服務,以提供快速高效的推理。"
},
"meta/llama-3-8b": {
"description": "由 Meta 精心調整用於指令遵循目的的 80 億參數開源模型。由 Groq 使用其自訂語言處理單元 (LPU) 硬體提供服務,以提供快速高效的推理。"
},
"meta/llama-3.1-405b-instruct": {
"description": "高級 LLM支持合成數據生成、知識蒸餾和推理適用於聊天機器人、編程和特定領域任務。"
},
"meta/llama-3.1-70b": {
"description": "Meta Llama 3 70B Instruct 的更新版本,包括擴展的 128K 上下文長度、多語言和改進的推理能力。"
},
"meta/llama-3.1-70b-instruct": {
"description": "賦能複雜對話,具備卓越的上下文理解、推理能力和文本生成能力。"
},
"meta/llama-3.1-8b": {
"description": "Llama 3.1 8B 支援 128K 上下文視窗,使其成為即時對話介面和資料分析的理想選擇,同時與更大的模型相比提供顯著的成本節省。由 Groq 使用其自訂語言處理單元 (LPU) 硬體提供服務,以提供快速高效的推理。"
},
"meta/llama-3.1-8b-instruct": {
"description": "先進的最尖端模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-11b": {
"description": "指令調整的影像推理生成模型(文字 + 影像輸入 / 文字輸出),針對視覺識別、影像推理、標題生成和回答關於影像的一般問題進行了優化。"
},
"meta/llama-3.2-11b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.2-1b": {
"description": "僅文字模型,支援裝置上用例,如多語言本地知識檢索、摘要和重寫。"
},
"meta/llama-3.2-1b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-3b": {
"description": "僅文字模型,精心調整用於支援裝置上用例,如多語言本地知識檢索、摘要和重寫。"
},
"meta/llama-3.2-3b-instruct": {
"description": "先進的最尖端小型語言模型,具備語言理解、卓越的推理能力和文本生成能力。"
},
"meta/llama-3.2-90b": {
"description": "指令調整的影像推理生成模型(文字 + 影像輸入 / 文字輸出),針對視覺識別、影像推理、標題生成和回答關於影像的一般問題進行了優化。"
},
"meta/llama-3.2-90b-vision-instruct": {
"description": "尖端的視覺-語言模型,擅長從圖像中進行高品質推理。"
},
"meta/llama-3.3-70b": {
"description": "性能與效率的完美結合。該模型支援高性能對話 AI專為內容創建、企業應用和研究而設計提供先進的語言理解能力包括文字摘要、分類、情感分析和程式碼生成。"
},
"meta/llama-3.3-70b-instruct": {
"description": "先進的 LLM擅長推理、數學、常識和函數調用。"
},
"meta/llama-4-maverick": {
"description": "Llama 4 模型集合是原生多模態 AI 模型支援文字和多模態體驗。這些模型利用混合專家架構在文字和影像理解方面提供行業領先的性能。Llama 4 Maverick一個 170 億參數模型,具有 128 個專家。由 DeepInfra 提供服務。"
},
"meta/llama-4-scout": {
"description": "Llama 4 模型集合是原生多模態 AI 模型支援文字和多模態體驗。這些模型利用混合專家架構在文字和影像理解方面提供行業領先的性能。Llama 4 Scout一個 170 億參數模型,具有 16 個專家。由 DeepInfra 提供服務。"
},
"microsoft/Phi-3-medium-128k-instruct": {
"description": "相同的 Phi-3-medium 模型,但具有更大的上下文大小,適用於 RAG 或少量提示。"
},
@ -2156,6 +2255,48 @@
"mistral-small-latest": {
"description": "Mistral Small是一個成本效益高、快速且可靠的選擇適用於翻譯、摘要和情感分析等用例。"
},
"mistral/codestral": {
"description": "Mistral Codestral 25.01 是最先進的編碼模型,針對低延遲、高頻率用例進行了優化。精通 80 多種程式語言,它在中間填充 (FIM)、程式碼糾正和測試生成等任務上表現出色。"
},
"mistral/codestral-embed": {
"description": "可以嵌入程式碼資料庫和儲存庫以支援編碼助手的程式碼嵌入模型。"
},
"mistral/devstral-small": {
"description": "Devstral 是一個用於軟體工程任務的代理大型語言模型,使其成為軟體工程代理的絕佳選擇。"
},
"mistral/magistral-medium": {
"description": "複雜思維,由深刻理解支持,具有您可以遵循和驗證的透明推理。該模型即使在任務中途切換語言時,也能在眾多語言中保持高保真推理。"
},
"mistral/magistral-small": {
"description": "複雜思維,由深刻理解支持,具有您可以遵循和驗證的透明推理。該模型即使在任務中途切換語言時,也能在眾多語言中保持高保真推理。"
},
"mistral/ministral-3b": {
"description": "一個緊湊、高效的模型,用於智慧助理和本地分析等裝置上任務,提供低延遲性能。"
},
"mistral/ministral-8b": {
"description": "一個更強大的模型,具有更快、記憶體高效的推理,是複雜工作流程和要求苛刻的邊緣應用的理想選擇。"
},
"mistral/mistral-embed": {
"description": "用於語義搜尋、相似性、聚類和 RAG 工作流程的通用文字嵌入模型。"
},
"mistral/mistral-large": {
"description": "Mistral Large 是複雜任務的理想選擇這些任務需要大型推理能力或高度專業化——如合成文字生成、程式碼生成、RAG 或代理。"
},
"mistral/mistral-saba-24b": {
"description": "Mistral Saba 24B 是一個由 Mistral.ai 開發的 240 億參數開源模型。Saba 是一個專門訓練以在阿拉伯語、波斯語、烏爾都語、希伯來語和印度語言方面表現出色的專門模型。由 Groq 使用其自訂語言處理單元 (LPU) 硬體提供服務,以提供快速高效的推理。"
},
"mistral/mistral-small": {
"description": "Mistral Small 是簡單任務的理想選擇,這些任務可以批量完成——如分類、客戶支援或文字生成。它以可負擔的價格點提供出色的性能。"
},
"mistral/mixtral-8x22b-instruct": {
"description": "8x22b Instruct 模型。8x22b 是由 Mistral 提供服務的混合專家開源模型。"
},
"mistral/pixtral-12b": {
"description": "一個具有影像理解能力的 12B 模型,以及文字。"
},
"mistral/pixtral-large": {
"description": "Pixtral Large 是我們多模態家族中的第二個模型,展示了前沿水平的影像理解。特別是,該模型能夠理解文件、圖表和自然影像,同時保持了 Mistral Large 2 的領先文字理解能力。"
},
"mistralai/Mistral-7B-Instruct-v0.1": {
"description": "Mistral (7B) Instruct 以高性能著稱,適用於多種語言任務。"
},
@ -2222,12 +2363,21 @@
"moonshotai/Kimi-K2-Instruct-0905": {
"description": "Kimi K2-Instruct-0905 是 Kimi K2 最新、最強大的版本。它是一款頂尖的混合專家MoE語言模型擁有 1 兆的總參數和 320 億的激活參數。該模型的主要特性包括:增強的智能體編碼智能,在公開基準測試和真實世界的編碼智能體任務中表現出顯著的性能提升;改進的前端編碼體驗,在前端程式設計的美觀性和實用性方面均有進步。"
},
"moonshotai/kimi-k2": {
"description": "Kimi K2 是由月之暗面 AI 開發的大規模混合專家 (MoE) 語言模型,具有 1 兆總參數和每次前向傳遞 320 億激活參數。它針對代理能力進行了優化,包括高級工具使用、推理和程式碼合成。"
},
"moonshotai/kimi-k2-0905": {
"description": "kimi-k2-0905-preview 模型上下文長度為 256k具備更強的 Agentic Coding 能力、更突出的前端程式碼的美觀度和實用性、以及更好的上下文理解能力。"
},
"moonshotai/kimi-k2-instruct-0905": {
"description": "kimi-k2-0905-preview 模型上下文長度為 256k具備更強的 Agentic Coding 能力、更突出的前端程式碼的美觀度和實用性、以及更好的上下文理解能力。"
},
"morph/morph-v3-fast": {
"description": "Morph 提供了一個專門的 AI 模型,將前沿模型(如 Claude 或 GPT-4o建議的程式碼更改應用到您的現有程式碼檔案中 FAST - 4500+ tokens/秒。它充當 AI 編碼工作流程中的最後一步。支援 16k 輸入 tokens 和 16k 輸出 tokens。"
},
"morph/morph-v3-large": {
"description": "Morph 提供了一個專門的 AI 模型,將前沿模型(如 Claude 或 GPT-4o建議的程式碼更改應用到您的現有程式碼檔案中 FAST - 2500+ tokens/秒。它充當 AI 編碼工作流程中的最後一步。支援 16k 輸入 tokens 和 16k 輸出 tokens。"
},
"nousresearch/hermes-2-pro-llama-3-8b": {
"description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的升級版本,包含最新的內部開發的數據集。"
},
@ -2294,29 +2444,47 @@
"open-mixtral-8x7b": {
"description": "Mixtral 8x7B 是一個稀疏專家模型,利用多個參數提高推理速度,適合處理多語言和代碼生成任務。"
},
"openai/gpt-3.5-turbo": {
"description": "OpenAI 在 GPT-3.5 系列中最能幹且最具成本效益的模型,針對聊天目的進行了優化,但在傳統完成任務中也表現良好。"
},
"openai/gpt-3.5-turbo-instruct": {
"description": "與 GPT-3 時代模型類似的能力。與傳統的完成端點相容,而不是聊天完成端點。"
},
"openai/gpt-4-turbo": {
"description": "來自 OpenAI 的 gpt-4-turbo 具有廣泛的通用知識和領域專長,使其能夠遵循自然語言的複雜指令並準確解決困難問題。它的知識截止日期為 2023 年 4 月,上下文視窗為 128,000 個 token。"
},
"openai/gpt-4.1": {
"description": "GPT-4.1 是我們用於複雜任務的旗艦模型。它非常適合跨領域解決問題。"
"description": "GPT 4.1 是 OpenAI 的旗艦模型,適用於複雜任務。它非常適合跨領域解決問題。"
},
"openai/gpt-4.1-mini": {
"description": "GPT-4.1 mini 提供了智能、速度和成本之間的平衡,使其成為許多用例中有吸引力的模型。"
"description": "GPT 4.1 mini 在智能、速度和成本之間取得了平衡,使其成為許多用例的有吸引力的模型。"
},
"openai/gpt-4.1-nano": {
"description": "GPT-4.1 nano 是最快、最具成本效益的 GPT-4.1 模型。"
"description": "GPT-4.1 nano 是最快、最具成本效益的 GPT 4.1 模型。"
},
"openai/gpt-4o": {
"description": "ChatGPT-4o 是一款動態模型,實時更新以保持當前最新版本。它結合了強大的語言理解與生成能力,適合於大規模應用場景,包括客戶服務、教育和技術支持。"
"description": "GPT-4o 來自 OpenAI具有廣泛的通用知識和領域專長能夠遵循自然語言的複雜指令並準確解決難題。它以更快、更便宜的 API 匹配 GPT-4 Turbo 的性能。"
},
"openai/gpt-4o-mini": {
"description": "GPT-4o mini是OpenAI在GPT-4 Omni之後推出的最新模型支持圖文輸入並輸出文本。作為他們最先進的小型模型它比其他近期的前沿模型便宜很多並且比GPT-3.5 Turbo便宜超過60%。它保持了最先進的智能同時具有顯著的性價比。GPT-4o mini在MMLU測試中獲得了82%的得分目前在聊天偏好上排名高於GPT-4。"
"description": "GPT-4o mini 來自 OpenAI 是他們最先進且最具成本效益的小模型。它是多模態的(接受文字或影像輸入並輸出文字),並且比 gpt-3.5-turbo 具有更高的智能性,但速度同樣快。"
},
"openai/gpt-5": {
"description": "GPT-5 是 OpenAI 的旗艦語言模型,在複雜推理、廣泛的現實世界知識、程式碼密集型和多步代理任務方面表現出色。"
},
"openai/gpt-5-mini": {
"description": "GPT-5 mini 是一個成本優化的模型,在推理/聊天任務方面表現出色。它在速度、成本和能力之間提供了最佳平衡。"
},
"openai/gpt-5-nano": {
"description": "GPT-5 nano 是一個高吞吐量模型,在簡單指令或分類任務方面表現出色。"
},
"openai/gpt-oss-120b": {
"description": "OpenAI GPT-OSS 120B 是一款擁有 1200 億參數的頂尖語言模型,內建瀏覽器搜尋和程式碼執行功能,並具備推理能力。"
"description": "極其能幹的通用大型語言模型,具有強大、可控的推理能力"
},
"openai/gpt-oss-20b": {
"description": "OpenAI GPT-OSS 20B 是一款擁有 200 億參數的頂尖語言模型,內建瀏覽器搜尋和程式碼執行功能,並具備推理能力。"
"description": "一個緊湊、開源權重的語言模型,針對低延遲和資源受限環境進行了優化,包括本地和邊緣部署"
},
"openai/o1": {
"description": "o1 是 OpenAI 新的推理模型,支援圖文輸入並輸出文本,適用於需要廣泛通用知識的複雜任務。該模型具有 200K 上下文和 2023 年 10 月的知識截止日期。"
"description": "OpenAI 的 o1 是旗艦推理模型,專為需要深度思考的複雜問題而設計。它為複雜多步任務提供了強大的推理能力和更高的準確性。"
},
"openai/o1-mini": {
"description": "o1-mini是一款針對程式設計、數學和科學應用場景而設計的快速、經濟高效的推理模型。該模型具有128K上下文和2023年10月的知識截止日期。"
@ -2325,23 +2493,44 @@
"description": "o1是OpenAI新的推理模型適用於需要廣泛通用知識的複雜任務。該模型具有128K上下文和2023年10月的知識截止日期。"
},
"openai/o3": {
"description": "o3 是一款全能強大的模型,在多個領域表現出色。它為數學、科學、程式設計和視覺推理任務樹立了新標杆。它也擅長技術寫作和指令遵循。用戶可利用它分析文本、程式碼和圖像,解決多步驟的複雜問題。"
"description": "OpenAI 的 o3 是最強大的推理模型,在編碼、數學、科學和視覺感知方面設立了新的最先進水平。它擅長需要多方面分析的複雜查詢,在分析影像、圖表和圖形方面具有特殊優勢。"
},
"openai/o3-mini": {
"description": "o3-mini o1-mini 相同成本和延遲目標下提供高智能。"
"description": "o3-mini 是 OpenAI 最新的小型推理模型,在 o1-mini 相同成本和延遲目標下提供高智能。"
},
"openai/o3-mini-high": {
"description": "o3-mini 高推理等級版,在與 o1-mini 相同的成本和延遲目標下提供高智能。"
},
"openai/o4-mini": {
"description": "o4-mini 專為快速有效的推理而優化,在編碼和視覺任務中表現出極高的效率和性能。"
"description": "OpenAI 的 o4-mini 提供快速、成本效益高的推理在其尺寸上具有卓越性能特別是在數學AIME 基準測試中表現最佳)、編碼和視覺任務方面。"
},
"openai/o4-mini-high": {
"description": "o4-mini 高推理等級版,專為快速有效的推理而優化,在編碼和視覺任務中表現出極高的效率和性能。"
},
"openai/text-embedding-3-large": {
"description": "OpenAI 最能幹的嵌入模型,適用於英語和非英語任務。"
},
"openai/text-embedding-3-small": {
"description": "OpenAI 改進的、性能更高的 ada 嵌入模型版本。"
},
"openai/text-embedding-ada-002": {
"description": "OpenAI 的傳統文字嵌入模型。"
},
"openrouter/auto": {
"description": "根據上下文長度、主題和複雜性,你的請求將發送到 Llama 3 70B Instruct、Claude 3.5 Sonnet自我調節或 GPT-4o。"
},
"perplexity/sonar": {
"description": "Perplexity 的輕量級產品,具有搜尋接地能力,比 Sonar Pro 更快、更便宜。"
},
"perplexity/sonar-pro": {
"description": "Perplexity 的旗艦產品,具有搜尋接地能力,支援高級查詢和後續操作。"
},
"perplexity/sonar-reasoning": {
"description": "一個專注於推理的模型,在回應中輸出思維鏈 (CoT),提供具有搜尋接地的詳細解釋。"
},
"perplexity/sonar-reasoning-pro": {
"description": "一個高級推理聚焦模型,在回應中輸出思維鏈 (CoT),提供具有增強搜尋能力和每個請求多個搜尋查詢的綜合解釋。"
},
"phi3": {
"description": "Phi-3 是微軟推出的輕量級開放模型,適用於高效集成和大規模知識推理。"
},
@ -2804,6 +2993,12 @@
"v0-1.5-md": {
"description": "v0-1.5-md 模型適用於日常任務和使用者介面UI生成"
},
"vercel/v0-1.0-md": {
"description": "訪問 v0 背後的模型以生成、修復和優化現代 Web 應用,具有特定框架的推理和最新知識。"
},
"vercel/v0-1.5-md": {
"description": "訪問 v0 背後的模型以生成、修復和優化現代 Web 應用,具有特定框架的推理和最新知識。"
},
"wan2.2-t2i-flash": {
"description": "萬相2.2極速版,當前最新模型。在創意性、穩定性、寫實質感上全面升級,生成速度快,性價比高。"
},
@ -2834,6 +3029,27 @@
"x1": {
"description": "Spark X1 模型將進一步升級,在原來數學任務國內領先的基礎上,推理、文本生成、語言理解等通用任務實現效果對標 OpenAI o1 和 DeepSeek R1。"
},
"xai/grok-2": {
"description": "Grok 2 是一個具有最先進推理能力的前沿語言模型。它在聊天、編碼和推理方面具有先進能力,在 LMSYS 排行榜上優於 Claude 3.5 Sonnet 和 GPT-4-Turbo。"
},
"xai/grok-2-vision": {
"description": "Grok 2 視覺模型在基於視覺的任務方面表現出色,在視覺數學推理 (MathVista) 和基於文件的問答 (DocVQA) 方面提供最先進的性能。它能夠處理各種視覺資訊,包括文件、圖表、圖表、螢幕截圖和照片。"
},
"xai/grok-3": {
"description": "xAI 的旗艦模型,在企業用例方面表現出色,如資料提取、編碼和文字摘要。在金融、醫療保健、法律和科學領域擁有深厚的領域知識。"
},
"xai/grok-3-fast": {
"description": "xAI 的旗艦模型,在企業用例方面表現出色,如資料提取、編碼和文字摘要。在金融、醫療保健、法律和科學領域擁有深厚的領域知識。快速模型變體在更快的基礎設施上提供服務,提供比標準快得多的回應時間。增加的速度以每個輸出 token 更高的成本為代價。"
},
"xai/grok-3-mini": {
"description": "xAI 的輕量級模型,在回應之前進行思考。非常適合不需要深厚領域知識的簡單或基於邏輯的任務。原始思維軌跡可訪問。"
},
"xai/grok-3-mini-fast": {
"description": "xAI 的輕量級模型,在回應之前進行思考。非常適合不需要深厚領域知識的簡單或基於邏輯的任務。原始思維軌跡可訪問。快速模型變體在更快的基礎設施上提供服務,提供比標準快得多的回應時間。增加的速度以每個輸出 token 更高的成本為代價。"
},
"xai/grok-4": {
"description": "xAI 最新和最偉大的旗艦模型,在自然語言、數學和推理方面提供無與倫比的性能——完美的全能選手。"
},
"yi-1.5-34b-chat": {
"description": "Yi-1.5 是 Yi 的升級版本。它使用 500B Tokens 的高品質語料庫在 Yi 上持續進行預訓練,並在 3M 個多樣化的微調樣本上進行微調。"
},
@ -2881,5 +3097,14 @@
},
"zai-org/GLM-4.5V": {
"description": "GLM-4.5V 是由智譜 AIZhipu AI發布的最新一代視覺語言模型VLM。該模型基於擁有 106B 總參數和 12B 激活參數的旗艦文本模型 GLM-4.5-Air 構建採用了混合專家MoE架構旨在以更低的推理成本實現卓越性能。GLM-4.5V 在技術上延續了 GLM-4.1V-Thinking 的路線並引入了三維旋轉位置編碼3D-RoPE等創新顯著增強了對三維空間關係的感知與推理能力。透過在預訓練、監督微調和強化學習階段的優化該模型具備處理影像、影片、長文檔等多種視覺內容的能力在 41 個公開的多模態基準測試中達到同級別開源模型的頂尖水準。此外,模型還新增了「思考模式」開關,允許使用者在快速回應與深度推理之間靈活選擇,以平衡效率與效果。"
},
"zai/glm-4.5": {
"description": "GLM-4.5 系列模型是專門為智能體設計的基礎模型。旗艦 GLM-4.5 整合了 3550 億總參數320 億活躍),統一了推理、編碼和代理能力以解決複雜的應用需求。作為混合推理系統,它提供雙重操作模式。"
},
"zai/glm-4.5-air": {
"description": "GLM-4.5 和 GLM-4.5-Air 是我們最新的旗艦模型,專門設計為面向代理應用的基礎模型。兩者都利用混合專家 (MoE) 架構。GLM-4.5 的總參數數為 3550 億,每次前向傳遞有 320 億活躍參數,而 GLM-4.5-Air 採用更簡化的設計,總參數數為 1060 億,活躍參數為 120 億。"
},
"zai/glm-4.5v": {
"description": "GLM-4.5V 基於 GLM-4.5-Air 基礎模型構建,繼承了 GLM-4.1V-Thinking 的經過驗證的技術,同時透過強大的 1060 億參數 MoE 架構實現了有效的擴展。"
}
}

View file

@ -161,6 +161,9 @@
"v0": {
"description": "v0 是一個配對程式設計助手你只需用自然語言描述想法它就能為你的專案生成程式碼和使用者介面UI"
},
"vercelaigateway": {
"description": "Vercel AI Gateway 提供統一的 API 來存取 100 多個模型,透過單一端點即可使用 OpenAI、Anthropic、Google 等多個供應商的模型。支援預算設定、使用監控、請求負載平衡和故障轉移。"
},
"vertexai": {
"description": "Google 的 Gemini 系列是其最先進、通用的 AI 模型,由 Google DeepMind 打造,專為多模態設計,支持文本、程式碼、圖像、音訊和視頻的無縫理解與處理。適用於從數據中心到行動裝置的多種環境,極大提升了 AI 模型的效率與應用廣泛性。"
},