mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 17:47:27 +00:00
🐛 fix: Restore reasoningEffort in setting (#8123)
* restore reasoningEffort setting
* ✨ feat: update reasoning effort handling in AgentModal
* i18n
* i18n
This commit is contained in:
parent
f405b03fa4
commit
3be609c3aa
39 changed files with 634 additions and 325 deletions
|
|
@ -24,6 +24,7 @@ module.exports = defineConfig({
|
|||
'fa-IR',
|
||||
],
|
||||
temperature: 0,
|
||||
saveImmediately: true,
|
||||
modelName: 'gpt-4.1-mini',
|
||||
experimental: {
|
||||
jsonMode: true,
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "النسخة المحدثة من نموذج Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct هو نموذج لغوي كبير تم تعديله وفقًا للتعليمات في سلسلة Qwen2، بحجم 1.5B. يعتمد هذا النموذج على بنية Transformer، ويستخدم تقنيات مثل دالة تنشيط SwiGLU، وتحويل QKV، والانتباه الجماعي. أظهر أداءً ممتازًا في فهم اللغة، والتوليد، والقدرات متعددة اللغات، والترميز، والرياضيات، والاستدلال في العديد من اختبارات المعايير، متجاوزًا معظم النماذج مفتوحة المصدر."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct هو نموذج لغوي كبير تم تعديله وفقًا للتعليمات في سلسلة Qwen2، بحجم 7B. يعتمد هذا النموذج على بنية Transformer، ويستخدم تقنيات مثل دالة تنشيط SwiGLU، وتحويل QKV، والانتباه الجماعي. يمكنه معالجة المدخلات الكبيرة. أظهر النموذج أداءً ممتازًا في فهم اللغة، والتوليد، والقدرات متعددة اللغات، والترميز، والرياضيات، والاستدلال في العديد من اختبارات المعايير، متجاوزًا معظم النماذج مفتوحة المصدر."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL هو النسخة الأحدث من نموذج Qwen-VL، وقد حقق أداءً متقدمًا في اختبارات الفهم البصري."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct هو أحد أحدث نماذج اللغة الكبيرة التي أصدرتها Alibaba Cloud. يتمتع هذا النموذج بقدرات محسنة بشكل ملحوظ في مجالات الترميز والرياضيات. كما يوفر دعمًا للغات متعددة، تغطي أكثر من 29 لغة، بما في ذلك الصينية والإنجليزية. أظهر النموذج تحسينات ملحوظة في اتباع التعليمات، وفهم البيانات الهيكلية، وتوليد المخرجات الهيكلية (خاصة JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL)، يعالج مشاكل التكرار وقابلية القراءة في النماذج. قبل التعلم المعزز، أدخل DeepSeek-R1 بيانات بدء باردة لتحسين أداء الاستدلال. يظهر أداءً مماثلًا لـ OpenAI-o1 في مهام الرياضيات، البرمجة، والاستدلال، مع تحسينات شاملة بفضل طرق التدريب المصممة بعناية."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B هو نموذج تم الحصول عليه من خلال تقطير المعرفة بناءً على Qwen2.5-Math-1.5B. تم ضبط هذا النموذج باستخدام 800 ألف عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1، حيث أظهر أداءً جيدًا في معايير متعددة. كنموذج خفيف الوزن، حقق دقة 83.9٪ في MATH-500، ومعدل نجاح 28.9٪ في AIME 2024، وحصل على تقييم 954 في CodeForces، مما يظهر قدرة استدلالية تتجاوز حجم معلماته."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B هو نموذج تم الحصول عليه من خلال تقطير المعرفة بناءً على Qwen2.5-Math-7B. تم ضبط هذا النموذج باستخدام 800 ألف عينة مختارة تم إنشاؤها بواسطة DeepSeek-R1، مما يظهر قدرات استدلالية ممتازة. أظهر أداءً متميزًا في العديد من الاختبارات المعيارية، حيث حقق دقة 92.8٪ في MATH-500، ومعدل نجاح 55.5٪ في AIME 2024، ودرجة 1189 في CodeForces، مما يظهر قدرات قوية في الرياضيات والبرمجة كنموذج بحجم 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview هو أحدث نموذج بحث تجريبي من Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي. من خلال استكشاف آليات معقدة مثل خلط اللغة والاستدلال التكراري، تشمل المزايا الرئيسية القدرة القوية على التحليل الاستدلالي، والقدرات الرياضية والبرمجية. في الوقت نفسه، هناك أيضًا مشكلات في تبديل اللغة، ودورات الاستدلال، واعتبارات الأمان، واختلافات في القدرات الأخرى."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct هو نموذج لغوي كبير تم تعديله وفقًا للتعليمات في سلسلة Qwen2، بحجم 1.5B. يعتمد هذا النموذج على بنية Transformer، ويستخدم تقنيات مثل دالة تنشيط SwiGLU، وتحويل QKV، والانتباه الجماعي. أظهر أداءً ممتازًا في فهم اللغة، والتوليد، والقدرات متعددة اللغات، والترميز، والرياضيات، والاستدلال في العديد من اختبارات المعايير، متجاوزًا معظم النماذج مفتوحة المصدر."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 هو نموذج لغوي عام متقدم، يدعم أنواع متعددة من التعليمات."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 هو نموذج استدلال عميق يتمتع بقدرة على التفكير العميق (مقابل Deep Research من OpenAI). على عكس نماذج التفكير العميق التقليدية، يستخدم نموذج التفكير العميق وقتًا أطول لحل المشكلات الأكثر انفتاحًا وتعقيدًا."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B هو نموذج مفتوح المصدر من سلسلة ChatGLM، تم تطويره بواسطة Zhizhu AI. يحتفظ هذا النموذج بخصائص الجيل السابق الممتازة، مثل سلاسة المحادثة وانخفاض عتبة النشر، بينما يقدم ميزات جديدة. تم تدريبه على بيانات تدريب أكثر تنوعًا، وعدد أكبر من خطوات التدريب، واستراتيجيات تدريب أكثر منطقية، مما يجعله نموذجًا ممتازًا بين النماذج المدربة مسبقًا التي تقل عن 10B. يدعم ChatGLM3-6B المحادثات متعددة الجولات، واستدعاء الأدوات، وتنفيذ الشيفرة، ومهام الوكلاء في سيناريوهات معقدة. بالإضافة إلى نموذج المحادثة، تم إصدار النموذج الأساسي ChatGLM-6B-Base ونموذج المحادثة الطويلة ChatGLM3-6B-32K. النموذج مفتوح بالكامل للأبحاث الأكاديمية، ويسمح بالاستخدام التجاري المجاني بعد التسجيل."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B هو إصدار مفتوح المصدر، يوفر تجربة حوار محسنة لتطبيقات الحوار."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet هو أكثر النماذج ذكاءً من Anthropic حتى الآن، وهو أيضًا أول نموذج مختلط للتفكير في السوق. يمكن لـ Claude 3.7 Sonnet إنتاج استجابات شبه فورية أو تفكير تدريجي ممتد، حيث يمكن للمستخدمين رؤية هذه العمليات بوضوح. يتميز Sonnet بشكل خاص في البرمجة، وعلوم البيانات، ومعالجة الصور، والمهام الوكيلة."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "كلود أوبوس 4 هو أقوى نموذج من أنثروبيك لمعالجة المهام المعقدة للغاية. يتميز بأداء ممتاز وذكاء وسلاسة وفهم عميق."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "كلود سونيت 4 يمكنه إنتاج استجابات شبه فورية أو تفكير تدريجي مطول، حيث يمكن للمستخدمين رؤية هذه العمليات بوضوح. كما يمكن لمستخدمي API التحكم بدقة في مدة تفكير النموذج."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 هو نموذج متعدد اللغات أطلقته Cohere، يدعم 23 لغة، مما يسهل التطبيقات اللغوية المتنوعة."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 هو نموذج استدلال مدفوع بالتعلم المعزز (RL) يعالج مشكلات التكرار وقابلية القراءة في النموذج. قبل استخدام RL، قدم DeepSeek-R1 بيانات بدء باردة، مما أدى إلى تحسين أداء الاستدلال. إنه يقدم أداءً مماثلاً لـ OpenAI-o1 في المهام الرياضية والبرمجية والاستدلال، وقد حسّن النتائج العامة من خلال طرق تدريب مصممة بعناية."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "نموذج كامل القوة بحجم 685 مليار، صدر في 28 مايو 2025. استخدم DeepSeek-R1 تقنيات التعلم المعزز على نطاق واسع في مرحلة ما بعد التدريب، مما عزز بشكل كبير قدرات الاستدلال للنموذج مع وجود بيانات تعليمية قليلة جدًا. يتمتع بأداء عالي وقدرات قوية في المهام المتعلقة بالرياضيات، البرمجة، والاستدلال اللغوي الطبيعي."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B النسخة السريعة، تدعم البحث المتصل في الوقت الحقيقي، وتوفر سرعة استجابة أسرع مع الحفاظ على أداء النموذج."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview هو نموذج التفكير الأكثر تقدمًا من Google، قادر على الاستدلال حول الشيفرات، الرياضيات، والمشكلات المعقدة في مجالات STEM، بالإضافة إلى تحليل مجموعات البيانات الكبيرة، ومكتبات الشيفرات، والمستندات باستخدام سياقات طويلة."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "جيميني 2.5 برو بريڤيو هو أحدث نموذج تفكيري من جوجل، قادر على استنتاج حلول للمشكلات المعقدة في مجالات البرمجة، الرياضيات، والعلوم والتكنولوجيا والهندسة والرياضيات (STEM)، بالإضافة إلى تحليل مجموعات بيانات كبيرة، قواعد بيانات البرمجة، والوثائق باستخدام سياق طويل."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B مناسب لمعالجة المهام المتوسطة والصغيرة، ويجمع بين الكفاءة من حيث التكلفة."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "تعزيز قدرة توليد الأكواد على مستوى المشروع؛ تحسين جودة كتابة النصوص المولدة؛ تعزيز قدرة فهم النصوص متعددة الجولات، والامتثال لتعليمات toB، وفهم الكلمات؛ تحسين مشاكل الخلط بين النصوص المبسطة والتقليدية والخلط بين اللغات الصينية والإنجليزية في المخرجات."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "محسن لإنشاء النصوص وكتابة المقالات، مع تحسين القدرات في البرمجة الأمامية، الرياضيات، والمنطق العلمي، بالإضافة إلى تعزيز القدرة على اتباع التعليمات."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "أول نموذج استدلال هجين ضخم في الصناعة، يوسع قدرات الاستدلال، بسرعة فك تشفير فائقة، ويعزز التوافق مع تفضيلات البشر."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "ترقية قاعدة التدريب المسبق لتعزيز فهم القاعدة والامتثال للتعليمات؛ تعزيز القدرات العلمية مثل الرياضيات، البرمجة، المنطق، والعلوم خلال مرحلة المحاذاة؛ تحسين جودة الكتابة الإبداعية، فهم النصوص، دقة الترجمة، والإجابة على الأسئلة المعرفية في المجالات الأدبية؛ تعزيز قدرات الوكلاء في مختلف المجالات، مع التركيز على تحسين فهم الحوار متعدد الجولات."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "ترقية قاعدة التدريب المسبق، مع تحسينات في مهارات الكتابة وفهم القراءة، وزيادة كبيرة في القدرات البرمجية والعلمية، وتحسين مستمر في اتباع التعليمات المعقدة."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS هو أحدث إصدار من نموذج هونيان الرائد، يتمتع بقدرات تفكير أقوى وتجربة أفضل."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "نموذج Hunyuan الأحدث متعدد الوسائط، يدعم إدخال الصور والنصوص لتوليد محتوى نصي."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "نموذج مفتوح المصدر مبتكر InternLM2.5، يعزز الذكاء الحواري من خلال عدد كبير من المعلمات."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 يوفر حلول حوار ذكية في عدة سيناريوهات."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "نموذج Tongyi Qianwen QVQ للاستدلال البصري، يدعم الإدخال البصري وإخراج سلسلة التفكير، ويظهر قدرة أقوى في الرياضيات، البرمجة، التحليل البصري، الإبداع، والمهام العامة."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "نموذج استدلال بصري يدعم الإدخال البصري وإخراج سلسلة التفكير. النسخة بلس التي تلت نموذج qvq-max، تتميز بسرعة استدلال أعلى وتوازن أفضل بين الأداء والتكلفة مقارنة بنموذج qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "نموذج Tongyi Qianwen للبرمجة."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "تمكين الحد الأقصى للردود"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "تمكين ضبط قوة الاستدلال"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "كلما زادت القيمة، كانت المفردات أكثر تنوعًا؛ وكلما انخفضت القيمة، كانت المفردات أكثر بساطة ووضوحًا",
|
||||
"title": "تنوع المفردات"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "كلما زادت القيمة، زادت الميل إلى استخدام تعبيرات مختلفة، مما يتجنب تكرار المفاهيم؛ وكلما انخفضت القيمة، زادت الميل إلى استخدام المفاهيم أو السرد المتكرر، مما يجعل التعبير أكثر اتساقًا",
|
||||
"title": "تنوع التعبير"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "كلما زادت القيمة، زادت قوة الاستدلال، ولكن قد يؤدي ذلك إلى زيادة وقت الاستجابة واستهلاك الرموز",
|
||||
"options": {
|
||||
"high": "عالي",
|
||||
"low": "منخفض",
|
||||
"medium": "متوسط"
|
||||
},
|
||||
"title": "قوة الاستدلال"
|
||||
},
|
||||
"submit": "تحديث إعدادات النموذج",
|
||||
"temperature": {
|
||||
"desc": "كلما زادت القيمة، كانت الإجابات أكثر إبداعًا وخيالًا؛ وكلما انخفضت القيمة، كانت الإجابات أكثر دقة",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Актуализирана версия на модела Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct е голям езиков модел с параметри 1.5B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели. В сравнение с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct показва значителни подобрения в тестовете MMLU, HumanEval, GSM8K, C-Eval и IFEval, въпреки че параметрите са малко по-малко."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct е голям езиков модел с параметри 7B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той може да обработва големи входни данни. Моделът показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели и показвайки конкурентоспособност на определени задачи в сравнение с патентовани модели. Qwen2-7B-Instruct показва значителни подобрения в множество оценки в сравнение с Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL е най-новата итерация на модела Qwen-VL, който е постигнал водещи резултати в тестовете за визуално разбиране."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct е един от най-новите големи езикови модели, публикувани от Alibaba Cloud. Този 7B модел показва значителни подобрения в областите на кодирането и математиката. Моделът предлага многоезична поддръжка, обхващаща над 29 езика, включително китайски, английски и др. Моделът показва значителни подобрения в следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 е модел за разсъждение, задвижван от усилено обучение (RL), който решава проблеми с повторяемост и четимост в модела. Преди RL, DeepSeek-R1 въвежда студено стартиране на данни за допълнително оптимизиране на разсъжденията. Моделът постига резултати, сравними с OpenAI-o1 в задачи по математика, кодиране и разсъждение, и подобрява общата ефективност чрез внимателно проектирани методи за обучение."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B е модел, получен чрез дистилация на знания от Qwen2.5-Math-1.5B. Моделът е фино настроен с 800 000 избрани проби, генерирани от DeepSeek-R1, и демонстрира добро представяне в множество тестове. Като лек модел, той постига 83,9% точност в MATH-500, 28,9% успеваемост в AIME 2024 и рейтинг от 954 в CodeForces, показвайки способности за разсъждение, които надхвърлят неговия мащаб на параметри."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B е модел, получен чрез дистилация на знания от Qwen2.5-Math-7B. Този модел е фино настроен с 800 000 избрани проби, генерирани от DeepSeek-R1, и демонстрира изключителни способности за разсъждение. Той се представя отлично в множество тестове, постигайки 92,8% точност в MATH-500, 55,5% успеваемост в AIME 2024 и рейтинг от 1189 в CodeForces, показвайки силни математически и програмистки способности за модел с мащаб 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview е най-новият експериментален изследователски модел на Qwen, който се фокусира върху подобряване на AI разсъдъчните способности. Чрез изследване на сложни механизми като езикови смеси и рекурсивно разсъждение, основните предимства включват мощни аналитични способности, математически и програмистки умения. В същото време съществуват проблеми с езиковото превключване, цикли на разсъждение, съображения за безопасност и разлики в други способности."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct е голям езиков модел с параметри 1.5B от серията Qwen2, специално настроен за инструкции. Моделът е базиран на архитектурата Transformer и използва технологии като SwiGLU активационна функция, QKV отклонение за внимание и групова внимание. Той показва отлични резултати в множество бенчмаркове за разбиране на езика, генериране, многоезични способности, кодиране, математика и разсъждения, надминавайки повечето отворени модели. В сравнение с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct показва значителни подобрения в тестовете MMLU, HumanEval, GSM8K, C-Eval и IFEval, въпреки че параметрите са малко по-малко."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 е напреднал универсален езиков модел, поддържащ множество типове инструкции."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 е модел за дълбочинно разсъждение с дълбоки способности за разсъждение (сравним с Deep Research на OpenAI). За разлика от типичните модели за дълбочинно разсъждение, моделът за разсъждение използва по-дълго време за дълбочинно разсъждение, за да решава по-отворени и сложни проблеми."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B е отворен модел от серията ChatGLM, разработен от Zhizhu AI. Моделът запазва отличителните характеристики на предшествениците си, като плавност на разговора и ниски изисквания за внедряване, докато въвежда нови функции. Той използва по-разнообразни тренировъчни данни, по-пълноценни тренировъчни стъпки и по-разумни тренировъчни стратегии, показвайки отлични резултати сред предварително обучените модели под 10B. ChatGLM3-6B поддържа многократни разговори, извикване на инструменти, изпълнение на код и сложни сценарии на задачи на агенти. Освен модела за разговори, са отворени и основният модел ChatGLM-6B-Base и моделът за дълги текстови разговори ChatGLM3-6B-32K. Моделът е напълно отворен за академични изследвания и позволява безплатна търговска употреба след регистрация."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B е отворен код версия, предоставяща оптимизирано изживяване в разговорните приложения."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic до момента и е първият хибриден модел за разсъждение на пазара. Claude 3.7 Sonnet може да генерира почти мигновени отговори или удължено стъпково мислене, което позволява на потребителите ясно да видят тези процеси. Sonnet е особено добър в програмирането, науката за данни, визуалната обработка и агентските задачи."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 е най-мощният модел на Anthropic за справяне с изключително сложни задачи. Той се отличава с изключителна производителност, интелигентност, плавност и разбиране."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 може да генерира почти мигновени отговори или удължено стъпково мислене, което потребителите могат ясно да проследят. Потребителите на API също така имат прецизен контрол върху времето за мислене на модела."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 е многозначен модел, представен от Cohere, поддържащ 23 езика, предоставяйки удобство за многоезични приложения."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 е модел за извеждане, управляван от подсилено обучение (RL), който решава проблемите с повторяемостта и четимостта в модела. Преди RL, DeepSeek-R1 въвежда данни за студен старт, за да оптимизира допълнително производителността на извеждане. Той показва сравнима производителност с OpenAI-o1 в математически, кодови и извеждащи задачи и подобрява общите резултати чрез внимателно проектирани методи на обучение."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Пълноценен модел с 685 милиарда параметри, пуснат на 28 май 2025 г. DeepSeek-R1 използва мащабно обучение с подсилване в последващия етап на обучение, значително подобрявайки способността за разсъждение с минимални анотирани данни. Отличава се с висока производителност и способности в задачи по математика, кодиране и естествен езиков разсъждения."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B бърза версия, поддържаща търсене в реално време, предлагаща по-бърза скорост на отговор, без да компрометира производителността на модела."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview е най-напредналият модел на Google за мислене, способен да разсъждава по сложни проблеми в кодиране, математика и STEM области, както и да анализира големи набори от данни, кодови библиотеки и документи с дълъг контекст."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview е най-напредналият мисловен модел на Google, способен да разсъждава върху сложни проблеми в областта на кодирането, математиката и STEM, както и да анализира големи набори от данни, кодови бази и документи с дълъг контекст."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B е подходяща за обработка на средни и малки задачи, съчетаваща икономичност."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Подобряване на възможностите за генериране на код на проектно ниво; повишаване качеството на текстовото писане; подобряване на разбирането на теми, многократното следване на инструкции и разбирането на думи и изрази; оптимизиране на проблемите с изход, смесващ опростен и традиционен китайски, както и китайски и английски."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Оптимизиран за текстово творчество и писане на есета, подобрява уменията в кодирането, математиката и логическото разсъждение, както и способността за следване на инструкции."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Първият в индустрията свръхголям хибриден трансформаторен модел за инференция, който разширява инференционните способности, предлага изключителна скорост на декодиране и допълнително съгласува човешките предпочитания."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Актуализация на предварително обучената основа, засилване на разбирането и следването на инструкции; подобряване на научните способности в математика, кодиране, логика и наука по време на фазата на съгласуване; повишаване качеството на творческото писане, разбирането на текстове, точността на преводите и знанията в хуманитарните науки; засилване на възможностите на агенти в различни области, с особен акцент върху разбирането на многократни диалози."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Актуализирана предварително обучена основа, подобрени умения за писане и разбиране на текст, значително подобрени способности в кодирането и точните науки, както и непрекъснато усъвършенстване в следването на сложни инструкции."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS е последната версия на флагманския модел Hunyuan, с по-силни способности за разсъждение и по-добро потребителско изживяване."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Най-новият мултимодален модел на HunYuan, поддържащ генериране на текстово съдържание от изображения и текстови входове."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Иновативният отворен модел InternLM2.5 повишава интелигентността на диалога чрез голям брой параметри."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 предлага интелигентни решения за диалог в множество сценарии."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Tongyi Qianwen QVQ визуален разсъждаващ модел, поддържащ визуален вход и изход на мисловни вериги, показващ по-силни способности в математика, програмиране, визуален анализ, творчество и общи задачи."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Модел за визуално разсъждение. Поддържа визуален вход и изход на мисловни вериги. Версия plus, пусната след модела qvq-max, предлага по-бързо разсъждение и по-добър баланс между ефективност и разходи в сравнение с qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Tongyi Qianwen модел за кодиране."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Активиране на ограничението за максимален брой токени"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Активиране на настройката за интензивност на разсъжденията"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Колкото по-голяма е стойността, толкова по-богат и разнообразен е речникът; колкото по-ниска е стойността, толкова по-прост и обикновен е речникът.",
|
||||
"title": "Богатство на речника"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Колкото по-голяма е стойността, толкова по-склонен е към различни изрази, избягвайки повторение на концепции; колкото по-ниска е стойността, толкова по-склонен е да използва повторение на концепции или разкази, изразявайки по-голяма последователност.",
|
||||
"title": "Разнообразие на изразите"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Колкото по-висока е стойността, толкова по-силна е способността за разсъждение, но това може да увеличи времето за отговор и консумацията на токени",
|
||||
"options": {
|
||||
"high": "Високо",
|
||||
"low": "Ниско",
|
||||
"medium": "Средно"
|
||||
},
|
||||
"title": "Интензивност на разсъжденията"
|
||||
},
|
||||
"submit": "Актуализиране на настройките на модела",
|
||||
"temperature": {
|
||||
"desc": "Колкото по-голямо е числото, толкова по-креативни и въображаеми са отговорите; колкото по-малко е числото, толкова по-строги са отговорите",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Aktualisierte Version des Phi-3-vision-Modells."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct ist das anweisungsfeinabgestimmte große Sprachmodell der Qwen2-Serie mit einer Parametergröße von 1,5B. Dieses Modell basiert auf der Transformer-Architektur und verwendet Technologien wie die SwiGLU-Aktivierungsfunktion, QKV-Offsets und gruppierte Abfrageaufmerksamkeit. Es zeigt hervorragende Leistungen in der Sprachverständnis, -generierung, Mehrsprachigkeit, Codierung, Mathematik und Inferenz in mehreren Benchmark-Tests und übertrifft die meisten Open-Source-Modelle. Im Vergleich zu Qwen1.5-1.8B-Chat zeigt Qwen2-1.5B-Instruct in Tests wie MMLU, HumanEval, GSM8K, C-Eval und IFEval signifikante Leistungsverbesserungen, obwohl die Parameteranzahl etwas geringer ist."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct ist das anweisungsfeinabgestimmte große Sprachmodell der Qwen2-Serie mit einer Parametergröße von 7B. Dieses Modell basiert auf der Transformer-Architektur und verwendet Technologien wie die SwiGLU-Aktivierungsfunktion, QKV-Offsets und gruppierte Abfrageaufmerksamkeit. Es kann große Eingaben verarbeiten. Das Modell zeigt hervorragende Leistungen in der Sprachverständnis, -generierung, Mehrsprachigkeit, Codierung, Mathematik und Inferenz in mehreren Benchmark-Tests und übertrifft die meisten Open-Source-Modelle und zeigt in bestimmten Aufgaben eine vergleichbare Wettbewerbsfähigkeit mit proprietären Modellen. Qwen2-7B-Instruct übertrifft Qwen1.5-7B-Chat in mehreren Bewertungen und zeigt signifikante Leistungsverbesserungen."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL ist die neueste Iteration des Qwen-VL-Modells, das in visuellen Verständnis-Benchmarks erstklassige Leistungen erzielt."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct ist eines der neuesten großen Sprachmodelle, die von Alibaba Cloud veröffentlicht wurden. Dieses 7B-Modell hat signifikante Verbesserungen in den Bereichen Codierung und Mathematik. Das Modell bietet auch mehrsprachige Unterstützung und deckt über 29 Sprachen ab, einschließlich Chinesisch und Englisch. Es zeigt signifikante Verbesserungen in der Befolgung von Anweisungen, im Verständnis strukturierter Daten und in der Generierung strukturierter Ausgaben (insbesondere JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 ist ein durch verstärkendes Lernen (RL) gesteuertes Inferenzmodell, das Probleme der Wiederholungen und Lesbarkeit im Modell löst. Vor RL wurde ein Cold-Start-Datensatz eingeführt, um die Inferenzleistung weiter zu optimieren. Es zeigt vergleichbare Leistungen zu OpenAI-o1 in Mathematik, Programmierung und Inferenzaufgaben und verbessert die Gesamtleistung durch sorgfältig gestaltete Trainingsmethoden."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B ist ein Modell, das durch Wissensdistillierung auf Basis von Qwen2.5-Math-1.5B erstellt wurde. Dieses Modell wurde mit 800.000 sorgfältig ausgewählten Beispielen, die von DeepSeek-R1 generiert wurden, feinjustiert und zeigt in mehreren Benchmarks gute Leistungen. Als leichtgewichtiges Modell erreicht es eine Genauigkeit von 83,9 % auf MATH-500, einen Durchgangsrate von 28,9 % auf AIME 2024 und eine Bewertung von 954 auf CodeForces, was seine inferenziellen Fähigkeiten über seine Parametergröße hinaus zeigt."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B ist ein Modell, das durch Wissensdistillierung auf Basis von Qwen2.5-Math-7B erstellt wurde. Dieses Modell wurde mit 800.000 sorgfältig ausgewählten Beispielen, die von DeepSeek-R1 generiert wurden, feinjustiert und zeigt ausgezeichnete Inferenzfähigkeiten. Es erzielte in mehreren Benchmarks hervorragende Ergebnisse, darunter eine Genauigkeit von 92,8 % im MATH-500, einen Durchgangsrate von 55,5 % im AIME 2024 und eine Bewertung von 1189 auf CodeForces, was seine starken mathematischen und programmierischen Fähigkeiten als Modell mit 7B Parametern unterstreicht."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview ist das neueste experimentelle Forschungsmodell von Qwen, das sich auf die Verbesserung der KI-Inferenzfähigkeiten konzentriert. Durch die Erforschung komplexer Mechanismen wie Sprachmischung und rekursive Inferenz bietet es Hauptvorteile wie starke Analysefähigkeiten, mathematische und Programmierfähigkeiten. Gleichzeitig gibt es Herausforderungen wie Sprachwechsel, Inferenzzyklen, Sicherheitsüberlegungen und Unterschiede in anderen Fähigkeiten."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct ist das anweisungsfeinabgestimmte große Sprachmodell der Qwen2-Serie mit einer Parametergröße von 1,5B. Dieses Modell basiert auf der Transformer-Architektur und verwendet Technologien wie die SwiGLU-Aktivierungsfunktion, QKV-Offsets und gruppierte Abfrageaufmerksamkeit. Es zeigt hervorragende Leistungen in der Sprachverständnis, -generierung, Mehrsprachigkeit, Codierung, Mathematik und Inferenz in mehreren Benchmark-Tests und übertrifft die meisten Open-Source-Modelle. Im Vergleich zu Qwen1.5-1.8B-Chat zeigt Qwen2-1.5B-Instruct in Tests wie MMLU, HumanEval, GSM8K, C-Eval und IFEval signifikante Leistungsverbesserungen, obwohl die Parameteranzahl etwas geringer ist."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 ist ein fortschrittliches allgemeines Sprachmodell, das eine Vielzahl von Anweisungsarten unterstützt."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 ist ein tiefes Schlussfolgerungsmodell mit nachdenklichen Fähigkeiten (vergleichbar mit OpenAI's Deep Research). Im Gegensatz zu typischen tiefen Denkmodellen verwendet das nachdenkliche Modell längere Zeiträume des tiefen Denkens, um offenere und komplexere Probleme zu lösen."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B ist das Open-Source-Modell der ChatGLM-Serie, das von Zhizhu AI entwickelt wurde. Dieses Modell bewahrt die hervorragenden Eigenschaften der Vorgängermodelle, wie flüssige Dialoge und niedrige Bereitstellungskosten, während es neue Funktionen einführt. Es verwendet vielfältigere Trainingsdaten, eine größere Anzahl an Trainingsschritten und eine sinnvollere Trainingsstrategie und zeigt hervorragende Leistungen unter den vortrainierten Modellen mit weniger als 10B. ChatGLM3-6B unterstützt mehrstufige Dialoge, Tool-Aufrufe, Code-Ausführung und Agentenaufgaben in komplexen Szenarien. Neben dem Dialogmodell wurden auch das Basis-Modell ChatGLM-6B-Base und das lange Textdialogmodell ChatGLM3-6B-32K als Open Source veröffentlicht. Dieses Modell ist vollständig für akademische Forschung geöffnet und erlaubt auch kostenlose kommerzielle Nutzung nach Registrierung."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B ist die Open-Source-Version, die ein optimiertes Dialogerlebnis für Konversationsanwendungen bietet."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic bis heute und das erste hybride Inferenzmodell auf dem Markt. Claude 3.7 Sonnet kann nahezu sofortige Antworten oder verlängerte, schrittweise Überlegungen erzeugen, wobei die Benutzer diesen Prozess klar nachvollziehen können. Sonnet ist besonders gut in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und Agentenaufgaben."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic zur Bewältigung hochkomplexer Aufgaben. Es zeichnet sich durch herausragende Leistung, Intelligenz, Flüssigkeit und Verständnis aus."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder verlängerte schrittweise Überlegungen erzeugen, die für den Nutzer klar nachvollziehbar sind. API-Nutzer können zudem die Denkzeit des Modells präzise steuern."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 ist ein mehrsprachiges Modell von Cohere, das 23 Sprachen unterstützt und die Anwendung in einer Vielzahl von Sprachen erleichtert."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 ist ein durch verstärkendes Lernen (RL) gesteuertes Inferenzmodell, das die Probleme der Wiederholbarkeit und Lesbarkeit im Modell löst. Vor dem RL führte DeepSeek-R1 Kaltstartdaten ein, um die Inferenzleistung weiter zu optimieren. Es zeigt in mathematischen, programmierbezogenen und Inferenzaufgaben eine vergleichbare Leistung zu OpenAI-o1 und verbessert durch sorgfältig gestaltete Trainingsmethoden die Gesamteffizienz."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Das voll ausgestattete 685B-Modell, veröffentlicht am 28. Mai 2025. DeepSeek-R1 nutzt im Nachtrainingsprozess umfangreiche Verstärkungslernverfahren und verbessert die Modell-Inferenzfähigkeit erheblich, selbst bei minimalen annotierten Daten. Es zeigt hohe Leistung und starke Fähigkeiten in Mathematik, Programmierung und natürlicher Sprachlogik."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B Schnellversion, die Echtzeit-Online-Suche unterstützt und eine schnellere Reaktionszeit bei gleichbleibender Modellleistung bietet."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das in der Lage ist, komplexe Probleme in den Bereichen Code, Mathematik und STEM zu analysieren und große Datensätze, Codebasen und Dokumente mithilfe von Langzeitkontext zu analysieren."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Denkmodell, das komplexe Probleme in den Bereichen Code, Mathematik und MINT-Fächer lösen kann und große Datensätze, Codebasen und Dokumente mit langem Kontext analysiert."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B eignet sich für die Verarbeitung von mittelgroßen Aufgaben und bietet ein gutes Kosten-Nutzen-Verhältnis."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Verbesserung der Codegenerierungsfähigkeiten auf Projektebene; Steigerung der Qualität von Textgenerierung und Schreibstil; Verbesserung des Verständnisses von Themen in mehrstufigen Dialogen, Befehlsbefolgung und Wortverständnis; Optimierung von Ausgaben mit gemischten traditionellen und vereinfachten chinesischen Schriftzeichen sowie gemischten chinesisch-englischen Texten."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Optimiert für Textkreation und Aufsatzschreiben, verbessert die Fähigkeiten in Frontend-Programmierung, Mathematik und logischem Denken sowie die Befolgung von Anweisungen."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Das erste ultra-skalierbare Hybrid-Transformer-Mamba-Inferenzmodell der Branche, das die Inferenzfähigkeiten erweitert, eine extrem hohe Dekodierungsgeschwindigkeit bietet und weiter auf menschliche Präferenzen abgestimmt ist."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Upgrade der vortrainierten Basis zur Stärkung des Befehlsverständnisses und der Befehlsbefolgung; Verbesserung der naturwissenschaftlichen Fähigkeiten in Mathematik, Programmierung, Logik und Wissenschaft während der Feinabstimmungsphase; Steigerung der Qualität in literarischer Kreativität, Textverständnis, Übersetzungsgenauigkeit und Wissensfragen; Verstärkung der Agentenfähigkeiten in verschiedenen Bereichen mit Schwerpunkt auf dem Verständnis mehrstufiger Dialoge."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Upgrade der vortrainierten Basis, verbessert Schreib- und Leseverständnisfähigkeiten, steigert deutlich die Programmier- und naturwissenschaftlichen Kompetenzen und verbessert kontinuierlich die Befolgung komplexer Anweisungen."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS ist die neueste Version des Hunyuan-Flaggschiffmodells, das über verbesserte Denkfähigkeiten und ein besseres Nutzungserlebnis verfügt."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Das neueste multimodale Modell von Hunyuan unterstützt die Eingabe von Bildern und Text zur Generierung von Textinhalten."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Das innovative Open-Source-Modell InternLM2.5 hat durch eine große Anzahl von Parametern die Dialogintelligenz erhöht."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 bietet intelligente Dialoglösungen in mehreren Szenarien."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Tongyi Qianwen QVQ visuelles Schlussfolgerungsmodell, unterstützt visuelle Eingaben und Denkprozessketten-Ausgaben, zeigt stärkere Fähigkeiten in Mathematik, Programmierung, visueller Analyse, Kreativität und allgemeinen Aufgaben."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Visuelles Schlussfolgerungsmodell. Unterstützt visuelle Eingaben und Denkprozess-Ausgaben. Die Plus-Version, die auf dem qvq-max-Modell basiert, bietet schnellere Inferenzgeschwindigkeit sowie ein ausgewogeneres Verhältnis von Leistung und Kosten."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Tongyi Qianwen Codierungsmodell."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Maximale Token pro Antwort aktivieren"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Aktivieren der Anpassung der Schlussfolgerungsintensität"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Je höher der Wert, desto vielfältiger und abwechslungsreicher die Wortwahl; je niedriger der Wert, desto einfacher und schlichter die Wortwahl",
|
||||
"title": "Wortvielfalt"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Je höher der Wert, desto eher werden unterschiedliche Ausdrucksweisen bevorzugt, um Wiederholungen zu vermeiden; je niedriger der Wert, desto eher werden wiederholte Konzepte oder Erzählungen verwendet, was zu einer konsistenteren Ausdrucksweise führt",
|
||||
"title": "Ausdrucksvielfalt"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Je höher der Wert, desto stärker die Schlussfolgerungsfähigkeit, kann jedoch die Antwortzeit und den Token-Verbrauch erhöhen",
|
||||
"options": {
|
||||
"high": "Hoch",
|
||||
"low": "Niedrig",
|
||||
"medium": "Mittel"
|
||||
},
|
||||
"title": "Schlussfolgerungsintensität"
|
||||
},
|
||||
"submit": "Modell-Einstellungen aktualisieren",
|
||||
"temperature": {
|
||||
"desc": "Je höher der Wert, desto kreativer und einfallsreicher die Antworten; je niedriger der Wert, desto strenger die Antworten",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "An updated version of the Phi-3-vision model."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct is an instruction-tuned large language model in the Qwen2 series, with a parameter size of 1.5B. This model is based on the Transformer architecture and employs techniques such as the SwiGLU activation function, attention QKV bias, and group query attention. It excels in language understanding, generation, multilingual capabilities, coding, mathematics, and reasoning across multiple benchmark tests, surpassing most open-source models. Compared to Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct shows significant performance improvements in tests such as MMLU, HumanEval, GSM8K, C-Eval, and IFEval, despite having slightly fewer parameters."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct is an instruction-tuned large language model in the Qwen2 series, with a parameter size of 7B. This model is based on the Transformer architecture and employs techniques such as the SwiGLU activation function, attention QKV bias, and group query attention. It can handle large-scale inputs. The model excels in language understanding, generation, multilingual capabilities, coding, mathematics, and reasoning across multiple benchmark tests, surpassing most open-source models and demonstrating competitive performance comparable to proprietary models in certain tasks. Qwen2-7B-Instruct outperforms Qwen1.5-7B-Chat in multiple evaluations, showing significant performance improvements."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL is the latest iteration of the Qwen-VL model, achieving state-of-the-art performance in visual understanding benchmarks."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct is one of the latest large language models released by Alibaba Cloud. This 7B model shows significant improvements in coding and mathematics. It also provides multilingual support, covering over 29 languages, including Chinese and English. The model has made notable advancements in instruction following, understanding structured data, and generating structured outputs, especially JSON."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 is a reinforcement learning (RL) driven reasoning model that addresses issues of repetition and readability. Before RL, it introduced cold-start data to further optimize reasoning performance. It performs comparably to OpenAI-o1 in mathematics, coding, and reasoning tasks and improves overall effectiveness through carefully designed training methods."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B is a model derived from Qwen2.5-Math-1.5B through knowledge distillation. Fine-tuned with 800,000 carefully selected samples generated by DeepSeek-R1, this model demonstrates commendable performance across multiple benchmarks. As a lightweight model, it achieves an accuracy of 83.9% on MATH-500, a pass rate of 28.9% on AIME 2024, and a score of 954 on CodeForces, showcasing reasoning capabilities that exceed its parameter scale."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B is a model derived from Qwen2.5-Math-7B through knowledge distillation. It was fine-tuned using 800,000 carefully selected samples generated by DeepSeek-R1, demonstrating exceptional reasoning capabilities. The model achieves outstanding performance across multiple benchmarks, including 92.8% accuracy on MATH-500, a 55.5% pass rate on AIME 2024, and a score of 1189 on CodeForces, showcasing strong mathematical and programming abilities for a 7B-scale model."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview is Qwen's latest experimental research model, focusing on enhancing AI reasoning capabilities. By exploring complex mechanisms such as language mixing and recursive reasoning, its main advantages include strong analytical reasoning, mathematical, and programming abilities. However, it also faces challenges such as language switching issues, reasoning loops, safety considerations, and differences in other capabilities."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct is an instruction-tuned large language model in the Qwen2 series, with a parameter size of 1.5B. This model is based on the Transformer architecture and employs techniques such as the SwiGLU activation function, attention QKV bias, and group query attention. It excels in language understanding, generation, multilingual capabilities, coding, mathematics, and reasoning across multiple benchmark tests, surpassing most open-source models. Compared to Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct shows significant performance improvements in tests such as MMLU, HumanEval, GSM8K, C-Eval, and IFEval, despite having slightly fewer parameters."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 is an advanced general-purpose language model that supports various types of instructions."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 is a deep reasoning model with reflective capabilities (comparable to OpenAI's Deep Research). Unlike typical deep thinking models, reflective models engage in longer periods of deep thought to tackle more open and complex problems."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B is an open-source model from the ChatGLM series, developed by Zhipu AI. This model retains the excellent features of its predecessor, such as smooth dialogue and low deployment barriers, while introducing new features. It utilizes more diverse training data, more extensive training steps, and more reasonable training strategies, performing exceptionally well among pre-trained models under 10B. ChatGLM3-6B supports multi-turn dialogues, tool invocation, code execution, and complex scenarios such as Agent tasks. In addition to the dialogue model, the foundational model ChatGLM-6B-Base and the long-text dialogue model ChatGLM3-6B-32K are also open-sourced. The model is fully open for academic research and allows free commercial use after registration."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B is an open-source version that provides an optimized conversational experience for chat applications."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet is Anthropic's most advanced model to date and the first hybrid reasoning model on the market. Claude 3.7 Sonnet can generate near-instant responses or extended step-by-step reasoning, allowing users to clearly observe these processes. Sonnet excels particularly in programming, data science, visual processing, and agent tasks."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 is Anthropic's most powerful model designed for handling highly complex tasks. It excels in performance, intelligence, fluency, and comprehension."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 can generate near-instant responses or extended step-by-step reasoning, allowing users to clearly observe these processes. API users also have fine-grained control over the model's thinking time."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 is a multilingual model launched by Cohere, supporting 23 languages, facilitating diverse language applications."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 is a reinforcement learning (RL) driven inference model that addresses issues of repetitiveness and readability within the model. Prior to RL, DeepSeek-R1 introduced cold start data to further optimize inference performance. It performs comparably to OpenAI-o1 in mathematical, coding, and reasoning tasks, and enhances overall effectiveness through meticulously designed training methods."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "The full-capacity 685B model released on May 28, 2025. DeepSeek-R1 extensively employs reinforcement learning during post-training, significantly enhancing reasoning capabilities with minimal labeled data. It demonstrates strong performance in mathematics, coding, and natural language reasoning tasks."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B fast version, supporting real-time online search, providing faster response times while maintaining model performance."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview is Google's most advanced reasoning model, capable of reasoning about complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long context."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview is Google's most advanced cognitive model, capable of reasoning through complex problems in code, mathematics, and STEM fields, as well as analyzing large datasets, codebases, and documents using long-context understanding."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B is suitable for medium to small-scale task processing, offering cost-effectiveness."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Enhance project-level code generation capabilities; improve the quality of text generation and writing; enhance multi-turn topic understanding, ToB instruction compliance, and word comprehension; optimize issues with mixed traditional and simplified Chinese as well as mixed Chinese and English output."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Optimized for text creation and essay writing, with enhanced abilities in frontend coding, mathematics, logical reasoning, and improved instruction-following capabilities."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "The industry's first ultra-large-scale Hybrid-Transformer-Mamba inference model, enhancing reasoning capabilities with exceptional decoding speed, further aligning with human preferences."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Upgrade the pre-training foundation to strengthen instruction understanding and compliance; enhance STEM abilities in mathematics, coding, logic, and science during alignment; improve humanities capabilities such as creative writing quality, text comprehension, translation accuracy, and knowledge Q&A; boost agent capabilities across various domains, with a focus on multi-turn dialogue understanding."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Upgraded pretraining foundation with improved writing and reading comprehension skills, significantly enhanced coding and STEM abilities, and continuous improvements in following complex instructions."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "The latest version of hunyuan-TurboS, the flagship model of Hunyuan, features enhanced reasoning capabilities and improved user experience."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "The latest multimodal model from Hunyuan, supporting image + text input to generate textual content."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "The innovative open-source model InternLM2.5 enhances dialogue intelligence through a large number of parameters."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 offers intelligent dialogue solutions across multiple scenarios."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Tongyi Qianwen QVQ visual reasoning model supports visual input and chain-of-thought output, demonstrating stronger capabilities in mathematics, programming, visual analysis, creation, and general tasks."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "A visual reasoning model supporting visual inputs and chain-of-thought outputs. The plus version, succeeding the qvq-max model, offers faster reasoning speed and a more balanced trade-off between performance and cost."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Tongyi Qianwen coding model."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Enable Max Tokens Limit"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Enable Reasoning Effort Adjustment"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "The higher the value, the more diverse and rich the vocabulary; the lower the value, the simpler and more straightforward the language.",
|
||||
"title": "Vocabulary Richness"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "The higher the value, the more inclined to use different expressions and avoid concept repetition; the lower the value, the more inclined to use repeated concepts or narratives, resulting in more consistent expression.",
|
||||
"title": "Expression Divergence"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Higher values enhance reasoning ability but may increase response time and token usage.",
|
||||
"options": {
|
||||
"high": "High",
|
||||
"low": "Low",
|
||||
"medium": "Medium"
|
||||
},
|
||||
"title": "Reasoning Effort"
|
||||
},
|
||||
"submit": "Update Model Settings",
|
||||
"temperature": {
|
||||
"desc": "The higher the value, the more creative and imaginative the responses; the lower the value, the more rigorous the responses.",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Versión actualizada del modelo Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct es un modelo de lenguaje a gran escala de ajuste fino por instrucciones dentro de la serie Qwen2, con un tamaño de parámetros de 1.5B. Este modelo se basa en la arquitectura Transformer, utilizando funciones de activación SwiGLU, sesgos de atención QKV y atención de consulta agrupada, entre otras técnicas. Ha destacado en múltiples pruebas de referencia en comprensión del lenguaje, generación, capacidad multilingüe, codificación, matemáticas y razonamiento, superando a la mayoría de los modelos de código abierto. En comparación con Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct ha mostrado mejoras significativas en pruebas como MMLU, HumanEval, GSM8K, C-Eval e IFEval, a pesar de tener un número de parámetros ligeramente menor."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct es un modelo de lenguaje a gran escala de ajuste fino por instrucciones dentro de la serie Qwen2, con un tamaño de parámetros de 7B. Este modelo se basa en la arquitectura Transformer, utilizando funciones de activación SwiGLU, sesgos de atención QKV y atención de consulta agrupada, entre otras técnicas. Es capaz de manejar entradas a gran escala. Este modelo ha destacado en múltiples pruebas de referencia en comprensión del lenguaje, generación, capacidad multilingüe, codificación, matemáticas y razonamiento, superando a la mayoría de los modelos de código abierto y mostrando competitividad comparable a modelos propietarios en ciertas tareas. Qwen2-7B-Instruct ha mostrado mejoras significativas en múltiples evaluaciones en comparación con Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL es la última iteración del modelo Qwen-VL, alcanzando un rendimiento de vanguardia en pruebas de comprensión visual."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct es uno de los últimos modelos de lenguaje a gran escala lanzados por Alibaba Cloud. Este modelo de 7B ha mejorado significativamente en áreas como codificación y matemáticas. También ofrece soporte multilingüe, abarcando más de 29 idiomas, incluidos chino e inglés. El modelo ha mostrado mejoras significativas en el seguimiento de instrucciones, comprensión de datos estructurados y generación de salidas estructuradas (especialmente JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 es un modelo de razonamiento impulsado por aprendizaje reforzado (RL) que aborda problemas de repetición y legibilidad en modelos. Antes del RL, DeepSeek-R1 introdujo datos de arranque en frío para optimizar aún más el rendimiento del razonamiento. Su desempeño en matemáticas, código y tareas de razonamiento es comparable a OpenAI-o1, y mejora el rendimiento general mediante métodos de entrenamiento cuidadosamente diseñados."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-Math-1.5B. Este modelo fue ajustado utilizando 800,000 muestras seleccionadas generadas por DeepSeek-R1, demostrando un rendimiento notable en múltiples benchmarks. Como modelo ligero, alcanzó una precisión del 83.9% en MATH-500, una tasa de aprobación del 28.9% en AIME 2024 y una puntuación de 954 en CodeForces, mostrando capacidades de razonamiento que superan su escala de parámetros."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B es un modelo obtenido mediante destilación de conocimiento basado en Qwen2.5-Math-7B. Este modelo se ha ajustado utilizando 800.000 muestras seleccionadas generadas por DeepSeek-R1, demostrando una excelente capacidad de razonamiento. Ha mostrado un rendimiento sobresaliente en múltiples pruebas de referencia, alcanzando un 92,8% de precisión en MATH-500, un 55,5% de tasa de aprobación en AIME 2024 y una puntuación de 1189 en CodeForces, lo que demuestra una fuerte capacidad matemática y de programación para un modelo de escala 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview es el último modelo de investigación experimental de Qwen, enfocado en mejorar la capacidad de razonamiento de la IA. A través de la exploración de mecanismos complejos como la mezcla de lenguajes y el razonamiento recursivo, sus principales ventajas incluyen una poderosa capacidad de análisis de razonamiento, así como habilidades matemáticas y de programación. Sin embargo, también presenta problemas de cambio de idioma, ciclos de razonamiento, consideraciones de seguridad y diferencias en otras capacidades."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct es un modelo de lenguaje a gran escala de ajuste fino por instrucciones dentro de la serie Qwen2, con un tamaño de parámetros de 1.5B. Este modelo se basa en la arquitectura Transformer, utilizando funciones de activación SwiGLU, sesgos de atención QKV y atención de consulta agrupada, entre otras técnicas. Ha destacado en múltiples pruebas de referencia en comprensión del lenguaje, generación, capacidad multilingüe, codificación, matemáticas y razonamiento, superando a la mayoría de los modelos de código abierto. En comparación con Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct ha mostrado mejoras significativas en pruebas como MMLU, HumanEval, GSM8K, C-Eval e IFEval, a pesar de tener un número de parámetros ligeramente menor."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 es un modelo de lenguaje general avanzado, que soporta múltiples tipos de instrucciones."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 es un modelo de inferencia profunda con capacidad de reflexión (en comparación con la investigación profunda de OpenAI). A diferencia de los modelos típicos de pensamiento profundo, el modelo de reflexión utiliza un tiempo de reflexión más prolongado para resolver problemas más abiertos y complejos."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B es un modelo de código abierto de la serie ChatGLM, desarrollado por Zhipu AI. Este modelo conserva las excelentes características de su predecesor, como la fluidez en el diálogo y un bajo umbral de implementación, al tiempo que introduce nuevas características. Utiliza datos de entrenamiento más diversos, un mayor número de pasos de entrenamiento y estrategias de entrenamiento más razonables, destacando entre los modelos preentrenados de menos de 10B. ChatGLM3-6B admite diálogos de múltiples turnos, llamadas a herramientas, ejecución de código y tareas de agente en escenarios complejos. Además del modelo de diálogo, también se han lanzado el modelo base ChatGLM-6B-Base y el modelo de diálogo de texto largo ChatGLM3-6B-32K. Este modelo está completamente abierto para la investigación académica y permite el uso comercial gratuito tras el registro."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B es una versión de código abierto, que proporciona una experiencia de conversación optimizada para aplicaciones de diálogo."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic hasta la fecha y el primer modelo de razonamiento híbrido en el mercado. Claude 3.7 Sonnet puede generar respuestas casi instantáneas o un pensamiento prolongado y gradual, permitiendo a los usuarios observar claramente estos procesos. Sonnet es especialmente hábil en programación, ciencia de datos, procesamiento visual y tareas de agente."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 es el modelo más potente de Anthropic para manejar tareas altamente complejas. Destaca por su rendimiento, inteligencia, fluidez y capacidad de comprensión excepcionales."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos prolongados paso a paso, que los usuarios pueden seguir claramente. Los usuarios de la API también pueden controlar con precisión el tiempo de reflexión del modelo."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 es un modelo multilingüe lanzado por Cohere, que admite 23 idiomas, facilitando aplicaciones de lenguaje diversas."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 es un modelo de inferencia impulsado por aprendizaje reforzado (RL) que aborda los problemas de repetitividad y legibilidad en el modelo. Antes de RL, DeepSeek-R1 introdujo datos de arranque en frío, optimizando aún más el rendimiento de la inferencia. Su desempeño en tareas matemáticas, de código e inferencia es comparable al de OpenAI-o1, y ha mejorado su efectividad general a través de métodos de entrenamiento cuidadosamente diseñados."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Modelo completo de 685 mil millones de parámetros, lanzado el 28 de mayo de 2025. DeepSeek-R1 utiliza técnicas de aprendizaje reforzado a gran escala en la fase de postentrenamiento, mejorando significativamente la capacidad de razonamiento del modelo con muy pocos datos etiquetados. Presenta alto rendimiento y gran capacidad en tareas de matemáticas, código y razonamiento en lenguaje natural."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B versión rápida, que soporta búsqueda en línea en tiempo real, ofreciendo una velocidad de respuesta más rápida mientras mantiene el rendimiento del modelo."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y campos STEM, así como de analizar grandes conjuntos de datos, bibliotecas de código y documentos utilizando un análisis de contexto prolongado."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview es el modelo de pensamiento más avanzado de Google, capaz de razonar sobre problemas complejos en código, matemáticas y áreas STEM, así como analizar grandes conjuntos de datos, bases de código y documentos utilizando contextos extensos."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B es adecuado para el procesamiento de tareas de pequeña y mediana escala, combinando rentabilidad."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Mejora la capacidad de generación de código a nivel de proyecto; mejora la calidad de la escritura generada en texto; mejora la comprensión de temas en texto, el seguimiento de instrucciones tob en múltiples rondas y la comprensión de palabras; optimiza problemas de salida con mezcla de caracteres tradicionales y simplificados, así como mezcla de chino e inglés."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Optimiza la creación de textos, redacción de ensayos, mejora habilidades en programación frontend, matemáticas y razonamiento lógico, y aumenta la capacidad de seguir instrucciones."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "El primer modelo de inferencia híbrido de gran escala Hybrid-Transformer-Mamba de la industria, que amplía la capacidad de inferencia, ofrece una velocidad de decodificación excepcional y alinea aún más con las preferencias humanas."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Actualización de la base de preentrenamiento para fortalecer la comprensión y el seguimiento de instrucciones; mejora en matemáticas, programación, lógica y ciencias durante la fase de alineación; mejora en calidad de escritura creativa, comprensión de texto, precisión en traducción y preguntas de conocimiento en humanidades; refuerzo de capacidades de agentes en diversos campos, con especial énfasis en la comprensión de diálogos multilínea."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Actualización de la base de preentrenamiento, mejora en la escritura y comprensión lectora, aumento significativo en habilidades de programación y ciencias, y progreso continuo en el seguimiento de instrucciones complejas."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS es la última versión del modelo insignia Hunyuan, con una mayor capacidad de pensamiento y una mejor experiencia."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "El último modelo multimodal de Hunyuan, que admite la entrada de imágenes y texto para generar contenido textual."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "El innovador modelo de código abierto InternLM2.5 mejora la inteligencia del diálogo mediante un gran número de parámetros."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 ofrece soluciones de diálogo inteligente en múltiples escenarios."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Modelo de razonamiento visual QVQ de Tongyi Qianwen, que soporta entrada visual y salida de cadena de pensamiento, mostrando capacidades superiores en matemáticas, programación, análisis visual, creación y tareas generales."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Modelo de razonamiento visual. Soporta entrada visual y salida en cadena de pensamiento. Versión plus lanzada tras el modelo qvq-max, con mayor velocidad de razonamiento y un equilibrio mejorado entre eficacia y coste en comparación con qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Modelo de código Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Activar límite de tokens por respuesta"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Activar ajuste de intensidad de razonamiento"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Cuanto mayor sea el valor, más rica y variada será la elección de palabras; cuanto menor sea el valor, más simples y directas serán las palabras.",
|
||||
"title": "Riqueza del vocabulario"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Cuanto mayor sea el valor, más se inclinará hacia diferentes formas de expresión, evitando la repetición de conceptos; cuanto menor sea el valor, más se inclinará hacia el uso de conceptos o narrativas repetidas, expresando mayor consistencia.",
|
||||
"title": "Diversidad de expresión"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Cuanto mayor sea el valor, más fuerte será la capacidad de razonamiento, pero puede aumentar el tiempo de respuesta y el consumo de tokens",
|
||||
"options": {
|
||||
"high": "Alto",
|
||||
"low": "Bajo",
|
||||
"medium": "Medio"
|
||||
},
|
||||
"title": "Intensidad de razonamiento"
|
||||
},
|
||||
"submit": "Actualizar configuración del modelo",
|
||||
"temperature": {
|
||||
"desc": "Cuanto mayor sea el valor, más creativas e imaginativas serán las respuestas; cuanto menor sea el valor, más rigurosas serán las respuestas",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "نسخه بهروزرسانیشده مدل Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 1.5B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته است. در مقایسه با Qwen1.5-1.8B-Chat، Qwen2-1.5B-Instruct در آزمونهای MMLU، HumanEval، GSM8K، C-Eval و IFEval بهبود قابل توجهی در عملکرد نشان داده است، هرچند که تعداد پارامترها کمی کمتر است."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 7B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل قادر به پردازش ورودیهای بزرگ مقیاس است. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته و در برخی وظایف رقابت قابل توجهی با مدلهای اختصاصی نشان میدهد. Qwen2-7B-Instruct در چندین ارزیابی از Qwen1.5-7B-Chat پیشی گرفته و بهبود قابل توجهی در عملکرد نشان داده است."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL جدیدترین نسخه از مدل Qwen-VL است که در آزمونهای معیار درک بصری به پیشرفتهترین عملکرد دست یافته است."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct یکی از جدیدترین سری مدلهای زبانی بزرگ منتشر شده توسط Alibaba Cloud است. این مدل 7B در زمینههای کدنویسی و ریاضی دارای تواناییهای بهبود یافته قابل توجهی است. این مدل همچنین از پشتیبانی چند زبانه برخوردار است و بیش از 29 زبان از جمله چینی و انگلیسی را پوشش میدهد. این مدل در پیروی از دستورات، درک دادههای ساختاری و تولید خروجیهای ساختاری (به ویژه JSON) به طور قابل توجهی بهبود یافته است."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 مدلی استدلالی مبتنی بر یادگیری تقویتی (RL) که مشکلات تکراری بودن و خوانایی مدل را حل کرده است. پیش از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرد تا عملکرد استدلال را بهبود بخشد. این مدل در ریاضیات، کد نویسی و وظایف استدلال عملکردی مشابه OpenAI-o1 دارد و با روشهای آموزشی دقیق، اثر کلی را ارتقاء داده است."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B مدلی است که از Qwen2.5-Math-1.5B از طریق دستیابی به دانش (Knowledge Distillation) به دست آمده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و در چندین تست استاندارد عملکرد خوبی نشان داده است. به عنوان یک مدل سبک، در MATH-500 دقت 83.9٪ را کسب کرده، در AIME 2024 نرخ موفقیت 28.9٪ داشته و در CodeForces نمره 954 به دست آورده که نشاندهنده توانایی استنتاج فراتر از حجم پارامترهای آن است."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B مدلی است که بر اساس Qwen2.5-Math-7B از طریق دستیابی به دانش (Knowledge Distillation) ساخته شده است. این مدل با استفاده از 800,000 نمونه انتخابی تولید شده توسط DeepSeek-R1 آموزش داده شده و توانایی استنتاج ممتازی نشان میدهد. این مدل در چندین تست استاندارد عملکرد خوبی داشته است، از جمله دقت 92.8٪ در MATH-500، نرخ موفقیت 55.5٪ در AIME 2024 و نمره 1189 در CodeForces، که نشاندهنده تواناییهای قوی ریاضی و برنامهنویسی برای یک مدل با حجم 7B است."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview جدیدترین مدل تحقیقاتی تجربی Qwen است که بر بهبود توانایی استدلال AI تمرکز دارد. با کاوش در مکانیزمهای پیچیدهای مانند ترکیب زبان و استدلال بازگشتی، مزایای اصلی شامل توانایی تحلیل استدلال قوی، توانایی ریاضی و برنامهنویسی است. در عین حال، مشکلاتی مانند تغییر زبان، حلقههای استدلال، ملاحظات ایمنی و تفاوتهای دیگر در تواناییها وجود دارد."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct یک مدل زبانی بزرگ با تنظیم دقیق دستوری در سری Qwen2 است که اندازه پارامتر آن 1.5B است. این مدل بر اساس معماری Transformer ساخته شده و از تکنیکهای SwiGLU،偏置 QKV توجه و توجه گروهی استفاده میکند. این مدل در درک زبان، تولید، توانایی چند زبانه، کدنویسی، ریاضی و استدلال در چندین آزمون معیار عملکرد عالی دارد و از اکثر مدلهای متن باز پیشی گرفته است. در مقایسه با Qwen1.5-1.8B-Chat، Qwen2-1.5B-Instruct در آزمونهای MMLU، HumanEval، GSM8K، C-Eval و IFEval بهبود قابل توجهی در عملکرد نشان داده است، هرچند که تعداد پارامترها کمی کمتر است."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen 2 Instruct (72B) دستورالعملهای دقیق برای کاربردهای سازمانی ارائه میدهد و به درستی به آنها پاسخ میدهد."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 یک مدل استدلال عمیق با توانایی تفکر است (که با Deep Research OpenAI مقایسه میشود). برخلاف مدلهای تفکر عمیق معمولی، این مدل از تفکر عمیق طولانیمدت برای حل مسائل باز و پیچیده استفاده میکند."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B مدل متن باز از سری ChatGLM است که توسط AI Zhizhu توسعه یافته است. این مدل ویژگیهای عالی نسل قبلی خود را حفظ کرده است، مانند روان بودن گفتگو و آستانه پایین برای استقرار، در عین حال ویژگیهای جدیدی را معرفی کرده است. این مدل از دادههای آموزشی متنوعتر، تعداد مراحل آموزشی بیشتر و استراتژیهای آموزشی منطقیتر استفاده کرده و در میان مدلهای پیشآموزش شده زیر 10B عملکرد عالی دارد. ChatGLM3-6B از گفتگوی چند دور، فراخوانی ابزار، اجرای کد و وظایف عامل در سناریوهای پیچیده پشتیبانی میکند. علاوه بر مدل گفتگویی، مدل پایه ChatGLM-6B-Base و مدل گفتگوی طولانی ChatGLM3-6B-32K نیز به صورت متن باز ارائه شده است. این مدل به طور کامل برای تحقیقات علمی باز است و پس از ثبتنام، استفاده تجاری رایگان نیز مجاز است."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "نسخه منبع باز GLM-4 9B، تجربه گفتگوی بهینهشده برای برنامههای مکالمه را ارائه میدهد."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet هو هوش مصنوعی پیشرفتهترین مدل Anthropic است و همچنین اولین مدل استدلال ترکیبی در بازار به شمار میرود. Claude 3.7 Sonnet میتواند پاسخهای تقریباً آنی یا تفکر تدریجی و طولانیتری تولید کند که کاربران میتوانند این فرآیندها را به وضوح مشاهده کنند. Sonnet بهویژه در برنامهنویسی، علم داده، پردازش بصری و وظایف نمایندگی مهارت دارد."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 قویترین مدل Anthropic برای انجام وظایف بسیار پیچیده است. این مدل در عملکرد، هوش، روانی و درک برتری چشمگیری دارد."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 میتواند پاسخهای تقریباً فوری یا تفکر گام به گام طولانیمدت تولید کند که کاربران میتوانند این فرآیندها را به وضوح مشاهده کنند. کاربران API همچنین میتوانند زمان تفکر مدل را به دقت کنترل کنند."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 یک مدل چندزبانه است که توسط Cohere ارائه شده و از 23 زبان پشتیبانی میکند و برای برنامههای چندزبانه تسهیلات فراهم میآورد."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 یک مدل استنتاجی مبتنی بر یادگیری تقویتی (RL) است که به مشکلات تکرار و خوانایی در مدل پرداخته است. قبل از RL، DeepSeek-R1 دادههای شروع سرد را معرفی کرد و عملکرد استنتاج را بهینهتر کرد. این مدل در وظایف ریاضی، کدنویسی و استنتاج با OpenAI-o1 عملکرد مشابهی دارد و با استفاده از روشهای آموزشی به دقت طراحی شده، کیفیت کلی را بهبود بخشیده است."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "مدل کامل 685 میلیارد پارامتری، منتشر شده در ۲۸ مه ۲۰۲۵. DeepSeek-R1 در مرحله پسآموزش به طور گسترده از تکنیکهای یادگیری تقویتی استفاده کرده است و با دادههای برچسبخورده بسیار کم، توانایی استدلال مدل را به طور قابل توجهی افزایش داده است. این مدل در وظایف ریاضی، کدنویسی و استدلال زبان طبیعی عملکرد و توانایی بالایی دارد."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B نسخه سریع است که از جستجوی آنلاین زنده پشتیبانی میکند و در عین حفظ عملکرد مدل، سرعت پاسخدهی سریعتری را ارائه میدهد."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview مدل پیشرفته تفکر گوگل است که قادر به استدلال در مورد کد، ریاضیات و مسائل پیچیده در زمینه STEM میباشد و میتواند با استفاده از تحلیل زمینهای طولانی، مجموعههای داده بزرگ، کتابخانههای کد و مستندات را بررسی کند."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview پیشرفتهترین مدل تفکر گوگل است که قادر به استدلال درباره مسائل پیچیده در حوزه کد، ریاضیات و STEM است و میتواند با استفاده از زمینه طولانی، دادههای بزرگ، مخازن کد و مستندات را تحلیل کند."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B برای پردازش وظایف کوچک و متوسط مناسب است و از نظر هزینه مؤثر است."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "افزایش توانایی تولید کد در سطح پروژه؛ بهبود کیفیت نوشتار تولید متن؛ ارتقاء توانایی درک موضوعات چندمرحلهای، پیروی از دستورات tob و درک واژگان؛ بهینهسازی مشکلات خروجی ترکیبی از زبانهای ساده و سنتی و همچنین ترکیب چینی و انگلیسی."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "بهینهسازی تولید متن، نوشتن مقاله، بهبود تواناییهای کدنویسی فرانتاند، ریاضیات، استدلال منطقی و علوم پایه، و ارتقاء توانایی پیروی از دستورالعملها."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "اولین مدل استدلال هیبریدی-ترنسفورمر-مامبا با مقیاس فوقالعاده بزرگ در صنعت، که توانایی استدلال را گسترش میدهد و سرعت رمزگشایی فوقالعادهای دارد و به طور بیشتری با ترجیحات انسانی همراستا میشود."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "ارتقاء پایه پیشآموزش، تقویت توانایی درک و پیروی از دستورات پایه؛ تقویت مهارتهای علوم پایه مانند ریاضیات، کد نویسی، منطق و علوم؛ بهبود کیفیت نوشتار خلاقانه، درک متن، دقت ترجمه و پاسخ به سوالات دانش؛ تقویت تواناییهای عاملهای حوزههای مختلف، با تمرکز ویژه بر درک گفتگوی چندمرحلهای."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "ارتقاء پایه پیشآموزش، بهبود تواناییهای نوشتن و درک مطلب، افزایش قابل توجه تواناییهای کدنویسی و علوم پایه، و بهبود مستمر در پیروی از دستورات پیچیده."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS آخرین نسخه مدل بزرگ پرچمدار مختلط است که دارای توانایی تفکر قویتر و تجربه بهتری است."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "جدیدترین مدل چندوجهی هونیوان، پشتیبانی از ورودی تصویر + متن برای تولید محتوای متنی."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "مدل نوآورانه و متنباز InternLM2.5، با استفاده از پارامترهای بزرگ مقیاس، هوش مکالمه را بهبود بخشیده است."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 راهحلهای گفتگوی هوشمند در چندین سناریو ارائه میدهد."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "مدل استدلال بینایی QVQ Tongyi Qianwen که از ورودیهای بینایی و خروجی زنجیره فکری پشتیبانی میکند و در ریاضیات، برنامهنویسی، تحلیل بینایی، خلاقیت و وظایف عمومی تواناییهای قویتری نشان میدهد."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "مدل استدلال بصری. پشتیبانی از ورودیهای بصری و خروجی زنجیره تفکر، نسخه پلاس پس از مدل qvq-max، که نسبت به مدل qvq-max سرعت استدلال بالاتر و تعادل بهتری بین عملکرد و هزینه دارد."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "مدل کد نویسی Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "فعالسازی محدودیت پاسخ"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "فعالسازی تنظیم شدت استدلال"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "هر چه مقدار بزرگتر باشد، واژگان متنوعتر و غنیتری استفاده میشود؛ هر چه مقدار کوچکتر باشد، واژگان سادهتر و عادیتر خواهند بود.",
|
||||
"title": "تنوع واژگان"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "هر چه مقدار بزرگتر باشد، تمایل به استفاده از عبارات مختلف بیشتر میشود و از تکرار مفاهیم جلوگیری میکند؛ هر چه مقدار کوچکتر باشد، تمایل به استفاده از مفاهیم یا روایتهای تکراری بیشتر میشود و بیان یکدستتری خواهد داشت.",
|
||||
"title": "گستردگی بیان"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "هرچه مقدار بیشتر باشد، توانایی استدلال قویتر است، اما ممکن است زمان پاسخ و مصرف توکن افزایش یابد",
|
||||
"options": {
|
||||
"high": "زیاد",
|
||||
"low": "کم",
|
||||
"medium": "متوسط"
|
||||
},
|
||||
"title": "شدت استدلال"
|
||||
},
|
||||
"submit": "بهروزرسانی تنظیمات مدل",
|
||||
"temperature": {
|
||||
"desc": "هر چه عدد بزرگتر باشد، پاسخها خلاقانهتر و تخیلیتر خواهند بود؛ هر چه عدد کوچکتر باشد، پاسخها دقیقتر خواهند بود",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Version améliorée du modèle Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct est un modèle de langage à grande échelle de la série Qwen2, avec une taille de paramètre de 1.5B. Ce modèle est basé sur l'architecture Transformer, utilisant des fonctions d'activation SwiGLU, des biais d'attention QKV et des techniques d'attention par groupe. Il excelle dans la compréhension du langage, la génération, les capacités multilingues, le codage, les mathématiques et le raisonnement dans plusieurs tests de référence, surpassant la plupart des modèles open source. Comparé à Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct montre des améliorations de performance significatives dans des tests tels que MMLU, HumanEval, GSM8K, C-Eval et IFEval, bien que le nombre de paramètres soit légèrement inférieur."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct est un modèle de langage à grande échelle de la série Qwen2, avec une taille de paramètre de 7B. Ce modèle est basé sur l'architecture Transformer, utilisant des fonctions d'activation SwiGLU, des biais d'attention QKV et des techniques d'attention par groupe. Il est capable de traiter de grandes entrées. Ce modèle excelle dans la compréhension du langage, la génération, les capacités multilingues, le codage, les mathématiques et le raisonnement dans plusieurs tests de référence, surpassant la plupart des modèles open source et montrant une compétitivité comparable à celle des modèles propriétaires dans certaines tâches. Qwen2-7B-Instruct a montré des performances significativement meilleures que Qwen1.5-7B-Chat dans plusieurs évaluations."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL est la dernière itération du modèle Qwen-VL, atteignant des performances de pointe dans les tests de référence de compréhension visuelle."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct est l'un des derniers modèles de langage à grande échelle publiés par Alibaba Cloud. Ce modèle 7B présente des capacités considérablement améliorées dans des domaines tels que le codage et les mathématiques. Le modèle offre également un support multilingue, couvrant plus de 29 langues, y compris le chinois et l'anglais. Il a montré des améliorations significatives dans le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (en particulier JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 est un modèle de raisonnement piloté par apprentissage par renforcement (RL), résolvant les problèmes de répétitivité et de lisibilité dans les modèles. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid pour optimiser davantage les performances de raisonnement. Il offre des performances comparables à OpenAI-o1 en mathématiques, code et tâches de raisonnement, avec une amélioration globale grâce à une méthode d’entraînement soigneusement conçue."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B est un modèle obtenu par distillation de connaissances à partir de Qwen2.5-Math-1.5B. Ce modèle a été affiné à l'aide de 800 000 échantillons sélectionnés générés par DeepSeek-R1, démontrant des performances remarquables sur plusieurs benchmarks. En tant que modèle léger, il atteint une précision de 83,9 % sur MATH-500, un taux de réussite de 28,9 % sur AIME 2024 et un score de 954 sur CodeForces, révélant des capacités de raisonnement dépassant sa taille paramétrique."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B est un modèle obtenu par distillation de connaissances à partir de Qwen2.5-Math-7B. Ce modèle a été affiné à l'aide de 800 000 échantillons sélectionnés générés par DeepSeek-R1, démontrant d'excellentes capacités de raisonnement. Il obtient des performances remarquables dans plusieurs benchmarks, atteignant une précision de 92,8 % sur MATH-500, un taux de réussite de 55,5 % sur AIME 2024 et un score de 1189 sur CodeForces, montrant ainsi de solides compétences en mathématiques et en programmation pour un modèle de taille 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview est le dernier modèle de recherche expérimental de Qwen, axé sur l'amélioration des capacités de raisonnement de l'IA. En explorant des mécanismes complexes tels que le mélange de langues et le raisonnement récursif, ses principaux avantages incluent de puissantes capacités d'analyse de raisonnement, ainsi que des compétences en mathématiques et en programmation. Cependant, il existe également des problèmes de changement de langue, des cycles de raisonnement, des considérations de sécurité et des différences dans d'autres capacités."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct est un modèle de langage à grande échelle de la série Qwen2, avec une taille de paramètre de 1.5B. Ce modèle est basé sur l'architecture Transformer, utilisant des fonctions d'activation SwiGLU, des biais d'attention QKV et des techniques d'attention par groupe. Il excelle dans la compréhension du langage, la génération, les capacités multilingues, le codage, les mathématiques et le raisonnement dans plusieurs tests de référence, surpassant la plupart des modèles open source. Comparé à Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct montre des améliorations de performance significatives dans des tests tels que MMLU, HumanEval, GSM8K, C-Eval et IFEval, bien que le nombre de paramètres soit légèrement inférieur."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 est un modèle de langage général avancé, prenant en charge divers types d'instructions."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 est un modèle de raisonnement profond avec des capacités de réflexion (comparé à la recherche approfondie d'OpenAI). Contrairement aux modèles de réflexion typiques, le modèle de réflexion utilise des périodes de réflexion plus longues pour résoudre des problèmes plus ouverts et complexes."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B est un modèle open source de la série ChatGLM, développé par Zhipu AI. Ce modèle conserve les excellentes caractéristiques de son prédécesseur, telles que la fluidité des dialogues et un faible seuil de déploiement, tout en introduisant de nouvelles fonctionnalités. Il utilise des données d'entraînement plus variées, un nombre d'étapes d'entraînement plus élevé et une stratégie d'entraînement plus raisonnable, se distinguant parmi les modèles pré-entraînés de moins de 10B. ChatGLM3-6B prend en charge des dialogues multi-tours, des appels d'outils, l'exécution de code et des tâches d'agent dans des scénarios complexes. En plus du modèle de dialogue, les modèles de base ChatGLM-6B-Base et le modèle de dialogue long ChatGLM3-6B-32K sont également open source. Ce modèle est entièrement ouvert à la recherche académique et permet également une utilisation commerciale gratuite après enregistrement."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B est une version open source, offrant une expérience de dialogue optimisée pour les applications de conversation."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet est le modèle le plus intelligent d'Anthropic à ce jour, et le premier modèle de raisonnement hybride sur le marché. Claude 3.7 Sonnet peut produire des réponses quasi instantanées ou un raisonnement prolongé, permettant aux utilisateurs de voir clairement ces processus. Sonnet excelle particulièrement dans la programmation, la science des données, le traitement visuel et les tâches d'agent."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour traiter des tâches hautement complexes. Il excelle en performance, intelligence, fluidité et compréhension."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou des réflexions prolongées étape par étape, que l'utilisateur peut suivre clairement. Les utilisateurs de l'API peuvent également contrôler précisément la durée de réflexion du modèle."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 est un modèle multilingue lancé par Cohere, prenant en charge 23 langues, facilitant les applications linguistiques diversifiées."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 est un modèle d'inférence alimenté par l'apprentissage par renforcement (RL), qui résout les problèmes de répétitivité et de lisibilité dans le modèle. Avant le RL, DeepSeek-R1 a introduit des données de démarrage à froid, optimisant ainsi les performances d'inférence. Il se compare à OpenAI-o1 en matière de tâches mathématiques, de code et d'inférence, et améliore l'efficacité globale grâce à des méthodes d'entraînement soigneusement conçues."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Modèle complet de 685 milliards de paramètres, publié le 28 mai 2025. DeepSeek-R1 utilise massivement l'apprentissage par renforcement en phase post-entraînement, améliorant considérablement les capacités de raisonnement du modèle avec très peu de données annotées. Il excelle en mathématiques, codage, raisonnement en langage naturel et autres tâches complexes."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B version rapide, prenant en charge la recherche en ligne en temps réel, offrant une vitesse de réponse plus rapide tout en maintenant les performances du modèle."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes dans les domaines du code, des mathématiques et des STEM, ainsi que d'analyser de grands ensembles de données, des bibliothèques de code et des documents en utilisant une analyse de long contexte."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview est le modèle de pensée le plus avancé de Google, capable de raisonner sur des problèmes complexes en code, mathématiques et domaines STEM, ainsi que d'analyser de grands ensembles de données, bibliothèques de code et documents avec un contexte étendu."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B est adapté au traitement de tâches de taille moyenne, alliant coût et efficacité."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Amélioration des capacités de génération de code au niveau projet ; amélioration de la qualité de la rédaction générée ; amélioration de la compréhension multi-tours des sujets, de la conformité aux instructions toB et de la compréhension des mots ; optimisation des problèmes liés à la sortie mixte de caractères simplifiés/traditionnels et chinois/anglais."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Optimisé pour la création de textes, la rédaction d'essais, ainsi que pour les compétences en codage frontend, mathématiques et raisonnement logique, avec une amélioration de la capacité à suivre les instructions."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Le premier modèle d'inférence Hybrid-Transformer-Mamba à grande échelle de l'industrie, qui étend les capacités d'inférence, offre une vitesse de décodage exceptionnelle et aligne davantage les préférences humaines."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Mise à niveau de la base pré-entraînée, renforçant la compréhension et la conformité aux instructions ; amélioration des compétences en mathématiques, code, logique et sciences durant la phase d’alignement ; amélioration de la qualité de la création littéraire, de la compréhension textuelle, de la précision des traductions et des réponses aux questions de culture générale ; renforcement des capacités des agents dans divers domaines, avec un accent particulier sur la compréhension des dialogues multi-tours."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Mise à niveau de la base pré-entraînée, amélioration des capacités d'écriture et de compréhension de lecture, augmentation significative des compétences en codage et en sciences, avec un suivi continu des instructions complexes."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS est la dernière version du modèle phare Hunyuan, offrant une capacité de réflexion améliorée et une expérience utilisateur optimisée."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Dernier modèle multimodal Hunyuan, prenant en charge l'entrée d'images et de textes pour générer du contenu textuel."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Le modèle open source innovant InternLM2.5 améliore l'intelligence des dialogues grâce à un grand nombre de paramètres."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 fournit des solutions de dialogue intelligent dans divers scénarios."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Modèle de raisonnement visuel QVQ de Tongyi Qianwen, supportant l’entrée visuelle et la sortie en chaîne de pensée, démontrant des capacités renforcées en mathématiques, programmation, analyse visuelle, création et tâches générales."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Modèle de raisonnement visuel. Prend en charge les entrées visuelles et les sorties en chaîne de pensée. Version plus avancée du modèle qvq-max, offrant une vitesse de raisonnement plus rapide et un meilleur équilibre entre performance et coût."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Modèle de code Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Activer la limite de tokens par réponse"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Activer l'ajustement de l'intensité du raisonnement"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Plus la valeur est élevée, plus le vocabulaire est riche et varié ; plus la valeur est basse, plus le vocabulaire est simple et direct",
|
||||
"title": "Richesse du vocabulaire"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Plus la valeur est élevée, plus il y a tendance à utiliser des expressions différentes, évitant la répétition des concepts ; plus la valeur est basse, plus il y a tendance à utiliser des concepts ou des narrations répétitifs, rendant l'expression plus cohérente",
|
||||
"title": "Diversité de l'expression"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Plus la valeur est élevée, plus la capacité de raisonnement est forte, mais cela peut augmenter le temps de réponse et la consommation de jetons",
|
||||
"options": {
|
||||
"high": "Élevé",
|
||||
"low": "Faible",
|
||||
"medium": "Moyen"
|
||||
},
|
||||
"title": "Intensité du raisonnement"
|
||||
},
|
||||
"submit": "Mettre à jour les paramètres du modèle",
|
||||
"temperature": {
|
||||
"desc": "Plus la valeur est élevée, plus les réponses sont créatives et imaginatives ; plus la valeur est basse, plus les réponses sont rigoureuses",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Versione aggiornata del modello Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct è un modello linguistico di grandi dimensioni con fine-tuning per istruzioni nella serie Qwen2, con una dimensione di 1.5B parametri. Questo modello si basa sull'architettura Transformer, utilizzando funzioni di attivazione SwiGLU, bias QKV di attenzione e attenzione a query di gruppo. Ha dimostrato prestazioni eccellenti in comprensione linguistica, generazione, capacità multilingue, codifica, matematica e ragionamento in vari benchmark, superando la maggior parte dei modelli open source. Rispetto a Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct ha mostrato miglioramenti significativi nei test MMLU, HumanEval, GSM8K, C-Eval e IFEval, nonostante un numero di parametri leggermente inferiore."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct è un modello linguistico di grandi dimensioni con fine-tuning per istruzioni nella serie Qwen2, con una dimensione di 7B parametri. Questo modello si basa sull'architettura Transformer, utilizzando funzioni di attivazione SwiGLU, bias QKV di attenzione e attenzione a query di gruppo. È in grado di gestire input di grandi dimensioni. Ha dimostrato prestazioni eccellenti in comprensione linguistica, generazione, capacità multilingue, codifica, matematica e ragionamento in vari benchmark, superando la maggior parte dei modelli open source e mostrando competitività paragonabile a modelli proprietari in alcuni compiti. Qwen2-7B-Instruct ha mostrato miglioramenti significativi in vari test rispetto a Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL è l'ultima iterazione del modello Qwen-VL, che ha raggiunto prestazioni all'avanguardia nei benchmark di comprensione visiva."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct è uno dei più recenti modelli linguistici di grandi dimensioni rilasciati da Alibaba Cloud. Questo modello da 7B ha capacità notevolmente migliorate in codifica e matematica. Il modello offre anche supporto multilingue, coprendo oltre 29 lingue, tra cui cinese e inglese. Ha mostrato miglioramenti significativi nel seguire istruzioni, comprendere dati strutturati e generare output strutturati (soprattutto JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 è un modello di ragionamento guidato da apprendimento rinforzato (RL) che risolve problemi di ripetitività e leggibilità. Prima del RL, ha introdotto dati di cold start per ottimizzare ulteriormente le prestazioni di ragionamento. Le sue prestazioni in matematica, codice e ragionamento sono comparabili a OpenAI-o1, con miglioramenti complessivi grazie a metodi di addestramento accuratamente progettati."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B è un modello ottenuto attraverso il distillamento del knowledge da Qwen2.5-Math-1.5B. Questo modello è stato fine-tunato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, mostrando un'ottima performance in diversi benchmark. Come modello leggero, ha raggiunto un'accuratezza del 83,9% su MATH-500, una percentuale di passaggio del 28,9% su AIME 2024 e una valutazione di 954 su CodeForces, dimostrando capacità di inferenza superiori alla sua scala di parametri."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B è un modello ottenuto attraverso il distillamento del knowledge da Qwen2.5-Math-7B. Questo modello è stato fine-tunato utilizzando 800.000 campioni selezionati generati da DeepSeek-R1, dimostrando un'ottima capacità di inferenza. Ha ottenuto risultati eccellenti in diversi benchmark, raggiungendo una precisione del 92,8% su MATH-500, un tasso di passaggio del 55,5% su AIME 2024 e una valutazione di 1189 su CodeForces, dimostrando una forte capacità matematica e di programmazione per un modello di 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview è l'ultimo modello di ricerca sperimentale di Qwen, focalizzato sul miglioramento delle capacità di ragionamento dell'IA. Esplorando meccanismi complessi come la mescolanza linguistica e il ragionamento ricorsivo, i principali vantaggi includono potenti capacità di analisi del ragionamento, abilità matematiche e di programmazione. Tuttavia, ci sono anche problemi di cambio linguistico, cicli di ragionamento, considerazioni di sicurezza e differenze in altre capacità."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct è un modello linguistico di grandi dimensioni con fine-tuning per istruzioni nella serie Qwen2, con una dimensione di 1.5B parametri. Questo modello si basa sull'architettura Transformer, utilizzando funzioni di attivazione SwiGLU, bias QKV di attenzione e attenzione a query di gruppo. Ha dimostrato prestazioni eccellenti in comprensione linguistica, generazione, capacità multilingue, codifica, matematica e ragionamento in vari benchmark, superando la maggior parte dei modelli open source. Rispetto a Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct ha mostrato miglioramenti significativi nei test MMLU, HumanEval, GSM8K, C-Eval e IFEval, nonostante un numero di parametri leggermente inferiore."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 è un modello di linguaggio universale avanzato, supportando vari tipi di istruzioni."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 è un modello di inferenza profonda con capacità di riflessione (paragonabile alla Deep Research di OpenAI). A differenza dei modelli tipici di pensiero profondo, il modello di riflessione utilizza un tempo di riflessione più lungo per affrontare problemi più aperti e complessi."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B è un modello open source della serie ChatGLM, sviluppato da Zhipu AI. Questo modello conserva le eccellenti caratteristiche dei modelli precedenti, come la fluidità del dialogo e la bassa soglia di implementazione, introducendo al contempo nuove funzionalità. Utilizza dati di addestramento più diversificati, un numero maggiore di passi di addestramento e strategie di addestramento più ragionevoli, dimostrando prestazioni eccellenti tra i modelli pre-addestrati sotto i 10B. ChatGLM3-6B supporta scenari complessi come conversazioni multi-turno, chiamate a strumenti, esecuzione di codice e compiti di agente. Oltre al modello di dialogo, sono stati rilasciati anche il modello di base ChatGLM-6B-Base e il modello di dialogo su testi lunghi ChatGLM3-6B-32K. Questo modello è completamente aperto per la ricerca accademica e consente anche un uso commerciale gratuito dopo la registrazione."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B è una versione open source, progettata per fornire un'esperienza di dialogo ottimizzata per applicazioni conversazionali."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic fino ad oggi ed è il primo modello di ragionamento ibrido sul mercato. Claude 3.7 Sonnet può generare risposte quasi istantanee o pensieri prolungati e graduali, consentendo agli utenti di vedere chiaramente questi processi. Sonnet è particolarmente abile nella programmazione, nella scienza dei dati, nell'elaborazione visiva e nei compiti di agenzia."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 è il modello più potente di Anthropic per gestire compiti altamente complessi. Eccelle in prestazioni, intelligenza, fluidità e capacità di comprensione."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 può generare risposte quasi istantanee o un ragionamento esteso e graduale, che gli utenti possono osservare chiaramente. Gli utenti API possono anche controllare con precisione il tempo di riflessione del modello."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 è un modello multilingue lanciato da Cohere, supporta 23 lingue, facilitando applicazioni linguistiche diversificate."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 è un modello di inferenza guidato da apprendimento rinforzato (RL) che affronta i problemi di ripetitività e leggibilità nel modello. Prima dell'RL, DeepSeek-R1 ha introdotto dati di cold start, ottimizzando ulteriormente le prestazioni di inferenza. Si comporta in modo comparabile a OpenAI-o1 in compiti matematici, di codifica e di inferenza, e migliora l'efficacia complessiva attraverso metodi di addestramento accuratamente progettati."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Modello completo da 685 miliardi di parametri, rilasciato il 28 maggio 2025. DeepSeek-R1 utilizza ampiamente tecniche di apprendimento rinforzato nella fase post-addestramento, migliorando notevolmente le capacità di ragionamento del modello con pochissimi dati annotati. Eccelle in matematica, programmazione, ragionamento in linguaggio naturale e altre attività."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B versione veloce, supporta la ricerca online in tempo reale, fornendo una velocità di risposta più rapida mantenendo le prestazioni del modello."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, in grado di ragionare su problemi complessi nel codice, nella matematica e nei campi STEM, utilizzando analisi di lungo contesto per esaminare grandi set di dati, librerie di codice e documenti."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview è il modello di pensiero più avanzato di Google, capace di ragionare su problemi complessi in codice, matematica e ambito STEM, oltre a utilizzare contesti estesi per analizzare grandi dataset, librerie di codice e documenti."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B è adatto per l'elaborazione di compiti di piccole e medie dimensioni, combinando efficienza dei costi."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Migliorare la capacità di generazione del codice a livello di progetto; migliorare la qualità della scrittura generata dal testo; potenziare la comprensione multi-turno degli argomenti, l’aderenza alle istruzioni toB e la comprensione di parole e termini; ottimizzare i problemi di output misto tra cinese semplificato e tradizionale e tra cinese e inglese."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Ottimizzato per la creazione di testi, la scrittura di saggi, il frontend del codice, la matematica, il ragionamento logico e altre competenze scientifiche, con miglioramenti nella capacità di seguire istruzioni."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Il primo modello di inferenza ibrido su larga scala Hybrid-Transformer-Mamba del settore, che espande le capacità di inferenza, offre una velocità di decodifica eccezionale e allinea ulteriormente le preferenze umane."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Aggiornamento della base pre-addestrata per rafforzare la comprensione e l’aderenza alle istruzioni; miglioramento delle capacità scientifiche in matematica, programmazione, logica e scienze durante la fase di allineamento; potenziamento delle capacità umanistiche come la qualità della scrittura creativa, la comprensione testuale, la precisione della traduzione e il question answering; rafforzamento delle capacità degli agenti in vari settori, con particolare attenzione alla comprensione multi-turno."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Aggiornamento della base pre-addestrata, con miglioramenti nelle capacità di scrittura e comprensione della lettura, notevoli progressi nelle competenze di programmazione e scientifiche, e continui miglioramenti nell’aderenza a istruzioni complesse."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS è l'ultima versione del modello di punta Hunyuan, con capacità di pensiero più forti e un'esperienza utente migliore."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Ultimo modello multimodale di Hunyuan, supporta l'input di immagini e testo per generare contenuti testuali."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Il modello open source innovativo InternLM2.5, con un gran numero di parametri, migliora l'intelligenza del dialogo."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 offre soluzioni di dialogo intelligente in vari scenari."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Modello di ragionamento visivo QVQ di Tongyi Qianwen, supporta input visivi e output di catene di pensieri, mostrando capacità superiori in matematica, programmazione, analisi visiva, creazione e compiti generali."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Modello di ragionamento visivo. Supporta input visivi e output a catena di pensiero. Versione plus lanciata dopo il modello qvq-max, con velocità di ragionamento più elevata e un equilibrio migliore tra prestazioni ed efficienza rispetto a qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Modello di codice Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Abilita limite di risposta singola"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Abilita regolazione dell'intensità del ragionamento"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Maggiore è il valore, più ricca e varia sarà la scelta delle parole; minore è il valore, più semplici e dirette saranno le parole",
|
||||
"title": "Ricchezza del vocabolario"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Maggiore è il valore, maggiore sarà la tendenza a esprimere in modi diversi, evitando ripetizioni; minore è il valore, maggiore sarà la tendenza a utilizzare concetti o narrazioni ripetute, rendendo l'espressione più coerente",
|
||||
"title": "Divergenza espressiva"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Valori più alti indicano una maggiore capacità di ragionamento, ma potrebbero aumentare i tempi di risposta e il consumo di token",
|
||||
"options": {
|
||||
"high": "Alto",
|
||||
"low": "Basso",
|
||||
"medium": "Medio"
|
||||
},
|
||||
"title": "Intensità del ragionamento"
|
||||
},
|
||||
"submit": "Aggiorna impostazioni modello",
|
||||
"temperature": {
|
||||
"desc": "Maggiore è il valore, più creativi e fantasiosi saranno le risposte; minore è il valore, più rigorose saranno le risposte",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-visionモデルの更新版です。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-InstructはQwen2シリーズの指示微調整大規模言語モデルで、パラメータ規模は1.5Bです。このモデルはTransformerアーキテクチャに基づき、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意などの技術を採用しています。言語理解、生成、多言語能力、コーディング、数学、推論などの複数のベンチマークテストで優れたパフォーマンスを示し、ほとんどのオープンソースモデルを超えています。Qwen1.5-1.8B-Chatと比較して、Qwen2-1.5B-InstructはMMLU、HumanEval、GSM8K、C-Eval、IFEvalなどのテストで顕著な性能向上を示していますが、パラメータ数はわずかに少ないです。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-InstructはQwen2シリーズの指示微調整大規模言語モデルで、パラメータ規模は7Bです。このモデルはTransformerアーキテクチャに基づき、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意などの技術を採用しています。大規模な入力を処理することができます。このモデルは言語理解、生成、多言語能力、コーディング、数学、推論などの複数のベンチマークテストで優れたパフォーマンスを示し、ほとんどのオープンソースモデルを超え、特定のタスクでは専有モデルと同等の競争力を示しています。Qwen2-7B-Instructは多くの評価でQwen1.5-7B-Chatを上回り、顕著な性能向上を示しています。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VLはQwen-VLモデルの最新のイテレーションで、視覚理解のベンチマークテストで最先端の性能を達成しました。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-InstructはAlibaba Cloudが発表した最新の大規模言語モデルシリーズの一つです。この7Bモデルはコーディングや数学などの分野で顕著な能力の改善を持っています。このモデルは29以上の言語をカバーする多言語サポートも提供しており、中国語、英語などが含まれています。モデルは指示の遵守、構造化データの理解、特にJSONのような構造化出力の生成において顕著な向上を示しています。"
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1は強化学習(RL)駆動の推論モデルで、モデルの反復性と可読性の問題を解決しました。RL導入前にコールドスタートデータを導入し、推論性能をさらに最適化。数学、コード、推論タスクにおいてOpenAI-o1と同等の性能を示し、精緻に設計された訓練手法により全体的な効果を向上させています。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5Bは、Qwen2.5-Math-1.5Bを基に知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1によって生成された80万の精選されたサンプルを使用して微調整されており、複数のベンチマークテストで良好な性能を示しています。軽量モデルでありながら、MATH-500では83.9%の精度、AIME 2024では28.9%の合格率、CodeForcesでは954のスコアを達成し、そのパラメータ規模を超える推論能力を発揮しています。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B は、Qwen2.5-Math-7B を基に知識蒸留によって得られたモデルです。このモデルは、DeepSeek-R1 によって生成された80万の精選されたサンプルを使用して微調整されており、優れた推論能力を発揮します。複数のベンチマークテストで優れた性能を示し、MATH-500では92.8%の精度、AIME 2024では55.5%の合格率、CodeForcesでは1189のスコアを達成し、7B規模のモデルとして強力な数学およびプログラミング能力を実証しています。"
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-PreviewはQwenの最新の実験的研究モデルで、AIの推論能力を向上させることに特化しています。言語の混合、再帰的推論などの複雑なメカニズムを探求することで、主な利点は強力な推論分析能力、数学およびプログラミング能力です。同時に、言語切り替えの問題、推論のループ、安全性の考慮、その他の能力の違いも存在します。"
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-InstructはQwen2シリーズの指示微調整大規模言語モデルで、パラメータ規模は1.5Bです。このモデルはTransformerアーキテクチャに基づき、SwiGLU活性化関数、注意QKVバイアス、グループクエリ注意などの技術を採用しています。言語理解、生成、多言語能力、コーディング、数学、推論などの複数のベンチマークテストで優れたパフォーマンスを示し、ほとんどのオープンソースモデルを超えています。Qwen1.5-1.8B-Chatと比較して、Qwen2-1.5B-InstructはMMLU、HumanEval、GSM8K、C-Eval、IFEvalなどのテストで顕著な性能向上を示していますが、パラメータ数はわずかに少ないです。"
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2は、先進的な汎用言語モデルであり、さまざまな指示タイプをサポートします。"
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414は深い推論能力を持つモデルで(OpenAIのDeep Researchに対抗)、典型的な深い思考モデルとは異なり、より長い時間の深い思考を用いてよりオープンで複雑な問題を解決します。"
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6BはChatGLMシリーズのオープンモデルで、智譜AIによって開発されました。このモデルは前の世代の優れた特性を保持し、対話の流暢さとデプロイのハードルの低さを維持しつつ、新しい特性を導入しています。より多様な訓練データ、より十分な訓練ステップ、より合理的な訓練戦略を採用し、10B未満の事前訓練モデルの中で優れたパフォーマンスを示しています。ChatGLM3-6Bは多輪対話、ツール呼び出し、コード実行、エージェントタスクなどの複雑なシーンをサポートしています。対話モデルの他に、基礎モデルChatGLM-6B-Baseと長文対話モデルChatGLM3-6B-32Kもオープンソースとして提供されています。このモデルは学術研究に完全にオープンで、登録後は無料の商業利用も許可されています。"
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9Bはオープンソース版で、会話アプリケーションに最適化された対話体験を提供します。"
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnetは、Anthropicがこれまでに開発した最も知能の高いモデルであり、市場で初めての混合推論モデルです。Claude 3.7 Sonnetは、ほぼ瞬時の応答や段階的な思考を生成することができ、ユーザーはこれらのプロセスを明確に見ることができます。Sonnetは特にプログラミング、データサイエンス、視覚処理、代理タスクに優れています。"
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 は、Anthropic が高度に複雑なタスクを処理するために開発した最も強力なモデルです。性能、知能、流暢さ、理解力の面で卓越した能力を発揮します。"
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 はほぼ即時の応答や段階的な思考の延長を生成でき、ユーザーはこれらのプロセスを明確に確認できます。API ユーザーはモデルの思考時間を細かく制御することも可能です。"
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23は、Cohereが提供する多言語モデルであり、23の言語をサポートし、多様な言語アプリケーションを便利にします。"
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1は、強化学習(RL)駆動の推論モデルであり、モデル内の繰り返しと可読性の問題を解決します。RLの前に、DeepSeek-R1はコールドスタートデータを導入し、推論性能をさらに最適化しました。数学、コード、推論タスクにおいてOpenAI-o1と同等のパフォーマンスを発揮し、精巧に設計されたトレーニング手法によって全体的な効果を向上させました。"
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685B フルスペックモデルで、2025年5月28日にリリースされました。DeepSeek-R1 は後期トレーニング段階で大規模に強化学習技術を活用し、極めて少ないラベル付きデータでモデルの推論能力を大幅に向上させました。数学、コード、自然言語推論などのタスクで高い性能と強力な能力を持ちます。"
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70Bファスト版で、リアルタイムのオンライン検索をサポートし、モデルのパフォーマンスを維持しながら、より速い応答速度を提供します。"
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Previewは、Googleの最先端思考モデルであり、コード、数学、STEM分野の複雑な問題に対して推論を行い、長いコンテキストを使用して大規模なデータセット、コードベース、文書を分析することができます。"
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview は Google の最先端思考モデルで、コード、数学、STEM 分野の複雑な問題を推論し、長いコンテキストを用いて大規模なデータセット、コードベース、ドキュメントを分析できます。"
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7Bは、中小規模のタスク処理に適しており、コスト効果を兼ね備えています。"
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "プロジェクトレベルのコード生成能力を向上させる;テキスト生成の執筆品質を向上させる;テキスト理解のトピックにおける多段階対話、ToB指示の遵守および語彙理解能力を向上させる;繁体字と簡体字の混在、及び中英混在の出力問題を最適化する。"
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "テキスト作成や作文の最適化、コードのフロントエンド、数学、論理推論など理系能力の強化、指示遵守能力の向上を図っています。"
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "業界初の超大規模Hybrid-Transformer-Mamba推論モデルであり、推論能力を拡張し、超高速なデコード速度を実現し、人間の好みにさらに整合します。"
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "事前学習基盤のアップグレードにより、基盤の指示理解および遵守能力を強化;整合フェーズで数学、コード、論理、科学などの理系能力を強化;文芸創作の執筆品質、テキスト理解、翻訳精度、知識問答などの文系能力を向上;各分野のエージェント能力を強化し、特に多段階対話理解能力を重点的に強化。"
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "事前学習基盤のアップグレードにより、執筆や読解力が向上し、コードや理系能力が大幅に強化され、複雑な指示の遵守能力も継続的に向上しています。"
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS混元フラッグシップ大モデルの最新バージョンで、より強力な思考能力と優れた体験効果を備えています。"
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "混元の最新のマルチモーダルモデルで、画像とテキストの入力をサポートし、テキストコンテンツを生成します。"
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "革新的なオープンソースモデルInternLM2.5は、大規模なパラメータを通じて対話のインテリジェンスを向上させました。"
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5は多様なシーンでのインテリジェントな対話ソリューションを提供します。"
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "通義千問QVQ視覚推論モデルで、視覚入力と思考連鎖出力をサポートし、数学、プログラミング、視覚分析、創作および汎用タスクにおいてより強力な能力を発揮します。"
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "視覚推論モデルです。視覚入力と思考チェーン出力をサポートし、qvq-max モデルの後継である plus バージョンです。qvq-max モデルに比べて推論速度が速く、効果とコストのバランスが優れています。"
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "通義千問コードモデルです。"
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "単一応答制限を有効にする"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "推論強度の調整を有効にする"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "値が大きいほど、言葉がより豊かで多様になります。値が小さいほど、言葉はより素朴でシンプルになります。",
|
||||
"title": "語彙の豊かさ"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "値が大きいほど、異なる表現方法を好み、概念の繰り返しを避けます。値が小さいほど、繰り返しの概念や表現を使用する傾向が強く、一貫性のある表現になります。",
|
||||
"title": "表現の多様性"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "値が大きいほど推論能力が高くなりますが、応答時間とトークン消費が増加する可能性があります",
|
||||
"options": {
|
||||
"high": "高い",
|
||||
"low": "低い",
|
||||
"medium": "中程度"
|
||||
},
|
||||
"title": "推論強度"
|
||||
},
|
||||
"submit": "モデル設定を更新",
|
||||
"temperature": {
|
||||
"desc": "数値が大きいほど、回答はより創造的で想像力に富む;数値が小さいほど、回答はより厳密になる",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-vision 모델의 업데이트된 버전입니다."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct는 Qwen2 시리즈의 지침 미세 조정 대규모 언어 모델로, 파라미터 규모는 1.5B입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향 및 그룹 쿼리 주의와 같은 기술을 사용합니다. 이 모델은 언어 이해, 생성, 다국어 능력, 코딩, 수학 및 추론 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 대부분의 오픈 소스 모델을 초월합니다. Qwen1.5-1.8B-Chat과 비교할 때, Qwen2-1.5B-Instruct는 MMLU, HumanEval, GSM8K, C-Eval 및 IFEval 등의 테스트에서 상당한 성능 향상을 보였습니다."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct는 Qwen2 시리즈의 지침 미세 조정 대규모 언어 모델로, 파라미터 규모는 7B입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향 및 그룹 쿼리 주의와 같은 기술을 사용합니다. 이 모델은 대규모 입력을 처리할 수 있습니다. 이 모델은 언어 이해, 생성, 다국어 능력, 코딩, 수학 및 추론 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 대부분의 오픈 소스 모델을 초월하고 특정 작업에서 독점 모델과 동등한 경쟁력을 보여줍니다. Qwen2-7B-Instruct는 여러 평가에서 Qwen1.5-7B-Chat보다 우수하여 상당한 성능 향상을 보였습니다."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL은 Qwen-VL 모델의 최신 반복 버전으로, 시각 이해 기준 테스트에서 최첨단 성능을 달성했습니다."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct는 Alibaba Cloud에서 발표한 최신 대규모 언어 모델 시리즈 중 하나입니다. 이 7B 모델은 코딩 및 수학 분야에서 상당한 개선된 능력을 가지고 있습니다. 이 모델은 또한 29개 이상의 언어를 포함한 다국어 지원을 제공합니다. 모델은 지침 준수, 구조화된 데이터 이해 및 구조화된 출력 생성(특히 JSON)에서 상당한 향상을 보입니다."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1은 강화 학습(RL) 기반 추론 모델로, 모델 내 반복성과 가독성 문제를 해결했습니다. RL 이전에 콜드 스타트 데이터를 도입하여 추론 성능을 추가 최적화했으며, 수학, 코드, 추론 작업에서 OpenAI-o1과 유사한 성능을 보이고, 정교한 훈련 방법을 통해 전체 성능을 향상시켰습니다."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B는 Qwen2.5-Math-1.5B를 기반으로 지식 증류를 통해 개발된 모델입니다. 이 모델은 DeepSeek-R1에서 생성된 80만 개의 선별된 샘플을 사용하여 미세 조정되었으며, 여러 벤치마크에서 우수한 성능을 보여주었습니다. 경량 모델임에도 불구하고 MATH-500에서 83.9%의 정확도, AIME 2024에서 28.9%의 통과율, CodeForces에서 954점을 기록하여 매개변수 규모를 뛰어넘는 추론 능력을 입증했습니다."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B는 Qwen2.5-Math-7B를 기반으로 지식 증류를 통해 개발된 모델입니다. 이 모델은 DeepSeek-R1에서 생성된 80만 개의 선별된 샘플을 사용하여 미세 조정되었으며, 우수한 추론 능력을 보여줍니다. 다양한 벤치마크에서 뛰어난 성능을 발휘하며, MATH-500에서 92.8%의 정확도, AIME 2024에서 55.5%의 통과율, CodeForces에서 1189점을 기록하여 7B 규모 모델로서 강력한 수학 및 프로그래밍 능력을 입증했습니다."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview는 Qwen의 최신 실험적 연구 모델로, AI 추론 능력을 향상시키는 데 중점을 두고 있습니다. 언어 혼합, 재귀 추론 등 복잡한 메커니즘을 탐구하며, 주요 장점으로는 강력한 추론 분석 능력, 수학 및 프로그래밍 능력이 포함됩니다. 동시에 언어 전환 문제, 추론 루프, 안전성 고려 및 기타 능력 차이와 같은 문제도 존재합니다."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct는 Qwen2 시리즈의 지침 미세 조정 대규모 언어 모델로, 파라미터 규모는 1.5B입니다. 이 모델은 Transformer 아키텍처를 기반으로 하며, SwiGLU 활성화 함수, 주의 QKV 편향 및 그룹 쿼리 주의와 같은 기술을 사용합니다. 이 모델은 언어 이해, 생성, 다국어 능력, 코딩, 수학 및 추론 등 여러 벤치마크 테스트에서 뛰어난 성능을 보이며, 대부분의 오픈 소스 모델을 초월합니다. Qwen1.5-1.8B-Chat과 비교할 때, Qwen2-1.5B-Instruct는 MMLU, HumanEval, GSM8K, C-Eval 및 IFEval 등의 테스트에서 상당한 성능 향상을 보였습니다."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2는 다양한 지시 유형을 지원하는 고급 범용 언어 모델입니다."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414는 깊은 추론 능력을 갖춘 모델로(OpenAI의 Deep Research와 비교됨), 전형적인 깊은 사고 모델과는 달리, 더 긴 시간 동안 깊은 사고를 통해 더 개방적이고 복잡한 문제를 해결합니다."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B는 Zhizhu AI가 개발한 ChatGLM 시리즈의 오픈 소스 모델입니다. 이 모델은 이전 모델의 우수한 특성을 유지하면서 대화의 유창함과 배포 장벽을 낮추는 새로운 기능을 도입했습니다. 더 다양한 훈련 데이터, 충분한 훈련 단계 및 합리적인 훈련 전략을 채택하여 10B 이하의 사전 훈련 모델 중에서 뛰어난 성능을 보입니다. ChatGLM3-6B는 다중 회전 대화, 도구 호출, 코드 실행 및 에이전트 작업과 같은 복잡한 시나리오를 지원합니다. 대화 모델 외에도 기본 모델 ChatGLM-6B-Base 및 긴 텍스트 대화 모델 ChatGLM3-6B-32K도 오픈 소스되었습니다. 이 모델은 학술 연구에 완전히 개방되어 있으며, 등록 후 무료 상업적 사용도 허용됩니다."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B 오픈 소스 버전으로, 대화 응용을 위한 최적화된 대화 경험을 제공합니다."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet은 Anthropic이 지금까지 개발한 가장 지능적인 모델로, 시장에서 최초의 혼합 추론 모델입니다. Claude 3.7 Sonnet은 거의 즉각적인 응답이나 연장된 단계적 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. Sonnet은 프로그래밍, 데이터 과학, 시각 처리, 대리 작업에 특히 뛰어납니다."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4는 Anthropic에서 고도로 복잡한 작업을 처리하기 위해 개발한 가장 강력한 모델입니다. 성능, 지능, 유창성 및 이해력 면에서 뛰어난 성과를 보입니다."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4는 거의 즉각적인 응답이나 단계별 심층 사고를 생성할 수 있으며, 사용자는 이러한 과정을 명확하게 볼 수 있습니다. API 사용자는 모델의 사고 시간을 세밀하게 제어할 수도 있습니다."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23은 Cohere에서 출시한 다국어 모델로, 23개 언어를 지원하여 다양한 언어 응용에 편리함을 제공합니다."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1은 강화 학습(RL) 기반의 추론 모델로, 모델 내의 반복성과 가독성 문제를 해결합니다. RL 이전에 DeepSeek-R1은 콜드 스타트 데이터를 도입하여 추론 성능을 더욱 최적화했습니다. 수학, 코드 및 추론 작업에서 OpenAI-o1과 유사한 성능을 보이며, 정교하게 설계된 훈련 방법을 통해 전체적인 효과를 향상시켰습니다."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685B 풀스펙 모델로, 2025년 5월 28일에 출시되었습니다. DeepSeek-R1은 후학습 단계에서 대규모 강화 학습 기술을 활용하여 극소수의 라벨 데이터만으로도 모델의 추론 능력을 크게 향상시켰습니다. 수학, 코드, 자연어 추론 등 과제에서 높은 성능과 강력한 능력을 자랑합니다."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B 빠른 버전으로, 실시간 온라인 검색을 지원하며 모델 성능을 유지하면서 더 빠른 응답 속도를 제공합니다."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview는 Google의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론하고 긴 맥락을 사용하여 대규모 데이터 세트, 코드베이스 및 문서를 분석할 수 있습니다."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview는 구글의 최첨단 사고 모델로, 코드, 수학 및 STEM 분야의 복잡한 문제를 추론할 수 있으며, 긴 문맥을 활용해 대규모 데이터셋, 코드베이스 및 문서를 분석합니다."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B는 중소 규모 작업 처리에 적합하며, 비용 효과성을 갖추고 있습니다."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "프로젝트 수준의 코드 생성 능력 향상; 텍스트 생성 및 작문 품질 향상; 텍스트 이해 주제의 다중 라운드, B2B 명령 준수 및 단어 이해 능력 향상; 번체와 간체 혼용 및 중영 혼용 출력 문제 최적화."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "텍스트 창작과 작문을 최적화하고, 코드 프론트엔드, 수학, 논리 추론 등 이공계 능력을 향상시키며, 명령어 준수 능력을 강화합니다."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "업계 최초의 초대형 Hybrid-Transformer-Mamba 추론 모델로, 추론 능력을 확장하고, 뛰어난 디코딩 속도를 자랑하며, 인간의 선호에 더욱 부합합니다."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "사전 학습 기반 업그레이드로 명령 이해 및 준수 능력 강화; 정렬 단계에서 수학, 코드, 논리, 과학 등 이공계 능력 강화; 문예 창작 품질, 텍스트 이해, 번역 정확도, 지식 질의응답 등 인문계 능력 향상; 각 분야 에이전트 능력 강화, 특히 다중 라운드 대화 이해 능력 중점 강화."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "사전 학습 기반 업그레이드로 작문 및 독해 능력이 향상되었으며, 코드 및 이공계 능력이 크게 향상되고 복잡한 명령어 준수 능력도 지속적으로 개선됩니다."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS 혼원 플래그십 대모델 최신 버전으로, 더 강력한 사고 능력과 더 나은 경험 효과를 제공합니다."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "혼원 최신 다중 모달 모델로, 이미지와 텍스트 입력을 지원하여 텍스트 콘텐츠를 생성합니다."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "혁신적인 오픈 소스 모델 InternLM2.5는 대규모 파라미터를 통해 대화의 지능을 향상시킵니다."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5는 다양한 시나리오에서 스마트 대화 솔루션을 제공합니다."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "통의천문 QVQ 비전 추론 모델로, 시각 입력과 사고 과정(chain-of-thought) 출력을 지원하며, 수학, 프로그래밍, 시각 분석, 창작 및 일반 작업에서 뛰어난 능력을 발휘합니다."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "시각 추론 모델입니다. 시각 입력과 사고 체인 출력을 지원하며, qvq-max 모델에 이어 출시된 플러스 버전으로, qvq-max 모델에 비해 추론 속도가 더 빠르고 성능과 비용의 균형이 우수합니다."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "통의천문 코드 모델입니다."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "단일 응답 제한 활성화"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "추론 강도 조정 활성화"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "값이 클수록 단어 선택이 더 다양하고 풍부해지며, 값이 작을수록 단어 선택이 더 간단하고 소박해집니다.",
|
||||
"title": "어휘 다양성"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "값이 클수록 다양한 표현 방식으로 기울어져 개념의 반복을 피하고, 값이 작을수록 반복적인 개념이나 서술을 사용하는 경향이 있어 표현이 더 일관됩니다.",
|
||||
"title": "표현의 다양성"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "값이 클수록 추론 능력이 강해지지만, 응답 시간과 토큰 소모가 증가할 수 있습니다",
|
||||
"options": {
|
||||
"high": "높음",
|
||||
"low": "낮음",
|
||||
"medium": "중간"
|
||||
},
|
||||
"title": "추론 강도"
|
||||
},
|
||||
"submit": "모델 설정 업데이트",
|
||||
"temperature": {
|
||||
"desc": "값이 클수록 답변이 더 창의적이고 상상력이 풍부해지며, 값이 작을수록 답변이 더 엄격해집니다.",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Een geüpdatete versie van het Phi-3-vision model."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct is een instructie-fijn afgesteld groot taalmodel in de Qwen2-serie, met een parameter grootte van 1.5B. Dit model is gebaseerd op de Transformer-architectuur en maakt gebruik van technieken zoals de SwiGLU-activeringsfunctie, aandacht QKV-bias en groepsquery-aandacht. Het presteert uitstekend in taalbegrip, generatie, meertalige capaciteiten, codering, wiskunde en redenering in verschillende benchmarktests, en overtreft de meeste open-source modellen. In vergelijking met Qwen1.5-1.8B-Chat toont Qwen2-1.5B-Instruct aanzienlijke prestatieverbeteringen in tests zoals MMLU, HumanEval, GSM8K, C-Eval en IFEval, ondanks een iets lager aantal parameters."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct is een instructie-fijn afgesteld groot taalmodel in de Qwen2-serie, met een parameter grootte van 7B. Dit model is gebaseerd op de Transformer-architectuur en maakt gebruik van technieken zoals de SwiGLU-activeringsfunctie, aandacht QKV-bias en groepsquery-aandacht. Het kan grote invoer verwerken. Dit model presteert uitstekend in taalbegrip, generatie, meertalige capaciteiten, codering, wiskunde en redenering in verschillende benchmarktests, en overtreft de meeste open-source modellen, en toont in sommige taken een concurrentievermogen vergelijkbaar met dat van propriëtaire modellen. Qwen2-7B-Instruct presteert beter dan Qwen1.5-7B-Chat in verschillende evaluaties, wat aanzienlijke prestatieverbeteringen aantoont."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL is de nieuwste iteratie van het Qwen-VL-model, dat de toonaangevende prestaties behaalde in benchmarktests voor visueel begrip."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct is een van de nieuwste grote taalmodellen die door Alibaba Cloud is uitgebracht. Dit 7B-model heeft aanzienlijke verbeteringen in coderings- en wiskundige vaardigheden. Het model biedt ook meertalige ondersteuning, met meer dan 29 ondersteunde talen, waaronder Chinees en Engels. Het model heeft aanzienlijke verbeteringen in het volgen van instructies, het begrijpen van gestructureerde gegevens en het genereren van gestructureerde uitvoer (vooral JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 is een door versterkend leren (RL) aangedreven redeneermodel dat problemen met herhaling en leesbaarheid in modellen aanpakt. Voor RL introduceert DeepSeek-R1 cold-start data om de redeneerprestaties verder te optimaliseren. Het presteert vergelijkbaar met OpenAI-o1 in wiskunde, code en redeneertaken en verbetert de algehele effectiviteit door zorgvuldig ontworpen trainingsmethoden."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B is een model dat is afgeleid van Qwen2.5-Math-1.5B door middel van kennisdistillatie. Dit model is fijn afgesteld met 800.000 zorgvuldig geselecteerde voorbeelden die zijn gegenereerd door DeepSeek-R1, en toont goede prestaties op meerdere benchmarks. Als een lichtgewicht model behaalde het een nauwkeurigheid van 83,9% op MATH-500, een doorlooptarief van 28,9% op AIME 2024 en een score van 954 op CodeForces, wat aantoont dat het inferentiecapaciteiten heeft die verder gaan dan zijn parameterschaal."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B is een model dat is afgeleid van Qwen2.5-Math-7B door middel van kennisdistillatie. Dit model is fijn afgesteld met 800.000 zorgvuldig geselecteerde voorbeelden die zijn gegenereerd door DeepSeek-R1, waardoor het uitstekende inferentiecapaciteiten vertoont. Het presteert goed op verschillende benchmarks, met een nauwkeurigheid van 92,8% op MATH-500, een doorlooptarief van 55,5% op AIME 2024 en een score van 1189 op CodeForces. Als een model van 7B schaal toont het sterke wiskundige en programmeringvaardigheden."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview is het nieuwste experimentele onderzoeksmodel van Qwen, gericht op het verbeteren van AI-redeneringscapaciteiten. Door het verkennen van complexe mechanismen zoals taalmixing en recursieve redenering, zijn de belangrijkste voordelen onder andere krachtige redeneringsanalyses, wiskundige en programmeervaardigheden. Tegelijkertijd zijn er ook problemen met taalwisseling, redeneringscycli, veiligheidskwesties en verschillen in andere capaciteiten."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct is een instructie-fijn afgesteld groot taalmodel in de Qwen2-serie, met een parameter grootte van 1.5B. Dit model is gebaseerd op de Transformer-architectuur en maakt gebruik van technieken zoals de SwiGLU-activeringsfunctie, aandacht QKV-bias en groepsquery-aandacht. Het presteert uitstekend in taalbegrip, generatie, meertalige capaciteiten, codering, wiskunde en redenering in verschillende benchmarktests, en overtreft de meeste open-source modellen. In vergelijking met Qwen1.5-1.8B-Chat toont Qwen2-1.5B-Instruct aanzienlijke prestatieverbeteringen in tests zoals MMLU, HumanEval, GSM8K, C-Eval en IFEval, ondanks een iets lager aantal parameters."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 is een geavanceerd algemeen taalmodel dat verschillende soorten instructies ondersteunt."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 is een diep redeneringsmodel met reflectievermogen (vergelijkbaar met OpenAI's Deep Research). In tegenstelling tot typische diep denkmodellen, gebruikt het reflectiemodel langere periodes van diep nadenken om meer open en complexe problemen op te lossen."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B is het open-source model van de ChatGLM-serie, ontwikkeld door Zhipu AI. Dit model behoudt de uitstekende kenmerken van de vorige generatie, zoals vloeiende gesprekken en lage implementatiedrempels, terwijl het nieuwe functies introduceert. Het maakt gebruik van meer diverse trainingsdata, een groter aantal trainingsstappen en een meer redelijke trainingsstrategie, en presteert uitstekend onder de voorgetrainde modellen van minder dan 10B. ChatGLM3-6B ondersteunt complexe scenario's zoals meerdaagse gesprekken, tool-aanroepen, code-uitvoering en agenttaken. Naast het gespreksmodel zijn ook het basismodel ChatGLM-6B-Base en het lange tekstgespreksmodel ChatGLM3-6B-32K open-source gemaakt. Dit model is volledig open voor academisch onderzoek en staat ook gratis commercieel gebruik toe na registratie."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B is de open-source versie die een geoptimaliseerde gesprekservaring biedt voor gespreksapplicaties."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet is het meest geavanceerde model van Anthropic tot nu toe en het eerste hybride redeneermodel op de markt. Claude 3.7 Sonnet kan bijna onmiddellijke reacties of uitgebreide stapsgewijze overpeinzingen genereren, waarbij gebruikers deze processen duidelijk kunnen volgen. Sonnet is bijzonder goed in programmeren, datawetenschap, visuele verwerking en agenttaken."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 is het krachtigste model van Anthropic voor het verwerken van zeer complexe taken. Het blinkt uit in prestaties, intelligentie, vloeiendheid en begrip."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 kan bijna onmiddellijke reacties genereren of uitgebreide stapsgewijze overwegingen, waarbij gebruikers deze processen duidelijk kunnen volgen. API-gebruikers kunnen ook de denktijd van het model nauwkeurig regelen."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 is een meertalig model van Cohere, ondersteunt 23 talen en biedt gemak voor diverse taaltoepassingen."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 is een op versterkend leren (RL) aangedreven inferentiemodel dat de problemen van herhaling en leesbaarheid in het model oplost. Voor RL introduceerde DeepSeek-R1 koude startdata om de inferentieprestaties verder te optimaliseren. Het presteert vergelijkbaar met OpenAI-o1 in wiskunde, code en inferentietaken, en verbetert de algehele effectiviteit door zorgvuldig ontworpen trainingsmethoden."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685 miljard parameter full-power model, uitgebracht op 28 mei 2025. DeepSeek-R1 maakt uitgebreid gebruik van versterkend leren in de post-trainingsfase, wat de reden is voor de aanzienlijke verbetering van het redeneervermogen van het model ondanks zeer beperkte gelabelde data. Het presteert uitstekend op taken zoals wiskunde, coderen en natuurlijke taalredenering."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B snelle versie, ondersteunt realtime online zoeken en biedt snellere reactietijden zonder in te boeten op modelprestaties."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview is Google's meest geavanceerde denkmodel, in staat om te redeneren over complexe problemen in code, wiskunde en STEM-gebieden, en om grote datasets, codebases en documenten te analyseren met lange context."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview is Google's meest geavanceerde denkwijze-model, in staat om complexe problemen op het gebied van code, wiskunde en STEM te redeneren, en grote datasets, codebases en documenten te analyseren met lange context."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B is geschikt voor het verwerken van middelgrote taken, met een goede kosteneffectiviteit."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Verbeter de codegeneratie op projectniveau; verhoog de kwaliteit van tekstgeneratie en schrijfvaardigheid; verbeter het begrip van tekstonderwerpen, multi-turn en to-the-point instructies en woordbegrip; optimaliseer problemen met gemengde traditionele en vereenvoudigde karakters en gemengde Chinese en Engelse output."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Geoptimaliseerd voor tekstcreatie en essay schrijven, verbeterde vaardigheden in frontend codering, wiskunde en logisch redeneren, en verbeterde instructievolging."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "De eerste ultra-grote Hybrid-Transformer-Mamba inferentiemodel in de industrie, dat de inferentiemogelijkheden uitbreidt, met een superieure decodesnelheid en verder afgestemd op menselijke voorkeuren."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Upgrade van het pre-trainingsfundament, versterkt het begrip en de naleving van instructies; verbetert wiskundige, codeer-, logische en wetenschappelijke vaardigheden tijdens de afstemmingsfase; verhoogt de kwaliteit van creatieve teksten, tekstbegrip, vertaalnauwkeurigheid en kennisvragen; versterkt de capaciteiten van agenten in diverse domeinen, met speciale aandacht voor het begrip van multi-turn dialogen."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Upgrade van de pre-trainingsbasis, verbeterde schrijf- en leesbegripvaardigheden, aanzienlijke verbetering van codeer- en wetenschappelijke vaardigheden, en voortdurende verbetering in het volgen van complexe instructies."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS is de nieuwste versie van het Hunyuan vlaggenschipmodel, met verbeterde denkcapaciteiten en een betere gebruikerservaring."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Het nieuwste multimodale model van Hunyuan, ondersteunt het genereren van tekstinhoud op basis van afbeelding + tekstinvoer."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Het innovatieve open-source model InternLM2.5 verhoogt de gespreksintelligentie door een groot aantal parameters."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 biedt intelligente gespreksoplossingen voor meerdere scenario's."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Tongyi Qianwen QVQ visueel redeneermodel, ondersteunt visuele input en keten van gedachten output, toont sterkere capaciteiten in wiskunde, programmeren, visuele analyse, creatie en algemene taken."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Visueel redeneermodel. Ondersteunt visuele input en keten van gedachten output. De plus-versie, uitgebracht na het qvq-max model, biedt snellere redeneersnelheid en een betere balans tussen effectiviteit en kosten in vergelijking met het qvq-max model."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Tongyi Qianwen codeermodel."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Limiet voor enkele reacties inschakelen"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Schakel redeneerkracht aanpassing in"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Hoe hoger de waarde, hoe rijker en gevarieerder de woordkeuze; hoe lager de waarde, hoe eenvoudiger en directer de woordkeuze",
|
||||
"title": "Woordenschat diversiteit"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Hoe hoger de waarde, hoe meer de neiging om verschillende uitdrukkingen te gebruiken en herhaling van concepten te vermijden; hoe lager de waarde, hoe meer de neiging om herhalende concepten of verhalen te gebruiken, wat zorgt voor meer consistentie in de uitdrukking",
|
||||
"title": "Uitdrukkingsdiversiteit"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Hoe hoger de waarde, hoe sterker het redeneervermogen, maar dit kan de reactietijd en het tokenverbruik verhogen",
|
||||
"options": {
|
||||
"high": "Hoog",
|
||||
"low": "Laag",
|
||||
"medium": "Gemiddeld"
|
||||
},
|
||||
"title": "Redeneerkracht"
|
||||
},
|
||||
"submit": "Modelinstellingen bijwerken",
|
||||
"temperature": {
|
||||
"desc": "Hoe hoger de waarde, hoe creatiever en fantasierijker het antwoord; hoe lager de waarde, hoe strikter het antwoord.",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Zaktualizowana wersja modelu Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct to model dużego języka z serii Qwen2, dostosowany do instrukcji, o rozmiarze parametrów wynoszącym 1.5B. Model ten oparty jest na architekturze Transformer, wykorzystując funkcję aktywacji SwiGLU, przesunięcia QKV w uwadze oraz grupowe zapytania uwagi. Wykazuje doskonałe wyniki w wielu testach benchmarkowych dotyczących rozumienia języka, generowania, zdolności wielojęzycznych, kodowania, matematyki i wnioskowania, przewyższając większość modeli open-source. W porównaniu do Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct wykazuje znaczną poprawę wydajności w testach MMLU, HumanEval, GSM8K, C-Eval i IFEval, mimo że ma nieco mniejszą liczbę parametrów."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct to model dużego języka z serii Qwen2, dostosowany do instrukcji, o rozmiarze parametrów wynoszącym 7B. Model ten oparty jest na architekturze Transformer, wykorzystując funkcję aktywacji SwiGLU, przesunięcia QKV w uwadze oraz grupowe zapytania uwagi. Może obsługiwać duże wejścia. Model ten wykazuje doskonałe wyniki w wielu testach benchmarkowych dotyczących rozumienia języka, generowania, zdolności wielojęzycznych, kodowania, matematyki i wnioskowania, przewyższając większość modeli open-source i wykazując konkurencyjność z modelami własnościowymi w niektórych zadaniach. Qwen2-7B-Instruct wykazuje znaczną poprawę wydajności w wielu ocenach w porównaniu do Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL to najnowsza iteracja modelu Qwen-VL, osiągająca najnowocześniejsze wyniki w benchmarkach zrozumienia wizualnego."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct to jeden z najnowszych modeli dużych języków wydanych przez Alibaba Cloud. Model 7B ma znacząco poprawione zdolności w zakresie kodowania i matematyki. Oferuje również wsparcie dla wielu języków, obejmując ponad 29 języków, w tym chiński i angielski. Model ten wykazuje znaczną poprawę w zakresie przestrzegania instrukcji, rozumienia danych strukturalnych oraz generowania strukturalnych wyników (szczególnie JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 to model wnioskowania napędzany uczeniem ze wzmocnieniem (RL), rozwiązujący problemy powtarzalności i czytelności w modelach. Przed zastosowaniem RL wprowadzono dane cold start, co dodatkowo zoptymalizowało wydajność wnioskowania. Model osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, kodowania i wnioskowania, a dzięki starannie zaprojektowanym metodom treningowym poprawia ogólną efektywność."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B to model stworzony na podstawie Qwen2.5-Math-1.5B poprzez proces wiedzy distylacji. Model ten został dostrajony za pomocą 800 000 wybrukowanych próbek wygenerowanych przez DeepSeek-R1, co pozwoliło osiągnąć dobre wyniki na wielu testach benchmarkowych. Jako lekki model, osiągnął 83,9% dokładności na MATH-500, 28,9% sukcesów na AIME 2024 oraz 954 punkty na CodeForces, co świadczy o zdolnościach wnioskowania przekraczających jego rozmiar parametrów."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B to model stworzony na podstawie Qwen2.5-Math-7B poprzez proces wiedzy distylacji. Model ten został wytrenowany na 800 000 wybrukowanych próbkach wygenerowanych przez DeepSeek-R1, co pozwoliło mu wykazać się doskonałymi zdolnościami wnioskowania. W wielu testach referencyjnych osiągnął znakomite wyniki, w tym 92,8% dokładności na MATH-500, 55,5% sukcesów na AIME 2024 oraz 1189 punktów na CodeForces, co potwierdza jego silne umiejętności matematyczne i programistyczne jako modelu o rozmiarze 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview to najnowszy eksperymentalny model badawczy Qwen, skoncentrowany na zwiększeniu zdolności wnioskowania AI. Poprzez eksplorację złożonych mechanizmów, takich jak mieszanie języków i wnioskowanie rekurencyjne, główne zalety obejmują silne zdolności analizy wnioskowania, matematyki i programowania. Jednocześnie występują problemy z przełączaniem języków, cyklami wnioskowania, kwestiami bezpieczeństwa oraz różnicami w innych zdolnościach."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct to model dużego języka z serii Qwen2, dostosowany do instrukcji, o rozmiarze parametrów wynoszącym 1.5B. Model ten oparty jest na architekturze Transformer, wykorzystując funkcję aktywacji SwiGLU, przesunięcia QKV w uwadze oraz grupowe zapytania uwagi. Wykazuje doskonałe wyniki w wielu testach benchmarkowych dotyczących rozumienia języka, generowania, zdolności wielojęzycznych, kodowania, matematyki i wnioskowania, przewyższając większość modeli open-source. W porównaniu do Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct wykazuje znaczną poprawę wydajności w testach MMLU, HumanEval, GSM8K, C-Eval i IFEval, mimo że ma nieco mniejszą liczbę parametrów."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 to zaawansowany uniwersalny model językowy, wspierający różne typy poleceń."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 to model głębokiego wnioskowania z zdolnością do refleksji (konkurujący z Deep Research OpenAI). W przeciwieństwie do typowych modeli głębokiego myślenia, model refleksyjny stosuje dłuższy czas głębokiego myślenia do rozwiązywania bardziej otwartych i złożonych problemów."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B to otwarty model z serii ChatGLM, opracowany przez Zhipu AI. Model ten zachowuje doskonałe cechy poprzednich modeli, takie jak płynność rozmowy i niski próg wdrożenia, jednocześnie wprowadzając nowe funkcje. Wykorzystuje bardziej zróżnicowane dane treningowe, większą liczbę kroków treningowych i bardziej rozsądne strategie treningowe, osiągając doskonałe wyniki w modelach pretrenowanych poniżej 10B. ChatGLM3-6B obsługuje złożone scenariusze, takie jak wieloetapowe rozmowy, wywoływanie narzędzi, wykonywanie kodu i zadania agenta. Oprócz modelu konwersacyjnego, udostępniono również podstawowy model ChatGLM-6B-Base oraz model do rozmów długotematycznych ChatGLM3-6B-32K. Model jest całkowicie otwarty dla badań akademickich i pozwala na bezpłatne wykorzystanie komercyjne po rejestracji."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B to otwarta wersja, oferująca zoptymalizowane doświadczenie dialogowe dla aplikacji konwersacyjnych."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet to najinteligentniejszy model stworzony przez Anthropic, a także pierwszy na rynku model mieszanej dedukcji. Claude 3.7 Sonnet potrafi generować niemal natychmiastowe odpowiedzi lub wydłużone, krok po kroku myślenie, które użytkownicy mogą wyraźnie obserwować. Sonnet szczególnie dobrze radzi sobie z programowaniem, nauką o danych, przetwarzaniem wizualnym oraz zadaniami agenta."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 to najpotężniejszy model Anthropic do obsługi wysoce złożonych zadań. Wyróżnia się doskonałą wydajnością, inteligencją, płynnością i zdolnością rozumienia."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub wydłużone, stopniowe rozumowanie, które użytkownicy mogą wyraźnie obserwować. Użytkownicy API mają również precyzyjną kontrolę nad czasem rozmyślania modelu."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 to model wielojęzyczny wydany przez Cohere, wspierający 23 języki, ułatwiający różnorodne zastosowania językowe."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 to model wnioskowania napędzany uczeniem przez wzmacnianie (RL), który rozwiązuje problemy z powtarzalnością i czytelnością modelu. Przed RL, DeepSeek-R1 wprowadził dane z zimnego startu, co dodatkowo zoptymalizowało wydajność wnioskowania. W zadaniach matematycznych, kodowania i wnioskowania osiąga wyniki porównywalne z OpenAI-o1, a dzięki starannie zaprojektowanym metodom treningowym poprawia ogólne efekty."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Model w pełnej wersji 685B, wydany 28 maja 2025 roku. DeepSeek-R1 wykorzystuje techniki uczenia ze wzmocnieniem na dużą skalę w fazie post-treningowej, co znacznie poprawia zdolności wnioskowania modelu przy minimalnej ilości oznaczonych danych. Wysoka wydajność i zdolności w zadaniach matematycznych, kodowaniu oraz rozumowaniu języka naturalnego."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B szybka wersja, wspierająca wyszukiwanie w czasie rzeczywistym, oferująca szybszy czas reakcji przy zachowaniu wydajności modelu."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview to najnowocześniejszy model myślenia Google, zdolny do wnioskowania w złożonych problemach związanych z kodem, matematyką i dziedzinami STEM, a także do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów przy użyciu długiego kontekstu."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview to najnowocześniejszy model myślowy Google, zdolny do rozumowania nad złożonymi problemami w dziedzinach kodowania, matematyki i STEM oraz do analizy dużych zbiorów danych, repozytoriów kodu i dokumentów z wykorzystaniem długich kontekstów."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B nadaje się do przetwarzania zadań średniej i małej skali, łącząc efektywność kosztową."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Zwiększenie zdolności generowania kodu na poziomie projektu; poprawa jakości pisania generowanego tekstu; ulepszenie wieloetapowego rozumienia tematów, przestrzegania instrukcji typu tob oraz rozumienia słów; optymalizacja problemów z mieszanym użyciem uproszczonych i tradycyjnych znaków oraz mieszanym językiem chińsko-angielskim."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Optymalizacja tworzenia tekstów, pisania esejów, ulepszenie umiejętności w kodowaniu frontendowym, matematyce, rozumowaniu logicznym oraz zwiększenie zdolności do przestrzegania instrukcji."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Pierwszy na świecie ultra-duży model wnioskowania Hybrid-Transformer-Mamba, rozszerzający zdolności wnioskowania, z niezwykle szybkim dekodowaniem, lepiej dostosowany do ludzkich preferencji."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Aktualizacja bazy pretrenowania, wzmacniająca zdolność rozumienia i przestrzegania instrukcji; w fazie dostrajania poprawa umiejętności matematycznych, programistycznych, logicznych i nauk ścisłych; podniesienie jakości twórczości literackiej, rozumienia tekstu, dokładności tłumaczeń oraz wiedzy ogólnej; wzmocnienie zdolności agentów w różnych dziedzinach, ze szczególnym naciskiem na rozumienie wieloetapowych dialogów."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Ulepszona baza pretrenowania, poprawa umiejętności pisania i rozumienia tekstu, znaczne zwiększenie zdolności w kodowaniu i naukach ścisłych, ciągłe doskonalenie w realizacji złożonych poleceń."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS to najnowsza wersja flagowego modelu Hunyuan, oferująca silniejsze zdolności myślenia i lepsze efekty doświadczenia."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Najnowocześniejszy model multimodalny Hunyuan, wspierający generowanie treści tekstowych na podstawie obrazów i tekstu."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Innowacyjny model open source InternLM2.5, dzięki dużej liczbie parametrów, zwiększa inteligencję dialogową."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 oferuje inteligentne rozwiązania dialogowe w różnych scenariuszach."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Model wizualnego wnioskowania Tongyi Qianwen QVQ, obsługujący wejścia wizualne i generujący łańcuchy myślowe, wykazujący silne zdolności w matematyce, programowaniu, analizie wizualnej, twórczości oraz zadaniach ogólnych."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Model wnioskowania wizualnego. Obsługuje wejścia wizualne oraz generowanie łańcuchów myślowych. Wersja plus po modelu qvq-max, charakteryzuje się szybszym wnioskowaniem oraz lepszą równowagą między efektywnością a kosztami w porównaniu do qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Model kodowania Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Włącz limit jednorazowej odpowiedzi"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Włącz regulację intensywności wnioskowania"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Im większa wartość, tym bardziej zróżnicowane i bogate słownictwo; im mniejsza wartość, tym prostsze i bardziej bezpośrednie słownictwo",
|
||||
"title": "Różnorodność słownictwa"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Im większa wartość, tym większa tendencja do różnorodnych wyrażeń, unikanie powtórzeń; im mniejsza wartość, tym większa tendencja do używania powtarzających się koncepcji lub narracji, co prowadzi do większej spójności",
|
||||
"title": "Różnorodność wyrażeń"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Im wyższa wartość, tym silniejsza zdolność wnioskowania, ale może to zwiększyć czas odpowiedzi i zużycie tokenów",
|
||||
"options": {
|
||||
"high": "Wysoka",
|
||||
"low": "Niska",
|
||||
"medium": "Średnia"
|
||||
},
|
||||
"title": "Intensywność wnioskowania"
|
||||
},
|
||||
"submit": "Zaktualizuj ustawienia modelu",
|
||||
"temperature": {
|
||||
"desc": "Im większa wartość, tym bardziej kreatywne i wyobrażeniowe będą odpowiedzi; im mniejsza wartość, tym bardziej rygorystyczne odpowiedzi",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Versão atualizada do modelo Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct é um modelo de linguagem de grande escala com ajuste fino para instruções na série Qwen2, com um tamanho de parâmetro de 1.5B. Este modelo é baseado na arquitetura Transformer, utilizando funções de ativação SwiGLU, viés de atenção QKV e atenção de consulta em grupo. Ele se destaca em compreensão de linguagem, geração, capacidade multilíngue, codificação, matemática e raciocínio em vários benchmarks, superando a maioria dos modelos de código aberto. Em comparação com o Qwen1.5-1.8B-Chat, o Qwen2-1.5B-Instruct mostrou melhorias significativas de desempenho em testes como MMLU, HumanEval, GSM8K, C-Eval e IFEval, apesar de ter um número de parâmetros ligeiramente menor."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct é um modelo de linguagem de grande escala com ajuste fino para instruções na série Qwen2, com um tamanho de parâmetro de 7B. Este modelo é baseado na arquitetura Transformer, utilizando funções de ativação SwiGLU, viés de atenção QKV e atenção de consulta em grupo. Ele é capaz de lidar com entradas em larga escala. O modelo se destaca em compreensão de linguagem, geração, capacidade multilíngue, codificação, matemática e raciocínio em vários benchmarks, superando a maioria dos modelos de código aberto e demonstrando competitividade comparável a modelos proprietários em algumas tarefas. O Qwen2-7B-Instruct superou o Qwen1.5-7B-Chat em várias avaliações, mostrando melhorias significativas de desempenho."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL é a versão mais recente do modelo Qwen-VL, alcançando desempenho de ponta em testes de compreensão visual."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct é um dos mais recentes modelos de linguagem de grande escala lançados pela Alibaba Cloud. Este modelo de 7B apresenta melhorias significativas em áreas como codificação e matemática. O modelo também oferece suporte multilíngue, abrangendo mais de 29 idiomas, incluindo chinês e inglês. O modelo teve melhorias significativas em seguir instruções, entender dados estruturados e gerar saídas estruturadas (especialmente JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 é um modelo de raciocínio impulsionado por aprendizado por reforço (RL), que resolve problemas de repetição e legibilidade no modelo. Antes do RL, DeepSeek-R1 introduziu dados de cold start para otimizar ainda mais o desempenho do raciocínio. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas de matemática, código e raciocínio, e melhora o desempenho geral por meio de métodos de treinamento cuidadosamente projetados."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B é um modelo obtido por destilação de conhecimento baseado no Qwen2.5-Math-1.5B. Este modelo foi refinado usando 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando desempenho notável em diversos benchmarks. Como um modelo leve, alcançou 83,9% de precisão no MATH-500, 28,9% de taxa de aprovação no AIME 2024 e uma pontuação de 954 no CodeForces, exibindo capacidades de raciocínio que superam seu tamanho de parâmetros."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B é um modelo obtido por destilação de conhecimento baseado no Qwen2.5-Math-7B. Este modelo foi refinado usando 800 mil amostras selecionadas geradas pelo DeepSeek-R1, demonstrando excelente capacidade de raciocínio. Apresenta desempenho destacado em diversos benchmarks, alcançando 92,8% de precisão no MATH-500, 55,5% de taxa de aprovação no AIME 2024 e uma pontuação de 1189 no CodeForces, mostrando forte competência em matemática e programação para um modelo de escala 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview é o mais recente modelo de pesquisa experimental da Qwen, focado em melhorar a capacidade de raciocínio da IA. Ao explorar mecanismos complexos como mistura de linguagem e raciocínio recursivo, suas principais vantagens incluem forte capacidade de análise de raciocínio, habilidades matemáticas e de programação. Ao mesmo tempo, existem questões de troca de linguagem, ciclos de raciocínio, considerações de segurança e diferenças em outras capacidades."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct é um modelo de linguagem de grande escala com ajuste fino para instruções na série Qwen2, com um tamanho de parâmetro de 1.5B. Este modelo é baseado na arquitetura Transformer, utilizando funções de ativação SwiGLU, viés de atenção QKV e atenção de consulta em grupo. Ele se destaca em compreensão de linguagem, geração, capacidade multilíngue, codificação, matemática e raciocínio em vários benchmarks, superando a maioria dos modelos de código aberto. Em comparação com o Qwen1.5-1.8B-Chat, o Qwen2-1.5B-Instruct mostrou melhorias significativas de desempenho em testes como MMLU, HumanEval, GSM8K, C-Eval e IFEval, apesar de ter um número de parâmetros ligeiramente menor."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 é um modelo de linguagem universal avançado, suportando diversos tipos de instruções."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 é um modelo de inferência profunda com capacidade de reflexão (comparável ao Deep Research da OpenAI). Diferente dos modelos típicos de pensamento profundo, o modelo de reflexão utiliza um tempo mais longo de pensamento profundo para resolver problemas mais abertos e complexos."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B é um modelo de código aberto da série ChatGLM, desenvolvido pela Zhipu AI. Este modelo mantém as excelentes características da geração anterior, como fluência no diálogo e baixo custo de implantação, enquanto introduz novos recursos. Ele utiliza dados de treinamento mais variados, um número de passos de treinamento mais robusto e uma estratégia de treinamento mais razoável, destacando-se entre modelos pré-treinados abaixo de 10B. O ChatGLM3-6B suporta diálogos de múltiplas rodadas, chamadas de ferramentas, execução de código e tarefas de agente em cenários complexos. Além do modelo de diálogo, também foram lançados o modelo base ChatGLM-6B-Base e o modelo de diálogo de longo texto ChatGLM3-6B-32K. Este modelo está completamente aberto para pesquisa acadêmica e permite uso comercial gratuito após registro."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B é uma versão de código aberto, oferecendo uma experiência de diálogo otimizada para aplicações de conversa."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic até agora e é o primeiro modelo de raciocínio misto do mercado. Claude 3.7 Sonnet pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Sonnet é especialmente habilidoso em programação, ciência de dados, processamento visual e tarefas de agente."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para lidar com tarefas altamente complexas. Ele se destaca em desempenho, inteligência, fluidez e capacidade de compreensão."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou um pensamento gradual prolongado, permitindo que os usuários vejam claramente esses processos. Usuários da API também podem controlar detalhadamente o tempo de raciocínio do modelo."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 é um modelo multilíngue lançado pela Cohere, suportando 23 idiomas, facilitando aplicações linguísticas diversificadas."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 é um modelo de inferência impulsionado por aprendizado por reforço (RL), que resolve problemas de repetitividade e legibilidade no modelo. Antes do RL, o DeepSeek-R1 introduziu dados de inicialização a frio, otimizando ainda mais o desempenho da inferência. Ele apresenta desempenho comparável ao OpenAI-o1 em tarefas matemáticas, de código e de inferência, e melhora o resultado geral por meio de métodos de treinamento cuidadosamente projetados."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Modelo completo de 685B, lançado em 28 de maio de 2025. O DeepSeek-R1 utilizou amplamente técnicas de aprendizado por reforço na fase pós-treinamento, aumentando significativamente a capacidade de raciocínio do modelo mesmo com poucos dados anotados. Apresenta alto desempenho e forte capacidade em tarefas de matemática, código e raciocínio em linguagem natural."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B versão rápida, suporta busca em tempo real, oferecendo maior velocidade de resposta enquanto mantém o desempenho do modelo."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "O Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando longos contextos."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview é o modelo de pensamento mais avançado do Google, capaz de raciocinar sobre problemas complexos em código, matemática e áreas STEM, além de analisar grandes conjuntos de dados, bibliotecas de código e documentos usando contexto extenso."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B é adequado para o processamento de tarefas de pequeno a médio porte, combinando custo e eficiência."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Melhore a capacidade de geração de código em nível de projeto; aumente a qualidade da escrita gerada em texto; aprimore a compreensão de tópicos em múltiplas rodadas, a conformidade com instruções do tipo tob e a compreensão de palavras; otimize problemas de saída com mistura de caracteres tradicionais e simplificados, bem como misturas de chinês e inglês."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Otimizado para criação de textos, redação de ensaios, aprimoramento em front-end de código, matemática, raciocínio lógico e outras habilidades científicas, além de melhorar a capacidade de seguir instruções."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "O primeiro modelo de inferência Hybrid-Transformer-Mamba em larga escala da indústria, que expande a capacidade de inferência, possui uma velocidade de decodificação excepcional e alinha-se ainda mais às preferências humanas."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Atualização da base pré-treinada para fortalecer a compreensão e conformidade com instruções; aprimoramento das habilidades em matemática, código, lógica e ciências exatas na fase de alinhamento; melhoria da qualidade da escrita criativa, compreensão textual, precisão na tradução e respostas a perguntas em ciências humanas; fortalecimento das capacidades de agentes em diversas áreas, com foco especial na compreensão de diálogos em múltiplas rodadas."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Atualização da base pré-treinada, com melhorias em escrita e compreensão de leitura, aumento significativo nas habilidades de código e ciências, e aprimoramento contínuo no seguimento de instruções complexas."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "A versão mais recente do hunyuan-TurboS, o modelo de grande porte da Hunyuan, possui uma capacidade de raciocínio mais forte e uma experiência aprimorada."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "O mais recente modelo multimodal Hunyuan, que suporta a entrada de imagens e texto para gerar conteúdo textual."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "O modelo de código aberto inovador InternLM2.5, com um grande número de parâmetros, melhora a inteligência do diálogo."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 oferece soluções de diálogo inteligente em múltiplos cenários."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Modelo de raciocínio visual QVQ Tongyi Qianwen, que suporta entrada visual e saída de cadeia de pensamento, demonstrando capacidades superiores em matemática, programação, análise visual, criação e tarefas gerais."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Modelo de raciocínio visual. Suporta entrada visual e saída em cadeia de pensamento. Versão plus lançada após o modelo qvq-max, com velocidade de raciocínio mais rápida e melhor equilíbrio entre desempenho e custo em comparação ao qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Modelo de código Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Ativar limite de resposta única"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Ativar ajuste de intensidade de raciocínio"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Quanto maior o valor, mais rica e variada será a escolha de palavras; quanto menor o valor, mais simples e direta será a escolha de palavras.",
|
||||
"title": "Riqueza do Vocabulário"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Quanto maior o valor, mais inclinado a diferentes formas de expressão, evitando repetições de conceitos; quanto menor o valor, mais inclinado a usar conceitos ou narrativas repetidas, resultando em uma expressão mais consistente.",
|
||||
"title": "Diversidade de Expressão"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Quanto maior o valor, mais forte é a capacidade de raciocínio, mas pode aumentar o tempo de resposta e o consumo de tokens",
|
||||
"options": {
|
||||
"high": "Alto",
|
||||
"low": "Baixo",
|
||||
"medium": "Médio"
|
||||
},
|
||||
"title": "Intensidade do raciocínio"
|
||||
},
|
||||
"submit": "Atualizar configurações do modelo",
|
||||
"temperature": {
|
||||
"desc": "Quanto maior o valor, mais criativas e imaginativas serão as respostas; quanto menor o valor, mais rigorosas serão as respostas",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Обновленная версия модели Phi-3-vision."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct — это языковая модель с дообучением на инструкциях в серии Qwen2, с параметрами 1.5B. Эта модель основана на архитектуре Transformer и использует такие технологии, как активационная функция SwiGLU, смещение внимания QKV и групповой запрос внимания. Она показывает отличные результаты в понимании языка, генерации, многоязычных способностях, кодировании, математике и выводах в различных бенчмарках, превосходя большинство открытых моделей. По сравнению с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct демонстрирует значительное улучшение производительности в тестах MMLU, HumanEval, GSM8K, C-Eval и IFEval, несмотря на немного меньшее количество параметров."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct — это языковая модель с дообучением на инструкциях в серии Qwen2, с параметрами 7B. Эта модель основана на архитектуре Transformer и использует такие технологии, как активационная функция SwiGLU, смещение внимания QKV и групповой запрос внимания. Она может обрабатывать большие объемы входных данных. Эта модель показывает отличные результаты в понимании языка, генерации, многоязычных способностях, кодировании, математике и выводах в различных бенчмарках, превосходя большинство открытых моделей и демонстрируя конкурентоспособность с проприетарными моделями в некоторых задачах. Qwen2-7B-Instruct показывает значительное улучшение производительности в нескольких оценках по сравнению с Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL - это последняя версия модели Qwen-VL, которая достигла передовых результатов в тестировании визуального понимания."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct — это одна из последних языковых моделей, выпущенных Alibaba Cloud. Эта 7B модель значительно улучшила способности в области кодирования и математики. Модель также поддерживает множество языков, охватывающих более 29 языков, включая китайский и английский. Она значительно улучшила выполнение инструкций, понимание структурированных данных и генерацию структурированных выходных данных (особенно JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 — модель рассуждений, управляемая обучением с подкреплением (RL), решающая проблемы повторяемости и читаемости в моделях. Перед RL DeepSeek-R1 использовал данные холодного старта для дальнейшей оптимизации производительности рассуждений. Модель показывает сопоставимые с OpenAI-o1 результаты в математике, программировании и задачах рассуждения, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B — это модель, полученная методом дистилляции знаний на основе Qwen2.5-Math-1.5B. Модель была дообучена на 800 тысячах тщательно отобранных образцов, сгенерированных DeepSeek-R1, и демонстрирует хорошую производительность в различных тестах. Будучи компактной моделью, она достигает точности 83,9% на MATH-500, уровня прохождения 28,9% на AIME 2024 и оценки 954 на CodeForces, что свидетельствует о её способностях к логическому выводу, превосходящих ожидания для её размера."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B — это модель, полученная методом дистилляции знаний на основе Qwen2.5-Math-7B. Модель была доработана с использованием 800 тысяч отобранных образцов, сгенерированных DeepSeek-R1, и демонстрирует выдающиеся способности к логическому рассуждению. Показывает отличные результаты в различных тестах: точность 92,8% на MATH-500, проходной балл 55,5% на AIME 2024 и оценку 1189 на CodeForces, что подтверждает её высокие математические и программистские возможности для модели масштаба 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview — это последняя экспериментальная исследовательская модель Qwen, сосредоточенная на повышении возможностей вывода ИИ. Исследуя сложные механизмы, такие как смешение языков и рекурсивные выводы, основные преимущества включают мощные аналитические способности, математические и программные навыки. В то же время существуют проблемы с переключением языков, циклом вывода, соображениями безопасности и различиями в других способностях."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct — это языковая модель с дообучением на инструкциях в серии Qwen2, с параметрами 1.5B. Эта модель основана на архитектуре Transformer и использует такие технологии, как активационная функция SwiGLU, смещение внимания QKV и групповой запрос внимания. Она показывает отличные результаты в понимании языка, генерации, многоязычных способностях, кодировании, математике и выводах в различных бенчмарках, превосходя большинство открытых моделей. По сравнению с Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct демонстрирует значительное улучшение производительности в тестах MMLU, HumanEval, GSM8K, C-Eval и IFEval, несмотря на немного меньшее количество параметров."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 — это передовая универсальная языковая модель, поддерживающая множество типов команд."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 — это модель глубокого вывода с размышлениями (сравнимая с Deep Research от OpenAI). В отличие от типичных моделей глубокого мышления, модель размышлений использует более длительное время глубокого мышления для решения более открытых и сложных задач."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B — это открытая модель из серии ChatGLM, разработанная Zhizhu AI. Эта модель сохраняет отличные характеристики предыдущих моделей, такие как плавность диалога и низкий порог развертывания, одновременно вводя новые функции. Она использует более разнообразные обучающие данные, большее количество шагов обучения и более разумную стратегию обучения, показывая отличные результаты среди предобученных моделей объемом менее 10B. ChatGLM3-6B поддерживает многократные диалоги, вызовы инструментов, выполнение кода и задачи агента в сложных сценариях. Кроме диалоговой модели, также открыты базовая модель ChatGLM-6B-Base и модель для длинных текстовых диалогов ChatGLM3-6B-32K. Эта модель полностью открыта для академических исследований и также допускает бесплатное коммерческое использование после регистрации."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B — это открытая версия, обеспечивающая оптимизированный диалоговый опыт для приложений."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet — это самая умная модель от Anthropic на сегодняшний день и первая в мире смешанная модель вывода. Claude 3.7 Sonnet может генерировать почти мгновенные ответы или длительные пошаговые размышления, позволяя пользователям четко видеть эти процессы. Sonnet особенно хорошо справляется с программированием, научными данными, визуальной обработкой и агентскими задачами."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 — самый мощный модель Anthropic для решения высоко сложных задач. Она демонстрирует выдающиеся показатели в производительности, интеллекте, плавности и понимании."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 способен генерировать практически мгновенные ответы или длительные поэтапные размышления, которые пользователи могут ясно отслеживать. API-пользователи также могут точно контролировать время размышлений модели."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 — это многоязычная модель, выпущенная Cohere, поддерживающая 23 языка, обеспечивая удобство для многоязычных приложений."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 — это модель вывода, управляемая методом обучения с подкреплением (RL), которая решает проблемы повторяемости и читаемости модели. Перед применением RL DeepSeek-R1 вводит данные холодного старта, что дополнительно оптимизирует производительность вывода. Она показывает сопоставимые результаты с OpenAI-o1 в математических, кодовых и задачах вывода, а также улучшает общую эффективность благодаря тщательно разработанным методам обучения."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Модель полной мощности с 685 миллиардами параметров, выпущенная 28 мая 2025 года. DeepSeek-R1 широко использует методы обучения с подкреплением на этапе дообучения, что значительно улучшает способности модели к рассуждению при минимальном количестве размеченных данных. Высокая производительность и сильные возможности в задачах математики, программирования и естественно-языкового вывода."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B быстрая версия, поддерживающая онлайн-поиск в реальном времени, обеспечивающая более быструю скорость отклика при сохранении производительности модели."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview — это самая современная модель мышления от Google, способная рассуждать о сложных задачах в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с помощью длинного контекста."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview — передовая модель мышления от Google, способная рассуждать над сложными задачами в области кода, математики и STEM, а также анализировать большие наборы данных, кодовые базы и документы с использованием длинного контекста."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B подходит для обработки задач среднего и малого масштаба, обеспечивая экономическую эффективность."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Повышение возможностей генерации кода на уровне проекта; улучшение качества текстового творчества; улучшение многоходового понимания тем, соблюдения инструкций toB и понимания слов; оптимизация проблем с выводом смешанных упрощённых и традиционных иероглифов, а также смешанных китайско-английских текстов."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Оптимизация создания текстов и написания сочинений, улучшение навыков программирования, математики и логического мышления, повышение способности следовать инструкциям."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Первый в отрасли сверхмасштабный гибридный трансформер-Mamba для вывода, расширяющий возможности вывода, обладающий высокой скоростью декодирования и лучше соответствующий человеческим предпочтениям."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Обновление предобученной базы, усиление способности базы к пониманию и соблюдению инструкций; улучшение математических, программных, логических и научных навыков на этапе согласования; повышение качества творческого письма, понимания текста, точности перевода и знаний в гуманитарных областях; усиление возможностей агентов в различных сферах, с особым акцентом на понимание многоходовых диалогов."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Обновленная база предобучения, улучшенные навыки письма и понимания прочитанного, значительное повышение возможностей в программировании и точных науках, постоянное улучшение следования сложным инструкциям."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS — это последняя версия флагманской модели Hunyuan, обладающая более сильными аналитическими способностями и улучшенным качеством работы."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Последняя многомодальная модель Hunyuan, поддерживающая ввод изображений и текста для генерации текстового контента."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Инновационная открытая модель InternLM2.5, благодаря большому количеству параметров, повышает интеллектуальность диалогов."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 предлагает интеллектуальные решения для диалогов в различных сценариях."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Модель визуального рассуждения Tongyi Qianwen QVQ, поддерживающая визуальный ввод и вывод цепочек рассуждений, демонстрирует усиленные возможности в математике, программировании, визуальном анализе, творчестве и общих задачах."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Модель визуального рассуждения. Поддерживает визуальный ввод и вывод цепочек рассуждений, версия plus, выпущенная после модели qvq-max. По сравнению с qvq-max, серия qvq-plus обеспечивает более высокую скорость рассуждений и более сбалансированное соотношение эффективности и затрат."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Модель кода Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Включить ограничение максимального количества токенов"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Включить регулировку интенсивности рассуждений"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Чем больше значение, тем разнообразнее и богаче словарный запас; чем меньше значение, тем проще и понятнее слова",
|
||||
"title": "Разнообразие словарного запаса"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Чем больше значение, тем больше склонность к различным выражениям, избегая повторения концепций; чем меньше значение, тем больше склонность к использованию повторяющихся концепций или нарративов, выражение становится более последовательным",
|
||||
"title": "Разнообразие выражений"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Чем выше значение, тем сильнее способность к рассуждению, но это может увеличить время отклика и расход токенов",
|
||||
"options": {
|
||||
"high": "Высокий",
|
||||
"low": "Низкий",
|
||||
"medium": "Средний"
|
||||
},
|
||||
"title": "Интенсивность рассуждений"
|
||||
},
|
||||
"submit": "Обновить настройки модели",
|
||||
"temperature": {
|
||||
"desc": "Чем больше значение, тем более креативными и воображаемыми будут ответы; чем меньше значение, тем более строгими будут ответы",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-görsel modelinin güncellenmiş versiyonu."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct, Qwen2 serisindeki talimat ince ayar büyük dil modelidir ve parametre ölçeği 1.5B'dir. Bu model, Transformer mimarisi temelinde, SwiGLU aktivasyon fonksiyonu, dikkat QKV önyargısı ve grup sorgu dikkati gibi teknikler kullanmaktadır. Dil anlama, üretim, çok dilli yetenek, kodlama, matematik ve akıl yürütme gibi birçok standart testte mükemmel performans sergilemekte ve çoğu açık kaynak modelini geride bırakmaktadır. Qwen1.5-1.8B-Chat ile karşılaştırıldığında, Qwen2-1.5B-Instruct, MMLU, HumanEval, GSM8K, C-Eval ve IFEval gibi testlerde belirgin bir performans artışı göstermektedir, parametre sayısı biraz daha az olmasına rağmen."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct, Qwen2 serisindeki talimat ince ayar büyük dil modelidir ve parametre ölçeği 7B'dir. Bu model, Transformer mimarisi temelinde, SwiGLU aktivasyon fonksiyonu, dikkat QKV önyargısı ve grup sorgu dikkati gibi teknikler kullanmaktadır. Büyük ölçekli girişleri işleyebilme yeteneğine sahiptir. Bu model, dil anlama, üretim, çok dilli yetenek, kodlama, matematik ve akıl yürütme gibi birçok standart testte mükemmel performans sergilemekte ve çoğu açık kaynak modelini geride bırakmakta, bazı görevlerde özel modellere karşı rekabet edebilir. Qwen2-7B-Instruct, birçok değerlendirmede Qwen1.5-7B-Chat'ten daha iyi performans göstermekte ve belirgin bir performans artışı sergilemektedir."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL, Qwen-VL modelinin en son yineleme versiyonudur ve görsel anlama kıyaslama testlerinde en gelişmiş performansı sergilemiştir."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct, Alibaba Cloud tarafından yayınlanan en son büyük dil modeli serilerinden biridir. Bu 7B modeli, kodlama ve matematik gibi alanlarda önemli ölçüde geliştirilmiş yeteneklere sahiptir. Model ayrıca, Çince, İngilizce gibi 29'dan fazla dili kapsayan çok dilli destek sunmaktadır. Model, talimat takibi, yapılandırılmış verileri anlama ve yapılandırılmış çıktı (özellikle JSON) üretme konularında önemli iyileştirmeler göstermektedir."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1, pekiştirmeli öğrenme (RL) destekli bir akıl yürütme modelidir ve modeldeki tekrar ve okunabilirlik sorunlarını çözer. RL öncesinde soğuk başlangıç verisi kullanarak akıl yürütme performansını daha da optimize etmiştir. Matematik, kodlama ve akıl yürütme görevlerinde OpenAI-o1 ile benzer performans gösterir ve özenle tasarlanmış eğitim yöntemleriyle genel performansı artırır."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B, Qwen2.5-Math-1.5B temel alınarak bilgi damıtma yöntemiyle geliştirilmiş bir modeldir. Bu model, DeepSeek-R1 tarafından oluşturulan 800 bin seçkin örnekle ince ayar yapılmış olup, çeşitli kıyaslama testlerinde etkileyici performans sergilemektedir. Hafif bir model olmasına rağmen, MATH-500'de %83.9 doğruluk, AIME 2024'te %28.9 geçme oranı ve CodeForces'ta 954 puan elde ederek, parametre boyutunun ötesinde bir akıl yürütme yeteneği göstermiştir."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B, Qwen2.5-Math-7B modelinden bilgi damıtma yöntemiyle elde edilmiş bir modeldir. Bu model, DeepSeek-R1 tarafından oluşturulan 800 bin seçkin örnekle ince ayar yapılarak geliştirilmiş olup, üstün akıl yürütme yeteneği sergilemektedir. Çeşitli kıyaslama testlerinde başarılı performans gösteren model, MATH-500'de %92,8 doğruluk, AIME 2024'te %55,5 geçme oranı ve CodeForces'ta 1189 puan alarak, 7B ölçeğindeki bir model için güçlü matematik ve programlama yeteneklerini ortaya koymuştur."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview, Qwen'in en son deneysel araştırma modelidir ve AI akıl yürütme yeteneklerini artırmaya odaklanmaktadır. Dil karışımı, özyinelemeli akıl yürütme gibi karmaşık mekanizmaları keşfederek, güçlü akıl yürütme analizi, matematik ve programlama yetenekleri gibi ana avantajlar sunmaktadır. Bununla birlikte, dil geçiş sorunları, akıl yürütme döngüleri, güvenlik endişeleri ve diğer yetenek farklılıkları gibi zorluklar da bulunmaktadır."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct, Qwen2 serisindeki talimat ince ayar büyük dil modelidir ve parametre ölçeği 1.5B'dir. Bu model, Transformer mimarisi temelinde, SwiGLU aktivasyon fonksiyonu, dikkat QKV önyargısı ve grup sorgu dikkati gibi teknikler kullanmaktadır. Dil anlama, üretim, çok dilli yetenek, kodlama, matematik ve akıl yürütme gibi birçok standart testte mükemmel performans sergilemekte ve çoğu açık kaynak modelini geride bırakmaktadır. Qwen1.5-1.8B-Chat ile karşılaştırıldığında, Qwen2-1.5B-Instruct, MMLU, HumanEval, GSM8K, C-Eval ve IFEval gibi testlerde belirgin bir performans artışı göstermektedir, parametre sayısı biraz daha az olmasına rağmen."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2, çok çeşitli talimat türlerini destekleyen gelişmiş bir genel dil modelidir."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414, derin düşünme yeteneğine sahip bir derin çıkarım modelidir (OpenAI'nin Derin Araştırması ile karşılaştırılabilir). Tipik derin düşünme modellerinin aksine, düşünme modeli daha uzun süreli derin düşünme ile daha açık ve karmaşık sorunları çözmektedir."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B, Zhipu AI tarafından geliştirilen ChatGLM serisinin açık kaynak modelidir. Bu model, önceki nesil modellerin mükemmel özelliklerini korurken, yeni özellikler de eklenmiştir. Daha çeşitli eğitim verileri, daha fazla eğitim adımı ve daha mantıklı eğitim stratejileri kullanarak, 10B altındaki önceden eğitilmiş modeller arasında mükemmel performans sergilemektedir. ChatGLM3-6B, çoklu diyalog, araç çağrısı, kod yürütme ve ajan görevleri gibi karmaşık senaryoları desteklemektedir. Diyalog modelinin yanı sıra, temel model ChatGLM-6B-Base ve uzun metin diyalog modeli ChatGLM3-6B-32K da açık kaynak olarak sunulmuştur. Bu model, akademik araştırmalara tamamen açıktır ve kayıt olduktan sonra ücretsiz ticari kullanımına da izin verilmektedir."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B açık kaynak versiyonu, diyalog uygulamaları için optimize edilmiş bir diyalog deneyimi sunar."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet, Anthropic'in şimdiye kadarki en akıllı modeli ve piyasadaki ilk karma akıl yürütme modelidir. Claude 3.7 Sonnet, neredeyse anlık yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir. Sonnet, programlama, veri bilimi, görsel işleme ve temsilci görevlerde özellikle yeteneklidir."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4, Anthropic tarafından yüksek karmaşıklıktaki görevleri işlemek için geliştirilen en güçlü modeldir. Performans, zeka, akıcılık ve anlama yeteneği açısından üstün bir performans sergiler."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4, neredeyse anında yanıtlar veya uzatılmış adım adım düşünme süreçleri üretebilir; kullanıcılar bu süreçleri net bir şekilde görebilir. API kullanıcıları ayrıca modelin düşünme süresini ayrıntılı olarak kontrol edebilir."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23, Cohere tarafından sunulan çok dilli bir modeldir, 23 dili destekler ve çok dilli uygulamalar için kolaylık sağlar."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1, tekrarlayan öğrenme (RL) destekli bir çıkarım modelidir ve modeldeki tekrarlama ve okunabilirlik sorunlarını çözmektedir. RL'den önce, DeepSeek-R1 soğuk başlangıç verilerini tanıtarak çıkarım performansını daha da optimize etmiştir. Matematik, kod ve çıkarım görevlerinde OpenAI-o1 ile benzer bir performans sergilemekte ve özenle tasarlanmış eğitim yöntemleri ile genel etkisini artırmaktadır."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685 milyar parametreli tam sürüm model, 28 Mayıs 2025'te yayınlandı. DeepSeek-R1, son eğitim aşamasında pek az etiketli veriyle güçlendirilmiş öğrenme tekniklerini geniş çapta kullanarak modelin çıkarım yeteneğini büyük ölçüde artırdı. Matematik, kodlama, doğal dil çıkarımı gibi görevlerde yüksek performans ve güçlü yetenekler sergiler."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B hızlı versiyonu, gerçek zamanlı çevrimiçi arama desteği ile, model performansını korurken daha hızlı yanıt süreleri sunar."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Önizleme, Google'ın en gelişmiş düşünce modelidir ve kod, matematik ve STEM alanlarındaki karmaşık sorunları akıl yürütme yeteneğine sahiptir. Uzun bağlamları analiz ederek büyük veri setleri, kod havuzları ve belgeler üzerinde çalışabilir."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Önizlemesi, Google'ın en gelişmiş düşünce modelidir; kodlama, matematik ve STEM alanlarındaki karmaşık problemleri çözebilir ve uzun bağlam kullanarak büyük veri setleri, kod kütüphaneleri ve belgeleri analiz edebilir."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B, orta ölçekli görev işleme için uygundur ve maliyet etkinliği sunar."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Proje düzeyinde kod üretme yeteneğini artırır; metin oluşturma ve yazma kalitesini yükseltir; metin anlama, çok turlu konu takibi, toB komut uyumu ve kelime-anlama yeteneklerini geliştirir; karmaşık geleneksel ve basitleştirilmiş Çince ile İngilizce karışık çıktı sorunlarını optimize eder."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Metin oluşturma ve kompozisyon yazımını optimize eder; kod ön yüzü, matematik, mantıksal çıkarım gibi fen bilimleri yeteneklerini geliştirir ve talimatlara uyum yeteneğini artırır."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Sektördeki ilk ultra büyük ölçekli Hybrid-Transformer-Mamba çıkarım modeli, çıkarım yeteneklerini genişletir, yüksek çözümleme hızı sunar ve insan tercihleri ile daha iyi hizalanır."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Ön eğitim tabanı yükseltmesi, tabanın komut anlama ve uyum yeteneklerini güçlendirir; hizalama aşamasında matematik, kodlama, mantık ve bilimsel alanlardaki yetenekleri artırır; yaratıcı yazım kalitesi, metin anlama, çeviri doğruluğu ve bilgi tabanlı soru-cevap gibi beşeri bilimler yeteneklerini geliştirir; çeşitli alanlardaki ajan yeteneklerini güçlendirir, özellikle çok turlu diyalog anlama yeteneğine odaklanır."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Ön eğitim tabanı yükseltildi; yazma ve okuduğunu anlama yetenekleri geliştirildi; kodlama ve fen bilimleri yeteneklerinde önemli iyileştirmeler sağlandı; karmaşık talimatlara uyum gibi alanlarda sürekli gelişme devam ediyor."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS, daha güçlü düşünme yeteneği ve daha iyi deneyim sunan en son sürümüdür."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Hunyuan'ın en son çok modlu modeli, resim + metin girişi ile metin içeriği oluşturmayı destekler."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Yenilikçi açık kaynak modeli InternLM2.5, büyük ölçekli parametreler ile diyalog zekasını artırmıştır."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5, çoklu senaryolarda akıllı diyalog çözümleri sunar."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Tongyi Qianwen QVQ görsel akıl yürütme modeli, görsel giriş ve düşünce zinciri çıktısını destekler; matematik, programlama, görsel analiz, yaratım ve genel görevlerde daha güçlü performans sergiler."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Görsel çıkarım modeli. Görsel girişleri ve düşünce zinciri çıktısını destekler; qvq-max modelinin ardından gelen plus versiyonudur. qvq-max modeline kıyasla, qvq-plus serisi modeller daha hızlı çıkarım yapar ve performans ile maliyet arasında daha dengeli bir sonuç sunar."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Tongyi Qianwen kodlama modeli."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Max Token Sınırlamasını Etkinleştir"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Akıl Yürütme Gücü Ayarını Etkinleştir"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Değer ne kadar büyükse, kelime dağarcığı o kadar zengin ve çeşitli olur; değer ne kadar düşükse, kelimeler o kadar sade ve basit olur.",
|
||||
"title": "Kelime Zenginliği"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Değer ne kadar büyükse, farklı ifade biçimlerine yönelme eğilimi artar, kavram tekrarından kaçınılır; değer ne kadar küçükse, tekrar eden kavramlar veya anlatımlar kullanma eğilimi artar, ifade daha tutarlı olur.",
|
||||
"title": "İfade Çeşitliliği"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Değer ne kadar yüksekse, akıl yürütme yeteneği o kadar güçlü olur, ancak yanıt süresi ve Token tüketimi artabilir",
|
||||
"options": {
|
||||
"high": "Yüksek",
|
||||
"low": "Düşük",
|
||||
"medium": "Orta"
|
||||
},
|
||||
"title": "Akıl Yürütme Gücü"
|
||||
},
|
||||
"submit": "Model ayarlarını güncelle",
|
||||
"temperature": {
|
||||
"desc": "Değer ne kadar büyükse, cevap o kadar yaratıcı ve hayal gücü dolu olur; değer ne kadar küçükse, cevap o kadar titizdir.",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-vision là phiên bản cập nhật của mô hình."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct là mô hình ngôn ngữ lớn được tinh chỉnh theo chỉ dẫn trong loạt Qwen2, với quy mô tham số là 1.5B. Mô hình này dựa trên kiến trúc Transformer, sử dụng hàm kích hoạt SwiGLU, độ lệch QKV trong chú ý và chú ý theo nhóm. Nó thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn về hiểu ngôn ngữ, sinh ngôn ngữ, khả năng đa ngôn ngữ, mã hóa, toán học và suy luận, vượt qua hầu hết các mô hình mã nguồn mở. So với Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct cho thấy sự cải thiện đáng kể về hiệu suất trong các bài kiểm tra MMLU, HumanEval, GSM8K, C-Eval và IFEval, mặc dù số lượng tham số hơi ít hơn."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct là mô hình ngôn ngữ lớn được tinh chỉnh theo chỉ dẫn trong loạt Qwen2, với quy mô tham số là 7B. Mô hình này dựa trên kiến trúc Transformer, sử dụng hàm kích hoạt SwiGLU, độ lệch QKV trong chú ý và chú ý theo nhóm. Nó có khả năng xử lý đầu vào quy mô lớn. Mô hình thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn về hiểu ngôn ngữ, sinh ngôn ngữ, khả năng đa ngôn ngữ, mã hóa, toán học và suy luận, vượt qua hầu hết các mô hình mã nguồn mở và thể hiện sức cạnh tranh tương đương với các mô hình độc quyền trong một số nhiệm vụ. Qwen2-7B-Instruct đã thể hiện sự cải thiện đáng kể về hiệu suất trong nhiều bài kiểm tra so với Qwen1.5-7B-Chat."
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL là phiên bản mới nhất của mô hình Qwen-VL, đạt được hiệu suất hàng đầu trong các thử nghiệm chuẩn hiểu biết hình ảnh."
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct là một trong những mô hình ngôn ngữ lớn mới nhất do Alibaba Cloud phát hành. Mô hình 7B này có khả năng cải thiện đáng kể trong các lĩnh vực mã hóa và toán học. Mô hình cũng cung cấp hỗ trợ đa ngôn ngữ, bao gồm hơn 29 ngôn ngữ, bao gồm tiếng Trung, tiếng Anh, v.v. Mô hình đã có sự cải thiện đáng kể trong việc tuân theo chỉ dẫn, hiểu dữ liệu có cấu trúc và tạo ra đầu ra có cấu trúc (đặc biệt là JSON)."
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 là mô hình suy luận được điều khiển bằng học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu của mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh để tối ưu hóa hiệu suất suy luận. Mô hình đạt hiệu quả tương đương OpenAI-o1 trong các nhiệm vụ toán học, mã hóa và suy luận, đồng thời nâng cao tổng thể nhờ phương pháp huấn luyện tinh tế."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B là mô hình được tạo ra từ Qwen2.5-Math-1.5B thông qua quá trình chưng cất kiến thức. Mô hình này được tinh chỉnh bằng 800.000 mẫu được chọn lọc từ DeepSeek-R1, thể hiện hiệu suất tốt trong nhiều bài kiểm tra chuẩn. Là một mô hình nhẹ, nó đạt được độ chính xác 83,9% trên MATH-500, tỷ lệ vượt qua 28,9% trên AIME 2024, và đạt điểm 954 trên CodeForces, cho thấy khả năng suy luận vượt quá quy mô tham số của nó."
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B là mô hình được tạo ra từ Qwen2.5-Math-7B thông qua quá trình chưng cất kiến thức. Mô hình này được tinh chỉnh bằng 800.000 mẫu được chọn lọc từ DeepSeek-R1, thể hiện khả năng suy luận xuất sắc. Nó đã đạt được hiệu suất tốt trong nhiều bài kiểm tra chuẩn, trong đó có độ chính xác 92,8% trên MATH-500, tỷ lệ vượt qua 55,5% trên AIME 2024, và điểm số 1189 trên CodeForces, thể hiện khả năng toán học và lập trình mạnh mẽ cho một mô hình có quy mô 7B."
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview là mô hình nghiên cứu thử nghiệm mới nhất của Qwen, tập trung vào việc nâng cao khả năng suy luận của AI. Thông qua việc khám phá các cơ chế phức tạp như trộn ngôn ngữ và suy luận đệ quy, những lợi thế chính bao gồm khả năng phân tích suy luận mạnh mẽ, khả năng toán học và lập trình. Tuy nhiên, cũng có những vấn đề về chuyển đổi ngôn ngữ, vòng lặp suy luận, các vấn đề an toàn và sự khác biệt về các khả năng khác."
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct là mô hình ngôn ngữ lớn được tinh chỉnh theo chỉ dẫn trong loạt Qwen2, với quy mô tham số là 1.5B. Mô hình này dựa trên kiến trúc Transformer, sử dụng hàm kích hoạt SwiGLU, độ lệch QKV trong chú ý và chú ý theo nhóm. Nó thể hiện xuất sắc trong nhiều bài kiểm tra chuẩn về hiểu ngôn ngữ, sinh ngôn ngữ, khả năng đa ngôn ngữ, mã hóa, toán học và suy luận, vượt qua hầu hết các mô hình mã nguồn mở. So với Qwen1.5-1.8B-Chat, Qwen2-1.5B-Instruct cho thấy sự cải thiện đáng kể về hiệu suất trong các bài kiểm tra MMLU, HumanEval, GSM8K, C-Eval và IFEval, mặc dù số lượng tham số hơi ít hơn."
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 là mô hình ngôn ngữ tổng quát tiên tiến, hỗ trợ nhiều loại chỉ dẫn."
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 là một mô hình suy luận sâu có khả năng suy tư (đối thủ của Deep Research của OpenAI). Khác với các mô hình suy tư sâu điển hình, mô hình suy tư này sử dụng thời gian suy tư sâu hơn để giải quyết các vấn đề mở và phức tạp hơn."
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B là mô hình mã nguồn mở trong loạt ChatGLM, được phát triển bởi Zhizhu AI. Mô hình này giữ lại những đặc điểm xuất sắc của thế hệ trước, như khả năng đối thoại mượt mà và ngưỡng triển khai thấp, đồng thời giới thiệu các tính năng mới. Nó sử dụng dữ liệu đào tạo đa dạng hơn, số bước đào tạo đầy đủ hơn và chiến lược đào tạo hợp lý hơn, thể hiện xuất sắc trong các mô hình tiền huấn luyện dưới 10B. ChatGLM3-6B hỗ trợ đối thoại nhiều vòng, gọi công cụ, thực thi mã và các nhiệm vụ Agent trong các tình huống phức tạp. Ngoài mô hình đối thoại, còn có mô hình cơ bản ChatGLM-6B-Base và mô hình đối thoại văn bản dài ChatGLM3-6B-32K. Mô hình hoàn toàn mở cho nghiên cứu học thuật và cho phép sử dụng thương mại miễn phí sau khi đăng ký."
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B là phiên bản mã nguồn mở, cung cấp trải nghiệm đối thoại tối ưu cho các ứng dụng hội thoại."
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic cho đến nay, và cũng là mô hình suy luận hỗn hợp đầu tiên trên thị trường. Claude 3.7 Sonnet có khả năng tạo ra phản hồi gần như ngay lập tức hoặc suy nghĩ từng bước kéo dài, cho phép người dùng thấy rõ những quá trình này. Sonnet đặc biệt xuất sắc trong lập trình, khoa học dữ liệu, xử lý hình ảnh và các nhiệm vụ đại diện."
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dùng để xử lý các nhiệm vụ phức tạp cao. Nó thể hiện xuất sắc về hiệu suất, trí tuệ, sự mượt mà và khả năng hiểu biết."
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 có thể tạo ra phản hồi gần như tức thì hoặc suy nghĩ từng bước kéo dài, người dùng có thể rõ ràng quan sát quá trình này. Người dùng API cũng có thể kiểm soát chi tiết thời gian suy nghĩ của mô hình."
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 là mô hình đa ngôn ngữ do Cohere phát hành, hỗ trợ 23 ngôn ngữ, tạo điều kiện thuận lợi cho các ứng dụng ngôn ngữ đa dạng."
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 là một mô hình suy diễn được điều khiển bởi học tăng cường (RL), giải quyết các vấn đề về tính lặp lại và khả năng đọc hiểu trong mô hình. Trước khi áp dụng RL, DeepSeek-R1 đã giới thiệu dữ liệu khởi động lạnh, tối ưu hóa thêm hiệu suất suy diễn. Nó thể hiện hiệu suất tương đương với OpenAI-o1 trong các nhiệm vụ toán học, mã và suy diễn, và thông qua phương pháp đào tạo được thiết kế cẩn thận, nâng cao hiệu quả tổng thể."
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "Mô hình phiên bản đầy đủ 685 tỷ tham số, phát hành ngày 28 tháng 5 năm 2025. DeepSeek-R1 sử dụng rộng rãi kỹ thuật học tăng cường trong giai đoạn huấn luyện sau, nâng cao đáng kể khả năng suy luận của mô hình dù có rất ít dữ liệu gán nhãn. Hiệu suất cao và năng lực mạnh mẽ trong các nhiệm vụ toán học, lập trình, suy luận ngôn ngữ tự nhiên."
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B phiên bản nhanh, hỗ trợ tìm kiếm trực tuyến theo thời gian thực, cung cấp tốc độ phản hồi nhanh hơn trong khi vẫn giữ hiệu suất của mô hình."
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận về mã, toán học và các vấn đề phức tạp trong lĩnh vực STEM, cũng như phân tích các tập dữ liệu lớn, kho mã và tài liệu bằng cách sử dụng ngữ cảnh dài."
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview là mô hình tư duy tiên tiến nhất của Google, có khả năng suy luận các vấn đề phức tạp trong lĩnh vực mã nguồn, toán học và STEM, cũng như phân tích dữ liệu lớn, kho mã và tài liệu với ngữ cảnh dài."
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B phù hợp cho việc xử lý các nhiệm vụ quy mô vừa và nhỏ, đồng thời mang lại hiệu quả chi phí."
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "Nâng cao khả năng tạo mã cấp dự án; cải thiện chất lượng viết văn bản; nâng cao khả năng hiểu chủ đề văn bản đa vòng, tuân thủ chỉ thị toB và hiểu từ ngữ; tối ưu hóa vấn đề đầu ra hỗn hợp phồn thể và giản thể, cũng như hỗn hợp tiếng Trung và tiếng Anh."
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "Tối ưu hóa sáng tạo văn bản, viết luận, cải thiện khả năng lập trình frontend, toán học, suy luận logic và các kỹ năng khoa học tự nhiên, nâng cao khả năng tuân thủ chỉ dẫn."
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "Mô hình suy luận Hybrid-Transformer-Mamba quy mô siêu lớn đầu tiên trong ngành, mở rộng khả năng suy luận, tốc độ giải mã cực nhanh, và tiếp tục điều chỉnh theo sở thích của con người."
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "Nâng cấp nền tảng tiền huấn luyện, tăng cường khả năng hiểu và tuân thủ chỉ thị của nền tảng; tăng cường năng lực các môn khoa học tự nhiên như toán học, lập trình, logic, khoa học trong giai đoạn căn chỉnh; cải thiện chất lượng sáng tạo văn học, hiểu văn bản, độ chính xác dịch thuật, hỏi đáp kiến thức và các năng lực khoa học xã hội; tăng cường năng lực Agent trong các lĩnh vực, đặc biệt là khả năng hiểu đối thoại đa vòng."
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "Nâng cấp nền tảng tiền huấn luyện, cải thiện khả năng viết và đọc hiểu, tăng cường đáng kể năng lực lập trình và khoa học tự nhiên, tiếp tục nâng cao khả năng tuân thủ các chỉ dẫn phức tạp."
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS là phiên bản mới nhất của mô hình lớn hỗn hợp Hunyuan, có khả năng tư duy mạnh mẽ hơn và trải nghiệm tốt hơn."
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "Mô hình đa phương thức mới nhất của Hunyuan, hỗ trợ đầu vào hình ảnh + văn bản để tạo ra nội dung văn bản."
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "Mô hình mã nguồn mở sáng tạo InternLM2.5, thông qua số lượng tham số lớn, nâng cao trí thông minh trong đối thoại."
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 cung cấp giải pháp đối thoại thông minh cho nhiều tình huống."
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "Mô hình suy luận thị giác QVQ của Tongyi Qianwen, hỗ trợ đầu vào thị giác và xuất ra chuỗi suy nghĩ, thể hiện năng lực mạnh mẽ trong toán học, lập trình, phân tích thị giác, sáng tạo và các nhiệm vụ chung."
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "Mô hình suy luận thị giác. Hỗ trợ đầu vào hình ảnh và đầu ra chuỗi suy nghĩ, phiên bản plus ra mắt sau mô hình qvq-max, với tốc độ suy luận nhanh hơn, hiệu quả và chi phí cân bằng hơn so với qvq-max."
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "Mô hình mã hóa Tongyi Qianwen."
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "Bật giới hạn phản hồi một lần"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "Bật điều chỉnh cường độ suy luận"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "Giá trị càng lớn, từ ngữ càng phong phú đa dạng; giá trị càng thấp, từ ngữ càng đơn giản mộc mạc",
|
||||
"title": "Độ phong phú từ vựng"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "Giá trị càng lớn, càng có xu hướng sử dụng các cách diễn đạt khác nhau, tránh lặp lại khái niệm; giá trị càng nhỏ, càng có xu hướng sử dụng các khái niệm hoặc mô tả lặp lại, thể hiện tính nhất quán cao hơn",
|
||||
"title": "Độ phân tán trong diễn đạt"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "Giá trị càng cao, khả năng suy luận càng mạnh, nhưng có thể làm tăng thời gian phản hồi và tiêu thụ Token",
|
||||
"options": {
|
||||
"high": "Cao",
|
||||
"low": "Thấp",
|
||||
"medium": "Trung bình"
|
||||
},
|
||||
"title": "Cường độ suy luận"
|
||||
},
|
||||
"submit": "Cập nhật cài đặt mô hình",
|
||||
"temperature": {
|
||||
"desc": "Giá trị càng lớn, câu trả lời càng sáng tạo và giàu trí tưởng tượng; giá trị càng nhỏ, câu trả lời càng nghiêm ngặt",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-vision模型的更新版。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 7B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它能够处理大规模输入。该模型在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型,并在某些任务上展现出与专有模型相当的竞争力。Qwen2-7B-Instruct 在多项评测中均优于 Qwen1.5-7B-Chat,显示出显著的性能提升"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL-7B-Instruct 是 Qwen-VL 模型的最新迭代版本,在视觉理解基准测试中达到了最先进的性能,包括 MathVista、DocVQA、RealWorldQA 和 MTVQA 等。Qwen2-VL 能够用于高质量的基于视频的问答、对话和内容创作,还具备复杂推理和决策能力,可以与移动设备、机器人等集成,基于视觉环境和文本指令进行自动操作。除了英语和中文,Qwen2-VL 现在还支持理解图像中不同语言的文本,包括大多数欧洲语言、日语、韩语、阿拉伯语和越南语等"
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct 是阿里云发布的最新大语言模型系列之一。该 7B 模型在编码和数学等领域具有显著改进的能力。该模型还提供了多语言支持,覆盖超过 29 种语言,包括中文、英文等。模型在指令跟随、理解结构化数据以及生成结构化输出(尤其是 JSON)方面都有显著提升"
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 是一款强化学习(RL)驱动的推理模型,解决了模型中的重复性和可读性问题。在 RL 之前,DeepSeek-R1 引入了冷启动数据,进一步优化了推理性能。它在数学、代码和推理任务中与 OpenAI-o1 表现相当,并且通过精心设计的训练方法,提升了整体效果。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B 是基于 Qwen2.5-Math-1.5B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,在多个基准测试中展现出不错的性能。作为一个轻量级模型,在 MATH-500 上达到了 83.9% 的准确率,在 AIME 2024 上达到了 28.9% 的通过率,在 CodeForces 上获得了 954 的评分,显示出超出其参数规模的推理能力。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B 是基于 Qwen2.5-Math-7B 通过知识蒸馏得到的模型。该模型使用 DeepSeek-R1 生成的 80 万个精选样本进行微调,展现出优秀的推理能力。在多个基准测试中表现出色,其中在 MATH-500 上达到了 92.8% 的准确率,在 AIME 2024 上达到了 55.5% 的通过率,在 CodeForces 上获得了 1189 的评分,作为 7B 规模的模型展示了较强的数学和编程能力。"
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "Qwen QwQ 是由 Qwen 团队开发的实验研究模型,专注于提升AI推理能力。"
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微调大语言模型,参数规模为 1.5B。该模型基于 Transformer 架构,采用了 SwiGLU 激活函数、注意力 QKV 偏置和组查询注意力等技术。它在语言理解、生成、多语言能力、编码、数学和推理等多个基准测试中表现出色,超越了大多数开源模型。与 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等测试中均显示出显著的性能提升,尽管参数量略少"
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen 2 Instruct (72B) 为企业级应用提供精准的指令理解和响应。"
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 是一个具有沉思能力的深度推理模型(与 OpenAI 的 Deep Research 对标)。与典型的深度思考模型不同,沉思模型采用更长时间的深度思考来解决更开放和复杂的问题。"
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B 是 ChatGLM 系列的开源模型,由智谱 AI 开发。该模型保留了前代模型的优秀特性,如对话流畅和部署门槛低,同时引入了新的特性。它采用了更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的预训练模型中表现出色。ChatGLM3-6B 支持多轮对话、工具调用、代码执行和 Agent 任务等复杂场景。除对话模型外,还开源了基础模型 ChatGLM-6B-Base 和长文本对话模型 ChatGLM3-6B-32K。该模型对学术研究完全开放,在登记后也允许免费商业使用"
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4-9B-Chat 是智谱 AI 推出的 GLM-4 系列预训练模型中的开源版本。该模型在语义、数学、推理、代码和知识等多个方面表现出色。除了支持多轮对话外,GLM-4-9B-Chat 还具备网页浏览、代码执行、自定义工具调用(Function Call)和长文本推理等高级功能。模型支持 26 种语言,包括中文、英文、日语、韩语和德语等。在多项基准测试中,GLM-4-9B-Chat 展现了优秀的性能,如 AlignBench-v2、MT-Bench、MMLU 和 C-Eval 等。该模型支持最大 128K 的上下文长度,适用于学术研究和商业应用"
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今为止最智能的模型,也是市场上首个混合推理模型。Claude 3.7 Sonnet 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。Sonnet 特别擅长编程、数据科学、视觉处理、代理任务。"
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 是 Anthropic 用于处理高度复杂任务的最强大模型。它在性能、智能、流畅性和理解力方面表现卓越。"
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 可以产生近乎即时的响应或延长的逐步思考,用户可以清晰地看到这些过程。API 用户还可以对模型思考的时间进行细致的控制"
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 是 Cohere 推出的多语言模型,支持 23 种语言,为多元化语言应用提供便利。"
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 在强化学习(RL)之前引入了冷启动数据,在数学、代码和推理任务上表现可与 OpenAI-o1 相媲美。"
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685B 满血版模型,2025年5月28日发布。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能较高,能力较强。"
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B 快速版,支持实时联网搜索,在保持模型性能的同时提供更快的响应速度。"
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview 是 Google 最先进的思维模型,能够对代码、数学和STEM领域的复杂问题进行推理,以及使用长上下文分析大型数据集、代码库和文档。"
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B 适合中小规模任务处理,兼具成本效益。"
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "提升项目级别代码生成能力;提升文本生成写作质量;提升文本理解 topic 的多轮、tob 指令遵循和字词理解能力;优化繁简混杂和中英混杂输出问题。"
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "优化文本创作、作文写作,优化代码前端、数学、逻辑推理等理科能力,提升指令遵循能力。"
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "业内首个超大规模 Hybrid-Transformer-Mamba 推理模型,扩展推理能力,超强解码速度,进一步对齐人类偏好。"
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "预训练底座升级,增强底座的指令理解及遵循能力;对齐阶段增强数学、代码、逻辑、科学等理科能力;提升文创写作质量、文本理解、翻译准确率、知识问答等文科能力;增强各领域 Agent 能力,重点加强多轮对话理解能力等。"
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "预训练底座升级,写作、阅读理解能力提升,较大幅度提升代码和理科能力,复杂指令遵循等持续提升。"
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS 混元旗舰大模型最新版本,具备更强的思考能力,更优的体验效果。"
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "混元最新多模态模型,支持图片+文本输入生成文本内容。"
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "InternLM2.5-20B-Chat 是一个开源的大规模对话模型,基于 InternLM2 架构开发。该模型拥有 200 亿参数,在数学推理方面表现出色,超越了同量级的 Llama3 和 Gemma2-27B 模型。InternLM2.5-20B-Chat 在工具调用能力方面有显著提升,支持从上百个网页收集信息进行分析推理,并具备更强的指令理解、工具选择和结果反思能力。它适用于构建复杂智能体,可进行多轮工具调用以完成复杂任务"
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5-7B-Chat 是一个开源的对话模型,基于 InternLM2 架构开发。该 7B 参数规模的模型专注于对话生成任务,支持中英双语交互。模型采用了最新的训练技术,旨在提供流畅、智能的对话体验。InternLM2.5-7B-Chat 适用于各种对话应用场景,包括但不限于智能客服、个人助手等领域"
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。"
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "视觉推理模型。支持视觉输入及思维链输出,继qvq-max模型后推出的plus版本,相较于qvq-max模型,qvq-plus系列模型推理速度更快,效果和成本更均衡。"
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "通义千问代码模型。"
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "开启单次回复限制"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "开启推理强度调整"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "值越大,用词越丰富多样;值越低,用词更朴实简单",
|
||||
"title": "词汇丰富度"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "值越大,越倾向不同的表达方式,避免概念重复;值越小,越倾向使用重复的概念或叙述,表达更具一致性",
|
||||
"title": "表述发散度"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "值越大,推理能力越强,但可能会增加响应时间和 Token 消耗",
|
||||
"options": {
|
||||
"high": "高",
|
||||
"low": "低",
|
||||
"medium": "中"
|
||||
},
|
||||
"title": "推理强度"
|
||||
},
|
||||
"submit": "更新模型设置",
|
||||
"temperature": {
|
||||
"desc": "数值越大,回答越有创意和想象力;数值越小,回答越严谨",
|
||||
|
|
|
|||
|
|
@ -206,15 +206,9 @@
|
|||
"Phi-3.5-vision-instrust": {
|
||||
"description": "Phi-3-vision模型的更新版。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 1.5B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型。與 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等測試中均顯示出顯著的性能提升,儘管參數量略少"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-7B-Instruct": {
|
||||
"description": "Qwen2-7B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 7B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它能夠處理大規模輸入。該模型在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型,並在某些任務上展現出與專有模型相當的競爭力。Qwen2-7B-Instruct 在多項評測中均優於 Qwen1.5-7B-Chat,顯示出顯著的性能提升"
|
||||
},
|
||||
"Pro/Qwen/Qwen2-VL-7B-Instruct": {
|
||||
"description": "Qwen2-VL 是 Qwen-VL 模型的最新迭代版本,在視覺理解基準測試中達到了最先進的性能。"
|
||||
},
|
||||
"Pro/Qwen/Qwen2.5-7B-Instruct": {
|
||||
"description": "Qwen2.5-7B-Instruct 是阿里雲發布的最新大語言模型系列之一。該 7B 模型在編碼和數學等領域具有顯著改進的能力。該模型還提供了多語言支持,覆蓋超過 29 種語言,包括中文、英文等。模型在指令跟隨、理解結構化數據以及生成結構化輸出(尤其是 JSON)方面都有顯著提升"
|
||||
},
|
||||
|
|
@ -233,9 +227,6 @@
|
|||
"Pro/deepseek-ai/DeepSeek-R1-0120": {
|
||||
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動資料,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且透過精心設計的訓練方法,提升了整體效果。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-1.5B 是基於 Qwen2.5-Math-1.5B 透過知識蒸餾技術所獲得的模型。該模型使用 DeepSeek-R1 產生的 80 萬個精選樣本進行微調,在多項基準測試中展現出優異的表現。作為一個輕量級模型,在 MATH-500 上達到了 83.9% 的準確率,在 AIME 2024 上獲得了 28.9% 的通過率,在 CodeForces 上取得了 954 的評分,顯示出超越其參數規模的推理能力。"
|
||||
},
|
||||
"Pro/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B": {
|
||||
"description": "DeepSeek-R1-Distill-Qwen-7B 是基於 Qwen2.5-Math-7B 透過知識蒸餾技術所獲得的模型。該模型使用 DeepSeek-R1 生成的 80 萬個精選樣本進行微調,展現出優異的推理能力。在多個基準測試中表現出色,其中在 MATH-500 上達到了 92.8% 的準確率,在 AIME 2024 上達到了 55.5% 的通過率,在 CodeForces 上獲得了 1189 的評分,作為 7B 規模的模型展示了較強的數學和程式設計能力。"
|
||||
},
|
||||
|
|
@ -257,9 +248,6 @@
|
|||
"Qwen/QwQ-32B-Preview": {
|
||||
"description": "QwQ-32B-Preview是Qwen 最新的實驗性研究模型,專注於提升AI推理能力。通過探索語言混合、遞歸推理等複雜機制,主要優勢包括強大的推理分析能力、數學和編程能力。與此同時,也存在語言切換問題、推理循環、安全性考量、其他能力方面的差異。"
|
||||
},
|
||||
"Qwen/Qwen2-1.5B-Instruct": {
|
||||
"description": "Qwen2-1.5B-Instruct 是 Qwen2 系列中的指令微調大語言模型,參數規模為 1.5B。該模型基於 Transformer 架構,採用了 SwiGLU 激活函數、注意力 QKV 偏置和組查詢注意力等技術。它在語言理解、生成、多語言能力、編碼、數學和推理等多個基準測試中表現出色,超越了大多數開源模型。與 Qwen1.5-1.8B-Chat 相比,Qwen2-1.5B-Instruct 在 MMLU、HumanEval、GSM8K、C-Eval 和 IFEval 等測試中均顯示出顯著的性能提升,儘管參數量略少"
|
||||
},
|
||||
"Qwen/Qwen2-72B-Instruct": {
|
||||
"description": "Qwen2 是先進的通用語言模型,支持多種指令類型。"
|
||||
},
|
||||
|
|
@ -419,9 +407,6 @@
|
|||
"THUDM/GLM-Z1-Rumination-32B-0414": {
|
||||
"description": "GLM-Z1-Rumination-32B-0414 是一個具有沉思能力的深度推理模型(與 OpenAI 的 Deep Research 對標)。與典型的深度思考模型不同,沉思模型採用更長時間的深度思考來解決更開放和複雜的問題。"
|
||||
},
|
||||
"THUDM/chatglm3-6b": {
|
||||
"description": "ChatGLM3-6B 是 ChatGLM 系列的開源模型,由智譜 AI 開發。該模型保留了前代模型的優秀特性,如對話流暢和部署門檻低,同時引入了新的特性。它採用了更多樣的訓練數據、更充分的訓練步數和更合理的訓練策略,在 10B 以下的預訓練模型中表現出色。ChatGLM3-6B 支持多輪對話、工具調用、代碼執行和 Agent 任務等複雜場景。除對話模型外,還開源了基礎模型 ChatGLM-6B-Base 和長文本對話模型 ChatGLM3-6B-32K。該模型對學術研究完全開放,在登記後也允許免費商業使用"
|
||||
},
|
||||
"THUDM/glm-4-9b-chat": {
|
||||
"description": "GLM-4 9B 開放源碼版本,為會話應用提供優化後的對話體驗。"
|
||||
},
|
||||
|
|
@ -563,6 +548,12 @@
|
|||
"anthropic/claude-3.7-sonnet": {
|
||||
"description": "Claude 3.7 Sonnet 是 Anthropic 迄今為止最智能的模型,也是市場上首個混合推理模型。Claude 3.7 Sonnet 可以產生近乎即時的回應或延長的逐步思考,使用者可以清晰地看到這些過程。Sonnet 特別擅長程式設計、數據科學、視覺處理、代理任務。"
|
||||
},
|
||||
"anthropic/claude-opus-4": {
|
||||
"description": "Claude Opus 4 是 Anthropic 用於處理高度複雜任務的最強大模型。它在性能、智慧、流暢性和理解力方面表現卓越。"
|
||||
},
|
||||
"anthropic/claude-sonnet-4": {
|
||||
"description": "Claude Sonnet 4 可以產生近乎即時的回應或延長的逐步思考,使用者可以清楚地看到這些過程。API 使用者還可以對模型思考的時間進行細緻的控制。"
|
||||
},
|
||||
"aya": {
|
||||
"description": "Aya 23 是 Cohere 推出的多語言模型,支持 23 種語言,為多元化語言應用提供便利。"
|
||||
},
|
||||
|
|
@ -788,6 +779,9 @@
|
|||
"deepseek-r1": {
|
||||
"description": "DeepSeek-R1 是一款強化學習(RL)驅動的推理模型,解決了模型中的重複性和可讀性問題。在 RL 之前,DeepSeek-R1 引入了冷啟動數據,進一步優化了推理性能。它在數學、程式碼和推理任務中與 OpenAI-o1 表現相當,並且通過精心設計的訓練方法,提升了整體效果。"
|
||||
},
|
||||
"deepseek-r1-0528": {
|
||||
"description": "685B 滿血版模型,2025年5月28日發布。DeepSeek-R1 在後訓練階段大規模使用了強化學習技術,在僅有極少標註資料的情況下,大幅提升了模型推理能力。在數學、程式碼、自然語言推理等任務上,性能較高,能力較強。"
|
||||
},
|
||||
"deepseek-r1-70b-fast-online": {
|
||||
"description": "DeepSeek R1 70B 快速版,支持即時聯網搜索,在保持模型性能的同時提供更快的響應速度。"
|
||||
},
|
||||
|
|
@ -1067,6 +1061,9 @@
|
|||
"gemini-2.5-pro-preview-05-06": {
|
||||
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和 STEM 領域的複雜問題進行推理,以及使用長上下文分析大型數據集、程式庫和文檔。"
|
||||
},
|
||||
"gemini-2.5-pro-preview-06-05": {
|
||||
"description": "Gemini 2.5 Pro Preview 是 Google 最先進的思維模型,能夠對程式碼、數學和STEM領域的複雜問題進行推理,以及使用長上下文分析大型資料集、程式碼庫和文件。"
|
||||
},
|
||||
"gemma-7b-it": {
|
||||
"description": "Gemma 7B 適合中小規模任務處理,兼具成本效益。"
|
||||
},
|
||||
|
|
@ -1355,6 +1352,9 @@
|
|||
"hunyuan-t1-20250403": {
|
||||
"description": "提升專案級別程式碼生成能力;提升文本生成寫作品質;提升文本理解 topic 的多輪、tob 指令遵循和字詞理解能力;優化繁簡混雜和中英混雜輸出問題。"
|
||||
},
|
||||
"hunyuan-t1-20250529": {
|
||||
"description": "優化文本創作、作文寫作,優化程式碼前端、數學、邏輯推理等理科能力,提升指令遵循能力。"
|
||||
},
|
||||
"hunyuan-t1-latest": {
|
||||
"description": "業界首個超大規模 Hybrid-Transformer-Mamba 推理模型,擴展推理能力,超強解碼速度,進一步對齊人類偏好。"
|
||||
},
|
||||
|
|
@ -1379,6 +1379,9 @@
|
|||
"hunyuan-turbos-20250416": {
|
||||
"description": "預訓練底座升級,增強底座的指令理解及遵循能力;對齊階段增強數學、程式碼、邏輯、科學等理科能力;提升文創寫作品質、文本理解、翻譯準確率、知識問答等文科能力;增強各領域 Agent 能力,重點加強多輪對話理解能力等。"
|
||||
},
|
||||
"hunyuan-turbos-20250604": {
|
||||
"description": "預訓練底座升級,寫作、閱讀理解能力提升,較大幅度提升程式碼和理科能力,複雜指令遵循等持續提升。"
|
||||
},
|
||||
"hunyuan-turbos-latest": {
|
||||
"description": "hunyuan-TurboS 混元旗艦大模型最新版本,具備更強的思考能力,更優的體驗效果。"
|
||||
},
|
||||
|
|
@ -1391,9 +1394,6 @@
|
|||
"hunyuan-vision": {
|
||||
"description": "混元最新多模態模型,支持圖片 + 文本輸入生成文本內容。"
|
||||
},
|
||||
"internlm/internlm2_5-20b-chat": {
|
||||
"description": "創新的開源模型InternLM2.5,通過大規模的參數提高了對話智能。"
|
||||
},
|
||||
"internlm/internlm2_5-7b-chat": {
|
||||
"description": "InternLM2.5 提供多場景下的智能對話解決方案。"
|
||||
},
|
||||
|
|
@ -1910,6 +1910,9 @@
|
|||
"qvq-max": {
|
||||
"description": "通義千問 QVQ 視覺推理模型,支援視覺輸入及思維鏈輸出,在數學、程式設計、視覺分析、創作以及通用任務上都展現了更強的能力。"
|
||||
},
|
||||
"qvq-plus": {
|
||||
"description": "視覺推理模型。支援視覺輸入及思維鏈輸出,繼qvq-max模型後推出的plus版本,相較於qvq-max模型,qvq-plus系列模型推理速度更快,效果和成本更均衡。"
|
||||
},
|
||||
"qwen-coder-plus": {
|
||||
"description": "通義千問程式碼模型。"
|
||||
},
|
||||
|
|
|
|||
|
|
@ -259,6 +259,9 @@
|
|||
"enableMaxTokens": {
|
||||
"title": "啟用單次回覆限制"
|
||||
},
|
||||
"enableReasoningEffort": {
|
||||
"title": "開啟推理強度調整"
|
||||
},
|
||||
"frequencyPenalty": {
|
||||
"desc": "值越大,用詞越豐富多樣;值越低,用詞更樸實簡單",
|
||||
"title": "詞彙豐富度"
|
||||
|
|
@ -278,6 +281,15 @@
|
|||
"desc": "值越大,越傾向不同的表達方式,避免概念重複;值越小,越傾向使用重複的概念或敘述,表達更具一致性",
|
||||
"title": "表述發散度"
|
||||
},
|
||||
"reasoningEffort": {
|
||||
"desc": "數值越大,推理能力越強,但可能會增加回應時間和 Token 消耗",
|
||||
"options": {
|
||||
"high": "高",
|
||||
"low": "低",
|
||||
"medium": "中"
|
||||
},
|
||||
"title": "推理強度"
|
||||
},
|
||||
"submit": "更新模型設定",
|
||||
"temperature": {
|
||||
"desc": "數值越大,回答越有創意和想像力;數值越小,回答越嚴謹",
|
||||
|
|
|
|||
|
|
@ -1,6 +1,6 @@
|
|||
'use client';
|
||||
|
||||
import { Form, type FormGroupItemType, SliderWithInput } from '@lobehub/ui';
|
||||
import { Form, type FormGroupItemType, Select, SliderWithInput } from '@lobehub/ui';
|
||||
import { Form as AntdForm, Switch } from 'antd';
|
||||
import isEqual from 'fast-deep-equal';
|
||||
import { memo } from 'react';
|
||||
|
|
@ -16,6 +16,7 @@ const AgentModal = memo(() => {
|
|||
const { t } = useTranslation('setting');
|
||||
const [form] = Form.useForm();
|
||||
const enableMaxTokens = AntdForm.useWatch(['chatConfig', 'enableMaxTokens'], form);
|
||||
const enableReasoningEffort = AntdForm.useWatch(['chatConfig', 'enableReasoningEffort'], form);
|
||||
const config = useStore(selectors.currentAgentConfig, isEqual);
|
||||
|
||||
const updateConfig = useStore((s) => s.setAgentConfig);
|
||||
|
|
@ -75,6 +76,31 @@ const AgentModal = memo(() => {
|
|||
name: ['params', 'max_tokens'],
|
||||
tag: 'max_tokens',
|
||||
},
|
||||
{
|
||||
children: <Switch />,
|
||||
label: t('settingModel.enableReasoningEffort.title'),
|
||||
layout: 'horizontal',
|
||||
minWidth: undefined,
|
||||
name: ['chatConfig', 'enableReasoningEffort'],
|
||||
valuePropName: 'checked',
|
||||
},
|
||||
{
|
||||
children: (
|
||||
<Select
|
||||
defaultValue="medium"
|
||||
options={[
|
||||
{ label: t('settingModel.reasoningEffort.options.low'), value: 'low' },
|
||||
{ label: t('settingModel.reasoningEffort.options.medium'), value: 'medium' },
|
||||
{ label: t('settingModel.reasoningEffort.options.high'), value: 'high' },
|
||||
]}
|
||||
/>
|
||||
),
|
||||
desc: t('settingModel.reasoningEffort.desc'),
|
||||
hidden: !enableReasoningEffort,
|
||||
label: t('settingModel.reasoningEffort.title'),
|
||||
name: ['params', 'reasoning_effort'],
|
||||
tag: 'reasoning_effort',
|
||||
},
|
||||
],
|
||||
title: t('settingModel.title'),
|
||||
};
|
||||
|
|
|
|||
|
|
@ -263,6 +263,9 @@ export default {
|
|||
enableMaxTokens: {
|
||||
title: '开启单次回复限制',
|
||||
},
|
||||
enableReasoningEffort: {
|
||||
title: '开启推理强度调整',
|
||||
},
|
||||
frequencyPenalty: {
|
||||
desc: '值越大,用词越丰富多样;值越低,用词更朴实简单',
|
||||
title: '词汇丰富度',
|
||||
|
|
@ -282,6 +285,15 @@ export default {
|
|||
desc: '值越大,越倾向不同的表达方式,避免概念重复;值越小,越倾向使用重复的概念或叙述,表达更具一致性',
|
||||
title: '表述发散度',
|
||||
},
|
||||
reasoningEffort: {
|
||||
desc: '值越大,推理能力越强,但可能会增加响应时间和 Token 消耗',
|
||||
options: {
|
||||
high: '高',
|
||||
low: '低',
|
||||
medium: '中',
|
||||
},
|
||||
title: '推理强度',
|
||||
},
|
||||
submit: '更新模型设置',
|
||||
temperature: {
|
||||
desc: '数值越大,回答越有创意和想象力;数值越小,回答越严谨',
|
||||
|
|
|
|||
Loading…
Reference in a new issue