🤖 style: update i18n (#11920)

💄 style: update i18n

Co-authored-by: canisminor1990 <17870709+canisminor1990@users.noreply.github.com>
This commit is contained in:
LobeHub Bot 2026-01-31 20:34:06 +08:00 committed by GitHub
parent 4a87b31246
commit 1a590a065c
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
68 changed files with 807 additions and 387 deletions

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "تم ربط هذا البريد الإلكتروني بحساب محذوف ولا يمكن استخدامه للتسجيل",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "لا يمكن تحديث البريد الإلكتروني لهذا الحساب",
"codes.EMAIL_NOT_ALLOWED": "هذا البريد الإلكتروني غير مسموح به للتسجيل",
"codes.EMAIL_NOT_FOUND": "لا يوجد بريد إلكتروني مرتبط بهذا الحساب. يرجى التحقق مما إذا كان حسابك مرتبطًا ببريد إلكتروني.",
"codes.EMAIL_NOT_VERIFIED": "يرجى التحقق من بريدك الإلكتروني أولاً",
"codes.FAILED_TO_CREATE_SESSION": "فشل في إنشاء الجلسة",
"codes.FAILED_TO_CREATE_USER": "فشل في إنشاء المستخدم",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "نموذج يحتوي على 7 مليارات معلمة بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا مكثفًا.",
"Phi-3.5-mini-instruct.description": "إصدار محدث من نموذج Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "إصدار محدث من نموذج Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج لغوي مفتوح المصدر ومتقدم، مُحسَّن لقدرات الوكلاء، ويتفوق في البرمجة، واستخدام الأدوات، واتباع التعليمات، والتخطيط طويل الأمد. يدعم النموذج تطوير البرمجيات متعددة اللغات وتنفيذ سير العمل المعقد متعدد الخطوات، وحقق نتيجة 74.0 على SWE-bench Verified، متفوقًا على Claude Sonnet 4.5 في السيناريوهات متعددة اللغات.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct هو نموذج لغوي كبير (LLM) موجه للتعليمات ضمن سلسلة Qwen2. يستخدم بنية Transformer مع SwiGLU، وانحياز QKV في الانتباه، وانتباه الاستعلامات المجمعة، ويعالج مدخلات كبيرة. يتميز بأداء قوي في فهم اللغة، التوليد، المهام متعددة اللغات، البرمجة، الرياضيات، والاستدلال، متفوقًا على معظم النماذج المفتوحة ومنافسًا للنماذج التجارية. يتفوق على Qwen1.5-7B-Chat في العديد من المعايير.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct هو جزء من أحدث سلسلة نماذج لغوية كبيرة من Alibaba Cloud. يقدم هذا النموذج ذو 7 مليارات معلمة تحسينات ملحوظة في البرمجة والرياضيات، ويدعم أكثر من 29 لغة، ويعزز اتباع التعليمات، وفهم البيانات المنظمة، وإنتاج المخرجات المنظمة (خصوصًا JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct هو أحدث نموذج لغوي كبير من Alibaba Cloud يركز على البرمجة. مبني على Qwen2.5 ومدرب على 5.5 تريليون رمز، يعزز بشكل كبير توليد الشيفرة، الاستدلال، والإصلاح، مع الحفاظ على القوة في الرياضيات والقدرات العامة، مما يوفر أساسًا قويًا لوكلاء البرمجة.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد من Anthropic، يتميز بتحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو النموذج الأسرع من الجيل التالي لشركة Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على النموذج الأكبر السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول مع تحكم دقيق.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو النموذج الأكثر ذكاءً من Anthropic وأول نموذج يجمع بين أساليب التفكير المختلفة في السوق. يمكنه تقديم ردود فورية تقريبًا أو استدلال تدريجي مرئي للمستخدم. يتميز Sonnet بقوة خاصة في البرمجة، وعلوم البيانات، والرؤية الحاسوبية، ومهام الوكلاء.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المعمق.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأذكى من سلسلة Haiku لدى Anthropic، يجمع بين السرعة الفائقة والاستدلال المتقدم.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم العميق.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة، يتفوق في الأداء، والذكاء، والطلاقة، والاستيعاب.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكير متسلسل مع تحكم دقيق لمستخدمي واجهة البرمجة.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو تفكير تدريجي مفصل يمكن للمستخدم متابعته.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً حتى الآن من Anthropic.",
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
"codegemma.description": "CodeGemma هو نموذج خفيف الوزن لمهام البرمجة المتنوعة، يتيح التكرار السريع والتكامل السلس.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp هو إصدار تجريبي من V3.2 يربط بالهيكلية القادمة. يضيف انتباهًا متفرقًا (DSA) إلى V3.1-Terminus لتحسين كفاءة التدريب والاستدلال في السياقات الطويلة، مع تحسينات لاستخدام الأدوات، وفهم المستندات الطويلة، والتفكير متعدد الخطوات. مثالي لاستكشاف كفاءة تفكير أعلى بميزانيات سياق كبيرة.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE يحتوي على 671 مليار معلمة، يستخدم MLA وDeepSeekMoE مع توازن تحميل خالٍ من الفقدان لتدريب واستدلال فعال. تم تدريبه مسبقًا على 14.8 تريليون رمز عالي الجودة مع SFT وRL، ويتفوق على النماذج المفتوحة الأخرى ويقترب من النماذج المغلقة الرائدة.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) هو نموذج مبتكر يوفر فهمًا عميقًا للغة وتفاعلًا ذكيًا.",
"deepseek-ai/deepseek-r1.description": "نموذج لغة كبير فعال وحديث يتميز بقوة في التفكير، والرياضيات، والبرمجة.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية والمهام الوكيلة. يحقق نتائج مماثلة لـ GPT-5 في المعايير العامة، وهو أول من يدمج التفكير في استخدام الأدوات، مما يجعله رائدًا في تقييمات الوكلاء مفتوحة المصدر.",
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. كما يعزز DeepSeek-V2.5 مهارات الكتابة واتباع التعليمات.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، ويحقق نتائج تنافسية عالية واستدلالًا مماثلًا لـ Gemini-3.0-Pro.",
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، من تطوير فريق Seed في ByteDance، يدعم تحرير وتركيب صور متعددة. يتميز بثبات أكبر في العناصر، ودقة في تنفيذ التعليمات، وفهم للمنطق المكاني، وتعبير جمالي، وتصميم ملصقات وشعارات بدقة عالية في تحويل النص إلى صورة.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير ByteDance Seed، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة من خلال الأوامر.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور، ويتميز بإنتاج صور عالية الجودة وقابلة للتحكم بدقة. يقوم بإنشاء صور استنادًا إلى أوامر نصية.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، تحرير النصوص بدقة باللغتين الصينية والإنجليزية، نقل الأنماط، التدوير، والمزيد.",
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض نصوص صينية قوية وأنماط بصرية متنوعة.",
"fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، كما يتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
"fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen، يتميز بعرض متميز للنصوص الصينية وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
"gemini-2.5-flash-image-preview.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً في التعدد الوسائطي، يتيح توليد وتحرير الصور من خلال المحادثة.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً في التعدد الوسائطي، يتيح توليد وتحرير الصور من خلال المحادثة.",
"gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
"gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max هو الإصدار الأكثر تكاملًا، يدعم البحث عبر الإنترنت والعديد من الإضافات المدمجة. قدراته الأساسية المحسّنة، وأدوار النظام، واستدعاء الوظائف توفر أداءً ممتازًا في سيناريوهات التطبيقات المعقدة.",
"generalv3.description": "Spark Pro هو نموذج لغوي عالي الأداء مُحسّن للمجالات المهنية، يركز على الرياضيات، والبرمجة، والرعاية الصحية، والتعليم، مع دعم البحث عبر الإنترنت والإضافات المدمجة مثل الطقس والتاريخ. يقدم أداءً قويًا وكفاءة في أسئلة المعرفة المعقدة، وفهم اللغة، وإنشاء النصوص المتقدمة، مما يجعله خيارًا مثاليًا للاستخدام المهني.",
"glm-4-0520.description": "GLM-4-0520 هو أحدث إصدار من النموذج، مصمم للمهام المعقدة والمتنوعة بأداء ممتاز.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 هو نموذج عام من GLM يدعم توليد النصوص وفهمها عبر مهام متعددة.",
"glm-4-7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu AI. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر في العديد من المعايير العامة. كما تم تحسين القدرات العامة، مع ردود أكثر طبيعية واختصارًا، وتجربة كتابة أكثر غمرًا. في المهام المعقدة، أصبح اتباع التعليمات أقوى أثناء استخدام الأدوات، وتم تحسين جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد. • قدرات برمجية أقوى: تحسين كبير في البرمجة متعددة اللغات وأداء الوكلاء الطرفيين؛ يمكن لـ GLM-4.7 الآن تنفيذ آلية \"فكر أولاً، ثم تصرف\" في أطر مثل Claude Code وKilo Code وTRAE وCline وRoo Code، مع أداء أكثر استقرارًا في المهام المعقدة. • تحسين جمالية الواجهات: تقدم ملحوظ في جودة توليد الواجهات، قادر على إنشاء مواقع إلكترونية وعروض تقديمية وملصقات بجاذبية بصرية أفضل. • قدرات أقوى في استدعاء الأدوات: يعزز GLM-4.7 قدرات استدعاء الأدوات، محققًا 67 نقطة في تقييم BrowseComp لمهام الويب؛ و84.7 نقطة في تقييم τ²-Bench لاستدعاء الأدوات التفاعلي، متفوقًا على Claude Sonnet 4.5 كأفضل نموذج مفتوح المصدر. • تحسين قدرات الاستدلال: تعزيز كبير في القدرات الرياضية والمنطقية، محققًا 42.8% في معيار HLE (\"امتحان البشرية الأخير\"), بزيادة 41% عن GLM-4.6، متفوقًا على GPT-5.1. • تعزيز القدرات العامة: محادثات GLM-4.7 أكثر اختصارًا وذكاءً وإنسانية؛ والكتابة ولعب الأدوار أكثر أدبية وغامرة.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat يتميز بقوة في الدلالات، الرياضيات، الاستدلال، البرمجة، والمعرفة. كما يدعم تصفح الويب، تنفيذ الشيفرات، استدعاء الأدوات المخصصة، والاستدلال على النصوص الطويلة، مع دعم لـ 26 لغة منها اليابانية والكورية والألمانية.",
"glm-4-air-250414.description": "GLM-4-Air هو خيار عالي القيمة بأداء قريب من GLM-4، سرعة عالية، وتكلفة منخفضة.",
"glm-4-air.description": "GLM-4-Air هو خيار عالي القيمة بأداء قريب من GLM-4، سرعة عالية، وتكلفة منخفضة.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking هو أقوى نموذج VLM معروف بحجم ~10B، يغطي مهام متقدمة مثل فهم الفيديو، الأسئلة البصرية، حل المسائل، التعرف البصري، قراءة المستندات والمخططات، وكلاء واجهات المستخدم، برمجة الواجهات، والتأريض. يتفوق على Qwen2.5-VL-72B الأكبر بـ8 مرات في العديد من المهام. يستخدم استدلال سلسلة الأفكار لتحسين الدقة والثراء، متفوقًا على النماذج التقليدية غير المفكرة في النتائج والشرح.",
"glm-4.5-air.description": "GLM-4.5 إصدار خفيف يوازن بين الأداء والتكلفة، مع أوضاع تفكير هجينة مرنة.",
"glm-4.5-airx.description": "GLM-4.5-Air إصدار سريع يوفر استجابات أسرع للاستخدام واسع النطاق وعالي السرعة.",
"glm-4.5-flash.description": "إصدار مجاني من GLM-4.5 بأداء قوي في الاستدلال، البرمجة، والمهام الوكيلة.",
"glm-4.5-x.description": "GLM-4.5 إصدار سريع، يقدم أداءً قويًا مع سرعات توليد تصل إلى 100 رمز/ثانية.",
"glm-4.5.description": "نموذج Zhipu الرائد مع وضع تفكير قابل للتبديل، يقدم أداءً رائدًا مفتوح المصدر وسياق يصل إلى 128K.",
"glm-4.5v.description": "نموذج الرؤية والاستدلال من الجيل التالي من Zhipu بتقنية MoE، يحتوي على 106 مليار معلمة إجمالية و12 مليار نشطة، يحقق أداءً رائدًا بين النماذج متعددة الوسائط مفتوحة المصدر ذات الحجم المماثل في مهام الصور، الفيديو، فهم المستندات، ومهام واجهات المستخدم.",
"glm-4.6.description": "GLM-4.6 (355B) هو النموذج الرائد الأحدث من Zhipu، يتفوق بشكل كامل على النماذج السابقة في الترميز المتقدم، ومعالجة النصوص الطويلة، والاستدلال، وقدرات الوكلاء. يتماشى بشكل خاص مع Claude Sonnet 4 في قدرات البرمجة، مما يجعله النموذج الأفضل في الصين للترميز.",
"glm-4.7-flash.description": "GLM-4.7-Flash، كنموذج SOTA بحجم 30 مليار، يقدم خيارًا جديدًا يوازن بين الأداء والكفاءة. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر من نفس الحجم في العديد من المعايير الحالية. في تنفيذ المهام المعقدة، يتميز بامتثال أقوى للتعليمات أثناء استدعاء الأدوات، ويعزز جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد.",
"glm-4.7-flashx.description": "GLM-4.7-Flash، كنموذج SOTA بحجم 30 مليار، يقدم خيارًا جديدًا يوازن بين الأداء والكفاءة. يعزز قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات في سيناريوهات البرمجة بالوكيل، محققًا أداءً رائدًا بين النماذج مفتوحة المصدر من نفس الحجم في العديد من المعايير الحالية. في تنفيذ المهام المعقدة، يتميز بامتثال أقوى للتعليمات أثناء استدعاء الأدوات، ويعزز جمالية الواجهات وكفاءة إتمام المهام طويلة الأمد.",
"glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، تم تعزيزه لسيناريوهات الترميز الوكالي مع تحسينات في قدرات البرمجة، وتخطيط المهام طويلة الأمد، والتعاون مع الأدوات. يحقق أداءً رائدًا بين النماذج مفتوحة المصدر في العديد من المعايير العامة. تم تحسين القدرات العامة لتقديم ردود أكثر إيجازًا وطبيعية، وتجربة كتابة أكثر غمرًا. في المهام المعقدة للوكلاء، تم تعزيز اتباع التعليمات أثناء استدعاء الأدوات، كما تم تحسين جمالية الواجهة وكفاءة إتمام المهام طويلة الأمد في Artifacts والترميز الوكالي.",
"glm-4.description": "GLM-4 هو النموذج الرائد الأقدم الذي تم إصداره في يناير 2024، وقد تم استبداله الآن بـ GLM-4-0520 الأقوى.",
"glm-4v-flash.description": "GLM-4V-Flash يركز على فهم صورة واحدة بكفاءة لسيناريوهات التحليل السريع مثل المعالجة الفورية أو الدفعية للصور.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: إصدار أصغر وأقل تكلفة من Codex، محسّن لمهام البرمجة التلقائية.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: إصدار من GPT-5.1 محسّن لمهام البرمجة التلقائية، مناسب لتدفقات العمل المعقدة في واجهة Responses API.",
"gpt-5.1.description": "GPT-5.1 — نموذج رائد محسّن للبرمجة والمهام التلقائية مع جهد استدلال قابل للتكوين وسياق أطول.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat هو إصدار ChatGPT (chat-latest) لتجربة أحدث تحسينات المحادثة.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (متاح فقط عبر Responses API)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat هو إصدار ChatGPT المخصص لأحدث تحسينات المحادثة.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (لواجهة Responses API فقط)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
"gpt-5.2.description": "GPT-5.2 هو نموذج رائد لتدفقات العمل البرمجية والتلقائية مع استدلال أقوى وأداء سياقي طويل.",
"gpt-5.description": "أفضل نموذج لمهام البرمجة والتلقائية عبر المجالات. يحقق GPT-5 قفزات في الدقة والسرعة والاستدلال والوعي بالسياق والتفكير المنظم وحل المشكلات.",
"gpt-audio.description": "GPT Audio هو نموذج دردشة عام يدعم الإدخال والإخراج الصوتي، مدعوم في واجهة Chat Completions API.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini هو إصدار أصغر وأسرع من GPT-5.1-Codex، مثالي للبرمجة في سيناريوهات حساسة للتكلفة وزمن الاستجابة.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex هو إصدار من GPT-5.1 محسّن لهندسة البرمجيات وتدفقات العمل البرمجية، مناسب لإعادة هيكلة واسعة، وتصحيح الأخطاء المعقدة، ومهام البرمجة الذاتية الطويلة.",
"openai/gpt-5.1.description": "GPT-5.1 هو النموذج الرائد الأحدث في سلسلة GPT-5، مع تحسينات كبيرة في التفكير العام، اتباع التعليمات، وطبيعية المحادثة، مناسب لمجموعة واسعة من المهام.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat هو إصدار ChatGPT لتجربة أحدث تحسينات المحادثة.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: إصدار أكثر ذكاءً ودقة من GPT-5.2 (لواجهة Responses API فقط)، مناسب للمشكلات الصعبة والاستدلال متعدد الأدوار الطويل.",
"openai/gpt-5.2.description": "GPT-5.2 هو نموذج رائد للبرمجة وسير العمل بالوكيل، يتميز باستدلال أقوى وأداء أفضل في السياقات الطويلة.",
"openai/gpt-5.description": "GPT-5 هو نموذج عالي الأداء من OpenAI لمجموعة واسعة من المهام الإنتاجية والبحثية.",
"openai/gpt-oss-120b.description": "نموذج لغة كبير عام القدرات يتمتع بتفكير قوي وقابل للتحكم.",
"openai/gpt-oss-20b.description": "نموذج لغة صغير الحجم بوزن مفتوح، محسّن لزمن استجابة منخفض وبيئات محدودة الموارد، بما في ذلك النشر المحلي وعلى الأطراف.",
@ -1045,6 +1046,9 @@
"qwen/qwen3-14b.description": "Qwen3-14B هو إصدار 14B مخصص للاستدلال العام وسيناريوهات الدردشة.",
"qwen/qwen3-14b:free.description": "Qwen3-14B هو نموذج سببي كثيف يحتوي على 14.8 مليار معلمة، مصمم للاستدلال المعقد والدردشة الفعالة. يتنقل بين وضع التفكير للرياضيات، البرمجة، والمنطق، ووضع غير التفكير للدردشة العامة. تم تحسينه لاتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياق 32K أصليًا ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507 هو إصدار Instruct من سلسلة Qwen3، يوازن بين استخدام التعليمات متعددة اللغات وسيناريوهات السياق الطويل.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 هو إصدار التفكير من Qwen3، معزز للمهام المعقدة في الرياضيات والاستدلال.",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen2:1.5b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen2:72b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen3-0.6b.description": "Qwen3 0.6B هو نموذج مبدئي مخصص للاستدلال البسيط والبيئات المحدودة للغاية.",
@ -1148,7 +1152,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air هو إصدار خفيف الوزن من GLM 4.5 مخصص للسيناريوهات الحساسة للتكلفة مع الحفاظ على قدرات استدلال قوية.",
"z-ai/glm-4.5.description": "GLM 4.5 هو النموذج الرائد من Z.AI باستدلال هجين مُحسّن للهندسة والمهام طويلة السياق.",
"z-ai/glm-4.6.description": "GLM 4.6 هو النموذج الرائد من Z.AI مع طول سياق ممتد وقدرات برمجية متقدمة.",
"zai-glm-4.6.description": "يؤدي أداءً جيدًا في مهام البرمجة والاستدلال، ويدعم البث واستدعاء الأدوات، ومناسب للبرمجة الذاتية والاستدلال المعقد.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5.description": "GLM-4.5 هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن بعمق لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5V.description": "GLM-4.5V هو أحدث نموذج رؤية من Zhipu AI، مبني على نموذج النص الرائد GLM-4.5-Air (إجمالي 106 مليار، 12 مليار نشط) باستخدام بنية MoE لأداء قوي بتكلفة أقل. يتبع مسار GLM-4.1V-Thinking ويضيف 3D-RoPE لتحسين الاستدلال المكاني ثلاثي الأبعاد. مُحسّن من خلال التدريب المسبق، والتعلم الخاضع للإشراف، والتعلم المعزز، ويتعامل مع الصور، والفيديو، والمستندات الطويلة، ويتصدر النماذج المفتوحة في 41 معيارًا متعدد الوسائط. يتيح وضع التفكير للمستخدمين التوازن بين السرعة والعمق.",

View file

@ -29,7 +29,6 @@
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "أنشئ أول مهمة مجدولة لأتمتة وكيلك",
"agentCronJobs.empty.title": "لا توجد مهام مجدولة بعد",
"agentCronJobs.enable": "تمكين",
"agentCronJobs.form.at": "في",
"agentCronJobs.form.content.placeholder": "أدخل التعليمات أو الأمر للوكيل",
"agentCronJobs.form.every": "كل",
"agentCronJobs.form.frequency": "التكرار",
"agentCronJobs.form.hours": "ساعة/ساعات",
"agentCronJobs.form.maxExecutions": "توقف بعد",
"agentCronJobs.form.maxExecutions.placeholder": "اتركه فارغًا لعدد غير محدود",
"agentCronJobs.form.name.placeholder": "أدخل اسم المهمة",
"agentCronJobs.form.time": "الوقت",
"agentCronJobs.form.timeRange.end": "وقت الانتهاء",
"agentCronJobs.form.timeRange.start": "وقت البدء",
"agentCronJobs.form.times": "مرات",
"agentCronJobs.form.timezone": "المنطقة الزمنية",
"agentCronJobs.form.unlimited": "تشغيل مستمر",
"agentCronJobs.form.validation.contentRequired": "محتوى المهمة مطلوب",
"agentCronJobs.form.validation.invalidTimeRange": "يجب أن يكون وقت البدء قبل وقت الانتهاء",
"agentCronJobs.form.validation.nameRequired": "اسم المهمة مطلوب",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "الثلاثاء",
"agentCronJobs.weekday.wednesday": "الأربعاء",
"agentCronJobs.weekdays": "أيام الأسبوع",
"agentCronJobs.weekdays.fri": "الجمعة",
"agentCronJobs.weekdays.mon": "الاثنين",
"agentCronJobs.weekdays.sat": "السبت",
"agentCronJobs.weekdays.sun": "الأحد",
"agentCronJobs.weekdays.thu": "الخميس",
"agentCronJobs.weekdays.tue": "الثلاثاء",
"agentCronJobs.weekdays.wed": "الأربعاء",
"agentInfoDescription.basic.avatar": "الصورة الرمزية",
"agentInfoDescription.basic.description": "الوصف",
"agentInfoDescription.basic.name": "الاسم",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Този имейл е свързан с изтрит акаунт и не може да бъде използван за регистрация",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Имейлът не може да бъде променен за този акаунт",
"codes.EMAIL_NOT_ALLOWED": "Имейл адресът не е разрешен за регистрация",
"codes.EMAIL_NOT_FOUND": "Няма имейл, свързан с този акаунт. Моля, проверете дали акаунтът ви има свързан имейл.",
"codes.EMAIL_NOT_VERIFIED": "Моля, първо потвърдете имейла си",
"codes.FAILED_TO_CREATE_SESSION": "Неуспешно създаване на сесия",
"codes.FAILED_TO_CREATE_USER": "Неуспешно създаване на потребител",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Модел с 7B параметри с по-високо качество от Phi-3-mini, фокусиран върху данни с високо качество и интензивно разсъждение.",
"Phi-3.5-mini-instruct.description": "Актуализирана версия на модела Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Актуализирана версия на модела Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 е отворен модел с голям езиков капацитет, оптимизиран за агентни способности, с изключителни резултати в програмиране, използване на инструменти, следване на инструкции и дългосрочно планиране. Моделът поддържа многоезична разработка на софтуер и изпълнение на сложни многoетапни работни потоци, постигайки резултат от 74.0 в SWE-bench Verified и надминава Claude Sonnet 4.5 в многоезични сценарии.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct е 7B модел с инструкции от серията Qwen2. Използва трансформерна архитектура със SwiGLU, QKV bias и групирано внимание, и обработва големи входове. Постига отлични резултати в езиково разбиране, генериране, многоезични задачи, програмиране, математика и разсъждение, надминавайки повечето отворени модели и конкурирайки се със затворени.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct е част от най-новата серия LLM на Alibaba Cloud. Моделът с 7B параметри носи значителни подобрения в програмирането и математиката, поддържа над 29 езика и подобрява следването на инструкции, разбирането на структурирани данни и генерирането на структурирани изходи (особено JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct е най-новият LLM на Alibaba Cloud, фокусиран върху програмиране. Изграден върху Qwen2.5 и обучен с 5.5T токена, значително подобрява генерирането на код, разсъждението и поправката, като същевременно запазва силни математически и общи способности, осигурявайки стабилна основа за кодови агенти.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзхождащ предишния водещ модел Claude 3 Opus в много бенчмаркове.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрения във всички умения и надминава предишния водещ модел Claude 3 Opus в множество тестове за интелигентност.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, предлагащ почти мигновени отговори или разширено мислене с прецизен контрол.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да предоставя почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и агентни приложения.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен модел от серията Haiku на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с висока производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, с превъзходна производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, с отлична производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено поетапно мислене с прецизен контрол за потребителите на API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да предоставя почти мигновени отговори или разширено поетапно мислене с видим процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
"codegemma.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp е експериментална версия V3.2, която служи като мост към следващата архитектура. Добавя DeepSeek Sparse Attention (DSA) върху V3.1-Terminus за подобряване на ефективността при обучение и извеждане с дълъг контекст, с оптимизации за използване на инструменти, разбиране на дълги документи и многoетапно разсъждение. Идеален е за изследване на по-висока ефективност при разсъждение с големи контекстуални бюджети.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и извеждане. Предварително обучен върху 14.8 трилиона висококачествени токени със SFT и RL, той превъзхожда други отворени модели и се доближава до водещите затворени модели.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
"deepseek-ai/deepseek-r1.description": "Модел от ново поколение с висока ефективност, силен в разсъждение, математика и програмиране.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
"deepseek-chat.description": "DeepSeek V3.2 постига баланс между логическо мислене и дължина на отговорите за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, а това е първият модел, който интегрира мислене при използване на инструменти, водещ до водещи резултати в оценките на отворените агенти.",
"deepseek-chat.description": "Нов отворен модел, който комбинира общи и програмни способности. Съчетава общуването на чат модел с мощното програмиране на кодов модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е модел за дълбоко разсъждение, който генерира верига от мисли преди отговорите за по-висока точност, с водещи резултати в състезания и логика, сравнима с Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 генерира верига от разсъждения преди крайния отговор за повишена точност.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработен от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена консистентност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лога с високопрецизно рендиране на текст и изображения.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа вход от текст и изображения за висококачествено и контролируемо генериране на изображения по подадени подсказки.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо качество и контролируемост. Генерира изображения по текстови подсказки.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, поддържащ семантични и визуални промени, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с отлична визуализация на китайски текст и разнообразни визуални стилове.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени трансформации като смяна на стил и завъртане на обекти.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 14 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max е най-пълнофункционалната версия, поддържаща уеб търсене и множество вградени плъгини. Напълно оптимизираните основни възможности, системни роли и извикване на функции осигуряват отлична производителност в сложни приложения.",
"generalv3.description": "Spark Pro е високопроизводителен LLM, оптимизиран за професионални области като математика, програмиране, здравеопазване и образование. Поддържа уеб търсене и вградени плъгини като прогноза за времето и дата. Осигурява силна производителност и ефективност при сложни въпроси, езиково разбиране и напреднало текстово създаване, което го прави идеален за професионални приложения.",
"glm-4-0520.description": "GLM-4-0520 е най-новата версия на модела, проектирана за изключително сложни и разнообразни задачи с отлична производителност.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 е универсален GLM модел, поддържащ многозадачно генериране и разбиране на текст.",
"glm-4-7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu AI. Той подобрява способностите за програмиране, дългосрочно планиране на задачи и сътрудничество с инструменти в сценарии за агентно програмиране, постигайки водещи резултати сред отворените модели в множество публични тестове. Общите способности са подобрени, с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции е по-силно при използване на инструменти, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи са допълнително подобрени.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat се представя силно в семантика, математика, логика, програмиране и знания. Поддържа също така уеб браузване, изпълнение на код, извикване на персонализирани инструменти и логическо мислене върху дълги текстове, с поддръжка на 26 езика, включително японски, корейски и немски.",
"glm-4-air-250414.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
"glm-4-air.description": "GLM-4-Air е високостойностен вариант с производителност, близка до GLM-4, висока скорост и по-ниска цена.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking е най-силният известен ~10B VLM, покриващ SOTA задачи като разбиране на видео, QA по изображения, решаване на задачи, OCR, четене на документи и графики, GUI агенти, фронтенд програмиране и обоснованост. Надминава дори 8 пъти по-големия Qwen2.5-VL-72B в много задачи. С усъвършенствано RL, използва верижно мислене за подобрена точност и богатство, превъзхождайки традиционните модели без мислене както по резултати, така и по обяснимост.",
"glm-4.5-air.description": "GLM-4.5 лек вариант, който балансира производителност и цена, с гъвкави хибридни режими на мислене.",
"glm-4.5-airx.description": "GLM-4.5-Air бърз вариант с по-бързи отговори за мащабни и високоскоростни приложения.",
"glm-4.5-flash.description": "Безплатен GLM-4.5 слой с висока производителност при логическо мислене, програмиране и агентни задачи.",
"glm-4.5-x.description": "GLM-4.5 бърз вариант, осигуряващ силна производителност със скорост на генериране до 100 токена/секунда.",
"glm-4.5.description": "Флагманският модел на Zhipu с превключваем режим на мислене, осигуряващ SOTA производителност с отворен код и до 128K контекст.",
"glm-4.5v.description": "Следващото поколение MoE визуален логически модел на Zhipu с 106 милиарда общи параметъра и 12 милиарда активни, постигащ SOTA сред отворените мултимодални модели със сходен размер в задачи с изображения, видео, документи и GUI.",
"glm-4.6.description": "Най-новият флагмански модел на Zhipu GLM-4.6 (355B) напълно надминава предшествениците си в напреднало програмиране, обработка на дълги текстове, логическо мислене и агентни способности. Особено се доближава до Claude Sonnet 4 по програмиране, превръщайки се в най-добрия кодиращ модел в Китай.",
"glm-4.7-flash.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, като SOTA модел от 30B ниво, предлага нов избор, който балансира производителност и ефективност. Подобрява програмирането, дългосрочното планиране и сътрудничеството с инструменти в агентни сценарии, постигайки водещи резултати сред отворените модели със същия размер в актуалните класации.",
"glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии с агентно програмиране с по-добри способности за кодиране, дългосрочно планиране на задачи и сътрудничество с инструменти. Постига водеща производителност сред отворените модели в множество публични бенчмаркове. Общите способности са подобрени с по-кратки и естествени отговори и по-завладяващо писане. При сложни агентни задачи следването на инструкции при извикване на инструменти е по-силно, а естетиката на интерфейса и ефективността при изпълнение на дългосрочни задачи в Artifacts и Agentic Coding са допълнително подобрени.",
"glm-4.description": "GLM-4 е по-старият флагман, пуснат през януари 2024 г., сега заменен от по-силния GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash се фокусира върху ефективно разбиране на единични изображения за бързи анализи като обработка в реално време или на партиди.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: по-малък и по-евтин вариант на Codex, оптимизиран за агентски задачи по програмиране.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант на GPT-5.1, оптимизиран за агентски задачи по програмиране, за сложни кодови/агентски работни потоци в Responses API.",
"gpt-5.1.description": "GPT-5.1 — водещ модел, оптимизиран за програмиране и агентски задачи с конфигурируемо усилие за разсъждение и по-дълъг контекст.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest) за изпробване на най-новите подобрения в разговорите.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: по-интелигентен и прецизен вариант на GPT-5.2 (само за Responses API), подходящ за трудни проблеми и дълги многоходови разсъждения.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat е вариантът на ChatGPT (chat-latest) с най-новите подобрения в разговорите.",
"gpt-5.2-pro.description": "GPT-5.2 pro: по-интелигентен и прецизен вариант на GPT-5.2 (само чрез Responses API), подходящ за трудни задачи и дълги многоетапни разсъждения.",
"gpt-5.2.description": "GPT-5.2 е водещ модел за програмиране и агентски работни потоци с по-силно разсъждение и производителност при дълъг контекст.",
"gpt-5.description": "Най-добрият модел за междудисциплинарно програмиране и агентски задачи. GPT-5 прави скок в точността, скоростта, разсъждението, осъзнаването на контекста, структурираното мислене и решаването на проблеми.",
"gpt-audio.description": "GPT Audio е универсален чат модел за вход/изход на аудио, поддържан в Chat Completions API.",
@ -957,7 +955,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air е олекотен вариант на GLM 4.5 за сценарии, чувствителни към разходи, като същевременно запазва силни способности за разсъждение.",
"z-ai/glm-4.5.description": "GLM 4.5 е флагманският модел на Z.AI с хибридно разсъждение, оптимизиран за инженерни и задачи с дълъг контекст.",
"z-ai/glm-4.6.description": "GLM 4.6 е флагманският модел на Z.AI с разширен контекст и подобрени възможности за програмиране.",
"zai-glm-4.6.description": "Показва отлични резултати при задачи с програмиране и разсъждение, поддържа стрийминг и извикване на инструменти, подходящ за агентно програмиране и сложни логически задачи.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air е базов модел за агентни приложения с архитектура Mixture-of-Experts. Оптимизиран е за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
"zai-org/GLM-4.5.description": "GLM-4.5 е базов модел, създаден за агентни приложения с архитектура Mixture-of-Experts. Дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
"zai-org/GLM-4.5V.description": "GLM-4.5V е най-новият визуален езиков модел (VLM) на Zhipu AI, изграден върху флагманския текстов модел GLM-4.5-Air (106B общо, 12B активни) с MoE архитектура за висока производителност при по-ниска цена. Следва пътя на GLM-4.1V-Thinking и добавя 3D-RoPE за подобрено пространствено разсъждение в 3D. Оптимизиран чрез предварително обучение, SFT и RL, обработва изображения, видео и дълги документи и е сред водещите отворени модели в 41 публични мултимодални бенчмарка. Режимът Thinking позволява на потребителите да балансират между скорост и дълбочина.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Създайте първата си планирана задача, за да автоматизирате вашия агент",
"agentCronJobs.empty.title": "Все още няма планирани задачи",
"agentCronJobs.enable": "Активирай",
"agentCronJobs.form.at": "в",
"agentCronJobs.form.content.placeholder": "Въведете подкана или инструкция за агента",
"agentCronJobs.form.every": "Всеки",
"agentCronJobs.form.frequency": "Честота",
"agentCronJobs.form.hours": "час(а)",
"agentCronJobs.form.maxExecutions": "Спри след",
"agentCronJobs.form.maxExecutions.placeholder": "Оставете празно за неограничено",
"agentCronJobs.form.name.placeholder": "Въведете име на задачата",
"agentCronJobs.form.time": "Час",
"agentCronJobs.form.timeRange.end": "Крайно време",
"agentCronJobs.form.timeRange.start": "Начално време",
"agentCronJobs.form.times": "пъти",
"agentCronJobs.form.timezone": "Часова зона",
"agentCronJobs.form.unlimited": "Изпълнявай непрекъснато",
"agentCronJobs.form.validation.contentRequired": "Съдържанието на задачата е задължително",
"agentCronJobs.form.validation.invalidTimeRange": "Началното време трябва да е преди крайното",
"agentCronJobs.form.validation.nameRequired": "Името на задачата е задължително",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Вторник",
"agentCronJobs.weekday.wednesday": "Сряда",
"agentCronJobs.weekdays": "Дни от седмицата",
"agentCronJobs.weekdays.fri": "Пет",
"agentCronJobs.weekdays.mon": "Пон",
"agentCronJobs.weekdays.sat": "Съб",
"agentCronJobs.weekdays.sun": "Нед",
"agentCronJobs.weekdays.thu": "Чет",
"agentCronJobs.weekdays.tue": "Вто",
"agentCronJobs.weekdays.wed": "Сря",
"agentInfoDescription.basic.avatar": "Аватар",
"agentInfoDescription.basic.description": "Описание",
"agentInfoDescription.basic.name": "Име",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Diese E-Mail-Adresse ist mit einem gelöschten Konto verknüpft und kann nicht für die Registrierung verwendet werden",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "E-Mail-Adresse kann für dieses Konto nicht aktualisiert werden",
"codes.EMAIL_NOT_ALLOWED": "Diese E-Mail-Adresse ist für die Registrierung nicht zugelassen",
"codes.EMAIL_NOT_FOUND": "Keine E-Mail mit diesem Konto verknüpft. Bitte überprüfen Sie, ob Ihrem Konto eine E-Mail-Adresse zugeordnet ist.",
"codes.EMAIL_NOT_VERIFIED": "Bitte verifiziere zuerst deine E-Mail-Adresse",
"codes.FAILED_TO_CREATE_SESSION": "Sitzung konnte nicht erstellt werden",
"codes.FAILED_TO_CREATE_USER": "Benutzer konnte nicht erstellt werden",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Ein Modell mit 7 Milliarden Parametern, das qualitativ hochwertiger ist als Phi-3-mini und sich auf hochwertige, schlussfolgerungsintensive Daten konzentriert.",
"Phi-3.5-mini-instruct.description": "Eine aktualisierte Version des Phi-3-mini-Modells.",
"Phi-3.5-vision-instrust.description": "Eine aktualisierte Version des Phi-3-vision-Modells.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 ist ein Open-Source-Sprachmodell der nächsten Generation, das für agentenbasierte Fähigkeiten optimiert wurde. Es überzeugt in den Bereichen Programmierung, Werkzeugnutzung, Befolgen von Anweisungen und langfristige Planung. Das Modell unterstützt mehrsprachige Softwareentwicklung und die Ausführung komplexer, mehrstufiger Arbeitsabläufe. Es erreichte 74,0 Punkte im SWE-bench Verified und übertrifft Claude Sonnet 4.5 in mehrsprachigen Szenarien.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct ist ein 7B-Instruktionsmodell der Qwen2-Serie. Es verwendet eine Transformer-Architektur mit SwiGLU, Attention-QKV-Bias und Grouped-Query-Attention und verarbeitet große Eingaben. Es zeigt starke Leistungen in Sprachverständnis, Textgenerierung, Mehrsprachigkeit, Programmierung, Mathematik und logischem Denken, übertrifft die meisten Open-Source-Modelle und konkurriert mit proprietären Modellen. Es übertrifft Qwen1.5-7B-Chat in mehreren Benchmarks.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct ist Teil der neuesten LLM-Serie von Alibaba Cloud. Das 7B-Modell bietet deutliche Verbesserungen in den Bereichen Programmierung und Mathematik, unterstützt über 29 Sprachen und verbessert das Befolgen von Anweisungen, das Verständnis strukturierter Daten und strukturierte Ausgaben (insbesondere JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct ist das neueste codefokussierte LLM von Alibaba Cloud. Basierend auf Qwen2.5 und trainiert mit 5,5 Billionen Tokens verbessert es die Codegenerierung, das logische Denken und die Fehlerbehebung erheblich, während es mathematische und allgemeine Stärken beibehält eine solide Grundlage für Coding-Agenten.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es ermöglicht nahezu sofortige Antworten oder tiefgreifendes Denken mit präziser Steuerung.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse liefern, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und agentenbasierte Aufgaben.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic blitzschnell und mit erweitertem Denkvermögen.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und glänzt in den Bereichen Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic. Es bietet nahezu sofortige Antworten oder schrittweises Denken mit feingranularer Steuerung für API-Nutzer.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse mit sichtbarem Ablauf liefern.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp ist eine experimentelle V3.2-Version, die zur nächsten Architektur überleitet. Sie ergänzt DeepSeek Sparse Attention (DSA) auf Basis von V3.1-Terminus zur Verbesserung von Training und Inferenz bei langen Kontexten. Optimiert für Toolnutzung, Dokumentenverständnis und mehrstufiges Denken ideal zur Erforschung effizienteren Denkens bei großem Kontextbudget.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Vortrainiert auf 14,8B hochwertigen Tokens mit SFT und RL übertrifft es andere offene Modelle und nähert sich führenden geschlossenen Modellen an.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.",
"deepseek-ai/deepseek-r1.description": "Ein hochmodernes, effizientes LLM mit Stärken in logischem Denken, Mathematik und Programmierung.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
"deepseek-chat.description": "DeepSeek V3.2 balanciert logisches Denken und Ausgabelänge für tägliche QA- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führt Open-Source-Agentenbewertungen an.",
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und programmierbezogene Fähigkeiten kombiniert. Es vereint die dialogorientierte Stärke eines Chatmodells mit der ausgeprägten Programmierleistung eines Codemodells und bietet eine verbesserte Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert und so höhere Genauigkeit erreicht. Es erzielt Spitzenwerte im Wettbewerb und bietet logisches Denken auf dem Niveau von Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team von ByteDance, unterstützt Multi-Bild-Bearbeitung und -Komposition. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, räumliches Logikverständnis, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder basierend auf Texteingaben.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt. Es bearbeitet chinesischen und englischen Text präzise und ermöglicht hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 14 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Modell zur Bildgenerierung und unterstützt auch multimodale Konversationen.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
"gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max ist die funktionsreichste Version mit Websuche und vielen integrierten Plugins. Die vollständig optimierten Kernfunktionen, Systemrollen und Funktionsaufrufe sorgen für exzellente Leistung in komplexen Anwendungsszenarien.",
"generalv3.description": "Spark Pro ist ein leistungsstarkes LLM, das für professionelle Bereiche wie Mathematik, Programmierung, Gesundheitswesen und Bildung optimiert ist. Es bietet Websuche und integrierte Plugins wie Wetter und Datum. Es überzeugt durch starke Leistung und Effizienz bei komplexen Wissensfragen, Sprachverständnis und fortgeschrittener Textgenerierung ideal für professionelle Anwendungsfälle.",
"glm-4-0520.description": "GLM-4-0520 ist die neueste Modellversion, entwickelt für hochkomplexe und vielfältige Aufgaben mit exzellenter Leistung.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 ist ein allgemeines GLM-Modell, das Multi-Task-Textgenerierung und -verständnis unterstützt.",
"glm-4-7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu AI. Es verbessert die Programmierfähigkeiten, die langfristige Aufgabenplanung und die Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen in mehreren öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden verbessert mit prägnanteren, natürlicheren Antworten und immersiverem Schreibstil. Bei komplexen Agentenaufgaben ist das Befolgen von Anweisungen bei Werkzeugaufrufen stärker, und die Ästhetik sowie Effizienz bei der Erstellung von Artefakten und der agentenbasierten Codierung wurden weiter optimiert. • Verbesserte Programmierfähigkeiten: Deutlich verbesserte Mehrsprachen-Codierung und Terminal-Agent-Leistung; GLM-4.7 kann jetzt „erst denken, dann handeln“-Mechanismen in Programmierframeworks wie Claude Code, Kilo Code, TRAE, Cline und Roo Code umsetzen mit stabilerer Leistung bei komplexen Aufgaben. • Verbesserte Frontend-Ästhetik: GLM-4.7 zeigt deutliche Fortschritte bei der Frontend-Generierung und kann Webseiten, Präsentationen und Poster mit höherem visuellen Anspruch erstellen. • Verbesserte Werkzeugnutzung: GLM-4.7 verbessert die Fähigkeit zum Werkzeugaufruf, erzielt 67 Punkte im BrowseComp-Webaufgabentest und 84,7 Punkte im τ²-Bench für interaktive Werkzeugnutzung und übertrifft damit Claude Sonnet 4.5 als Open-Source-SOTA. • Verbesserte Denkfähigkeiten: Deutlich verbesserte mathematische und logische Fähigkeiten mit 42,8 % im HLE („Humanitys Last Exam“) Benchmark eine Steigerung um 41 % gegenüber GLM-4.6 und besser als GPT-5.1. • Allgemeine Verbesserungen: GLM-4.7 führt prägnantere, intelligentere und menschlichere Gespräche; Schreiben und Rollenspiel sind literarischer und immersiver.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat überzeugt in Semantik, Mathematik, logischem Denken, Code und Wissen. Es unterstützt auch Web-Browsing, Codeausführung, benutzerdefinierte Tool-Nutzung und Langtext-Reasoning in 26 Sprachen, darunter Japanisch, Koreanisch und Deutsch.",
"glm-4-air-250414.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
"glm-4-air.description": "GLM-4-Air ist eine kosteneffiziente Option mit Leistung nahe GLM-4, hoher Geschwindigkeit und geringeren Kosten.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking ist das stärkste bekannte ~10B VLM und deckt SOTA-Aufgaben wie Videoverstehen, Bild-QA, Fachlösungen, OCR, Dokument- und Diagrammlesen, GUI-Agenten, Frontend-Coding und Grounding ab. Es übertrifft sogar das 8-fach größere Qwen2.5-VL-72B in vielen Aufgaben. Mit fortschrittlichem RL nutzt es Chain-of-Thought-Reasoning zur Verbesserung von Genauigkeit und Tiefe und übertrifft traditionelle Nicht-Denk-Modelle sowohl in Ergebnissen als auch in Erklärbarkeit.",
"glm-4.5-air.description": "GLM-4.5 Leichtversion, die Leistung und Kosten ausbalanciert, mit flexiblen hybriden Denkmodi.",
"glm-4.5-airx.description": "GLM-4.5-Air Schnellversion mit schnelleren Antworten für großflächige, hochfrequente Nutzung.",
"glm-4.5-flash.description": "Kostenlose GLM-4.5-Stufe mit starker Leistung in logischem Denken, Programmierung und Agentenaufgaben.",
"glm-4.5-x.description": "GLM-4.5 Schnellversion mit starker Leistung und Generierungsgeschwindigkeiten von bis zu 100 Token/Sekunde.",
"glm-4.5.description": "Zhipus Flaggschiffmodell mit umschaltbarem Denkmodus, bietet Open-Source-SOTA-Leistung und bis zu 128K Kontext.",
"glm-4.5v.description": "Zhipus nächste Generation eines MoE-Vision-Reasoning-Modells mit 106B Gesamtparametern und 12B aktiven. Es erreicht SOTA unter ähnlich großen Open-Source-Multimodalmodellen in Bild-, Video-, Dokumentenverständnis- und GUI-Aufgaben.",
"glm-4.6.description": "Zhipus neuestes Flaggschiffmodell GLM-4.6 (355B) übertrifft seine Vorgänger vollständig in den Bereichen fortgeschrittenes Programmieren, Verarbeitung langer Texte, logisches Denken und Agentenfähigkeiten. Besonders im Bereich Programmierung steht es auf Augenhöhe mit Claude Sonnet 4 und gilt als Chinas führendes Coding-Modell.",
"glm-4.7-flash.description": "GLM-4.7-Flash ist ein SOTA-Modell auf 30B-Niveau und bietet eine neue Option, die Leistung und Effizienz ausbalanciert. Es verbessert die Programmierfähigkeiten, langfristige Aufgabenplanung und Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen vergleichbarer Größe in aktuellen Benchmarks. Bei der Ausführung komplexer intelligenter Agentenaufgaben zeigt es eine stärkere Einhaltung von Anweisungen bei Werkzeugaufrufen und verbessert weiter die Frontend-Ästhetik sowie die Effizienz bei der langfristigen Aufgabenbewältigung für Artefakte und agentenbasierte Codierung.",
"glm-4.7-flashx.description": "GLM-4.7-Flash ist ein SOTA-Modell auf 30B-Niveau und bietet eine neue Option, die Leistung und Effizienz ausbalanciert. Es verbessert die Programmierfähigkeiten, langfristige Aufgabenplanung und Werkzeugnutzung für agentenbasierte Codierungsszenarien und erzielt führende Leistungen unter Open-Source-Modellen vergleichbarer Größe in aktuellen Benchmarks. Bei der Ausführung komplexer intelligenter Agentenaufgaben zeigt es eine stärkere Einhaltung von Anweisungen bei Werkzeugaufrufen und verbessert weiter die Frontend-Ästhetik sowie die Effizienz bei der langfristigen Aufgabenbewältigung für Artefakte und agentenbasierte Codierung.",
"glm-4.7.description": "GLM-4.7 ist Zhipus neuestes Flaggschiffmodell, optimiert für agentenbasiertes Programmieren mit verbesserten Codierungsfähigkeiten, langfristiger Aufgabenplanung und Werkzeugintegration. Es erzielt Spitzenleistungen unter Open-Source-Modellen in zahlreichen öffentlichen Benchmarks. Die allgemeinen Fähigkeiten wurden durch präzisere, natürlichere Antworten und ein immersiveres Schreibverhalten verbessert. Bei komplexen Agentenaufgaben ist die Befolgung von Anweisungen bei Werkzeugaufrufen robuster, und die visuelle Gestaltung sowie die Effizienz bei der langfristigen Aufgabenbearbeitung in Artifacts und Agentic Coding wurden weiter optimiert.",
"glm-4.description": "GLM-4 ist das ältere Flaggschiffmodell, das im Januar 2024 veröffentlicht wurde und nun durch das stärkere GLM-4-0520 ersetzt wurde.",
"glm-4v-flash.description": "GLM-4V-Flash konzentriert sich auf effizientes Einzelbildverständnis für schnelle Analyseanwendungen wie Echtzeit- oder Batch-Bildverarbeitung.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex Mini: eine kleinere, kostengünstigere Codex-Variante, optimiert für agentenbasiertes Programmieren.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: eine GPT-5.1-Variante, optimiert für agentenbasiertes Programmieren und komplexe Code-/Agenten-Workflows in der Responses API.",
"gpt-5.1.description": "GPT-5.1 ein Spitzenmodell, optimiert für Programmier- und Agentenaufgaben mit konfigurierbarem Denkaufwand und erweitertem Kontext.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat ist die ChatGPT-Variante (chat-latest), um die neuesten Verbesserungen im Dialogverhalten zu erleben.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für schwierige Probleme und mehrstufiges Denken.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat ist die ChatGPT-Variante (chat-latest) mit den neuesten Verbesserungen für Konversationen.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für schwierige Probleme und längere, mehrstufige Denkprozesse.",
"gpt-5.2.description": "GPT-5.2 ist ein Spitzenmodell für Programmier- und agentenbasierte Workflows mit verbessertem Denkvermögen und Langkontextleistung.",
"gpt-5.description": "Das beste Modell für domänenübergreifendes Programmieren und Agentenaufgaben. GPT-5 bietet große Fortschritte in Genauigkeit, Geschwindigkeit, logischem Denken, Kontextverständnis, strukturiertem Denken und Problemlösung.",
"gpt-audio.description": "GPT Audio ist ein allgemeines Chat-Modell mit Audioein- und -ausgabe, unterstützt durch die Chat Completions API.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini ist eine kleinere, schnellere Version von GPT-5.1-Codex, ideal für latenz- und kostenkritische Programmieraufgaben.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex ist eine GPT-5.1-Variante, optimiert für Softwareentwicklung und Programmier-Workflows geeignet für große Refactorings, komplexes Debugging und lange autonome Codierungsaufgaben.",
"openai/gpt-5.1.description": "GPT-5.1 ist das neueste Flaggschiff der GPT-5-Serie mit deutlichen Verbesserungen in logischem Denken, Anweisungsbefolgung und natürlicher Konversation geeignet für vielfältige Aufgaben.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat ist die ChatGPT-Variante zur Nutzung der neuesten Verbesserungen im Dialogverhalten.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: eine intelligentere, präzisere GPT-5.2-Variante (nur über die Responses API), geeignet für komplexe Probleme und längere, mehrstufige Denkprozesse.",
"openai/gpt-5.2.description": "GPT-5.2 ist ein Flaggschiffmodell für Programmierung und agentenbasierte Arbeitsabläufe mit verbesserter Denkfähigkeit und Leistung bei langen Kontexten.",
"openai/gpt-5.description": "GPT-5 ist OpenAIs leistungsstarkes Modell für ein breites Spektrum an Produktions- und Forschungsaufgaben.",
"openai/gpt-oss-120b.description": "Ein hochleistungsfähiges, vielseitiges Sprachmodell mit starker, kontrollierbarer Argumentation.",
"openai/gpt-oss-20b.description": "Ein kompaktes Sprachmodell mit offenen Gewichten, optimiert für geringe Latenz und ressourcenschonende Umgebungen auch lokal und am Edge einsetzbar.",
@ -1223,7 +1224,6 @@
"z-ai/glm-4.5.description": "GLM 4.5 ist Z.AIs Flaggschiffmodell mit hybridem Reasoning, optimiert für Engineering- und Langkontextaufgaben.",
"z-ai/glm-4.6.description": "GLM 4.6 ist Z.AIs Flaggschiffmodell mit erweitertem Kontextumfang und Codierungsfähigkeiten.",
"z-ai/glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu mit verbesserten allgemeinen Fähigkeiten, natürlicheren und einfacheren Antworten sowie einem immersiveren Schreiberlebnis.",
"zai-glm-4.6.description": "Leistungsstark bei Codierungs- und Reasoning-Aufgaben, unterstützt Streaming und Toolaufrufe ideal für agentenbasiertes Codieren und komplexes Denken.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
"zai-org/GLM-4.5.description": "GLM-4.5 ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist tiefgreifend optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
"zai-org/GLM-4.5V.description": "GLM-4.5V ist Zhipu AIs neuestes VLM, basierend auf dem GLM-4.5-Air-Textmodell (106B gesamt, 12B aktiv) mit MoE-Architektur für starke Leistung bei geringeren Kosten. Es folgt dem GLM-4.1V-Thinking-Ansatz und fügt 3D-RoPE zur Verbesserung des 3D-Räumlichkeitsdenkens hinzu. Optimiert durch Pretraining, SFT und RL, verarbeitet es Bilder, Videos und lange Dokumente und belegt Spitzenplätze unter offenen Modellen in 41 öffentlichen multimodalen Benchmarks. Ein Thinking-Modus-Schalter ermöglicht die Balance zwischen Geschwindigkeit und Tiefe.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung inklusive Funktionsaufrufen für individuelle Integrationen.",
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Erstellen Sie Ihre erste geplante Aufgabe, um Ihren Agenten zu automatisieren",
"agentCronJobs.empty.title": "Noch keine geplanten Aufgaben",
"agentCronJobs.enable": "Aktivieren",
"agentCronJobs.form.at": "um",
"agentCronJobs.form.content.placeholder": "Geben Sie die Eingabeaufforderung oder Anweisung für den Agenten ein",
"agentCronJobs.form.every": "Jede",
"agentCronJobs.form.frequency": "Häufigkeit",
"agentCronJobs.form.hours": "Stunde(n)",
"agentCronJobs.form.maxExecutions": "Beenden nach",
"agentCronJobs.form.maxExecutions.placeholder": "Leer lassen für unbegrenzt",
"agentCronJobs.form.name.placeholder": "Aufgabennamen eingeben",
"agentCronJobs.form.time": "Uhrzeit",
"agentCronJobs.form.timeRange.end": "Endzeit",
"agentCronJobs.form.timeRange.start": "Startzeit",
"agentCronJobs.form.times": "Mal",
"agentCronJobs.form.timezone": "Zeitzone",
"agentCronJobs.form.unlimited": "Kontinuierlich ausführen",
"agentCronJobs.form.validation.contentRequired": "Aufgabeninhalt ist erforderlich",
"agentCronJobs.form.validation.invalidTimeRange": "Die Startzeit muss vor der Endzeit liegen",
"agentCronJobs.form.validation.nameRequired": "Aufgabenname ist erforderlich",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Dienstag",
"agentCronJobs.weekday.wednesday": "Mittwoch",
"agentCronJobs.weekdays": "Wochentage",
"agentCronJobs.weekdays.fri": "Fr",
"agentCronJobs.weekdays.mon": "Mo",
"agentCronJobs.weekdays.sat": "Sa",
"agentCronJobs.weekdays.sun": "So",
"agentCronJobs.weekdays.thu": "Do",
"agentCronJobs.weekdays.tue": "Di",
"agentCronJobs.weekdays.wed": "Mi",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Beschreibung",
"agentInfoDescription.basic.name": "Name",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "A 7B-parameter model with higher quality than Phi-3-mini, focused on high-quality, reasoning-intensive data.",
"Phi-3.5-mini-instruct.description": "An updated version of the Phi-3-mini model.",
"Phi-3.5-vision-instrust.description": "An updated version of the Phi-3-vision model.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 is an open-source large language model optimized for agent capabilities, excelling in programming, tool usage, instruction following, and long-term planning. The model supports multilingual software development and complex multi-step workflow execution, achieving a score of 74.0 on SWE-bench Verified and surpassing Claude Sonnet 4.5 in multilingual scenarios.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct is a 7B instruction-tuned LLM in the Qwen2 series. It uses Transformer architecture with SwiGLU, attention QKV bias, and grouped-query attention, and handles large inputs. It performs strongly across language understanding, generation, multilingual tasks, coding, math, and reasoning, outperforming most open models and competing with proprietary ones. It surpasses Qwen1.5-7B-Chat on multiple benchmarks.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct is part of Alibaba Clouds latest LLM series. The 7B model brings notable gains in coding and math, supports 29+ languages, and improves instruction following, structured data understanding, and structured output (especially JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct is the latest Alibaba Cloud code-focused LLM. Built on Qwen2.5 and trained on 5.5T tokens, it significantly improves code generation, reasoning, and repair while retaining math and general strengths, providing a solid base for coding agents.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropics fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic's most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropics most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropics fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropics flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
"codegemma.description": "CodeGemma is a lightweight model for varied programming tasks, enabling fast iteration and integration.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is an experimental V3.2 release bridging to the next architecture. It adds DeepSeek Sparse Attention (DSA) on top of V3.1-Terminus to improve long-context training and inference efficiency, with optimizations for tool use, long-document understanding, and multi-step reasoning. It is ideal for exploring higher reasoning efficiency with large context budgets.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is a 671B-parameter MoE model using MLA and DeepSeekMoE with loss-free load balancing for efficient training and inference. Pretrained on 14.8T high-quality tokens with SFT and RL, it outperforms other open models and approaches leading closed models.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is an innovative model offering deep language understanding and interaction.",
"deepseek-ai/deepseek-r1.description": "A state-of-the-art efficient LLM strong in reasoning, math, and programming.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat models general dialogue and the coder models strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.",
"gemini-2.0-flash-lite.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash delivers next-gen features including exceptional speed, native tool use, multimodal generation, and a 1M-token context window.",
"gemini-2.5-flash-image-preview.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image:image.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is Googles smallest, best-value model, designed for large-scale use.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Googles image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max is the most full-featured version, supporting web search and many built-in plugins. Its fully optimized core capabilities, system roles, and function calling deliver excellent performance across complex application scenarios.",
"generalv3.description": "Spark Pro is a high-performance LLM optimized for professional domains, focusing on math, programming, healthcare, and education, with web search and built-in plugins such as weather and date. It delivers strong performance and efficiency in complex knowledge Q&A, language understanding, and advanced text creation, making it an ideal choice for professional use cases.",
"glm-4-0520.description": "GLM-4-0520 is the latest model version, designed for highly complex and diverse tasks with excellent performance.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 is a general GLM model supporting multi-task text generation and understanding.",
"glm-4-7.description": "GLM-4.7 is the latest flagship model from Zhipu AI. GLM-4.7 enhances coding capabilities, long-term task planning, and tool collaboration for Agentic Coding scenarios, achieving leading performance among open-source models in multiple public benchmarks. General capabilities are improved, with more concise and natural responses, and more immersive writing. In complex agent tasks, instruction following is stronger during tool calls, and the aesthetics of Artifacts and Agentic Coding frontend, as well as long-term task completion efficiency, are further enhanced. • Stronger programming capabilities: Significantly improved multi-language coding and terminal agent performance; GLM-4.7 can now implement \"think first, then act\" mechanisms in programming frameworks like Claude Code, Kilo Code, TRAE, Cline, and Roo Code, with more stable performance on complex tasks. • Frontend aesthetics improvement: GLM-4.7 shows significant progress in frontend generation quality, capable of generating websites, PPTs, and posters with better visual appeal. • Stronger tool calling capabilities: GLM-4.7 enhances tool calling abilities, scoring 67 in BrowseComp web task evaluation; achieving 84.7 in τ²-Bench interactive tool calling evaluation, surpassing Claude Sonnet 4.5 as the open-source SOTA. • Reasoning capability improvement: Significantly enhanced math and reasoning abilities, scoring 42.8% in the HLE (\"Humanity's Last Exam\") benchmark, a 41% improvement over GLM-4.6, surpassing GPT-5.1. • General capability enhancement: GLM-4.7 conversations are more concise, intelligent, and humane; writing and role-playing are more literary and immersive.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat performs strongly across semantics, math, reasoning, code, and knowledge. It also supports web browsing, code execution, custom tool calling, and long-text reasoning, with support for 26 languages including Japanese, Korean, and German.",
"glm-4-air-250414.description": "GLM-4-Air is a high-value option with performance close to GLM-4, fast speed, and lower cost.",
"glm-4-air.description": "GLM-4-Air is a high-value option with performance close to GLM-4, fast speed, and lower cost.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking is the strongest known ~10B VLM, covering SOTA tasks like video understanding, image QA, subject solving, OCR, document and chart reading, GUI agents, frontend coding, and grounding. It even surpasses the 8x larger Qwen2.5-VL-72B on many tasks. With advanced RL, it uses chain-of-thought reasoning to improve accuracy and richness, outperforming traditional non-thinking models in both outcomes and explainability.",
"glm-4.5-air.description": "GLM-4.5 lightweight edition that balances performance and cost, with flexible hybrid thinking modes.",
"glm-4.5-airx.description": "GLM-4.5-Air fast edition with quicker responses for high-scale, high-speed use.",
"glm-4.5-flash.description": "Free GLM-4.5 tier with strong performance in reasoning, coding, and agent tasks.",
"glm-4.5-x.description": "GLM-4.5 fast edition, delivering strong performance with generation speeds up to 100 tokens/sec.",
"glm-4.5.description": "Zhipu flagship model with a switchable thinking mode, delivering open-source SOTA overall and up to 128K context.",
"glm-4.5v.description": "Zhipus next-generation MoE vision reasoning model has 106B total parameters with 12B active, achieving SOTA among similarly sized open-source multimodal models across image, video, document understanding, and GUI tasks.",
"glm-4.6.description": "Zhipu's latest flagship model GLM-4.6 (355B) fully surpasses its predecessors in advanced coding, long-text processing, reasoning, and agent capabilities. It particularly aligns with Claude Sonnet 4 in programming ability, becoming China's top Coding model.",
"glm-4.7-flash.description": "GLM-4.7-Flash, as a 30B-level SOTA model, offers a new choice that balances performance and efficiency. It enhances coding capabilities, long-term task planning, and tool collaboration for Agentic Coding scenarios, achieving leading performance among open-source models of the same size in multiple current benchmark leaderboards. In executing complex intelligent agent tasks, it has stronger instruction compliance during tool calls, and further improves the aesthetics of front-end and the efficiency of long-term task completion for Artifacts and Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, as a 30B-level SOTA model, offers a new choice that balances performance and efficiency. It enhances coding capabilities, long-term task planning, and tool collaboration for Agentic Coding scenarios, achieving leading performance among open-source models of the same size in multiple current benchmark leaderboards. In executing complex intelligent agent tasks, it has stronger instruction compliance during tool calls, and further improves the aesthetics of front-end and the efficiency of long-term task completion for Artifacts and Agentic Coding.",
"glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities, long-term task planning, and tool collaboration. It achieves leading performance among open-source models on multiple public benchmarks. General capabilities are improved with more concise and natural responses and more immersive writing. For complex agent tasks, instruction following during tool calls is stronger, and the frontend aesthetics and long-term task completion efficiency of Artifacts and Agentic Coding are further enhanced.",
"glm-4.description": "GLM-4 is the older flagship released in Jan 2024, now replaced by the stronger GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash focuses on efficient single-image understanding for fast analysis scenarios such as real-time or batch image processing.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: a smaller, lower-cost Codex variant optimized for agentic coding tasks.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: a GPT-5.1 variant optimized for agentic coding tasks, for complex code/agent workflows in the Responses API.",
"gpt-5.1.description": "GPT-5.1 — a flagship model optimized for coding and agent tasks with configurable reasoning effort and longer context.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is the ChatGPT variant (chat-latest) for experiencing the newest conversation improvements.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: a smarter, more precise GPT-5.2 variant (Responses API only), suited for harder problems and longer multi-turn reasoning.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is the ChatGPT variant (chat-latest) for the latest conversation improvements.",
"gpt-5.2-pro.description": "GPT-5.2 pro: a smarter, more precise GPT-5.2 variant (Responses API only), suited for hard problems and longer multi-turn reasoning.",
"gpt-5.2.description": "GPT-5.2 is a flagship model for coding and agentic workflows with stronger reasoning and long-context performance.",
"gpt-5.description": "The best model for cross-domain coding and agent tasks. GPT-5 leaps in accuracy, speed, reasoning, context awareness, structured thinking, and problem solving.",
"gpt-audio.description": "GPT Audio is a general chat model for audio input/output, supported in the Chat Completions API.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini is a smaller, faster version of GPT-5.1-Codex, better for latency- and cost-sensitive coding scenarios.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex is a GPT-5.1 variant optimized for software engineering and coding workflows, suitable for large refactors, complex debugging, and long autonomous coding tasks.",
"openai/gpt-5.1.description": "GPT-5.1 is the latest flagship in the GPT-5 series, with significant improvements over GPT-5 in general reasoning, instruction following, and conversational naturalness, suitable for broad tasks.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat is the ChatGPT variant for experiencing the newest conversation improvements.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: a smarter, more precise GPT-5.2 variant (Responses API only), suited for harder problems and longer multi-turn reasoning.",
"openai/gpt-5.2.description": "GPT-5.2 is a flagship model for coding and agentic workflows with stronger reasoning and long-context performance.",
"openai/gpt-5.description": "GPT-5 is OpenAIs high-performance model for a wide range of production and research tasks.",
"openai/gpt-oss-120b.description": "A highly capable general-purpose LLM with strong, controllable reasoning.",
"openai/gpt-oss-20b.description": "A compact, open-weights language model optimized for low latency and resource-constrained environments, including local and edge deployments.",
@ -1223,7 +1224,6 @@
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AIs flagship model with hybrid reasoning optimized for engineering and long-context tasks.",
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's flagship model with extended context length and coding capability.",
"z-ai/glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, offering improved general capabilities, simpler and more natural replies, and a more immersive writing experience.",
"zai-glm-4.6.description": "Performs well on coding and reasoning tasks, supports streaming and tool calls, and fits agentic coding and complex reasoning.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is a base model for agent applications using a Mixture-of-Experts architecture. It is optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
"zai-org/GLM-4.5.description": "GLM-4.5 is a base model built for agent applications using a Mixture-of-Experts architecture. It is deeply optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AIs latest VLM, built on the GLM-4.5-Air flagship text model (106B total, 12B active) with an MoE architecture for strong performance at lower cost. It follows the GLM-4.1V-Thinking path and adds 3D-RoPE to improve 3D spatial reasoning. Optimized through pretraining, SFT, and RL, it handles images, video, and long documents and ranks top among open models on 41 public multimodal benchmarks. A Thinking mode toggle lets users balance speed and depth.",

View file

@ -29,7 +29,6 @@
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
"modelscope.description": "ModelScope is Alibaba Clouds model-as-a-service platform, offering a wide range of AI models and inference services.",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Este correo electrónico está asociado a una cuenta eliminada y no puede utilizarse para registrarse",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "No se puede actualizar el correo electrónico de esta cuenta",
"codes.EMAIL_NOT_ALLOWED": "Correo electrónico no permitido para el registro",
"codes.EMAIL_NOT_FOUND": "No hay ningún correo electrónico asociado a esta cuenta. Por favor, verifica si tu cuenta tiene un correo electrónico vinculado.",
"codes.EMAIL_NOT_VERIFIED": "Por favor, verifica tu correo electrónico primero",
"codes.FAILED_TO_CREATE_SESSION": "No se pudo crear la sesión",
"codes.FAILED_TO_CREATE_USER": "No se pudo crear el usuario",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Un modelo de 7 mil millones de parámetros con mayor calidad que Phi-3-mini, centrado en datos de alta calidad y razonamiento intensivo.",
"Phi-3.5-mini-instruct.description": "Una versión actualizada del modelo Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Una versión actualizada del modelo Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo de lenguaje de código abierto optimizado para capacidades de agente, sobresaliendo en programación, uso de herramientas, seguimiento de instrucciones y planificación a largo plazo. El modelo admite desarrollo de software multilingüe y ejecución de flujos de trabajo complejos en múltiples pasos, logrando una puntuación de 74.0 en SWE-bench Verified y superando a Claude Sonnet 4.5 en escenarios multilingües.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct es un modelo LLM de 7 mil millones de parámetros ajustado para instrucciones de la serie Qwen2. Utiliza arquitectura Transformer con SwiGLU, sesgo QKV en atención y atención de consulta agrupada, y maneja entradas extensas. Tiene un rendimiento destacado en comprensión del lenguaje, generación, tareas multilingües, programación, matemáticas y razonamiento, superando a la mayoría de los modelos abiertos y compitiendo con modelos propietarios. Supera a Qwen1.5-7B-Chat en múltiples pruebas.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct forma parte de la última serie de LLM de Alibaba Cloud. El modelo de 7 mil millones ofrece mejoras notables en programación y matemáticas, admite más de 29 idiomas y mejora el seguimiento de instrucciones, la comprensión de datos estructurados y la generación de salidas estructuradas (especialmente JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct es el último modelo LLM de Alibaba Cloud enfocado en programación. Basado en Qwen2.5 y entrenado con 5,5 billones de tokens, mejora significativamente la generación, razonamiento y corrección de código, manteniendo fortalezas en matemáticas y tareas generales, proporcionando una base sólida para agentes de programación.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior buque insignia Claude 3 Opus en numerosos benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más avanzado, Claude 3 Opus, en muchos indicadores de inteligencia.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, capaz de ofrecer respuestas casi instantáneas o razonamientos prolongados con control detallado.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos detallados paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agente.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de razonamiento extendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o razonamientos paso a paso con control detallado para usuarios de API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp es una versión experimental de V3.2 que sirve de puente hacia la próxima arquitectura. Añade DeepSeek Sparse Attention (DSA) sobre V3.1-Terminus para mejorar el entrenamiento y la inferencia en contextos largos, con optimizaciones para el uso de herramientas, comprensión de documentos extensos y razonamiento de múltiples pasos. Ideal para explorar mayor eficiencia de razonamiento con presupuestos de contexto amplios.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE con 671 mil millones de parámetros que utiliza MLA y DeepSeekMoE con balanceo de carga sin pérdida para un entrenamiento e inferencia eficientes. Preentrenado con 14.8T de tokens de alta calidad, SFT y RL, supera a otros modelos abiertos y se acerca a los modelos cerrados líderes.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) es un modelo innovador que ofrece una comprensión profunda del lenguaje y una interacción avanzada.",
"deepseek-ai/deepseek-r1.description": "Un modelo LLM de última generación, eficiente y fuerte en razonamiento, matemáticas y programación.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles similares a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados competitivos y razonamiento comparable a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, permite edición y composición de múltiples imágenes. Ofrece mayor coherencia de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado texto-imagen de alta precisión.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, que admite entradas de texto e imagen con una generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
"fal-ai/qwen-image-edit.description": "Modelo profesional de edición de imágenes del equipo Qwen, compatible con ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
"fal-ai/qwen-image.description": "Modelo potente de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita con precisión texto en chino e inglés, y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y estilos visuales diversos.",
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
"gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max es la versión más completa, con búsqueda web y numerosos complementos integrados. Sus capacidades centrales optimizadas, roles de sistema y llamadas a funciones ofrecen un rendimiento excelente en escenarios de aplicación complejos.",
"generalv3.description": "Spark Pro es un modelo LLM de alto rendimiento optimizado para dominios profesionales, centrado en matemáticas, programación, salud y educación, con búsqueda web y complementos integrados como clima y fecha. Ofrece un rendimiento sólido y eficiente en preguntas complejas, comprensión del lenguaje y creación avanzada de texto, siendo ideal para usos profesionales.",
"glm-4-0520.description": "GLM-4-0520 es la versión más reciente del modelo, diseñado para tareas altamente complejas y diversas con un rendimiento excelente.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 es un modelo GLM general que admite generación y comprensión de texto multitarea.",
"glm-4-7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu AI. Mejora las capacidades de programación, planificación de tareas a largo plazo y colaboración con herramientas para escenarios de codificación agente, logrando un rendimiento líder entre los modelos de código abierto en múltiples pruebas públicas. Las capacidades generales se han mejorado, con respuestas más concisas y naturales, y una escritura más inmersiva. En tareas complejas de agentes, el seguimiento de instrucciones es más sólido durante las llamadas a herramientas, y se mejora la estética del frontend de Artifacts y Agentic Coding, así como la eficiencia en la finalización de tareas a largo plazo.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat ofrece un rendimiento sólido en semántica, matemáticas, razonamiento, código y conocimiento. También admite navegación web, ejecución de código, llamadas a herramientas personalizadas y razonamiento de texto largo, con soporte para 26 idiomas, incluidos japonés, coreano y alemán.",
"glm-4-air-250414.description": "GLM-4-Air es una opción de alto valor con rendimiento cercano a GLM-4, velocidad rápida y menor costo.",
"glm-4-air.description": "GLM-4-Air es una opción de alto valor con rendimiento cercano a GLM-4, velocidad rápida y menor costo.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking es el modelo VLM de ~10B más potente conocido, cubriendo tareas SOTA como comprensión de video, preguntas visuales, resolución de materias, OCR, lectura de documentos y gráficos, agentes GUI, codificación frontend y grounding. Supera incluso al Qwen2.5-VL-72B, 8 veces más grande, en muchas tareas. Con aprendizaje por refuerzo avanzado, utiliza razonamiento en cadena para mejorar precisión y riqueza, superando a modelos tradicionales sin razonamiento en resultados y explicabilidad.",
"glm-4.5-air.description": "Edición ligera de GLM-4.5 que equilibra rendimiento y costo, con modos de razonamiento híbrido flexibles.",
"glm-4.5-airx.description": "Edición rápida de GLM-4.5-Air con respuestas más veloces para usos de gran escala y alta velocidad.",
"glm-4.5-flash.description": "Nivel gratuito de GLM-4.5 con rendimiento sólido en razonamiento, codificación y tareas de agentes.",
"glm-4.5-x.description": "Edición rápida de GLM-4.5, con rendimiento sólido y velocidades de generación de hasta 100 tokens/segundo.",
"glm-4.5.description": "Modelo insignia de Zhipu con modo de razonamiento conmutable, ofreciendo SOTA de código abierto y hasta 128K de contexto.",
"glm-4.5v.description": "Modelo de razonamiento visual de próxima generación de Zhipu con arquitectura MoE, 106B parámetros totales y 12B activos, logrando SOTA entre modelos multimodales de código abierto de tamaño similar en imagen, video, comprensión de documentos y tareas GUI.",
"glm-4.6.description": "GLM-4.6 (355B), el último modelo insignia de Zhipu, supera completamente a sus predecesores en codificación avanzada, procesamiento de textos largos, razonamiento y capacidades de agente. Se alinea especialmente con Claude Sonnet 4 en habilidades de programación, convirtiéndose en el modelo de codificación líder en China.",
"glm-4.7-flash.description": "GLM-4.7-Flash, como modelo SOTA de nivel 30B, ofrece una nueva opción que equilibra rendimiento y eficiencia. Mejora las capacidades de programación, planificación de tareas a largo plazo y colaboración con herramientas para escenarios de codificación agente, logrando un rendimiento líder entre modelos de código abierto de su tamaño en múltiples clasificaciones actuales. En la ejecución de tareas complejas de agentes inteligentes, tiene un mayor cumplimiento de instrucciones durante las llamadas a herramientas, y mejora aún más la estética del frontend y la eficiencia en la finalización de tareas a largo plazo para Artifacts y Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, como modelo SOTA de nivel 30B, ofrece una nueva opción que equilibra rendimiento y eficiencia. Mejora las capacidades de programación, planificación de tareas a largo plazo y colaboración con herramientas para escenarios de codificación agente, logrando un rendimiento líder entre modelos de código abierto de su tamaño en múltiples clasificaciones actuales. En la ejecución de tareas complejas de agentes inteligentes, tiene un mayor cumplimiento de instrucciones durante las llamadas a herramientas, y mejora aún más la estética del frontend y la eficiencia en la finalización de tareas a largo plazo para Artifacts y Agentic Coding.",
"glm-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, mejorado para escenarios de Codificación Agéntica con capacidades de programación avanzadas, planificación de tareas a largo plazo y colaboración con herramientas. Logra un rendimiento líder entre los modelos de código abierto en múltiples benchmarks públicos. Sus capacidades generales se han mejorado con respuestas más concisas y naturales, y una escritura más inmersiva. En tareas complejas de agente, sigue mejor las instrucciones durante el uso de herramientas, y se han optimizado la estética del frontend y la eficiencia en la finalización de tareas a largo plazo en Artifacts y Codificación Agéntica.",
"glm-4.description": "GLM-4 es el modelo insignia anterior lanzado en enero de 2024, ahora reemplazado por el más potente GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash se centra en la comprensión eficiente de imágenes individuales para análisis rápidos en escenarios como procesamiento de imágenes en tiempo real o por lotes.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: una variante Codex más pequeña y económica optimizada para tareas de codificación agente.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: una variante de GPT-5.1 optimizada para tareas de codificación agente, para flujos de trabajo complejos de código/agente en la API de Respuestas.",
"gpt-5.1.description": "GPT-5.1 — un modelo insignia optimizado para tareas de codificación y agentes con esfuerzo de razonamiento configurable y contexto extendido.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat es la variante de ChatGPT (chat-latest) para experimentar las mejoras más recientes en conversación.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: una variante más inteligente y precisa de GPT-5.2 (solo API de Respuestas), adecuada para problemas difíciles y razonamiento de múltiples turnos prolongado.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat es la variante de ChatGPT (chat-latest) con las últimas mejoras en conversación.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: una variante más inteligente y precisa de GPT-5.2 (solo API de respuestas), adecuada para problemas difíciles y razonamiento prolongado en múltiples turnos.",
"gpt-5.2.description": "GPT-5.2 es un modelo insignia para flujos de trabajo de codificación y agentes con razonamiento más sólido y rendimiento de contexto largo.",
"gpt-5.description": "El mejor modelo para tareas de codificación y agentes entre dominios. GPT-5 representa un salto en precisión, velocidad, razonamiento, conciencia de contexto, pensamiento estructurado y resolución de problemas.",
"gpt-audio.description": "GPT Audio es un modelo general de chat con entrada/salida de audio, compatible con la API de Chat Completions.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini es una versión más pequeña y rápida de GPT-5.1-Codex, ideal para escenarios de programación sensibles a latencia y costo.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex es una variante de GPT-5.1 optimizada para ingeniería de software y flujos de trabajo de codificación, adecuada para refactorizaciones grandes, depuración compleja y tareas autónomas prolongadas.",
"openai/gpt-5.1.description": "GPT-5.1 es el modelo insignia más reciente de la serie GPT-5, con mejoras significativas sobre GPT-5 en razonamiento general, seguimiento de instrucciones y naturalidad conversacional, adecuado para tareas amplias.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat es la variante de ChatGPT para experimentar las mejoras más recientes en conversación.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: una variante más inteligente y precisa de GPT-5.2 (solo API de respuestas), adecuada para problemas complejos y razonamiento prolongado en múltiples turnos.",
"openai/gpt-5.2.description": "GPT-5.2 es un modelo insignia para programación y flujos de trabajo de agentes, con razonamiento mejorado y rendimiento en contextos largos.",
"openai/gpt-5.description": "GPT-5 es el modelo de alto rendimiento de OpenAI para una amplia gama de tareas de producción e investigación.",
"openai/gpt-oss-120b.description": "Un modelo de lenguaje de propósito general altamente capaz con razonamiento sólido y controlable.",
"openai/gpt-oss-20b.description": "Un modelo de lenguaje compacto con pesos abiertos, optimizado para baja latencia y entornos con recursos limitados, incluyendo implementaciones locales y en el borde.",
@ -1123,6 +1124,18 @@
"qwq-plus.description": "El modelo de razonamiento QwQ entrenado sobre Qwen2.5 utiliza aprendizaje por refuerzo (RL) para mejorar significativamente el razonamiento. Las métricas clave en matemáticas/código (AIME 24/25, LiveCodeBench) y algunos benchmarks generales (IFEval, LiveBench) alcanzan el nivel completo de DeepSeek-R1.",
"qwq.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas difíciles. QwQ-32B es un modelo de razonamiento de tamaño medio que compite con los mejores modelos como DeepSeek-R1 y o1-mini.",
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",
"sonar-deep-research.description": "Deep Research realiza investigaciones expertas exhaustivas y las sintetiza en informes accesibles y accionables.",
"sonar-pro.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.",
"sonar-reasoning-pro.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.",
"sonar-reasoning.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.",
"sonar.description": "Un producto ligero con búsqueda fundamentada, más rápido y económico que Sonar Pro.",
"spark-x.description": "Actualizaciones de X1.5: (1) añade modo de pensamiento dinámico controlado por el campo `thinking`; (2) longitud de contexto ampliada con 64K de entrada y 64K de salida; (3) admite FunctionCall.",
"stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 se inicializa desde el checkpoint v1.2 y se afina durante 595k pasos en \"laion-aesthetics v2 5+\" a una resolución de 512x512, reduciendo el condicionamiento de texto en un 10% para mejorar el muestreo sin clasificador.",
"stable-diffusion-xl-base-1.0.description": "Un modelo de texto a imagen de código abierto de Stability AI con generación creativa de imágenes líder en la industria. Posee una sólida comprensión de instrucciones y admite definiciones inversas de prompts para una generación precisa.",
@ -1158,8 +1171,59 @@
"thudm/glm-4-9b-chat.description": "Versión de código abierto del último modelo preentrenado GLM-4 de Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 es una variante de razonamiento mejorado de GLM-4-32B, diseñada para resolver problemas profundos centrados en matemáticas, lógica y código. Aplica RL ampliado (preferencias específicas de tarea y generales) para mejorar tareas complejas de múltiples pasos. En comparación con GLM-4-32B, Z1 mejora significativamente el razonamiento estructurado y la capacidad en dominios formales.\n\nAdmite pasos de “pensamiento” mediante ingeniería de prompts, mejora la coherencia en salidas largas y está optimizado para flujos de trabajo de agentes con contexto largo (vía YaRN), llamadas a herramientas JSON y muestreo detallado para razonamiento estable. Ideal para casos que requieren derivaciones formales o de múltiples pasos cuidadosas.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B es un modelo de razonamiento profundo de 32B de la serie GLM-4-Z1, optimizado para tareas abiertas complejas que requieren pensamiento prolongado. Basado en glm-4-32b-0414, añade etapas adicionales de RL y alineación multietapa, introduciendo una capacidad de “rumiación” que simula procesamiento cognitivo extendido. Esto incluye razonamiento iterativo, análisis multi-hop y flujos de trabajo aumentados con herramientas como búsqueda, recuperación y síntesis con conciencia de citas.\n\nDestaca en redacción de investigaciones, análisis comparativo y preguntas complejas. Admite llamadas a funciones para primitivas de búsqueda/navegación (`search`, `click`, `open`, `finish`) para flujos de agentes. El comportamiento de rumiación se controla mediante bucles multironda con modelado de recompensas basado en reglas y mecanismos de decisión diferida, evaluado frente a marcos de investigación profunda como el stack de alineación interno de OpenAI. Esta variante prioriza la profundidad sobre la velocidad.",
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera se crea al fusionar DeepSeek-R1 y DeepSeek-V3 (0324), combinando el razonamiento de R1 con la eficiencia de tokens de V3. Está basado en el Transformer DeepSeek-MoE y optimizado para generación general de texto.\n\nFusiona pesos preentrenados para equilibrar razonamiento, eficiencia y seguimiento de instrucciones. Se publica bajo la licencia MIT para uso comercial y de investigación.",
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B) ofrece mayor eficiencia computacional gracias a su arquitectura y estrategia.",
"tts-1-hd.description": "El último modelo de texto a voz optimizado para calidad.",
"tts-1.description": "El último modelo de texto a voz optimizado para velocidad en tiempo real.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) está ajustado para tareas de instrucciones precisas con un sólido rendimiento lingüístico.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en amplias evaluaciones, manteniendo velocidad y costo de nivel medio.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo insignia Claude 3 Opus en muchos indicadores de inteligencia.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"v0-1.0-md.description": "v0-1.0-md es un modelo heredado disponible a través de la API v0.",
"v0-1.5-lg.description": "v0-1.5-lg es adecuado para tareas avanzadas de pensamiento o razonamiento.",
"v0-1.5-md.description": "v0-1.5-md es adecuado para tareas cotidianas y generación de interfaces de usuario.",
"vercel/v0-1.0-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.",
"vercel/v0-1.5-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code es el modelo LLM de ByteDance Volcano Engine optimizado para programación agente, con un sólido rendimiento en benchmarks de programación y agentes, y soporte de contexto de 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, ofreciendo generación rápida y alto valor.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, produciendo detalles más ricos.",
"wanx-v1.description": "Modelo base de texto a imagen. Corresponde a Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Destaca en retratos con textura, velocidad moderada y menor costo. Corresponde a Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Versión completamente mejorada con detalles de imagen más ricos y velocidad ligeramente menor. Corresponde a Tongyi Wanxiang 2.1 Pro.",
"wanx2.1-t2i-turbo.description": "Versión completamente mejorada con generación rápida, alta calidad general y gran valor. Corresponde a Tongyi Wanxiang 2.1 Speed.",
"whisper-1.description": "Un modelo general de reconocimiento de voz que admite ASR multilingüe, traducción de voz y detección de idioma.",
"wizardlm2.description": "WizardLM 2 es un modelo de lenguaje de Microsoft AI que sobresale en diálogos complejos, tareas multilingües, razonamiento y asistentes.",
"wizardlm2:8x22b.description": "WizardLM 2 es un modelo de lenguaje de Microsoft AI que sobresale en diálogos complejos, tareas multilingües, razonamiento y asistentes.",
"x-ai/grok-4-fast-non-reasoning.description": "Grok 4 Fast (Sin Razonamiento) es el modelo multimodal de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M) para escenarios sensibles a la latencia y el costo que no requieren razonamiento en el modelo. Se encuentra junto a la versión con razonamiento de Grok 4 Fast, y el razonamiento puede habilitarse mediante el parámetro reasoning de la API cuando sea necesario. Las indicaciones y respuestas pueden ser utilizadas por xAI u OpenRouter para mejorar modelos futuros.",
"x-ai/grok-4-fast.description": "Grok 4 Fast es el modelo de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M), ideal para casos de uso de alta concurrencia y contexto largo.",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (Sin Razonamiento) es el modelo multimodal de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M) para escenarios sensibles a la latencia y el costo que no requieren razonamiento en el modelo. Se encuentra junto a la versión con razonamiento de Grok 4 Fast, y el razonamiento puede habilitarse mediante el parámetro reasoning de la API cuando sea necesario. Las indicaciones y respuestas pueden ser utilizadas por xAI u OpenRouter para mejorar modelos futuros.",
"x-ai/grok-4.1-fast.description": "Grok 4 Fast es el modelo de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M), ideal para casos de uso de alta concurrencia y contexto largo.",
"x-ai/grok-4.description": "Grok 4 es el modelo insignia de razonamiento de xAI con sólidas capacidades de razonamiento y multimodales.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 es el modelo rápido de código de xAI con salida legible y amigable para ingeniería.",
"xai/grok-2-vision.description": "Grok 2 Vision sobresale en tareas visuales, ofreciendo rendimiento SOTA en razonamiento visual matemático (MathVista) y preguntas sobre documentos (DocVQA). Maneja documentos, gráficos, diagramas, capturas de pantalla y fotos.",
"xai/grok-2.description": "Grok 2 es un modelo de vanguardia con razonamiento de última generación, excelente en chat, codificación y rendimiento de razonamiento, superando a Claude 3.5 Sonnet y GPT-4 Turbo en LMSYS.",
"xai/grok-3-fast.description": "El modelo insignia de xAI sobresale en casos de uso empresariales como extracción de datos, codificación y resumen, con profundo conocimiento en finanzas, salud, derecho y ciencia. La variante rápida se ejecuta en infraestructura más veloz para respuestas mucho más rápidas con mayor costo por token.",
"xai/grok-3-mini-fast.description": "Modelo ligero de xAI que piensa antes de responder, ideal para tareas simples o basadas en lógica sin necesidad de conocimiento especializado. Se dispone de trazas de razonamiento en bruto. La variante rápida se ejecuta en infraestructura más veloz para respuestas mucho más rápidas con mayor costo por token.",
"xai/grok-3-mini.description": "Modelo ligero de xAI que piensa antes de responder, ideal para tareas simples o basadas en lógica sin necesidad de conocimiento especializado. Se dispone de trazas de razonamiento en bruto.",
"xai/grok-3.description": "El modelo insignia de xAI sobresale en casos de uso empresariales como extracción de datos, codificación y resumen, con profundo conocimiento en finanzas, salud, derecho y ciencia.",
"xai/grok-4.description": "El modelo insignia más reciente de xAI con un rendimiento inigualable en lenguaje natural, matemáticas y razonamiento: un todoterreno ideal.",
"yi-large-fc.description": "Basado en yi-large con llamadas a herramientas mejoradas, adecuado para escenarios de agentes y flujos de trabajo.",
"yi-large-preview.description": "Una versión preliminar; se recomienda yi-large (más reciente).",
"yi-large-rag.description": "Un servicio avanzado basado en yi-large, que combina recuperación y generación para respuestas precisas con búsqueda web en tiempo real.",
"yi-large-turbo.description": "Valor y rendimiento excepcionales, ajustado para un sólido equilibrio entre calidad, velocidad y costo.",
"yi-large.description": "Un nuevo modelo de 100 mil millones de parámetros con sólidas capacidades de preguntas y respuestas y generación de texto.",
"yi-lightning-lite.description": "Una versión ligera; se recomienda yi-lightning.",
"yi-lightning.description": "Un modelo de alto rendimiento más reciente con inferencia más rápida y salida de alta calidad.",
"yi-medium-200k.description": "Un modelo de contexto largo de 200K para comprensión y generación profunda de textos extensos.",
"yi-medium.description": "Un modelo de tamaño medio ajustado con capacidad y valor equilibrados, optimizado para el seguimiento de instrucciones.",
"yi-spark.description": "Un modelo compacto y rápido con capacidades mejoradas en matemáticas y programación.",
"yi-vision-v2.description": "Un modelo de visión para tareas complejas con sólida comprensión y análisis de múltiples imágenes.",
"yi-vision.description": "Un modelo de visión para tareas complejas con sólida comprensión y análisis de imágenes.",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air es una variante ligera de GLM 4.5 para escenarios sensibles al costo, manteniendo un sólido razonamiento.",
"z-ai/glm-4.5.description": "GLM 4.5 es el modelo insignia de Z.AI con razonamiento híbrido optimizado para ingeniería y tareas de contexto largo.",
"z-ai/glm-4.6.description": "GLM 4.6 es el modelo insignia de Z.AI, con una longitud de contexto ampliada y capacidades avanzadas de programación.",
"zai-glm-4.6.description": "Destaca en tareas de programación y razonamiento, admite transmisión en tiempo real y llamadas a herramientas, y se adapta a la codificación agente y al razonamiento complejo.",
"z-ai/glm-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, que ofrece capacidades generales mejoradas, respuestas más simples y naturales, y una experiencia de escritura más inmersiva.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air es un modelo base para aplicaciones de agentes que utiliza una arquitectura de Mezcla de Expertos (MoE). Está optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Emplea razonamiento híbrido para abordar tanto escenarios complejos como situaciones cotidianas.",
"zai-org/GLM-4.5.description": "GLM-4.5 es un modelo base diseñado para aplicaciones de agentes con una arquitectura de Mezcla de Expertos (MoE). Está profundamente optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Utiliza razonamiento híbrido para manejar tanto razonamientos complejos como escenarios cotidianos.",
"zai-org/GLM-4.5V.description": "GLM-4.5V es el último modelo VLM de Zhipu AI, basado en el modelo de texto insignia GLM-4.5-Air (106B en total, 12B activos) con una arquitectura MoE que ofrece alto rendimiento a menor costo. Sigue la línea de pensamiento de GLM-4.1V-Thinking y añade 3D-RoPE para mejorar el razonamiento espacial en 3D. Optimizado mediante preentrenamiento, SFT y RL, maneja imágenes, videos y documentos extensos, y se posiciona entre los mejores modelos abiertos en 41 benchmarks multimodales públicos. Un modo de pensamiento configurable permite equilibrar velocidad y profundidad.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Crea tu primera tarea programada para automatizar tu agente",
"agentCronJobs.empty.title": "Aún no hay tareas programadas",
"agentCronJobs.enable": "Activar",
"agentCronJobs.form.at": "a las",
"agentCronJobs.form.content.placeholder": "Introduce la instrucción o el mensaje para el agente",
"agentCronJobs.form.every": "Cada",
"agentCronJobs.form.frequency": "Frecuencia",
"agentCronJobs.form.hours": "hora(s)",
"agentCronJobs.form.maxExecutions": "Detener después de",
"agentCronJobs.form.maxExecutions.placeholder": "Dejar en blanco para ilimitado",
"agentCronJobs.form.name.placeholder": "Introduce el nombre de la tarea",
"agentCronJobs.form.time": "Hora",
"agentCronJobs.form.timeRange.end": "Hora de finalización",
"agentCronJobs.form.timeRange.start": "Hora de inicio",
"agentCronJobs.form.times": "veces",
"agentCronJobs.form.timezone": "Zona horaria",
"agentCronJobs.form.unlimited": "Ejecutar continuamente",
"agentCronJobs.form.validation.contentRequired": "El contenido de la tarea es obligatorio",
"agentCronJobs.form.validation.invalidTimeRange": "La hora de inicio debe ser anterior a la hora de finalización",
"agentCronJobs.form.validation.nameRequired": "El nombre de la tarea es obligatorio",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Martes",
"agentCronJobs.weekday.wednesday": "Miércoles",
"agentCronJobs.weekdays": "Días laborables",
"agentCronJobs.weekdays.fri": "Vie",
"agentCronJobs.weekdays.mon": "Lun",
"agentCronJobs.weekdays.sat": "Sáb",
"agentCronJobs.weekdays.sun": "Dom",
"agentCronJobs.weekdays.thu": "Jue",
"agentCronJobs.weekdays.tue": "Mar",
"agentCronJobs.weekdays.wed": "Mié",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Descripción",
"agentInfoDescription.basic.name": "Nombre",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "این ایمیل به یک حساب حذف‌شده مرتبط است و نمی‌توان از آن برای ثبت‌نام استفاده کرد",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "امکان به‌روزرسانی ایمیل برای این حساب وجود ندارد",
"codes.EMAIL_NOT_ALLOWED": "استفاده از این ایمیل برای ثبت‌نام مجاز نیست",
"codes.EMAIL_NOT_FOUND": "هیچ ایمیلی با این حساب کاربری مرتبط نیست. لطفاً بررسی کنید که آیا حساب شما به یک ایمیل متصل شده است یا خیر.",
"codes.EMAIL_NOT_VERIFIED": "لطفاً ابتدا ایمیل خود را تأیید کنید",
"codes.FAILED_TO_CREATE_SESSION": "ایجاد نشست با خطا مواجه شد",
"codes.FAILED_TO_CREATE_USER": "ایجاد کاربر با خطا مواجه شد",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "مدلی با ۷ میلیارد پارامتر و کیفیت بالاتر نسبت به Phi-3-mini، متمرکز بر داده‌های با کیفیت و نیازمند استدلال.",
"Phi-3.5-mini-instruct.description": "نسخه به‌روزشده مدل Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "نسخه به‌روزشده مدل Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل زبان بزرگ متن‌باز است که برای قابلیت‌های عامل بهینه‌سازی شده و در برنامه‌نویسی، استفاده از ابزارها، پیروی از دستورالعمل‌ها و برنامه‌ریزی بلندمدت عملکرد برجسته‌ای دارد. این مدل از توسعه نرم‌افزار چندزبانه و اجرای جریان‌های کاری پیچیده چندمرحله‌ای پشتیبانی می‌کند و با کسب امتیاز ۷۴.۰ در SWE-bench Verified، در سناریوهای چندزبانه از Claude Sonnet 4.5 پیشی گرفته است.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct یک مدل LLM با ۷ میلیارد پارامتر در سری Qwen2 است که با معماری ترنسفورمر، SwiGLU، بایاس QKV توجه و توجه گروهی طراحی شده و ورودی‌های بزرگ را مدیریت می‌کند. این مدل در درک زبان، تولید، وظایف چندزبانه، کدنویسی، ریاضی و استدلال عملکرد قوی دارد و از بسیاری از مدل‌های باز پیشی می‌گیرد و با مدل‌های اختصاصی رقابت می‌کند. در چندین معیار از Qwen1.5-7B-Chat بهتر عمل می‌کند.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct بخشی از جدیدترین سری LLM علی‌بابا کلود است. این مدل ۷ میلیاردی پیشرفت‌های قابل توجهی در کدنویسی و ریاضی دارد، از بیش از ۲۹ زبان پشتیبانی می‌کند و در پیروی از دستورالعمل‌ها، درک داده‌های ساختاریافته و تولید خروجی ساختاریافته (به‌ویژه JSON) بهبود یافته است.",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct جدیدترین مدل LLM متمرکز بر کد از علی‌بابا کلود است. بر پایه Qwen2.5 ساخته شده و با ۵.۵ تریلیون توکن آموزش دیده، تولید کد، استدلال و اصلاح را به‌طور قابل توجهی بهبود می‌بخشد و در عین حال توانایی‌های ریاضی و عمومی را حفظ می‌کند، و پایه‌ای قوی برای عامل‌های کدنویسی فراهم می‌کند.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های مختلف را بهبود داده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌های مختلف بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی گرفته است.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گسترش‌یافته را با کنترل دقیق ارائه می‌دهد.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی و وظایف عامل قوی است.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر عمیق همراه است.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت بالا و توانایی استدلال پیشرفته ارائه می‌شود.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای انجام وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برجسته عمل می‌کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب عملکردی ممتاز دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام گسترش‌یافته را با کنترل دقیق برای کاربران API ارائه می‌دهد.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp نسخه آزمایشی V3.2 است که به معماری بعدی پل می‌زند. این مدل با افزودن DeepSeek Sparse Attention (DSA) بر پایه V3.1-Terminus، کارایی آموزش و استنتاج در زمینه‌های طولانی را بهبود می‌بخشد و برای استفاده از ابزارها، درک اسناد طولانی و استدلال چندمرحله‌ای بهینه شده است. این مدل برای بررسی بهره‌وری بالاتر در استدلال با بودجه متنی بزرگ ایده‌آل است.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای آموزش و استنتاج کارآمد استفاده می‌کند. این مدل با استفاده از ۱۴.۸ تریلیون توکن با کیفیت بالا و آموزش با SFT و RL، از سایر مدل‌های متن‌باز پیشی گرفته و به مدل‌های بسته پیشرو نزدیک شده است.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
"deepseek-ai/deepseek-r1.description": "یک مدل LLM کارآمد و پیشرفته با توانایی بالا در استدلال، ریاضی و برنامه‌نویسی.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
"deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام می‌کند و در ارزیابی‌های عامل متن‌باز پیشتاز است.",
"deepseek-chat.description": "مدلی متن‌باز و جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت کدنویسی مدل برنامه‌نویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر ارائه می‌شود. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت را افزایش دهد و نتایجی در سطح رقابت با Gemini-3.0-Pro ارائه می‌دهد.",
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
"ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته‌شده توسط تیم Seed شرکت ByteDance، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات بیشتر در موضوع، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته‌شده توسط تیم Seed شرکت ByteDance، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترل‌پذیری بالا از طریق دستورات پشتیبانی می‌کند.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ممکن می‌سازد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
"gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
"gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌محور را ممکن می‌سازد.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌محور را ممکن می‌سازد.",
"gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro پرچم‌دار مدل‌های استدلالی گوگل است که از زمینه‌های طولانی برای انجام وظایف پیچیده پشتیبانی می‌کند.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هوشمندترین مدل طراحی‌شده برای سرعت است که هوش پیشرفته را با قابلیت جست‌وجوی دقیق ترکیب می‌کند.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از چت چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
"gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max کامل‌ترین نسخه است که از جستجوی وب و افزونه‌های داخلی متعددی پشتیبانی می‌کند. قابلیت‌های اصلی آن بهینه‌سازی شده‌اند و نقش‌های سیستمی و فراخوانی توابع عملکردی عالی در سناریوهای پیچیده ارائه می‌دهند.",
"generalv3.description": "Spark Pro یک مدل LLM با عملکرد بالا است که برای حوزه‌های حرفه‌ای بهینه‌سازی شده و بر ریاضی، برنامه‌نویسی، سلامت و آموزش تمرکز دارد. این مدل از جستجوی وب و افزونه‌های داخلی مانند آب‌وهوا و تاریخ پشتیبانی می‌کند و در پرسش‌وپاسخ دانش پیچیده، درک زبان و تولید متن پیشرفته عملکرد قوی و کارآمدی دارد و گزینه‌ای ایده‌آل برای کاربردهای حرفه‌ای است.",
"glm-4-0520.description": "GLM-4-0520 جدیدترین نسخه مدل است که برای وظایف بسیار پیچیده و متنوع با عملکرد عالی طراحی شده است.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 یک مدل عمومی GLM است که از تولید و درک متن چندوظیفه‌ای پشتیبانی می‌کند.",
"glm-4-7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu AI است. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در چندین معیار عمومی عملکردی پیشرو در میان مدل‌های متن‌باز دارد. پاسخ‌ها طبیعی‌تر و نوشتار غنی‌تر شده‌اند. در وظایف پیچیده عامل، پیروی از دستورالعمل‌ها در هنگام استفاده از ابزارها قوی‌تر است و زیبایی‌شناسی رابط و کارایی انجام وظایف بلندمدت نیز بهبود یافته است.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat در حوزه‌های معناشناسی، ریاضی، استدلال، کدنویسی و دانش عملکرد قوی دارد. همچنین از مرور وب، اجرای کد، فراخوانی ابزارهای سفارشی و استدلال متن‌های طولانی پشتیبانی می‌کند و از ۲۶ زبان از جمله ژاپنی، کره‌ای و آلمانی پشتیبانی می‌کند.",
"glm-4-air-250414.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
"glm-4-air.description": "GLM-4-Air گزینه‌ای با ارزش بالا است که عملکردی نزدیک به GLM-4 دارد، سرعت بالایی دارد و هزینه کمتری دارد.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking قوی‌ترین مدل VLM شناخته‌شده با حدود ۱۰ میلیارد پارامتر است که وظایف پیشرفته‌ای مانند درک ویدیو، پرسش‌وپاسخ تصویری، حل مسائل موضوعی، OCR، خواندن اسناد و نمودارها، عامل‌های رابط کاربری، کدنویسی فرانت‌اند و اتصال به واقعیت را پوشش می‌دهد. این مدل حتی از Qwen2.5-VL-72B که ۸ برابر بزرگ‌تر است در بسیاری از وظایف پیشی می‌گیرد. با استفاده از یادگیری تقویتی پیشرفته، از استدلال زنجیره‌ای برای بهبود دقت و غنای پاسخ‌ها بهره می‌برد و در نتایج و قابلیت توضیح‌پذیری از مدل‌های سنتی بدون تفکر بهتر عمل می‌کند.",
"glm-4.5-air.description": "نسخه سبک GLM-4.5 که بین عملکرد و هزینه تعادل برقرار می‌کند و از حالت‌های تفکر ترکیبی انعطاف‌پذیر پشتیبانی می‌کند.",
"glm-4.5-airx.description": "نسخه سریع GLM-4.5-Air با پاسخ‌دهی سریع‌تر برای استفاده در مقیاس بالا و سرعت بالا.",
"glm-4.5-flash.description": "نسخه رایگان GLM-4.5 با عملکرد قوی در استدلال، برنامه‌نویسی و وظایف عامل‌ها.",
"glm-4.5-x.description": "نسخه سریع GLM-4.5 با عملکرد قوی و سرعت تولید تا ۱۰۰ توکن در ثانیه.",
"glm-4.5.description": "مدل پرچم‌دار Zhipu با حالت تفکر قابل تغییر، ارائه‌دهنده بهترین عملکرد متن‌باز و پشتیبانی از زمینه تا ۱۲۸ هزار توکن.",
"glm-4.5v.description": "مدل نسل بعدی بینایی و استدلال Zhipu با معماری MoE، دارای ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال، که در میان مدل‌های چندوجهی متن‌باز هم‌رده خود درک تصویر، ویدیو، اسناد و رابط‌های گرافیکی را به سطح SOTA می‌رساند.",
"glm-4.6.description": "مدل پرچم‌دار جدید Zhipu با نام GLM-4.6 (۳۵۵ میلیارد پارامتر) در زمینه‌های برنامه‌نویسی پیشرفته، پردازش متون بلند، استدلال و توانایی‌های عامل از نسخه‌های قبلی خود فراتر رفته است. این مدل به‌ویژه در توانایی برنامه‌نویسی با Claude Sonnet 4 هم‌تراز است و به عنوان برترین مدل برنامه‌نویسی در چین شناخته می‌شود.",
"glm-4.7-flash.description": "GLM-4.7-Flash به‌عنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینه‌ای جدید برای تعادل بین عملکرد و کارایی ارائه می‌دهد. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در معیارهای فعلی در میان مدل‌های متن‌باز هم‌رده عملکردی پیشرو دارد.",
"glm-4.7-flashx.description": "GLM-4.7-Flash به‌عنوان یک مدل سطح ۳۰ میلیاردی SOTA، گزینه‌ای جدید برای تعادل بین عملکرد و کارایی ارائه می‌دهد. این مدل توانایی‌های برنامه‌نویسی، برنامه‌ریزی بلندمدت وظایف و همکاری با ابزارها را برای سناریوهای Agentic Coding بهبود می‌بخشد و در معیارهای فعلی در میان مدل‌های متن‌باز هم‌رده عملکردی پیشرو دارد.",
"glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که برای سناریوهای برنامه‌نویسی عامل‌محور بهینه‌سازی شده و دارای توانایی‌های برنامه‌نویسی پیشرفته‌تر، برنامه‌ریزی وظایف بلندمدت و همکاری با ابزارها است. این مدل در چندین معیار عمومی عملکردی پیشرو در میان مدل‌های متن‌باز دارد. توانایی‌های عمومی آن با پاسخ‌های طبیعی‌تر و مختصرتر و نوشتاری جذاب‌تر بهبود یافته است. در وظایف پیچیده عامل‌محور، پیروی از دستورالعمل‌ها هنگام استفاده از ابزارها قوی‌تر شده و زیبایی ظاهری رابط کاربری و کارایی انجام وظایف بلندمدت در Artifacts و برنامه‌نویسی عامل‌محور ارتقا یافته است.",
"glm-4.description": "GLM-4 پرچم‌دار قدیمی است که در ژانویه ۲۰۲۴ منتشر شد و اکنون با GLM-4-0520 قوی‌تر جایگزین شده است.",
"glm-4v-flash.description": "GLM-4V-Flash بر درک کارآمد تصویر تکی تمرکز دارد و برای سناریوهای تحلیلی سریع مانند پردازش تصویر بلادرنگ یا دسته‌ای مناسب است.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: نسخه کوچک‌تر و کم‌هزینه‌تر Codex بهینه‌شده برای وظایف برنامه‌نویسی عامل‌محور.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: نسخه‌ای از GPT-5.1 بهینه‌شده برای وظایف برنامه‌نویسی عامل‌محور، مناسب برای گردش‌کارهای پیچیده کد/عامل در API پاسخ‌ها.",
"gpt-5.1.description": "GPT-5.1 — یک مدل پرچم‌دار بهینه‌شده برای برنامه‌نویسی و وظایف عامل با تلاش استدلال قابل تنظیم و زمینه طولانی‌تر.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT (chat-latest) برای تجربه بهبودهای جدید مکالمه‌ای است.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط در API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه آخرین بهبودهای مکالمه‌ای است.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط از طریق API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
"gpt-5.2.description": "GPT-5.2 یک مدل پرچم‌دار برای گردش‌کارهای برنامه‌نویسی و عامل‌محور با استدلال قوی‌تر و عملکرد بهتر در زمینه‌های طولانی است.",
"gpt-5.description": "بهترین مدل برای برنامه‌نویسی میان‌رشته‌ای و وظایف عامل. GPT-5 جهشی در دقت، سرعت، استدلال، آگاهی زمینه‌ای، تفکر ساختاریافته و حل مسئله دارد.",
"gpt-audio.description": "GPT Audio یک مدل چت عمومی برای ورودی/خروجی صوتی است که در API تکمیل چت پشتیبانی می‌شود.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini نسخه‌ای کوچک‌تر و سریع‌تر از GPT-5.1-Codex است که برای سناریوهای کدنویسی حساس به تأخیر و هزینه مناسب‌تر است.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex نسخه‌ای از GPT-5.1 است که برای مهندسی نرم‌افزار و جریان‌های کاری کدنویسی بهینه شده و برای بازسازی‌های بزرگ، اشکال‌زدایی پیچیده و وظایف خودکار طولانی مناسب است.",
"openai/gpt-5.1.description": "GPT-5.1 جدیدترین مدل پرچم‌دار در سری GPT-5 است که بهبودهای قابل‌توجهی در استدلال عمومی، پیروی از دستورالعمل و طبیعی بودن مکالمه نسبت به GPT-5 دارد و برای وظایف گسترده مناسب است.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat نسخه ChatGPT برای تجربه بهبودهای جدید مکالمه‌ای است.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: نسخه‌ای هوشمندتر و دقیق‌تر از GPT-5.2 (فقط از طریق API پاسخ‌ها)، مناسب برای مسائل دشوار و استدلال چندمرحله‌ای طولانی.",
"openai/gpt-5.2.description": "GPT-5.2 یک مدل پرچم‌دار برای برنامه‌نویسی و جریان‌های کاری عامل‌محور با استدلال قوی‌تر و عملکرد بهتر در زمینه‌های طولانی است.",
"openai/gpt-5.description": "GPT-5 مدل قدرتمند OpenAI برای طیف وسیعی از وظایف تولیدی و پژوهشی است.",
"openai/gpt-oss-120b.description": "یک مدل زبانی بزرگ چندمنظوره با قابلیت استدلال قوی و قابل‌کنترل.",
"openai/gpt-oss-20b.description": "مدلی جمع‌وجور با وزن‌های باز که برای تأخیر پایین و محیط‌های با منابع محدود، از جمله اجراهای محلی و لبه‌ای بهینه شده است.",
@ -1139,6 +1140,28 @@
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 از نقطه بازیابی v1.2 آغاز شده و به مدت ۵۹۵ هزار مرحله روی مجموعه «laion-aesthetics v2 5+» با وضوح ۵۱۲x۵۱۲ آموزش دیده است. با کاهش ۱۰٪ در شرط‌بندی متنی، نمونه‌گیری بدون طبقه‌بندی را بهبود می‌بخشد.",
"stable-diffusion-xl-base-1.0.description": "یک مدل متن‌باز تبدیل متن به تصویر از Stability AI با قابلیت‌های خلاقانه پیشرو در صنعت. درک قوی از دستورالعمل‌ها دارد و از تعریف معکوس دستورات برای تولید دقیق پشتیبانی می‌کند.",
"stable-diffusion-xl.description": "stable-diffusion-xl بهبودهای عمده‌ای نسبت به نسخه v1.5 دارد و با بهترین نتایج متن‌باز تبدیل متن به تصویر برابری می‌کند. بهبودها شامل ستون فقرات UNet سه برابر بزرگ‌تر، ماژول پالایش برای کیفیت بهتر تصویر و تکنیک‌های آموزشی کارآمدتر است.",
"step-1-128k.description": "تعادل بین عملکرد و هزینه برای سناریوهای عمومی.",
"step-1-256k.description": "پشتیبانی از زمینه‌های بسیار طولانی، ایده‌آل برای تحلیل اسناد بلند.",
"step-1-32k.description": "پشتیبانی از مکالمات با طول متوسط برای طیف گسترده‌ای از کاربردها.",
"step-1-8k.description": "مدلی کوچک مناسب برای وظایف سبک.",
"step-1-flash.description": "مدلی پرسرعت مناسب برای چت بلادرنگ.",
"step-1.5v-mini.description": "توانایی قوی در درک ویدیو.",
"step-1o-turbo-vision.description": "درک قوی تصویر، عملکرد بهتر از 1o در ریاضی و کدنویسی. کوچکتر از 1o با خروجی سریع‌تر.",
"step-1o-vision-32k.description": "درک قوی تصویر با عملکرد بصری بهتر نسبت به سری Step-1V.",
"step-1v-32k.description": "پشتیبانی از ورودی‌های تصویری برای تعامل چندوجهی غنی‌تر.",
"step-1v-8k.description": "مدل تصویری کوچک برای وظایف پایه تصویر و متن.",
"step-1x-edit.description": "این مدل بر ویرایش تصویر تمرکز دارد و تصاویر را بر اساس ورودی‌های کاربر شامل متن و تصویر تغییر و بهبود می‌دهد. از فرمت‌های ورودی مختلف پشتیبانی می‌کند و ویرایش‌هایی مطابق با هدف کاربر تولید می‌کند.",
"step-1x-medium.description": "این مدل تولید تصویر قوی با ورودی دستورات متنی ارائه می‌دهد. با پشتیبانی بومی از زبان چینی، توصیف‌های چینی را بهتر درک کرده و به ویژگی‌های بصری دقیق‌تری تبدیل می‌کند. تصاویر با کیفیت بالا و وضوح بالا تولید می‌کند و از انتقال سبک نیز پشتیبانی می‌کند.",
"step-2-16k-exp.description": "نسخه آزمایشی Step-2 با ویژگی‌های جدید و به‌روزرسانی‌های پیوسته. برای استفاده در تولید توصیه نمی‌شود.",
"step-2-16k.description": "پشتیبانی از تعاملات با زمینه بزرگ برای گفت‌وگوهای پیچیده.",
"step-2-mini.description": "ساخته‌شده بر پایه معماری توجه MFA نسل بعدی داخلی، با نتایجی مشابه Step-1 اما با هزینه کمتر، توان عملیاتی بالاتر و تأخیر کمتر. وظایف عمومی را با توانایی قوی در کدنویسی انجام می‌دهد.",
"step-2x-large.description": "مدل تصویری نسل جدید StepFun با تمرکز بر تولید تصویر، تولید تصاویر با کیفیت بالا از دستورات متنی. بافت واقعی‌تر و رندر بهتر متون چینی/انگلیسی ارائه می‌دهد.",
"step-3.description": "این مدل دارای درک بصری قوی و استدلال پیچیده است و درک دانش میان‌رشته‌ای، تحلیل ریاضی-تصویری و طیف گسترده‌ای از وظایف تحلیل بصری روزمره را با دقت انجام می‌دهد.",
"step-r1-v-mini.description": "مدل استدلال با درک قوی تصویر که می‌تواند تصاویر و متون را پردازش کرده و پس از استدلال عمیق، متن تولید کند. در استدلال بصری، ریاضی، کدنویسی و استدلال متنی عملکردی در سطح بالا دارد و از پنجره زمینه ۱۰۰ هزار توکن پشتیبانی می‌کند.",
"stepfun-ai/step3.description": "Step3 یک مدل استدلال چندوجهی پیشرفته از StepFun است که بر پایه معماری MoE با ۳۲۱ میلیارد پارامتر کل و ۳۸ میلیارد فعال ساخته شده است. طراحی انتها به انتها هزینه رمزگشایی را کاهش داده و استدلال زبان-تصویر سطح بالا را ارائه می‌دهد. با طراحی MFA و AFD، در شتاب‌دهنده‌های پرچم‌دار و سطح پایین کارآمد باقی می‌ماند. پیش‌آموزش با بیش از ۲۰ تریلیون توکن متنی و ۴ تریلیون توکن تصویر-متن در زبان‌های مختلف انجام شده و در معیارهای ریاضی، کدنویسی و چندوجهی عملکردی پیشرو دارد.",
"taichu_llm.description": "آموزش‌دیده بر داده‌های باکیفیت عظیم، با درک متنی قوی‌تر، تولید محتوا و پرسش‌وپاسخ مکالمه‌ای.",
"taichu_o1.description": "taichu_o1 یک مدل استدلال نسل جدید است که با تعامل چندوجهی و یادگیری تقویتی، زنجیره تفکر انسانی‌مانند را ایجاد می‌کند، از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی کرده و مسیرهای استدلال را در عین حفظ دقت بالا نمایش می‌دهد. مناسب برای تحلیل استراتژی و تفکر عمیق.",
"taichu_vl.description": "ترکیبی از درک تصویر، انتقال دانش و استنتاج منطقی، با عملکرد عالی در پرسش‌وپاسخ تصویر-متن.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی هم‌تراز با مدل‌های بزرگ‌تر ارائه می‌دهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عامل‌ها در آزمون‌های BFCL-v3 و τ-Bench پشتیبانی می‌کند. فرمت‌های GQA و چندکوانتیزه‌سازی، استنتاج کارآمد را ممکن می‌سازند.",
"tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان به‌علاوه ۵ زبان اقلیت چینی پشتیبانی می‌کند. در رقابت WMT25، در ۳۰ جفت‌زبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیش‌آموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده می‌کند و با عملکردی پیشرو در اندازه خود، به‌راحتی قابل استقرار است.",
"text-embedding-3-large.description": "قوی‌ترین مدل تعبیه‌سازی برای وظایف انگلیسی و غیرانگلیسی.",

View file

@ -29,7 +29,6 @@
"internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
"lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
"mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
"modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "اولین وظیفه زمان‌بندی‌شده خود را برای خودکارسازی عامل ایجاد کنید",
"agentCronJobs.empty.title": "هنوز وظیفه زمان‌بندی‌شده‌ای وجود ندارد",
"agentCronJobs.enable": "فعال کردن",
"agentCronJobs.form.at": "در",
"agentCronJobs.form.content.placeholder": "دستور یا راهنمایی برای عامل وارد کنید",
"agentCronJobs.form.every": "هر",
"agentCronJobs.form.frequency": "تناوب",
"agentCronJobs.form.hours": "ساعت",
"agentCronJobs.form.maxExecutions": "توقف پس از",
"agentCronJobs.form.maxExecutions.placeholder": "برای نامحدود خالی بگذارید",
"agentCronJobs.form.name.placeholder": "نام وظیفه را وارد کنید",
"agentCronJobs.form.time": "زمان",
"agentCronJobs.form.timeRange.end": "زمان پایان",
"agentCronJobs.form.timeRange.start": "زمان شروع",
"agentCronJobs.form.times": "بار",
"agentCronJobs.form.timezone": "منطقه زمانی",
"agentCronJobs.form.unlimited": "اجرا به‌صورت مداوم",
"agentCronJobs.form.validation.contentRequired": "محتوای وظیفه الزامی است",
"agentCronJobs.form.validation.invalidTimeRange": "زمان شروع باید قبل از زمان پایان باشد",
"agentCronJobs.form.validation.nameRequired": "نام وظیفه الزامی است",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "سه‌شنبه",
"agentCronJobs.weekday.wednesday": "چهارشنبه",
"agentCronJobs.weekdays": "روزهای هفته",
"agentCronJobs.weekdays.fri": "جمعه",
"agentCronJobs.weekdays.mon": "دوشنبه",
"agentCronJobs.weekdays.sat": "شنبه",
"agentCronJobs.weekdays.sun": "یکشنبه",
"agentCronJobs.weekdays.thu": "پنج‌شنبه",
"agentCronJobs.weekdays.tue": "سه‌شنبه",
"agentCronJobs.weekdays.wed": "چهارشنبه",
"agentInfoDescription.basic.avatar": "آواتار",
"agentInfoDescription.basic.description": "توضیحات",
"agentInfoDescription.basic.name": "نام",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Cet e-mail est associé à un compte supprimé et ne peut pas être utilisé pour l'inscription",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "L'adresse e-mail ne peut pas être mise à jour pour ce compte",
"codes.EMAIL_NOT_ALLOWED": "Adresse e-mail non autorisée pour l'inscription",
"codes.EMAIL_NOT_FOUND": "Aucune adresse e-mail nest associée à ce compte. Veuillez vérifier si une adresse e-mail y est liée.",
"codes.EMAIL_NOT_VERIFIED": "Veuillez d'abord vérifier votre adresse e-mail",
"codes.FAILED_TO_CREATE_SESSION": "Échec de la création de la session",
"codes.FAILED_TO_CREATE_USER": "Échec de la création de l'utilisateur",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Un modèle de 7 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement poussé.",
"Phi-3.5-mini-instruct.description": "Une version mise à jour du modèle Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Une version mise à jour du modèle Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle de langage open source de grande taille, optimisé pour les capacités dagent. Il excelle en programmation, utilisation doutils, suivi dinstructions et planification à long terme. Le modèle prend en charge le développement logiciel multilingue et lexécution de flux de travail complexes en plusieurs étapes, atteignant un score de 74,0 sur SWE-bench Verified et surpassant Claude Sonnet 4.5 dans des scénarios multilingues.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct est un LLM de 7 milliards de paramètres ajusté pour les instructions, de la série Qwen2. Il utilise une architecture Transformer avec SwiGLU, un biais QKV pour lattention et une attention à requêtes groupées, capable de gérer de grandes entrées. Il excelle en compréhension linguistique, génération, tâches multilingues, codage, mathématiques et raisonnement, surpassant la plupart des modèles open source et rivalisant avec les modèles propriétaires. Il dépasse Qwen1.5-7B-Chat sur plusieurs benchmarks.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct fait partie de la dernière série de LLM dAlibaba Cloud. Ce modèle de 7 milliards apporte des améliorations notables en codage et mathématiques, prend en charge plus de 29 langues et améliore le suivi des instructions, la compréhension des données structurées et la génération de sorties structurées (notamment en JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct est le dernier LLM dAlibaba Cloud axé sur le code. Basé sur Qwen2.5 et entraîné sur 5,5T de jetons, il améliore considérablement la génération de code, le raisonnement et la correction, tout en conservant ses forces en mathématiques et en intelligence générale, constituant une base solide pour les agents de codage.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic, offrant des améliorations globales et surpassant l'ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et dépasse le précédent modèle le plus avancé, Claude 3 Opus, sur de nombreux benchmarks dintelligence.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent d'Anthropic et le premier modèle hybride de raisonnement sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par lutilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches dagent.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent d'Anthropic, combinant une vitesse fulgurante et une capacité de réflexion étendue.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant une vitesse fulgurante et un raisonnement approfondi.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus avancé d'Anthropic pour les tâches complexes, excelling en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant d'Anthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, se distinguant par ses performances, son intelligence, sa fluidité et sa compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent d'Anthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas avec un contrôle précis pour les utilisateurs d'API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent d'Anthropic à ce jour.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, linterprétation de code, la recherche web, lappel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est lun des meilleurs modèles de code sous 10 milliards de paramètres.",
"codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp est une version expérimentale de V3.2 servant de pont vers la prochaine architecture. Il ajoute DeepSeek Sparse Attention (DSA) au-dessus de V3.1-Terminus pour améliorer lefficacité de lentraînement et de linférence sur les contextes longs, avec des optimisations pour lutilisation doutils, la compréhension de documents longs et le raisonnement multi-étapes. Idéal pour explorer une efficacité de raisonnement accrue avec de grands budgets de contexte.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour un entraînement et une inférence efficaces. Préentraîné sur 14,8T de tokens de haute qualité avec SFT et RL, il surpasse les autres modèles open source et rivalise avec les modèles fermés de pointe.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.",
"deepseek-ai/deepseek-r1.description": "Un modèle LLM efficace de pointe, performant en raisonnement, mathématiques et programmation.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
"deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Il atteint des performances comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans l'utilisation d'outils, se classant en tête des évaluations open source pour agents.",
"deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et les solides compétences en programmation du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à léchelle du projet et un remplissage de fragments.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à léchelle de 671B et des réponses plus rapides.",
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant lapprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement avancé qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats compétitifs et un raisonnement comparable à Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Le mode de raisonnement DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et linférence à faible coût.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour lévaluation et les tests.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page d'affiches et une conception de logos avec un rendu texte-image de haute précision.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération dimages développé par ByteDance Seed, prenant en charge les entrées texte et image pour une génération dimages de haute qualité et hautement contrôlable. Il génère des images à partir dinvites textuelles.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur lédition dimages, prenant en charge les entrées texte et image.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération dimages avec une préférence esthétique pour des images plus réalistes et naturelles.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération dimages.",
"fal-ai/imagen4/preview.description": "Modèle de génération dimages de haute qualité développé par Google.",
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages via la conversation.",
"fal-ai/qwen-image-edit.description": "Un modèle d'édition d'image professionnel de l'équipe Qwen, prenant en charge les modifications sémantiques et d'apparence, l'édition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
"fal-ai/qwen-image.description": "Un puissant modèle de génération d'images de l'équipe Qwen, avec un excellent rendu du texte chinois et une grande diversité de styles visuels.",
"fal-ai/qwen-image-edit.description": "Un modèle professionnel dédition dimages de léquipe Qwen, prenant en charge les modifications sémantiques et visuelles, lédition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation dobjets.",
"fal-ai/qwen-image.description": "Un puissant modèle de génération dimages de léquipe Qwen, offrant un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité dimage proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
"flux-kontext-max.description": "Génération et édition dimages contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour lefficacité des coûts et la faible latence.",
"gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour lefficacité des coûts et la faible latence.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, lutilisation native doutils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
"gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et l'édition d'images en conversation.",
"gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro est le modèle de raisonnement phare de Google, avec un support de long contexte pour les tâches complexes.",
"gemini-3-flash-preview.description": "Gemini 3 Flash est le modèle le plus intelligent conçu pour la vitesse, alliant intelligence de pointe et ancrage de recherche performant.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google, prenant également en charge le chat multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google, prenant également en charge le chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
"gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max est la version la plus complète, prenant en charge la recherche web et de nombreux plugins intégrés. Ses capacités de base entièrement optimisées, ses rôles système et ses appels de fonctions offrent d'excellentes performances dans des scénarios d'application complexes.",
"generalv3.description": "Spark Pro est un modèle LLM haute performance optimisé pour les domaines professionnels, axé sur les mathématiques, la programmation, la santé et l'éducation, avec recherche web et plugins intégrés comme la météo et la date. Il offre de solides performances et une grande efficacité dans les questions-réponses complexes, la compréhension du langage et la création de texte avancée, en faisant un choix idéal pour les cas dusage professionnels.",
"glm-4-0520.description": "GLM-4-0520 est la dernière version du modèle, conçu pour des tâches très complexes et variées avec d'excellentes performances.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 est un modèle GLM généraliste prenant en charge la génération et la compréhension de texte multitâche.",
"glm-4-7.description": "GLM-4.7 est le modèle phare le plus récent de Zhipu AI. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées, avec des réponses plus concises et naturelles, et une écriture plus immersive. Dans les tâches complexes dagent, le suivi des instructions est renforcé lors des appels doutils, et lesthétique des interfaces Artifacts et Agentic Coding, ainsi que lefficacité dexécution des tâches à long terme, sont améliorées.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat excelle en sémantique, mathématiques, raisonnement, code et connaissances. Il prend également en charge la navigation web, l'exécution de code, l'appel d'outils personnalisés et le raisonnement sur de longs textes, avec prise en charge de 26 langues dont le japonais, le coréen et l'allemand.",
"glm-4-air-250414.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
"glm-4-air.description": "GLM-4-Air est une option à forte valeur ajoutée avec des performances proches de GLM-4, une vitesse rapide et un coût réduit.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking est le plus puissant VLM connu (~10B), couvrant des tâches SOTA telles que la compréhension vidéo, les questions-réponses sur images, la résolution de problèmes, l'OCR, la lecture de documents et de graphiques, les agents GUI, le codage frontend et lancrage. Il surpasse même le Qwen2.5-VL-72B, 8 fois plus grand, sur de nombreuses tâches. Grâce à lapprentissage par renforcement avancé, il utilise un raisonnement en chaîne pour améliorer la précision et la richesse, surpassant les modèles traditionnels non pensants en résultats et en explicabilité.",
"glm-4.5-air.description": "Édition légère de GLM-4.5 qui équilibre performance et coût, avec des modes de pensée hybrides flexibles.",
"glm-4.5-airx.description": "Édition rapide de GLM-4.5-Air avec des réponses plus rapides pour une utilisation à grande échelle et à haute vitesse.",
"glm-4.5-flash.description": "Niveau gratuit de GLM-4.5 avec de solides performances en raisonnement, codage et tâches dagent.",
"glm-4.5-x.description": "Édition rapide de GLM-4.5, offrant de solides performances avec des vitesses de génération allant jusqu'à 100 tokens/sec.",
"glm-4.5.description": "Modèle phare de Zhipu avec un mode de pensée commutable, offrant un SOTA open-source global et jusqu'à 128K de contexte.",
"glm-4.5v.description": "Modèle de raisonnement visuel de nouvelle génération de Zhipu basé sur MoE, avec 106B de paramètres totaux et 12B actifs, atteignant un SOTA parmi les modèles multimodaux open-source de taille similaire sur les tâches dimage, vidéo, documents et GUI.",
"glm-4.6.description": "GLM-4.6 (355B), le dernier modèle phare de Zhipu, surpasse entièrement ses prédécesseurs en codage avancé, traitement de longs textes, raisonnement et capacités dagent. Il rivalise notamment avec Claude Sonnet 4 en programmation, devenant ainsi le meilleur modèle de codage en Chine.",
"glm-4.7-flash.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de lexécution de tâches complexes dagent intelligent, il suit mieux les instructions lors des appels doutils et améliore lesthétique du front-end ainsi que lefficacité dexécution des tâches à long terme pour Artifacts et Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, en tant que modèle SOTA de niveau 30B, offre un nouvel équilibre entre performance et efficacité. Il améliore les capacités de codage, la planification de tâches à long terme et la collaboration avec des outils pour les scénarios de codage agentique, atteignant des performances de pointe parmi les modèles open source de même taille sur plusieurs classements de référence actuels. Lors de lexécution de tâches complexes dagent intelligent, il suit mieux les instructions lors des appels doutils et améliore lesthétique du front-end ainsi que lefficacité dexécution des tâches à long terme pour Artifacts et Agentic Coding.",
"glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, optimisé pour les scénarios de codage agentique avec des capacités de programmation améliorées, une planification de tâches à long terme et une meilleure collaboration avec les outils. Il atteint des performances de pointe parmi les modèles open source sur de nombreux benchmarks publics. Ses capacités générales sont renforcées avec des réponses plus concises et naturelles, ainsi quune écriture plus immersive. Pour les tâches complexes dagent, le suivi des instructions lors des appels doutils est plus robuste, et lesthétique du frontend ainsi que lefficacité dexécution à long terme dans les environnements Artifacts et Agentic Coding sont également améliorées.",
"glm-4.description": "GLM-4 est lancien modèle phare sorti en janvier 2024, désormais remplacé par le plus performant GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash se concentre sur la compréhension efficace dune seule image pour des scénarios danalyse rapide comme le traitement dimages en temps réel ou par lot.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini : une variante Codex plus petite et économique, optimisée pour les tâches de codage agentique.",
"gpt-5.1-codex.description": "GPT-5.1 Codex : une variante de GPT-5.1 optimisée pour les flux de travail complexes de codage/agents dans lAPI Responses.",
"gpt-5.1.description": "GPT-5.1 — un modèle phare optimisé pour le codage et les tâches dagents, avec un effort de raisonnement configurable et un contexte étendu.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) pour découvrir les dernières améliorations conversationnelles.",
"gpt-5.2-pro.description": "GPT-5.2 Pro : une variante plus intelligente et plus précise de GPT-5.2 (uniquement via lAPI Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat est la variante ChatGPT (chat-latest) intégrant les dernières améliorations conversationnelles.",
"gpt-5.2-pro.description": "GPT-5.2 Pro : une variante GPT-5.2 plus intelligente et plus précise (uniquement via lAPI Responses), adaptée aux problèmes complexes et au raisonnement multi-tours prolongé.",
"gpt-5.2.description": "GPT-5.2 est un modèle phare pour les flux de travail de codage et dagents, avec un raisonnement renforcé et des performances sur de longs contextes.",
"gpt-5.description": "Le meilleur modèle pour le codage inter-domaines et les tâches dagents. GPT-5 marque un bond en précision, vitesse, raisonnement, compréhension du contexte, pensée structurée et résolution de problèmes.",
"gpt-audio.description": "GPT Audio est un modèle de chat général prenant en charge les entrées/sorties audio, disponible via lAPI Chat Completions.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de crédits liés aux jetons des modèles.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Créez votre première tâche planifiée pour automatiser votre agent",
"agentCronJobs.empty.title": "Aucune tâche planifiée pour le moment",
"agentCronJobs.enable": "Activer",
"agentCronJobs.form.at": "à",
"agentCronJobs.form.content.placeholder": "Saisissez l'invite ou l'instruction pour l'agent",
"agentCronJobs.form.every": "Chaque",
"agentCronJobs.form.frequency": "Fréquence",
"agentCronJobs.form.hours": "heure(s)",
"agentCronJobs.form.maxExecutions": "Arrêter après",
"agentCronJobs.form.maxExecutions.placeholder": "Laisser vide pour illimité",
"agentCronJobs.form.name.placeholder": "Saisissez le nom de la tâche",
"agentCronJobs.form.time": "Heure",
"agentCronJobs.form.timeRange.end": "Heure de fin",
"agentCronJobs.form.timeRange.start": "Heure de début",
"agentCronJobs.form.times": "fois",
"agentCronJobs.form.timezone": "Fuseau horaire",
"agentCronJobs.form.unlimited": "Exécuter en continu",
"agentCronJobs.form.validation.contentRequired": "Le contenu de la tâche est requis",
"agentCronJobs.form.validation.invalidTimeRange": "L'heure de début doit être antérieure à l'heure de fin",
"agentCronJobs.form.validation.nameRequired": "Le nom de la tâche est requis",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Mardi",
"agentCronJobs.weekday.wednesday": "Mercredi",
"agentCronJobs.weekdays": "Jours de la semaine",
"agentCronJobs.weekdays.fri": "Ven",
"agentCronJobs.weekdays.mon": "Lun",
"agentCronJobs.weekdays.sat": "Sam",
"agentCronJobs.weekdays.sun": "Dim",
"agentCronJobs.weekdays.thu": "Jeu",
"agentCronJobs.weekdays.tue": "Mar",
"agentCronJobs.weekdays.wed": "Mer",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Description",
"agentInfoDescription.basic.name": "Nom",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Questa email è associata a un account eliminato e non può essere utilizzata per la registrazione",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "L'email non può essere aggiornata per questo account",
"codes.EMAIL_NOT_ALLOWED": "Email non consentita per la registrazione",
"codes.EMAIL_NOT_FOUND": "Nessuna email associata a questo account. Verifica se al tuo account è collegata un'email.",
"codes.EMAIL_NOT_VERIFIED": "Verifica prima la tua email",
"codes.FAILED_TO_CREATE_SESSION": "Creazione della sessione non riuscita",
"codes.FAILED_TO_CREATE_USER": "Creazione dell'utente non riuscita",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Un modello da 7B parametri con qualità superiore rispetto a Phi-3-mini, focalizzato su dati di alta qualità e ad alta intensità di ragionamento.",
"Phi-3.5-mini-instruct.description": "Una versione aggiornata del modello Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Una versione aggiornata del modello Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 è un modello linguistico di grandi dimensioni open-source ottimizzato per capacità agentiche, eccellente nella programmazione, nell'uso di strumenti, nel seguire istruzioni e nella pianificazione a lungo termine. Supporta lo sviluppo software multilingue e l'esecuzione di flussi di lavoro complessi a più fasi, ottenendo un punteggio di 74,0 su SWE-bench Verified e superando Claude Sonnet 4.5 in scenari multilingue.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct è un LLM da 7B parametri ottimizzato per istruzioni nella serie Qwen2. Utilizza un'architettura Transformer con SwiGLU, bias QKV per l'attenzione e grouped-query attention, ed è in grado di gestire input di grandi dimensioni. Eccelle in comprensione linguistica, generazione, compiti multilingue, programmazione, matematica e ragionamento, superando la maggior parte dei modelli open-source e competendo con quelli proprietari. Supera Qwen1.5-7B-Chat in diversi benchmark.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct fa parte della nuova serie LLM di Alibaba Cloud. Il modello da 7B offre miglioramenti significativi in programmazione e matematica, supporta oltre 29 lingue e migliora il rispetto delle istruzioni, la comprensione dei dati strutturati e la generazione di output strutturati (in particolare JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct è l'ultimo LLM di Alibaba Cloud focalizzato sul codice. Basato su Qwen2.5 e addestrato su 5,5T token, migliora notevolmente la generazione, il ragionamento e la correzione del codice, mantenendo al contempo le capacità matematiche e generali, fornendo una solida base per agenti di programmazione.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in diverse competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in numerosi benchmark.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in numerosi benchmark di intelligenza.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni estese con un controllo preciso.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet è particolarmente forte nella programmazione, data science, visione e compiti agentici.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con una velocità fulminea e capacità di pensiero prolungato.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è lultimo e più avanzato modello di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente mai realizzato da Anthropic, in grado di offrire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con un controllo preciso per gli utenti API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.",
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp è una versione sperimentale della serie V3.2 che fa da ponte verso la prossima architettura. Aggiunge DeepSeek Sparse Attention (DSA) sopra V3.1-Terminus per migliorare l'efficienza nell'addestramento e inferenza su contesti lunghi, con ottimizzazioni per l'uso di strumenti, comprensione di documenti lunghi e ragionamento multi-step. Ideale per esplorare una maggiore efficienza di ragionamento con budget di contesto estesi.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE con 671 miliardi di parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un addestramento e inferenza efficienti. Preaddestrato su 14,8 trilioni di token di alta qualità con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) è un modello innovativo che offre una profonda comprensione linguistica e interazione.",
"deepseek-ai/deepseek-r1.description": "Un modello LLM all'avanguardia, efficiente e potente nel ragionamento, matematica e programmazione.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza delloutput per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nelluso degli strumenti, guidando le valutazioni open-source degli agenti.",
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello conversazionale e la forte capacità di codifica del modello per programmatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore accuratezza, con risultati di alto livello e capacità di ragionamento comparabili a Gemini-3.0-Pro.",
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di pensieri prima della risposta finale per migliorare l'accuratezza.",
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è unanteprima del modello di pensiero per valutazioni e test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta lediting e la composizione multi-immagine. Offre coerenza avanzata del soggetto, esecuzione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout per poster e design di loghi con rendering testo-immagine ad alta precisione.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input testuali e visivi per una generazione di immagini di alta qualità e altamente controllabile a partire da prompt.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sullediting di immagini, che supporta input di testo e immagini.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e lediting di immagini tramite conversazione.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e visive, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro ancora.",
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen, con eccellente rendering del testo cinese e una vasta gamma di stili visivi.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con eccellente resa del testo cinese e stili visivi diversificati.",
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità dimmagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali allavanguardia, combinando testo e immagini per risultati precisi e coerenti.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
"gemini-2.0-flash-lite.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
"gemini-2.5-flash-image-preview.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e lediting di immagini in conversazione.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e lediting di immagini in conversazione.",
"gemini-2.5-flash-image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
"gemini-2.5-flash-image:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview è il modello più piccolo e conveniente di Google, progettato per luso su larga scala.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
"gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max è la versione più completa, con supporto alla ricerca web e numerosi plugin integrati. Le sue capacità ottimizzate, i ruoli di sistema e le chiamate di funzione offrono prestazioni eccellenti in scenari applicativi complessi.",
"generalv3.description": "Spark Pro è un LLM ad alte prestazioni ottimizzato per ambiti professionali, con focus su matematica, programmazione, sanità ed educazione. Supporta la ricerca web e plugin integrati come meteo e data. Offre prestazioni elevate e grande efficienza in Q&A complessi, comprensione linguistica e creazione avanzata di testi, rendendolo ideale per usi professionali.",
"glm-4-0520.description": "GLM-4-0520 è l'ultima versione del modello, progettata per compiti altamente complessi e diversificati con prestazioni eccellenti.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 è un modello GLM generale che supporta generazione e comprensione di testo multi-task.",
"glm-4-7.description": "GLM-4.7 è il modello di punta più recente di Zhipu AI. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source in numerosi benchmark pubblici. Le capacità generali sono migliorate, con risposte più concise e naturali e una scrittura più immersiva. Nei compiti agentici complessi, il rispetto delle istruzioni durante le chiamate agli strumenti è più forte, e l'estetica del frontend di Artifacts e Agentic Coding, così come l'efficienza nel completamento di compiti a lungo termine, sono ulteriormente migliorate. • Capacità di programmazione potenziate: miglioramenti significativi nella codifica multilingue e nelle prestazioni degli agenti terminali; GLM-4.7 può ora implementare meccanismi \"pensare prima, agire poi\" in framework di programmazione come Claude Code, Kilo Code, TRAE, Cline e Roo Code, con prestazioni più stabili nei compiti complessi. • Miglioramento dell'estetica del frontend: GLM-4.7 mostra progressi significativi nella qualità della generazione frontend, in grado di creare siti web, presentazioni e poster con maggiore impatto visivo. • Capacità di chiamata strumenti potenziate: GLM-4.7 migliora le capacità di chiamata strumenti, ottenendo 67 nel test BrowseComp e 84,7 nel benchmark interattivo τ²-Bench, superando Claude Sonnet 4.5 come SOTA open-source. • Miglioramento del ragionamento: capacità matematiche e di ragionamento notevolmente migliorate, con un punteggio del 42,8% nel benchmark HLE (\"Humanity's Last Exam\"), un miglioramento del 41% rispetto a GLM-4.6, superando GPT-5.1. • Potenziamento generale: le conversazioni con GLM-4.7 sono più concise, intelligenti e umane; la scrittura e il role-playing sono più letterari e immersivi.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat offre prestazioni elevate in semantica, matematica, ragionamento, codice e conoscenza. Supporta anche navigazione web, esecuzione di codice, chiamate a strumenti personalizzati e ragionamento su testi lunghi, con supporto per 26 lingue tra cui giapponese, coreano e tedesco.",
"glm-4-air-250414.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
"glm-4-air.description": "GLM-4-Air è un'opzione ad alto valore con prestazioni vicine a GLM-4, velocità elevata e costi ridotti.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking è il più potente VLM da ~10B noto, coprendo compiti SOTA come comprensione video, QA su immagini, risoluzione di problemi, OCR, lettura di documenti e grafici, agenti GUI, codifica frontend e grounding. Supera persino Qwen2.5-VL-72B, 8 volte più grande, in molti compiti. Con RL avanzato, utilizza il ragionamento a catena per migliorare accuratezza e ricchezza, superando i modelli tradizionali non pensanti sia nei risultati che nella spiegabilità.",
"glm-4.5-air.description": "Edizione leggera di GLM-4.5 che bilancia prestazioni e costi, con modalità di pensiero ibride flessibili.",
"glm-4.5-airx.description": "Edizione veloce di GLM-4.5-Air con risposte più rapide per usi ad alta scala e velocità.",
"glm-4.5-flash.description": "Livello gratuito di GLM-4.5 con prestazioni elevate in ragionamento, programmazione e compiti da agente.",
"glm-4.5-x.description": "Edizione veloce di GLM-4.5, con prestazioni elevate e velocità di generazione fino a 100 token/sec.",
"glm-4.5.description": "Modello di punta di Zhipu con modalità di pensiero commutabile, che offre SOTA open-source complessivo e fino a 128K di contesto.",
"glm-4.5v.description": "Il modello di ragionamento visivo di nuova generazione MoE di Zhipu ha 106B parametri totali con 12B attivi, raggiungendo SOTA tra i modelli multimodali open-source di dimensioni simili in compiti su immagini, video, documenti e GUI.",
"glm-4.6.description": "GLM-4.6 (355B), il nuovo modello di punta di Zhipu, supera completamente i suoi predecessori in codifica avanzata, elaborazione di testi lunghi, ragionamento e capacità agentiche. Si distingue in particolare per le sue abilità di programmazione, comparabili a quelle di Claude Sonnet 4, affermandosi come il miglior modello di codifica in Cina.",
"glm-4.7-flash.description": "GLM-4.7-Flash, come modello SOTA da 30B, offre una nuova opzione che bilancia prestazioni ed efficienza. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source della stessa dimensione in numerosi benchmark attuali. Nell'esecuzione di compiti agentici complessi, mostra maggiore aderenza alle istruzioni durante le chiamate agli strumenti e migliora ulteriormente l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine per Artifacts e Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, come modello SOTA da 30B, offre una nuova opzione che bilancia prestazioni ed efficienza. Migliora le capacità di programmazione, la pianificazione di compiti a lungo termine e la collaborazione con strumenti per scenari di Agentic Coding, raggiungendo prestazioni leader tra i modelli open-source della stessa dimensione in numerosi benchmark attuali. Nell'esecuzione di compiti agentici complessi, mostra maggiore aderenza alle istruzioni durante le chiamate agli strumenti e migliora ulteriormente l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine per Artifacts e Agentic Coding.",
"glm-4.7.description": "GLM-4.7 è il nuovo modello di punta di Zhipu, ottimizzato per scenari di codifica agentica con capacità migliorate nella programmazione, pianificazione di compiti a lungo termine e collaborazione con strumenti. Raggiunge prestazioni leader tra i modelli open-source su numerosi benchmark pubblici. Le capacità generali sono state potenziate con risposte più concise e naturali e una scrittura più coinvolgente. Per compiti agentici complessi, il modello segue meglio le istruzioni durante l'uso degli strumenti, e l'estetica del frontend e l'efficienza nel completamento di compiti a lungo termine in Artifacts e Agentic Coding sono ulteriormente migliorate.",
"glm-4.description": "GLM-4 è il precedente modello di punta rilasciato a gennaio 2024, ora sostituito dal più potente GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash è focalizzato sulla comprensione efficiente di immagini singole per scenari di analisi rapida come l'elaborazione di immagini in tempo reale o in batch.",
@ -654,7 +652,7 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: una variante Codex più piccola ed economica ottimizzata per compiti di programmazione agentica.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: una variante di GPT-5.1 ottimizzata per compiti di programmazione agentica, per flussi di lavoro complessi di codice/agent nella Responses API.",
"gpt-5.1.description": "GPT-5.1 — un modello di punta ottimizzato per compiti di programmazione e agent con sforzo di ragionamento configurabile e contesto esteso.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat è la variante ChatGPT (chat-latest) per sperimentare i più recenti miglioramenti nella conversazione.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat è la variante ChatGPT (chat-latest) con i più recenti miglioramenti nella conversazione.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: una variante GPT-5.2 più intelligente e precisa (solo API Responses), adatta a problemi complessi e ragionamenti multi-turno estesi.",
"gpt-5.2.description": "GPT-5.2 è un modello di punta per flussi di lavoro di programmazione e agent con ragionamento potenziato e prestazioni su contesti lunghi.",
"gpt-5.description": "Il miglior modello per compiti di programmazione e agent cross-domain. GPT-5 rappresenta un salto in accuratezza, velocità, ragionamento, consapevolezza del contesto, pensiero strutturato e risoluzione dei problemi.",
@ -822,6 +820,7 @@
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 è progettato per compiti che combinano visione e testo. Eccelle in didascalie di immagini e domande e risposte visive, unendo generazione linguistica e ragionamento visivo.",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct è il modello Llama 3.1 Instruct più grande e potente, altamente avanzato per il ragionamento dialogico e la generazione di dati sintetici, e una solida base per pretraining o fine-tuning specifici per dominio. I LLM multilingue Llama 3.1 sono una serie di modelli di generazione preaddestrati e ottimizzati per le istruzioni in versioni da 8B, 70B e 405B (input/output testuale). I modelli ottimizzati per le istruzioni sono progettati per dialoghi multilingue e superano molti modelli open chat disponibili nei benchmark industriali. Llama 3.1 è pensato per l'uso commerciale e di ricerca in più lingue. I modelli ottimizzati per le istruzioni sono adatti a chat in stile assistente, mentre i modelli preaddestrati si adattano a compiti più generali di generazione linguistica. Gli output di Llama 3.1 possono anche essere utilizzati per migliorare altri modelli, inclusa la generazione e il perfezionamento di dati sintetici. Llama 3.1 è un modello Transformer autoregressivo con architettura ottimizzata. Le versioni ottimizzate utilizzano fine-tuning supervisionato (SFT) e apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dellecosistema globale per linnovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@ -1049,7 +1048,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air è una variante leggera di GLM 4.5 per scenari sensibili ai costi, mantenendo forti capacità di ragionamento.",
"z-ai/glm-4.5.description": "GLM 4.5 è il modello di punta di Z.AI con ragionamento ibrido ottimizzato per compiti ingegneristici e contesti lunghi.",
"z-ai/glm-4.6.description": "GLM 4.6 è il modello di punta di Z.AI con contesto esteso e capacità di programmazione.",
"zai-glm-4.6.description": "Eccelle in compiti di programmazione e ragionamento, supporta lo streaming e le chiamate a strumenti, ed è adatto alla programmazione agentica e al ragionamento complesso.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air è un modello base per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5.description": "GLM-4.5 è un modello base progettato per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5V.description": "GLM-4.5V è il più recente VLM di Zhipu AI, basato sul modello testuale di punta GLM-4.5-Air (106B totali, 12B attivi) con architettura MoE per prestazioni elevate a costi ridotti. Segue il percorso GLM-4.1V-Thinking e aggiunge 3D-RoPE per migliorare il ragionamento spaziale 3D. Ottimizzato tramite pretraining, SFT e RL, gestisce immagini, video e documenti lunghi, classificandosi tra i migliori modelli open source su 41 benchmark multimodali pubblici. Una modalità Thinking consente di bilanciare velocità e profondità.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Crea la tua prima attività pianificata per automatizzare il tuo agente",
"agentCronJobs.empty.title": "Nessuna attività pianificata",
"agentCronJobs.enable": "Attiva",
"agentCronJobs.form.at": "alle",
"agentCronJobs.form.content.placeholder": "Inserisci il prompt o l'istruzione per l'agente",
"agentCronJobs.form.every": "Ogni",
"agentCronJobs.form.frequency": "Frequenza",
"agentCronJobs.form.hours": "ora(e)",
"agentCronJobs.form.maxExecutions": "Interrompi dopo",
"agentCronJobs.form.maxExecutions.placeholder": "Lascia vuoto per illimitato",
"agentCronJobs.form.name.placeholder": "Inserisci il nome dell'attività",
"agentCronJobs.form.time": "Orario",
"agentCronJobs.form.timeRange.end": "Ora di fine",
"agentCronJobs.form.timeRange.start": "Ora di inizio",
"agentCronJobs.form.times": "volte",
"agentCronJobs.form.timezone": "Fuso orario",
"agentCronJobs.form.unlimited": "Esegui continuamente",
"agentCronJobs.form.validation.contentRequired": "Il contenuto dell'attività è obbligatorio",
"agentCronJobs.form.validation.invalidTimeRange": "L'ora di inizio deve precedere l'ora di fine",
"agentCronJobs.form.validation.nameRequired": "Il nome dell'attività è obbligatorio",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Martedì",
"agentCronJobs.weekday.wednesday": "Mercoledì",
"agentCronJobs.weekdays": "Giorni feriali",
"agentCronJobs.weekdays.fri": "Ven",
"agentCronJobs.weekdays.mon": "Lun",
"agentCronJobs.weekdays.sat": "Sab",
"agentCronJobs.weekdays.sun": "Dom",
"agentCronJobs.weekdays.thu": "Gio",
"agentCronJobs.weekdays.tue": "Mar",
"agentCronJobs.weekdays.wed": "Mer",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Descrizione",
"agentInfoDescription.basic.name": "Nome",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "このメールアドレスは削除されたアカウントに関連付けられており、登録には使用できません",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "このアカウントのメールアドレスは変更できません",
"codes.EMAIL_NOT_ALLOWED": "このメールアドレスでは登録できません",
"codes.EMAIL_NOT_FOUND": "このアカウントにはメールアドレスが登録されていません。アカウントにメールアドレスが紐付けられているかご確認ください。",
"codes.EMAIL_NOT_VERIFIED": "メールアドレスの確認を完了してください",
"codes.FAILED_TO_CREATE_SESSION": "セッションの作成に失敗しました",
"codes.FAILED_TO_CREATE_USER": "ユーザーの作成に失敗しました",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Phi-3-miniよりも高品質で、推論重視のデータに特化した70億パラメータのモデルです。",
"Phi-3.5-mini-instruct.description": "Phi-3-miniモデルのアップデート版です。",
"Phi-3.5-vision-instrust.description": "Phi-3-visionモデルのアップデート版です。",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1は、エージェント機能に最適化されたオープンソースの大規模言語モデルであり、プログラミング、ツールの活用、指示の遵守、長期的な計画に優れています。このモデルは多言語でのソフトウェア開発や複雑なマルチステップのワークフロー実行をサポートし、SWE-bench Verifiedで74.0のスコアを達成し、多言語シナリオにおいてClaude Sonnet 4.5を上回る性能を示しています。",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instructは、Qwen2シリーズの7B命令調整済みLLMです。TransformerアーキテクチャにSwiGLU、QKVバイアス、グループ化クエリアテンションを採用し、大規模入力に対応。言語理解、生成、多言語、コーディング、数学、推論において優れた性能を発揮し、多くのオープンモデルを上回り、プロプライエタリモデルと競合します。Qwen1.5-7B-Chatを複数のベンチマークで上回ります。",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instructは、Alibaba Cloudの最新LLMシリーズの一部です。7Bモデルは、コーディングと数学で顕著な向上を示し、29以上の言語をサポート。命令追従、構造化データの理解、構造化出力特にJSONを改善しています。",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instructは、Alibaba Cloudの最新コード特化型LLMです。Qwen2.5をベースに5.5兆トークンで訓練され、コード生成、推論、修復を大幅に改善。数学や汎用能力も維持し、コーディングエージェントの強力な基盤を提供します。",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 HaikuはAnthropicの次世代モデルの中で最も高速であり、さまざまなスキルにおいて向上し、従来のフラッグシップモデルClaude 3 Opusを多くのベンチマークで上回ります。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haikuは、Anthropicが提供する次世代モデルの中で最も高速なモデルです。Claude 3 Haikuと比較して全体的なスキルが向上しており、従来の最大モデルであるClaude 3 Opusを多くの知能ベンチマークで上回っています。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7はAnthropicの最も知的なモデルであり、市場初のハイブリッド推論モデルです。瞬時の応答から深い思考まで、きめ細かな制御が可能です。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnetは、Anthropicが開発した最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と段階的な思考プロセスの両方を提供でき、ユーザーはその思考過程を視覚的に確認できます。特にコーディング、データサイエンス、画像認識、エージェントタスクに強みを持ちます。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの最速かつ最も知的なHaikuモデルであり、驚異的なスピードと深い思考能力を兼ね備えています。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、AnthropicのHaikuモデルの中で最も高速かつ高性能なモデルであり、驚異的なスピードと高度な推論能力を兼ね備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1はAnthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicが提供する最新かつ最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの中で最も強力なモデルであり、非常に複雑なタスクにおいて優れたパフォーマンス、知性、流暢さ、理解力を示します。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropic史上最も知的なモデルであり、APIユーザー向けにきめ細かな制御を可能にし、瞬時の応答または段階的な思考を提供します。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5はAnthropic史上最も知的なモデルです。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、即時応答と段階的な思考プロセスの両方を提供でき、その過程を可視化することが可能です。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicがこれまでに開発した中で最も知的なモデルです。",
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
"codegemma.description": "CodeGemmaは、さまざまなプログラミングタスクに対応する軽量モデルで、迅速な反復と統合を可能にします。",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp は次世代アーキテクチャへの橋渡しとなる実験的な V3.2 リリースです。V3.1-Terminus をベースに DeepSeek Sparse AttentionDSAを追加し、長文コンテキストの学習と推論効率を向上させています。ツール使用、長文理解、マルチステップ推論に最適化されており、大規模コンテキストでの高効率推論の探求に理想的です。",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 は 671B パラメータの MoE モデルで、MLA と DeepSeekMoE を使用し、損失のない負荷分散により効率的な学習と推論を実現しています。14.8T の高品質トークンで事前学習され、SFT と RL により他のオープンモデルを上回り、クローズドモデルに迫る性能を発揮します。",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67Bは、深い言語理解と対話能力を提供する革新的なモデルです。",
"deepseek-ai/deepseek-r1.description": "最先端の効率的な LLM で、推論、数学、プログラミングに強みを持ちます。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
"deepseek-chat.description": "DeepSeek V3.2は日常的なQAやエージェントタスクにおいて、推論力と出力長のバランスを実現します。公開ベンチマークではGPT-5レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。",
"deepseek-chat.description": "DeepSeek-V2.5は、一般的な対話能力と強力なコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの自然な対話性とコーディングモデルの技術力を融合し、ユーザーの好みにより適合した応答を実現します。さらに、文章生成や指示の理解にも優れています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは、出力前に思考の連鎖Chain-of-Thoughtを生成することで精度を高めた深い推論モデルです。競合モデルと比較しても優れた結果を示し、Gemini-3.0-Proに匹敵する推論力を持ちます。",
"deepseek-reasoner.description": "DeepSeek V3.2の思考モードでは、最終的な回答の前に思考の過程Chain-of-Thoughtを出力することで、精度を向上させます。",
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5はByteDanceのSeedチームによって開発され、複数画像の編集と合成をサポートします。被写体の一貫性、指示の正確な追従、空間論理の理解、美的表現、ポスターレイアウトやロゴデザインにおける高精度なテキスト・画像レンダリングが強化されています。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0はByteDance Seedによって開発され、テキストと画像の入力をサポートし、プロンプトから高品質で制御可能な画像生成を実現します。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedが開発した画像生成モデルであり、テキストおよび画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成可能です。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的・外観的な編集、中国語・英語のテキスト編集、スタイル変換、回転などを精密にサポートします。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストのレンダリングに優れ、多様なビジュアルスタイルを提供します。",
"fal-ai/qwen-image-edit.description": "Qwenチームが開発したプロフェッショナルな画像編集モデルで、意味や外観の編集、中文・英文テキストの精密な編集、スタイル変換やオブジェクトの回転など高品質な編集が可能です。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 14 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
"gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
"gemini-2.0-flash.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
"gemini-2.5-flash-image-preview.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
"gemini-2.5-flash-image-preview:image.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
"gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
"gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proは、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana ProGoogleの画像生成モデルであり、マルチモーダルチャットもサポートします。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana ProGoogleの画像生成モデルであり、マルチモーダルチャットにも対応しています。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max は最も多機能なバージョンで、ウェブ検索や多数の内蔵プラグインをサポートします。最適化されたコア機能、システムロール、関数呼び出しにより、複雑なアプリケーションシナリオでも優れたパフォーマンスを発揮します。",
"generalv3.description": "Spark Pro は、数学、プログラミング、医療、教育などの専門分野に最適化された高性能LLMです。ウェブ検索や天気・日付などの内蔵プラグインを備え、複雑な知識Q&A、言語理解、高度なテキスト生成において高い性能と効率を実現し、プロフェッショナルなユースケースに最適です。",
"glm-4-0520.description": "GLM-4-0520 は最新バージョンのモデルで、非常に複雑かつ多様なタスクに対応し、優れた性能を発揮します。",
"glm-4-32b-0414.description": "GLM-4 32B 0414 は、マルチタスクのテキスト生成と理解をサポートする汎用GLMモデルです。",
"glm-4-7.description": "GLM-4.7はZhipu AIの最新フラッグシップモデルであり、コーディング能力、長期タスクの計画、ツール連携において大幅な向上を実現し、Agentic Codingシナリオにおいてオープンソースモデルの中でトップクラスの性能を発揮します。応答はより簡潔で自然になり、文章生成はより没入感のあるものとなっています。複雑なエージェントタスクにおいては、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスクの完了効率も向上しています。 • プログラミング能力の強化多言語コーディングとターミナルエージェントの性能が大幅に向上し、Claude Code、Kilo Code、TRAE、Cline、Roo Codeなどのフレームワークで「まず考え、次に行動する」メカニズムを実装可能。 • フロントエンドの美的品質向上ウェブサイト、PPT、ポスターなどの生成品質が向上。 • ツール呼び出し能力の強化BrowseCompで67点、τ²-Benchで84.7点を記録し、Claude Sonnet 4.5を上回るオープンソースSOTAを達成。 • 推論能力の向上HLE人類最後の試験で42.8%を記録し、GLM-4.6比で41%向上、GPT-5.1を超える性能。 • 一般能力の向上:会話はより簡潔で知的かつ人間らしく、文章生成やロールプレイもより文学的で没入感のあるものに。",
"glm-4-9b-chat.description": "GLM-4-9B-Chat は、意味理解、数学、推論、コード、知識において高い性能を発揮します。ウェブ閲覧、コード実行、カスタムツール呼び出し、長文推論をサポートし、日本語、韓国語、ドイツ語を含む26言語に対応しています。",
"glm-4-air-250414.description": "GLM-4-Air は、GLM-4 に近い性能を持ちながら、高速かつ低コストで利用できる高コストパフォーマンスモデルです。",
"glm-4-air.description": "GLM-4-Air は、GLM-4 に近い性能を持ちながら、高速かつ低コストで利用できる高コストパフォーマンスモデルです。",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking は、既知の中で最も強力な約10Bの視覚言語モデルVLMで、動画理解、画像Q&A、科目解答、OCR、文書・チャート読解、GUIエージェント、フロントエンドコーディング、グラウンディングなどの最先端タスクに対応します。Qwen2.5-VL-72B8倍のサイズを多くのタスクで上回ります。高度な強化学習RLにより、思考の連鎖Chain-of-Thought推論を活用し、精度と情報の豊かさを向上させ、従来の非思考モデルを成果と説明性の両面で凌駕します。",
"glm-4.5-air.description": "GLM-4.5 の軽量版で、性能とコストのバランスを取り、柔軟なハイブリッド思考モードを備えています。",
"glm-4.5-airx.description": "GLM-4.5-Air の高速版で、大規模かつ高速な利用に対応する迅速な応答を実現します。",
"glm-4.5-flash.description": "GLM-4.5 の無料ティアで、推論、コーディング、エージェントタスクにおいて高い性能を発揮します。",
"glm-4.5-x.description": "GLM-4.5 の高速版で、最大100トークン/秒の生成速度で高性能を実現します。",
"glm-4.5.description": "智谱のフラッグシップモデルで、思考モードの切り替えが可能。オープンソースの中で最先端の性能を誇り、最大128Kのコンテキストに対応します。",
"glm-4.5v.description": "智谱の次世代MoE視覚推論モデルで、総パラメータ数106B、アクティブ12B。画像、動画、文書理解、GUIタスクにおいて同規模のオープンソースマルチモーダルモデルの中で最先端の性能を実現します。",
"glm-4.6.description": "Zhipuの最新フラッグシップモデルGLM-4.6355Bは、先進的なコーディング、長文処理、推論、エージェント機能において前世代を完全に上回ります。特にClaude Sonnet 4と同等のプログラミング能力を持ち、中国国内で最高のコーディングモデルとなっています。",
"glm-4.7-flash.description": "GLM-4.7-Flashは、30BクラスのSOTAモデルとして、性能と効率のバランスを実現する新たな選択肢です。Agentic Codingシナリオにおけるコーディング能力、長期タスク計画、ツール連携を強化し、同規模のオープンソースモデルの中でベンチマーク上位の性能を発揮します。複雑なインテリジェントエージェントタスクの実行時には、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスク完了効率も向上しています。",
"glm-4.7-flashx.description": "GLM-4.7-Flashは、30BクラスのSOTAモデルとして、性能と効率のバランスを実現する新たな選択肢です。Agentic Codingシナリオにおけるコーディング能力、長期タスク計画、ツール連携を強化し、同規模のオープンソースモデルの中でベンチマーク上位の性能を発揮します。複雑なインテリジェントエージェントタスクの実行時には、ツール呼び出し時の指示遵守が強化され、フロントエンドの美的品質や長期タスク完了効率も向上しています。",
"glm-4.7.description": "GLM-4.7はZhipuの最新フラッグシップモデルで、エージェント型コーディングシナリオに最適化されています。コーディング能力、長期タスクの計画、ツールとの連携が強化されており、複数の公開ベンチマークでオープンソースモデルの中でもトップクラスの性能を発揮します。全体的な能力も向上し、より簡潔で自然な応答、没入感のある文章生成が可能です。複雑なエージェントタスクにおいては、ツール呼び出し時の指示追従性が強化され、ArtifactsやAgentic Codingのフロントエンドの美しさや長期タスクの完遂効率も向上しています。",
"glm-4.description": "GLM-4 は2024年1月にリリースされた旧フラッグシップモデルで、現在はより強力な GLM-4-0520 に置き換えられています。",
"glm-4v-flash.description": "GLM-4V-Flash は、リアルタイムやバッチ画像処理などの高速分析シナリオに適した、単一画像理解に特化したモデルです。",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini小型で低コストな Codex バリアントで、エージェント型コーディングタスクに最適化されています。",
"gpt-5.1-codex.description": "GPT-5.1 CodexGPT-5.1 をベースにした、複雑なコードやエージェントワークフローに対応するコーディング特化モデルですResponses API 対応)。",
"gpt-5.1.description": "GPT-5.1 — コーディングやエージェントタスクに最適化されたフラッグシップモデルで、推論の深さを調整可能で長文コンテキストにも対応します。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat は、最新の会話機能を体験できる GPT-5.2 のチャットバリアントchat-latestです。",
"gpt-5.2-pro.description": "GPT-5.2 Pro:より賢く、精度の高い GPT-5.2 バリアントResponses API 専用)で、難易度の高い問題や長い多段階推論に適しています。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chatは、最新の会話機能を備えたChatGPTバリアントchat-latestです。",
"gpt-5.2-pro.description": "GPT-5.2 Proは、より賢く精密なGPT-5.2バリアントResponses API専用であり、難解な問題や長い多段階推論に適しています。",
"gpt-5.2.description": "GPT-5.2 は、コーディングやエージェントワークフローに対応するフラッグシップモデルで、強力な推論力と長文コンテキスト処理能力を備えています。",
"gpt-5.description": "GPT-5 は、分野横断的なコーディングやエージェントタスクに最適なモデルで、精度、速度、推論力、文脈理解、構造的思考、問題解決能力において飛躍的な進化を遂げています。",
"gpt-audio.description": "GPT Audio は、音声の入出力に対応した汎用チャットモデルで、Chat Completions API に対応しています。",
@ -906,6 +904,12 @@
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct46.7B)は、大規模データ処理に対応する高容量モデルです。",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7Bは、推論速度を向上させるスパースMoEモデルで、多言語およびコード生成タスクに適しています。",
"mistralai/mistral-nemo.description": "Mistral Nemoは、マルチリンガル対応と優れたコーディング性能を備えた7.3Bモデルです。",
"mixtral-8x7b-32768.description": "Mixtral 8x7Bは、複雑なタスクに対してフォールトトレラントな並列計算を提供します。",
"mixtral.description": "Mixtralは、Mistral AIが提供するMoEモデルで、オープンウェイトでコード生成と言語理解をサポートします。",
"mixtral:8x22b.description": "Mixtralは、Mistral AIが提供するMoEモデルで、オープンウェイトでコード生成と言語理解をサポートします。",
"moonshot-v1-128k-vision-preview.description": "Kimi Visionモデルmoonshot-v1-8k-vision-preview / moonshot-v1-32k-vision-preview / moonshot-v1-128k-vision-previewは、テキスト、色、物体の形状などの画像内容を理解できます。",
"moonshot-v1-128k.description": "Moonshot V1 128Kは、最大128,000トークンの超長文コンテキストに対応し、研究、学術、大規模文書の生成に最適です。",
"moonshot-v1-32k-vision-preview.description": "Kimi Visionモデルmoonshot-v1-8k-vision-preview / moonshot-v1-32k-vision-preview / moonshot-v1-128k-vision-previewは、テキスト、色、物体の形状などの画像内容を理解できます。",
"moonshot-v1-32k.description": "Moonshot V1 32Kは、32,768トークンの中程度の長さのコンテキストをサポートし、長文ドキュメントや複雑な対話に最適で、コンテンツ制作、レポート、チャットシステムに適しています。",
"moonshot-v1-8k-vision-preview.description": "Kimi Visionモデルmoonshot-v1-8k-vision-preview、moonshot-v1-32k-vision-preview、moonshot-v1-128k-vision-previewを含むは、テキスト、色、物体の形状などの画像内容を理解できます。",
"moonshot-v1-8k.description": "Moonshot V1 8Kは、短文生成に最適化されており、効率的なパフォーマンスで8,192トークンを処理し、短いチャット、メモ、迅速なコンテンツ作成に適しています。",
@ -938,6 +942,24 @@
"o4-mini-2025-04-16.description": "o4-miniは、OpenAIの推論モデルで、テキスト画像入力とテキスト出力に対応し、幅広い知識を必要とする複雑なタスクに適しており、200Kのコンテキストウィンドウを備えています。",
"o4-mini-deep-research.description": "o4-mini-deep-researchは、複雑な多段階リサーチ向けの高速かつ低コストなモデルで、ウェブ検索やMCPコネクタを通じたデータアクセスが可能です。",
"o4-mini.description": "o4-miniは、oシリーズの最新小型モデルで、コーディングや視覚タスクにおいて高効率な推論を実現するよう最適化されています。",
"open-codestral-mamba.description": "Codestral Mambaは、コード生成に特化したMamba 2言語モデルであり、高度なコーディングおよび推論タスクをサポートします。",
"open-mistral-7b.description": "Mistral 7Bはコンパクトながら高性能であり、バッチ処理や分類、テキスト生成などのシンプルなタスクに強く、堅実な推論能力を備えています。",
"open-mistral-nemo.description": "Mistral Nemoは、Nvidiaと共同開発された12Bモデルで、優れた推論およびコーディング性能を持ち、統合も容易です。",
"open-mixtral-8x22b.description": "Mixtral 8x22Bは、複雑なタスクに対応する大型MoEモデルで、強力な推論能力と高いスループットを提供します。",
"open-mixtral-8x7b.description": "Mixtral 8x7Bは、推論速度を向上させるスパースMoEモデルであり、多言語およびコード生成タスクに適しています。",
"openai/gpt-3.5-turbo-instruct.description": "GPT-3時代のモデルと同様の機能を持ち、チャットではなく従来の補完エンドポイントに対応しています。",
"openai/gpt-3.5-turbo.description": "OpenAIの最も高性能かつコスト効率の高いGPT-3.5モデルで、チャットに最適化されている一方で、従来の補完にも強みを持ちます。",
"openai/gpt-4-turbo.description": "OpenAIのgpt-4-turboは、幅広い一般知識と専門知識を持ち、複雑な自然言語指示に従い、難解な問題を正確に解決します。知識のカットオフは2023年4月で、128Kのコンテキストウィンドウに対応しています。",
"openai/gpt-4.1-mini.description": "GPT-4.1 Miniは、中程度のコンテキスト処理において低レイテンシーと高コストパフォーマンスを提供します。",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nanoは、超低コスト・低レイテンシーで高頻度の短いチャットや分類タスクに最適なモデルです。",
"openai/gpt-4.1.description": "GPT-4.1シリーズは、より大きなコンテキストウィンドウと強化されたエンジニアリングおよび推論能力を提供します。",
"openai/gpt-4o-mini.description": "GPT-4o-miniは、低レイテンシーのマルチモーダル用途に適した高速・小型のGPT-4oバリアントです。",
"openai/gpt-4o.description": "GPT-4oファミリーは、テキスト画像入力とテキスト出力に対応するOpenAIのOmniモデルです。",
"openai/gpt-5-chat.description": "GPT-5 Chatは、対話に最適化されたGPT-5バリアントで、低レイテンシーでよりインタラクティブな会話を実現します。",
"openai/gpt-5-codex.description": "GPT-5-Codexは、コーディングおよび大規模なコードワークフローに最適化されたGPT-5バリアントです。",
"openai/gpt-5-mini.description": "GPT-5 Miniは、低レイテンシー・低コストのシナリオ向けに設計された小型のGPT-5バリアントです。",
"openai/gpt-5-nano.description": "GPT-5 Nanoは、コストとレイテンシーに厳しい制約があるシナリオ向けの超小型バリアントです。",
"openai/gpt-5-pro.description": "GPT-5 Proは、OpenAIのフラッグシップモデルであり、強力な推論、コード生成、エンタープライズ向け機能を提供し、テスト時のルーティングや厳格な安全ポリシーに対応しています。",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8Bは、Llamaをベースにしたマルチモーダルモデルで、一般的な画像と言語の理解に対応します。",
"qianfan-multipicocr.description": "Qianfan MultiPicOCRは、複数画像に対応したOCRモデルで、画像間のテキスト検出と認識を行います。",
"qianfan-qi-vl.description": "Qianfan QI VLは、複雑な画像と言語のシナリオにおける高精度な検索と質問応答に対応するマルチモーダルQAモデルです。",
@ -1086,7 +1108,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Airは、コスト重視のシナリオ向けに設計された軽量GLM 4.5バリアントで、強力な推論能力を維持しています。",
"z-ai/glm-4.5.description": "GLM 4.5は、エンジニアリングおよび長文コンテキストタスクに最適化されたZ.AIのフラッグシップモデルで、ハイブリッド推論を採用しています。",
"z-ai/glm-4.6.description": "GLM 4.6は、Z.AIのフラッグシップモデルで、コンテキスト長とコーディング能力が強化されています。",
"zai-glm-4.6.description": "コーディングおよび推論タスクで高い性能を発揮し、ストリーミングやツール呼び出しをサポート。エージェント型コーディングや複雑な推論に適しています。",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Airは、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルです。ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに最適化されており、Claude CodeやRoo Codeなどのコードエージェントと統合可能です。ハイブリッド推論により、複雑な推論と日常的なシナリオの両方に対応します。",
"zai-org/GLM-4.5.description": "GLM-4.5は、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルで、ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに深く最適化されています。Claude CodeやRoo Codeなどのコードエージェントと統合可能で、ハイブリッド推論により複雑な推論と日常的なシナリオの両方に対応します。",
"zai-org/GLM-4.5V.description": "GLM-4.5Vは、GLM-4.5-AirをベースにしたZhipu AIの最新VLMで、106B総パラメータ12BアクティブのMoEアーキテクチャを採用し、低コストで高性能を実現しています。GLM-4.1V-Thinkingの系譜を継承し、3D-RoPEにより3D空間推論を強化。事前学習、SFT、RLを通じて最適化され、画像、動画、長文文書を処理可能。41の公開マルチモーダルベンチマークでトップクラスの評価を獲得。Thinkingモードの切り替えにより、速度と深さのバランスを調整可能です。",

View file

@ -29,7 +29,6 @@
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービスMaaSプラットフォームで、幅広いAIモデルと推論サービスを提供します。",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "最初のスケジュールタスクを作成してエージェントを自動化しましょう",
"agentCronJobs.empty.title": "スケジュールタスクがありません",
"agentCronJobs.enable": "有効化",
"agentCronJobs.form.at": "指定時刻",
"agentCronJobs.form.content.placeholder": "エージェントへのプロンプトまたは指示を入力してください",
"agentCronJobs.form.every": "毎",
"agentCronJobs.form.frequency": "頻度",
"agentCronJobs.form.hours": "時間ごと",
"agentCronJobs.form.maxExecutions": "最大実行回数",
"agentCronJobs.form.maxExecutions.placeholder": "無制限にするには空欄のままにしてください",
"agentCronJobs.form.name.placeholder": "タスク名を入力してください",
"agentCronJobs.form.time": "時刻",
"agentCronJobs.form.timeRange.end": "終了時間",
"agentCronJobs.form.timeRange.start": "開始時間",
"agentCronJobs.form.times": "回",
"agentCronJobs.form.timezone": "タイムゾーン",
"agentCronJobs.form.unlimited": "継続的に実行",
"agentCronJobs.form.validation.contentRequired": "タスク内容は必須です",
"agentCronJobs.form.validation.invalidTimeRange": "開始時間は終了時間より前でなければなりません",
"agentCronJobs.form.validation.nameRequired": "タスク名は必須です",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "火曜日",
"agentCronJobs.weekday.wednesday": "水曜日",
"agentCronJobs.weekdays": "平日",
"agentCronJobs.weekdays.fri": "金",
"agentCronJobs.weekdays.mon": "月",
"agentCronJobs.weekdays.sat": "土",
"agentCronJobs.weekdays.sun": "日",
"agentCronJobs.weekdays.thu": "木",
"agentCronJobs.weekdays.tue": "火",
"agentCronJobs.weekdays.wed": "水",
"agentInfoDescription.basic.avatar": "アバター",
"agentInfoDescription.basic.description": "説明",
"agentInfoDescription.basic.name": "名前",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "이 이메일은 삭제된 계정과 연결되어 있어 회원가입에 사용할 수 없습니다",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "현재 계정의 이메일은 수정할 수 없습니다",
"codes.EMAIL_NOT_ALLOWED": "이 이메일은 회원가입에 사용할 수 없습니다",
"codes.EMAIL_NOT_FOUND": "이 계정에 연결된 이메일이 없습니다. 계정에 이메일이 등록되어 있는지 확인해 주세요.",
"codes.EMAIL_NOT_VERIFIED": "이메일 인증을 먼저 완료해 주세요",
"codes.FAILED_TO_CREATE_SESSION": "세션 생성에 실패했습니다",
"codes.FAILED_TO_CREATE_USER": "사용자 생성에 실패했습니다",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "7B 파라미터를 가진 모델로, Phi-3-mini보다 더 높은 품질을 제공하며, 고품질 및 추론 중심 데이터에 중점을 둡니다.",
"Phi-3.5-mini-instruct.description": "Phi-3-mini 모델의 업데이트 버전입니다.",
"Phi-3.5-vision-instrust.description": "Phi-3-vision 모델의 업데이트 버전입니다.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1은 에이전트 기능에 최적화된 오픈소스 대형 언어 모델로, 프로그래밍, 도구 사용, 지시 따르기, 장기 계획 수립에 뛰어난 성능을 보입니다. 이 모델은 다국어 소프트웨어 개발과 복잡한 다단계 워크플로우 실행을 지원하며, SWE-bench Verified에서 74.0점을 기록하고 다국어 시나리오에서 Claude Sonnet 4.5를 능가합니다.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct는 Qwen2 시리즈의 70억 매개변수 기반 지시 조정 LLM입니다. Transformer 아키텍처를 기반으로 SwiGLU, attention QKV bias, grouped-query attention을 사용하며, 대용량 입력을 처리할 수 있습니다. 언어 이해, 생성, 다국어 작업, 코딩, 수학, 추론 등 다양한 분야에서 강력한 성능을 발휘하며, 대부분의 오픈 모델을 능가하고 상용 모델과 경쟁합니다. 여러 벤치마크에서 Qwen1.5-7B-Chat을 능가합니다.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct는 알리바바 클라우드의 최신 LLM 시리즈 중 하나입니다. 70억 매개변수 모델로 코딩과 수학에서 눈에 띄는 성능 향상을 보이며, 29개 이상의 언어를 지원합니다. 지시 따르기, 구조화된 데이터 이해, 구조화된 출력(특히 JSON) 생성 능력이 향상되었습니다.",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct는 알리바바 클라우드의 최신 코드 특화 LLM입니다. Qwen2.5를 기반으로 5.5조 토큰으로 학습되었으며, 코드 생성, 추론, 수정 능력을 크게 향상시켰습니다. 수학 및 일반적인 능력도 유지하며, 코딩 에이전트를 위한 강력한 기반을 제공합니다.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상된 성능을 보이며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답부터 심화 사고까지 세밀한 제어가 가능하며, 다양한 상황에 유연하게 대응합니다.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 가능합니다. 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개처럼 빠른 속도와 심화 사고 능력을 갖추고 있습니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 복잡한 작업에서 뛰어난 성능과 지능, 유창성, 이해력을 제공합니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 보여줍니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic이 지금까지 개발한 모델 중 가장 지능적인 모델로, API 사용자에게 세밀한 제어를 제공하며 즉각적인 응답 또는 단계별 사고를 지원합니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 응답을 생성할 수 있습니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 Anthropic이 개발한 가장 지능적인 모델입니다.",
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp는 차세대 아키텍처로의 전환을 위한 실험적 V3.2 릴리스입니다. V3.1-Terminus 기반 위에 DeepSeek Sparse Attention(DSA)을 추가하여 긴 문맥 학습 및 추론 효율을 향상시켰으며, 도구 사용, 장문 이해, 다단계 추론에 최적화되어 있습니다. 대규모 문맥 처리 예산 하에서 고차원 추론 효율을 탐색하기에 이상적입니다.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3는 MLA와 DeepSeekMoE를 활용한 671B 파라미터의 MoE 모델로, 손실 없는 부하 분산을 통해 학습 및 추론 효율을 극대화합니다. 14.8T의 고품질 토큰으로 사전 학습되었으며, SFT와 RL을 통해 다른 오픈 모델을 능가하고 주요 폐쇄형 모델에 근접한 성능을 보입니다.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B)은 심층 언어 이해와 상호작용을 제공하는 혁신적인 모델입니다.",
"deepseek-ai/deepseek-r1.description": "최신 기술을 반영한 고효율 LLM으로, 추론, 수학, 프로그래밍에 강점을 보입니다.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 맞춘 모델입니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
"deepseek-chat.description": "일반 대화 능력과 코드 작성 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 일반적인 대화 능력과 코드 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기에서도 향상된 성능을 보입니다.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심층 추론 모델입니다. 주요 대회에서 상위권 성적을 기록하며, Gemini-3.0-Pro에 필적하는 추론 능력을 보입니다.",
"deepseek-reasoner.description": "DeepSeek V3.2의 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5는 ByteDance Seed 팀이 개발한 모델로, 다중 이미지 편집 및 합성을 지원합니다. 피사체 일관성, 지시사항 정확도, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인 등에서 향상된 성능을 보이며, 고정밀 텍스트-이미지 렌더링을 제공합니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed가 개발한 모델로, 텍스트와 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며, 고품질의 이미지 생성과 세밀한 제어가 가능합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 편집, 정밀한 중/영문 텍스트 편집, 스타일 전환, 회전 등 다양한 기능을 지원합니다.",
"fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 다양한 시각 스타일과 뛰어난 중문 텍스트 렌더링 기능을 갖추고 있습니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 기반 편집을 지원하며, 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집이 가능합니다.",
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 표현이 뛰어나며 다양한 시각 스타일을 지원합니다.",
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
"gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max는 웹 검색과 다양한 내장 플러그인을 지원하는 가장 완전한 기능의 버전입니다. 최적화된 핵심 기능, 시스템 역할, 함수 호출을 통해 복잡한 애플리케이션 시나리오에서도 뛰어난 성능을 발휘합니다.",
"generalv3.description": "Spark Pro는 수학, 프로그래밍, 의료, 교육 등 전문 분야에 최적화된 고성능 LLM입니다. 웹 검색과 날씨, 날짜 등 내장 플러그인을 지원하며, 복잡한 지식 질의응답, 언어 이해, 고급 텍스트 생성에서 강력한 성능과 효율성을 제공합니다. 전문가용 사용 사례에 이상적입니다.",
"glm-4-0520.description": "GLM-4-0520은 최신 버전의 모델로, 매우 복잡하고 다양한 작업을 위한 탁월한 성능을 제공합니다.",
"glm-4-32b-0414.description": "GLM-4 32B 0414는 다중 작업 텍스트 생성 및 이해를 지원하는 범용 GLM 모델입니다.",
"glm-4-7.description": "GLM-4.7은 Zhipu AI의 최신 플래그십 모델로, 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 Agentic Coding 시나리오에서 오픈소스 모델 중 최고 성능을 달성했습니다. 일반 능력도 향상되어 응답이 더 간결하고 자연스러우며, 글쓰기 몰입감도 높아졌습니다. 복잡한 에이전트 작업에서 도구 호출 시 지시 따르기가 강화되었고, Artifacts 및 Agentic Coding 프론트엔드의 미적 품질과 장기 작업 완성 효율도 향상되었습니다. • 향상된 프로그래밍 능력: 다국어 코딩 및 터미널 에이전트 성능이 크게 향상되었으며, Claude Code, Kilo Code, TRAE, Cline, Roo Code 등에서 '먼저 생각하고, 그다음 실행' 메커니즘을 구현할 수 있습니다. • 프론트엔드 미적 향상: 웹사이트, PPT, 포스터 등 시각적으로 더 뛰어난 프론트엔드 생성이 가능합니다. • 도구 호출 능력 강화: BrowseComp 웹 작업 평가에서 67점, τ²-Bench 상호작용 도구 호출 평가에서 84.7점을 기록하며 Claude Sonnet 4.5를 능가하는 오픈소스 SOTA를 달성했습니다. • 추론 능력 향상: 수학 및 추론 능력이 크게 향상되어 HLE(‘인류 최후의 시험’) 벤치마크에서 42.8%를 기록, GLM-4.6 대비 41% 향상되었으며 GPT-5.1을 능가합니다. • 일반 능력 향상: 대화가 더 간결하고 지능적이며 인간적인 느낌을 주며, 글쓰기와 역할극이 더 문학적이고 몰입감 있게 개선되었습니다.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat은 의미 이해, 수학, 추론, 코딩, 지식 등 다양한 영역에서 강력한 성능을 보입니다. 웹 브라우징, 코드 실행, 사용자 정의 도구 호출, 장문 추론을 지원하며, 일본어, 한국어, 독일어 등 26개 언어를 지원합니다.",
"glm-4-air-250414.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
"glm-4-air.description": "GLM-4-Air는 GLM-4에 근접한 성능을 제공하면서도 빠른 속도와 낮은 비용을 자랑하는 고가치 모델입니다.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking은 약 100억 파라미터 규모의 가장 강력한 VLM으로, 영상 이해, 이미지 QA, 과목 문제 해결, OCR, 문서 및 차트 읽기, GUI 에이전트, 프론트엔드 코딩, 그라운딩 등 SOTA 작업을 포괄합니다. 고급 RL을 통해 사고 과정을 활용하여 정확성과 풍부함을 높이며, 전통적인 비사고 모델보다 결과와 설명력 모두에서 우수합니다.",
"glm-4.5-air.description": "GLM-4.5 경량 버전으로, 성능과 비용의 균형을 이루며 유연한 하이브리드 사고 모드를 지원합니다.",
"glm-4.5-airx.description": "GLM-4.5-Air 고속 버전으로, 대규모 고속 사용에 적합한 빠른 응답을 제공합니다.",
"glm-4.5-flash.description": "GLM-4.5 무료 버전으로, 추론, 코딩, 에이전트 작업에서 강력한 성능을 발휘합니다.",
"glm-4.5-x.description": "GLM-4.5 고속 버전으로, 최대 초당 100토큰 생성 속도로 강력한 성능을 제공합니다.",
"glm-4.5.description": "Zhipu의 플래그십 모델로, 사고 모드 전환이 가능하며 오픈소스 SOTA 성능과 최대 128K 컨텍스트를 지원합니다.",
"glm-4.5v.description": "Zhipu의 차세대 MoE 비전 추론 모델로, 총 106B 파라미터 중 12B가 활성화되며, 이미지, 비디오, 문서 이해, GUI 작업 등에서 동급 오픈소스 멀티모달 모델 중 SOTA 성능을 달성합니다.",
"glm-4.6.description": "Zhipu의 최신 플래그십 모델 GLM-4.6 (355B)은 고급 코딩, 장문 처리, 추론, 에이전트 기능에서 전작을 완전히 능가합니다. 특히 Claude Sonnet 4와 유사한 프로그래밍 능력을 갖추어 중국 최고의 코딩 모델로 자리매김했습니다.",
"glm-4.7-flash.description": "GLM-4.7-Flash는 30B급 SOTA 모델로, 성능과 효율성의 균형을 제공하는 새로운 선택지입니다. Agentic Coding 시나리오에서 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 동급 오픈소스 모델 중 최고 성능을 달성했습니다. 복잡한 지능형 에이전트 작업 수행 시 도구 호출에서 지시 따르기가 강화되었고, 프론트엔드 미적 품질과 Artifacts 및 Agentic Coding의 장기 작업 완성 효율도 향상되었습니다.",
"glm-4.7-flashx.description": "GLM-4.7-Flash는 30B급 SOTA 모델로, 성능과 효율성의 균형을 제공하는 새로운 선택지입니다. Agentic Coding 시나리오에서 코딩 능력, 장기 작업 계획, 도구 협업 능력을 강화하여 동급 오픈소스 모델 중 최고 성능을 달성했습니다. 복잡한 지능형 에이전트 작업 수행 시 도구 호출에서 지시 따르기가 강화되었고, 프론트엔드 미적 품질과 Artifacts 및 Agentic Coding의 장기 작업 완성 효율도 향상되었습니다.",
"glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오에 최적화되어 코딩 능력, 장기 작업 계획, 도구 협업이 향상되었습니다. 여러 공개 벤치마크에서 오픈소스 모델 중 선도적인 성능을 보이며, 일반 능력도 더 간결하고 자연스러운 응답과 몰입감 있는 글쓰기로 개선되었습니다. 복잡한 에이전트 작업에서는 도구 호출 시 지시 따르기 능력이 강화되었고, Artifacts 및 에이전트 코딩의 프론트엔드 미학과 장기 작업 완성 효율도 향상되었습니다.",
"glm-4.description": "GLM-4는 2024년 1월에 출시된 이전 플래그십 모델로, 현재는 더 강력한 GLM-4-0520으로 대체되었습니다.",
"glm-4v-flash.description": "GLM-4V-Flash는 단일 이미지 이해에 최적화되어 실시간 또는 배치 이미지 처리와 같은 빠른 분석 시나리오에 적합합니다.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: 에이전트 기반 코딩 작업에 최적화된 소형, 저비용 Codex 변형 모델입니다.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: 복잡한 코드/에이전트 워크플로우를 위한 Responses API용 GPT-5.1 기반 에이전트 코딩 최적화 모델입니다.",
"gpt-5.1.description": "GPT-5.1 — 코딩 및 에이전트 작업에 최적화된 플래그십 모델로, 구성 가능한 추론 노력과 긴 컨텍스트를 지원합니다.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat은 최신 대화 개선 기능을 체험할 수 있는 ChatGPT 변형(chat-latest)입니다.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: 더 어려운 문제와 긴 다중 턴 추론에 적합한 더 똑똑하고 정밀한 GPT-5.2 변형 모델입니다. (Responses API 전용)",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat은 최신 대화 기능이 반영된 ChatGPT 변형 모델입니다.",
"gpt-5.2-pro.description": "GPT-5.2 Pro는 더 똑똑하고 정밀한 GPT-5.2 변형 모델로, 복잡한 문제 해결과 장기 다중 턴 추론에 적합합니다. (Responses API 전용)",
"gpt-5.2.description": "GPT-5.2는 더 강력한 추론 능력과 긴 컨텍스트 성능을 갖춘 코딩 및 에이전트 워크플로우용 플래그십 모델입니다.",
"gpt-5.description": "도메인 간 코딩 및 에이전트 작업에 가장 적합한 모델입니다. GPT-5는 정확성, 속도, 추론, 컨텍스트 인식, 구조적 사고, 문제 해결에서 비약적인 발전을 이뤘습니다.",
"gpt-audio.description": "GPT Audio는 오디오 입출력을 지원하는 일반 대화형 모델로, Chat Completions API에서 사용 가능합니다.",
@ -906,6 +904,26 @@
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B)는 대규모 데이터 처리에 적합한 높은 용량을 제공합니다.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B는 추론 속도를 높이는 희소 MoE 모델로, 다국어 및 코드 생성 작업에 적합합니다.",
"mistralai/mistral-nemo.description": "Mistral Nemo는 7.3B 모델로, 다국어 지원과 강력한 코딩 성능을 제공합니다.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B는 복잡한 작업을 위한 장애 허용 병렬 연산을 제공합니다.",
"mixtral.description": "Mixtral은 Mistral AI의 MoE 모델로, 오픈 가중치를 제공하며 코드 생성과 언어 이해를 지원합니다.",
"mixtral:8x22b.description": "Mixtral은 Mistral AI의 MoE 모델로, 오픈 가중치를 제공하며 코드 생성과 언어 이해를 지원합니다.",
"moonshot-v1-128k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
"moonshot-v1-128k.description": "Moonshot V1 128K는 최대 128,000 토큰을 처리할 수 있는 초장문 컨텍스트를 제공하여 연구, 학술, 대형 문서 시나리오에 적합합니다.",
"moonshot-v1-32k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
"moonshot-v1-32k.description": "Moonshot V1 32K는 32,768 토큰을 지원하는 중간 길이 컨텍스트 모델로, 콘텐츠 제작, 보고서, 대화 시스템에서 긴 문서와 복잡한 대화에 적합합니다.",
"moonshot-v1-8k-vision-preview.description": "Kimi 비전 모델(moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview 포함)은 텍스트, 색상, 객체 형태 등 이미지 내용을 이해할 수 있습니다.",
"moonshot-v1-8k.description": "Moonshot V1 8K는 짧은 텍스트 생성을 위해 최적화된 모델로, 8,192 토큰을 처리하며 짧은 대화, 메모, 빠른 콘텐츠 생성에 적합합니다.",
"moonshot-v1-auto.description": "Moonshot V1 Auto는 현재 컨텍스트 토큰 사용량에 따라 적절한 모델을 자동으로 선택합니다.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B는 대규모 강화학습을 통해 최적화된 오픈소스 코드 LLM으로, 견고하고 실용적인 패치를 생성합니다. SWE-bench Verified에서 60.4%를 기록하며 버그 수정 및 코드 리뷰와 같은 자동화 소프트웨어 엔지니어링 작업에서 오픈모델 최고 기록을 세웠습니다.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 가장 최신이자 강력한 Kimi K2 모델로, 총 1조 파라미터 중 320억이 활성화되는 최상급 MoE 모델입니다. 벤치마크 및 실제 에이전트 작업에서 뛰어난 Agentic Coding 지능을 보이며, 프론트엔드 코드의 미적 품질과 사용성도 향상되었습니다.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking은 최신이자 가장 강력한 오픈소스 사고 모델로, 다단계 추론 깊이를 크게 확장하고 200~300회 연속 도구 사용에서도 안정적인 성능을 유지합니다. HLE, BrowseComp 등에서 새로운 기록을 세우며, 코딩, 수학, 논리, 에이전트 시나리오에 탁월합니다. 약 1조 파라미터의 MoE 아키텍처 기반으로, 256K 컨텍스트 윈도우와 도구 호출을 지원합니다.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711은 Kimi 시리즈의 Instruct 변형으로, 고품질 코드 작성과 도구 사용에 적합합니다.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905는 컨텍스트 확장과 추론 성능 향상을 위한 업데이트로, 코딩 최적화가 포함되어 있습니다.",
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 모델은 256K 컨텍스트 윈도우를 지원하며, 향상된 Agentic Coding, 더 정제되고 실용적인 프론트엔드 코드, 뛰어난 컨텍스트 이해력을 제공합니다.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo는 Kimi K2 Thinking의 고속 버전으로, 지연 시간을 크게 줄이면서도 깊은 추론 능력을 유지합니다.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking은 Moonshot의 추론 모델로, 깊은 추론 작업에 최적화되어 있으며 일반적인 에이전트 기능을 지원합니다.",
"moonshotai/kimi-k2.description": "Kimi K2는 Moonshot AI의 대형 MoE 모델로, 총 1조 파라미터 중 320억이 활성화되며, 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.",
"morph/morph-v3-fast.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경을 기존 파일에 적용하는 특화 모델로, 초당 4,500+ 토큰의 속도를 자랑합니다. AI 코딩 워크플로우의 마지막 단계로, 16K 입력/출력을 지원합니다.",
"morph/morph-v3-large.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경 사항을 기존 파일에 빠르게 적용할 수 있도록 특화된 모델입니다. 초당 2500개 이상의 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계로 16K 입력/출력 토큰을 지원합니다.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 최신 버전으로, 내부에서 개발한 최신 데이터셋을 기반으로 업데이트되었습니다.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B는 NVIDIA가 사용자 응답의 유용성을 향상시키기 위해 맞춤 제작한 LLM입니다. Arena Hard, AlpacaEval 2 LC, GPT-4-Turbo MT-Bench에서 모두 1위를 기록하며, 2024년 10월 1일 기준 자동 정렬 벤치마크에서 최고의 성능을 보입니다. 이 모델은 Llama-3.1-70B-Instruct를 기반으로 RLHF(REINFORCE), Llama-3.1-Nemotron-70B-Reward, HelpSteer2-Preference 프롬프트를 활용해 학습되었습니다.",
@ -946,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini는 GPT-5.1-Codex의 소형, 고속 버전으로, 지연 시간과 비용에 민감한 코딩 시나리오에 적합합니다.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex는 소프트웨어 엔지니어링 및 코딩 워크플로우에 최적화된 GPT-5.1 변형으로, 대규모 리팩터링, 복잡한 디버깅, 장기 자율 코딩 작업에 적합합니다.",
"openai/gpt-5.1.description": "GPT-5.1은 GPT-5 시리즈의 최신 대표 모델로, 일반 추론, 지시 따르기, 대화 자연스러움에서 GPT-5 대비 큰 향상을 이루었으며, 다양한 작업에 적합합니다.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat은 최신 대화 기능을 체험할 수 있는 ChatGPT 변형 모델입니다.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro는 더 똑똑하고 정밀한 GPT-5.2 변형 모델로, 복잡한 문제 해결과 장기 다중 턴 추론에 적합합니다. (Responses API 전용)",
"openai/gpt-5.2.description": "GPT-5.2는 향상된 추론 능력과 장문 컨텍스트 성능을 갖춘 코딩 및 에이전트 워크플로우용 플래그십 모델입니다.",
"openai/gpt-5.description": "GPT-5는 OpenAI의 고성능 모델로, 다양한 생산 및 연구 작업에 적합합니다.",
"openai/gpt-oss-120b.description": "강력하고 제어 가능한 추론 능력을 갖춘 범용 LLM입니다.",
"openai/gpt-oss-20b.description": "지연 시간과 자원 제약 환경(로컬 및 엣지 배포 포함)에 최적화된 소형 오픈 가중치 언어 모델입니다.",
@ -960,6 +981,7 @@
"openai/text-embedding-3-large.description": "OpenAI의 가장 강력한 임베딩 모델로, 영어 및 비영어 작업 모두에 적합합니다.",
"openai/text-embedding-3-small.description": "OpenAI의 향상된 고성능 ada 임베딩 모델 변형입니다.",
"openai/text-embedding-ada-002.description": "OpenAI의 레거시 텍스트 임베딩 모델입니다.",
"openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.",
"qwen/qwen3-14b:free.description": "Qwen3-14B는 복잡한 추론과 효율적인 대화를 위해 설계된 148억 매개변수의 밀집형 인과 LLM입니다. 수학, 코딩, 논리를 위한 사고 모드와 일반 대화를 위한 비사고 모드 간 전환이 가능합니다. 100개 이상의 언어와 방언에 걸쳐 지시 따르기, 에이전트 도구 사용, 창의적 글쓰기에 최적화되어 있습니다. 기본적으로 32K 컨텍스트를 처리하며 YaRN을 통해 131K까지 확장됩니다.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507은 Qwen3 시리즈의 Instruct 변형으로, 다국어 지시 수행과 장문 컨텍스트 시나리오 간의 균형을 이룹니다.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507은 복잡한 수학 및 추론 작업에 강화된 Qwen3의 사고 중심 변형입니다.",
@ -1099,7 +1121,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air는 비용에 민감한 시나리오를 위한 경량 모델로, 강력한 추론 능력을 유지합니다.",
"z-ai/glm-4.5.description": "GLM 4.5는 Z.AI의 대표 모델로, 하이브리드 추론이 가능하며, 엔지니어링 및 장문 컨텍스트 작업에 최적화되어 있습니다.",
"z-ai/glm-4.6.description": "GLM 4.6은 Z.AI의 대표 모델로, 확장된 컨텍스트 길이와 향상된 코딩 기능을 제공합니다.",
"zai-glm-4.6.description": "코딩 및 추론 작업에서 뛰어난 성능을 발휘하며, 스트리밍 및 도구 호출을 지원하고, 에이전트 기반 코딩 및 복잡한 추론에 적합합니다.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5.description": "GLM-4.5는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 깊이 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5V.description": "GLM-4.5V는 GLM-4.5-Air 기반의 최신 VLM으로, 106B 총 파라미터(12B 활성)를 갖춘 MoE 아키텍처를 사용하여 낮은 비용으로 강력한 성능을 제공합니다. GLM-4.1V-Thinking 경로를 따르며, 3D-RoPE를 추가하여 3D 공간 추론을 향상시켰습니다. 사전학습, SFT, RL을 통해 최적화되었으며, 이미지, 비디오, 장문 문서를 처리할 수 있습니다. 41개 공개 멀티모달 벤치마크에서 오픈 모델 중 최고 순위를 기록했습니다. Thinking 모드 전환 기능을 통해 속도와 깊이를 조절할 수 있습니다.",

View file

@ -29,7 +29,6 @@
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
"lobehub.description": "LobeHub Cloud는 공식 API를 사용하여 AI 모델에 접근하며, 모델 토큰에 연동된 크레딧을 통해 사용량을 측정합니다.",
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "첫 번째 예약 작업을 생성하여 에이전트를 자동화하세요",
"agentCronJobs.empty.title": "예약 작업이 없습니다",
"agentCronJobs.enable": "활성화",
"agentCronJobs.form.at": "다음 시간에",
"agentCronJobs.form.content.placeholder": "에이전트에게 줄 프롬프트나 지시사항을 입력하세요",
"agentCronJobs.form.every": "매",
"agentCronJobs.form.frequency": "빈도",
"agentCronJobs.form.hours": "시간",
"agentCronJobs.form.maxExecutions": "다음 횟수 후 중지",
"agentCronJobs.form.maxExecutions.placeholder": "무제한으로 설정하려면 비워두세요",
"agentCronJobs.form.name.placeholder": "작업 이름을 입력하세요",
"agentCronJobs.form.time": "시간",
"agentCronJobs.form.timeRange.end": "종료 시간",
"agentCronJobs.form.timeRange.start": "시작 시간",
"agentCronJobs.form.times": "회",
"agentCronJobs.form.timezone": "시간대",
"agentCronJobs.form.unlimited": "계속 실행",
"agentCronJobs.form.validation.contentRequired": "작업 내용은 필수입니다",
"agentCronJobs.form.validation.invalidTimeRange": "시작 시간은 종료 시간보다 이전이어야 합니다",
"agentCronJobs.form.validation.nameRequired": "작업 이름은 필수입니다",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "화요일",
"agentCronJobs.weekday.wednesday": "수요일",
"agentCronJobs.weekdays": "평일",
"agentCronJobs.weekdays.fri": "금",
"agentCronJobs.weekdays.mon": "월",
"agentCronJobs.weekdays.sat": "토",
"agentCronJobs.weekdays.sun": "일",
"agentCronJobs.weekdays.thu": "목",
"agentCronJobs.weekdays.tue": "화",
"agentCronJobs.weekdays.wed": "수",
"agentInfoDescription.basic.avatar": "아바타",
"agentInfoDescription.basic.description": "설명",
"agentInfoDescription.basic.name": "이름",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Dit e-mailadres is gekoppeld aan een verwijderd account en kan niet worden gebruikt voor registratie",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "E-mailadres kan niet worden bijgewerkt voor dit account",
"codes.EMAIL_NOT_ALLOWED": "E-mailadres niet toegestaan voor registratie",
"codes.EMAIL_NOT_FOUND": "Geen e-mailadres gekoppeld aan dit account. Controleer of er een e-mailadres aan je account is gekoppeld.",
"codes.EMAIL_NOT_VERIFIED": "Verifieer eerst je e-mailadres",
"codes.FAILED_TO_CREATE_SESSION": "Sessie aanmaken mislukt",
"codes.FAILED_TO_CREATE_USER": "Gebruiker aanmaken mislukt",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Een model met 7 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
"Phi-3.5-mini-instruct.description": "Een bijgewerkte versie van het Phi-3-mini model.",
"Phi-3.5-vision-instrust.description": "Een bijgewerkte versie van het Phi-3-vision model.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 is een open-source groot taalmodel geoptimaliseerd voor agent-capaciteiten, uitblinkend in programmeren, gebruik van tools, het volgen van instructies en langetermijnplanning. Het model ondersteunt meertalige softwareontwikkeling en de uitvoering van complexe workflows in meerdere stappen, behaalt een score van 74,0 op SWE-bench Verified en overtreft Claude Sonnet 4.5 in meertalige scenarios.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct is een 7 miljard parameter instructie-afgesteld LLM uit de Qwen2-serie. Het gebruikt een Transformer-architectuur met SwiGLU, attention QKV-bias en gegroepeerde query-attentie, en verwerkt grote invoer. Het presteert sterk op taalbegrip, generatie, meertalige taken, programmeren, wiskunde en redeneren, en overtreft de meeste open modellen en concurreert met gesloten modellen. Het presteert beter dan Qwen1.5-7B-Chat op meerdere benchmarks.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct maakt deel uit van de nieuwste LLM-serie van Alibaba Cloud. Het 7 miljard model biedt aanzienlijke verbeteringen in programmeren en wiskunde, ondersteunt meer dan 29 talen en verbetert het volgen van instructies, begrip van gestructureerde data en gestructureerde output (vooral JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct is het nieuwste codegerichte LLM van Alibaba Cloud. Gebouwd op Qwen2.5 en getraind op 5,5 biljoen tokens, verbetert het aanzienlijk de codegeneratie, redenering en foutcorrectie, terwijl het sterke prestaties behoudt op het gebied van wiskunde en algemene taken. Het biedt een solide basis voor code-agents.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt, met ondersteuning voor directe reacties of diepgaand denken met verfijnde controle.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen. Sonnet blinkt uit in coderen, datawetenschap, visuele taken en agenttoepassingen.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle prestaties en diepgaand denkvermogen.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en geavanceerde redeneercapaciteiten.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitstekende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is tot nu toe het meest intelligente model van Anthropic, met directe reacties of stapsgewijs denken en verfijnde controle voor API-gebruikers.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenarios en is een topmodel onder de 10 miljard parameters.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp is een experimentele V3.2-release die de brug slaat naar de volgende architectuur. Het voegt DeepSeek Sparse Attention (DSA) toe bovenop V3.1-Terminus om de efficiëntie van training en inferentie met lange context te verbeteren, met optimalisaties voor toolgebruik, begrip van lange documenten en meerstapsredenering. Ideaal voor het verkennen van hogere redeneerefficiëntie met grote contextbudgetten.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte training en inferentie. Voorgetraind op 14,8T hoogwaardige tokens met SFT en RL, overtreft het andere open modellen en benadert het toonaangevende gesloten modellen.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.",
"deepseek-ai/deepseek-r1.description": "Een geavanceerd, efficiënt LLM dat sterk is in redenering, wiskunde en programmeren.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
"deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende prestaties in open-source agentbeoordelingen.",
"deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeercapaciteiten combineert. Het behoudt de algemene dialoogvaardigheden van het chatmodel en de sterke programmeerprestaties van het coderingsmodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het volgen van instructies.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een geavanceerd redeneermodel dat eerst een denkproces genereert voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een denkproces vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks codegerichte model met sterke codegeneratie.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde consistentie van onderwerpen, nauwkeurige opvolging van instructies, ruimtelijk inzicht, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor hoogwaardige, goed controleerbare beeldgeneratie op basis van prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed, dat tekst- en afbeeldingsinvoer ondersteunt en zeer controleerbare, hoogwaardige beelden genereert op basis van tekstprompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team, met ondersteuning voor semantische en uiterlijke bewerkingen, nauwkeurige tekstbewerking in het Chinees/Engels, stijltransformatie, rotatie en meer.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstrendering en diverse visuele stijlen.",
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen zoals stijltransfers en objectrotatie uitvoert.",
"fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 14 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat gespreksgerichte beeldgeneratie en -bewerking mogelijk maakt.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat gespreksgerichte beeldgeneratie en -bewerking mogelijk maakt.",
"gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het afbeeldingsgeneratiemodel van Google en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max is de meest complete versie, met ondersteuning voor webzoekopdrachten en veel ingebouwde plug-ins. De volledig geoptimaliseerde kernfuncties, systeemrollen en functieaanroepen zorgen voor uitstekende prestaties in complexe toepassingsscenario's.",
"generalv3.description": "Spark Pro is een krachtig LLM-model dat is geoptimaliseerd voor professionele domeinen, met focus op wiskunde, programmeren, gezondheidszorg en onderwijs. Het ondersteunt webzoekopdrachten en ingebouwde plug-ins zoals weer en datum. Het levert sterke prestaties en efficiëntie in complexe kennisvragen, taalbegrip en geavanceerde tekstcreatie, en is daarmee ideaal voor professioneel gebruik.",
"glm-4-0520.description": "GLM-4-0520 is de nieuwste modelversie, ontworpen voor zeer complexe en diverse taken met uitstekende prestaties.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 is een algemeen GLM-model dat multi-task tekstgeneratie en -begrip ondersteunt.",
"glm-4-7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu AI. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenarios, en behaalt toonaangevende prestaties onder open-source modellen op meerdere benchmarks. Algemene capaciteiten zijn verbeterd, met natuurlijkere en beknoptere antwoorden en meeslepender schrijfvaardigheid. Bij complexe agenttaken is het volgen van instructies tijdens toolgebruik sterker, en de esthetiek van Artifacts en de Agentic Coding-frontend, evenals de efficiëntie van langetermijnuitvoering, zijn verder verbeterd. • Sterkere programmeercapaciteiten: aanzienlijk verbeterde meertalige codeerprestaties en terminalagentprestaties; GLM-4.7 kan nu \"eerst denken, dan handelen\" implementeren in programmeerframeworks zoals Claude Code, Kilo Code, TRAE, Cline en Roo Code, met stabielere prestaties bij complexe taken. • Verbetering van frontend-esthetiek: GLM-4.7 toont aanzienlijke vooruitgang in de kwaliteit van frontendgeneratie, en kan websites, presentaties en posters genereren met betere visuele aantrekkingskracht. • Sterkere toolintegratie: GLM-4.7 verbetert het gebruik van tools, scoort 67 in de BrowseComp-webtaakevaluatie en behaalt 84,7 in de τ²-Bench-evaluatie voor interactieve toolintegratie, waarmee het Claude Sonnet 4.5 overtreft als open-source SOTA. • Verbeterde redeneercapaciteit: aanzienlijk verbeterde wiskundige en logische vaardigheden, met een score van 42,8% op de HLE (\"Humanity's Last Exam\") benchmark, een verbetering van 41% ten opzichte van GLM-4.6, en beter dan GPT-5.1. • Algemene capaciteitsverbetering: GLM-4.7-gesprekken zijn beknopter, intelligenter en menselijker; schrijven en rollenspel zijn literairer en meeslepender.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat presteert sterk op semantiek, wiskunde, redeneren, code en kennis. Het ondersteunt ook webbrowseren, code-uitvoering, aangepaste toolaanroepen en redeneren over lange teksten, met ondersteuning voor 26 talen waaronder Japans, Koreaans en Duits.",
"glm-4-air-250414.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
"glm-4-air.description": "GLM-4-Air is een voordelige optie met prestaties dicht bij GLM-4, hoge snelheid en lagere kosten.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking is het krachtigste bekende ~10B VLM-model, geschikt voor SOTA-taken zoals videobegrip, beeldvragen, vakoplossingen, OCR, document- en grafieklezen, GUI-agents, frontend-codering en grounding. Het overtreft zelfs het 8x grotere Qwen2.5-VL-72B op veel taken. Met geavanceerde RL gebruikt het keten-van-gedachten-redenering om nauwkeurigheid en rijkdom te verbeteren, en presteert het beter dan traditionele niet-denkende modellen in zowel resultaten als uitlegbaarheid.",
"glm-4.5-air.description": "GLM-4.5 lichte editie die prestaties en kosten in balans brengt, met flexibele hybride denkmodi.",
"glm-4.5-airx.description": "GLM-4.5-Air snelle editie met snellere reacties voor grootschalig, snel gebruik.",
"glm-4.5-flash.description": "Gratis GLM-4.5-laag met sterke prestaties in redeneren, coderen en agenttaken.",
"glm-4.5-x.description": "GLM-4.5 snelle editie, met sterke prestaties en generatiesnelheden tot 100 tokens/seconde.",
"glm-4.5.description": "Zhipu vlaggenschipmodel met schakelbare denkmodus, levert open-source SOTA-prestaties en tot 128K context.",
"glm-4.5v.description": "Zhipus volgende generatie MoE-visie-redeneermodel met 106B totale parameters en 12B actief, bereikt SOTA onder vergelijkbare open-source multimodale modellen voor beeld-, video-, documentbegrip en GUI-taken.",
"glm-4.6.description": "GLM-4.6 (355B) is het nieuwste vlaggenschipmodel van Zhipu en overtreft zijn voorgangers volledig op het gebied van geavanceerde codering, verwerking van lange teksten, redeneren en agentfunctionaliteit. Het is bijzonder krachtig in programmeertaken en vergelijkbaar met Claude Sonnet 4, waarmee het het toonaangevende codeermodel van China is geworden.",
"glm-4.7-flash.description": "GLM-4.7-Flash is een SOTA-model op 30B-niveau dat prestaties en efficiëntie in balans brengt. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenarios, en behaalt toonaangevende prestaties onder open-source modellen van vergelijkbare grootte op meerdere benchmarks. Bij het uitvoeren van complexe agenttaken volgt het instructies beter tijdens toolgebruik, en verbetert het de esthetiek van de frontend en de efficiëntie van langetermijnuitvoering voor Artifacts en Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash is een SOTA-model op 30B-niveau dat prestaties en efficiëntie in balans brengt. Het verbetert programmeercapaciteiten, langetermijnplanning en samenwerking met tools voor Agentic Coding-scenarios, en behaalt toonaangevende prestaties onder open-source modellen van vergelijkbare grootte op meerdere benchmarks. Bij het uitvoeren van complexe agenttaken volgt het instructies beter tijdens toolgebruik, en verbetert het de esthetiek van de frontend en de efficiëntie van langetermijnuitvoering voor Artifacts en Agentic Coding.",
"glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu, geoptimaliseerd voor Agentic Coding-scenarios met verbeterde codeercapaciteiten, langetermijnplanning en samenwerking met tools. Het levert toonaangevende prestaties onder open-source modellen op meerdere publieke benchmarks. De algemene capaciteiten zijn verbeterd met beknoptere en natuurlijkere antwoorden en meeslepender schrijfvaardigheid. Bij complexe agenttaken is het volgen van instructies tijdens toolgebruik sterker, en zijn de frontend-esthetiek en efficiëntie bij langetermijntaken in Artifacts en Agentic Coding verder verbeterd.",
"glm-4.description": "GLM-4 is het oudere vlaggenschipmodel dat in januari 2024 werd uitgebracht en inmiddels is vervangen door het krachtigere GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash richt zich op efficiënte interpretatie van enkele afbeeldingen voor snelle analyses, zoals realtime- of batchverwerking van beelden.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: een kleinere, goedkopere Codex-variant geoptimaliseerd voor agentmatige programmeertaken.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: een GPT-5.1-variant geoptimaliseerd voor agentmatige programmeertaken, geschikt voor complexe code-/agentworkflows in de Responses API.",
"gpt-5.1.description": "GPT-5.1 — een toonaangevend model geoptimaliseerd voor programmeren en agenttaken met configureerbare redeneercapaciteit en langere context.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is de ChatGPT-variant (chat-latest) om de nieuwste verbeteringen in conversatie te ervaren.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, preciezer GPT-5.2-model (alleen via Responses API), geschikt voor moeilijkere problemen en langere redeneerketens.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat is de ChatGPT-variant (chat-latest) met de nieuwste verbeteringen in conversatie.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, nauwkeuriger GPT-5.2-variant (alleen Responses API), geschikt voor moeilijke problemen en langere redeneringen over meerdere beurten.",
"gpt-5.2.description": "GPT-5.2 is een toonaangevend model voor programmeren en agentworkflows met sterkere redeneercapaciteit en prestaties bij lange contexten.",
"gpt-5.description": "Het beste model voor domeinoverstijgende programmeer- en agenttaken. GPT-5 biedt sprongen in nauwkeurigheid, snelheid, redeneervermogen, contextbewustzijn, gestructureerd denken en probleemoplossing.",
"gpt-audio.description": "GPT Audio is een algemeen chatmodel voor audio-invoer/-uitvoer, ondersteund in de Chat Completions API.",
@ -906,6 +904,9 @@
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) biedt hoge capaciteit voor grootschalige gegevensverwerking.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B is een spars MoE-model dat de inferentiesnelheid verhoogt, geschikt voor meertalige en codegeneratietaken.",
"mistralai/mistral-nemo.description": "Mistral Nemo is een 7.3B-model met meertalige ondersteuning en sterke programmeerprestaties.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B biedt fouttolerante parallelle verwerking voor complexe taken.",
"mixtral.description": "Mixtral is het MoE-model van Mistral AI met open gewichten, dat codegeneratie en taalbegrip ondersteunt.",
"mixtral:8x22b.description": "Mixtral is het MoE-model van Mistral AI met open gewichten, dat codegeneratie en taalbegrip ondersteunt.",
"moonshot-v1-128k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
"moonshot-v1-128k.description": "Moonshot V1 128K biedt een ultralange context voor het genereren van zeer lange teksten, met ondersteuning tot 128.000 tokens voor onderzoeks-, academische en grootschalige documenttoepassingen.",
"moonshot-v1-32k-vision-preview.description": "Kimi vision-modellen (waaronder moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) begrijpen beeldinhoud zoals tekst, kleuren en objectvormen.",
@ -941,6 +942,34 @@
"o4-mini-2025-04-16.description": "o4-mini is een OpenAI redeneermodel met tekst+beeldinvoer en tekstuitvoer, geschikt voor complexe taken die brede kennis vereisen, met een contextvenster van 200K.",
"o4-mini-deep-research.description": "o4-mini-deep-research is een sneller en betaalbaarder model voor diepgaand onderzoek bij complexe meerstapstaken. Het kan het web doorzoeken en ook toegang krijgen tot je gegevens via MCP-connectors.",
"o4-mini.description": "o4-mini is het nieuwste kleine model in de o-serie, geoptimaliseerd voor snelle, effectieve redenering met hoge efficiëntie in codeer- en visietaken.",
"open-codestral-mamba.description": "Codestral Mamba is een Mamba 2-taalmodel gericht op codegeneratie, geschikt voor geavanceerde programmeer- en redeneertaken.",
"open-mistral-7b.description": "Mistral 7B is compact maar krachtig, sterk in batchverwerking en eenvoudige taken zoals classificatie en tekstgeneratie, met solide redeneervermogen.",
"open-mistral-nemo.description": "Mistral Nemo is een 12B-model mede ontwikkeld met Nvidia, met sterke prestaties in redeneren en programmeren en eenvoudige integratie.",
"open-mixtral-8x22b.description": "Mixtral 8x22B is een groter MoE-model voor complexe taken, met sterk redeneervermogen en hogere verwerkingssnelheid.",
"open-mixtral-8x7b.description": "Mixtral 8x7B is een spars MoE-model dat de inferentiesnelheid verhoogt, geschikt voor meertalige en codegeneratietaken.",
"openai/gpt-3.5-turbo-instruct.description": "Vergelijkbare capaciteiten als GPT-3-modellen, compatibel met oudere completion-eindpunten in plaats van chat.",
"openai/gpt-3.5-turbo.description": "OpenAIs meest capabele en kosteneffectieve GPT-3.5-model, geoptimaliseerd voor chat maar ook sterk in klassieke completions.",
"openai/gpt-4-turbo.description": "OpenAIs gpt-4-turbo beschikt over brede algemene kennis en domeinexpertise, volgt complexe natuurlijke taalopdrachten en lost moeilijke problemen nauwkeurig op. Kennisgrens is april 2023 met een contextvenster van 128k.",
"openai/gpt-4.1-mini.description": "GPT-4.1 Mini biedt lagere latentie en betere waarde voor werklasten met gemiddelde context.",
"openai/gpt-4.1-nano.description": "GPT-4.1 Nano is een ultragoedkope, laag-latentieoptie voor korte chats met hoge frequentie of classificatie.",
"openai/gpt-4.1.description": "De GPT-4.1-serie biedt grotere contextvensters en sterkere technische en redeneercapaciteiten.",
"openai/gpt-4o-mini.description": "GPT-4o-mini is een snelle, kleine GPT-4o-variant voor multimodale toepassingen met lage latentie.",
"openai/gpt-4o.description": "De GPT-4o-familie is OpenAIs Omni-model met tekst + beeldinvoer en tekstuitvoer.",
"openai/gpt-5-chat.description": "GPT-5 Chat is een GPT-5-variant geoptimaliseerd voor gesprekken met lagere latentie voor betere interactiviteit.",
"openai/gpt-5-codex.description": "GPT-5-Codex is een GPT-5-variant verder geoptimaliseerd voor programmeren en grootschalige codeworkflows.",
"openai/gpt-5-mini.description": "GPT-5 Mini is een kleinere GPT-5-variant voor scenarios met lage latentie en lage kosten.",
"openai/gpt-5-nano.description": "GPT-5 Nano is de ultrakleine variant voor scenarios met strikte kosten- en latentie-eisen.",
"openai/gpt-5-pro.description": "GPT-5 Pro is OpenAIs vlaggenschipmodel met sterker redeneervermogen, codegeneratie en functies op ondernemingsniveau, met test-time routing en strengere veiligheidsmaatregelen.",
"openai/gpt-5.1-chat.description": "GPT-5.1 Chat is het lichtgewicht lid van de GPT-5.1-familie, geoptimaliseerd voor gesprekken met lage latentie en behoud van sterk redeneervermogen en instructie-uitvoering.",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini is een kleinere, snellere versie van GPT-5.1-Codex, beter voor latency- en kostenkritische programmeerscenarios.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex is een GPT-5.1-variant geoptimaliseerd voor softwareontwikkeling en programmeerworkflows, geschikt voor grote refactors, complexe debugging en langdurige autonome coderingstaken.",
"openai/gpt-5.1.description": "GPT-5.1 is het nieuwste vlaggenschip in de GPT-5-serie, met aanzienlijke verbeteringen ten opzichte van GPT-5 in algemeen redeneervermogen, instructievolging en natuurlijke conversatie, geschikt voor brede toepassingen.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat is de ChatGPT-variant om de nieuwste verbeteringen in conversatie te ervaren.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: een slimmer, nauwkeuriger GPT-5.2-variant (alleen Responses API), geschikt voor moeilijkere problemen en langere redeneringen over meerdere beurten.",
"openai/gpt-5.2.description": "GPT-5.2 is een vlaggenschipmodel voor programmeren en agent-workflows met sterker redeneervermogen en prestaties op lange contexten.",
"openai/gpt-5.description": "GPT-5 is OpenAIs krachtige model voor een breed scala aan productie- en onderzoekstaken.",
"openai/gpt-oss-120b.description": "Een zeer capabel algemeen LLM met sterk, controleerbaar redeneervermogen.",
"openai/gpt-oss-20b.description": "Een compact taalmodel met open gewichten, geoptimaliseerd voor lage latentie en omgevingen met beperkte middelen, inclusief lokale en edge-implementaties.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B is een multimodaal model gebaseerd op Llama voor algemene beeld-tekstbegrip.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR is een OCR-model voor meerdere afbeeldingen dat tekst detecteert en herkent in verschillende beelden.",
"qianfan-qi-vl.description": "Qianfan QI VL is een multimodaal vraag-en-antwoordmodel voor nauwkeurige informatieopvraging en beantwoording in complexe beeld-tekstscenario's.",
@ -1076,7 +1105,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air is een lichtgewicht variant van GLM 4.5 voor kostenbewuste scenarios, met behoud van sterke redeneercapaciteiten.",
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AIs vlaggenschipmodel met hybride redenering, geoptimaliseerd voor engineering- en lang-contexttaken.",
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's vlaggenschipmodel met uitgebreide contextlengte en codeercapaciteiten.",
"zai-glm-4.6.description": "Presteert goed op codeer- en redeneertaken, ondersteunt streaming en toolgebruik, en is geschikt voor agentgebaseerd coderen en complexe redenering.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is een basismodel voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenarios aan te kunnen.",
"zai-org/GLM-4.5.description": "GLM-4.5 is een basismodel gebouwd voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is diepgaand geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenarios aan te kunnen.",
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AIs nieuwste VLM, gebaseerd op het GLM-4.5-Air vlaggenschiptekstmodel (106B totaal, 12B actief) met een MoE-architectuur voor sterke prestaties tegen lagere kosten. Het volgt het GLM-4.1V-Thinking pad en voegt 3D-RoPE toe voor verbeterde 3D-ruimtelijke redenering. Geoptimaliseerd via pretraining, SFT en RL, verwerkt het beelden, videos en lange documenten en scoort het hoog op 41 openbare multimodale benchmarks. Een Thinking-modus schakelaar laat gebruikers kiezen tussen snelheid en diepgang.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLMs op je eigen computer.",
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Maak je eerste geplande taak aan om je agent te automatiseren",
"agentCronJobs.empty.title": "Nog geen geplande taken",
"agentCronJobs.enable": "Inschakelen",
"agentCronJobs.form.at": "om",
"agentCronJobs.form.content.placeholder": "Voer de prompt of instructie voor de agent in",
"agentCronJobs.form.every": "Elke",
"agentCronJobs.form.frequency": "Frequentie",
"agentCronJobs.form.hours": "uur",
"agentCronJobs.form.maxExecutions": "Stop na",
"agentCronJobs.form.maxExecutions.placeholder": "Laat leeg voor onbeperkt",
"agentCronJobs.form.name.placeholder": "Voer de naam van de taak in",
"agentCronJobs.form.time": "Tijd",
"agentCronJobs.form.timeRange.end": "Eindtijd",
"agentCronJobs.form.timeRange.start": "Starttijd",
"agentCronJobs.form.times": "keer",
"agentCronJobs.form.timezone": "Tijdzone",
"agentCronJobs.form.unlimited": "Continu uitvoeren",
"agentCronJobs.form.validation.contentRequired": "Taakinstructie is verplicht",
"agentCronJobs.form.validation.invalidTimeRange": "Starttijd moet vóór de eindtijd liggen",
"agentCronJobs.form.validation.nameRequired": "Taaknaam is verplicht",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Dinsdag",
"agentCronJobs.weekday.wednesday": "Woensdag",
"agentCronJobs.weekdays": "Weekdagen",
"agentCronJobs.weekdays.fri": "Vr",
"agentCronJobs.weekdays.mon": "Ma",
"agentCronJobs.weekdays.sat": "Za",
"agentCronJobs.weekdays.sun": "Zo",
"agentCronJobs.weekdays.thu": "Do",
"agentCronJobs.weekdays.tue": "Di",
"agentCronJobs.weekdays.wed": "Wo",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Beschrijving",
"agentInfoDescription.basic.name": "Naam",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Ten adres e-mail jest powiązany z usuniętym kontem i nie może być użyty do rejestracji",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Nie można zaktualizować adresu e-mail dla tego konta",
"codes.EMAIL_NOT_ALLOWED": "Rejestracja z tym adresem e-mail jest niedozwolona",
"codes.EMAIL_NOT_FOUND": "Brak adresu e-mail powiązanego z tym kontem. Sprawdź, czy Twoje konto ma przypisany adres e-mail.",
"codes.EMAIL_NOT_VERIFIED": "Najpierw zweryfikuj swój adres e-mail",
"codes.FAILED_TO_CREATE_SESSION": "Nie udało się utworzyć sesji",
"codes.FAILED_TO_CREATE_USER": "Nie udało się utworzyć użytkownika",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Model z 7 mld parametrów, o wyższej jakości niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
"Phi-3.5-mini-instruct.description": "Zaktualizowana wersja modelu Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Zaktualizowana wersja modelu Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 to otwartoźródłowy duży model językowy zoptymalizowany pod kątem możliwości działania jako agent, wyróżniający się w programowaniu, korzystaniu z narzędzi, wykonywaniu poleceń i długoterminowym planowaniu. Model wspiera wielojęzyczne tworzenie oprogramowania i realizację złożonych, wieloetapowych procesów, osiągając wynik 74,0 w teście SWE-bench Verified i przewyższając Claude Sonnet 4.5 w scenariuszach wielojęzycznych.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct to 7-miliardowy model LLM z serii Qwen2, dostrojony do instrukcji. Wykorzystuje architekturę Transformera z SwiGLU, biasem QKV i grupowaną uwagę zapytań, obsługuje duże wejścia. Wyróżnia się w rozumieniu języka, generowaniu, zadaniach wielojęzycznych, kodowaniu, matematyce i rozumowaniu, przewyższając większość modeli otwartych i konkurując z zamkniętymi. Przewyższa Qwen1.5-7B-Chat w wielu testach.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct to część najnowszej serii LLM Alibaba Cloud. Model 7B przynosi znaczące ulepszenia w kodowaniu i matematyce, obsługuje ponad 29 języków i poprawia wykonywanie instrukcji, rozumienie danych strukturalnych i generowanie strukturalnych wyników (szczególnie JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct to najnowszy model LLM Alibaba Cloud skoncentrowany na kodzie. Zbudowany na bazie Qwen2.5 i wytrenowany na 5,5 bln tokenów, znacząco poprawia generowanie kodu, rozumowanie i naprawę, zachowując mocne strony w matematyce i ogólnych zadaniach, stanowiąc solidną bazę dla agentów kodujących.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji firmy Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, oferujący błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej zaawansowany model firmy Anthropic i pierwszy na rynku model hybrydowego rozumowania. Potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku, rozumowanie widoczne dla użytkownika. Sonnet szczególnie dobrze radzi sobie z programowaniem, analizą danych, zadaniami wizualnymi i agentowymi.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, oferujący wyjątkową wydajność, inteligencję, płynność i zrozumienie.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do realizacji bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model firmy Anthropic do realizacji bardzo złożonych zadań, oferujący najwyższą wydajność, inteligencję, płynność i zrozumienie.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, zapewniający błyskawiczne odpowiedzi lub pogłębione, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to jak dotąd najbardziej inteligentny model firmy Anthropic.",
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
"codegemma.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp to eksperymentalna wersja V3.2, stanowiąca pomost do nowej architektury. Dodaje DeepSeek Sparse Attention (DSA) do V3.1-Terminus, poprawiając efektywność treningu i wnioskowania w długim kontekście, z optymalizacjami dla użycia narzędzi, rozumienia długich dokumentów i rozumowania wieloetapowego. Idealny do eksploracji wyższej efektywności rozumowania przy dużych budżetach kontekstowych.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 to model MoE z 671 miliardami parametrów, wykorzystujący MLA i DeepSeekMoE z bezstratnym równoważeniem obciążenia dla efektywnego treningu i wnioskowania. Wytrenowany na 14,8T wysokiej jakości tokenach z SFT i RL, przewyższa inne modele open-source i zbliża się do czołowych modeli zamkniętych.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.",
"deepseek-ai/deepseek-r1.description": "Nowoczesny, wydajny LLM o wysokich zdolnościach w rozumowaniu, matematyce i programowaniu.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
"deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. Osiąga poziom GPT-5 w testach publicznych i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne możliwości kodowania modelu programisty, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również pisanie i wykonywanie poleceń.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej precyzji, osiągając czołowe wyniki i rozumowanie porównywalne z Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, aby zwiększyć dokładność.",
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed firmy ByteDance, obsługuje edycję i kompozycję wielu obrazów. Oferuje lepszą spójność obiektów, precyzyjne wykonywanie poleceń, rozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją tekstowo-obrazową.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, opracowany przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do precyzyjnego, wysokiej jakości generowania obrazów na podstawie promptów.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów firmy ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz umożliwiający precyzyjne, wysokiej jakości generowanie obrazów. Tworzy obrazy na podstawie tekstowych podpowiedzi.",
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
"fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
"fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
"fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim/angielskim, transfer stylu, obracanie i inne funkcje.",
"fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący tekst w języku chińskim i angielskim oraz umożliwiający wysokiej jakości modyfikacje, takie jak transfer stylu i obrót obiektów.",
"fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu chińskiego i różnorodne style wizualne.",
"flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 14 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
"flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
"flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
"gemini-2.0-flash-lite.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
"gemini-2.5-flash-image-preview.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
"gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów firmy Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
"gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max to najbardziej zaawansowana wersja, obsługująca wyszukiwanie w sieci i wiele wbudowanych wtyczek. W pełni zoptymalizowane możliwości rdzeniowe, role systemowe i wywoływanie funkcji zapewniają doskonałą wydajność w złożonych scenariuszach zastosowań.",
"generalv3.description": "Spark Pro to wysokowydajny model LLM zoptymalizowany pod kątem zastosowań profesjonalnych, koncentrujący się na matematyce, programowaniu, opiece zdrowotnej i edukacji. Obsługuje wyszukiwanie w sieci i wbudowane wtyczki, takie jak pogoda i data. Zapewnia wysoką wydajność i efektywność w złożonych pytaniach wiedzy, rozumieniu języka i zaawansowanym tworzeniu tekstu, co czyni go idealnym wyborem do zastosowań profesjonalnych.",
"glm-4-0520.description": "GLM-4-0520 to najnowsza wersja modelu, zaprojektowana do bardzo złożonych i różnorodnych zadań z doskonałą wydajnością.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 to ogólny model GLM obsługujący generowanie i rozumienie tekstu w wielu zadaniach.",
"glm-4-7.description": "GLM-4.7 to najnowszy flagowy model firmy Zhipu AI. GLM-4.7 wzmacnia możliwości programistyczne, planowanie długoterminowych zadań i współpracę z narzędziami w scenariuszach Agentic Coding, osiągając czołowe wyniki wśród modeli open-source w wielu publicznych benchmarkach. Poprawiono ogólne możliwości, odpowiedzi są bardziej zwięzłe i naturalne, a pisanie bardziej wciągające. W złożonych zadaniach agentowych model lepiej wykonuje polecenia podczas wywołań narzędzi, a estetyka interfejsu Artifacts i Agentic Coding oraz efektywność realizacji długoterminowych zadań zostały dodatkowo ulepszone. • Silniejsze możliwości programistyczne: Znacząco ulepszono kodowanie w wielu językach i wydajność agenta terminalowego; GLM-4.7 potrafi teraz wdrażać mechanizmy „najpierw myśl, potem działaj” w ramach programistycznych takich jak Claude Code, Kilo Code, TRAE, Cline i Roo Code, z bardziej stabilną wydajnością w złożonych zadaniach. • Ulepszona estetyka interfejsu: GLM-4.7 wykazuje znaczny postęp w jakości generowania interfejsu, potrafi tworzyć strony internetowe, prezentacje i plakaty o lepszym wyglądzie. • Silniejsze wywoływanie narzędzi: GLM-4.7 poprawia zdolność wywoływania narzędzi, uzyskując wynik 67 w ocenie BrowseComp oraz 84,7 w τ²-Bench, przewyższając Claude Sonnet 4.5 jako open-source SOTA. • Ulepszone rozumowanie: Znacząco ulepszone zdolności matematyczne i rozumowania, wynik 42,8% w benchmarku HLE („Ostatni Egzamin Ludzkości”), o 41% lepszy niż GLM-4.6, przewyższający GPT-5.1. • Ogólne ulepszenia: Rozmowy z GLM-4.7 są bardziej zwięzłe, inteligentne i ludzkie; pisanie i odgrywanie ról są bardziej literackie i wciągające.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat osiąga wysokie wyniki w semantyce, matematyce, rozumowaniu, kodzie i wiedzy. Obsługuje również przeglądanie sieci, wykonywanie kodu, wywoływanie niestandardowych narzędzi i rozumowanie na długich tekstach, z obsługą 26 języków, w tym japońskiego, koreańskiego i niemieckiego.",
"glm-4-air-250414.description": "GLM-4-Air to opłacalna opcja o wydajności zbliżonej do GLM-4, szybkim działaniu i niższych kosztach.",
"glm-4-air.description": "GLM-4-Air to opłacalna opcja o wydajności zbliżonej do GLM-4, szybkim działaniu i niższych kosztach.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking to najmocniejszy znany model VLM (~10B), obsługujący zadania SOTA, takie jak rozumienie wideo, pytania o obrazy, rozwiązywanie zadań, OCR, czytanie dokumentów i wykresów, agenci GUI, kodowanie frontendowe i osadzanie. Przewyższa nawet 8x większy Qwen2.5-VL-72B w wielu zadaniach. Dzięki zaawansowanemu RL wykorzystuje rozumowanie łańcuchowe, aby poprawić dokładność i bogactwo, przewyższając tradycyjne modele bez myślenia zarówno pod względem wyników, jak i wyjaśnialności.",
"glm-4.5-air.description": "GLM-4.5 w wersji lekkiej, łączącej wydajność i koszty, z elastycznymi trybami myślenia hybrydowego.",
"glm-4.5-airx.description": "GLM-4.5-Air w wersji szybkiej, z szybszymi odpowiedziami do zastosowań na dużą skalę i wysoką prędkość.",
"glm-4.5-flash.description": "Darmowa wersja GLM-4.5 z silną wydajnością w rozumowaniu, kodowaniu i zadaniach agenta.",
"glm-4.5-x.description": "GLM-4.5 w wersji szybkiej, oferujący wysoką wydajność przy prędkości generowania do 100 tokenów/sek.",
"glm-4.5.description": "Flagowy model Zhipu z przełączanym trybem myślenia, oferujący SOTA open-source i kontekst do 128K.",
"glm-4.5v.description": "Następna generacja modelu rozumowania wizualnego MoE od Zhipu z 106B parametrami całkowitymi i 12B aktywnymi, osiągająca SOTA wśród podobnych modeli open-source w zadaniach obrazowych, wideo, dokumentów i GUI.",
"glm-4.6.description": "Najnowszy flagowy model Zhipu GLM-4.6 (355B) przewyższa poprzedników w zaawansowanym kodowaniu, przetwarzaniu długich tekstów, rozumowaniu i możliwościach agenta. Szczególnie dorównuje Claude Sonnet 4 w umiejętnościach programistycznych, stając się najlepszym modelem kodującym w Chinach.",
"glm-4.7-flash.description": "GLM-4.7-Flash, jako model klasy 30B SOTA, oferuje nową opcję równoważącą wydajność i efektywność. Wzmacnia możliwości kodowania, planowania długoterminowych zadań i współpracy z narzędziami w scenariuszach Agentic Coding, osiągając czołowe wyniki wśród modeli open-source tej samej wielkości w wielu aktualnych rankingach benchmarków. W realizacji złożonych zadań inteligentnych agentów wykazuje lepsze przestrzeganie poleceń podczas wywołań narzędzi oraz dodatkowo poprawia estetykę interfejsu i efektywność realizacji długoterminowych zadań dla Artifacts i Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, jako model klasy 30B SOTA, oferuje nową opcję równoważącą wydajność i efektywność. Wzmacnia możliwości kodowania, planowania długoterminowych zadań i współpracy z narzędziami w scenariuszach Agentic Coding, osiągając czołowe wyniki wśród modeli open-source tej samej wielkości w wielu aktualnych rankingach benchmarków. W realizacji złożonych zadań inteligentnych agentów wykazuje lepsze przestrzeganie poleceń podczas wywołań narzędzi oraz dodatkowo poprawia estetykę interfejsu i efektywność realizacji długoterminowych zadań dla Artifacts i Agentic Coding.",
"glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, ulepszony pod kątem scenariuszy Agentic Coding z lepszymi możliwościami kodowania, planowaniem długoterminowym i współpracą z narzędziami. Osiąga czołowe wyniki wśród modeli open-source w wielu publicznych benchmarkach. Ogólne możliwości zostały ulepszone dzięki bardziej zwięzłym i naturalnym odpowiedziom oraz bardziej wciągającemu stylowi pisania. W przypadku złożonych zadań agenta, przestrzeganie instrukcji podczas wywołań narzędzi jest silniejsze, a estetyka interfejsu i efektywność realizacji zadań długoterminowych w Artifacts i Agentic Coding zostały dodatkowo ulepszone.",
"glm-4.description": "GLM-4 to starszy flagowy model wydany w styczniu 2024 r., obecnie zastąpiony przez silniejszy GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash koncentruje się na efektywnym rozumieniu pojedynczych obrazów w scenariuszach szybkiej analizy, takich jak przetwarzanie obrazów w czasie rzeczywistym lub wsadowo.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: mniejszy, tańszy wariant Codex zoptymalizowany pod kątem zadań programistycznych z udziałem agentów.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: wariant GPT-5.1 zoptymalizowany do złożonych zadań kodowania i pracy agentów w ramach API odpowiedzi.",
"gpt-5.1.description": "GPT-5.1 — flagowy model zoptymalizowany do zadań programistycznych i agentowych, z konfigurowalnym poziomem rozumowania i dłuższym kontekstem.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat to wariant ChatGPT (chat-latest) oferujący najnowsze usprawnienia konwersacyjne.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: inteligentniejszy i bardziej precyzyjny wariant GPT-5.2 (tylko API odpowiedzi), przeznaczony do trudniejszych problemów i dłuższego rozumowania wieloetapowego.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat to wariant ChatGPT (chat-latest) z najnowszymi ulepszeniami konwersacyjnymi.",
"gpt-5.2-pro.description": "GPT-5.2 pro: inteligentniejszy, bardziej precyzyjny wariant GPT-5.2 (tylko API odpowiedzi), odpowiedni do trudnych problemów i dłuższego rozumowania wieloetapowego.",
"gpt-5.2.description": "GPT-5.2 to flagowy model do zadań programistycznych i agentowych, oferujący lepsze rozumowanie i obsługę długiego kontekstu.",
"gpt-5.description": "Najlepszy model do zadań programistycznych i agentowych w różnych dziedzinach. GPT-5 to przełom w dokładności, szybkości, rozumowaniu, świadomości kontekstu, myśleniu strukturalnym i rozwiązywaniu problemów.",
"gpt-audio.description": "GPT Audio to ogólny model konwersacyjny obsługujący wejście/wyjście audio, dostępny w API Chat Completions.",
@ -1004,7 +1002,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air to lekka wersja GLM 4.5 przeznaczona do scenariuszy wrażliwych na koszty, zachowująca jednocześnie wysoką jakość rozumowania.",
"z-ai/glm-4.5.description": "GLM 4.5 to flagowy model Z.AI z hybrydowym rozumowaniem, zoptymalizowany do zadań inżynieryjnych i pracy z długim kontekstem.",
"z-ai/glm-4.6.description": "GLM 4.6 to flagowy model Z.AI z rozszerzoną długością kontekstu i zaawansowanymi możliwościami kodowania.",
"zai-glm-4.6.description": "Osiąga wysokie wyniki w zadaniach związanych z kodowaniem i rozumowaniem, obsługuje strumieniowanie i wywołania narzędzi, idealnie nadaje się do kodowania agentowego i złożonego rozumowania.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air to bazowy model dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.",
"zai-org/GLM-4.5.description": "GLM-4.5 to bazowy model stworzony dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Głęboko zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.",
"zai-org/GLM-4.5V.description": "GLM-4.5V to najnowszy VLM Zhipu AI, oparty na flagowym modelu tekstowym GLM-4.5-Air (106B parametrów ogółem, 12B aktywnych) z architekturą MoE zapewniającą wysoką wydajność przy niższych kosztach. Podąża ścieżką GLM-4.1V-Thinking i dodaje 3D-RoPE dla lepszego rozumienia przestrzeni 3D. Zoptymalizowany poprzez pretrening, SFT i RL, obsługuje obrazy, wideo i długie dokumenty, zajmując czołowe miejsca wśród otwartych modeli w 41 publicznych benchmarkach multimodalnych. Przełącznik trybu Thinking pozwala użytkownikom balansować między szybkością a głębokością analizy.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Utwórz swoje pierwsze zadanie cykliczne, aby zautomatyzować agenta",
"agentCronJobs.empty.title": "Brak zadań cyklicznych",
"agentCronJobs.enable": "Włącz",
"agentCronJobs.form.at": "o",
"agentCronJobs.form.content.placeholder": "Wprowadź polecenie lub instrukcję dla agenta",
"agentCronJobs.form.every": "Co",
"agentCronJobs.form.frequency": "Częstotliwość",
"agentCronJobs.form.hours": "godz.",
"agentCronJobs.form.maxExecutions": "Zatrzymaj po",
"agentCronJobs.form.maxExecutions.placeholder": "Pozostaw puste dla nieograniczonej liczby",
"agentCronJobs.form.name.placeholder": "Wprowadź nazwę zadania",
"agentCronJobs.form.time": "Godzina",
"agentCronJobs.form.timeRange.end": "Czas zakończenia",
"agentCronJobs.form.timeRange.start": "Czas rozpoczęcia",
"agentCronJobs.form.times": "razy",
"agentCronJobs.form.timezone": "Strefa czasowa",
"agentCronJobs.form.unlimited": "Uruchamiaj bez przerwy",
"agentCronJobs.form.validation.contentRequired": "Treść zadania jest wymagana",
"agentCronJobs.form.validation.invalidTimeRange": "Czas rozpoczęcia musi być wcześniejszy niż czas zakończenia",
"agentCronJobs.form.validation.nameRequired": "Nazwa zadania jest wymagana",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Wtorek",
"agentCronJobs.weekday.wednesday": "Środa",
"agentCronJobs.weekdays": "Dni robocze",
"agentCronJobs.weekdays.fri": "Pt",
"agentCronJobs.weekdays.mon": "Pn",
"agentCronJobs.weekdays.sat": "Sb",
"agentCronJobs.weekdays.sun": "Nd",
"agentCronJobs.weekdays.thu": "Cz",
"agentCronJobs.weekdays.tue": "Wt",
"agentCronJobs.weekdays.wed": "Śr",
"agentInfoDescription.basic.avatar": "Awatar",
"agentInfoDescription.basic.description": "Opis",
"agentInfoDescription.basic.name": "Nazwa",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Este e-mail está associado a uma conta excluída e não pode ser usado para registro",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "O e-mail não pode ser atualizado para esta conta",
"codes.EMAIL_NOT_ALLOWED": "E-mail não permitido para registro",
"codes.EMAIL_NOT_FOUND": "Nenhum e-mail associado a esta conta. Verifique se sua conta possui um e-mail vinculado.",
"codes.EMAIL_NOT_VERIFIED": "Por favor, verifique seu e-mail primeiro",
"codes.FAILED_TO_CREATE_SESSION": "Falha ao criar sessão",
"codes.FAILED_TO_CREATE_USER": "Falha ao criar usuário",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Um modelo com 7 bilhões de parâmetros e qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo.",
"Phi-3.5-mini-instruct.description": "Uma versão atualizada do modelo Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Uma versão atualizada do modelo Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 é um modelo de linguagem de código aberto otimizado para capacidades de agentes, com excelência em programação, uso de ferramentas, seguimento de instruções e planejamento de longo prazo. O modelo oferece suporte ao desenvolvimento de software multilíngue e à execução de fluxos de trabalho complexos em várias etapas, alcançando uma pontuação de 74,0 no SWE-bench Verified e superando o Claude Sonnet 4.5 em cenários multilíngues.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct é um LLM de 7 bilhões de parâmetros ajustado para instruções da série Qwen2. Utiliza arquitetura Transformer com SwiGLU, viés QKV na atenção e atenção com consultas agrupadas, lidando com entradas grandes. Apresenta forte desempenho em compreensão de linguagem, geração, tarefas multilíngues, codificação, matemática e raciocínio, superando a maioria dos modelos abertos e competindo com modelos proprietários. Supera o Qwen1.5-7B-Chat em vários benchmarks.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct faz parte da mais recente série de LLMs da Alibaba Cloud. O modelo de 7 bilhões traz ganhos notáveis em codificação e matemática, suporta mais de 29 idiomas e melhora o seguimento de instruções, compreensão de dados estruturados e geração de saídas estruturadas (especialmente JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct é o mais recente LLM da Alibaba Cloud focado em código. Baseado no Qwen2.5 e treinado com 5,5 trilhões de tokens, melhora significativamente a geração, raciocínio e correção de código, mantendo pontos fortes em matemática e capacidades gerais, oferecendo uma base sólida para agentes de codificação.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo carro-chefe Claude 3 Opus em muitos benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo híbrido de raciocínio do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo de raciocínio híbrido do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios detalhados passo a passo que o usuário pode acompanhar. O Sonnet se destaca especialmente em tarefas de programação, ciência de dados, visão computacional e agentes.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de raciocínio estendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade impressionante e raciocínio estendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com desempenho excepcional em inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com destaque em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo com controle refinado para usuários da API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até hoje.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios detalhados passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
"codegemma.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "O DeepSeek-V3.2-Exp é uma versão experimental do V3.2 que faz a ponte para a próxima arquitetura. Adiciona DeepSeek Sparse Attention (DSA) sobre o V3.1-Terminus para melhorar o treinamento e inferência em contextos longos, com otimizações para uso de ferramentas, compreensão de documentos longos e raciocínio em múltiplas etapas. Ideal para explorar maior eficiência de raciocínio com grandes orçamentos de contexto.",
"deepseek-ai/DeepSeek-V3.description": "O DeepSeek-V3 é um modelo MoE com 671 bilhões de parâmetros, utilizando MLA e DeepSeekMoE com balanceamento de carga sem perdas para treinamento e inferência eficientes. Pré-treinado com 14,8 trilhões de tokens de alta qualidade, com SFT e RL, supera outros modelos abertos e se aproxima dos modelos fechados líderes.",
"deepseek-ai/deepseek-llm-67b-chat.description": "O DeepSeek LLM Chat (67B) é um modelo inovador que oferece compreensão profunda da linguagem e interação.",
"deepseek-ai/deepseek-r1.description": "Um LLM eficiente de última geração com forte desempenho em raciocínio, matemática e programação.",
"deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Alcança níveis de GPT-5 em benchmarks públicos e é o primeiro a integrar raciocínio no uso de ferramentas, liderando avaliações de agentes de código aberto.",
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
"deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
"deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta e raciocínio comparável ao Gemini-3.0-Pro.",
"deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
"deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
"deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
"deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, oferece edição e composição de múltiplas imagens. Apresenta consistência aprimorada de sujeitos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôsteres e design de logotipos com renderização texto-imagem de alta precisão.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagens altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
"fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
"fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
"fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"fal-ai/qwen-image-edit.description": "Modelo profissional de edição de imagem da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
"fal-ai/qwen-image.description": "Modelo poderoso de geração de imagens da equipe Qwen, com forte renderização de texto em chinês e estilos visuais diversos.",
"fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e possibilita edições de alta qualidade como transferência de estilo e rotação de objetos.",
"fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen com renderização impressionante de texto em chinês e estilos visuais diversos.",
"flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
"flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
"flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
"gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max é a versão mais completa, com suporte a busca na web e diversos plugins integrados. Suas capacidades otimizadas, papéis de sistema e chamadas de função oferecem desempenho excelente em cenários de aplicação complexos.",
"generalv3.description": "Spark Pro é um LLM de alto desempenho otimizado para domínios profissionais, com foco em matemática, programação, saúde e educação. Inclui busca na web e plugins integrados como clima e data. Oferece desempenho forte e eficiente em perguntas e respostas complexas, compreensão de linguagem e criação avançada de texto, sendo ideal para usos profissionais.",
"glm-4-0520.description": "GLM-4-0520 é a versão mais recente do modelo, projetado para tarefas altamente complexas e diversas, com desempenho excelente.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 é um modelo GLM geral com suporte à geração e compreensão de texto multitarefa.",
"glm-4-7.description": "GLM-4.7 é o modelo carro-chefe mais recente da Zhipu AI. O GLM-4.7 aprimora as capacidades de programação, planejamento de tarefas de longo prazo e colaboração com ferramentas para cenários de Programação Agente, alcançando desempenho líder entre modelos de código aberto em diversos benchmarks públicos. As capacidades gerais foram aprimoradas, com respostas mais concisas e naturais, e escrita mais envolvente. Em tarefas complexas de agentes, o seguimento de instruções durante chamadas de ferramentas é mais forte, e a estética do front-end de Artifacts e Programação Agente, bem como a eficiência na conclusão de tarefas de longo prazo, foram ainda mais aprimoradas. • Capacidades de programação mais fortes: Melhorias significativas em codificação multilíngue e desempenho de agentes em terminal; o GLM-4.7 agora implementa mecanismos de \"pensar antes de agir\" em frameworks como Claude Code, Kilo Code, TRAE, Cline e Roo Code, com desempenho mais estável em tarefas complexas. • Melhoria na estética do front-end: O GLM-4.7 apresenta avanços significativos na qualidade de geração de front-end, sendo capaz de criar sites, apresentações e cartazes com melhor apelo visual. • Capacidades aprimoradas de chamada de ferramentas: O GLM-4.7 melhora a habilidade de chamar ferramentas, com pontuação de 67 na avaliação BrowseComp e 84,7 na avaliação τ²-Bench de chamadas interativas, superando o Claude Sonnet 4.5 como o novo SOTA de código aberto. • Melhoria no raciocínio: Habilidades matemáticas e de raciocínio significativamente aprimoradas, com pontuação de 42,8% no benchmark HLE (\"Última Prova da Humanidade\"), uma melhoria de 41% em relação ao GLM-4.6, superando o GPT-5.1. • Aprimoramento geral: As conversas com o GLM-4.7 são mais concisas, inteligentes e humanas; a escrita e a simulação de papéis são mais literárias e imersivas.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat tem desempenho forte em semântica, matemática, raciocínio, código e conhecimento. Também oferece navegação na web, execução de código, chamadas de ferramentas personalizadas e raciocínio com textos longos, com suporte a 26 idiomas, incluindo japonês, coreano e alemão.",
"glm-4-air-250414.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
"glm-4-air.description": "GLM-4-Air é uma opção de alto valor com desempenho próximo ao GLM-4, velocidade rápida e menor custo.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking é o modelo VLM de ~10B mais forte conhecido, cobrindo tarefas SOTA como compreensão de vídeo, perguntas visuais, resolução de problemas, OCR, leitura de documentos e gráficos, agentes de interface gráfica, codificação frontend e grounding. Supera até o Qwen2.5-VL-72B, 8x maior, em muitas tarefas. Com RL avançado, usa raciocínio em cadeia para melhorar precisão e riqueza, superando modelos tradicionais sem raciocínio em resultados e explicabilidade.",
"glm-4.5-air.description": "Edição leve do GLM-4.5 que equilibra desempenho e custo, com modos de raciocínio híbrido flexíveis.",
"glm-4.5-airx.description": "Edição rápida do GLM-4.5-Air com respostas mais ágeis para uso em larga escala e alta velocidade.",
"glm-4.5-flash.description": "Versão gratuita do GLM-4.5 com ótimo desempenho em raciocínio, programação e tarefas de agentes.",
"glm-4.5-x.description": "Edição rápida do GLM-4.5, com desempenho robusto e velocidade de geração de até 100 tokens/segundo.",
"glm-4.5.description": "Modelo principal da Zhipu com modo de raciocínio alternável, oferecendo SOTA de código aberto e suporte a contexto de até 128K tokens.",
"glm-4.5v.description": "Modelo de raciocínio visual de próxima geração da Zhipu com arquitetura MoE, totalizando 106B parâmetros (12B ativos), atingindo SOTA entre modelos multimodais de código aberto de tamanho semelhante em tarefas de imagem, vídeo, documentos e interfaces gráficas.",
"glm-4.6.description": "GLM-4.6 (355B), o mais recente modelo carro-chefe da Zhipu, supera totalmente seus antecessores em codificação avançada, processamento de textos longos, raciocínio e capacidades de agente. Destaca-se especialmente em programação, alinhando-se ao Claude Sonnet 4, tornando-se o principal modelo de codificação da China.",
"glm-4.7-flash.description": "GLM-4.7-Flash, como um modelo SOTA de 30B, oferece uma nova opção que equilibra desempenho e eficiência. Aprimora as capacidades de programação, planejamento de tarefas de longo prazo e colaboração com ferramentas para cenários de Programação Agente, alcançando desempenho líder entre modelos de código aberto do mesmo porte em diversos benchmarks atuais. Na execução de tarefas complexas de agentes inteligentes, apresenta maior conformidade com instruções durante chamadas de ferramentas, além de melhorar ainda mais a estética do front-end e a eficiência na conclusão de tarefas de longo prazo para Artifacts e Programação Agente.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, como um modelo SOTA de 30B, oferece uma nova opção que equilibra desempenho e eficiência. Aprimora as capacidades de programação, planejamento de tarefas de longo prazo e colaboração com ferramentas para cenários de Programação Agente, alcançando desempenho líder entre modelos de código aberto do mesmo porte em diversos benchmarks atuais. Na execução de tarefas complexas de agentes inteligentes, apresenta maior conformidade com instruções durante chamadas de ferramentas, além de melhorar ainda mais a estética do front-end e a eficiência na conclusão de tarefas de longo prazo para Artifacts e Programação Agente.",
"glm-4.7.description": "GLM-4.7 é o mais recente modelo carro-chefe da Zhipu, aprimorado para cenários de Codificação Agente com melhorias em capacidades de programação, planejamento de tarefas de longo prazo e colaboração com ferramentas. Alcança desempenho líder entre modelos open-source em diversos benchmarks públicos. Suas capacidades gerais foram aprimoradas com respostas mais concisas e naturais e escrita mais envolvente. Para tarefas complexas de agente, o seguimento de instruções durante chamadas de ferramentas é mais forte, e a estética da interface e a eficiência na conclusão de tarefas de longo prazo em Artifacts e Codificação Agente foram ainda mais otimizadas.",
"glm-4.description": "GLM-4 é o modelo principal anterior lançado em janeiro de 2024, agora substituído pelo mais forte GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash é focado em compreensão eficiente de imagens únicas para cenários de análise rápida, como processamento de imagens em tempo real ou em lote.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex Mini: uma variante menor e de menor custo do Codex, otimizada para tarefas de codificação com agentes.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: uma variante do GPT-5.1 otimizada para tarefas de codificação com agentes, voltada para fluxos de trabalho complexos de código/agente na API de Respostas.",
"gpt-5.1.description": "GPT-5.1 — um modelo principal otimizado para tarefas de codificação e agentes, com esforço de raciocínio configurável e contexto estendido.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat é a variante do ChatGPT (chat-latest) para experimentar as mais recentes melhorias em conversação.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: uma variante mais inteligente e precisa do GPT-5.2 (somente na API de Respostas), adequada para problemas mais difíceis e raciocínio de múltiplas etapas.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat é a variante do ChatGPT (chat-latest) com as melhorias mais recentes em conversação.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: uma variante mais inteligente e precisa do GPT-5.2 (somente API de Respostas), ideal para problemas difíceis e raciocínio prolongado em múltiplas interações.",
"gpt-5.2.description": "GPT-5.2 é um modelo principal para fluxos de trabalho de codificação e agentes, com raciocínio mais forte e desempenho aprimorado em contextos longos.",
"gpt-5.description": "O melhor modelo para tarefas de codificação e agentes em múltiplos domínios. O GPT-5 representa um salto em precisão, velocidade, raciocínio, consciência de contexto, pensamento estruturado e resolução de problemas.",
"gpt-audio.description": "GPT Audio é um modelo geral de chat com suporte a entrada/saída de áudio, disponível na API Chat Completions.",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini é uma versão menor e mais rápida do GPT-5.1-Codex, ideal para cenários de programação sensíveis a latência e custo.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex é uma variante do GPT-5.1 otimizada para engenharia de software e fluxos de trabalho de programação, adequada para grandes refatorações, depuração complexa e tarefas autônomas prolongadas.",
"openai/gpt-5.1.description": "GPT-5.1 é o modelo principal mais recente da série GPT-5, com melhorias significativas em raciocínio geral, seguimento de instruções e naturalidade em conversas, adequado para tarefas amplas.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat é a variante do ChatGPT para experimentar as melhorias mais recentes em conversação.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: uma variante mais inteligente e precisa do GPT-5.2 (somente API de Respostas), ideal para problemas mais difíceis e raciocínio prolongado em múltiplas interações.",
"openai/gpt-5.2.description": "GPT-5.2 é um modelo carro-chefe para programação e fluxos de trabalho com agentes, com raciocínio mais avançado e desempenho superior em contextos longos.",
"openai/gpt-5.description": "GPT-5 é o modelo de alto desempenho da OpenAI para uma ampla gama de tarefas de produção e pesquisa.",
"openai/gpt-oss-120b.description": "Um modelo de linguagem de uso geral altamente capaz, com raciocínio forte e controlável.",
"openai/gpt-oss-20b.description": "Um modelo de linguagem compacto com pesos abertos, otimizado para baixa latência e ambientes com recursos limitados, incluindo implantações locais e na borda.",
@ -1223,7 +1224,6 @@
"z-ai/glm-4.5.description": "GLM 4.5 é o modelo de ponta da Z.AI com raciocínio híbrido otimizado para engenharia e tarefas com contexto longo.",
"z-ai/glm-4.6.description": "GLM 4.6 é o modelo de ponta da Z.AI com comprimento de contexto estendido e capacidade de codificação.",
"z-ai/glm-4.7.description": "GLM-4.7 é o mais novo modelo de ponta da Zhipu, oferecendo capacidades gerais aprimoradas, respostas mais simples e naturais, e uma experiência de escrita mais imersiva.",
"zai-glm-4.6.description": "Desempenho sólido em tarefas de codificação e raciocínio, com suporte a streaming e chamadas de ferramentas, adequado para codificação agente e raciocínio complexo.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air é um modelo base para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. Ele é otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar tanto com cenários complexos quanto com situações do dia a dia.",
"zai-org/GLM-4.5.description": "GLM-4.5 é um modelo base desenvolvido para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. É profundamente otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar com raciocínios complexos e situações cotidianas.",
"zai-org/GLM-4.5V.description": "GLM-4.5V é o mais recente VLM da Zhipu AI, baseado no modelo de texto principal GLM-4.5-Air (106B no total, 12B ativos), com uma arquitetura MoE que oferece alto desempenho a um custo reduzido. Segue a linha de desenvolvimento do GLM-4.1V-Thinking e adiciona 3D-RoPE para melhorar o raciocínio espacial em 3D. Otimizado por meio de pré-treinamento, SFT e RL, lida com imagens, vídeos e documentos longos, e está entre os melhores modelos abertos em 41 benchmarks multimodais públicos. Um modo de alternância de raciocínio permite ao usuário equilibrar velocidade e profundidade.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Uma organização open-source focada em pesquisa e ferramentas para grandes modelos, oferecendo uma plataforma eficiente e fácil de usar que torna modelos e algoritmos de ponta acessíveis.",
"jina.description": "Fundada em 2020, a Jina AI é uma empresa líder em busca com IA. Sua pilha de busca inclui modelos vetoriais, reranqueadores e pequenos modelos de linguagem para construir aplicativos generativos e multimodais confiáveis e de alta qualidade.",
"lmstudio.description": "O LM Studio é um aplicativo de desktop para desenvolver e experimentar com LLMs no seu computador.",
"lobehub.description": "O LobeHub Cloud utiliza APIs oficiais para acessar modelos de IA e mede o uso com Créditos vinculados aos tokens dos modelos.",
"minimax.description": "Fundada em 2021, a MiniMax desenvolve IA de uso geral com modelos fundamentais multimodais, incluindo modelos de texto com trilhões de parâmetros, modelos de fala e visão, além de aplicativos como o Hailuo AI.",
"mistral.description": "A Mistral oferece modelos avançados gerais, especializados e de pesquisa para raciocínio complexo, tarefas multilíngues e geração de código, com suporte a chamadas de função para integrações personalizadas.",
"modelscope.description": "O ModelScope é a plataforma de modelo como serviço da Alibaba Cloud, oferecendo uma ampla gama de modelos de IA e serviços de inferência.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Crie sua primeira tarefa agendada para automatizar seu agente",
"agentCronJobs.empty.title": "Nenhuma tarefa agendada ainda",
"agentCronJobs.enable": "Ativar",
"agentCronJobs.form.at": "às",
"agentCronJobs.form.content.placeholder": "Insira o prompt ou instrução para o agente",
"agentCronJobs.form.every": "A cada",
"agentCronJobs.form.frequency": "Frequência",
"agentCronJobs.form.hours": "hora(s)",
"agentCronJobs.form.maxExecutions": "Parar após",
"agentCronJobs.form.maxExecutions.placeholder": "Deixe em branco para ilimitado",
"agentCronJobs.form.name.placeholder": "Insira o nome da tarefa",
"agentCronJobs.form.time": "Horário",
"agentCronJobs.form.timeRange.end": "Hora de Término",
"agentCronJobs.form.timeRange.start": "Hora de Início",
"agentCronJobs.form.times": "vezes",
"agentCronJobs.form.timezone": "Fuso horário",
"agentCronJobs.form.unlimited": "Executar continuamente",
"agentCronJobs.form.validation.contentRequired": "O conteúdo da tarefa é obrigatório",
"agentCronJobs.form.validation.invalidTimeRange": "A hora de início deve ser anterior à hora de término",
"agentCronJobs.form.validation.nameRequired": "O nome da tarefa é obrigatório",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Terça-feira",
"agentCronJobs.weekday.wednesday": "Quarta-feira",
"agentCronJobs.weekdays": "Dias da Semana",
"agentCronJobs.weekdays.fri": "Sex",
"agentCronJobs.weekdays.mon": "Seg",
"agentCronJobs.weekdays.sat": "Sáb",
"agentCronJobs.weekdays.sun": "Dom",
"agentCronJobs.weekdays.thu": "Qui",
"agentCronJobs.weekdays.tue": "Ter",
"agentCronJobs.weekdays.wed": "Qua",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Descrição",
"agentInfoDescription.basic.name": "Nome",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Этот адрес электронной почты связан с удалённой учётной записью и не может быть использован для регистрации",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Невозможно обновить адрес электронной почты для этой учетной записи",
"codes.EMAIL_NOT_ALLOWED": "Регистрация с этим адресом электронной почты недоступна",
"codes.EMAIL_NOT_FOUND": "С этим аккаунтом не связан ни один адрес электронной почты. Пожалуйста, проверьте, привязана ли электронная почта к вашему аккаунту.",
"codes.EMAIL_NOT_VERIFIED": "Пожалуйста, сначала подтвердите свою электронную почту",
"codes.FAILED_TO_CREATE_SESSION": "Не удалось создать сессию",
"codes.FAILED_TO_CREATE_USER": "Не удалось создать пользователя",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Модель с 7B параметрами, обеспечивающая более высокое качество, чем Phi-3-mini, с акцентом на данные, требующие глубокого рассуждения.",
"Phi-3.5-mini-instruct.description": "Обновлённая версия модели Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Обновлённая версия модели Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 — это модель большого языка с открытым исходным кодом, оптимизированная для агентных возможностей. Она превосходно справляется с программированием, использованием инструментов, следованием инструкциям и долгосрочным планированием. Модель поддерживает многоязычную разработку программного обеспечения и выполнение сложных многошаговых рабочих процессов, набирая 74.0 балла на SWE-bench Verified и превосходя Claude Sonnet 4.5 в многоязычных сценариях.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct — это 7B модель с настройкой на инструкции из серии Qwen2. Использует архитектуру Transformer с SwiGLU, смещением QKV внимания и групповым вниманием по запросу, обрабатывает большие входные данные. Демонстрирует высокие результаты в понимании языка, генерации, многоязычных задачах, программировании, математике и рассуждении, превосходя большинство открытых моделей и конкурируя с закрытыми.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct входит в последнюю серию LLM от Alibaba Cloud. Модель на 7B параметров демонстрирует значительный прогресс в программировании и математике, поддерживает более 29 языков и улучшает следование инструкциям, понимание структурированных данных и структурированный вывод (особенно JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct — последняя модель от Alibaba Cloud, ориентированная на программирование. Построена на базе Qwen2.5 и обучена на 5.5T токенов, значительно улучшает генерацию кода, рассуждение и исправление ошибок, сохраняя при этом сильные стороны в математике и общем интеллекте, обеспечивая надёжную основу для кодирующих агентов.",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.",
"claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим бенчмаркам.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic. По сравнению с Claude 3 Haiku, она демонстрирует улучшения во всех навыках и превосходит предыдущую крупнейшую модель Claude 3 Opus по многим интеллектуальным метрикам.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku обеспечивает быстрые ответы для легких задач.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 — самая интеллектуальная модель от Anthropic и первая гибридная модель рассуждения на рынке, обеспечивающая мгновенные ответы или углублённое мышление с тонкой настройкой.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet — самая интеллектуальная модель от Anthropic и первая на рынке гибридная модель рассуждения. Она способна выдавать почти мгновенные ответы или пошаговые рассуждения, видимые пользователю. Особенно сильна в программировании, науке о данных, компьютерном зрении и агентных задачах.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet — последняя и самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku — самая быстрая и компактная модель от Anthropic, предназначенная для мгновенных ответов с высокой точностью и скоростью.",
"claude-3-opus-20240229.description": "Claude 3 Opus — самая мощная модель от Anthropic для высокосложных задач, превосходящая по производительности, интеллекту, беглости и пониманию.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet сочетает интеллект и скорость для корпоративных задач, обеспечивая высокую полезность при низкой стоимости и надежное масштабируемое развертывание.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и интеллектуальная модель Haiku от Anthropic, сочетающая молниеносную скорость и углублённое мышление.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 — самая быстрая и умная модель Haiku от Anthropic, сочетающая молниеносную скорость и расширенные возможности рассуждения.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking — продвинутая версия, способная демонстрировать процесс рассуждения.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для сверхсложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для сверхсложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 — новейшая и самая мощная модель от Anthropic для выполнения высоко сложных задач, превосходящая в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-20250514.description": "Claude Opus 4 — самая мощная модель от Anthropic для выполнения высоко сложных задач, демонстрирующая выдающиеся результаты в производительности, интеллекте, беглости и понимании.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 — флагманская модель от Anthropic, сочетающая выдающийся интеллект с масштабируемой производительностью, идеально подходящая для сложных задач, требующих высококачественных ответов и рассуждений.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking может выдавать как мгновенные ответы, так и пошаговое рассуждение с видимым процессом.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 — самая интеллектуальная модель от Anthropic на сегодняшний день, обеспечивающая мгновенные ответы или пошаговое мышление с тонкой настройкой для пользователей API.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 способен выдавать почти мгновенные ответы или пошаговые рассуждения с видимым процессом.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 — самая интеллектуальная модель от Anthropic на сегодняшний день.",
"codegeex-4.description": "CodeGeeX-4 — мощный AI-помощник для программирования, поддерживающий многоязычные вопросы и автодополнение кода для повышения продуктивности разработчиков.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B — многоязычная модель генерации кода, поддерживающая автодополнение, генерацию кода, интерпретацию, веб-поиск, вызов функций и вопросы по репозиториям. Охватывает широкий спектр сценариев разработки ПО и является одной из лучших моделей кода с параметрами до 10B.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp — экспериментальный выпуск V3.2, переходный к следующей архитектуре. Добавляет DeepSeek Sparse Attention (DSA) поверх V3.1-Terminus для повышения эффективности обучения и вывода на длинных контекстах, с оптимизациями для использования инструментов, понимания длинных документов и многошагового рассуждения. Идеально подходит для изучения более эффективного рассуждения при больших объёмах контекста.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 — модель MoE с 671 миллиардами параметров, использующая MLA и DeepSeekMoE с балансировкой нагрузки без потерь для эффективного обучения и вывода. Предобучена на 14.8 триллионах высококачественных токенов с использованием SFT и RL, превосходит другие открытые модели и приближается к ведущим закрытым решениям.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) — инновационная модель с глубоким пониманием языка и возможностью взаимодействия.",
"deepseek-ai/deepseek-r1.description": "Современная эффективная LLM, сильная в рассуждениях, математике и программировании.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.",
"deepseek-chat.description": "DeepSeek V3.2 обеспечивает баланс между логическим мышлением и длиной вывода для повседневных задач вопросов-ответов и агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках среди open-source агентов.",
"deepseek-chat.description": "Новая модель с открытым исходным кодом, сочетающая общие и программные способности. Сохраняет диалоговые возможности чат-модели и сильные навыки кодирования модели-программиста, с улучшенным соответствием предпочтениям. DeepSeek-V2.5 также улучшает навыки письма и следование инструкциям.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 — модель кода с открытым исходным кодом, демонстрирующая высокую производительность в задачах программирования, сопоставимую с GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Быстрая полная версия DeepSeek R1 с поиском в интернете в реальном времени, объединяющая возможности масштаба 671B и ускоренный отклик.",
"deepseek-r1-online.description": "Полная версия DeepSeek R1 с 671B параметрами и поиском в интернете в реальном времени, обеспечивающая улучшенное понимание и генерацию.",
"deepseek-r1.description": "DeepSeek-R1 использует данные холодного старта до этапа RL и демонстрирует сопоставимую с OpenAI-o1 производительность в математике, программировании и логическом мышлении.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking — это модель глубокого рассуждения, которая генерирует цепочку размышлений перед выводом для повышения точности. Демонстрирует выдающиеся результаты в соревнованиях и уровень логики, сопоставимый с Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Режим мышления DeepSeek V3.2 выводит цепочку рассуждений перед финальным ответом для повышения точности.",
"deepseek-v2.description": "DeepSeek V2 — эффективная модель MoE для экономичной обработки.",
"deepseek-v2:236b.description": "DeepSeek V2 236B — модель DeepSeek, ориентированная на программирование, с высокой способностью к генерации кода.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 — модель MoE с 671B параметрами, выделяющаяся в программировании, технических задачах, понимании контекста и работе с длинными текстами.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K — ультралегкая модель для простых задач Вопрос-Ответ, классификации и недорогого вывода.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработанная командой ByteDance Seed, поддерживает редактирование и компоновку нескольких изображений. Обеспечивает улучшенную согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточной визуализацией текста и изображений.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработанная ByteDance Seed, поддерживает ввод текста и изображений для высококачественной генерации изображений с высокой степенью управляемости.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высокой управляемостью и качеством. Генерирует изображения по текстовым подсказкам.",
"fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] принимает текст и эталонные изображения, позволяя выполнять локальные правки и сложные глобальные трансформации сцены.",
"fal-ai/flux/krea.description": "Flux Krea [dev] — модель генерации изображений с эстетическим уклоном в сторону более реалистичных и естественных изображений.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Мощная нативная мультимодальная модель генерации изображений.",
"fal-ai/imagen4/preview.description": "Модель генерации изображений высокого качества от Google.",
"fal-ai/nano-banana.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантические и визуальные правки, точное редактирование текста на китайском и английском языках, перенос стиля, поворот и многое другое.",
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с высокой точностью отображения китайского текста и разнообразием визуальных стилей.",
"fal-ai/qwen-image-edit.description": "Профессиональная модель редактирования изображений от команды Qwen, поддерживающая семантическое и визуальное редактирование, точную правку китайского и английского текста, а также высококачественные изменения, такие как перенос стиля и поворот объектов.",
"fal-ai/qwen-image.description": "Мощная модель генерации изображений от команды Qwen с впечатляющим отображением китайского текста и разнообразными визуальными стилями.",
"flux-1-schnell.description": "Модель преобразования текста в изображение с 12 миллиардами параметров от Black Forest Labs, использующая латентную диффузию с дистилляцией для генерации качественных изображений за 14 шага. Конкурирует с закрытыми аналогами и распространяется по лицензии Apache-2.0 для личного, исследовательского и коммерческого использования.",
"flux-dev.description": "FLUX.1 [dev] — модель с открытыми весами для некоммерческого использования. Сохраняет почти профессиональное качество изображений и следование инструкциям при более эффективной работе и лучшем использовании ресурсов по сравнению со стандартными моделями аналогичного размера.",
"flux-kontext-max.description": "Передовая генерация и редактирование изображений с учётом контекста, объединяющая текст и изображения для точных и согласованных результатов.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
"gemini-2.0-flash-lite.description": "Вариант Gemini 2.0 Flash, оптимизированный по стоимости и задержке.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлагает функции следующего поколения, включая исключительную скорость, нативное использование инструментов, мультимодальную генерацию и контекст до 1 миллиона токенов.",
"gemini-2.5-flash-image-preview.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, обеспечивающая генерацию и редактирование изображений в диалоговом формате.",
"gemini-2.5-flash-image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"gemini-2.5-flash-image:image.description": "Nano Banana — новейшая, самая быстрая и эффективная нативная мультимодальная модель от Google, поддерживающая генерацию и редактирование изображений в диалоговом режиме.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max — самая функциональная версия, поддерживающая веб-поиск и множество встроенных плагинов. Оптимизированные базовые возможности, системные роли и вызов функций обеспечивают отличную производительность в сложных сценариях.",
"generalv3.description": "Spark Pro — высокопроизводительная языковая модель, оптимизированная для профессиональных областей, таких как математика, программирование, здравоохранение и образование. Поддерживает веб-поиск и встроенные плагины (погода, дата и др.). Обеспечивает высокую эффективность в сложных задачах, понимании языка и создании текста, идеально подходит для профессионального использования.",
"glm-4-0520.description": "GLM-4-0520 — последняя версия модели, разработанная для сложных и разнообразных задач с отличной производительностью.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 — универсальная модель GLM, поддерживающая многозадачную генерацию и понимание текста.",
"glm-4-7.description": "GLM-4.7 — флагманская модель от Zhipu AI. Улучшает возможности программирования, долгосрочного планирования задач и взаимодействия с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей с открытым исходным кодом в различных публичных бенчмарках. Общие способности улучшены: ответы стали более лаконичными и естественными, а письмо — более захватывающим. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач. • Улучшенные возможности программирования: значительно улучшена многозадачная поддержка языков программирования и производительность терминальных агентов; GLM-4.7 реализует механизм «сначала подумай, потом действуй» в таких фреймворках, как Claude Code, Kilo Code, TRAE, Cline и Roo Code, с более стабильной работой на сложных задачах. • Улучшение эстетики интерфейса: GLM-4.7 демонстрирует значительный прогресс в качестве генерации интерфейсов, способна создавать сайты, презентации и постеры с лучшей визуальной привлекательностью. • Улучшенные вызовы инструментов: GLM-4.7 усиливает возможности вызова инструментов, набирая 67 баллов в оценке BrowseComp и 84.7 в τ²-Bench, превосходя Claude Sonnet 4.5 как SOTA среди open-source моделей. • Улучшенные способности к рассуждению: значительно улучшены математические и логические способности, 42.8% в HLE (\"Последний экзамен человечества\"), что на 41% выше, чем у GLM-4.6, и выше GPT-5.1. • Общие улучшения: диалоги GLM-4.7 стали более лаконичными, интеллектуальными и человечными; письмо и ролевая игра — более литературными и захватывающими.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat демонстрирует высокие результаты в семантике, математике, логике, программировании и знаниях. Поддерживает веб-браузинг, выполнение кода, вызов пользовательских инструментов и рассуждение над длинными текстами. Поддерживает 26 языков, включая японский, корейский и немецкий.",
"glm-4-air-250414.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
"glm-4-air.description": "GLM-4-Air — выгодный вариант с производительностью, близкой к GLM-4, высокой скоростью и низкой стоимостью.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking — самая мощная известная ~10B VLM, охватывающая передовые задачи, такие как понимание видео, визуальные вопросы и ответы, решение предметных задач, OCR, чтение документов и графиков, GUI-агенты, фронтенд-кодирование и привязка. Превосходит даже 8 раз более крупную Qwen2.5-VL-72B по многим задачам. Использует цепочку рассуждений для повышения точности и объяснимости, превосходя традиционные модели без мышления.",
"glm-4.5-air.description": "Облегчённая версия GLM-4.5, обеспечивающая баланс между производительностью и стоимостью, с гибкими режимами гибридного мышления.",
"glm-4.5-airx.description": "GLM-4.5-AirX — ускоренная версия с быстрым откликом для масштабных и высокоскоростных сценариев.",
"glm-4.5-flash.description": "Бесплатная версия GLM-4.5 с высокой производительностью в задачах логики, программирования и агентных сценариев.",
"glm-4.5-x.description": "GLM-4.5 Fast — быстрая версия с производительностью до 100 токенов в секунду.",
"glm-4.5.description": "Флагманская модель Zhipu с переключаемыми режимами мышления, открытым исходным кодом и поддержкой контекста до 128K.",
"glm-4.5v.description": "Модель визуального логического вывода нового поколения от Zhipu с архитектурой MoE: 106B параметров, 12B активных. Достигает SOTA среди моделей аналогичного размера в задачах обработки изображений, видео, документов и GUI.",
"glm-4.6.description": "GLM-4.6 (355B) — последняя флагманская модель Zhipu, превосходящая предшественников в программировании, обработке длинных текстов, логике и агентных задачах. Особенно сопоставима с Claude Sonnet 4 по программированию, став лучшей кодовой моделью Китая.",
"glm-4.7-flash.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.7-flashx.description": "GLM-4.7-Flash — модель уровня 30B SOTA, предлагающая баланс между производительностью и эффективностью. Улучшает программирование, долгосрочное планирование задач и взаимодействие с инструментами в сценариях Agentic Coding, достигая лидирующих результатов среди моделей аналогичного размера с открытым исходным кодом. При выполнении сложных задач интеллектуальных агентов демонстрирует лучшее следование инструкциям при вызове инструментов, а также улучшает эстетику интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.7.description": "GLM-4.7 — новейшая флагманская модель Zhipu, оптимизированная для сценариев агентного программирования с улучшенными возможностями кода, долгосрочного планирования задач и взаимодействия с инструментами. Демонстрирует лидирующую производительность среди open-source моделей на множестве публичных бенчмарков. Общие возможности улучшены: ответы стали более лаконичными и естественными, а тексты — более выразительными. В сложных агентных задачах улучшено следование инструкциям при вызове инструментов, а также эстетика интерфейса и эффективность выполнения долгосрочных задач в Artifacts и Agentic Coding.",
"glm-4.description": "GLM-4 — предыдущая флагманская модель, выпущенная в январе 2024 года, теперь заменена более мощной GLM-4-0520.",
"glm-4v-flash.description": "GLM-4V-Flash ориентирована на эффективное понимание одиночных изображений в сценариях быстрого анализа, таких как обработка изображений в реальном времени или пакетная обработка.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: уменьшенный и более дешевый вариант Codex, оптимизированный для агентных задач программирования.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: вариант GPT-5.1, оптимизированный для агентных задач программирования, включая сложные рабочие процессы с кодом и агентами в API ответов.",
"gpt-5.1.description": "GPT-5.1 — флагманская модель, оптимизированная для программирования и агентных задач с настраиваемой глубиной рассуждений и поддержкой длинного контекста.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat — вариант ChatGPT на базе GPT-5.2, предоставляющий новейшие улучшения в диалогах.",
"gpt-5.2-pro.description": "GPT-5.2 Pro: более умный и точный вариант GPT-5.2 (доступен только через API ответов), подходящий для сложных задач и многоходовых рассуждений.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat — это вариант ChatGPT (chat-latest) с последними улучшениями в области диалогов.",
"gpt-5.2-pro.description": "GPT-5.2 pro: более умный и точный вариант GPT-5.2 (только через Responses API), подходит для сложных задач и многошагового рассуждения.",
"gpt-5.2.description": "GPT-5.2 — флагманская модель для программирования и агентных рабочих процессов с улучшенными логическими способностями и поддержкой длинного контекста.",
"gpt-5.description": "Лучшая модель для междисциплинарного программирования и агентных задач. GPT-5 делает скачок в точности, скорости, логике, понимании контекста, структурированном мышлении и решении проблем.",
"gpt-audio.description": "GPT Audio — универсальная модель общения с поддержкой ввода и вывода аудио, доступная через API завершения чата.",
@ -817,6 +815,12 @@
"meta-llama/llama-3.1-70b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 70 миллиардами параметров, обученный на инструкциях и оптимизированный для высококачественных диалогов. В отраслевых оценках показывает отличные результаты по сравнению с ведущими закрытыми моделями. (Доступна только для проверенных корпоративных клиентов.)",
"meta-llama/llama-3.1-8b-instruct.description": "Последняя серия Meta Llama 3.1, вариант с 8 миллиардами параметров, обученный на инструкциях, особенно быстр и эффективен. В отраслевых оценках демонстрирует отличные результаты, превосходя многие ведущие закрытые модели. (Доступна только для проверенных корпоративных клиентов.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 поддерживает многоязычие и является одной из ведущих генеративных моделей.",
"meta-llama/llama-3.2-11b-vision-instruct.description": "LLaMA 3.2 разработан для задач, сочетающих зрение и текст. Превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное рассуждение.",
"meta-llama/llama-3.2-3b-instruct.description": "meta-llama/llama-3.2-3b-instruct",
"meta-llama/llama-3.2-90b-vision-instruct.description": "LLaMA 3.2 разработан для задач, сочетающих зрение и текст. Превосходно справляется с описанием изображений и визуальными вопросами-ответами, объединяя генерацию языка и визуальное рассуждение.",
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 — самая продвинутая многоязычная модель Llama с открытым исходным кодом, обеспечивающая производительность, близкую к 405B, при очень низкой стоимости. Основана на архитектуре Transformer и улучшена с помощью SFT и RLHF для повышения полезности и безопасности. Вариант, настроенный на инструкции, оптимизирован для многоязычного чата и превосходит многие открытые и закрытые модели в отраслевых бенчмарках. Дата отсечения знаний: декабрь 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct — самая крупная и мощная модель Llama 3.1 Instruct, высокоразвитая модель для диалогового рассуждения и генерации синтетических данных, а также прочная основа для дообучения в конкретных доменах. Многоязычные LLM Llama 3.1 — это набор предварительно обученных и настроенных на инструкции моделей генерации в размерах 8B, 70B и 405B (ввод текста/вывод текста). Модели, настроенные на инструкции, оптимизированы для многоязычного диалога и превосходят многие доступные открытые чат-модели в отраслевых бенчмарках. Llama 3.1 предназначена для коммерческого и исследовательского использования на разных языках. Модели, настроенные на инструкции, подходят для чатов в стиле помощника, а предварительно обученные модели — для более широких задач генерации естественного языка. Выводы Llama 3.1 также можно использовать для улучшения других моделей, включая генерацию и доработку синтетических данных. Llama 3.1 — это авторегрессионная модель Transformer с оптимизированной архитектурой. Настроенные версии используют SFT и RLHF для соответствия человеческим предпочтениям в полезности и безопасности.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 — это открытая LLM для разработчиков, исследователей и предприятий, созданная для поддержки создания, экспериментов и ответственного масштабирования идей генеративного ИИ. Являясь частью основы для глобальных инноваций сообщества, она хорошо подходит для ограниченных вычислительных ресурсов, устройств на периферии и ускоренного обучения.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Модель с высокой способностью к визуальному рассуждению на изображениях высокого разрешения, подходящая для приложений визуального понимания.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Продвинутая модель визуального рассуждения для агентов, ориентированных на визуальное понимание.",
@ -1043,7 +1047,6 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air — легковесный вариант GLM 4.5 для сценариев с ограниченным бюджетом, при этом сохраняет сильные способности к рассуждению.",
"z-ai/glm-4.5.description": "GLM 4.5 — флагманская модель Z.AI с гибридным рассуждением, оптимизированная для инженерных задач и задач с длинным контекстом.",
"z-ai/glm-4.6.description": "GLM 4.6 — флагманская модель Z.AI с расширенной длиной контекста и улучшенными возможностями программирования.",
"zai-glm-4.6.description": "Отлично справляется с задачами программирования и рассуждений, поддерживает потоковую передачу и вызов инструментов, подходит для агентного программирования и сложных рассуждений.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air — базовая модель для агентных приложений с архитектурой Mixture-of-Experts. Оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
"zai-org/GLM-4.5.description": "GLM-4.5 — базовая модель, созданная для агентных приложений с архитектурой Mixture-of-Experts. Глубоко оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.",
"zai-org/GLM-4.5V.description": "GLM-4.5V — последняя мультимодальная модель Zhipu AI, построенная на флагманской текстовой модели GLM-4.5-Air (106B всего, 12B активно) с архитектурой MoE для высокой производительности при низкой стоимости. Следует пути GLM-4.1V-Thinking и добавляет 3D-RoPE для улучшения пространственного 3D-рассуждения. Оптимизирована через предобучение, SFT и RL, обрабатывает изображения, видео и длинные документы, занимает лидирующие позиции среди открытых моделей на 41 мультимодальном бенчмарке. Переключатель Thinking mode позволяет пользователям выбирать между скоростью и глубиной.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Открытая организация, сосредоточенная на исследованиях и инструментах для больших моделей, предоставляющая эффективную и удобную платформу для доступа к передовым моделям и алгоритмам.",
"jina.description": "Основанная в 2020 году, Jina AI — ведущая компания в области поискового ИИ. Её стек включает векторные модели, переоценщики и малые языковые модели для создания надежных генеративных и мультимодальных поисковых приложений.",
"lmstudio.description": "LM Studio — это настольное приложение для разработки и экспериментов с LLM на вашем компьютере.",
"lobehub.description": "LobeHub Cloud использует официальные API для доступа к ИИ-моделям и измеряет использование с помощью Кредитов, привязанных к токенам модели.",
"minimax.description": "Основанная в 2021 году, MiniMax разрабатывает универсальные ИИ-модели на базе мультимодальных основ, включая текстовые модели с триллионами параметров, речевые и визуальные модели, а также приложения, такие как Hailuo AI.",
"mistral.description": "Mistral предлагает передовые универсальные, специализированные и исследовательские модели для сложных рассуждений, многоязычных задач и генерации кода, с поддержкой вызова функций для кастомных интеграций.",
"modelscope.description": "ModelScope — это платформа моделей как сервиса от Alibaba Cloud, предлагающая широкий выбор ИИ-моделей и сервисов инференса.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Создайте свою первую запланированную задачу для автоматизации агента",
"agentCronJobs.empty.title": "Запланированные задачи отсутствуют",
"agentCronJobs.enable": "Включить",
"agentCronJobs.form.at": "в",
"agentCronJobs.form.content.placeholder": "Введите запрос или инструкцию для агента",
"agentCronJobs.form.every": "Каждый",
"agentCronJobs.form.frequency": "Частота",
"agentCronJobs.form.hours": "час(ов)",
"agentCronJobs.form.maxExecutions": "Остановить после",
"agentCronJobs.form.maxExecutions.placeholder": "Оставьте пустым для неограниченного количества",
"agentCronJobs.form.name.placeholder": "Введите название задачи",
"agentCronJobs.form.time": "Время",
"agentCronJobs.form.timeRange.end": "Время окончания",
"agentCronJobs.form.timeRange.start": "Время начала",
"agentCronJobs.form.times": "раз(а)",
"agentCronJobs.form.timezone": "Часовой пояс",
"agentCronJobs.form.unlimited": "Выполнять непрерывно",
"agentCronJobs.form.validation.contentRequired": "Необходимо указать содержимое задачи",
"agentCronJobs.form.validation.invalidTimeRange": "Время начала должно быть раньше времени окончания",
"agentCronJobs.form.validation.nameRequired": "Необходимо указать название задачи",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Вторник",
"agentCronJobs.weekday.wednesday": "Среда",
"agentCronJobs.weekdays": "Будние дни",
"agentCronJobs.weekdays.fri": "Пт",
"agentCronJobs.weekdays.mon": "Пн",
"agentCronJobs.weekdays.sat": "Сб",
"agentCronJobs.weekdays.sun": "Вс",
"agentCronJobs.weekdays.thu": "Чт",
"agentCronJobs.weekdays.tue": "Вт",
"agentCronJobs.weekdays.wed": "Ср",
"agentInfoDescription.basic.avatar": "Аватар",
"agentInfoDescription.basic.description": "Описание",
"agentInfoDescription.basic.name": "Имя",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Bu e-posta silinmiş bir hesapla ilişkilendirilmiş ve kayıt için kullanılamaz",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Bu hesabın e-posta adresi güncellenemez",
"codes.EMAIL_NOT_ALLOWED": "Bu e-posta adresi kayıt için uygun değil",
"codes.EMAIL_NOT_FOUND": "Bu hesaba bağlı bir e-posta bulunamadı. Lütfen hesabınıza bir e-posta adresi bağlı olup olmadığını kontrol edin.",
"codes.EMAIL_NOT_VERIFIED": "Lütfen önce e-posta adresinizi doğrulayın",
"codes.FAILED_TO_CREATE_SESSION": "Oturum oluşturulamadı",
"codes.FAILED_TO_CREATE_USER": "Kullanıcı oluşturulamadı",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "7B parametreli bir model olup, Phi-3-mini'den daha yüksek kaliteye sahiptir ve akıl yürütme yoğun veriler üzerine odaklanır.",
"Phi-3.5-mini-instruct.description": "Phi-3-mini modelinin güncellenmiş versiyonudur.",
"Phi-3.5-vision-instrust.description": "Phi-3-vision modelinin güncellenmiş versiyonudur.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1, açık kaynaklı bir büyük dil modeli olup, ajan yetenekleri için optimize edilmiştir. Programlama, araç kullanımı, talimatlara uyum ve uzun vadeli planlama konularında üstün performans sergiler. Model, çok dilli yazılım geliştirme ve karmaşık çok adımlı iş akışlarını yürütme desteği sunar. SWE-bench Verified testinde 74.0 puan alarak Claude Sonnet 4.5i çok dilli senaryolarda geride bırakmıştır.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct, Qwen2 serisinde yer alan 7B parametreli, yönergeye göre ayarlanmış bir büyük dil modelidir. Transformer mimarisi, SwiGLU, dikkat QKV önyargısı ve gruplandırılmış sorgu dikkat mekanizması kullanır; büyük girişleri işleyebilir. Dil anlama, üretim, çok dilli görevler, kodlama, matematik ve akıl yürütme alanlarında güçlü performans gösterir. Çoğu açık modeli geride bırakır ve özel modellerle rekabet eder. Qwen1.5-7B-Chat modelini birçok ölçüt üzerinde geçmiştir.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct, Alibaba Cloudun en yeni büyük dil modeli serisinin bir parçasıdır. 7B modeli, kodlama ve matematikte önemli kazanımlar sağlar, 29'dan fazla dili destekler ve yönerge takibi, yapılandırılmış veri anlama ve yapılandırılmış çıktı (özellikle JSON) üretiminde gelişmiştir.",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct, Alibaba Cloudun en yeni kod odaklı büyük dil modelidir. Qwen2.5 üzerine inşa edilmiştir ve 5.5T token ile eğitilmiştir. Kod üretimi, akıl yürütme ve hata düzeltmede önemli gelişmeler sunar; matematik ve genel yetenekleri koruyarak kodlama ajanları için sağlam bir temel sağlar.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.",
"claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
"claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme gösterir ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakır.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropicin en hızlı yeni nesil modelidir. Claude 3 Haikuya kıyasla tüm yeteneklerde gelişme gösterir ve önceki en büyük model olan Claude 3 Opusu birçok zeka testinde geride bırakır.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku, hafif görevler için hızlı yanıtlar sunar.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7, Anthropic'in en zeki modeli olup, pazardaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar veya ayrıntılı düşünme süreçlerini hassas kontrolle destekler.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet, Anthropicin en zeki modeli olup, piyasadaki ilk hibrit akıl yürütme modelidir. Anında yanıtlar verebilir veya kullanıcıların görebileceği şekilde adım adım akıl yürütme sunabilir. Özellikle kodlama, veri bilimi, görsel analiz ve ajan görevlerinde güçlüdür.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet, karmaşık görevler için Anthropicin en yeni ve en yetenekli modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku, Anthropicin en hızlı ve en kompakt modelidir; anında yanıtlar için hızlı ve doğru performans sunar.",
"claude-3-opus-20240229.description": "Claude 3 Opus, karmaşık görevler için Anthropicin en güçlü modelidir; performans, zeka, akıcılık ve anlama konularında üstündür.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet, kurumsal iş yükleri için zeka ve hızı dengeler; düşük maliyetle yüksek fayda ve güvenilir büyük ölçekli dağıtım sunar.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropic'in en hızlı ve en zeki Haiku modelidir; yıldırım hızında çalışır ve derinlemesine düşünme yeteneğine sahiptir.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5, Anthropicin en hızlı ve en zeki Haiku modelidir; yıldırım hızında yanıtlar ve gelişmiş akıl yürütme sunar.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking, akıl yürütme sürecini görünür şekilde ortaya koyabilen gelişmiş bir varyanttır.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropic'in en yeni ve en yetenekli modelidir. Karmaşık görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropic'in karmaşık görevler için en güçlü modelidir. Performans, zeka, akıcılık ve anlama açısından öne çıkar.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1, Anthropicin en yeni ve en yetenekli modelidir. Karmaşık görevlerde üstün performans, zeka, akıcılık ve anlama kabiliyeti sunar.",
"claude-opus-4-20250514.description": "Claude Opus 4, Anthropicin karmaşık görevler için en güçlü modelidir. Performans, zeka, akıcılık ve kavrama açısından üst düzeydir.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5, Anthropicin amiral gemisi modelidir; olağanüstü zeka ile ölçeklenebilir performansı birleştirir. En yüksek kaliteli yanıtlar ve akıl yürütme gerektiren karmaşık görevler için idealdir.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking, anında yanıtlar veya adım adım düşünme süreçleri üretebilir.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, Anthropic'in bugüne kadarki en zeki modelidir. API kullanıcıları için anında yanıtlar veya adım adım düşünme süreçlerini hassas kontrolle sunar.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropic'in bugüne kadarki en zeki modelidir.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4, anında yanıtlar verebilir veya görünür adımlarla derinlemesine düşünme süreci sunabilir.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5, Anthropicin bugüne kadarki en zeki modelidir.",
"codegeex-4.description": "CodeGeeX-4, geliştirici verimliliğini artırmak için çok dilli Soru-Cevap ve kod tamamlama desteği sunan güçlü bir yapay zeka kodlama asistanıdır.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B, çok dilli kod üretimi, kod tamamlama, yorumlama, web arama, fonksiyon çağırma ve depo düzeyinde kod Soru-Cevap gibi geniş yazılım geliştirme senaryolarını kapsayan bir modeldir. 10B parametrenin altındaki en üst düzey kod modellerinden biridir.",
"codegemma.description": "CodeGemma, hızlı yineleme ve entegrasyon sağlayan hafif bir programlama modelidir.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp, bir sonraki mimariye geçişi sağlayan deneysel V3.2 sürümüdür. V3.1-Terminus üzerine DeepSeek Sparse Attention (DSA) ekleyerek uzun bağlamlı eğitim ve çıkarım verimliliğini artırır. Araç kullanımı, uzun belge anlama ve çok adımlı akıl yürütme için optimize edilmiştir. Geniş bağlam bütçeleriyle daha yüksek akıl yürütme verimliliğini keşfetmek için idealdir.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3, MLA ve DeepSeekMoE kullanan 671B parametreli bir MoE modelidir. Kayıpsız yük dengelemesiyle verimli eğitim ve çıkarım sağlar. 14.8T yüksek kaliteli token ile önceden eğitilmiş, SFT ve RL ile güçlendirilmiştir; diğer açık modelleri geride bırakır ve önde gelen kapalı modellere yaklaşır.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B), derin dil anlama ve etkileşim sunan yenilikçi bir modeldir.",
"deepseek-ai/deepseek-r1.description": "Akıl yürütme, matematik ve programlamada güçlü, son teknoloji verimli bir LLM.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.",
"deepseek-chat.description": "DeepSeek V3.2, günlük soru-cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Genel testlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünme sürecini entegre eden ilk modeldir; bu da açık kaynaklı ajan değerlendirmelerinde öne çıkmasını sağlar.",
"deepseek-chat.description": "Genel ve kodlama yeteneklerini birleştiren yeni bir açık kaynaklı model. Sohbet modelinin genel diyalog yeteneklerini ve kodlayıcı modelin güçlü kodlama becerilerini korur, tercih uyumunu geliştirir. DeepSeek-V2.5 ayrıca yazma ve talimatlara uyum konularında da gelişmiştir.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.",
"deepseek-coder-v2.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2, GPT-4 Turbo ile karşılaştırılabilir güçlü performansa sahip açık kaynaklı bir MoE kod modeli.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Gerçek zamanlı web aramasıyla 671B ölçekli yetenek ve hızlı yanıtları birleştiren DeepSeek R1 hızlı tam sürüm.",
"deepseek-r1-online.description": "671B parametreli ve gerçek zamanlı web aramasına sahip DeepSeek R1 tam sürüm; güçlü anlama ve üretim sunar.",
"deepseek-r1.description": "DeepSeek-R1, RL öncesi soğuk başlangıç verileri kullanır ve matematik, kodlama ve akıl yürütmede OpenAI-o1 ile karşılaştırılabilir performans sunar.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking, çıktılardan önce düşünce zinciri oluşturarak daha yüksek doğruluk sağlayan derin akıl yürütme modelidir. En iyi yarışma sonuçlarına ulaşır ve Gemini-3.0-Pro ile karşılaştırılabilir akıl yürütme yeteneğine sahiptir.",
"deepseek-reasoner.description": "DeepSeek V3.2 düşünme modu, doğruluğu artırmak için nihai cevaptan önce düşünce zinciri üretir.",
"deepseek-v2.description": "DeepSeek V2, maliyet etkin işlem için verimli bir MoE modelidir.",
"deepseek-v2:236b.description": "DeepSeek V2 236B, güçlü kod üretimi sunan DeepSeekin kod odaklı modelidir.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324, programlama ve teknik yetenek, bağlam anlama ve uzun metin işleme konularında öne çıkan 671B parametreli bir MoE modelidir.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K, basit QA, sınıflandırma ve düşük maliyetli çıkarım için ultra hafif bir modeldir.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.",
"fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed ekibi tarafından geliştirilen Seedream 4.5, çoklu görsel düzenleme ve kompozisyonu destekler. Geliştirilmiş konu tutarlılığı, talimatlara hassas uyum, mekânsal mantık anlayışı, estetik ifade, afiş yerleşimi ve logo tasarımı gibi özelliklerle yüksek hassasiyetli metin-görsel oluşturma sunar.",
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek yönlendirmelerden yüksek kaliteli ve kontrol edilebilir görseller üretir.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ByteDance Seed tarafından geliştirilen bir görsel üretim modelidir. Metin ve görsel girdileri destekler, yüksek kaliteli ve kontrol edilebilir görseller üretir. Metin istemlerinden görseller oluşturur.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro], metin ve referans görselleri girdi olarak alarak hedefe yönelik yerel düzenlemeler ve karmaşık sahne dönüşümleri sağlar.",
"fal-ai/flux/krea.description": "Flux Krea [dev], daha gerçekçi ve doğal görseller üretmeye eğilimli estetik önyargıya sahip bir görsel üretim modelidir.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Güçlü bir yerel çok modlu görsel üretim modelidir.",
"fal-ai/imagen4/preview.description": "Google tarafından geliştirilen yüksek kaliteli görsel üretim modeli.",
"fal-ai/nano-banana.description": "Nano Banana, Googleın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma yoluyla görsel üretim ve düzenleme sağlar.",
"fal-ai/qwen-image-edit.description": "Qwen ekibinden profesyonel bir görsel düzenleme modeli; anlamsal ve görünüm düzenlemeleri, Çince/İngilizce metin düzenleme, stil aktarımı, döndürme ve daha fazlasını destekler.",
"fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli; Çince metin oluşturma ve çeşitli görsel stillerde yüksek performans sunar.",
"fal-ai/qwen-image-edit.description": "Qwen ekibi tarafından geliştirilen profesyonel bir görsel düzenleme modelidir. Anlamsal ve görsel düzenlemeleri destekler, Çince ve İngilizce metinleri hassas şekilde düzenler, stil aktarımı ve nesne döndürme gibi yüksek kaliteli düzenlemeler yapabilir.",
"fal-ai/qwen-image.description": "Qwen ekibinden güçlü bir görsel üretim modeli. Çince metin işleme ve çeşitli görsel stillerde etkileyici performans sunar.",
"flux-1-schnell.description": "Black Forest Labs tarafından geliştirilen 12 milyar parametreli metinden görsele model. Latent adversarial diffusion distillation yöntemiyle 1-4 adımda yüksek kaliteli görseller üretir. Kapalı kaynaklı alternatiflerle rekabet eder ve kişisel, araştırma ve ticari kullanım için Apache-2.0 lisansı ile sunulur.",
"flux-dev.description": "FLUX.1 [dev], açık ağırlıklı ve ticari olmayan kullanım için damıtılmış bir modeldir. Neredeyse profesyonel görsel kalitesini ve yönerge takibini korurken daha verimli çalışır ve aynı boyuttaki standart modellere göre kaynakları daha iyi kullanır.",
"flux-kontext-max.description": "Metin ve görselleri birleştirerek hassas ve tutarlı sonuçlar sunan son teknoloji bağlamsal görsel üretim ve düzenleme.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
"gemini-2.0-flash-lite.description": "Maliyet verimliliği ve düşük gecikme için optimize edilmiş bir Gemini 2.0 Flash varyantı.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash, olağanüstü hız, yerel araç kullanımı, çok modlu üretim ve 1M-token bağlam penceresi gibi yeni nesil özellikler sunar.",
"gemini-2.5-flash-image-preview.description": "Nano Banana, Googleın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana, Googleın en yeni, en hızlı ve en verimli yerel çok modlu modelidir; sohbet tabanlı görsel üretim ve düzenlemeyi mümkün kılar.",
"gemini-2.5-flash-image.description": "Nano Banana, Googleın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
"gemini-2.5-flash-image:image.description": "Nano Banana, Googleın en yeni, en hızlı ve en verimli yerel çok modlu modelidir. Konuşma tabanlı görsel üretim ve düzenleme sağlar.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview, Googleın büyük ölçekli kullanım için tasarlanmış en küçük ve en uygun fiyatlı modelidir.",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max, web arama ve birçok yerleşik eklentiyi destekleyen en kapsamlı sürümdür. Tam optimize edilmiş çekirdek yetenekleri, sistem rolleri ve işlev çağrıları sayesinde karmaşık uygulama senaryolarında mükemmel performans sunar.",
"generalv3.description": "Spark Pro, profesyonel alanlar için optimize edilmiş yüksek performanslı bir LLM'dir. Matematik, programlama, sağlık ve eğitim alanlarına odaklanır; hava durumu ve tarih gibi yerleşik eklentilerle birlikte web aramasını destekler. Karmaşık bilgi soruları, dil anlama ve ileri düzey metin üretiminde güçlü performans ve verimlilik sunar, bu da onu profesyonel kullanım senaryoları için ideal kılar.",
"glm-4-0520.description": "GLM-4-0520, son derece karmaşık ve çeşitli görevler için tasarlanmış en yeni model sürümüdür ve üstün performans sunar.",
"glm-4-32b-0414.description": "GLM-4 32B 0414, çok görevli metin üretimi ve anlama desteği sunan genel amaçlı bir GLM modelidir.",
"glm-4-7.description": "GLM-4.7, Zhipu AInin en yeni amiral gemisi modelidir. Kodlama yetenekleri, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Açık kaynaklı modeller arasında birçok kamuya açık testte lider performans sergiler. Genel yetenekleri artırılmış, yanıtlar daha doğal ve yazım daha etkileyici hale getirilmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında talimatlara uyum güçlendirilmiş, Artifacts ve Agentic Coding arayüzlerinin estetiği ve uzun vadeli görev tamamlama verimliliği artırılmıştır. • Gelişmiş programlama yetenekleri: Çok dilli kodlama ve terminal ajan performansı önemli ölçüde iyileştirilmiştir. GLM-4.7, Claude Code, Kilo Code, TRAE, Cline ve Roo Code gibi çerçevelerde \"önce düşün, sonra uygula\" mekanizmalarını destekler. • Arayüz estetiği: Web sitesi, sunum ve afiş gibi ön yüz içeriklerinde daha iyi görsel kalite sunar. • Gelişmiş araç çağırma: BrowseComp testinde 67, τ²-Bench testinde 84.7 puan alarak Claude Sonnet 4.5i geride bırakmıştır. • Akıl yürütme yeteneği: HLE testinde %42.8 başarı ile GLM-4.6ya göre %41 artış göstermiş, GPT-5.1i geçmiştir. • Genel yetenekler: Sohbetler daha kısa, zeki ve insancıl; yazım ve rol yapma daha edebi ve etkileyicidir.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat, anlambilim, matematik, akıl yürütme, kodlama ve bilgi alanlarında güçlü performans gösterir. Web tarama, kod yürütme, özel araç çağırma ve uzun metin akıl yürütme desteği sunar. Japonca, Korece ve Almanca dahil olmak üzere 26 dili destekler.",
"glm-4-air-250414.description": "GLM-4-Air, GLM-4'e yakın performans, yüksek hız ve düşük maliyet sunan yüksek değerli bir seçenektir.",
"glm-4-air.description": "GLM-4-Air, GLM-4'e yakın performans, yüksek hız ve düşük maliyet sunan yüksek değerli bir seçenektir.",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking, bilinen en güçlü ~10B VLM'dir. Video anlama, görsel soru-cevap, konu çözme, OCR, belge ve grafik okuma, GUI ajanları, ön yüz kodlama ve temellendirme gibi SOTA görevleri kapsar. 8 kat daha büyük olan Qwen2.5-VL-72B'yi birçok görevde geride bırakır. Gelişmiş pekiştirmeli öğrenme ile düşünce zinciri akıl yürütmesi kullanarak doğruluk ve zenginliği artırır. Geleneksel düşünmeyen modellere göre hem sonuçlarda hem de açıklanabilirlikte üstündür.",
"glm-4.5-air.description": "GLM-4.5 hafif sürümüdür. Performans ve maliyet arasında denge sağlar ve esnek hibrit düşünme modları sunar.",
"glm-4.5-airx.description": "GLM-4.5-Air hızlı sürümüdür. Yüksek ölçekli ve yüksek hızlı kullanım için daha hızlı yanıtlar sunar.",
"glm-4.5-flash.description": "GLM-4.5'in ücretsiz katmanı; akıl yürütme, kodlama ve ajan görevlerinde güçlü performans sunar.",
"glm-4.5-x.description": "GLM-4.5 hızlı sürümüdür. 100 token/sn'ye kadar üretim hızıyla güçlü performans sunar.",
"glm-4.5.description": "Zhipu'nun amiral gemisi modeli; değiştirilebilir düşünme moduna sahiptir. Açık kaynaklı SOTA genel performans sunar ve 128K bağlam desteği sağlar.",
"glm-4.5v.description": "Zhipunun yeni nesil MoE görsel akıl yürütme modeli; toplam 106B parametreye ve 12B aktif parametreye sahiptir. Görüntü, video, belge anlama ve GUI görevlerinde benzer boyuttaki açık kaynaklı çok modlu modeller arasında SOTA başarımı elde eder.",
"glm-4.6.description": "Zhipu'nun en yeni amiral gemisi modeli GLM-4.6 (355B), gelişmiş kodlama, uzun metin işleme, akıl yürütme ve ajan yeteneklerinde önceki sürümleri tamamen geride bırakır. Özellikle Claude Sonnet 4 ile programlama yeteneği açısından uyumludur ve Çin'in en iyi Kodlama modeli haline gelmiştir.",
"glm-4.7-flash.description": "GLM-4.7-Flash, 30B seviyesinde SOTA bir model olarak performans ve verimlilik arasında denge sunar. Kodlama, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında daha güçlü talimat uyumu sağlar, ön yüz estetiğini ve uzun vadeli görev tamamlama verimliliğini artırır.",
"glm-4.7-flashx.description": "GLM-4.7-Flash, 30B seviyesinde SOTA bir model olarak performans ve verimlilik arasında denge sunar. Kodlama, uzun vadeli görev planlaması ve araç iş birliği konularında gelişmiştir. Karmaşık ajan görevlerinde araç çağrısı sırasında daha güçlü talimat uyumu sağlar, ön yüz estetiğini ve uzun vadeli görev tamamlama verimliliğini artırır.",
"glm-4.7.description": "GLM-4.7, Zhipu'nun en yeni amiral gemisi modelidir. Ajan Tabanlı Kodlama senaryoları için geliştirilmiş kodlama yetenekleri, uzun vadeli görev planlaması ve araç iş birliği sunar. Birçok kamuya açık ölçüt üzerinde açık kaynaklı modeller arasında lider performans sergiler. Genel yetenekleri daha özlü ve doğal yanıtlar ile daha etkileyici yazım deneyimiyle geliştirilmiştir. Karmaşık ajan görevlerinde, araç çağrısı sırasında talimatlara uyum daha güçlüdür. Artifacts ve Ajan Tabanlı Kodlama'nın ön yüz estetiği ve uzun vadeli görev tamamlama verimliliği daha da iyileştirilmiştir.",
"glm-4.description": "GLM-4, Ocak 2024'te piyasaya sürülen eski amiral gemisidir. Şimdi daha güçlü GLM-4-0520 ile değiştirilmiştir.",
"glm-4v-flash.description": "GLM-4V-Flash, tek görüntü anlama üzerine odaklanır. Gerçek zamanlı veya toplu görüntü işleme gibi hızlı analiz senaryoları için uygundur.",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini: ajan tabanlı kodlama görevleri için optimize edilmiş daha küçük ve düşük maliyetli Codex varyantı.",
"gpt-5.1-codex.description": "GPT-5.1 Codex: Yanıtlar API'sinde karmaşık kod/ajan iş akışları için ajan tabanlı kodlama görevlerine optimize edilmiş bir GPT-5.1 varyantı.",
"gpt-5.1.description": "GPT-5.1 — kodlama ve ajan görevleri için optimize edilmiş, yapılandırılabilir akıl yürütme gücüne ve uzun bağlam desteğine sahip amiral gemisi model.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat, en yeni konuşma iyileştirmelerini deneyimlemek için ChatGPT varyantıdır (chat-latest).",
"gpt-5.2-pro.description": "GPT-5.2 Pro: daha zeki ve daha hassas GPT-5.2 varyantı (yalnızca Yanıtlar API'si), zorlu problemler ve çok adımlı uzun akıl yürütme için uygundur.",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat, en son sohbet geliştirmeleri için optimize edilmiş ChatGPT varyantıdır (chat-latest).",
"gpt-5.2-pro.description": "GPT-5.2 pro: Daha zeki ve hassas bir GPT-5.2 varyantı (yalnızca Responses API), zorlu problemler ve uzun çok adımlı akıl yürütme için uygundur.",
"gpt-5.2.description": "GPT-5.2, güçlü akıl yürütme ve uzun bağlam performansı ile kodlama ve ajan iş akışları için amiral gemisi modeldir.",
"gpt-5.description": "Alanlar arası kodlama ve ajan görevleri için en iyi model. GPT-5, doğruluk, hız, akıl yürütme, bağlam farkındalığı, yapılandırılmış düşünme ve problem çözmede büyük ilerlemeler sunar.",
"gpt-audio.description": "GPT Audio, Chat Completions API'de ses girdi/çıktısını destekleyen genel bir sohbet modelidir.",
@ -916,6 +914,25 @@
"moonshot-v1-8k-vision-preview.description": "Kimi görsel modelleri (moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview dahil) metin, renkler ve nesne şekilleri gibi görüntü içeriklerini anlayabilir.",
"moonshot-v1-8k.description": "Moonshot V1 8K, kısa sohbetler, notlar ve hızlı içerikler için 8.192 tokene kadar kısa metin üretimiyle optimize edilmiştir.",
"moonshot-v1-auto.description": "Moonshot V1 Auto, mevcut bağlam token kullanımına göre uygun modeli otomatik olarak seçer.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B, büyük ölçekli pekiştirmeli öğrenme ile optimize edilmiş açık kaynaklı bir kod LLMdir. SWE-bench Verified testinde %60.4 puan alarak hata düzeltme ve kod inceleme gibi otomatik yazılım mühendisliği görevlerinde açık model rekoru kırmıştır.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905, Kimi K2 serisinin en yeni ve en güçlü modelidir. 1T toplam ve 32B aktif parametreye sahip üst düzey bir MoE modelidir. Gelişmiş ajan kodlama zekası, ön yüz kodlama estetiği ve kullanılabilirliği ile öne çıkar.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking, çok adımlı akıl yürütme derinliğini büyük ölçüde artıran ve 200300 ardışık araç çağrısında kararlılığı koruyan en yeni ve en güçlü açık kaynaklı düşünme modelidir. Kodlama, matematik, mantık ve ajan senaryolarında üstündür. ~1T parametreli MoE mimarisi üzerine kuruludur, 256K bağlam penceresi ve araç çağırma desteği sunar.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711, Kimi serisinin talimat odaklı varyantıdır; yüksek kaliteli kodlama ve araç kullanımı için uygundur.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905, bağlam ve akıl yürütme performansını artıran, kodlama optimizasyonları içeren bir güncellemedir.",
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview modeli, 256K bağlam penceresini destekler; daha güçlü ajan kodlama, daha rafine ve pratik ön yüz kodu ve daha iyi bağlam anlama sunar.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo, Kimi K2 Thinkingin yüksek hızlı versiyonudur; gecikmeyi önemli ölçüde azaltırken derin akıl yürütmeyi korur.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking, Moonshotun derin akıl yürütme görevleri için optimize edilmiş düşünme modelidir; genel ajan yeteneklerine sahiptir.",
"moonshotai/kimi-k2.description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük bir MoE modelidir. 1T toplam parametre ve her geçişte 32B aktif parametre ile gelişmiş araç kullanımı, akıl yürütme ve kod üretimi gibi ajan yetenekleri için optimize edilmiştir.",
"morph/morph-v3-fast.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 4500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.",
"morph/morph-v3-large.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 2500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B, en son dahili veri kümeleriyle güncellenmiş Nous Hermes 2 sürümüdür.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş bir LLMdir. Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench testlerinde 1. sırada yer alır. Llama-3.1-70B-Instruct modelinden RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference istemleriyle eğitilmiştir.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Olağanüstü doğruluk ve verimlilik sunan özgün bir dil modelidir.",
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct, LLM yanıtlarının yardımseverliğini artırmak için NVIDIA tarafından özelleştirilmiş bir modeldir.",
"o1-mini.description": "o1-preview'den daha küçük ve hızlıdır, %80 daha düşük maliyetlidir. Kod üretimi ve kısa bağlamlı görevlerde güçlüdür.",
"o1-preview.description": "İleri düzey akıl yürütme ve karmaşık problem çözme (matematik ve bilim dahil) odaklıdır. Derin bağlam anlayışı ve otonom iş akışları gerektiren uygulamalar için idealdir.",
"o1-pro.description": "o1 serisi, yanıtlamadan önce düşünmek ve karmaşık akıl yürütmeyi yönetmek için pekiştirmeli öğrenme ile eğitilmiştir. o1-pro, daha fazla hesaplama gücü kullanarak daha derin düşünme ve tutarlı yüksek kaliteli yanıtlar sunar.",
"o1.description": "o1, metin+görsel girdi ve metin çıktısı ile çalışan, karmaşık görevler için geniş bilgi gerektiren OpenAInin yeni akıl yürütme modelidir. 200K bağlam penceresi ve Ekim 2023 bilgi kesimi vardır.",
"openai/gpt-5-codex.description": "GPT-5-Codex, kodlama ve büyük ölçekli kod iş akışları için daha da optimize edilmiş bir GPT-5 varyantıdır.",
"openai/gpt-5-mini.description": "GPT-5 Mini, düşük gecikme süresi ve düşük maliyetli senaryolar için daha küçük bir GPT-5 varyantıdır.",
"openai/gpt-5-nano.description": "GPT-5 Nano, maliyet ve gecikme açısından katı kısıtlamalara sahip senaryolar için ultra küçük varyanttır.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Büyük model araştırmaları ve araçları üzerine odaklanan açık kaynaklı bir organizasyon. En son modelleri ve algoritmaları erişilebilir kılan verimli ve kullanıcı dostu bir platform sağlar.",
"jina.description": "2020 yılında kurulan Jina AI, önde gelen bir arama yapay zekası şirketidir. Vektör modelleri, yeniden sıralayıcılar ve küçük dil modelleri içeren arama yığını ile güvenilir ve yüksek kaliteli üretken ve çok modlu arama uygulamaları geliştirir.",
"lmstudio.description": "LM Studio, bilgisayarınızda büyük dil modelleriyle geliştirme ve denemeler yapmanızı sağlayan bir masaüstü uygulamasıdır.",
"lobehub.description": "LobeHub Cloud, yapay zeka modellerine erişmek için resmi API'leri kullanır ve kullanım miktarını model jetonlarına bağlı Krediler ile ölçer.",
"minimax.description": "2021 yılında kurulan MiniMax, çok modlu temel modellerle genel amaçlı yapay zeka geliştirir. Trilyon parametreli MoE metin modelleri, ses ve görsel modellerin yanı sıra Hailuo AI gibi uygulamalar sunar.",
"mistral.description": "Mistral, karmaşık akıl yürütme, çok dilli görevler ve kod üretimi için gelişmiş genel, özel ve araştırma modelleri sunar. Özelleştirilmiş entegrasyonlar için işlev çağrısını destekler.",
"modelscope.description": "ModelScope, Alibaba Cloudun model-hizmet olarak sunduğu platformudur. Geniş bir yapay zeka modeli ve çıkarım hizmeti yelpazesi sunar.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Ajanınızı otomatikleştirmek için ilk zamanlanmış görevinizi oluşturun",
"agentCronJobs.empty.title": "Henüz zamanlanmış görev yok",
"agentCronJobs.enable": "Etkinleştir",
"agentCronJobs.form.at": "saat",
"agentCronJobs.form.content.placeholder": "Ajan için komut veya talimat girin",
"agentCronJobs.form.every": "Her",
"agentCronJobs.form.frequency": "Sıklık",
"agentCronJobs.form.hours": "saat",
"agentCronJobs.form.maxExecutions": "Şu kadar çalışmadan sonra dur",
"agentCronJobs.form.maxExecutions.placeholder": "Sınırsız için boş bırakın",
"agentCronJobs.form.name.placeholder": "Görev adını girin",
"agentCronJobs.form.time": "Zaman",
"agentCronJobs.form.timeRange.end": "Bitiş Zamanı",
"agentCronJobs.form.timeRange.start": "Başlangıç Zamanı",
"agentCronJobs.form.times": "kez",
"agentCronJobs.form.timezone": "Zaman dilimi",
"agentCronJobs.form.unlimited": "Sürekli çalıştır",
"agentCronJobs.form.validation.contentRequired": "Görev içeriği gereklidir",
"agentCronJobs.form.validation.invalidTimeRange": "Başlangıç zamanı, bitiş zamanından önce olmalıdır",
"agentCronJobs.form.validation.nameRequired": "Görev adı gereklidir",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Salı",
"agentCronJobs.weekday.wednesday": "Çarşamba",
"agentCronJobs.weekdays": "Haftaiçi Günleri",
"agentCronJobs.weekdays.fri": "Cum",
"agentCronJobs.weekdays.mon": "Pzt",
"agentCronJobs.weekdays.sat": "Cmt",
"agentCronJobs.weekdays.sun": "Paz",
"agentCronJobs.weekdays.thu": "Per",
"agentCronJobs.weekdays.tue": "Sal",
"agentCronJobs.weekdays.wed": "Çar",
"agentInfoDescription.basic.avatar": "Avatar",
"agentInfoDescription.basic.description": "Açıklama",
"agentInfoDescription.basic.name": "İsim",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "Email này đã được liên kết với một tài khoản đã bị xóa và không thể sử dụng để đăng ký",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "Không thể cập nhật email cho tài khoản này",
"codes.EMAIL_NOT_ALLOWED": "Email này không được phép sử dụng để đăng ký",
"codes.EMAIL_NOT_FOUND": "Không tìm thấy email liên kết với tài khoản này. Vui lòng kiểm tra xem tài khoản của bạn đã được liên kết với email chưa.",
"codes.EMAIL_NOT_VERIFIED": "Vui lòng xác minh email trước",
"codes.FAILED_TO_CREATE_SESSION": "Không thể tạo phiên đăng nhập",
"codes.FAILED_TO_CREATE_USER": "Không thể tạo người dùng",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "Mô hình 7B tham số với chất lượng cao hơn Phi-3-mini, tập trung vào dữ liệu chất lượng cao và yêu cầu suy luận.",
"Phi-3.5-mini-instruct.description": "Phiên bản cập nhật của mô hình Phi-3-mini.",
"Phi-3.5-vision-instrust.description": "Phiên bản cập nhật của mô hình Phi-3-vision.",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 là một mô hình ngôn ngữ lớn mã nguồn mở được tối ưu hóa cho khả năng tác nhân, vượt trội trong lập trình, sử dụng công cụ, tuân thủ hướng dẫn và lập kế hoạch dài hạn. Mô hình hỗ trợ phát triển phần mềm đa ngôn ngữ và thực thi quy trình công việc phức tạp nhiều bước, đạt điểm 74.0 trên SWE-bench Verified và vượt qua Claude Sonnet 4.5 trong các tình huống đa ngôn ngữ.",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct là mô hình LLM 7B được tinh chỉnh theo hướng dẫn trong dòng Qwen2. Sử dụng kiến trúc Transformer với SwiGLU, thiên vị QKV trong attention và attention theo nhóm, hỗ trợ đầu vào lớn. Mô hình thể hiện hiệu suất mạnh mẽ trong hiểu ngôn ngữ, sinh văn bản, đa ngôn ngữ, lập trình, toán học và suy luận, vượt trội hơn hầu hết các mô hình mã nguồn mở và cạnh tranh với các mô hình độc quyền. Nó vượt qua Qwen1.5-7B-Chat trong nhiều bài đánh giá.",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct là một phần của dòng LLM mới nhất từ Alibaba Cloud. Mô hình 7B mang lại cải tiến đáng kể trong lập trình và toán học, hỗ trợ hơn 29 ngôn ngữ, và cải thiện khả năng tuân theo hướng dẫn, hiểu dữ liệu có cấu trúc và xuất dữ liệu có cấu trúc (đặc biệt là JSON).",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct là mô hình LLM mới nhất của Alibaba Cloud tập trung vào lập trình. Được xây dựng trên Qwen2.5 và huấn luyện với 5.5T token, nó cải thiện đáng kể khả năng sinh mã, suy luận và sửa lỗi trong khi vẫn giữ được thế mạnh về toán học và khả năng tổng quát, cung cấp nền tảng vững chắc cho các đại lý lập trình.",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.",
"claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
"claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ tiếp theo nhanh nhất của Anthropic. So với Claude 3 Haiku, nó cải thiện toàn diện các kỹ năng và vượt qua mô hình lớn nhất trước đó là Claude 3 Opus trên nhiều tiêu chuẩn đánh giá trí tuệ.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku cung cấp phản hồi nhanh cho các tác vụ nhẹ.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên trên thị trường, hỗ trợ phản hồi gần như tức thì hoặc tư duy mở rộng với khả năng kiểm soát chi tiết.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet là mô hình thông minh nhất của Anthropic và là mô hình lai đầu tiên về lý luận trên thị trường. Nó có thể tạo phản hồi gần như tức thì hoặc lý luận từng bước mở rộng mà người dùng có thể quan sát. Sonnet đặc biệt mạnh trong lập trình, khoa học dữ liệu, thị giác máy tính và các tác vụ tác nhân.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet là mô hình mới nhất và mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku là mô hình nhanh nhất và nhỏ gọn nhất của Anthropic, được thiết kế cho phản hồi gần như tức thì với hiệu suất nhanh và chính xác.",
"claude-3-opus-20240229.description": "Claude 3 Opus là mô hình mạnh mẽ nhất của Anthropic cho các tác vụ phức tạp, xuất sắc về hiệu suất, trí tuệ, lưu loát và hiểu biết.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet cân bằng giữa trí tuệ và tốc độ cho khối lượng công việc doanh nghiệp, mang lại giá trị cao với chi phí thấp hơn và triển khai quy mô lớn đáng tin cậy.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, kết hợp tốc độ chớp nhoáng và khả năng tư duy sâu.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 là mô hình Haiku nhanh nhất và thông minh nhất của Anthropic, với tốc độ cực nhanh và khả năng lý luận mở rộng.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking là biến thể nâng cao có thể hiển thị quá trình suy luận của nó.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu ngữ cảnh.",
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ phức tạp, nổi bật về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu biết.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 là mô hình mới nhất và mạnh mẽ nhất của Anthropic dành cho các tác vụ cực kỳ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
"claude-opus-4-20250514.description": "Claude Opus 4 là mô hình mạnh mẽ nhất của Anthropic dành cho các tác vụ cực kỳ phức tạp, vượt trội về hiệu suất, trí tuệ, độ trôi chảy và khả năng hiểu.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 là mô hình hàng đầu của Anthropic, kết hợp trí tuệ vượt trội với hiệu suất có thể mở rộng, lý tưởng cho các tác vụ phức tạp đòi hỏi phản hồi và suy luận chất lượng cao nhất.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking có thể tạo phản hồi gần như tức thì hoặc suy luận từng bước mở rộng với quy trình hiển thị.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 là mô hình thông minh nhất của Anthropic tính đến hiện tại, cung cấp phản hồi gần như tức thì hoặc tư duy từng bước với khả năng kiểm soát chi tiết cho người dùng API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic tính đến hiện tại.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 có thể tạo phản hồi gần như tức thì hoặc lý luận từng bước mở rộng với quy trình hiển thị rõ ràng.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 là mô hình thông minh nhất của Anthropic cho đến nay.",
"codegeex-4.description": "CodeGeeX-4 là trợ lý lập trình AI mạnh mẽ hỗ trợ hỏi đáp đa ngôn ngữ và hoàn thành mã để tăng năng suất lập trình viên.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B là mô hình tạo mã đa ngôn ngữ hỗ trợ hoàn thành và sinh mã, thông dịch mã, tìm kiếm web, gọi hàm và hỏi đáp mã ở cấp độ kho lưu trữ, bao phủ nhiều tình huống phát triển phần mềm. Đây là mô hình mã hàng đầu dưới 10 tỷ tham số.",
"codegemma.description": "CodeGemma là mô hình nhẹ cho các tác vụ lập trình đa dạng, cho phép lặp lại nhanh và tích hợp dễ dàng.",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp là phiên bản thử nghiệm của V3.2, là cầu nối đến kiến trúc tiếp theo. Mô hình bổ sung DeepSeek Sparse Attention (DSA) trên nền tảng V3.1-Terminus để cải thiện hiệu quả huấn luyện và suy luận với ngữ cảnh dài, cùng các tối ưu hóa cho việc sử dụng công cụ, hiểu tài liệu dài và suy luận nhiều bước. Đây là lựa chọn lý tưởng để khám phá hiệu quả suy luận cao hơn với ngân sách ngữ cảnh lớn.",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 là mô hình MoE với 671 tỷ tham số, sử dụng MLA và DeepSeekMoE với cân bằng tải không tổn thất để huấn luyện và suy luận hiệu quả. Được huấn luyện trước trên 14.8T token chất lượng cao với SFT và RL, mô hình vượt trội so với các mô hình mã nguồn mở khác và tiệm cận các mô hình đóng hàng đầu.",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) là một mô hình sáng tạo cung cấp khả năng hiểu và tương tác ngôn ngữ sâu sắc.",
"deepseek-ai/deepseek-r1.description": "Một mô hình ngôn ngữ tiên tiến, hiệu quả, mạnh về suy luận, toán học và lập trình.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.",
"deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng suy luận và độ dài đầu ra cho các tác vụ hỏi đáp hàng ngày và tác vụ đại lý. Trên các tiêu chuẩn công khai, mô hình đạt mức tương đương GPT-5 và là mô hình đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá đại lý mã nguồn mở.",
"deepseek-chat.description": "Một mô hình mã nguồn mở mới kết hợp khả năng tổng quát và lập trình. Nó giữ lại khả năng đối thoại chung của mô hình trò chuyện và khả năng lập trình mạnh mẽ của mô hình lập trình viên, với sự điều chỉnh ưu tiên tốt hơn. DeepSeek-V2.5 cũng cải thiện khả năng viết và tuân thủ hướng dẫn.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 là mô hình mã nguồn MoE mã nguồn mở với hiệu suất mạnh mẽ trong các tác vụ lập trình, có thể so sánh với GPT-4 Turbo.",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "Phiên bản đầy đủ DeepSeek R1 nhanh với tìm kiếm web thời gian thực, kết hợp khả năng 671B và phản hồi nhanh hơn.",
"deepseek-r1-online.description": "Phiên bản đầy đủ DeepSeek R1 với 671B tham số và tìm kiếm web thời gian thực, mang lại khả năng hiểu và tạo nội dung mạnh mẽ hơn.",
"deepseek-r1.description": "DeepSeek-R1 sử dụng dữ liệu khởi động lạnh trước khi áp dụng học tăng cường và đạt hiệu suất tương đương OpenAI-o1 trong các tác vụ toán học, lập trình và suy luận.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking là mô hình suy luận sâu, tạo chuỗi tư duy trước khi xuất đầu ra để đạt độ chính xác cao hơn, đạt kết quả hàng đầu trong các cuộc thi và có khả năng suy luận tương đương Gemini-3.0-Pro.",
"deepseek-reasoner.description": "Chế độ suy luận DeepSeek V3.2 xuất ra chuỗi suy nghĩ trước khi đưa ra câu trả lời cuối cùng để nâng cao độ chính xác.",
"deepseek-v2.description": "DeepSeek V2 là mô hình MoE hiệu quả cho xử lý tiết kiệm chi phí.",
"deepseek-v2:236b.description": "DeepSeek V2 236B là mô hình tập trung vào mã nguồn của DeepSeek với khả năng tạo mã mạnh mẽ.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 là mô hình MoE với 671B tham số, nổi bật về lập trình, khả năng kỹ thuật, hiểu ngữ cảnh và xử lý văn bản dài.",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K là mô hình siêu nhẹ dành cho hỏi đáp đơn giản, phân loại và suy luận chi phí thấp.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K là mô hình tư duy nhanh với ngữ cảnh 32K dành cho lý luận phức tạp và trò chuyện nhiều lượt.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview là bản xem trước mô hình tư duy để đánh giá và thử nghiệm.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, được phát triển bởi nhóm Seed của ByteDance, hỗ trợ chỉnh sửa và phối hợp nhiều hình ảnh. Tính năng bao gồm duy trì nhất quán chủ thể, tuân thủ hướng dẫn chính xác, hiểu logic không gian, biểu đạt thẩm mỹ, bố cục poster và thiết kế logo với khả năng kết xuất văn bản-hình ảnh chính xác cao.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, được phát triển bởi ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh để tạo hình ảnh chất lượng cao, có thể kiểm soát tốt từ lời nhắc.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 là mô hình tạo ảnh của ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo ảnh chất lượng cao và dễ kiểm soát. Nó tạo ảnh từ các gợi ý văn bản.",
"fal-ai/flux-kontext/dev.description": "Mô hình FLUX.1 tập trung vào chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] chấp nhận đầu vào là văn bản và hình ảnh tham chiếu, cho phép chỉnh sửa cục bộ chính xác và biến đổi toàn cảnh phức tạp.",
"fal-ai/flux/krea.description": "Flux Krea [dev] là mô hình tạo hình ảnh với thiên hướng thẩm mỹ hướng đến hình ảnh chân thực và tự nhiên hơn.",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Mô hình tạo hình ảnh đa phương thức mạnh mẽ bản địa.",
"fal-ai/imagen4/preview.description": "Mô hình tạo hình ảnh chất lượng cao từ Google.",
"fal-ai/nano-banana.description": "Nano Banana là mô hình đa phương thức bản địa mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
"fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ nhóm Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa văn bản tiếng Trung/Anh chính xác, chuyển đổi phong cách, xoay ảnh và nhiều hơn nữa.",
"fal-ai/qwen-image.description": "Mô hình tạo hình ảnh mạnh mẽ từ nhóm Qwen với khả năng kết xuất văn bản tiếng Trung vượt trội và phong cách hình ảnh đa dạng.",
"fal-ai/qwen-image-edit.description": "Mô hình chỉnh sửa hình ảnh chuyên nghiệp từ nhóm Qwen, hỗ trợ chỉnh sửa ngữ nghĩa và hình thức, chỉnh sửa chính xác văn bản tiếng Trung và tiếng Anh, và cho phép chỉnh sửa chất lượng cao như chuyển đổi phong cách và xoay vật thể.",
"fal-ai/qwen-image.description": "Mô hình tạo ảnh mạnh mẽ từ nhóm Qwen với khả năng hiển thị văn bản tiếng Trung ấn tượng và phong cách hình ảnh đa dạng.",
"flux-1-schnell.description": "Mô hình chuyển văn bản thành hình ảnh với 12 tỷ tham số từ Black Forest Labs, sử dụng phương pháp khuếch tán đối kháng tiềm ẩn để tạo hình ảnh chất lượng cao chỉ trong 14 bước. Mô hình cạnh tranh với các lựa chọn đóng và được phát hành theo giấy phép Apache-2.0 cho mục đích cá nhân, nghiên cứu và thương mại.",
"flux-dev.description": "FLUX.1 [dev] là mô hình chưng cất mã nguồn mở dành cho mục đích phi thương mại. Mô hình giữ chất lượng hình ảnh gần như chuyên nghiệp và khả năng tuân thủ hướng dẫn, đồng thời hoạt động hiệu quả hơn, sử dụng tài nguyên tốt hơn so với các mô hình tiêu chuẩn cùng kích thước.",
"flux-kontext-max.description": "Tạo và chỉnh sửa hình ảnh theo ngữ cảnh tiên tiến, kết hợp văn bản và hình ảnh để tạo ra kết quả chính xác và mạch lạc.",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
"gemini-2.0-flash-lite.description": "Biến thể Gemini 2.0 Flash được tối ưu hóa cho hiệu quả chi phí và độ trễ thấp.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash mang đến các tính năng thế hệ mới bao gồm tốc độ vượt trội, sử dụng công cụ gốc, tạo nội dung đa phương thức và cửa sổ ngữ cảnh 1 triệu token.",
"gemini-2.5-flash-image-preview.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
"gemini-2.5-flash-image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
"gemini-2.5-flash-image:image.description": "Nano Banana là mô hình đa phương thức gốc mới nhất, nhanh nhất và hiệu quả nhất của Google, cho phép tạo và chỉnh sửa hình ảnh thông qua hội thoại.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.",
"gemini-3-flash-preview.description": "Gemini 3 Flash là mô hình thông minh nhất được xây dựng để tối ưu tốc độ, kết hợp trí tuệ tiên tiến với khả năng tìm kiếm chính xác.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Prolà mô hình tạo hình ảnh của Google, đồng thời hỗ trợ hội thoại đa phương thức.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo ảnh của Google và cũng hỗ trợ trò chuyện đa phương thức.",
"gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.",
"gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash",
"gemini-flash-lite-latest.description": "Phiên bản mới nhất của Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max là phiên bản đầy đủ tính năng nhất, hỗ trợ tìm kiếm web và nhiều plugin tích hợp. Các khả năng cốt lõi được tối ưu hóa hoàn toàn, vai trò hệ thống và gọi hàm mang lại hiệu suất vượt trội trong các tình huống ứng dụng phức tạp.",
"generalv3.description": "Spark Pro là mô hình LLM hiệu suất cao được tối ưu cho các lĩnh vực chuyên môn, tập trung vào toán học, lập trình, y tế và giáo dục, với tìm kiếm web và các plugin tích hợp như thời tiết và ngày tháng. Nó mang lại hiệu suất mạnh mẽ và hiệu quả trong hỏi đáp kiến thức phức tạp, hiểu ngôn ngữ và sáng tạo văn bản nâng cao, là lựa chọn lý tưởng cho các trường hợp sử dụng chuyên nghiệp.",
"glm-4-0520.description": "GLM-4-0520 là phiên bản mô hình mới nhất, được thiết kế cho các tác vụ phức tạp và đa dạng với hiệu suất vượt trội.",
"glm-4-32b-0414.description": "GLM-4 32B 0414 là mô hình GLM tổng quát hỗ trợ tạo và hiểu văn bản đa nhiệm.",
"glm-4-7.description": "GLM-4.7 là mô hình hàng đầu mới nhất từ Zhipu AI. GLM-4.7 nâng cao khả năng lập trình, lập kế hoạch tác vụ dài hạn và hợp tác công cụ cho các tình huống Lập trình Tác nhân, đạt hiệu suất hàng đầu trong số các mô hình mã nguồn mở trên nhiều bảng xếp hạng công khai. Khả năng tổng quát được cải thiện, phản hồi ngắn gọn và tự nhiên hơn, và trải nghiệm viết sâu sắc hơn. Trong các tác vụ tác nhân phức tạp, khả năng tuân thủ hướng dẫn khi gọi công cụ mạnh hơn, thẩm mỹ giao diện và hiệu quả hoàn thành tác vụ dài hạn cũng được nâng cao. • Khả năng lập trình mạnh hơn: Cải thiện đáng kể lập trình đa ngôn ngữ và hiệu suất tác nhân dòng lệnh; GLM-4.7 có thể triển khai cơ chế \"nghĩ trước, hành động sau\" trong các khung lập trình như Claude Code, Kilo Code, TRAE, Cline và Roo Code, với hiệu suất ổn định hơn trong các tác vụ phức tạp. • Cải thiện thẩm mỹ giao diện: GLM-4.7 thể hiện tiến bộ rõ rệt trong chất lượng tạo giao diện, có thể tạo trang web, bản trình chiếu và áp phích với tính thẩm mỹ cao hơn. • Khả năng gọi công cụ mạnh hơn: GLM-4.7 nâng cao khả năng gọi công cụ, đạt 67 điểm trong đánh giá tác vụ web BrowseComp; đạt 84.7 điểm trong đánh giá gọi công cụ tương tác τ²-Bench, vượt qua Claude Sonnet 4.5 và trở thành SOTA mã nguồn mở. • Cải thiện khả năng suy luận: Tăng cường đáng kể khả năng toán học và suy luận, đạt 42.8% trong tiêu chuẩn HLE (\"Kỳ thi cuối cùng của nhân loại\"), tăng 41% so với GLM-4.6, vượt qua GPT-5.1. • Tăng cường khả năng tổng quát: Đối thoại của GLM-4.7 ngắn gọn, thông minh và gần gũi hơn; viết và nhập vai có tính văn học và nhập vai hơn.",
"glm-4-9b-chat.description": "GLM-4-9B-Chat thể hiện hiệu suất mạnh mẽ trong ngữ nghĩa, toán học, suy luận, mã hóa và kiến thức. Nó cũng hỗ trợ duyệt web, thực thi mã, gọi công cụ tùy chỉnh và suy luận văn bản dài, hỗ trợ 26 ngôn ngữ bao gồm tiếng Nhật, Hàn và Đức.",
"glm-4-air-250414.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
"glm-4-air.description": "GLM-4-Air là lựa chọn có giá trị cao với hiệu suất gần GLM-4, tốc độ nhanh và chi phí thấp hơn.",
@ -558,7 +555,6 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking là mô hình VLM ~10B mạnh nhất hiện nay, bao phủ các tác vụ SOTA như hiểu video, hỏi đáp hình ảnh, giải đề, OCR, đọc tài liệu và biểu đồ, tác tử GUI, lập trình giao diện và liên kết ngữ nghĩa. Với học tăng cường tiên tiến, nó sử dụng suy luận chuỗi tư duy để cải thiện độ chính xác và độ phong phú, vượt trội hơn các mô hình không suy nghĩ truyền thống cả về kết quả và khả năng giải thích.",
"glm-4.5-air.description": "Phiên bản nhẹ của GLM-4.5 cân bằng giữa hiệu suất và chi phí, với chế độ suy nghĩ kết hợp linh hoạt.",
"glm-4.5-airx.description": "Phiên bản nhanh của GLM-4.5-Air với phản hồi nhanh hơn cho các trường hợp sử dụng quy mô lớn, tốc độ cao.",
"glm-4.5-flash.description": "Phiên bản miễn phí của GLM-4.5 với hiệu suất mạnh mẽ trong suy luận, mã hóa và tác vụ tác tử.",
"glm-4.5-x.description": "Phiên bản nhanh của GLM-4.5, mang lại hiệu suất mạnh mẽ với tốc độ tạo lên đến 100 token/giây.",
"glm-4.5.description": "Mô hình hàng đầu của Zhipu với chế độ suy nghĩ có thể chuyển đổi, cung cấp SOTA mã nguồn mở tổng thể và hỗ trợ ngữ cảnh lên đến 128K.",
"glm-4.5v.description": "Mô hình suy luận thị giác thế hệ tiếp theo của Zhipu với tổng 106B tham số, 12B hoạt động, đạt SOTA trong các mô hình đa phương thức mã nguồn mở cùng kích thước về hình ảnh, video, hiểu tài liệu và tác vụ GUI.",

View file

@ -29,7 +29,6 @@
"internlm.description": "Tổ chức mã nguồn mở tập trung vào nghiên cứu mô hình lớn và công cụ, cung cấp nền tảng hiệu quả, dễ sử dụng để tiếp cận các mô hình và thuật toán tiên tiến.",
"jina.description": "Thành lập năm 2020, Jina AI là công ty hàng đầu về AI tìm kiếm. Bộ công cụ tìm kiếm của họ bao gồm mô hình vector, bộ xếp hạng lại và mô hình ngôn ngữ nhỏ để xây dựng ứng dụng tìm kiếm sinh và đa phương thức chất lượng cao.",
"lmstudio.description": "LM Studio là ứng dụng máy tính để phát triển và thử nghiệm LLM ngay trên máy của bạn.",
"lobehub.description": "LobeHub Cloud sử dụng API chính thức để truy cập các mô hình AI và tính mức sử dụng bằng Tín dụng dựa trên số lượng token của mô hình.",
"minimax.description": "Thành lập năm 2021, MiniMax xây dựng AI đa năng với các mô hình nền tảng đa phương thức, bao gồm mô hình văn bản MoE hàng nghìn tỷ tham số, mô hình giọng nói và thị giác, cùng các ứng dụng như Hailuo AI.",
"mistral.description": "Mistral cung cấp các mô hình tổng quát, chuyên biệt và nghiên cứu tiên tiến cho suy luận phức tạp, tác vụ đa ngôn ngữ và tạo mã, với khả năng gọi hàm cho tích hợp tùy chỉnh.",
"modelscope.description": "ModelScope là nền tảng mô hình dưới dạng dịch vụ của Alibaba Cloud, cung cấp nhiều mô hình AI và dịch vụ suy luận.",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "Tạo tác vụ định kỳ đầu tiên để tự động hóa tác nhân của bạn",
"agentCronJobs.empty.title": "Chưa có tác vụ định kỳ",
"agentCronJobs.enable": "Kích Hoạt",
"agentCronJobs.form.at": "lúc",
"agentCronJobs.form.content.placeholder": "Nhập lời nhắc hoặc hướng dẫn cho tác nhân",
"agentCronJobs.form.every": "Mỗi",
"agentCronJobs.form.frequency": "Tần suất",
"agentCronJobs.form.hours": "giờ",
"agentCronJobs.form.maxExecutions": "Dừng sau",
"agentCronJobs.form.maxExecutions.placeholder": "Để trống nếu không giới hạn",
"agentCronJobs.form.name.placeholder": "Nhập tên tác vụ",
"agentCronJobs.form.time": "Thời gian",
"agentCronJobs.form.timeRange.end": "Thời Gian Kết Thúc",
"agentCronJobs.form.timeRange.start": "Thời Gian Bắt Đầu",
"agentCronJobs.form.times": "lần",
"agentCronJobs.form.timezone": "Múi giờ",
"agentCronJobs.form.unlimited": "Chạy liên tục",
"agentCronJobs.form.validation.contentRequired": "Nội dung tác vụ là bắt buộc",
"agentCronJobs.form.validation.invalidTimeRange": "Thời gian bắt đầu phải trước thời gian kết thúc",
"agentCronJobs.form.validation.nameRequired": "Tên tác vụ là bắt buộc",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "Thứ Ba",
"agentCronJobs.weekday.wednesday": "Thứ Tư",
"agentCronJobs.weekdays": "Các Ngày Trong Tuần",
"agentCronJobs.weekdays.fri": "Thứ Sáu",
"agentCronJobs.weekdays.mon": "Thứ Hai",
"agentCronJobs.weekdays.sat": "Thứ Bảy",
"agentCronJobs.weekdays.sun": "Chủ Nhật",
"agentCronJobs.weekdays.thu": "Thứ Năm",
"agentCronJobs.weekdays.tue": "Thứ Ba",
"agentCronJobs.weekdays.wed": "Thứ Tư",
"agentInfoDescription.basic.avatar": "Ảnh đại diện",
"agentInfoDescription.basic.description": "Mô tả",
"agentInfoDescription.basic.name": "Tên",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "一款拥有 70 亿参数的模型,质量优于 Phi-3-mini专注于高质量、推理密集型数据。",
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 是一个开源的大型语言模型,专为智能体能力优化,擅长编程、工具使用、指令执行和长期规划。该模型支持多语言软件开发和复杂的多步骤工作流执行,在 SWE-bench Verified 中获得 74.0 分,在多语言场景中超越了 Claude Sonnet 4.5。",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 亿参数指令微调大模型。采用 Transformer 架构,结合 SwiGLU、注意力 QKV 偏置和分组查询注意力,支持大输入,语言理解、生成、多语言、编程、数学和推理能力强,超越大多数开源模型,媲美闭源模型。在多个基准测试中优于 Qwen1.5-7B-Chat。",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里云最新大模型系列的一部分。该 70 亿参数模型在编程和数学方面有显著提升,支持 29+ 种语言,增强了指令理解、结构化数据处理和结构化输出(特别是 JSON。",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里云最新面向编程的大模型。基于 Qwen2.5 构建,训练数据达 5.5 万亿 token显著提升代码生成、推理与修复能力同时保留数学与通用能力为编程智能体提供坚实基础。",
@ -271,21 +272,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。",
"claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现了提升,并在多个基准测试中超越了上一代旗舰 Claude 3 Opus。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型。相比 Claude 3 Haiku它在多项能力上有所提升并在多个智能基准测试中超越了此前最大的模型 Claude 3 Opus。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速响应,适用于轻量级任务。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智能的模型,也是市场上首个混合推理模型,支持近乎即时响应或细致入微的深度思考,具备精细化控制能力。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智能的模型,也是市场上首个混合推理模型。它既能快速响应,也能进行可视化的逐步推理,特别擅长编程、数据科学、视觉处理和智能体任务。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新、最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快、最紧凑的模型,专为近乎即时响应而设计,具备快速且准确的性能。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最强大的模型,适用于高度复杂的任务,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智能与速度之间取得平衡,适用于企业级工作负载,提供高效能与低成本的可靠部署。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快且最智能的 Haiku 模型,兼具闪电般的速度与深度思考能力。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 推出的最快、最智能的 Haiku 模型,具备闪电般的速度和增强的推理能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一款高级变体,能够展示其推理过程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新、最强大的模型,专为处理高度复杂任务而设计,在性能、智能、流畅性和理解力方面表现卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最强大的模型,专注于处理高度复杂的任务,在性能、智能、流畅性和理解力方面表现出色。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗舰模型,结合卓越智能与可扩展性能,适用于需要最高质量响应与推理的复杂任务。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可生成近乎即时的响应或可视化的逐步推理过程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今为止最智能的模型,支持近乎即时响应或逐步深入思考,为 API 用户提供精细化控制。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 目前最智能的模型。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能够快速响应或进行可视化的逐步思考。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今为止最智能的模型。",
"codegeex-4.description": "CodeGeeX-4 是一款强大的 AI 编程助手,支持多语言问答和代码补全,提升开发者效率。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一款多语言代码生成模型,支持代码补全与生成、代码解释器、网页搜索、函数调用和仓库级代码问答,覆盖广泛的软件开发场景。是 100 亿参数以下的顶级代码模型。",
"codegemma.description": "CodeGemma 是一款轻量级模型,适用于多种编程任务,支持快速迭代与集成。",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的实验版本,连接下一代架构。在 V3.1-Terminus 基础上引入 DeepSeek 稀疏注意力DSA提升长上下文训练与推理效率优化工具使用、长文档理解和多步推理。适合探索大上下文预算下的高效推理。",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一个拥有 671B 参数的 MoE 模型,采用 MLA 和 DeepSeekMoE 架构,具备无损负载均衡,实现高效训练与推理。在 14.8T 高质量数据上预训练,并结合 SFT 与 RL性能超越其他开源模型接近领先闭源模型。",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67B是一款创新模型具备深度语言理解与交互能力。",
"deepseek-ai/deepseek-r1.description": "一款高效的最先进大模型,在推理、数学和编程方面表现强劲。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。",
"deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。在公开基准测试中达到 GPT-5 水平,并首创将思维过程融入工具使用,在开源智能体评测中表现领先。",
"deepseek-chat.description": "一个结合通用能力与编程能力的新开源模型。它保留了聊天模型的对话能力和编程模型的强大编程能力并在偏好对齐方面表现更佳。DeepSeek-V2.5 还提升了写作和指令执行能力。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据87% 代码13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款开源 MoE 编程模型,在编程任务中表现强劲,可媲美 GPT-4 Turbo。",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版本,支持实时网页搜索,结合 671B 规模能力与更快响应。",
"deepseek-r1-online.description": "DeepSeek R1 全量版本,具备 671B 参数与实时网页搜索,提供更强理解与生成能力。",
"deepseek-r1.description": "DeepSeek-R1 在强化学习前使用冷启动数据,在数学、编程和推理任务中表现可与 OpenAI-o1 相媲美。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,在生成输出前先构建思维链条,以提升准确性,在竞赛中取得顶尖成绩,其推理能力可媲美 Gemini-3.0-Pro。",
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在给出最终答案前输出思维链,以提升准确性。",
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,适用于成本敏感型处理任务。",
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 推出的代码专用模型,具备强大代码生成能力。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款拥有 671B 参数的 MoE 模型,在编程与技术能力、上下文理解和长文本处理方面表现突出。",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超轻量模型,适用于简单问答、分类与低成本推理。",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字节跳动 Seed 团队打造,支持多图编辑与合成,具备更强的主体一致性、精准的指令执行能力、空间逻辑理解、美学表达、海报排版与标志设计,并实现高精度图文渲染。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队开发,支持文本与图像输入,可根据提示词生成高度可控、高质量的图像。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是字节跳动 Seed 团队推出的图像生成模型,支持文本和图像输入,具备高度可控和高质量的图像生成能力,可根据文本提示生成图像。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文本与参考图像输入,支持局部精准编辑与复杂全局场景变换。",
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款图像生成模型,偏好更真实自然的美学风格。",
@ -481,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "一款强大的原生多模态图像生成模型。",
"fal-ai/imagen4/preview.description": "来自 Google 的高质量图像生成模型。",
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持通过对话生成与编辑图像。",
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义与外观编辑、中英文文本精修、风格迁移、旋转等多种功能。",
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力与多样化视觉风格。",
"fal-ai/qwen-image-edit.description": "Qwen 团队推出的专业图像编辑模型,支持语义和外观编辑,能够精准编辑中英文文本,并实现风格迁移、物体旋转等高质量编辑效果。",
"fal-ai/qwen-image.description": "Qwen 团队推出的强大图像生成模型,具备出色的中文文本渲染能力和多样化的视觉风格。",
"flux-1-schnell.description": "来自 Black Forest Labs 的 120 亿参数文本转图像模型,采用潜在对抗扩散蒸馏技术,可在 1-4 步内生成高质量图像。性能媲美闭源模型,采用 Apache-2.0 许可,适用于个人、研究与商业用途。",
"flux-dev.description": "FLUX.1 [dev] 是一款开源权重蒸馏模型,仅限非商业用途。保持接近专业图像质量与指令遵循能力,同时运行更高效,资源利用优于同等规模标准模型。",
"flux-kontext-max.description": "最先进的上下文图像生成与编辑模型,结合文本与图像输入,实现精准一致的结果。",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一个轻量变体,优化了成本效率与低延迟表现。",
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供下一代功能,包括卓越速度、原生工具使用、多模态生成以及 100 万 token 上下文窗口。",
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模态模型,支持对话式图像生成与编辑。",
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快、最高效的原生多模态模型,支持对话式图像生成与编辑。",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 最小、性价比最高的模型,适用于大规模使用场景。",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗舰推理模型,支持长上下文,适用于复杂任务。",
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度为核心的智能模型,融合前沿智能与卓越的搜索能力。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 推出的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
@ -543,7 +540,7 @@
"generalv3.5.description": "讯飞星火 Max 是功能最全面的版本,支持网页搜索与多种内置插件。其核心能力、系统角色与函数调用均经过全面优化,适用于复杂应用场景,表现卓越。",
"generalv3.description": "讯飞星火 Pro 是一款面向专业领域优化的大模型,专注于数学、编程、医疗与教育,支持网页搜索与天气、日期等内置插件。在复杂知识问答、语言理解与高级文本创作方面表现出色,是专业场景的理想选择。",
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,专为处理高度复杂与多样化任务而设计,性能卓越。",
"glm-4-32b-0414.description": "GLM-4 32B 0414 是一款通用 GLM 模型,支持多任务文本生成与理解。",
"glm-4-7.description": "GLM-4.7 是智谱 AI 最新的旗舰模型。GLM-4.7 在编程能力、长期任务规划和工具协作方面实现了提升,适用于 Agentic Coding 场景在多个公开基准测试中表现领先于其他开源模型。其通用能力也得到增强回复更简洁自然写作更具沉浸感。在复杂智能体任务中工具调用时的指令遵循性更强Artifacts 和 Agentic Coding 前端的美学表现及长期任务完成效率进一步提升。• 更强的编程能力多语言编程和终端智能体性能显著提升GLM-4.7 可在 Claude Code、Kilo Code、TRAE、Cline 和 Roo Code 等编程框架中实现“先思考,后行动”的机制,在复杂任务中表现更稳定。• 前端美学提升GLM-4.7 在前端生成质量上取得显著进展能够生成更具视觉吸引力的网站、PPT 和海报。• 更强的工具调用能力GLM-4.7 工具调用能力增强,在 BrowseComp 网页任务评估中得分 67在 τ²-Bench 交互式工具调用评估中得分 84.7,超越 Claude Sonnet 4.5,成为开源 SOTA。• 推理能力提升:数学与推理能力显著增强,在 HLE“人类终极考试”基准测试中得分 42.8%,比 GLM-4.6 提升 41%,超越 GPT-5.1。• 通用能力增强GLM-4.7 对话更简洁、智能且具人性化;写作与角色扮演更具文学性和沉浸感。",
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在语义、数学、推理、编程与知识方面表现强劲,支持网页浏览、代码执行、自定义工具调用与长文本推理,支持包括日语、韩语、德语在内的 26 种语言。",
"glm-4-air-250414.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4速度快、成本低。",
"glm-4-air.description": "GLM-4-Air 是一款高性价比模型,性能接近 GLM-4速度快、成本低。",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最强的约 100 亿参数视觉语言模型覆盖视频理解、图像问答、学科解题、OCR、文档与图表阅读、GUI 智能体、前端编程与视觉定位等 SOTA 任务。通过先进的强化学习,采用思维链推理提升准确性与丰富性,在结果与可解释性方面均优于传统非思考模型。",
"glm-4.5-air.description": "GLM-4.5 轻量版,兼顾性能与成本,支持灵活的混合思维模式。",
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,响应更快,适用于大规模高速使用场景。",
"glm-4.5-flash.description": "GLM-4.5 免费版,在推理、编程与智能体任务中表现强劲。",
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高达每秒 100 个 token性能强劲。",
"glm-4.5.description": "智谱旗舰模型,支持可切换思维模式,整体性能达开源 SOTA支持最长 128K 上下文。",
"glm-4.5v.description": "智谱下一代 MoE 视觉推理模型,总参数 106B激活参数 12B在图像、视频、文档理解与 GUI 任务中,在同规模开源多模态模型中表现领先。",
"glm-4.6.description": "智谱最新旗舰模型 GLM-4.63550 亿参数)在高级编程、长文本处理、推理和智能体能力方面全面超越前代,尤其在编程能力上对标 Claude Sonnet 4成为中国顶尖的编程模型。",
"glm-4.7-flash.description": "GLM-4.7-Flash 是一款 30B 级别的 SOTA 模型,在性能与效率之间实现平衡。它提升了编程能力、长期任务规划和工具协作能力,适用于 Agentic Coding 场景,在多个当前基准排行榜中,在同体量开源模型中表现领先。在执行复杂智能体任务时,工具调用的指令遵循性更强,进一步提升了 Artifacts 和 Agentic Coding 的前端美学和长期任务完成效率。",
"glm-4.7-flashx.description": "GLM-4.7-Flash 是一款 30B 级别的 SOTA 模型,在性能与效率之间实现平衡。它提升了编程能力、长期任务规划和工具协作能力,适用于 Agentic Coding 场景,在多个当前基准排行榜中,在同体量开源模型中表现领先。在执行复杂智能体任务时,工具调用的指令遵循性更强,进一步提升了 Artifacts 和 Agentic Coding 的前端美学和长期任务完成效率。",
"glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型专为智能体编程场景优化具备更强的编程能力、长期任务规划与工具协作能力。在多个公开基准测试中在开源模型中表现领先。通用能力方面回复更简洁自然写作更具沉浸感。在复杂智能体任务中工具调用时的指令遵循能力更强Artifacts 与智能体编程的前端美学与长期任务完成效率也进一步提升。",
"glm-4.description": "GLM-4 是 2024 年 1 月发布的旧版旗舰模型,现已由更强的 GLM-4-0520 替代。",
"glm-4v-flash.description": "GLM-4V-Flash 专注于高效的单图像理解,适用于实时或批量图像处理等快速分析场景。",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini更小、更低成本的 Codex 变体,专为智能编程任务优化。",
"gpt-5.1-codex.description": "GPT-5.1 CodexGPT-5.1 的一个变体,专为复杂代码/智能体工作流优化,适用于 Responses API。",
"gpt-5.1.description": "GPT-5.1 — 一款旗舰模型,专为编程与智能体任务优化,支持可配置的推理深度与更长上下文。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 GPT-5.2 的 ChatGPT 变体chat-latest用于体验最新对话改进。",
"gpt-5.2-pro.description": "GPT-5.2 ProGPT-5.2 的更智能、更精准变体(仅限 Responses API适用于更难的问题与多轮推理。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 ChatGPT 的最新对话版本,带来最新的对话体验改进。",
"gpt-5.2-pro.description": "GPT-5.2 Pro更智能、更精准的 GPT-5.2 变体(仅限 Responses API适用于复杂问题和多轮推理。",
"gpt-5.2.description": "GPT-5.2 是一款旗舰模型,适用于编程与智能体工作流,具备更强推理能力与长上下文处理能力。",
"gpt-5.description": "跨领域编程与智能体任务的最佳模型。GPT-5 在准确性、速度、推理、上下文感知、结构化思维与问题解决方面实现飞跃。",
"gpt-audio.description": "GPT Audio 是支持音频输入/输出的通用对话模型,可通过 Chat Completions API 使用。",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini 是 GPT-5.1-Codex 的小型快速版本,适用于对延迟和成本敏感的编程场景。",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex 是 GPT-5.1 的编程优化版本,适用于大型重构、复杂调试和长时间自主编程任务。",
"openai/gpt-5.1.description": "GPT-5.1 是 GPT-5 系列的最新旗舰,在通用推理、指令执行和对话自然性方面相较 GPT-5 有显著提升,适用于广泛任务。",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat 是 ChatGPT 的变体,用于体验最新的对话改进。",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro更智能、更精准的 GPT-5.2 变体(仅限 Responses API适用于更复杂的问题和更长的多轮推理。",
"openai/gpt-5.2.description": "GPT-5.2 是一款旗舰模型,专为编程和智能体工作流设计,具备更强的推理能力和长上下文处理能力。",
"openai/gpt-5.description": "GPT-5 是 OpenAI 的高性能模型,适用于各种生产和研究任务。",
"openai/gpt-oss-120b.description": "一款功能强大的通用大语言模型,具备强大且可控的推理能力。",
"openai/gpt-oss-20b.description": "一款紧凑的开源权重语言模型,优化用于低延迟和资源受限环境,包括本地和边缘部署。",
@ -1223,7 +1224,6 @@
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗舰模型,采用混合推理,优化用于工程和长上下文任务。",
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗舰模型,具备更长上下文和更强编程能力。",
"z-ai/glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,具备更强通用能力、自然简洁的回复风格与沉浸式写作体验。",
"zai-glm-4.6.description": "在编程和推理任务中表现出色,支持流式输出和工具调用,适用于智能体编程和复杂推理。",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款面向智能体应用的基础模型,采用专家混合架构,优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
"zai-org/GLM-4.5.description": "GLM-4.5 是一款面向智能体应用的基础模型,采用专家混合架构,深度优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。",
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智谱 AI 最新的多模态语言模型,基于 GLM-4.5-Air 旗舰文本模型(总参数 106B激活参数 12B采用 MoE 架构,在成本更低的同时保持强大性能。继承 GLM-4.1V-Thinking 路线,加入 3D-RoPE 提升三维空间推理能力。通过预训练、SFT 和 RL 优化,支持图像、视频和长文档,在 41 个公开多模态基准中排名领先。提供“思考模式”切换,平衡速度与深度。",

View file

@ -29,7 +29,6 @@
"internlm.description": "一个专注于大模型研究与工具链的开源组织,提供高效、易用的平台,让前沿模型与算法触手可及。",
"jina.description": "Jina AI 成立于 2020 年,是领先的搜索 AI 公司,其搜索技术栈包括向量模型、重排序器与小型语言模型,支持构建高质量的生成式与多模态搜索应用。",
"lmstudio.description": "LM Studio 是一款桌面应用,支持在本地开发与实验大语言模型。",
"lobehub.description": "LobeHub 云端使用官方 API 访问 AI 模型,并通过与模型令牌相关的积分来计量使用情况。",
"minimax.description": "MiniMax 成立于 2021 年,致力于构建通用 AI拥有多模态基础模型包括万亿参数的 MoE 文本模型、语音模型与视觉模型,并推出海螺 AI 等应用。",
"mistral.description": "Mistral 提供先进的通用、专业与研究型模型,支持复杂推理、多语言任务与代码生成,具备函数调用能力以实现定制集成。",
"modelscope.description": "ModelScope 是阿里云的模型即服务平台,提供丰富的 AI 模型与推理服务。",

View file

@ -8,6 +8,7 @@
"codes.DELETED_ACCOUNT_EMAIL": "此電子郵件已與已刪除的帳戶相關聯,無法用於註冊",
"codes.EMAIL_CAN_NOT_BE_UPDATED": "目前帳號的電子郵件無法修改",
"codes.EMAIL_NOT_ALLOWED": "此電子郵件不允許用於註冊",
"codes.EMAIL_NOT_FOUND": "此帳戶未綁定電子郵件。請確認您的帳戶是否已綁定電子郵件。",
"codes.EMAIL_NOT_VERIFIED": "請先完成電子郵件驗證",
"codes.FAILED_TO_CREATE_SESSION": "建立會話失敗",
"codes.FAILED_TO_CREATE_USER": "建立使用者失敗",

View file

@ -90,6 +90,7 @@
"Phi-3-small-8k-instruct.description": "一個擁有 70 億參數的模型,品質優於 Phi-3-mini專注於高品質、需推理的資料。",
"Phi-3.5-mini-instruct.description": "Phi-3-mini 模型的更新版本。",
"Phi-3.5-vision-instrust.description": "Phi-3-vision 模型的更新版本。",
"Pro/MiniMaxAI/MiniMax-M2.1.description": "MiniMax-M2.1 是一款開源的大型語言模型,專為代理能力進行優化,擅長程式設計、工具使用、指令遵循與長期規劃。該模型支援多語言軟體開發與複雜的多步驟工作流程執行,在 SWE-bench Verified 測試中獲得 74.0 分,並在多語言場景中超越 Claude Sonnet 4.5。",
"Pro/Qwen/Qwen2-7B-Instruct.description": "Qwen2-7B-Instruct 是 Qwen2 系列中的一款 70 億參數指令微調大型語言模型。它採用 Transformer 架構,結合 SwiGLU、注意力 QKV 偏置與分組查詢注意力機制,能處理大規模輸入內容。該模型在語言理解、生成、多語言任務、程式碼、數學與推理等方面表現優異,超越多數開源模型,並可與商業模型競爭。在多項基準測試中表現優於 Qwen1.5-7B-Chat。",
"Pro/Qwen/Qwen2.5-7B-Instruct.description": "Qwen2.5-7B-Instruct 是阿里雲最新大型語言模型系列的一部分。此 70 億參數模型在程式碼與數學方面有顯著提升,支援超過 29 種語言,並加強了指令遵循、結構化資料理解與結構化輸出(特別是 JSON能力。",
"Pro/Qwen/Qwen2.5-Coder-7B-Instruct.description": "Qwen2.5-Coder-7B-Instruct 是阿里雲最新專注於程式碼的語言模型。基於 Qwen2.5 架構並訓練於 5.5 兆詞元上,顯著提升了程式碼生成、推理與修復能力,同時保有數學與通用能力,為開發智能程式代理提供堅實基礎。",
@ -271,20 +272,20 @@
"chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。",
"claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
"claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 最新一代中速度最快的模型,在多項技能上有所提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的次世代最快模型。相較於 Claude 3 Haiku其在多項技能上皆有提升並在多項智能基準測試中超越先前最大模型 Claude 3 Opus。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku 提供快速回應,適用於輕量任務。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 是 Anthropic 最智慧的模型,也是市場上首個混合推理模型,支援即時回應或延伸思考,並提供細緻的控制能力。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet 是 Anthropic 最智慧的模型,也是市場上首款混合推理模型。它能夠即時回應或進行可視化的逐步推理。Sonnet 尤其擅長程式設計、資料科學、視覺處理與代理任務。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet 是 Anthropic 最新且最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-haiku-20240307.description": "Claude 3 Haiku 是 Anthropic 推出的最快速且最精簡的模型,設計用於即時回應,具備快速且準確的表現。",
"claude-3-opus-20240229.description": "Claude 3 Opus 是 Anthropic 最強大的模型,適用於高度複雜任務,具備卓越的效能、智慧、流暢度與理解力。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet 在智慧與速度之間取得平衡,適合企業工作負載,提供高效能與低成本的大規模部署。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 速度最快且最智慧的 Haiku 模型,具備閃電般的反應速度與延伸思考能力。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 是 Anthropic 目前最快且最智慧的 Haiku 模型,具備閃電般的速度與延伸推理能力。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking 是一個進階版本,能夠揭示其推理過程。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為處理高度複雜的任務而設,於效能、智慧、流暢度與理解力方面皆表現卓越。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜的任務而設,於效能、智慧、流暢度與理解力方面皆表現卓越。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 是 Anthropic 最新且最強大的模型,專為處理高度複雜任務而設計,表現出色,具備卓越的智能、流暢度與理解力。",
"claude-opus-4-20250514.description": "Claude Opus 4 是 Anthropic 最強大的模型,專為處理高度複雜任務而設計,表現卓越,具備優異的智能、流暢度與理解能力。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 是 Anthropic 的旗艦模型,結合卓越智慧與可擴展效能,適合需要最高品質回應與推理的複雜任務。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking 可產生即時回應或延伸的逐步思考,並顯示其推理過程。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 是 Anthropic 迄今最智慧的模型,為 API 使用者提供即時回應或逐步延伸思考的能力,並具備細緻的控制選項。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 能夠即時回應,或進行可視化的逐步思考過程。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 是 Anthropic 迄今最智慧的模型。",
"codegeex-4.description": "CodeGeeX-4 是一款強大的 AI 程式輔助工具,支援多語言問答與程式碼補全,能有效提升開發者的生產力。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B 是一個多語言程式碼生成模型,支援程式碼補全與生成、程式碼解釋器、網頁搜尋、函式呼叫與倉庫層級的程式碼問答,涵蓋多種軟體開發場景。它是參數數量低於 100 億的頂尖程式碼模型之一。",
@ -351,11 +352,10 @@
"deepseek-ai/DeepSeek-V3.2-Exp.description": "DeepSeek-V3.2-Exp 是 V3.2 的實驗版本,銜接下一代架構。在 V3.1-Terminus 基礎上加入 DeepSeek Sparse AttentionDSA提升長上下文訓練與推理效率並針對工具使用、長文理解與多步推理進行優化適合探索高效推理與大上下文應用。",
"deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 是一款擁有 671B 參數的 MoE 模型,採用 MLA 與 DeepSeekMoE 架構,具備無損負載平衡,訓練與推理效率高。預訓練資料達 14.8T 高品質 token並經過 SFT 與 RL 微調,表現超越其他開源模型,接近封閉模型領先水準。",
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67B是一款創新模型具備深層語言理解與互動能力。",
"deepseek-ai/deepseek-r1.description": "一款高效能的先進大模型,擅長推理、數學與程式設計。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。",
"deepseek-chat.description": "DeepSeek V3.2 在推理能力與輸出長度之間取得平衡,適用於日常問答與智能代理任務。其公開基準測試達到 GPT-5 水準,並首創將思考過程整合至工具使用中,在開源代理評測中表現領先。",
"deepseek-chat.description": "一款結合通用與程式能力的新型開源模型。它保留了聊天模型的對話能力與程式模型的強大編碼能力並具備更佳的偏好對齊。DeepSeek-V2.5 同時提升了寫作與指令遵循能力。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token87% 程式碼13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 是一款開源 MoE 程式模型,在程式任務中表現強勁,媲美 GPT-4 Turbo。",
@ -378,7 +378,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 快速全量版,支援即時網頁搜尋,結合 671B 規模能力與快速回應。",
"deepseek-r1-online.description": "DeepSeek R1 全量版擁有 671B 參數與即時網頁搜尋功能,提供更強的理解與生成能力。",
"deepseek-r1.description": "DeepSeek-R1 在強化學習前使用冷啟動資料,於數學、程式碼與推理任務中表現可媲美 OpenAI-o1。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking 是一款深度推理模型,能在輸出前生成思考鏈以提升準確性,在競賽中表現優異,推理能力媲美 Gemini-3.0-Pro。",
"deepseek-reasoner.description": "DeepSeek V3.2 推理模式在給出最終答案前會輸出思考鏈,以提升準確性。",
"deepseek-v2.description": "DeepSeek V2 是一款高效的 MoE 模型,適用於具成本效益的處理任務。",
"deepseek-v2:236b.description": "DeepSeek V2 236B 是 DeepSeek 專注於程式碼生成的模型,具備強大能力。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 是一款擁有 671B 參數的 MoE 模型,在程式設計、技術能力、語境理解與長文本處理方面表現出色。",
@ -472,8 +472,7 @@
"ernie-tiny-8k.description": "ERNIE Tiny 8K 是一款超輕量模型,適合簡單問答、分類與低成本推理。",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。",
"ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字節跳動 Seed 團隊打造,支援多圖編輯與合成,具備更高的主體一致性、精準的指令遵循、空間邏輯理解、美學表現、海報排版與標誌設計能力,並提供高精度的圖文渲染效果。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊打造,支援文字與圖像輸入,實現高度可控且高品質的圖像生成。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 是來自字節跳動 Seed 團隊的圖像生成模型,支援文字與圖像輸入,能夠高品質且高度可控地生成圖像,並可根據文字提示生成圖像。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] 接受文字與參考圖像輸入,實現目標區域編輯與複雜場景轉換。",
"fal-ai/flux/krea.description": "Flux Krea [dev] 是一款圖像生成模型,偏好更真實自然的美學風格。",
@ -481,7 +480,7 @@
"fal-ai/hunyuan-image/v3.description": "一款強大的原生多模態圖像生成模型。",
"fal-ai/imagen4/preview.description": "來自 Google 的高品質圖像生成模型。",
"fal-ai/nano-banana.description": "Nano Banana 是 Google 最新、最快且最高效的原生多模態模型,支援透過對話進行圖像生成與編輯。",
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯、中英文文字精準修改、風格轉換、旋轉等多種功能。",
"fal-ai/qwen-image-edit.description": "來自 Qwen 團隊的專業圖像編輯模型,支援語義與外觀編輯,能精確編輯中英文文字,並實現風格轉換、物體旋轉等高品質編輯效果。",
"fal-ai/qwen-image.description": "來自 Qwen 團隊的強大圖像生成模型,具備優異的中文文字渲染能力與多樣化的視覺風格。",
"flux-1-schnell.description": "來自黑森林實驗室的 12B 參數文字轉圖像模型,透過潛在對抗擴散蒸餾技術,在 1 至 4 步內生成高品質圖像。其表現媲美封閉式替代方案,並以 Apache-2.0 授權釋出,供個人、研究與商業用途。",
"flux-dev.description": "FLUX.1 [dev] 是一款開放權重的蒸餾模型,僅限非商業用途。它保有接近專業水準的圖像品質與指令遵循能力,同時運行更高效,資源使用優於同等大小的標準模型。",
@ -514,8 +513,6 @@
"gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。",
"gemini-2.0-flash-lite.description": "Gemini 2.0 Flash 的一個變體,針對成本效益與低延遲進行最佳化。",
"gemini-2.0-flash.description": "Gemini 2.0 Flash 提供次世代功能,包括極速處理、原生工具使用、多模態生成,以及 100 萬 token 的上下文視窗。",
"gemini-2.5-flash-image-preview.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
"gemini-2.5-flash-image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
"gemini-2.5-flash-image:image.description": "Nano Banana 是 Google 最新、最快且最有效率的原生多模態模型,支援對話式圖像生成與編輯。",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview 是 Google 體積最小、性價比最高的模型,專為大規模應用而設計。",
@ -530,7 +527,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro 是 Google 的旗艦推理模型,支援長上下文,適用於處理複雜任務。",
"gemini-3-flash-preview.description": "Gemini 3 Flash 是一款以速度為核心的智慧模型,結合尖端智能與卓越的搜尋基礎能力。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的圖像生成模型,支援多模態對話。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的圖像生成模型,同時支援多模態對話。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的圖像生成模型,同時支援多模態聊天功能。",
"gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。",
"gemini-flash-latest.description": "Gemini Flash 最新版本",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本",
@ -543,7 +540,7 @@
"generalv3.5.description": "Spark Max 是功能最完整的版本,支援網頁搜尋與多種內建插件。其核心能力、系統角色與函數調用皆經過全面優化,能在複雜應用場景中展現卓越表現。",
"generalv3.description": "Spark Pro 是一款針對專業領域優化的高效能大型語言模型,專注於數學、程式設計、醫療與教育,支援網頁搜尋與天氣、日期等內建插件。其在複雜知識問答、語言理解與高階文本創作方面表現出色,是專業應用的理想選擇。",
"glm-4-0520.description": "GLM-4-0520 是最新版本模型,專為高度複雜與多樣化任務設計,具備卓越效能。",
"glm-4-32b-0414.description": "GLM-4 32B 0414 是一款通用 GLM 模型,支援多任務文本生成與理解。",
"glm-4-7.description": "GLM-4.7 是智譜 AI 最新的旗艦模型。GLM-4.7 強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項公開基準測試中於開源模型中表現領先。其通用能力亦有所提升,回應更簡潔自然,寫作更具沉浸感。在複雜代理任務中,工具調用時的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。• 更強的程式能力多語言編碼與終端代理表現顯著提升GLM-4.7 現可在 Claude Code、Kilo Code、TRAE、Cline、Roo Code 等框架中實現「先思考,後行動」機制,處理複雜任務更穩定。• 前端美學提升GLM-4.7 在前端生成品質上有顯著進展,能生成更具視覺吸引力的網站、簡報與海報。• 更強的工具調用能力GLM-4.7 在 BrowseComp 網頁任務評估中得分 67在 τ²-Bench 互動工具調用評估中得分 84.7,超越 Claude Sonnet 4.5,成為開源 SOTA。• 推理能力提升:數學與推理能力大幅增強,在 HLE「人類最後考試」基準測試中得分 42.8%,較 GLM-4.6 提升 41%,超越 GPT-5.1。• 通用能力增強GLM-4.7 對話更簡潔、智慧且具人性;寫作與角色扮演更具文學性與沉浸感。",
"glm-4-9b-chat.description": "GLM-4-9B-Chat 在語義、數學、推理、程式與知識方面表現優異,並支援網頁瀏覽、程式執行、自訂工具調用與長文本推理,支援包括日語、韓語、德語在內的 26 種語言。",
"glm-4-air-250414.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4速度快且成本低。",
"glm-4-air.description": "GLM-4-Air 是一款高性價比選擇,效能接近 GLM-4速度快且成本低。",
@ -558,11 +555,12 @@
"glm-4.1v-thinking-flashx.description": "GLM-4.1V-Thinking 是目前已知最強的約 10B 視覺語言模型涵蓋影片理解、圖像問答、學科解題、OCR、文件與圖表閱讀、GUI 智能體、前端編碼與語義對齊等 SOTA 任務。透過先進強化學習與思考鏈推理,提升準確性與豐富度,超越傳統非思考模型的結果與可解釋性。",
"glm-4.5-air.description": "GLM-4.5 輕量版,兼顧效能與成本,支援靈活的混合思考模式。",
"glm-4.5-airx.description": "GLM-4.5-Air 快速版,回應更迅速,適用於大規模高速應用。",
"glm-4.5-flash.description": "免費的 GLM-4.5 版本,在推理、程式與智能體任務中表現強勁。",
"glm-4.5-x.description": "GLM-4.5 快速版,生成速度高達每秒 100 個 token效能出色。",
"glm-4.5.description": "智譜旗艦模型,支援可切換思考模式,整體表現達開源 SOTA支援最多 128K 上下文。",
"glm-4.5v.description": "智譜新一代 MoE 視覺推理模型,總參數 106B啟用 12B於圖像、影片、文件理解與 GUI 任務中,在同級開源多模態模型中達到 SOTA 水準。",
"glm-4.6.description": "智譜最新旗艦模型 GLM-4.63550 億參數)在高階編碼、長文本處理、推理與智能體能力上全面超越前代,程式能力與 Claude Sonnet 4 相當,成為中國頂尖的編碼模型。",
"glm-4.7-flash.description": "GLM-4.7-Flash 作為 30B 級別的 SOTA 模型,提供在效能與效率間取得平衡的新選擇。它強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項當前基準排行榜中於同級開源模型中表現領先。在執行複雜智慧代理任務時,其工具調用的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。",
"glm-4.7-flashx.description": "GLM-4.7-Flash 作為 30B 級別的 SOTA 模型,提供在效能與效率間取得平衡的新選擇。它強化了程式能力、長期任務規劃與工具協作,適用於 Agentic Coding 場景,在多項當前基準排行榜中於同級開源模型中表現領先。在執行複雜智慧代理任務時,其工具調用的指令遵循能力更強,並進一步提升 Artifacts 與 Agentic Coding 前端的美學與長期任務完成效率。",
"glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,針對智能體編碼場景進行強化,提升了編碼能力、長期任務規劃與工具協作能力。在多個公開基準測試中於開源模型中表現領先。通用能力方面,回應更簡潔自然,寫作更具沉浸感。對於複雜智能體任務,工具調用時的指令遵循能力更強,並進一步提升了 Artifacts 與智能體編碼的前端美學與長期任務完成效率。",
"glm-4.description": "GLM-4 是 2024 年 1 月推出的舊版旗艦模型,現已由更強的 GLM-4-0520 取代。",
"glm-4v-flash.description": "GLM-4V-Flash 專注於單張圖像的高效理解,適用於即時或批次圖像處理等快速分析場景。",
@ -654,8 +652,8 @@
"gpt-5.1-codex-mini.description": "GPT-5.1 Codex mini較小且成本更低的 Codex 變體,針對智能編碼任務進行最佳化。",
"gpt-5.1-codex.description": "GPT-5.1 CodexGPT-5.1 的變體,針對複雜程式碼與智能體工作流程進行最佳化,適用於 Responses API。",
"gpt-5.1.description": "GPT-5.1 — 旗艦模型,針對編碼與智能體任務進行最佳化,具備可調整的推理深度與更長的上下文支援。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 GPT-5.2 的 ChatGPT 變體chat-latest體驗最新對話改進。",
"gpt-5.2-pro.description": "GPT-5.2 ProGPT-5.2 的更智慧、更精準變體(僅限 Responses API適合處理困難問題與長多輪推理。",
"gpt-5.2-chat-latest.description": "GPT-5.2 Chat 是 ChatGPT 的最新對話版本,帶來最新的對話體驗改進。",
"gpt-5.2-pro.description": "GPT-5.2 Pro更智慧、更精確的 GPT-5.2 變體(僅限 Responses API適用於高難度問題與多輪長推理。",
"gpt-5.2.description": "GPT-5.2 是針對編碼與智能體工作流程的旗艦模型,具備更強推理能力與長上下文表現。",
"gpt-5.description": "跨領域編碼與智能體任務的最佳模型。GPT-5 在準確性、速度、推理、上下文理解、結構化思維與問題解決方面實現飛躍。",
"gpt-audio.description": "GPT Audio 是一款通用聊天模型,支援音訊輸入/輸出,並整合於 Chat Completions API 中。",
@ -966,6 +964,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini 是 GPT-5.1-Codex 的小型快速版本,適合對延遲與成本敏感的程式設計場景。",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex 是針對軟體工程與程式工作流程優化的 GPT-5.1 變體,適用於大型重構、複雜除錯與長時間自動程式任務。",
"openai/gpt-5.1.description": "GPT-5.1 是 GPT-5 系列的最新旗艦版本,在通用推理、指令遵循與對話自然度方面相較 GPT-5 有顯著提升,適用於廣泛任務。",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat 是 ChatGPT 的變體,用於體驗最新的對話改進。",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro更智慧、更精確的 GPT-5.2 變體(僅限 Responses API適用於更困難的問題與更長的多輪推理。",
"openai/gpt-5.2.description": "GPT-5.2 是一款旗艦模型,專為程式設計與代理工作流程打造,具備更強的推理與長上下文處理能力。",
"openai/gpt-5.description": "GPT-5 是 OpenAI 的高效能模型,適用於各類生產與研究任務。",
"openai/gpt-oss-120b.description": "一款具備強大可控推理能力的通用大型語言模型。",
"openai/gpt-oss-20b.description": "一款緊湊型開源權重語言模型,針對低延遲與資源受限環境(如本地與邊緣部署)進行優化。",
@ -1223,7 +1224,6 @@
"z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗艦模型,採用混合推理設計,針對工程與長上下文任務進行優化。",
"z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗艦模型,擴展上下文長度並增強編碼能力。",
"z-ai/glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,具備更強通用能力、回應更自然簡潔,並提供更具沉浸感的寫作體驗。",
"zai-glm-4.6.description": "在編碼與推理任務中表現優異,支援串流與工具調用,適合代理式編碼與複雜推理。",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款基於專家混合架構的代理應用基礎模型,針對工具使用、網頁瀏覽、軟體工程與前端編碼進行優化,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
"zai-org/GLM-4.5.description": "GLM-4.5 是一款基於專家混合架構的代理應用基礎模型,深度優化工具使用、網頁瀏覽、軟體工程與前端編碼,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。",
"zai-org/GLM-4.5V.description": "GLM-4.5V 是智譜 AI 最新 VLM基於 GLM-4.5-Air 旗艦文本模型(總參數 106B啟用 12B採用 MoE 架構,在成本較低的情況下提供強大效能。延續 GLM-4.1V-Thinking 路線,加入 3D-RoPE 提升三維空間推理能力。透過預訓練、SFT 與強化學習優化,支援圖像、影片與長文檔,在 41 項公開多模態基準中名列前茅。提供「思考模式」切換,讓用戶在速度與深度間取得平衡。",

View file

@ -29,7 +29,6 @@
"internlm.description": "一個專注於大型模型研究與工具的開源組織,提供高效、易用的平台,讓尖端模型與演算法更易於取得。",
"jina.description": "Jina AI 成立於 2020 年,是領先的搜尋 AI 公司。其搜尋技術堆疊包含向量模型、重排序器與小型語言模型,打造可靠且高品質的生成式與多模態搜尋應用。",
"lmstudio.description": "LM Studio 是一款桌面應用程式,可在本機開發與實驗大型語言模型。",
"lobehub.description": "LobeHub Cloud 使用官方 API 存取 AI 模型並以與模型代幣相關的點數Credits來計算使用量。",
"minimax.description": "MiniMax 成立於 2021 年,致力於打造通用 AI擁有多模態基礎模型包括兆級參數的 MoE 文本模型、語音模型與視覺模型,並推出如海螺 AI 等應用。",
"mistral.description": "Mistral 提供先進的通用、專業與研究模型,支援複雜推理、多語言任務與程式碼生成,並支援函式呼叫以實現自訂整合。",
"modelscope.description": "ModelScope 是阿里雲的模型即服務平台,提供多樣化的 AI 模型與推理服務。",

View file

@ -34,11 +34,20 @@
"agentCronJobs.empty.description": "建立您的第一個排程任務以自動化代理程式",
"agentCronJobs.empty.title": "尚無排程任務",
"agentCronJobs.enable": "啟用",
"agentCronJobs.form.at": "在",
"agentCronJobs.form.content.placeholder": "輸入給代理程式的提示或指令",
"agentCronJobs.form.every": "每",
"agentCronJobs.form.frequency": "頻率",
"agentCronJobs.form.hours": "小時",
"agentCronJobs.form.maxExecutions": "執行次數上限",
"agentCronJobs.form.maxExecutions.placeholder": "留空表示無限制",
"agentCronJobs.form.name.placeholder": "輸入任務名稱",
"agentCronJobs.form.time": "時間",
"agentCronJobs.form.timeRange.end": "結束時間",
"agentCronJobs.form.timeRange.start": "開始時間",
"agentCronJobs.form.times": "次",
"agentCronJobs.form.timezone": "時區",
"agentCronJobs.form.unlimited": "持續執行",
"agentCronJobs.form.validation.contentRequired": "任務內容為必填",
"agentCronJobs.form.validation.invalidTimeRange": "開始時間必須早於結束時間",
"agentCronJobs.form.validation.nameRequired": "任務名稱為必填",
@ -83,6 +92,13 @@
"agentCronJobs.weekday.tuesday": "星期二",
"agentCronJobs.weekday.wednesday": "星期三",
"agentCronJobs.weekdays": "平日",
"agentCronJobs.weekdays.fri": "週五",
"agentCronJobs.weekdays.mon": "週一",
"agentCronJobs.weekdays.sat": "週六",
"agentCronJobs.weekdays.sun": "週日",
"agentCronJobs.weekdays.thu": "週四",
"agentCronJobs.weekdays.tue": "週二",
"agentCronJobs.weekdays.wed": "週三",
"agentInfoDescription.basic.avatar": "頭像",
"agentInfoDescription.basic.description": "描述",
"agentInfoDescription.basic.name": "名稱",