🐛 fix: show notification when file upload fails due to storage plan limit (#12176)

* 🐛 fix: show notification when file upload fails due to storage plan limit

Previously, when file storage exceeded the plan limit, the TRPC
middleware threw a FORBIDDEN error that was silently swallowed by
the upload components with no user feedback. Now `uploadWithProgress`
catches this specific error and displays a notification guiding
users to upgrade or free up space.

* 🌐 chore: run i18n for upload storage limit error message

* 🌍 i18n: update model descriptions across multiple languages

Added new model descriptions and improved existing ones in Arabic, Bulgarian, German, French, Italian, Japanese, and Korean locales. This update enhances the clarity and detail of model capabilities, ensuring better user understanding and accessibility.
This commit is contained in:
YuTengjing 2026-02-07 22:38:49 +08:00 committed by GitHub
parent 463d6c8762
commit f26d0df93d
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
140 changed files with 1520 additions and 520 deletions

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "سجّل الآن",
"betterAuth.signin.socialError": "فشل تسجيل الدخول الاجتماعي، يرجى المحاولة مرة أخرى",
"betterAuth.signin.socialOnlyHint": "تم تسجيل هذا البريد الإلكتروني عبر حساب اجتماعي تابع لطرف ثالث. سجّل الدخول باستخدام ذلك المزود، أو",
"betterAuth.signin.ssoOnlyNoProviders": "تم تعطيل التسجيل عبر البريد الإلكتروني ولم يتم تكوين أي موفري تسجيل دخول موحد (SSO). يرجى التواصل مع المسؤول.",
"betterAuth.signin.submit": "تسجيل الدخول",
"betterAuth.signup.confirmPasswordPlaceholder": "تأكيد كلمة المرور",
"betterAuth.signup.emailPlaceholder": "أدخل عنوان بريدك الإلكتروني",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "عرض التفاصيل",
"clearCurrentMessages": "مسح رسائل الجلسة الحالية",
"compressedHistory": "السجل المضغوط",
"compression.cancel": "إلغاء الضغط",
"compression.cancelConfirm": "هل أنت متأكد أنك تريد إلغاء الضغط؟ سيؤدي ذلك إلى استعادة الرسائل الأصلية.",
"compression.history": "السجل",
"compression.summary": "الملخص",
"confirmClearCurrentMessages": "أنت على وشك مسح رسائل الجلسة الحالية. بمجرد المسح، لا يمكن استعادتها. يرجى تأكيد الإجراء.",
@ -58,6 +60,10 @@
"emptyAgentAction": "إنشاء وكيل",
"extendParams.disableContextCaching.desc": "يقلل ما يصل إلى 90٪ من تكلفة توليد محادثة واحدة ويوفر سرعة تصل إلى 4 أضعاف. تفعيل هذا سيقوم تلقائيًا بإلغاء الحد على عدد الرسائل التاريخية. <1>اعرف المزيد</1>",
"extendParams.disableContextCaching.title": "تفعيل تخزين السياق المؤقت",
"extendParams.effort.desc": "تحكم في عدد الرموز التي يستخدمها كلود عند الرد باستخدام معلمة الجهد.",
"extendParams.effort.title": "الجهد",
"extendParams.enableAdaptiveThinking.desc": "اسمح لكلود باتخاذ قرارات ديناميكية حول متى وكم يفكر باستخدام وضع التفكير التكيفي.",
"extendParams.enableAdaptiveThinking.title": "تفعيل التفكير التكيفي",
"extendParams.enableReasoning.desc": "استنادًا إلى آلية التفكير في Claude، فإن تفعيل هذا سيقوم تلقائيًا بإلغاء الحد على عدد الرسائل التاريخية. <1>اعرف المزيد</1>",
"extendParams.enableReasoning.title": "تفعيل التفكير العميق",
"extendParams.imageAspectRatio.title": "نسبة أبعاد الصورة",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "لا توجد مجموعات وكلاء منسوخة بعد",
"user.noForkedAgents": "لا يوجد وكلاء منسوخون بعد",
"user.publishedAgents": "الوكلاء المنشؤون",
"user.publishedGroups": "المجموعات المنشأة",
"user.searchPlaceholder": "ابحث بالاسم أو الوصف...",
"user.statusFilter.all": "الكل",
"user.statusFilter.archived": "مؤرشف",
"user.statusFilter.deprecated": "مهمل",
"user.statusFilter.favorite": "مفضل",
"user.statusFilter.forked": "مشتق",
"user.statusFilter.published": "منشور",
"user.statusFilter.unpublished": "قيد المراجعة",
"user.tabs.favorites": "المفضلة",
"user.tabs.forkedAgents": "المنسوخون",
"user.tabs.publishedAgents": "تم الإنشاء",

View file

@ -150,6 +150,7 @@
"upload.desc": "التفاصيل: {{detail}}",
"upload.fileOnlySupportInServerMode": "وضع النشر الحالي لا يدعم تحميل الملفات غير الصورية. لتحميل ملفات بصيغة {{ext}}، يرجى التبديل إلى وضع قاعدة بيانات الخادم أو استخدام خدمة {{cloud}}.",
"upload.networkError": "يرجى التحقق من اتصال الشبكة والتأكد من صحة إعدادات CORS لخدمة تخزين الملفات.",
"upload.storageLimitExceeded": "لقد وصلت مساحة تخزين الملفات إلى الحد الأقصى للخطة. يرجى ترقية خطتك أو حذف الملفات غير المستخدمة لتوفير مساحة.",
"upload.title": "فشل تحميل الملف. يرجى التحقق من الاتصال أو المحاولة لاحقًا.",
"upload.unknownError": "سبب الخطأ: {{reason}}",
"upload.uploadFailed": "فشل تحميل الملف."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "اسم عرض النموذج",
"providerModels.item.modelConfig.extendParams.extra": "اختر المعلمات الموسعة التي يدعمها النموذج. مرّر المؤشر فوق خيار لمعاينة عناصر التحكم. قد تؤدي التهيئة غير الصحيحة إلى فشل الطلب.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "لنماذج Claude؛ يمكن أن يقلل التكلفة ويسرّع الاستجابات.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "لـ Claude Opus 4.6؛ يتحكم في مستوى الجهد (منخفض/متوسط/عالٍ/أقصى).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "لـ Claude Opus 4.6؛ يفعّل أو يعطّل التفكير التكيفي.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "لنماذج Claude وDeepSeek وغيرها من نماذج الاستدلال؛ يفعّل التفكير العميق.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "لسلسلة GPT-5؛ يتحكم في شدة الاستدلال.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "لسلسلة GPT-5.1؛ يتحكم في شدة الاستدلال.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "نموذج استدلال داخلي جديد بسلسلة تفكير تصل إلى 80K ومدخلات حتى 1M، يقدم أداءً مماثلاً لأفضل النماذج العالمية.",
"MiniMax-M2-Stable.description": "مصمم لتدفقات العمل البرمجية والوكلاء بكفاءة عالية، مع قدرة تزامن أعلى للاستخدام التجاري.",
"MiniMax-M2.1-Lightning.description": "قدرات برمجة متعددة اللغات قوية وتجربة برمجة مطورة بالكامل. أسرع وأكثر كفاءة.",
"MiniMax-M2.1.description": "قدرات برمجة متعددة اللغات قوية وتجربة برمجة مطورة بالكامل.",
"MiniMax-M2.1.description": "MiniMax-M2.1 هو نموذج مفتوح المصدر رائد من MiniMax، يركز على حل المهام الواقعية المعقدة. يتميز بقدرات برمجة متعددة اللغات والقدرة على أداء المهام المعقدة كوكلاء ذكي.",
"MiniMax-M2.description": "مصمم خصيصًا للبرمجة الفعالة وتدفقات عمل الوكلاء.",
"MiniMax-Text-01.description": "MiniMax-01 يقدم انتباهًا خطيًا واسع النطاق يتجاوز Transformers التقليدية، مع 456 مليار معامل و45.9 مليار مفعّلة في كل تمرير. يحقق أداءً من الدرجة الأولى ويدعم حتى 4 ملايين رمز سياقي (32× GPT-4o، 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 هو نموذج استدلال واسع النطاق بوزن مفتوح يستخدم انتباهًا هجينًا، يحتوي على 456 مليار معامل إجماليًا و~45.9 مليار مفعّلة لكل رمز. يدعم سياقًا يصل إلى 1M ويستخدم Flash Attention لتقليل FLOPs بنسبة 75% عند توليد 100K رمز مقارنة بـ DeepSeek R1. بهيكل MoE وتدريب RL هجين، يحقق أداءً رائدًا في الاستدلال طويل المدخلات ومهام هندسة البرمجيات الواقعية.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "يحتوي على 1 تريليون معامل إجماليًا و32 مليار مفعّلة. من بين النماذج غير المفكرة، يتصدر في المعرفة المتقدمة، الرياضيات، والبرمجة، وأقوى في مهام الوكلاء العامة. محسن لأعباء عمل الوكلاء، يمكنه اتخاذ إجراءات وليس فقط الإجابة على الأسئلة. الأفضل للمحادثات العامة الارتجالية وتجارب الوكلاء كنموذج يعمل بردود فعل دون تفكير طويل.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة للحسابات المعقدة.",
"OmniConsistency.description": "تحسّن OmniConsistency التناسق الأسلوبي والتعميم في مهام تحويل الصور إلى صور من خلال إدخال محولات الانتشار واسعة النطاق (DiTs) وبيانات مزدوجة النمط، مما يمنع تدهور الأسلوب.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 هو إصدار مطور من سلسلة PaddleOCR-VL، يحقق دقة بنسبة 94.5٪ على معيار OmniDocBench v1.5 لتحليل المستندات، متفوقًا على النماذج العامة والمتخصصة. يدعم تحديد مواقع العناصر داخل المستندات باستخدام مربعات غير منتظمة، مما يجعله فعالًا مع الصور الممسوحة ضوئيًا أو المائلة أو الملتقطة من الشاشات.",
"Phi-3-medium-128k-instruct.description": "نفس نموذج Phi-3-medium ولكن مع نافذة سياق أكبر لدعم استرجاع المعرفة (RAG) أو التعليمات القليلة.",
"Phi-3-medium-4k-instruct.description": "نموذج يحتوي على 14 مليار معلمة بجودة أعلى من Phi-3-mini، يركز على البيانات عالية الجودة التي تتطلب استدلالًا مكثفًا.",
"Phi-3-mini-128k-instruct.description": "نفس نموذج Phi-3-mini ولكن مع نافذة سياق أكبر لدعم استرجاع المعرفة (RAG) أو التعليمات القليلة.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 هو نموذج MoE يحتوي على 671 مليار معلمة، يستخدم MLA وDeepSeekMoE مع توازن تحميل خالٍ من الفقدان لتحقيق كفاءة في الاستدلال والتدريب. تم تدريبه مسبقًا على 14.8 تريليون رمز عالي الجودة وتم تحسينه باستخدام SFT وRL، متفوقًا على النماذج المفتوحة الأخرى ويقترب من النماذج المغلقة الرائدة.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 هو أحدث وأقوى إصدار من Kimi K2. إنه نموذج MoE من الدرجة الأولى يحتوي على إجمالي 1 تريليون و32 مليار معلمة نشطة. من أبرز ميزاته الذكاء البرمجي القوي مع تحسينات كبيرة في المعايير ومهام الوكلاء الواقعية، بالإضافة إلى تحسينات في جمالية واجهة الشيفرة وسهولة الاستخدام.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo هو إصدار Turbo محسّن لسرعة الاستدلال والإنتاجية مع الحفاظ على قدرات التفكير متعدد الخطوات واستخدام الأدوات في K2 Thinking. إنه نموذج MoE يحتوي على حوالي 1 تريليون معلمة إجمالية، ويدعم سياقًا أصليًا بطول 256 ألف رمز، واستدعاء أدوات واسع النطاق ومستقر لسيناريوهات الإنتاج التي تتطلب زمن استجابة وتزامنًا صارمين.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 هو نموذج وكيل متعدد الوسائط مفتوح المصدر، مبني على Kimi-K2-Base، ومدرب على حوالي 1.5 تريليون رمز من النصوص والرؤية. يستخدم بنية MoE بعدد إجمالي 1 تريليون مع 32 مليار معلمات نشطة، ويدعم نافذة سياق تصل إلى 256 ألف، مما يدمج الفهم البصري واللغوي بسلاسة.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 هو النموذج الرائد من الجيل الجديد لشركة Zhipu، يحتوي على 355 مليار معلمة إجمالية و32 مليار معلمة نشطة، وقد تم تطويره بالكامل في مجالات الحوار العام، والاستدلال، وقدرات الوكلاء. يعزز GLM-4.7 التفكير المتداخل ويقدم مفاهيم التفكير المحفوظ والتفكير على مستوى الدور.",
"QwQ-32B-Preview.description": "Qwen QwQ هو نموذج بحث تجريبي يركز على تحسين الاستدلال.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview هو نموذج بحث من Qwen يركز على الاستدلال البصري، يتميز بفهم المشاهد المعقدة وحل مسائل الرياضيات البصرية.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو النموذج الأسرع من الجيل التالي لشركة Anthropic. مقارنةً بـ Claude 3 Haiku، يقدم تحسينات في المهارات ويتفوق على النموذج الأكبر السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل التالي من Anthropic، يقدم تحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku يقدم استجابات سريعة للمهام الخفيفة.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هو النموذج الأكثر ذكاءً من Anthropic وأول نموذج يجمع بين أساليب التفكير المختلفة في السوق. يمكنه تقديم ردود فورية تقريبًا أو استدلال تدريجي مرئي للمستخدم. يتميز Sonnet بقوة خاصة في البرمجة، وعلوم البيانات، والرؤية الحاسوبية، ومهام الوكلاء.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هو أذكى نموذج من Anthropic وأول نموذج هجيني للاستدلال في السوق، يدعم الاستجابات الفورية أو التفكير المطول بتحكم دقيق.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم العميق.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku هو أسرع وأصغر نموذج من Anthropic، مصمم لتقديم استجابات شبه فورية بأداء سريع ودقيق.",
"claude-3-opus-20240229.description": "Claude 3 Opus هو أقوى نموذج من Anthropic للمهام المعقدة، يتميز بالأداء العالي، الذكاء، الطلاقة، والفهم.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet يوازن بين الذكاء والسرعة لتلبية احتياجات المؤسسات، ويوفر فائدة عالية بتكلفة أقل ونشر موثوق على نطاق واسع.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو النموذج الأسرع والأذكى من سلسلة Haiku لدى Anthropic، يجمع بين السرعة الفائقة والاستدلال المتقدم.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 هو أسرع وأذكى نموذج Haiku من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير المطول.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking هو إصدار متقدم يمكنه عرض عملية تفكيره.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي، والذكاء، والطلاقة، والفهم العميق.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة، يتفوق في الأداء، والذكاء، والطلاقة، والاستيعاب.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 هو أحدث وأقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي والذكاء والطلاقة والفهم العميق.",
"claude-opus-4-20250514.description": "Claude Opus 4 هو أقوى نموذج من Anthropic للمهام المعقدة للغاية، يتميز بالأداء العالي والذكاء والطلاقة والفهم العميق.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين الذكاء الاستثنائي والأداء القابل للتوسع، مثالي للمهام المعقدة التي تتطلب استجابات عالية الجودة وتفكير متقدم.",
"claude-opus-4-6.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking يمكنه تقديم استجابات شبه فورية أو تفكير متسلسل مرئي.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 قادر على تقديم ردود شبه فورية أو تفكير تدريجي مفصل يمكن للمستخدم متابعته.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً حتى الآن من Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هو أذكى نموذج من Anthropic حتى الآن، يوفر استجابات شبه فورية أو تفكيرًا متسلسلًا دقيقًا مع تحكم دقيق لمستخدمي API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
"codegeex-4.description": "CodeGeeX-4 هو مساعد برمجة ذكي يدعم الأسئلة والأجوبة متعددة اللغات وإكمال الشيفرة لزيادة إنتاجية المطورين.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B هو نموذج توليد شيفرة متعدد اللغات يدعم الإكمال والتوليد، تفسير الشيفرة، البحث عبر الإنترنت، استدعاء الوظائف، وأسئلة وأجوبة على مستوى المستودع، ويغطي مجموعة واسعة من سيناريوهات تطوير البرمجيات. يُعد من أفضل نماذج الشيفرة تحت 10B.",
"codegemma.description": "CodeGemma هو نموذج خفيف الوزن لمهام البرمجة المتنوعة، يتيح التكرار السريع والتكامل السلس.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "نموذج مفتوح المصدر جديد يجمع بين القدرات العامة والبرمجية. يحافظ على حوار النموذج العام وقوة نموذج البرمجة، مع تحسين التوافق مع تفضيلات المستخدم. كما يعزز DeepSeek-V2.5 مهارات الكتابة واتباع التعليمات.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية والوكلاء. تصل نتائجه في المعايير العامة إلى مستوى GPT-5، وهو أول من دمج التفكير في استخدام الأدوات، متصدرًا تقييمات الوكلاء مفتوحة المصدر.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 هو نموذج كود MoE مفتوح المصدر يتميز بأداء قوي في مهام البرمجة، ويضاهي GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "الإصدار الكامل السريع من DeepSeek R1 مع بحث ويب في الوقت الحقيقي، يجمع بين قدرات بحجم 671B واستجابة أسرع.",
"deepseek-r1-online.description": "الإصدار الكامل من DeepSeek R1 مع 671 مليار معلمة وبحث ويب في الوقت الحقيقي، يوفر فهمًا وتوليدًا أقوى.",
"deepseek-r1.description": "يستخدم DeepSeek-R1 بيانات البداية الباردة قبل التعلم المعزز ويؤدي أداءً مماثلًا لـ OpenAI-o1 في الرياضيات، والبرمجة، والتفكير.",
"deepseek-reasoner.description": "وضع التفكير في DeepSeek V3.2 ينتج سلسلة من الأفكار قبل الإجابة النهائية لتحسين الدقة.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking هو نموذج استدلال عميق يولد سلسلة من الأفكار قبل المخرجات لتحقيق دقة أعلى، ويحقق نتائج تنافسية عالية واستدلالًا يقارن بـ Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 هو نموذج MoE فعال لمعالجة منخفضة التكلفة.",
"deepseek-v2:236b.description": "DeepSeek V2 236B هو نموذج DeepSeek الموجه للبرمجة مع قدرات قوية في توليد الكود.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 هو نموذج MoE يحتوي على 671 مليار معلمة يتميز بقوة في البرمجة، والقدرات التقنية، وفهم السياق، والتعامل مع النصوص الطويلة.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "معاينة ERNIE Character Fiction 8K هو نموذج لإنشاء الشخصيات والحبكات القصصية، مخصص لتقييم الميزات والاختبار.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K هو نموذج شخصيات للروايات وإنشاء الحبكات، مناسب لتوليد القصص الطويلة.",
"ernie-irag-edit.description": "ERNIE iRAG Edit هو نموذج لتحرير الصور يدعم المسح، وإعادة الرسم، وتوليد النسخ المتنوعة.",
"ernie-lite-8k.description": "ERNIE Lite 8K هو نموذج عام خفيف الوزن للأسئلة اليومية الحساسة للتكلفة وتوليد المحتوى.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.",
"ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP مع سرد متعدد الشخصيات.",
"ernie-speed-128k.description": "ERNIE Speed 128K هو نموذج بدون رسوم إدخال/إخراج لفهم النصوص الطويلة والتجارب واسعة النطاق.",
"ernie-speed-8k.description": "ERNIE Speed 8K هو نموذج مجاني وسريع للدردشة اليومية والمهام النصية الخفيفة.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوازي وعالي القيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K هو نموذج فائق الخفة للأسئلة البسيطة، والتصنيف، والاستدلال منخفض التكلفة.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور، ويتميز بإنتاج صور عالية الجودة وقابلة للتحكم بدقة. يقوم بإنشاء صور استنادًا إلى أوامر نصية.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، من تطوير فريق Seed في ByteDance، يدعم تحرير وتركيب صور متعددة. يتميز بالاتساق البصري، ودقة تنفيذ التعليمات، وفهم المنطق المكاني، والتعبير الجمالي، وتصميم الملصقات والشعارات بدقة عالية في دمج النصوص والصور.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير ByteDance Seed، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] يقبل النصوص وصور مرجعية كمدخلات، مما يتيح تعديلات محلية مستهدفة وتحولات معقدة في المشهد العام.",
"fal-ai/flux/krea.description": "Flux Krea [dev] هو نموذج لتوليد الصور يتميز بميول جمالية نحو صور أكثر واقعية وطبيعية.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "نموذج قوي لتوليد الصور متعدد الوسائط أصلي.",
"fal-ai/imagen4/preview.description": "نموذج عالي الجودة لتوليد الصور من Google.",
"fal-ai/nano-banana.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google كفاءةً لتوليد وتحرير الصور من خلال المحادثة.",
"fal-ai/qwen-image-edit.description": "نموذج احترافي لتحرير الصور من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، ويحرر النصوص الصينية والإنجليزية بدقة، كما يتيح تعديلات عالية الجودة مثل نقل الأسلوب وتدوير العناصر.",
"fal-ai/qwen-image.description": "نموذج قوي لتوليد الصور من فريق Qwen، يتميز بعرض متميز للنصوص الصينية وأنماط بصرية متنوعة.",
"fal-ai/qwen-image-edit.description": "نموذج تحرير صور احترافي من فريق Qwen، يدعم التعديلات الدلالية والمظهرية، تحرير النصوص بدقة باللغتين الصينية والإنجليزية، نقل الأنماط، التدوير، والمزيد.",
"fal-ai/qwen-image.description": "نموذج توليد صور قوي من فريق Qwen يتميز بعرض نصوص صينية قوية وأنماط بصرية متنوعة.",
"flux-1-schnell.description": "نموذج تحويل النص إلى صورة يحتوي على 12 مليار معلمة من Black Forest Labs يستخدم تقنيات تقطير الانتشار العدائي الكامن لتوليد صور عالية الجودة في 1-4 خطوات. ينافس البدائل المغلقة ومتاح بموجب ترخيص Apache-2.0 للاستخدام الشخصي والبحثي والتجاري.",
"flux-dev.description": "FLUX.1 [dev] هو نموذج مفتوح الأوزان ومقطر للاستخدام غير التجاري. يحافظ على جودة صور قريبة من المستوى الاحترافي واتباع التعليمات مع كفاءة تشغيل أعلى مقارنة بالنماذج القياسية من نفس الحجم.",
"flux-kontext-max.description": "توليد وتحرير صور سياقية متقدمة، تجمع بين النصوص والصور لتحقيق نتائج دقيقة ومتسقة.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro يدعم ما يصل إلى 2 مليون رمز، وهو نموذج متعدد الوسائط متوسط الحجم مثالي للمهام المعقدة.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
"gemini-2.0-flash-exp-image-generation.description": "نموذج تجريبي من Gemini 2.0 Flash يدعم توليد الصور.",
"gemini-2.0-flash-exp.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash-lite-001.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash-lite.description": "إصدار من Gemini 2.0 Flash محسن لتقليل التكلفة وتقليل التأخير.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash يقدم ميزات الجيل التالي بما في ذلك السرعة الاستثنائية، واستخدام الأدوات الأصلية، والتوليد متعدد الوسائط، وسياق يصل إلى مليون رمز.",
"gemini-2.5-flash-image-preview.description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط كفاءة من Google، يتيح توليد وتحرير الصور عبر المحادثة.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana هو أحدث وأسرع وأكثر نموذج متعدد الوسائط كفاءة من Google، يتيح توليد وتحرير الصور عبر المحادثة.",
"gemini-2.5-flash-image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-image:image.description": "Nano Banana هو أحدث وأسرع وأكثر نماذج Google متعددة الوسائط كفاءة، يتيح توليد الصور وتحريرها عبر المحادثة.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro هو النموذج الرائد من Google في مجال الاستدلال، يدعم السياق الطويل للمهام المعقدة.",
"gemini-3-flash-preview.description": "Gemini 3 Flash هو أذكى نموذج تم تصميمه للسرعة، يجمع بين الذكاء المتقدم وأساس بحث ممتاز.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا الدردشة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا المحادثة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
"gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
@ -574,7 +575,6 @@
"glm-zero-preview.description": "GLM-Zero-Preview يقدم استدلالًا معقدًا قويًا، ويتفوق في المنطق، الرياضيات، والبرمجة.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 هو النموذج الرائد من Anthropic، يجمع بين ذكاء استثنائي وأداء قابل للتوسع للمهام المعقدة التي تتطلب استجابات واستدلال عالي الجودة.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash يقدم قدرات الجيل التالي، بما في ذلك السرعة الممتازة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental هو أحدث نموذج متعدد الوسائط تجريبي من Google مع تحسينات في الجودة مقارنة بالإصدارات السابقة، خاصة في المعرفة العامة، البرمجة، والسياق الطويل.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite هو إصدار خفيف من Gemini مع تعطيل التفكير افتراضيًا لتحسين زمن الاستجابة والتكلفة، ويمكن تفعيله عبر المعلمات.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite يقدم ميزات الجيل التالي بما في ذلك السرعة الفائقة، استخدام الأدوات المدمجة، التوليد متعدد الوسائط، ونافذة سياق تصل إلى مليون رمز.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash هو نموذج استدلال عالي الأداء من Google للمهام متعددة الوسائط الممتدة.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "إصدار K2 عالي السرعة للتفكير الطويل مع نافذة سياق 256k، استدلال عميق قوي، وإخراج 60100 رمز/ثانية.",
"kimi-k2-thinking.description": "kimi-k2-thinking هو نموذج تفكير من Moonshot AI يتمتع بقدرات عامة في الوكالة والاستدلال. يتفوق في الاستدلال العميق ويمكنه حل المشكلات الصعبة باستخدام أدوات متعددة الخطوات.",
"kimi-k2-turbo-preview.description": "kimi-k2 هو نموذج MoE أساسي يتمتع بقدرات قوية في البرمجة والوكالة (1 تريليون معلمة إجمالية، 32 مليار نشطة)، ويتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال، البرمجة، الرياضيات، والوكالة.",
"kimi-k2.5.description": "Kimi K2.5 هو أقوى نموذج من سلسلة Kimi، يقدم أداءً رائدًا مفتوح المصدر في مهام الوكلاء، البرمجة، وفهم الرؤية. يدعم الإدخال متعدد الوسائط وأنماط التفكير وغير التفكير.",
"kimi-k2.description": "Kimi-K2 هو نموذج MoE أساسي من Moonshot AI يتمتع بقدرات قوية في البرمجة والوكالة، بإجمالي 1 تريليون معلمة و32 مليار نشطة. يتفوق على النماذج المفتوحة السائدة في اختبارات الاستدلال العام، البرمجة، الرياضيات، ومهام الوكالة.",
"kimi-k2:1t.description": "Kimi K2 هو نموذج LLM كبير من نوع MoE من Moonshot AI بإجمالي 1 تريليون معلمة و32 مليار نشطة لكل تمرير أمامي. مُحسّن لقدرات الوكالة بما في ذلك استخدام الأدوات المتقدمة، الاستدلال، وتوليد الشيفرة.",
"kimi-latest.description": "Kimi Latest يستخدم أحدث نموذج من Kimi وقد يتضمن ميزات تجريبية. يدعم فهم الصور ويختار تلقائيًا نماذج الفوترة 8k/32k/128k بناءً على طول السياق.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B هو نموذج عام متوسط الحجم يوازن بين التكلفة والجودة لتوليد النصوص والإجابة على الأسئلة.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K يستهدف التعرف على النوايا وتنظيم الوكلاء مع دعم سياق طويل.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K هو نموذج وكيل خفيف للحوار متعدد الأدوار منخفض التكلفة وتدفقات العمل.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K هو نموذج وكيل عالي الإنتاجية لتطبيقات الوكلاء متعددة المهام واسعة النطاق.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K هو نموذج وكيل عالي التزامن للمحادثات القصيرة إلى المتوسطة والاستجابة السريعة.",
"qianfan-check-vl.description": "Qianfan Check VL هو نموذج مراجعة محتوى متعدد الوسائط لمهام التوافق والتعرف على الصور والنصوص.",
"qianfan-composition.description": "Qianfan Composition هو نموذج إنشاء متعدد الوسائط لفهم وتوليد الصور والنصوص المختلطة.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL هو نموذج تعرف متعدد الوسائط يركز على السيناريوهات الإنجليزية.",
@ -1049,6 +1048,41 @@
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507 هو إصدار التفكير من Qwen3، معزز للمهام المعقدة في الرياضيات والاستدلال.",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B هو نموذج MoE يحتوي على 235 مليار معامل من Qwen، مع 22 مليار نشطة في كل تمرير. يتنقل بين وضع التفكير للمهام المعقدة في الرياضيات والبرمجة، ووضع غير التفكير للدردشة الفعالة. يتميز باستدلال قوي، ودعم متعدد اللغات (أكثر من 100 لغة ولهجة)، واتباع تعليمات متقدم، واستخدام أدوات الوكلاء. يدعم سياقًا أصليًا حتى 32K ويتوسع إلى 131K باستخدام YaRN.",
"qwen/qwen3-30b-a3b.description": "Qwen3 هو الجيل الأحدث من نماذج Qwen LLM، يتميز ببنى كثيفة وMoE، ويتفوق في الاستدلال، دعم اللغات المتعددة، ومهام الوكلاء المتقدمة. يتميز بقدرته الفريدة على التبديل بين نمط التفكير للاستدلال المعقد ونمط غير التفكير للدردشة الفعالة، مما يضمن أداءً عالي الجودة ومتعدد الاستخدامات.\n\nيتفوق Qwen3 بشكل كبير على النماذج السابقة مثل QwQ وQwen2.5، ويقدم أداءً ممتازًا في الرياضيات، البرمجة، الاستدلال المنطقي، الكتابة الإبداعية، والدردشة التفاعلية. يحتوي إصدار Qwen3-30B-A3B على 30.5 مليار معلمة (3.3 مليار نشطة)، 48 طبقة، 128 خبيرًا (8 نشطين لكل مهمة)، ويدعم سياقًا يصل إلى 131 ألف باستخدام YaRN، مما يضع معيارًا جديدًا للنماذج المفتوحة.",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 هو الجيل الأحدث من نماذج Qwen LLM، يتميز ببنى كثيفة وMoE، ويتفوق في الاستدلال، دعم اللغات المتعددة، ومهام الوكلاء المتقدمة. يتميز بقدرته الفريدة على التبديل بين نمط التفكير للاستدلال المعقد ونمط غير التفكير للدردشة الفعالة، مما يضمن أداءً عالي الجودة ومتعدد الاستخدامات.\n\nيتفوق Qwen3 بشكل كبير على النماذج السابقة مثل QwQ وQwen2.5، ويقدم أداءً ممتازًا في الرياضيات، البرمجة، الاستدلال المنطقي، الكتابة الإبداعية، والدردشة التفاعلية. يحتوي إصدار Qwen3-30B-A3B على 30.5 مليار معلمة (3.3 مليار نشطة)، 48 طبقة، 128 خبيرًا (8 نشطين لكل مهمة)، ويدعم سياقًا يصل إلى 131 ألف باستخدام YaRN، مما يضع معيارًا جديدًا للنماذج المفتوحة.",
"qwen/qwen3-32b.description": "Qwen3-32B هو نموذج LLM كثيف يحتوي على 32.8 مليار معلمة، مُحسَّن للاستدلال المعقد والدردشة الفعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة السريعة. يتميز بأداء قوي في اتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-32b:free.description": "Qwen3-32B هو نموذج LLM كثيف يحتوي على 32.8 مليار معلمة، مُحسَّن للاستدلال المعقد والدردشة الفعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة السريعة. يتميز بأداء قوي في اتباع التعليمات، استخدام أدوات الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-8b:free.description": "Qwen3-8B هو نموذج LLM كثيف يحتوي على 8.2 مليار معلمة، مصمم للمهام التي تتطلب استدلالًا عاليًا ودردشة فعالة. يمكنه التبديل بين نمط التفكير للرياضيات والبرمجة والمنطق، ونمط غير التفكير للدردشة العامة. تم تحسينه لاتباع التعليمات، تكامل الوكلاء، والكتابة الإبداعية بأكثر من 100 لغة ولهجة. يدعم سياقًا أصليًا حتى 32 ألف ويتوسع إلى 131 ألف باستخدام YaRN.",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus هو نموذج ترميز من سلسلة Qwen، مُحسَّن لاستخدام الأدوات المعقدة وجلسات العمل الطويلة.",
"qwen/qwen3-coder.description": "Qwen3-Coder هو نموذج من عائلة Qwen3 لتوليد الشيفرات، يتميز بفهم وتوليد الشيفرات في المستندات الطويلة.",
"qwen/qwen3-max-preview.description": "Qwen3 Max (نسخة تجريبية) هو إصدار Max المتقدم في الاستدلال ودمج الأدوات.",
"qwen/qwen3-max.description": "Qwen3 Max هو النموذج المتقدم في سلسلة Qwen3 للاستدلال متعدد اللغات ودمج الأدوات.",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus هو إصدار Qwen3 المحسَّن بالرؤية، مع قدرات أفضل في الاستدلال متعدد الوسائط ومعالجة الفيديو.",
"qwen2.5-14b-instruct-1m.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 72 مليار معلمة.",
"qwen2.5-14b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 14 مليار معلمة.",
"qwen2.5-32b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 32 مليار معلمة.",
"qwen2.5-72b-instruct.description": "Qwen2.5 نموذج مفتوح المصدر بسعة 72 مليار معلمة.",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct هو نموذج مفتوح المصدر ناضج للدردشة وتوليد المحتوى في سيناريوهات متعددة.",
"qwen2.5-coder-1.5b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-14b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-32b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-7b-instruct.description": "نموذج Qwen للبرمجة مفتوح المصدر.",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder هو أحدث نموذج لغوي كبير في عائلة Qwen يركز على البرمجة (سابقًا CodeQwen).",
"qwen2.5-instruct.description": "Qwen2.5 هو أحدث إصدار من سلسلة Qwen LLM، ويشمل نماذج أساسية ومضبوطة للتعليم تتراوح من 0.5B إلى 72B معلمة.",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-math-72b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-math-7b-instruct.description": "Qwen-Math يتمتع بقدرات قوية في حل المسائل الرياضية.",
"qwen2.5-omni-7b.description": "نماذج Qwen-Omni تدعم المدخلات متعددة الوسائط (فيديو، صوت، صور، نص) وتنتج مخرجات صوتية ونصية.",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct هو نموذج متعدد الوسائط مفتوح المصدر مناسب للنشر الخاص والاستخدام في سيناريوهات متعددة.",
"qwen2.5-vl-72b-instruct.description": "تحسين في اتباع التعليمات، والرياضيات، وحل المشكلات، والبرمجة، مع قدرة أقوى على التعرف على الكائنات. يدعم تحديد العناصر البصرية بدقة عبر التنسيقات، وفهم الفيديو الطويل (حتى 10 دقائق) مع توقيت الأحداث على مستوى الثانية، وترتيبها الزمني وفهم السرعة، ووكلاء يمكنهم التحكم في أنظمة التشغيل أو الهواتف المحمولة من خلال التحليل والتحديد. يتميز باستخراج المعلومات الأساسية بدقة وإخراج JSON. هذا هو الإصدار الأقوى بسعة 72B.",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct هو نموذج متعدد الوسائط خفيف الوزن يوازن بين تكلفة النشر وقدرة التعرف.",
"qwen2.5-vl-instruct.description": "Qwen2.5-VL هو أحدث نموذج رؤية-لغة في عائلة Qwen.",
"qwen2.5.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:0.5b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:1.5b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.5:72b.description": "Qwen2.5 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2.description": "Qwen2 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2:0.5b.description": "Qwen2 هو الجيل الجديد من النماذج اللغوية الكبيرة من Alibaba، يتميز بأداء قوي في استخدامات متنوعة.",
"qwen2:1.5b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen2:72b.description": "Qwen2 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwen3-0.6b.description": "Qwen3 0.6B هو نموذج مبدئي مخصص للاستدلال البسيط والبيئات المحدودة للغاية.",
@ -1056,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B هو نموذج متوسط الحجم مخصص للإجابة متعددة اللغات وتوليد النصوص.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 هو نموذج إرشادي رائد لمجموعة واسعة من مهام التوليد والاستدلال.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 هو نموذج تفكير فائق الحجم مخصص للاستدلال المعقد.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B هو نموذج عام كبير مخصص للمهام المعقدة.",
"qwen3-235b-a22b.description": "Qwen3 هو نموذج Tongyi Qwen من الجيل الجديد، يحقق تقدمًا كبيرًا في الاستدلال، والقدرات العامة، وقدرات الوكلاء، والأداء متعدد اللغات، ويدعم تبديل أنماط التفكير.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 هو نموذج إرشادي متوسط إلى كبير مخصص لتوليد عالي الجودة والإجابة على الأسئلة.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 هو نموذج تفكير متوسط إلى كبير يوازن بين الدقة والتكلفة.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B هو نموذج عام متوسط إلى كبير يوازن بين الجودة والتكلفة.",
@ -1068,6 +1102,7 @@
"qwen3-coder-flash.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder-plus.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder:480b.description": "نموذج عالي الأداء من Alibaba لمعالجة المهام المتعلقة بالوكلاء والبرمجة مع دعم لسياقات طويلة.",
"qwen3-max-2026-01-23.description": "نماذج Qwen3 Max تحقق تقدمًا كبيرًا مقارنة بسلسلة 2.5 في القدرات العامة، وفهم الصينية/الإنجليزية، واتباع التعليمات المعقدة، والمهام المفتوحة الذاتية، والقدرة متعددة اللغات، واستخدام الأدوات، مع تقليل الهلوسة. الإصدار الأحدث qwen3-max يحسن البرمجة الوكيلة واستخدام الأدوات مقارنة بـ qwen3-max-preview. هذا الإصدار يحقق أداءً رائدًا في المجال ويستهدف احتياجات الوكلاء المعقدة.",
"qwen3-max-preview.description": "أفضل نموذج Qwen للأداء في المهام المعقدة متعددة الخطوات. المعاينة تدعم التفكير.",
"qwen3-max.description": "نماذج Qwen3 Max تقدم تحسينات كبيرة مقارنة بسلسلة 2.5 في القدرات العامة، وفهم اللغة الصينية/الإنجليزية، واتباع التعليمات المعقدة، والمهام المفتوحة الذاتية، والقدرات متعددة اللغات، واستخدام الأدوات، مع تقليل الهلوسة. الإصدار الأحدث qwen3-max يعزز البرمجة الوكيلة واستخدام الأدوات مقارنة بـ qwen3-max-preview. هذا الإصدار يحقق أداءً رائداً في المجال ويستهدف احتياجات الوكلاء المعقدة.",
"qwen3-next-80b-a3b-instruct.description": "نموذج Qwen3 من الجيل التالي مفتوح المصدر غير مخصص للتفكير. مقارنة بالإصدار السابق (Qwen3-235B-A22B-Instruct-2507)، يتميز بفهم أفضل للغة الصينية، واستدلال منطقي أقوى، وتحسين في توليد النصوص.",
@ -1099,6 +1134,42 @@
"sonar-reasoning.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar.description": "منتج بحث خفيف الوزن يعتمد على البحث الموجه، أسرع وأقل تكلفة من Sonar Pro.",
"spark-x.description": "تحديثات X1.5: (1) إضافة وضع التفكير الديناميكي يتم التحكم به عبر الحقل `thinking`؛ (2) طول سياق أكبر مع 64K إدخال و64K إخراج؛ (3) دعم FunctionCall.",
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
"stable-diffusion-v1.5.description": "stable-diffusion-v1.5 تم تهيئته من نقطة التحقق v1.2 وتم تحسينه لمدة 595 ألف خطوة على \"laion-aesthetics v2 5+\" بدقة 512x512، مع تقليل تكييف النص بنسبة 10% لتحسين التوجيه بدون مصنف.",
"stable-diffusion-xl-base-1.0.description": "نموذج تحويل نص إلى صورة مفتوح المصدر من Stability AI يتميز بإبداع رائد في توليد الصور. يتمتع بفهم قوي للتعليمات ويدعم تعريف التعليمات العكسية لتوليد دقيق.",
"stable-diffusion-xl.description": "stable-diffusion-xl يقدم تحسينات كبيرة مقارنة بـ v1.5 ويضاهي أفضل نتائج النماذج المفتوحة لتحويل النص إلى صورة. تشمل التحسينات مضاعفة حجم UNet ثلاث مرات، ووحدة تحسين لجودة الصورة، وتقنيات تدريب أكثر كفاءة.",
"step-1-128k.description": "يوفر توازنًا بين الأداء والتكلفة للسيناريوهات العامة.",
"step-1-256k.description": "يدعم السياقات الطويلة جدًا، مثالي لتحليل المستندات الطويلة.",
"step-1-32k.description": "يدعم المحادثات متوسطة الطول لمجموعة واسعة من الاستخدامات.",
"step-1-8k.description": "نموذج صغير مناسب للمهام الخفيفة.",
"step-1-flash.description": "نموذج عالي السرعة مناسب للدردشة في الوقت الفعلي.",
"step-1.5v-mini.description": "قدرات قوية في فهم الفيديو.",
"step-1o-turbo-vision.description": "فهم قوي للصور، يتفوق على 1o في الرياضيات والبرمجة. أصغر من 1o ويعطي نتائج أسرع.",
"step-1o-vision-32k.description": "فهم قوي للصور مع أداء بصري أفضل من سلسلة Step-1V.",
"step-1v-32k.description": "يدعم مدخلات الرؤية لتفاعل متعدد الوسائط أكثر ثراءً.",
"step-1v-8k.description": "نموذج رؤية صغير للمهام الأساسية بين الصور والنصوص.",
"step-1x-edit.description": "يركز هذا النموذج على تحرير الصور، تعديلها وتحسينها بناءً على الصور والنصوص المقدمة من المستخدم. يدعم تنسيقات إدخال متعددة، بما في ذلك الأوصاف النصية والصور النموذجية، وينتج تعديلات تتماشى مع نية المستخدم.",
"step-1x-medium.description": "يقدم هذا النموذج توليد صور قوي من مدخلات نصية. مع دعم أصلي للغة الصينية، يفهم الأوصاف الصينية بشكل أفضل، ويفسر معانيها، ويحولها إلى ميزات بصرية لتوليد أكثر دقة. ينتج صورًا عالية الدقة والجودة ويدعم نقل الأسلوب بدرجة معينة.",
"step-2-16k-exp.description": "إصدار تجريبي من Step-2 يحتوي على أحدث الميزات وتحديثات مستمرة. غير موصى به للإنتاج.",
"step-2-16k.description": "يدعم التفاعلات ذات السياق الكبير للمحادثات المعقدة.",
"step-2-mini.description": "مبني على بنية MFA الجديدة، يقدم نتائج مماثلة لـ Step-1 بتكلفة أقل، مع إنتاجية أعلى وزمن استجابة أسرع. يتعامل مع المهام العامة بقدرة قوية على البرمجة.",
"step-2x-large.description": "نموذج صور من الجيل الجديد من StepFun يركز على توليد الصور، وينتج صورًا عالية الجودة من التعليمات النصية. يتميز بواقعية أكبر في الملمس وقدرة أقوى على عرض النصوص الصينية/الإنجليزية.",
"step-3.description": "يتمتع هذا النموذج بإدراك بصري قوي واستدلال معقد، ويتعامل بدقة مع فهم المعرفة عبر المجالات، وتحليل الرياضيات والرؤية، ومجموعة واسعة من مهام التحليل البصري اليومية.",
"step-r1-v-mini.description": "نموذج استدلال يتمتع بفهم قوي للصور، يمكنه معالجة الصور والنصوص، ثم توليد نص بعد استدلال عميق. يتفوق في الاستدلال البصري ويقدم أداءً رائدًا في الرياضيات والبرمجة والاستدلال النصي، مع نافذة سياق تصل إلى 100 ألف.",
"stepfun-ai/step3.description": "Step3 هو نموذج استدلال متعدد الوسائط متقدم من StepFun، مبني على بنية MoE بسعة إجمالية 321B و38B نشطة. تصميمه الشامل يقلل من تكلفة فك التشفير مع تقديم استدلال رؤية-لغة من الدرجة الأولى. بفضل تصميم MFA وAFD، يظل فعالًا على المسرعات القوية والضعيفة. تم تدريبه مسبقًا على أكثر من 20 تريليون رمز نصي و4 تريليون رمز صورة-نص بعدة لغات. يحقق أداءً رائدًا في النماذج المفتوحة في اختبارات الرياضيات والبرمجة ومتعددة الوسائط.",
"taichu_llm.description": "مدرب على بيانات ضخمة عالية الجودة، يتمتع بفهم نصي أقوى، وقدرات على إنشاء المحتوى، وإجابات محادثية دقيقة.",
"taichu_o1.description": "taichu_o1 هو نموذج استدلال من الجيل الجديد يستخدم التفاعل متعدد الوسائط والتعلم المعزز لتحقيق تسلسل تفكير شبيه بالبشر، يدعم محاكاة القرارات المعقدة، ويعرض مسارات التفكير مع الحفاظ على دقة عالية، مناسب لتحليل الاستراتيجيات والتفكير العميق.",
"taichu_vl.description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويتفوق في أسئلة الصور والنصوص.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct يستخدم 80 مليار معلمة إجمالية مع 13 مليار نشطة لمضاهاة النماذج الأكبر. يدعم الاستدلال الهجين السريع/البطيء، وفهم النصوص الطويلة بثبات، وقدرات وكيل رائدة على BFCL-v3 وτ-Bench. تدعم تنسيقات GQA والتكميم المتعدد الاستدلال بكفاءة.",
"tencent/Hunyuan-MT-7B.description": "نموذج الترجمة Hunyuan يشمل Hunyuan-MT-7B وHunyuan-MT-Chimera. Hunyuan-MT-7B هو نموذج ترجمة خفيف بسعة 7B يدعم 33 لغة بالإضافة إلى 5 لغات صينية محلية. حصل على المركز الأول في 30 من أصل 31 زوج لغوي في WMT25. يستخدم Hunyuan من Tencent سلسلة تدريب كاملة من التدريب المسبق إلى SFT إلى الترجمة بالتعلم المعزز، محققًا أداءً رائدًا بحجمه وسهولة في النشر.",
"text-embedding-3-large.description": "أقوى نموذج تضمين للمهام باللغة الإنجليزية وغير الإنجليزية.",
"text-embedding-3-small.description": "نموذج تضمين من الجيل التالي فعال من حيث التكلفة ومناسب للاسترجاع وسيناريوهات RAG.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414 هو نموذج ثنائي اللغة (صيني/إنجليزي) بسعة 32B وأوزان مفتوحة، مُحسَّن لتوليد الشيفرات، واستدعاء الوظائف، ومهام الوكلاء. تم تدريبه مسبقًا على 15 تريليون رمز عالي الجودة ومليء بالاستدلال، وتم تحسينه بموازنة تفضيلات البشر، وأخذ العينات بالرفض، والتعلم المعزز. يتفوق في الاستدلال المعقد، وتوليد المخرجات المنظمة، ويصل إلى مستوى أداء GPT-4o وDeepSeek-V3-0324 في العديد من المعايير.",
"thudm/glm-4-9b-chat.description": "الإصدار مفتوح المصدر من نموذج GLM-4 الأحدث من Zhipu AI.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414 هو إصدار استدلال محسَّن من GLM-4-32B، مصمم لحل المشكلات المعقدة في الرياضيات والمنطق والبرمجة. يستخدم تعلمًا معززًا موسعًا (تفضيلات زوجية خاصة بالمهمة وعامة) لتحسين المهام متعددة الخطوات. مقارنة بـ GLM-4-32B، يقدم Z1 تحسينات كبيرة في الاستدلال المنظم والقدرات في المجالات الرسمية. يدعم فرض خطوات التفكير من خلال هندسة التعليمات، وتحسين التماسك في المخرجات الطويلة، ومُحسَّن لسير عمل الوكلاء مع سياق طويل (عبر YaRN)، واستدعاء أدوات JSON، وأخذ عينات دقيقة لاستدلال مستقر. مثالي للحالات التي تتطلب اشتقاقات متعددة الخطوات أو رسمية دقيقة.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B هو نموذج تفكير عميق بسعة 32 مليار في سلسلة GLM-4-Z1، مُحسّن للمهام المعقدة المفتوحة التي تتطلب تفكيرًا طويل الأمد. مبني على glm-4-32b-0414، ويضيف مراحل تعزيز التعلم (RL) إضافية ومحاذاة متعددة المراحل، مما يقدّم قدرة \"التأمل\" التي تحاكي المعالجة المعرفية الممتدة. يشمل ذلك التفكير التكراري، والتحليل متعدد الخطوات، وسير العمل المدعوم بالأدوات مثل البحث، والاسترجاع، والتوليف المدرك للاستشهادات.\n\nيتفوّق في كتابة الأبحاث، والتحليل المقارن، والأسئلة المعقدة. يدعم استدعاء الوظائف لأساسيات البحث/التنقل (`search`، `click`، `open`، `finish`) في خطوط أنابيب الوكلاء. يتم التحكم في سلوك التأمل من خلال حلقات متعددة الجولات مع تشكيل مكافآت قائم على القواعد وآليات اتخاذ القرار المؤجل، وتمت معايرته مقابل أطر البحث العميق مثل نظام المحاذاة الداخلي لـ OpenAI. هذا الإصدار يركّز على العمق بدلاً من السرعة.",
"tngtech/deepseek-r1t-chimera:free.description": "تم إنشاء DeepSeek-R1T-Chimera من خلال دمج DeepSeek-R1 و DeepSeek-V3 (0324)، حيث يجمع بين قدرات التفكير في R1 وكفاءة الرموز في V3. يعتمد على محول DeepSeek-MoE وتم تحسينه لتوليد النصوص العامة.\n\nيُدمج الأوزان المدربة مسبقًا لتحقيق توازن بين التفكير والكفاءة واتباع التعليمات. تم إصداره بموجب ترخيص MIT للاستخدام البحثي والتجاري.",
"togethercomputer/StripedHyena-Nous-7B.description": "يوفّر StripedHyena Nous (7B) كفاءة حوسبة محسّنة من خلال بنيته واستراتيجيته.",
@ -1106,9 +1177,10 @@
"tts-1.description": "أحدث نموذج تحويل النص إلى كلام، مُحسّن للسرعة في الوقت الحقيقي.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "تم ضبط Upstage SOLAR Instruct v1 (11B) بدقة لتنفيذ المهام التوجيهية مع أداء لغوي قوي.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet يرفع المعيار الصناعي، متفوقًا على المنافسين وClaude 3 Opus في تقييمات شاملة مع الحفاظ على سرعة وتكلفة متوسطة.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet هو أسرع نموذج من الجيل التالي لشركة Anthropic. مقارنة بـ Claude 3 Haiku، يُظهر تحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة فائقة وقدرة على التفكير الممتد.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 هو النموذج الأكثر ذكاءً من Anthropic حتى الآن.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet هو أسرع نموذج من الجيل التالي من Anthropic. مقارنة بـ Claude 3 Haiku، يقدم تحسينات شاملة ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من اختبارات الذكاء.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 هو أسرع وأكثر نماذج Haiku ذكاءً من Anthropic، يتميز بسرعة فائقة وقدرة تفكير ممتدة.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 هو أذكى نموذج من Anthropic لبناء الوكلاء والبرمجة.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 هو أذكى نموذج من Anthropic حتى الآن.",
"v0-1.0-md.description": "v0-1.0-md هو نموذج قديم يتم تقديمه عبر واجهة برمجة التطبيقات v0.",
"v0-1.5-lg.description": "v0-1.5-lg مناسب للمهام المتقدمة التي تتطلب تفكيرًا أو استدلالًا.",
"v0-1.5-md.description": "v0-1.5-md مناسب للمهام اليومية وتوليد واجهات المستخدم.",
@ -1152,6 +1224,7 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air هو إصدار خفيف الوزن من GLM 4.5 مخصص للسيناريوهات الحساسة للتكلفة مع الحفاظ على قدرات استدلال قوية.",
"z-ai/glm-4.5.description": "GLM 4.5 هو النموذج الرائد من Z.AI باستدلال هجين مُحسّن للهندسة والمهام طويلة السياق.",
"z-ai/glm-4.6.description": "GLM 4.6 هو النموذج الرائد من Z.AI مع طول سياق ممتد وقدرات برمجية متقدمة.",
"z-ai/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، يقدم قدرات عامة محسَّنة، وردودًا أبسط وأكثر طبيعية، وتجربة كتابة أكثر تفاعلية.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5.description": "GLM-4.5 هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن بعمق لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5V.description": "GLM-4.5V هو أحدث نموذج رؤية من Zhipu AI، مبني على نموذج النص الرائد GLM-4.5-Air (إجمالي 106 مليار، 12 مليار نشط) باستخدام بنية MoE لأداء قوي بتكلفة أقل. يتبع مسار GLM-4.1V-Thinking ويضيف 3D-RoPE لتحسين الاستدلال المكاني ثلاثي الأبعاد. مُحسّن من خلال التدريب المسبق، والتعلم الخاضع للإشراف، والتعلم المعزز، ويتعامل مع الصور، والفيديو، والمستندات الطويلة، ويتصدر النماذج المفتوحة في 41 معيارًا متعدد الوسائط. يتيح وضع التفكير للمستخدمين التوازن بين السرعة والعمق.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "إجمالي {{count}} من المعاملات",
"arguments.title": "المعلمات",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "الحصول على النماذج المتاحة",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "الحصول على المهارات المتاحة",

View file

@ -29,6 +29,7 @@
"internlm.description": "منظمة مفتوحة المصدر تركز على أبحاث النماذج الكبيرة والأدوات، وتوفر منصة فعالة وسهلة الاستخدام تتيح الوصول إلى أحدث النماذج والخوارزميات.",
"jina.description": "تأسست Jina AI في عام 2020، وهي شركة رائدة في مجال البحث الذكي. تشمل تقنياتها نماذج المتجهات، ومعيدو الترتيب، ونماذج لغوية صغيرة لبناء تطبيقات بحث توليدية ومتعددة الوسائط عالية الجودة.",
"lmstudio.description": "LM Studio هو تطبيق سطح مكتب لتطوير وتجربة النماذج اللغوية الكبيرة على جهازك.",
"lobehub.description": "تستخدم LobeHub Cloud واجهات برمجة التطبيقات الرسمية للوصول إلى نماذج الذكاء الاصطناعي، وتقيس الاستخدام من خلال الأرصدة المرتبطة برموز النماذج.",
"minimax.description": "تأسست MiniMax في عام 2021، وتبني نماذج ذكاء اصطناعي متعددة الوسائط للأغراض العامة، بما في ذلك نماذج نصية بمليارات المعلمات، ونماذج صوتية وبصرية، بالإضافة إلى تطبيقات مثل Hailuo AI.",
"mistral.description": "تقدم Mistral نماذج متقدمة عامة ومتخصصة وبحثية للتفكير المعقد، والمهام متعددة اللغات، وتوليد الأكواد، مع دعم استدعاء الوظائف للتكامل المخصص.",
"modelscope.description": "ModelScope هي منصة نماذج كخدمة من Alibaba Cloud، تقدم مجموعة واسعة من النماذج وخدمات الاستدلال.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Регистрирайте се сега",
"betterAuth.signin.socialError": "Неуспешен вход чрез социална мрежа, опитайте отново",
"betterAuth.signin.socialOnlyHint": "Този имейл е регистриран чрез акаунт в социална мрежа. Влезте чрез този доставчик или",
"betterAuth.signin.ssoOnlyNoProviders": "Регистрация с имейл е деактивирана и няма конфигурирани SSO доставчици. Моля, свържете се с вашия администратор.",
"betterAuth.signin.submit": "Вход",
"betterAuth.signup.confirmPasswordPlaceholder": "Потвърдете паролата си",
"betterAuth.signup.emailPlaceholder": "Въведете имейл адрес",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Прегледай подробности",
"clearCurrentMessages": "Изчисти съобщенията от текущата сесия",
"compressedHistory": "Сгъната история",
"compression.cancel": "Разархивирай",
"compression.cancelConfirm": "Сигурни ли сте, че искате да разархивирате? Това ще възстанови оригиналните съобщения.",
"compression.history": "История",
"compression.summary": "Резюме",
"confirmClearCurrentMessages": "Ще изчистите съобщенията от текущата сесия. След изчистване те не могат да бъдат възстановени. Моля, потвърдете действието си.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Създай Агент",
"extendParams.disableContextCaching.desc": "Намалява до 90% от разходите за генериране на един разговор и увеличава скоростта до 4 пъти. Активирането автоматично премахва ограничението за брой исторически съобщения. <1>Научете повече</1>",
"extendParams.disableContextCaching.title": "Активирай кеширане на контекста",
"extendParams.effort.desc": "Контролирайте колко токени използва Claude при отговор чрез параметъра за усилие.",
"extendParams.effort.title": "Усилие",
"extendParams.enableAdaptiveThinking.desc": "Позволете на Claude динамично да решава кога и колко да мисли с режима за адаптивно мислене.",
"extendParams.enableAdaptiveThinking.title": "Активирай адаптивно мислене",
"extendParams.enableReasoning.desc": "Въз основа на ограничението на механизма Claude Thinking, активирането автоматично премахва ограничението за брой исторически съобщения. <1>Научете повече</1>",
"extendParams.enableReasoning.title": "Активирай дълбоко мислене",
"extendParams.imageAspectRatio.title": "Съотношение на изображението",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Все още няма групи с разклонени агенти",
"user.noForkedAgents": "Все още няма разклонени агенти",
"user.publishedAgents": "Създадени агенти",
"user.publishedGroups": "Създадени групи",
"user.searchPlaceholder": "Търсене по име или описание...",
"user.statusFilter.all": "Всички",
"user.statusFilter.archived": "Архивирани",
"user.statusFilter.deprecated": "Остарели",
"user.statusFilter.favorite": "Любими",
"user.statusFilter.forked": "Разклонени",
"user.statusFilter.published": "Публикувани",
"user.statusFilter.unpublished": "В процес на преглед",
"user.tabs.favorites": "Любими",
"user.tabs.forkedAgents": "Разклонени",
"user.tabs.publishedAgents": "Създадени",

View file

@ -150,6 +150,7 @@
"upload.desc": "Подробности: {{detail}}",
"upload.fileOnlySupportInServerMode": "Текущият режим на разгръщане не поддържа качване на не-изображения. За да качите файлове във формат {{ext}}, преминете към сървърен режим или използвайте услугата {{cloud}}.",
"upload.networkError": "Проверете мрежовата връзка и конфигурацията за CORS на услугата за съхранение.",
"upload.storageLimitExceeded": "Вашето файлово хранилище е достигнало лимита на плана. Моля, надградете плана си или изтрийте неизползвани файлове, за да освободите място.",
"upload.title": "Качването на файл не бе успешно. Проверете мрежовата връзка или опитайте отново по-късно.",
"upload.unknownError": "Причина за грешката: {{reason}}",
"upload.uploadFailed": "Качването на файл не бе успешно."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Показвано име на модела",
"providerModels.item.modelConfig.extendParams.extra": "Изберете разширени параметри, поддържани от модела. Задръжте курсора върху опция, за да видите контролите. Неправилни конфигурации могат да доведат до неуспешни заявки.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "За моделите Claude; може да намали разходите и да ускори отговорите.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "За Claude Opus 4.6; контролира нивото на усилие (ниско/средно/високо/максимално).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "За Claude Opus 4.6; включва или изключва адаптивното мислене.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "За Claude, DeepSeek и други модели с логическо мислене; отключва по-задълбочено разсъждение.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "За серията GPT-5; контролира интензивността на разсъждението.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "За серията GPT-5.1; контролира интензивността на разсъждението.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Нов вътрешен модел за разсъждение с 80K верига на мисълта и 1M вход, предлагащ производителност, сравнима с водещите глобални модели.",
"MiniMax-M2-Stable.description": "Създаден за ефективно програмиране и агентски работни потоци, с по-висока едновременност за търговска употреба.",
"MiniMax-M2.1-Lightning.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване. По-бързо и по-ефективно.",
"MiniMax-M2.1.description": "Мощни многоезични възможности за програмиране и цялостно подобрено програмистко изживяване",
"MiniMax-M2.1.description": "MiniMax-M2.1 е водеща отворена голяма езикова система от MiniMax, фокусирана върху решаването на сложни реални задачи. Основните ѝ предимства са възможностите за програмиране на множество езици и способността да действа като агент за решаване на сложни задачи.",
"MiniMax-M2.description": "Създаден специално за ефективно програмиране и работни потоци с агенти",
"MiniMax-Text-01.description": "MiniMax-01 въвежда мащабно линейно внимание отвъд класическите трансформери, с 456B параметри и 45.9B активирани на преминаване. Постига водеща производителност и поддържа до 4M токена контекст (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 е отворен модел с голям мащаб и хибридно внимание, с общо 456B параметри и ~45.9B активни на токен. Поддържа нативно 1M контекст и използва Flash Attention за 75% по-малко FLOPs при генериране на 100K токена спрямо DeepSeek R1. С MoE архитектура, CISPO и хибридно обучение с внимание и RL, постига водеща производителност при дълги входове и реални задачи по софтуерно инженерство.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1T общи параметри с 32B активни. Сред немислещите модели е водещ в гранични знания, математика и програмиране, и по-силен в общи агентски задачи. Оптимизиран за агентски натоварвания, може да предприема действия, а не само да отговаря на въпроси. Най-подходящ за импровизационен, общ чат и агентски преживявания като модел на рефлексно ниво без дълго мислене.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) е високоточен модел с инструкции за сложни изчисления.",
"OmniConsistency.description": "OmniConsistency подобрява стиловата последователност и обобщението при задачи от изображение към изображение чрез въвеждане на мащабни дифузионни трансформери (DiTs) и сдвоени стилизирани данни, избягвайки влошаване на стила.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 е надградена версия от серията PaddleOCR-VL, постигайки 94.5% точност в бенчмарка за парсинг на документи OmniDocBench v1.5, надминавайки водещите общи големи модели и специализирани модели за парсинг на документи. Иновативно поддържа локализация на елементи с неправилни ограничителни кутии, ефективно обработвайки сканирани, наклонени и заснети от екрана изображения.",
"Phi-3-medium-128k-instruct.description": "Същият модел Phi-3-medium с по-голям контекстен прозорец за RAG или few-shot подканвания.",
"Phi-3-medium-4k-instruct.description": "Модел с 14B параметри с по-високо качество от Phi-3-mini, фокусиран върху данни с високо качество и интензивно разсъждение.",
"Phi-3-mini-128k-instruct.description": "Същият модел Phi-3-mini с по-голям контекстен прозорец за RAG или few-shot подканвания.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 е MoE модел с 671 милиарда параметъра, използващ MLA и DeepSeekMoE с балансирано натоварване без загуби за ефективно обучение и инференция. Предварително обучен върху 14.8T висококачествени токени и допълнително настроен с SFT и RL, той надминава други отворени модели и се доближава до водещите затворени решения.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 е най-новият и най-мощен модел от серията Kimi K2. Това е MoE модел от най-висок клас с 1T общо и 32B активни параметъра. Основните му предимства включват по-силна агентна интелигентност при програмиране с значителни подобрения в бенчмаркове и реални задачи, както и подобрена естетика и използваемост на фронтенд кода.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo е ускорен вариант, оптимизиран за скорост на разсъждение и пропускателна способност, като запазва многoетапното разсъждение и използване на инструменти от K2 Thinking. Това е MoE модел с ~1T общи параметри, роден 256K контекст и стабилно мащабируемо извикване на инструменти за производствени сценарии с по-строги изисквания за латентност и едновременност.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 е отворен мултимодален агентен модел, базиран на Kimi-K2-Base, обучен върху приблизително 1.5 трилиона смесени визуални и текстови токени. Моделът използва MoE архитектура с общо 1T параметри и 32B активни параметри, поддържа контекстен прозорец от 256K и безпроблемно интегрира визуално и езиково разбиране.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu с общо 355 милиарда параметъра и 32 милиарда активни параметъра. Той е напълно обновен в областите на общ диалог, логическо мислене и агентни способности. GLM-4.7 подобрява Междинното мислене и въвежда Запазено мислене и Мислене на ниво обръщение.",
"QwQ-32B-Preview.description": "Qwen QwQ е експериментален изследователски модел, фокусиран върху подобряване на разсъждението.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview е изследователски модел от Qwen, насочен към визуално разсъждение, със силни страни в разбирането на сложни сцени и визуални математически задачи.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic. В сравнение с Claude 3 Haiku, той показва подобрения във всички умения и надминава предишния водещ модел Claude 3 Opus в множество тестове за интелигентност.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзходство спрямо предишния флагман Claude 3 Opus в множество бенчмаркове.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku осигурява бързи отговори за леки задачи.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара. Той може да предоставя почти мигновени отговори или разширено поетапно разсъждение, което потребителите могат да проследят. Sonnet е особено силен в програмиране, анализ на данни, визуални задачи и агентни приложения.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 е най-интелигентният модел на Anthropic и първият хибриден модел за разсъждение на пазара, поддържащ почти мигновени отговори или разширено мислене с прецизен контрол.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet е най-новият и най-способен модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku е най-бързият и най-компактен модел на Anthropic, проектиран за почти мигновени отговори с бърза и точна производителност.",
"claude-3-opus-20240229.description": "Claude 3 Opus е най-мощният модел на Anthropic за силно сложни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet балансира интелигентност и скорост за корпоративни натоварвания, осигурявайки висока полезност на по-ниска цена и надеждно мащабно внедряване.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен модел от серията Haiku на Anthropic, с мълниеносна скорост и разширено разсъждение.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 е най-бързият и най-интелигентен Haiku модел на Anthropic, с мълниеносна скорост и разширено мислене.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking е усъвършенстван вариант, който може да разкрие процеса си на разсъждение.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за изключително сложни задачи, с превъзходна производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за изключително сложни задачи, с отлична производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 е най-новият и най-способен модел на Anthropic за силно комплексни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-20250514.description": "Claude Opus 4 е най-мощният модел на Anthropic за силно комплексни задачи, отличаващ се с производителност, интелигентност, плавност и разбиране.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 е флагманският модел на Anthropic, комбиниращ изключителна интелигентност с мащабируема производителност, идеален за сложни задачи, изискващи най-висококачествени отговори и разсъждение.",
"claude-opus-4-6.description": "Claude Opus 4.6 е най-интелигентният модел на Anthropic за изграждане на агенти и програмиране.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking може да генерира почти мигновени отговори или разширено стъпково мислене с видим процес.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 може да предоставя почти мигновени отговори или разширено поетапно мислене с видим процес.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic до момента.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 е най-интелигентният модел на Anthropic досега, предлагащ почти мигновени отговори или разширено мислене стъпка по стъпка с прецизен контрол за API потребители.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 е най-интелигентният модел на Anthropic досега.",
"codegeex-4.description": "CodeGeeX-4 е мощен AI асистент за програмиране, който поддържа многоезични въпроси и допълване на код, повишавайки продуктивността на разработчиците.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B е многоезичен модел за генериране на код, който поддържа допълване и създаване на код, интерпретиране, уеб търсене, извикване на функции и въпроси на ниво хранилище. Подходящ е за широк спектър от софтуерни сценарии и е водещ модел под 10 милиарда параметри.",
"codegemma.description": "CodeGemma е лек модел за разнообразни програмни задачи, позволяващ бърза итерация и интеграция.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
"deepseek-chat.description": "Нов отворен модел, който комбинира общи и програмни способности. Съчетава общуването на чат модел с мощното програмиране на кодов модел, с по-добро съответствие на предпочитанията. DeepSeek-V2.5 също така подобрява писането и следването на инструкции.",
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъждение и дължина на изхода за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нива на GPT-5 и е първият, който интегрира мислене в използването на инструменти, водещ в оценките на отворени агентни модели.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 е отворен MoE модел за програмиране, който се представя на ниво GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "Пълна бърза версия на DeepSeek R1 с търсене в реално време в уеб, комбинираща възможности от мащаб 671B и по-бърз отговор.",
"deepseek-r1-online.description": "Пълна версия на DeepSeek R1 с 671 милиарда параметъра и търсене в реално време в уеб, предлагаща по-силно разбиране и генериране.",
"deepseek-r1.description": "DeepSeek-R1 използва данни от студен старт преди подсиленото обучение и се представя наравно с OpenAI-o1 в математика, програмиране и разсъждение.",
"deepseek-reasoner.description": "Режимът на мислене DeepSeek V3.2 генерира верига от разсъждения преди крайния отговор за повишена точност.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking е дълбок разсъждаващ модел, който генерира верига от мисли преди изхода за по-висока точност, с водещи резултати в състезания и разсъждение, сравнимо с Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 е ефективен MoE модел за икономична обработка.",
"deepseek-v2:236b.description": "DeepSeek V2 236B е модел на DeepSeek, фокусиран върху програмиране, с висока производителност при генериране на код.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 е MoE модел с 671 милиарда параметъра, с изключителни способности в програмиране, технически задачи, разбиране на контекст и обработка на дълги текстове.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview е предварителен модел за създаване на персонажи и сюжет, предназначен за оценка и тестване на функции.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K е модел за персонажи, предназначен за романи и създаване на сюжет, подходящ за генериране на дълги истории.",
"ernie-irag-edit.description": "ERNIE iRAG Edit е модел за редактиране на изображения, поддържащ изтриване, прерисуване и генериране на варианти.",
"ernie-lite-8k.description": "ERNIE Lite 8K е лек общ модел за чувствителни към разходите ежедневни QA и генериране на съдържание.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K е лек високопроизводителен модел за сценарии, чувствителни към латентност и разходи.",
"ernie-novel-8k.description": "ERNIE Novel 8K е създаден за дълги романи и IP сюжети с многоперсонажни наративи.",
"ernie-speed-128k.description": "ERNIE Speed 128K е модел без такси за I/O, предназначен за разбиране на дълги текстове и мащабни тестове.",
"ernie-speed-8k.description": "ERNIE Speed 8K е безплатен, бърз модел за ежедневен чат и леки текстови задачи.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K е ултралек модел за прости QA, класификация и нискоразходно извеждане.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо качество и контролируемост. Генерира изображения по текстови подсказки.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, създаден от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена консистентност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на плакати и дизайн на лога с високопрецизно визуално-текстово рендиране.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, създаден от ByteDance Seed, поддържа текстови и визуални входове за висококачествено и контролируемо генериране на изображения от подсказки.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] приема текст и референтни изображения като вход, позволявайки целенасочени локални редакции и сложни глобални трансформации на сцени.",
"fal-ai/flux/krea.description": "Flux Krea [dev] е модел за генериране на изображения с естетично предпочитание към по-реалистични и естествени изображения.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Мощен роден мултимодален модел за генериране на изображения.",
"fal-ai/imagen4/preview.description": "Модел за висококачествено генериране на изображения от Google.",
"fal-ai/nano-banana.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ генериране и редактиране на изображения чрез разговор.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа на Qwen, който поддържа семантични и визуални редакции, прецизно редактира китайски и английски текст и позволява висококачествени трансформации като смяна на стил и завъртане на обекти.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа на Qwen с впечатляващо визуализиране на китайски текст и разнообразни визуални стилове.",
"fal-ai/qwen-image-edit.description": "Професионален модел за редактиране на изображения от екипа Qwen, поддържащ семантични и визуални редакции, прецизно редактиране на текст на китайски/английски, трансфер на стил, завъртане и други.",
"fal-ai/qwen-image.description": "Мощен модел за генериране на изображения от екипа Qwen с отличен рендеринг на китайски текст и разнообразни визуални стилове.",
"flux-1-schnell.description": "Модел за преобразуване на текст в изображение с 12 милиарда параметъра от Black Forest Labs, използващ латентна дифузионна дестилация за генериране на висококачествени изображения в 14 стъпки. Съперничи на затворени алтернативи и е пуснат под лиценз Apache-2.0 за лична, изследователска и търговска употреба.",
"flux-dev.description": "FLUX.1 [dev] е дестилиран модел с отворени тегла за нетърговска употреба. Запазва почти професионално качество на изображенията и следване на инструкции, като същевременно работи по-ефективно и използва ресурсите по-добре от стандартни модели със същия размер.",
"flux-kontext-max.description": "Съвременно генериране и редактиране на изображения с контекст, комбиниращо текст и изображения за прецизни и последователни резултати.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro поддържа до 2 милиона токена, идеален среден по размер мултимодален модел за комплексни задачи.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"gemini-2.0-flash-exp-image-generation.description": "Експериментален модел Gemini 2.0 Flash с поддръжка за генериране на изображения.",
"gemini-2.0-flash-exp.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash-lite-001.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash-lite.description": "Вариант на Gemini 2.0 Flash, оптимизиран за ниска цена и ниска латентност.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"gemini-2.5-flash-image-preview.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-image:image.description": "Nano Banana е най-новият, най-бърз и най-ефективен роден мултимодален модел на Google, позволяващ разговорно генериране и редактиране на изображения.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-3-flash-preview.description": "Gemini 3 Flash е най-интелигентният модел, създаден за скорост, съчетаващ авангардна интелигентност с отлично търсене и обоснованост.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proе модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е модел на Google за генериране на изображения, който също поддържа мултимодален чат.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът на Google за генериране на изображения, който също поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
"gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
"glm-z1-flashx.description": "Бърз и икономичен: Flash-усилен с ултра-бързо логическо мислене и по-висока едновременност.",
"glm-zero-preview.description": "GLM-Zero-Preview осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 е водещият модел на Anthropic, който съчетава изключителен интелект и мащабируема производителност за сложни задачи, изискващи най-високо качество на отговорите и разсъжденията.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 е флагманският модел на Anthropic, съчетаващ изключителна интелигентност и мащабируема производителност за комплексни задачи, изискващи отговори и разсъждения с най-високо качество.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash предоставя възможности от ново поколение, включително отлична скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental е най-новият експериментален мултимодален AI модел на Google с подобрено качество спрямо предишните версии, особено в световните знания, програмиране и дълъг контекст.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite е олекотен вариант на Gemini с изключено мислене по подразбиране за подобрена латентност и разходи, но може да бъде активирано чрез параметри.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite предлага функции от ново поколение, включително изключителна скорост, вградена употреба на инструменти, мултимодално генериране и контекстен прозорец от 1 милион токена.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash е високопроизводителен модел на Google за разширени мултимодални задачи с разсъждение.",
@ -732,6 +732,18 @@
"inclusionai/ring-1t.description": "Ring-1T е MoE модел на inclusionAI с трилион параметри, предназначен за мащабни задачи по разсъждение и научни изследвания.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 е вариант на модела Ring от inclusionAI за сценарии с висока пропускателна способност, с акцент върху скоростта и ефективността на разходите.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 е лек MoE модел на inclusionAI с висока пропускателна способност, създаден за едновременна работа.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat е отворен модел за чат, базиран на архитектурата InternLM2. Моделът с 7B параметри е фокусиран върху генериране на диалог с поддръжка на китайски/английски, използвайки съвременно обучение за плавен и интелигентен разговор. Подходящ е за различни сценарии като клиентска поддръжка и лични асистенти.",
"internlm2.5-latest.description": "Наследени модели, които все още се поддържат с отлична и стабилна производителност след множество итерации. Предлагат се във варианти 7B и 20B, поддържат 1M контекст и по-силно следване на инструкции и използване на инструменти. По подразбиране използва последната серия InternLM2.5 (в момента internlm2.5-20b-chat).",
"internlm3-latest.description": "Нашата най-нова серия модели с отлична производителност при разсъждение, водеща сред отворените модели в своя клас. По подразбиране използва последната серия InternLM3 (в момента internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO е мултимодален предварително обучен модел за комплексно визуално-текстово разсъждение.",
"internvl2.5-latest.description": "InternVL2.5 все още се поддържа с висока и стабилна производителност. По подразбиране използва последната серия InternVL2.5 (в момента internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B е среден по размер мултимодален модел, балансиращ между производителност и разходи.",
"internvl3-1b.description": "InternVL3 1B е лек мултимодален модел за внедряване при ограничени ресурси.",
"internvl3-38b.description": "InternVL3 38B е голям отворен мултимодален модел за високоточна визуално-текстова интерпретация.",
"internvl3-latest.description": "Нашият най-нов мултимодален модел с по-силно визуално-текстово разбиране и разбиране на дълги визуални последователности, сравним с водещите затворени модели. По подразбиране използва последната серия InternVL (в момента internvl3-78b).",
"irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.",
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 е отворен LLM, предназначен за разработчици, изследователи и предприятия, създаден да им помага да изграждат, експериментират и отговорно мащабират идеи за генеративен ИИ. Като част от основата за глобални иновации в общността, той е подходящ за среди с ограничени изчислителни ресурси, крайни устройства и по-бързо обучение.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Силен визуален анализ на изображения с висока резолюция, подходящ за приложения за визуално разбиране.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Разширен визуален анализ за приложения с агенти за визуално разбиране.",
@ -813,8 +825,6 @@
"qianfan-8b.description": "Qianfan 8B е среден по размер общ модел, балансиращ разходи и качество за генериране на текст и въпроси/отговори.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K е насочен към разпознаване на намерения и координация на агенти с поддръжка на дълъг контекст.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K е лек агент модел за нискобюджетни многозавойни диалози и работни потоци.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K е модел с висока пропускателна способност за мащабни, многозадачни агентни приложения.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K е модел с висока едновременност за кратки до средни разговори и бърз отговор.",
"qianfan-check-vl.description": "Qianfan Check VL е мултимодален модел за преглед на съдържание, съвместимост между изображение и текст и задачи по разпознаване.",
"qianfan-composition.description": "Qianfan Composition е мултимодален модел за създаване, разбиране и генериране на смесено изображение и текст.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL е мултимодален модел за разпознаване, фокусиран върху английски езикови сценарии.",
@ -888,7 +898,6 @@
"qwen3-14b.description": "Qwen3 14B е среден по размер модел за многоезични въпроси и отговори и генериране на текст.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 е водещ модел с инструкции за широк спектър от задачи по генериране и разсъждение.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 е ултраголям модел за дълбоко разсъждение.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B е универсален голям модел за сложни задачи.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 е средно-голям модел с инструкции за висококачествено генериране и въпроси и отговори.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 е средно-голям модел за разсъждение, балансиращ точност и разходи.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B е средно-голям универсален модел, балансиращ между цена и качество.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} параметъра общо",
"arguments.title": "Аргументи",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Извличане на налични модели",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Извличане на налични умения",

View file

@ -29,6 +29,7 @@
"internlm.description": "Open-source организация, фокусирана върху изследвания и инструменти за големи модели, предоставяща ефективна и лесна за използване платформа за достъп до водещи модели и алгоритми.",
"jina.description": "Основана през 2020 г., Jina AI е водеща компания в областта на търсещия AI. Технологичният ѝ стек включва векторни модели, преоценители и малки езикови модели за създаване на надеждни генеративни и мултимодални търсещи приложения.",
"lmstudio.description": "LM Studio е десктоп приложение за разработка и експериментиране с LLM на вашия компютър.",
"lobehub.description": "LobeHub Cloud използва официални API интерфейси за достъп до AI модели и измерва използването чрез Кредити, обвързани с токени на модела.",
"minimax.description": "Основана през 2021 г., MiniMax създава универсален AI с мултимодални базови модели, включително текстови модели с трилиони параметри, речеви и визуални модели, както и приложения като Hailuo AI.",
"mistral.description": "Mistral предлага усъвършенствани универсални, специализирани и изследователски модели за сложни разсъждения, многоезични задачи и генериране на код, с извикване на функции за персонализирани интеграции.",
"modelscope.description": "ModelScope е платформа на Alibaba Cloud за модели като услуга, предлагаща широка гама от AI модели и услуги за инференция.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Jetzt registrieren",
"betterAuth.signin.socialError": "Soziale Anmeldung fehlgeschlagen, bitte versuchen Sie es erneut",
"betterAuth.signin.socialOnlyHint": "Diese E-Mail wurde über ein Drittanbieter-Konto registriert. Melden Sie sich mit diesem Anbieter an oder",
"betterAuth.signin.ssoOnlyNoProviders": "Die Registrierung per E-Mail ist deaktiviert und es sind keine SSO-Anbieter konfiguriert. Bitte wenden Sie sich an Ihre Administratorin oder Ihren Administrator.",
"betterAuth.signin.submit": "Anmelden",
"betterAuth.signup.confirmPasswordPlaceholder": "Passwort bestätigen",
"betterAuth.signup.emailPlaceholder": "E-Mail-Adresse eingeben",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Details anzeigen",
"clearCurrentMessages": "Aktuelle Sitzung löschen",
"compressedHistory": "Komprimierte Historie",
"compression.cancel": "Dekomprimieren",
"compression.cancelConfirm": "Sind Sie sicher, dass Sie dekomprimieren möchten? Dadurch werden die ursprünglichen Nachrichten wiederhergestellt.",
"compression.history": "Verlauf",
"compression.summary": "Zusammenfassung",
"confirmClearCurrentMessages": "Sie sind dabei, die aktuellen Sitzungsnachrichten zu löschen. Nach dem Löschen können sie nicht wiederhergestellt werden. Bitte bestätigen Sie Ihre Aktion.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Agent erstellen",
"extendParams.disableContextCaching.desc": "Reduziert die Kosten pro Gespräch um bis zu 90 % und erhöht die Geschwindigkeit um bis zu das 4-Fache. Aktivieren Sie dies, um die Begrenzung der historischen Nachrichten automatisch zu deaktivieren. <1>Mehr erfahren</1>",
"extendParams.disableContextCaching.title": "Kontext-Caching aktivieren",
"extendParams.effort.desc": "Steuern Sie mit dem Parameter 'Aufwand', wie viele Tokens Claude bei der Antwort verwendet.",
"extendParams.effort.title": "Aufwand",
"extendParams.enableAdaptiveThinking.desc": "Ermöglicht Claude im adaptiven Denkmodus dynamisch zu entscheiden, wann und wie intensiv gedacht wird.",
"extendParams.enableAdaptiveThinking.title": "Adaptives Denken aktivieren",
"extendParams.enableReasoning.desc": "Basierend auf der Begrenzung des Claude-Denkmechanismus deaktiviert diese Option automatisch die Begrenzung der historischen Nachrichten. <1>Mehr erfahren</1>",
"extendParams.enableReasoning.title": "Tiefes Denken aktivieren",
"extendParams.imageAspectRatio.title": "Bildseitenverhältnis",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Noch keine geforkten Agentengruppen",
"user.noForkedAgents": "Noch keine geforkten Agenten",
"user.publishedAgents": "Erstellte Agenten",
"user.publishedGroups": "Erstellte Gruppen",
"user.searchPlaceholder": "Nach Name oder Beschreibung suchen...",
"user.statusFilter.all": "Alle",
"user.statusFilter.archived": "Archiviert",
"user.statusFilter.deprecated": "Veraltet",
"user.statusFilter.favorite": "Favoriten",
"user.statusFilter.forked": "Abgeleitet",
"user.statusFilter.published": "Veröffentlicht",
"user.statusFilter.unpublished": "In Prüfung",
"user.tabs.favorites": "Favoriten",
"user.tabs.forkedAgents": "Geforkt",
"user.tabs.publishedAgents": "Erstellt",

View file

@ -150,6 +150,7 @@
"upload.desc": "Details: {{detail}}",
"upload.fileOnlySupportInServerMode": "Im aktuellen Modus können keine Nicht-Bilddateien hochgeladen werden. Bitte wechseln Sie zum Server-Modus oder nutzen Sie den {{cloud}}-Dienst.",
"upload.networkError": "Bitte überprüfen Sie Ihre Netzwerkverbindung und die CORS-Konfiguration des Speicherdienstes.",
"upload.storageLimitExceeded": "Ihr Dateispeicher hat das Limit Ihres Tarifs erreicht. Bitte upgraden Sie Ihren Tarif oder löschen Sie nicht verwendete Dateien, um Speicherplatz freizugeben.",
"upload.title": "Datei-Upload fehlgeschlagen. Bitte Netzwerk prüfen oder später erneut versuchen.",
"upload.unknownError": "Fehlerursache: {{reason}}",
"upload.uploadFailed": "Datei-Upload fehlgeschlagen."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Modell-Anzeigename",
"providerModels.item.modelConfig.extendParams.extra": "Wählen Sie erweiterte Parameter, die vom Modell unterstützt werden. Fahren Sie mit der Maus über eine Option, um die Steuerungsvorschau anzuzeigen. Falsche Konfigurationen können zu Anforderungsfehlern führen.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Für Claude-Modelle; kann die Kosten senken und die Antwortgeschwindigkeit erhöhen.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Für Claude Opus 4.6; steuert das Anstrengungsniveau (niedrig/mittel/hoch/maximal).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Für Claude Opus 4.6; schaltet adaptives Denken ein oder aus.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Für Claude-, DeepSeek- und andere Modelle mit logischem Denken; ermöglicht tiefere Überlegungen.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Für die GPT-5-Serie; steuert die Intensität des logischen Denkens.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Für die GPT-5.1-Serie; steuert die Intensität des logischen Denkens.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Ein neues Inhouse-Argumentationsmodell mit 80K Chain-of-Thought und 1M Eingabe, vergleichbar mit führenden globalen Modellen.",
"MiniMax-M2-Stable.description": "Entwickelt für effizientes Coden und Agenten-Workflows mit höherer Parallelität für den kommerziellen Einsatz.",
"MiniMax-M2.1-Lightning.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung. Schneller und effizienter.",
"MiniMax-M2.1.description": "Leistungsstarke mehrsprachige Programmierfunktionen, umfassend verbesserte Programmiererfahrung",
"MiniMax-M2.1.description": "MiniMax-M2.1 ist das Flaggschiff unter den Open-Source-Großmodellen von MiniMax und konzentriert sich auf die Lösung komplexer Aufgaben aus der realen Welt. Seine zentralen Stärken liegen in der mehrsprachigen Programmierfähigkeit und der Fähigkeit, als Agent komplexe Aufgaben zu bewältigen.",
"MiniMax-M2.description": "Speziell für effizientes Programmieren und Agenten-Workflows entwickelt",
"MiniMax-Text-01.description": "MiniMax-01 führt großskalige lineare Aufmerksamkeit über klassische Transformer hinaus ein. Mit 456B Parametern und 45,9B aktiv pro Durchlauf erreicht es Spitzenleistung und unterstützt bis zu 4M Token Kontext (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 ist ein Open-Weights-Modell für großskalige hybride Aufmerksamkeits- und Schlussfolgerungsaufgaben mit insgesamt 456 Milliarden Parametern und etwa 45,9 Milliarden aktiven Parametern pro Token. Es unterstützt nativ einen Kontext von 1 Million Tokens und nutzt Flash Attention, um die FLOPs bei der Generierung von 100.000 Tokens im Vergleich zu DeepSeek R1 um 75 % zu reduzieren. Durch die MoE-Architektur, CISPO und hybrides RL-Training erzielt es führende Leistungen bei Aufgaben mit langen Eingaben und realer Softwareentwicklung.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 Billion Gesamtparameter mit 32 Milliarden aktiven. Unter den nicht-denkenden Modellen gehört es zur Spitzenklasse in den Bereichen aktuelles Wissen, Mathematik und Programmierung und ist besonders stark bei allgemeinen Agentenaufgaben. Optimiert für Agenten-Workloads kann es nicht nur Fragen beantworten, sondern auch Handlungen ausführen. Ideal für improvisierte, allgemeine Chats und Agentenerlebnisse als reflexartiges Modell ohne langes Nachdenken.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7B) ist ein hochpräzises Anweisungsmodell für komplexe Berechnungen.",
"OmniConsistency.description": "OmniConsistency verbessert die Stil-Konsistenz und Generalisierung bei Bild-zu-Bild-Aufgaben durch den Einsatz großskaliger Diffusion Transformers (DiTs) und gepaarter stilisierter Daten, wodurch Stilverluste vermieden werden.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 ist eine weiterentwickelte Version der PaddleOCR-VL-Serie und erreicht eine Genauigkeit von 94,5 % im OmniDocBench v1.5 Benchmark für Dokumentenverarbeitung besser als führende allgemeine Großmodelle und spezialisierte Dokumentenmodelle. Es unterstützt innovativ die Lokalisierung unregelmäßiger Begrenzungsrahmen für Dokumentelemente und verarbeitet effektiv gescannte, geneigte und Bildschirmaufnahmen.",
"Phi-3-medium-128k-instruct.description": "Dasselbe Phi-3-medium-Modell mit erweitertem Kontextfenster für RAG- oder Few-Shot-Prompts.",
"Phi-3-medium-4k-instruct.description": "Ein Modell mit 14 Milliarden Parametern, das qualitativ hochwertiger ist als Phi-3-mini und sich auf hochwertige, schlussfolgerungsintensive Daten konzentriert.",
"Phi-3-mini-128k-instruct.description": "Dasselbe Phi-3-mini-Modell mit erweitertem Kontextfenster für RAG- oder Few-Shot-Prompts.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 ist ein MoE-Modell mit 671 Milliarden Parametern, das MLA und DeepSeekMoE mit verlustfreier Lastverteilung für effizientes Training und Inferenz nutzt. Es wurde mit 14,8 Billionen hochwertigen Tokens vortrainiert und mit SFT und RL weiter abgestimmt. Es übertrifft andere Open-Source-Modelle und nähert sich führenden Closed-Source-Modellen an.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 ist das neueste und leistungsstärkste Modell der Kimi K2-Reihe. Es handelt sich um ein MoE-Spitzenmodell mit insgesamt 1 Billion und 32 Milliarden aktiven Parametern. Zu den Hauptmerkmalen zählen eine verbesserte agentenbasierte Programmierintelligenz mit deutlichen Leistungssteigerungen bei Benchmarks und realen Agentenaufgaben sowie eine optimierte Ästhetik und Benutzerfreundlichkeit im Frontend-Coding.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo ist die Turbo-Variante, die für hohe Geschwindigkeit und Durchsatz beim logischen Denken optimiert wurde, während die Fähigkeit zu mehrstufigem Denken und Werkzeugnutzung von K2 Thinking erhalten bleibt. Es handelt sich um ein MoE-Modell mit etwa 1 Billion Parametern, nativem 256K-Kontext und stabiler großskaliger Tool-Nutzung für Produktionsszenarien mit strengen Anforderungen an Latenz und Parallelität.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 ist ein Open-Source-natives multimodales Agentenmodell, basierend auf Kimi-K2-Base, trainiert mit etwa 1,5 Billionen gemischten Bild- und Text-Tokens. Das Modell verwendet eine MoE-Architektur mit insgesamt 1 Billion Parametern und 32 Milliarden aktiven Parametern, unterstützt ein Kontextfenster von 256K und integriert nahtlos visuelle und sprachliche Verständnisfähigkeiten.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 ist Zhipus neue Flaggschiff-Generation mit insgesamt 355 Milliarden Parametern und 32 Milliarden aktiven Parametern. Das Modell wurde umfassend in den Bereichen allgemeiner Dialog, logisches Denken und Agentenfähigkeiten verbessert. GLM-4.7 stärkt das Interleaved Thinking und führt Preserved Thinking sowie Turn-level Thinking ein.",
"QwQ-32B-Preview.description": "Qwen QwQ ist ein experimentelles Forschungsmodell mit Fokus auf die Verbesserung logischer Schlussfolgerungen.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview ist ein Forschungsmodell von Qwen mit Schwerpunkt auf visuellem Denken. Es überzeugt durch seine Fähigkeit zur Analyse komplexer Szenen und zur Lösung visueller Mathematikaufgaben.",
@ -272,20 +274,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku bietet es verbesserte Fähigkeiten und übertrifft das bisher größte Modell Claude 3 Opus in vielen Intelligenz-Benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic, das in vielen Bereichen Fortschritte macht und das bisherige Flaggschiff Claude 3 Opus in zahlreichen Benchmarks übertrifft.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku liefert schnelle Antworten für leichte Aufgaben.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet ist das intelligenteste Modell von Anthropic und das erste Hybrid-Reasoning-Modell auf dem Markt. Es kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse liefern, die für Nutzer sichtbar sind. Sonnet ist besonders stark in den Bereichen Programmierung, Datenwissenschaft, visuelle Verarbeitung und agentenbasierte Aufgaben.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 ist das intelligenteste Modell von Anthropic und das erste hybride Reasoning-Modell auf dem Markt. Es unterstützt nahezu sofortige Antworten oder tiefgehendes Denken mit fein abgestimmter Steuerung.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku ist das schnellste und kompakteste Modell von Anthropic, entwickelt für nahezu sofortige Antworten mit schneller, präziser Leistung.",
"claude-3-opus-20240229.description": "Claude 3 Opus ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt in Leistung, Intelligenz, Sprachfluss und Verständnis.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bietet eine ausgewogene Kombination aus Intelligenz und Geschwindigkeit für Unternehmensanwendungen. Es liefert hohe Nutzbarkeit bei geringeren Kosten und zuverlässiger Skalierbarkeit.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking ist eine erweiterte Variante, die ihren Denkprozess offenlegen kann.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben. Es überzeugt durch herausragende Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und zeichnet sich durch exzellente Leistung, Intelligenz, Sprachgewandtheit und Verständnis aus.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 ist das neueste und leistungsfähigste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-20250514.description": "Claude Opus 4 ist das leistungsstärkste Modell von Anthropic für hochkomplexe Aufgaben und überzeugt durch Leistung, Intelligenz, Sprachgewandtheit und Verständnis.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic. Es kombiniert herausragende Intelligenz mit skalierbarer Leistung und ist ideal für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"claude-opus-4-6.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für den Aufbau von Agenten und Programmierung.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kann nahezu sofortige Antworten oder schrittweises Denken mit sichtbarem Prozess erzeugen.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kann nahezu sofortige Antworten oder ausführliche, schrittweise Denkprozesse mit sichtbarem Ablauf liefern.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 ist das bisher intelligenteste Modell von Anthropic und bietet nahezu sofortige Antworten oder schrittweises Denken mit fein abgestimmter Steuerung für API-Nutzer.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"codegeex-4.description": "CodeGeeX-4 ist ein leistungsstarker KI-Coding-Assistent, der mehrsprachige Q&A und Codevervollständigung unterstützt, um die Produktivität von Entwicklern zu steigern.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B ist ein mehrsprachiges Codegenerierungsmodell, das Codevervollständigung, Codeinterpretation, Websuche, Funktionsaufrufe und Q&A auf Repositoriumsebene unterstützt. Es deckt eine Vielzahl von Softwareentwicklungsszenarien ab und ist eines der besten Code-Modelle unter 10 Milliarden Parametern.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
"deepseek-chat.description": "Ein neues Open-Source-Modell, das allgemeine und programmierbezogene Fähigkeiten kombiniert. Es vereint die dialogorientierte Stärke eines Chatmodells mit der ausgeprägten Programmierleistung eines Codemodells und bietet eine verbesserte Präferenzanpassung. DeepSeek-V2.5 verbessert zudem das Schreiben und das Befolgen von Anweisungen.",
"deepseek-chat.description": "DeepSeek V3.2 bietet ein ausgewogenes Verhältnis zwischen logischem Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau, und es ist das erste Modell, das Denken in die Werkzeugnutzung integriert führend in Open-Source-Agentenbewertungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 ist ein Open-Source-MoE-Code-Modell mit starker Leistung bei Programmieraufgaben, vergleichbar mit GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 Schnellversion mit Echtzeit-Websuche kombiniert 671B-Fähigkeiten mit schneller Reaktion.",
"deepseek-r1-online.description": "DeepSeek R1 Vollversion mit 671B Parametern und Echtzeit-Websuche bietet stärkeres Verständnis und bessere Generierung.",
"deepseek-r1.description": "DeepSeek-R1 nutzt Cold-Start-Daten vor dem RL und erreicht vergleichbare Leistungen wie OpenAI-o1 bei Mathematik, Programmierung und logischem Denken.",
"deepseek-reasoner.description": "Der Denkmodus DeepSeek V3.2 gibt vor der finalen Antwort eine Gedankenkette aus, um die Genauigkeit zu erhöhen.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking ist ein Modell für tiefes logisches Denken, das vor der Ausgabe eine Gedankenkette generiert, um höhere Genauigkeit zu erzielen. Es erreicht Spitzenwerte in Wettbewerben und bietet Reasoning auf dem Niveau von Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 ist ein effizientes MoE-Modell für kostengünstige Verarbeitung.",
"deepseek-v2:236b.description": "DeepSeek V2 236B ist das codefokussierte Modell von DeepSeek mit starker Codegenerierung.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 ist ein MoE-Modell mit 671B Parametern und herausragenden Stärken in Programmierung, technischer Kompetenz, Kontextverständnis und Langtextverarbeitung.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview ist ein Vorschau-Modell zur Charakter- und Plot-Erstellung für Funktionsbewertung und Tests.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K ist ein Persönlichkeitsmodell für Romane und Plot-Erstellung, geeignet für die Generierung von Langform-Geschichten.",
"ernie-irag-edit.description": "ERNIE iRAG Edit ist ein Bildbearbeitungsmodell mit Unterstützung für Entfernen, Übermalen und Varianten-Erstellung.",
"ernie-lite-8k.description": "ERNIE Lite 8K ist ein leichtgewichtiges Allzweckmodell für kostensensitive tägliche Frage-Antwort- und Inhaltserstellungsszenarien.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K ist ein leichtgewichtiges Hochleistungsmodell für latenz- und kostensensitive Anwendungen.",
"ernie-novel-8k.description": "ERNIE Novel 8K ist für Langform-Romane und IP-Plots mit mehreren Charakteren konzipiert.",
"ernie-speed-128k.description": "ERNIE Speed 128K ist ein Modell ohne I/O-Gebühren für Langtextverständnis und groß angelegte Tests.",
"ernie-speed-8k.description": "ERNIE Speed 8K ist ein kostenloses, schnelles Modell für alltägliche Chats und einfache Textaufgaben.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K ist ein hochgradig skalierbares Modell für großflächige Online-Dienste und Unternehmensanwendungen.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K ist ein ultra-leichtgewichtiges Modell für einfache Frage-Antwort-Aufgaben, Klassifikation und kostengünstige Inferenz.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung ermöglicht. Es erstellt Bilder basierend auf Texteingaben.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team von ByteDance, unterstützt Multi-Image-Bearbeitung und -Komposition. Es bietet verbesserte Konsistenz von Motiven, präzise Befolgung von Anweisungen, räumliches Logikverständnis, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für hochqualitative, kontrollierbare Bildgenerierung aus Prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] akzeptiert Texte und Referenzbilder als Eingabe und ermöglicht gezielte lokale Bearbeitungen sowie komplexe globale Szenentransformationen.",
"fal-ai/flux/krea.description": "Flux Krea [dev] ist ein Bildgenerierungsmodell mit ästhetischer Ausrichtung auf realistischere, natürliche Bilder.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Ein leistungsstarkes natives multimodales Bildgenerierungsmodell.",
"fal-ai/imagen4/preview.description": "Hochwertiges Bildgenerierungsmodell von Google.",
"fal-ai/nano-banana.description": "Nano Banana ist das neueste, schnellste und effizienteste native multimodale Modell von Google. Es ermöglicht Bildgenerierung und -bearbeitung im Dialog.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen unterstützt. Es bearbeitet chinesischen und englischen Text präzise und ermöglicht hochwertige Bearbeitungen wie Stilübertragungen und Objektrotationen.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit beeindruckender chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"fal-ai/qwen-image-edit.description": "Ein professionelles Bildbearbeitungsmodell des Qwen-Teams, das semantische und visuelle Bearbeitungen, präzise Textbearbeitung in Chinesisch/Englisch, Stilübertragungen, Drehungen und mehr unterstützt.",
"fal-ai/qwen-image.description": "Ein leistungsstarkes Bildgenerierungsmodell des Qwen-Teams mit starker chinesischer Textrendering-Fähigkeit und vielfältigen visuellen Stilen.",
"flux-1-schnell.description": "Ein Text-zu-Bild-Modell mit 12 Milliarden Parametern von Black Forest Labs, das latente adversariale Diffusionsdistillation nutzt, um hochwertige Bilder in 14 Schritten zu erzeugen. Es konkurriert mit geschlossenen Alternativen und ist unter Apache-2.0 für persönliche, Forschungs- und kommerzielle Nutzung verfügbar.",
"flux-dev.description": "FLUX.1 [dev] ist ein Modell mit offenen Gewichten für nicht-kommerzielle Nutzung. Es bietet nahezu professionelle Bildqualität und Befolgung von Anweisungen bei effizienterer Nutzung von Ressourcen im Vergleich zu Standardmodellen gleicher Größe.",
"flux-kontext-max.description": "Modernste kontextuelle Bildgenerierung und -bearbeitung, kombiniert Text und Bilder für präzise, kohärente Ergebnisse.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro unterstützt bis zu 2 Millionen Tokens ein ideales mittelgroßes multimodales Modell für komplexe Aufgaben.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
"gemini-2.0-flash-exp-image-generation.description": "Experimentelles Gemini 2.0 Flash-Modell mit Unterstützung für Bildgenerierung.",
"gemini-2.0-flash-exp.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
"gemini-2.0-flash-lite-001.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
"gemini-2.0-flash-lite.description": "Eine Gemini 2.0 Flash-Variante, optimiert für Kosteneffizienz und geringe Latenz.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, native Tool-Nutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell und ermöglicht konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell und ermöglicht die dialogbasierte Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-image:image.description": "Nano Banana ist Googles neuestes, schnellstes und effizientestes natives multimodales Modell für konversationale Bildgenerierung und -bearbeitung.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
"gemini-3-flash-preview.description": "Gemini 3 Flash ist das intelligenteste Modell, das auf Geschwindigkeit ausgelegt ist es vereint modernste Intelligenz mit exzellenter Suchverankerung.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell und unterstützt auch multimodale Chats.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Modell zur Bildgenerierung und unterstützt zudem multimodale Chats.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
"gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "Die GLM-Z1-Serie bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.",
"glm-z1-flashx.description": "Schnell und kostengünstig: Flash-optimiert mit ultraschnellem Denken und höherer Parallelverarbeitung.",
"glm-zero-preview.description": "GLM-Zero-Preview bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic und vereint außergewöhnliche Intelligenz mit skalierbarer Leistung für komplexe Aufgaben, die höchste Qualität bei Antworten und Denkprozessen erfordern.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 ist das Flaggschiffmodell von Anthropic und vereint außergewöhnliche Intelligenz mit skalierbarer Leistung für komplexe Aufgaben, die höchste Qualität bei Antworten und logischem Denken erfordern.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash bietet Next-Gen-Funktionen wie exzellente Geschwindigkeit, native Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental ist Googles neuestes experimentelles multimodales KI-Modell mit Qualitätsverbesserungen gegenüber früheren Versionen, insbesondere im Weltwissen, Code und Langkontext.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite ist eine leichtgewichtige Gemini-Variante mit standardmäßig deaktiviertem Denkmodus zur Verbesserung von Latenz und Kosten kann jedoch über Parameter aktiviert werden.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite bietet Next-Gen-Funktionen wie außergewöhnliche Geschwindigkeit, integrierte Werkzeugnutzung, multimodale Generierung und ein Kontextfenster von 1 Million Tokens.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash ist Googles leistungsstarkes Reasoning-Modell für erweiterte multimodale Aufgaben.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Hochgeschwindigkeitsvariante von K2 mit erweitertem Denkvermögen, 256k Kontext, starkem logischen Denken und einer Ausgabe von 60100 Token/Sekunde.",
"kimi-k2-thinking.description": "kimi-k2-thinking ist ein Denkmodell von Moonshot AI mit allgemeinen Agenten- und Denkfähigkeiten. Es glänzt durch tiefes logisches Denken und kann komplexe Probleme durch mehrstufige Werkzeugnutzung lösen.",
"kimi-k2-turbo-preview.description": "kimi-k2 ist ein MoE-Grundlagenmodell mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen (1T Gesamtparameter, 32B aktiv) und übertrifft andere gängige Open-Source-Modelle in den Bereichen logisches Denken, Programmierung, Mathematik und Agenten-Benchmarks.",
"kimi-k2.5.description": "Kimi K2.5 ist das leistungsfähigste Kimi-Modell und bietet Open-Source-SOTA in Agentenaufgaben, Programmierung und visuellem Verständnis. Es unterstützt multimodale Eingaben sowie Denk- und Nicht-Denk-Modi.",
"kimi-k2.description": "Kimi-K2 ist ein MoE-Basismodell von Moonshot AI mit starken Fähigkeiten in den Bereichen Programmierung und Agentenfunktionen, insgesamt 1T Parameter mit 32B aktiven. In Benchmarks zu allgemeinem logischen Denken, Programmierung, Mathematik und Agentenaufgaben übertrifft es andere gängige Open-Source-Modelle.",
"kimi-k2:1t.description": "Kimi K2 ist ein großes MoE-LLM von Moonshot AI mit insgesamt 1T Parametern und 32B aktiven pro Durchlauf. Es ist für Agentenfunktionen wie fortgeschrittene Werkzeugnutzung, logisches Denken und Codegenerierung optimiert.",
"kimi-latest.description": "Kimi Latest verwendet das neueste Kimi-Modell und kann experimentelle Funktionen enthalten. Es unterstützt Bildverständnis und wählt automatisch 8k/32k/128k-Abrechnungsmodelle basierend auf der Kontextlänge.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B ist ein mittelgroßes Allzweckmodell, das Kosten und Qualität bei Textgenerierung und QA ausbalanciert.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K ist auf Absichtserkennung und Agentenkoordination mit Unterstützung für langen Kontext ausgelegt.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K ist ein leichtgewichtiges Agentenmodell für kostengünstige Mehrfachdialoge und Workflows.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K ist ein leistungsstarkes Agentenmodell für groß angelegte, mehrstufige Agentenanwendungen.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K ist ein hochgradig paralleles Agentenmodell für kurze bis mittellange Gespräche mit schneller Reaktion.",
"qianfan-check-vl.description": "Qianfan Check VL ist ein multimodales Modell zur Inhaltsprüfung für Bild-Text-Konformität und Erkennungsaufgaben.",
"qianfan-composition.description": "Qianfan Composition ist ein multimodales Kreativmodell für gemischtes Bild-Text-Verständnis und -Generierung.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL ist ein multimodales Erkennungsmodell mit Fokus auf englischsprachige Szenarien.",
@ -1091,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B ist ein mittelgroßes Modell für mehrsprachige Frage-Antwort-Systeme und Textgenerierung.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 ist ein Flaggschiff-Instruct-Modell für eine Vielzahl von Generierungs- und Denkaufgaben.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 ist ein ultragroßes Denkmodell für anspruchsvolle Schlussfolgerungen.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B ist ein allgemeines Großmodell für komplexe Aufgaben.",
"qwen3-235b-a22b.description": "Qwen3 ist ein Next-Gen-Modell der Tongyi Qwen-Reihe mit großen Fortschritten in logischem Denken, allgemeinen Fähigkeiten, Agentenfunktionen und mehrsprachiger Leistung. Es unterstützt das Umschalten zwischen Denkmodi.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 ist ein mittelgroßes Instruct-Modell für hochwertige Generierung und Frage-Antwort-Aufgaben.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 ist ein mittelgroßes Denkmodell mit ausgewogenem Verhältnis zwischen Genauigkeit und Kosten.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B ist ein mittelgroßes allgemeines Modell mit ausgewogenem Verhältnis zwischen Kosten und Qualität.",
@ -1103,6 +1102,7 @@
"qwen3-coder-flash.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.",
"qwen3-coder-plus.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.",
"qwen3-coder:480b.description": "Alibabas leistungsstarkes Langkontextmodell für Agenten- und Programmieraufgaben.",
"qwen3-max-2026-01-23.description": "Qwen3 Max-Modelle bieten große Fortschritte gegenüber der 2.5-Serie in allgemeinen Fähigkeiten, chinesisch/englischem Verständnis, komplexer Befehlsverarbeitung, offenen subjektiven Aufgaben, Mehrsprachigkeit und Werkzeugnutzung mit weniger Halluzinationen. Die neueste Version verbessert agentenbasiertes Programmieren und Werkzeugnutzung gegenüber qwen3-max-preview. Diese Veröffentlichung erreicht SOTA in ihrem Bereich und zielt auf komplexere Agentenanforderungen ab.",
"qwen3-max-preview.description": "Leistungsstärkstes Qwen-Modell für komplexe, mehrstufige Aufgaben. Die Vorschau unterstützt Denkprozesse.",
"qwen3-max.description": "Qwen3 Max-Modelle bieten große Fortschritte gegenüber der 2.5-Serie in allgemeiner Fähigkeit, chinesisch/englischem Verständnis, komplexer Anweisungsbefolgung, offenen subjektiven Aufgaben, Mehrsprachigkeit und Werkzeugnutzung bei weniger Halluzinationen. Das neueste qwen3-max verbessert agentisches Programmieren und Werkzeugnutzung gegenüber qwen3-max-preview. Diese Version erreicht SOTA-Niveau und zielt auf komplexere Agentenanforderungen.",
"qwen3-next-80b-a3b-instruct.description": "Nächste Generation des Qwen3 Open-Source-Modells ohne Denkfunktion. Im Vergleich zur vorherigen Version (Qwen3-235B-A22B-Instruct-2507) bietet es besseres chinesisches Verständnis, stärkere logische Schlussfolgerung und verbesserte Textgenerierung.",
@ -1177,8 +1177,9 @@
"tts-1.description": "Das neueste Text-to-Speech-Modell, optimiert für Echtzeitgeschwindigkeit.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) ist auf präzise Anweisungsaufgaben abgestimmt und bietet starke Sprachleistung.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet setzt neue Branchenstandards, übertrifft Wettbewerber und Claude 3 Opus in umfassenden Bewertungen bei gleichbleibender mittlerer Geschwindigkeit und Kosten.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku verbessert es sich in allen Bereichen und übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Intelligenzbenchmarks.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktion und erweitertem Denkvermögen.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet ist das schnellste Next-Gen-Modell von Anthropic. Im Vergleich zu Claude 3 Haiku verbessert es sich in vielen Fähigkeiten und übertrifft das bisherige Flaggschiff Claude 3 Opus in zahlreichen Intelligenzbenchmarks.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 ist das schnellste und intelligenteste Haiku-Modell von Anthropic mit blitzschneller Reaktionszeit und erweitertem Denkvermögen.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 ist das intelligenteste Modell von Anthropic für den Aufbau von Agenten und Programmierung.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 ist das bisher intelligenteste Modell von Anthropic.",
"v0-1.0-md.description": "v0-1.0-md ist ein Legacy-Modell, das über die v0-API bereitgestellt wird.",
"v0-1.5-lg.description": "v0-1.5-lg eignet sich für anspruchsvolle Denk- oder Reasoning-Aufgaben.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} Parameter insgesamt",
"arguments.title": "Argumente",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Verfügbare Modelle abrufen",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Verfügbare Skills abrufen",

View file

@ -29,6 +29,7 @@
"internlm.description": "Eine Open-Source-Organisation für Forschung und Tools rund um große Modelle mit einer effizienten, benutzerfreundlichen Plattform für den Zugang zu modernsten Modellen und Algorithmen.",
"jina.description": "Jina AI wurde 2020 gegründet und ist ein führendes Unternehmen im Bereich Such-KI. Der Such-Stack umfasst Vektormodelle, Reranker und kleine Sprachmodelle für zuverlässige, hochwertige generative und multimodale Suchanwendungen.",
"lmstudio.description": "LM Studio ist eine Desktop-App zur Entwicklung und zum Experimentieren mit LLMs auf dem eigenen Computer.",
"lobehub.description": "LobeHub Cloud verwendet offizielle APIs, um auf KI-Modelle zuzugreifen, und misst die Nutzung anhand von Credits, die an Modell-Token gebunden sind.",
"minimax.description": "MiniMax wurde 2021 gegründet und entwickelt allgemeine KI mit multimodalen Foundation-Modellen, darunter Textmodelle mit Billionen Parametern, Sprach- und Bildmodelle sowie Apps wie Hailuo AI.",
"mistral.description": "Mistral bietet fortschrittliche allgemeine, spezialisierte und Forschungsmodelle für komplexes Denken, mehrsprachige Aufgaben und Codegenerierung inklusive Funktionsaufrufen für individuelle Integrationen.",
"modelscope.description": "ModelScope ist die Model-as-a-Service-Plattform von Alibaba Cloud mit einer breiten Auswahl an KI-Modellen und Inferenzdiensten.",

View file

@ -60,6 +60,10 @@
"emptyAgentAction": "Create Agent",
"extendParams.disableContextCaching.desc": "Reduce by up to 90% of the cost of generating a single conversation and bring a max of 4x speed. Enabling this will automatically disable the limit on the number of historical messages. <1>Learn more</1>",
"extendParams.disableContextCaching.title": "Enable Context Caching",
"extendParams.effort.desc": "Control how many tokens Claude uses when responding with the effort parameter.",
"extendParams.effort.title": "Effort",
"extendParams.enableAdaptiveThinking.desc": "Let Claude dynamically decide when and how much to think with adaptive thinking mode.",
"extendParams.enableAdaptiveThinking.title": "Enable Adaptive Thinking",
"extendParams.enableReasoning.desc": "Based on the Claude Thinking mechanism limit, enabling this will automatically disable the limit on the number of historical messages. <1>Learn more</1>",
"extendParams.enableReasoning.title": "Enable Deep Thinking",
"extendParams.imageAspectRatio.title": "Image Aspect Ratio",

View file

@ -150,6 +150,7 @@
"upload.desc": "Details: {{detail}}",
"upload.fileOnlySupportInServerMode": "The current deployment mode does not support uploading non-image files. To upload files in {{ext}} format, please switch to server database deployment or use the {{cloud}} service.",
"upload.networkError": "Please check your network connection and ensure that the file storage service's cross-origin configuration is correct.",
"upload.storageLimitExceeded": "Your file storage has reached the plan limit. Please upgrade your plan or delete unused files to free up space.",
"upload.title": "File upload failed. Please check your network connection or try again later",
"upload.unknownError": "Error reason: {{reason}}",
"upload.uploadFailed": "File upload failed."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Model Display Name",
"providerModels.item.modelConfig.extendParams.extra": "Choose extended parameters supported by the model. Hover an option to preview controls. Incorrect configs may cause request failures.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "For Claude models; can lower cost and speed up responses.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "For Claude Opus 4.6; controls effort level (low/medium/high/max).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "For Claude Opus 4.6; toggles adaptive thinking on or off.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "For Claude, DeepSeek and other reasoning models; unlock deeper thinking.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "For GPT-5 series; controls reasoning intensity.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "For GPT-5.1 series; controls reasoning intensity.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "A new in-house reasoning model with 80K chain-of-thought and 1M input, delivering performance comparable to top global models.",
"MiniMax-M2-Stable.description": "Built for efficient coding and agent workflows, with higher concurrency for commercial use.",
"MiniMax-M2.1-Lightning.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience. Faster and more efficient.",
"MiniMax-M2.1.description": "Powerful multilingual programming capabilities, comprehensively upgraded programming experience",
"MiniMax-M2.1.description": "MiniMax-M2.1 is a flagship open-source large model from MiniMax, focusing on solving complex real-world tasks. Its core strengths are multi-language programming capabilities and the ability to solve complex tasks as an Agent.",
"MiniMax-M2.description": "Built specifically for efficient coding and Agent workflows",
"MiniMax-Text-01.description": "MiniMax-01 introduces large-scale linear attention beyond classic Transformers, with 456B parameters and 45.9B activated per pass. It achieves top-tier performance and supports up to 4M tokens of context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is an open-weights large-scale hybrid-attention reasoning model with 456B total parameters and ~45.9B active per token. It natively supports 1M context and uses Flash Attention to cut FLOPs by 75% on 100K-token generation vs DeepSeek R1. With an MoE architecture plus CISPO and hybrid-attention RL training, it achieves leading performance on long-input reasoning and real software engineering tasks.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1T total parameters with 32B active. Among non-thinking models, it is top-tier in frontier knowledge, math, and coding, and stronger at general agent tasks. Optimized for agent workloads, it can take actions, not just answer questions. Best for improvisational, general chat, and agent experiences as a reflex-level model without long thinking.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) is a high-precision instruction model for complex computation.",
"OmniConsistency.description": "OmniConsistency improves style consistency and generalization in image-to-image tasks by introducing large-scale Diffusion Transformers (DiTs) and paired stylized data, avoiding style degradation.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 is an upgraded version of the PaddleOCR-VL series, achieving 94.5% accuracy on the OmniDocBench v1.5 document parsing benchmark, surpassing leading general large models and specialized document parsing models. It innovatively supports irregular bounding box localization for document elements, handling scanned, tilted, and screen-captured images effectively.",
"Phi-3-medium-128k-instruct.description": "The same Phi-3-medium model with a larger context window for RAG or few-shot prompts.",
"Phi-3-medium-4k-instruct.description": "A 14B-parameter model with higher quality than Phi-3-mini, focused on high-quality, reasoning-intensive data.",
"Phi-3-mini-128k-instruct.description": "The same Phi-3-mini model with a larger context window for RAG or few-shot prompts.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is a 671B-parameter MoE model using MLA and DeepSeekMoE with loss-free load balancing for efficient inference and training. Pretrained on 14.8T high-quality tokens and further tuned with SFT and RL, it outperforms other open models and approaches leading closed models.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is the newest and most powerful Kimi K2. It is a top-tier MoE model with 1T total and 32B active parameters. Key features include stronger agentic coding intelligence with significant gains on benchmarks and real-world agent tasks, plus improved frontend coding aesthetics and usability.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is the Turbo variant optimized for reasoning speed and throughput while retaining K2 Thinkings multi-step reasoning and tool use. It is an MoE model with ~1T total parameters, native 256K context, and stable large-scale tool calling for production scenarios with stricter latency and concurrency needs.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is an open-source native multimodal agent model, built on Kimi-K2-Base, trained on approximately 1.5 trillion mixed vision and text tokens. The model adopts an MoE architecture with 1T total parameters and 32B active parameters, supporting a 256K context window, seamlessly integrating vision and language understanding capabilities.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is Zhipu's new generation flagship model with 355B total parameters and 32B active parameters, fully upgraded in general dialogue, reasoning, and agent capabilities. GLM-4.7 enhances Interleaved Thinking and introduces Preserved Thinking and Turn-level Thinking.",
"QwQ-32B-Preview.description": "Qwen QwQ is an experimental research model focused on improving reasoning.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is a research model from Qwen focused on visual reasoning, with strengths in complex scene understanding and visual math problems.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropics fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the prior largest model Claude 3 Opus on many intelligence benchmarks.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku delivers fast responses for lightweight tasks.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is Anthropics most intelligent model and the first hybrid reasoning model on the market. It can produce near-instant responses or extended step-by-step reasoning that users can see. Sonnet is especially strong at coding, data science, vision, and agent tasks.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is Anthropic's most intelligent model and the first hybrid reasoning model on the market, supporting near-instant responses or extended thinking with fine-grained control.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is Anthropics fastest and most compact model, designed for near-instant responses with fast, accurate performance.",
"claude-3-opus-20240229.description": "Claude 3 Opus is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet balances intelligence and speed for enterprise workloads, delivering high utility at lower cost and reliable large-scale deployment.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropics fastest and smartest Haiku model, with lightning speed and extended reasoning.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is an advanced variant that can reveal its reasoning process.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropics latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropics most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and comprehension.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is Anthropic's latest and most capable model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-20250514.description": "Claude Opus 4 is Anthropic's most powerful model for highly complex tasks, excelling in performance, intelligence, fluency, and understanding.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is Anthropics flagship model, combining outstanding intelligence with scalable performance, ideal for complex tasks requiring the highest-quality responses and reasoning.",
"claude-opus-4-6.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 can produce near-instant responses or extended step-by-step thinking with visible process.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is Anthropic's most intelligent model to date, offering near-instant responses or extended step-by-step thinking with fine-grained control for API users.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
"codegeex-4.description": "CodeGeeX-4 is a powerful AI coding assistant that supports multilingual Q&A and code completion to boost developer productivity.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is a multilingual code generation model supporting code completion and generation, code interpreter, web search, function calling, and repo-level code Q&A, covering a wide range of software development scenarios. It is a top-tier code model under 10B parameters.",
"codegemma.description": "CodeGemma is a lightweight model for varied programming tasks, enabling fast iteration and integration.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
"deepseek-chat.description": "A new open-source model combining general and code abilities. It preserves the chat models general dialogue and the coder models strong coding, with better preference alignment. DeepSeek-V2.5 also improves writing and instruction following.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is an open-source MoE code model that performs strongly on coding tasks, comparable to GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 fast full version with real-time web search, combining 671B-scale capability and faster response.",
"deepseek-r1-online.description": "DeepSeek R1 full version with 671B parameters and real-time web search, offering stronger understanding and generation.",
"deepseek-r1.description": "DeepSeek-R1 uses cold-start data before RL and performs comparably to OpenAI-o1 on math, coding, and reasoning.",
"deepseek-reasoner.description": "DeepSeek V3.2 thinking mode outputs a chain-of-thought before the final answer to improve accuracy.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is a deep reasoning model that generates chain-of-thought before outputs for higher accuracy, with top competition results and reasoning comparable to Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 is an efficient MoE model for cost-effective processing.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks code-focused model with strong code generation.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is a 671B-parameter MoE model with standout strengths in programming and technical capability, context understanding, and long-text handling.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview is a character and plot creation model preview for feature evaluation and testing.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K is a persona model for novels and plot creation, suited for long-form story generation.",
"ernie-irag-edit.description": "ERNIE iRAG Edit is an image editing model supporting erasing, repainting, and variant generation.",
"ernie-lite-8k.description": "ERNIE Lite 8K is a lightweight general model for cost-sensitive daily QA and content generation.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is a lightweight high-performance model for latency- and cost-sensitive scenarios.",
"ernie-novel-8k.description": "ERNIE Novel 8K is built for long-form novels and IP plots with multi-character narratives.",
"ernie-speed-128k.description": "ERNIE Speed 128K is a no-I/O-fee model for long-text understanding and large-scale trials.",
"ernie-speed-8k.description": "ERNIE Speed 8K is a free, fast model for daily chat and light text tasks.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is a high-concurrency, high-value model for large-scale online services and enterprise apps.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K is ultra-lightweight for simple QA, classification, and low-cost inference.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepts text and reference images as input, enabling targeted local edits and complex global scene transformations.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is an image generation model with an aesthetic bias toward more realistic, natural images.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "A powerful native multimodal image generation model.",
"fal-ai/imagen4/preview.description": "High-quality image generation model from Google.",
"fal-ai/nano-banana.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling image generation and editing through conversation.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team that supports semantic and appearance edits, precisely edits Chinese and English text, and enables high-quality edits such as style transfer and object rotation.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with impressive Chinese text rendering and diverse visual styles.",
"fal-ai/qwen-image-edit.description": "A professional image editing model from the Qwen team, supporting semantic and appearance edits, precise Chinese/English text editing, style transfer, rotation, and more.",
"fal-ai/qwen-image.description": "A powerful image generation model from the Qwen team with strong Chinese text rendering and diverse visual styles.",
"flux-1-schnell.description": "A 12B-parameter text-to-image model from Black Forest Labs using latent adversarial diffusion distillation to generate high-quality images in 1-4 steps. It rivals closed alternatives and is released under Apache-2.0 for personal, research, and commercial use.",
"flux-dev.description": "FLUX.1 [dev] is an open-weights distilled model for non-commercial use. It keeps near-pro image quality and instruction following while running more efficiently, using resources better than same-size standard models.",
"flux-kontext-max.description": "State-of-the-art contextual image generation and editing, combining text and images for precise, coherent results.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro supports up to 2 million tokens, an ideal mid-sized multimodal model for complex tasks.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash delivers next-gen features including exceptional speed, native tool use, multimodal generation, and a 1M-token context window.",
"gemini-2.0-flash-exp-image-generation.description": "Gemini 2.0 Flash experimental model with image generation support.",
"gemini-2.0-flash-exp.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.",
"gemini-2.0-flash-lite-001.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.",
"gemini-2.0-flash-lite.description": "A Gemini 2.0 Flash variant optimized for cost efficiency and low latency.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash delivers next-gen features including exceptional speed, native tool use, multimodal generation, and a 1M-token context window.",
"gemini-2.5-flash-image-preview.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-image:image.description": "Nano Banana is Googles newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is Googles smallest, best-value model, designed for large-scale use.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is the smartest model built for speed, combining cutting-edge intelligence with excellent search grounding.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Googles image generation model and also supports multimodal chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "GLM-Z1 series provides strong complex reasoning, excelling in logic, math, and programming.",
"glm-z1-flashx.description": "Fast and low-cost: Flash-enhanced with ultra-fast reasoning and higher concurrency.",
"glm-zero-preview.description": "GLM-Zero-Preview delivers strong complex reasoning, excelling in logic, math, and programming.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 is Anthropics flagship model, combining exceptional intelligence and scalable performance for complex tasks requiring the highest-quality responses and reasoning.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 is Anthropic's flagship model, combining exceptional intelligence and scalable performance for complex tasks requiring the highest-quality responses and reasoning.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash delivers next-gen capabilities, including excellent speed, native tool use, multimodal generation, and a 1M-token context window.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental is Googles latest experimental multimodal AI model with quality improvements over prior versions, especially in world knowledge, code, and long context.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite is a lightweight Gemini variant with thinking disabled by default to improve latency and cost, but it can be enabled via parameters.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite delivers next-gen features including exceptional speed, built-in tool use, multimodal generation, and a 1M-token context window.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash is Googles high-performance reasoning model for extended multimodal tasks.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "High-speed K2 long-thinking variant with 256k context, strong deep reasoning, and 60100 tokens/sec output.",
"kimi-k2-thinking.description": "kimi-k2-thinking is a Moonshot AI thinking model with general agentic and reasoning abilities. It excels at deep reasoning and can solve hard problems via multi-step tool use.",
"kimi-k2-turbo-preview.description": "kimi-k2 is an MoE foundation model with strong coding and agent capabilities (1T total params, 32B active), outperforming other mainstream open models across reasoning, programming, math, and agent benchmarks.",
"kimi-k2.5.description": "Kimi K2.5 is the most capable Kimi model, delivering open-source SOTA in agent tasks, coding, and vision understanding. It supports multimodal inputs and both thinking and non-thinking modes.",
"kimi-k2.description": "Kimi-K2 is a MoE base model from Moonshot AI with strong coding and agent capabilities, totaling 1T parameters with 32B active. On benchmarks for general reasoning, coding, math, and agent tasks, it outperforms other mainstream open models.",
"kimi-k2:1t.description": "Kimi K2 is a large MoE LLM from Moonshot AI with 1T total parameters and 32B active per forward pass. It is optimized for agent capabilities including advanced tool use, reasoning, and code synthesis.",
"kimi-latest.description": "Kimi Latest uses the newest Kimi model and may include experimental features. It supports image understanding and automatically selects 8k/32k/128k billing models based on context length.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B is a mid-size general model balancing cost and quality for text generation and QA.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K targets intent recognition and agent orchestration with long context support.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K is a lightweight agent model for low-cost multi-turn dialogue and workflows.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K is a high-throughput agent model for large-scale, multi-task agent apps.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K is a high-concurrency agent model for short-to-mid conversations and fast response.",
"qianfan-check-vl.description": "Qianfan Check VL is a multimodal content review model for image-text compliance and recognition tasks.",
"qianfan-composition.description": "Qianfan Composition is a multimodal creation model for mixed image-text understanding and generation.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL is a multimodal recognition model focused on English scenarios.",
@ -1091,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B is a mid-size model for multilingual QA and text generation.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 is a flagship instruct model for a wide range of generation and reasoning tasks.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 is an ultra-large thinking model for hard reasoning.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B is a general large model for complex tasks.",
"qwen3-235b-a22b.description": "Qwen3 is a next-gen Tongyi Qwen model with major gains in reasoning, general ability, agent capabilities, and multilingual performance, and supports switching thinking modes.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 is a mid-large instruct model for high-quality generation and QA.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 is a mid-large thinking model balancing accuracy and cost.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B is a mid-large general model balancing cost and quality.",
@ -1103,6 +1102,7 @@
"qwen3-coder-flash.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.",
"qwen3-coder-plus.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.",
"qwen3-coder:480b.description": "Alibaba's high-performance long-context model for agent and coding tasks.",
"qwen3-max-2026-01-23.description": "Qwen3 Max models deliver large gains over the 2.5 series in general ability, Chinese/English understanding, complex instruction following, subjective open tasks, multilingual ability, and tool use, with fewer hallucinations. The latest qwen3-max improves agentic programming and tool use over qwen3-max-preview. This release reaches field SOTA and targets more complex agent needs.",
"qwen3-max-preview.description": "Best-performing Qwen model for complex, multi-step tasks. The preview supports thinking.",
"qwen3-max.description": "Qwen3 Max models deliver large gains over the 2.5 series in general ability, Chinese/English understanding, complex instruction following, subjective open tasks, multilingual ability, and tool use, with fewer hallucinations. The latest qwen3-max improves agentic programming and tool use over qwen3-max-preview. This release reaches field SOTA and targets more complex agent needs.",
"qwen3-next-80b-a3b-instruct.description": "Next-gen Qwen3 non-thinking open-source model. Compared to the prior version (Qwen3-235B-A22B-Instruct-2507), it has better Chinese understanding, stronger logical reasoning, and improved text generation.",
@ -1177,9 +1177,10 @@
"tts-1.description": "The latest text-to-speech model optimized for real-time speed.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) is tuned for precise instruction tasks with strong language performance.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet raises the industry standard, outperforming competitors and Claude 3 Opus across broad evaluations while keeping mid-tier speed and cost.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet is Anthropics fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the previous flagship Claude 3 Opus on many intelligence benchmarks.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 is Anthropics fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 is Anthropics most intelligent model to date.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet is Anthropic's fastest next-gen model. Compared to Claude 3 Haiku, it improves across skills and surpasses the previous flagship Claude 3 Opus on many intelligence benchmarks.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 is Anthropic's fastest and most intelligent Haiku model, with lightning speed and extended thinking.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 is Anthropic's most intelligent model for building agents and coding.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 is Anthropic's most intelligent model to date.",
"v0-1.0-md.description": "v0-1.0-md is a legacy model served via the v0 API.",
"v0-1.5-lg.description": "v0-1.5-lg is suited for advanced thinking or reasoning tasks.",
"v0-1.5-md.description": "v0-1.5-md is suited for everyday tasks and UI generation.",

View file

@ -29,6 +29,7 @@
"internlm.description": "An open-source organization focused on large-model research and tooling, providing an efficient, easy-to-use platform that makes cutting-edge models and algorithms accessible.",
"jina.description": "Founded in 2020, Jina AI is a leading search AI company. Its search stack includes vector models, rerankers, and small language models to build reliable, high-quality generative and multimodal search apps.",
"lmstudio.description": "LM Studio is a desktop app for developing and experimenting with LLMs on your computer.",
"lobehub.description": "LobeHub Cloud uses official APIs to access AI models and measures usage with Credits tied to model tokens.",
"minimax.description": "Founded in 2021, MiniMax builds general-purpose AI with multimodal foundation models, including trillion-parameter MoE text models, speech models, and vision models, along with apps like Hailuo AI.",
"mistral.description": "Mistral offers advanced general, specialized, and research models for complex reasoning, multilingual tasks, and code generation, with function-calling for custom integrations.",
"modelscope.description": "ModelScope is Alibaba Clouds model-as-a-service platform, offering a wide range of AI models and inference services.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Regístrese ahora",
"betterAuth.signin.socialError": "Error al iniciar sesión con red social, intente nuevamente",
"betterAuth.signin.socialOnlyHint": "Este correo electrónico fue registrado a través de una cuenta social de terceros. Inicia sesión con ese proveedor o",
"betterAuth.signin.ssoOnlyNoProviders": "El registro por correo electrónico está deshabilitado y no hay proveedores SSO configurados. Por favor, contacta con tu administrador.",
"betterAuth.signin.submit": "Iniciar sesión",
"betterAuth.signup.confirmPasswordPlaceholder": "Confirme su contraseña",
"betterAuth.signup.emailPlaceholder": "Ingrese su correo electrónico",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Ver detalles",
"clearCurrentMessages": "Borrar mensajes de la sesión actual",
"compressedHistory": "Historial Comprimido",
"compression.cancel": "Descomprimir",
"compression.cancelConfirm": "¿Estás seguro de que deseas descomprimir? Esto restaurará los mensajes originales.",
"compression.history": "Historial",
"compression.summary": "Resumen",
"confirmClearCurrentMessages": "Estás a punto de borrar los mensajes de la sesión actual. Una vez borrados, no se podrán recuperar. Por favor, confirma tu acción.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Crear Agente",
"extendParams.disableContextCaching.desc": "Reduce hasta un 90% el costo de generar una conversación y aumenta hasta 4 veces la velocidad. Al habilitar esto, se desactiva automáticamente el límite de mensajes históricos. <1>Más información</1>",
"extendParams.disableContextCaching.title": "Habilitar Caché de Contexto",
"extendParams.effort.desc": "Controla cuántos tokens utiliza Claude al responder mediante el parámetro de esfuerzo.",
"extendParams.effort.title": "Esfuerzo",
"extendParams.enableAdaptiveThinking.desc": "Permite que Claude decida dinámicamente cuándo y cuánto pensar con el modo de pensamiento adaptativo.",
"extendParams.enableAdaptiveThinking.title": "Activar Pensamiento Adaptativo",
"extendParams.enableReasoning.desc": "Basado en el límite del mecanismo de Pensamiento de Claude, al habilitar esto se desactiva automáticamente el límite de mensajes históricos. <1>Más información</1>",
"extendParams.enableReasoning.title": "Habilitar Pensamiento Profundo",
"extendParams.imageAspectRatio.title": "Relación de aspecto de imagen",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Aún no hay grupos de agentes bifurcados",
"user.noForkedAgents": "Aún no hay agentes bifurcados",
"user.publishedAgents": "Agentes Creados",
"user.publishedGroups": "Grupos creados",
"user.searchPlaceholder": "Buscar por nombre o descripción...",
"user.statusFilter.all": "Todos",
"user.statusFilter.archived": "Archivado",
"user.statusFilter.deprecated": "Obsoleto",
"user.statusFilter.favorite": "Favorito",
"user.statusFilter.forked": "Bifurcado",
"user.statusFilter.published": "Publicado",
"user.statusFilter.unpublished": "En revisión",
"user.tabs.favorites": "Favoritos",
"user.tabs.forkedAgents": "Bifurcados",
"user.tabs.publishedAgents": "Creados",

View file

@ -150,6 +150,7 @@
"upload.desc": "Detalles: {{detail}}",
"upload.fileOnlySupportInServerMode": "El modo de despliegue actual no admite la carga de archivos que no sean imágenes. Para subir archivos {{ext}}, cambia al modo de base de datos en servidor o usa el servicio {{cloud}}.",
"upload.networkError": "Verifica tu conexión de red y la configuración CORS del servicio de almacenamiento.",
"upload.storageLimitExceeded": "Has alcanzado el límite de almacenamiento de tu plan. Por favor, actualiza tu plan o elimina archivos que no uses para liberar espacio.",
"upload.title": "Error al subir el archivo. Verifica tu conexión o inténtalo más tarde.",
"upload.unknownError": "Motivo del error: {{reason}}",
"upload.uploadFailed": "Error al subir el archivo."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Nombre para mostrar del modelo",
"providerModels.item.modelConfig.extendParams.extra": "Elige los parámetros extendidos compatibles con el modelo. Pasa el cursor sobre una opción para previsualizar los controles. Configuraciones incorrectas pueden causar errores en la solicitud.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Para modelos Claude; puede reducir el costo y acelerar las respuestas.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Para Claude Opus 4.6; controla el nivel de esfuerzo (bajo/medio/alto/máximo).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Para Claude Opus 4.6; activa o desactiva el pensamiento adaptativo.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Para Claude, DeepSeek y otros modelos de razonamiento; permite un pensamiento más profundo.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Para la serie GPT-5; controla la intensidad del razonamiento.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Para la serie GPT-5.1; controla la intensidad del razonamiento.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Nuevo modelo de razonamiento interno con 80K de cadena de pensamiento y 1M de entrada, con rendimiento comparable a los mejores modelos globales.",
"MiniMax-M2-Stable.description": "Diseñado para codificación eficiente y flujos de trabajo de agentes, con mayor concurrencia para uso comercial.",
"MiniMax-M2.1-Lightning.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada. Más rápido y eficiente.",
"MiniMax-M2.1.description": "Potentes capacidades de programación multilingüe, experiencia de desarrollo completamente mejorada",
"MiniMax-M2.1.description": "MiniMax-M2.1 es un modelo insignia de código abierto de MiniMax, enfocado en resolver tareas complejas del mundo real. Sus principales fortalezas son sus capacidades de programación multilingüe y su habilidad para resolver tareas complejas como un Agente.",
"MiniMax-M2.description": "Diseñado específicamente para una codificación eficiente y flujos de trabajo con agentes",
"MiniMax-Text-01.description": "MiniMax-01 introduce atención lineal a gran escala más allá de los Transformers clásicos, con 456B de parámetros y 45.9B activados por paso. Logra rendimiento de primer nivel y admite hasta 4M tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 es un modelo de razonamiento híbrido de gran escala con pesos abiertos, 456B de parámetros totales y ~45.9B activos por token. Admite nativamente 1M de contexto y utiliza Flash Attention para reducir FLOPs en un 75% en generación de 100K tokens frente a DeepSeek R1. Con arquitectura MoE más CISPO y entrenamiento híbrido con atención y RL, logra rendimiento líder en razonamiento con entradas largas y tareas reales de ingeniería de software.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 billón de parámetros totales con 32 mil millones activos. Entre los modelos sin modo de razonamiento, es de los mejores en conocimiento avanzado, matemáticas y programación, y destaca en tareas generales de agentes. Optimizado para cargas de trabajo de agentes, puede ejecutar acciones, no solo responder preguntas. Ideal para conversaciones improvisadas, chat general y experiencias con agentes como un modelo de reflejo sin razonamiento prolongado.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7 mil millones) es un modelo de instrucciones de alta precisión para cálculos complejos.",
"OmniConsistency.description": "OmniConsistency mejora la coherencia de estilo y la generalización en tareas de imagen a imagen mediante la introducción de Transformadores de Difusión a gran escala (DiTs) y datos estilizados emparejados, evitando la degradación del estilo.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 es una versión mejorada de la serie PaddleOCR-VL, alcanzando un 94.5% de precisión en el benchmark de análisis de documentos OmniDocBench v1.5, superando a los principales modelos generales y especializados en análisis documental. Soporta de forma innovadora la localización de cuadros delimitadores irregulares para elementos de documentos, manejando eficazmente imágenes escaneadas, inclinadas y capturadas de pantalla.",
"Phi-3-medium-128k-instruct.description": "El mismo modelo Phi-3-medium con una ventana de contexto ampliada para RAG o indicaciones de pocos ejemplos.",
"Phi-3-medium-4k-instruct.description": "Un modelo de 14 mil millones de parámetros con mayor calidad que Phi-3-mini, centrado en datos de alta calidad y razonamiento intensivo.",
"Phi-3-mini-128k-instruct.description": "El mismo modelo Phi-3-mini con una ventana de contexto ampliada para RAG o indicaciones de pocos ejemplos.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 es un modelo MoE de 671 mil millones de parámetros que utiliza MLA y DeepSeekMoE con balanceo de carga sin pérdida para inferencia y entrenamiento eficientes. Preentrenado con 14,8 billones de tokens de alta calidad y ajustado con SFT y RL, supera a otros modelos abiertos y se acerca al rendimiento de modelos cerrados líderes.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 es la versión más reciente y potente de Kimi K2. Es un modelo MoE de primer nivel con 1 billón de parámetros totales y 32 mil millones activos. Sus características clave incluyen mayor inteligencia en programación con agentes, mejoras significativas en pruebas de referencia y tareas reales de agentes, además de una estética y usabilidad mejoradas en programación frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo es la variante Turbo optimizada para velocidad de razonamiento y rendimiento, manteniendo el razonamiento de múltiples pasos y uso de herramientas de K2 Thinking. Es un modelo MoE con aproximadamente 1 billón de parámetros totales, contexto nativo de 256K y llamadas a herramientas estables a gran escala para escenarios de producción con necesidades estrictas de latencia y concurrencia.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 es un modelo agente multimodal nativo de código abierto, basado en Kimi-K2-Base, entrenado con aproximadamente 1.5 billones de tokens mixtos de visión y texto. El modelo adopta una arquitectura MoE con 1T de parámetros totales y 32B de parámetros activos, soportando una ventana de contexto de 256K, integrando de forma fluida capacidades de comprensión visual y lingüística.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 es el modelo insignia de nueva generación de Zhipu, con un total de 355 mil millones de parámetros y 32 mil millones activos. Ha sido completamente mejorado en capacidades de diálogo general, razonamiento y agentes. GLM-4.7 potencia el Pensamiento Intercalado e introduce el Pensamiento Preservado y el Pensamiento a Nivel de Turno.",
"QwQ-32B-Preview.description": "Qwen QwQ es un modelo de investigación experimental centrado en mejorar el razonamiento.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview es un modelo de investigación de Qwen enfocado en razonamiento visual, con fortalezas en comprensión de escenas complejas y problemas visuales de matemáticas.",
@ -272,20 +274,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo más avanzado, Claude 3 Opus, en muchos indicadores de inteligencia.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de próxima generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior modelo insignia Claude 3 Opus en muchos benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku ofrece respuestas rápidas para tareas ligeras.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado. Puede generar respuestas casi instantáneas o razonamientos detallados paso a paso visibles para el usuario. Sonnet destaca especialmente en programación, ciencia de datos, visión y tareas de agente.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 es el modelo más inteligente de Anthropic y el primer modelo de razonamiento híbrido del mercado, ofreciendo respuestas casi instantáneas o pensamiento extendido con control detallado.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet es el modelo más reciente y potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku es el modelo más rápido y compacto de Anthropic, diseñado para respuestas casi instantáneas con rendimiento rápido y preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligencia y velocidad para cargas de trabajo empresariales, ofreciendo alta utilidad a menor costo y despliegue confiable a gran escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y razonamiento extendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y capacidad de pensamiento extendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking es una variante avanzada que puede mostrar su proceso de razonamiento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 es el modelo más reciente y avanzado de Anthropic para tareas altamente complejas, destacando en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-20250514.description": "Claude Opus 4 es el modelo más potente de Anthropic para tareas altamente complejas, sobresaliendo en rendimiento, inteligencia, fluidez y comprensión.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, combinando inteligencia excepcional con rendimiento escalable, ideal para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"claude-opus-4-6.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para la creación de agentes y programación.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking puede generar respuestas casi instantáneas o pensamiento paso a paso extendido con proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 puede generar respuestas casi instantáneas o razonamientos detallados paso a paso con un proceso visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 es el modelo más inteligente de Anthropic hasta la fecha, ofreciendo respuestas casi instantáneas o pensamiento paso a paso extendido con control detallado para usuarios de API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"codegeex-4.description": "CodeGeeX-4 es un potente asistente de codificación con soporte multilingüe para preguntas y respuestas y autocompletado de código, mejorando la productividad de los desarrolladores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B es un modelo multilingüe de generación de código que admite autocompletado y generación de código, interpretación de código, búsqueda web, llamadas a funciones y preguntas y respuestas a nivel de repositorio, cubriendo una amplia gama de escenarios de desarrollo de software. Es un modelo de código de primer nivel con menos de 10 mil millones de parámetros.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
"deepseek-chat.description": "Un nuevo modelo de código abierto que combina habilidades generales y de programación. Conserva el diálogo general del modelo conversacional y la sólida capacidad de codificación del modelo de programación, con una mejor alineación de preferencias. DeepSeek-V2.5 también mejora la redacción y el seguimiento de instrucciones.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra el razonamiento y la longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles comparables a GPT-5, siendo el primero en integrar el pensamiento en el uso de herramientas, liderando las evaluaciones de agentes de código abierto.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 es un modelo de código MoE de código abierto que tiene un rendimiento sólido en tareas de programación, comparable a GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "Versión completa rápida de DeepSeek R1 con búsqueda web en tiempo real, combinando capacidad a escala 671B y respuesta ágil.",
"deepseek-r1-online.description": "Versión completa de DeepSeek R1 con 671B de parámetros y búsqueda web en tiempo real, ofreciendo mejor comprensión y generación.",
"deepseek-r1.description": "DeepSeek-R1 utiliza datos de arranque en frío antes del aprendizaje por refuerzo y tiene un rendimiento comparable a OpenAI-o1 en matemáticas, programación y razonamiento.",
"deepseek-reasoner.description": "El modo de razonamiento DeepSeek V3.2 genera una cadena de pensamiento antes de la respuesta final para mejorar la precisión.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking es un modelo de razonamiento profundo que genera cadenas de pensamiento antes de las respuestas para mayor precisión, con resultados competitivos de primer nivel y razonamiento comparable a Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 es un modelo MoE eficiente para procesamiento rentable.",
"deepseek-v2:236b.description": "DeepSeek V2 236B es el modelo de DeepSeek centrado en código con fuerte generación de código.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 es un modelo MoE con 671 mil millones de parámetros, con fortalezas destacadas en programación, capacidad técnica, comprensión de contexto y manejo de textos largos.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview es un modelo preliminar para la creación de personajes y tramas, diseñado para evaluación y pruebas.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K es un modelo de personajes para novelas y creación de tramas, ideal para generación de historias extensas.",
"ernie-irag-edit.description": "ERNIE iRAG Edit es un modelo de edición de imágenes que permite borrar, repintar y generar variantes.",
"ernie-lite-8k.description": "ERNIE Lite 8K es un modelo general ligero para preguntas y respuestas diarias y generación de contenido con sensibilidad al costo.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
"ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas extensas y tramas de propiedad intelectual con narrativas de múltiples personajes.",
"ernie-speed-128k.description": "ERNIE Speed 128K es un modelo sin costo de entrada/salida para comprensión de textos largos y pruebas a gran escala.",
"ernie-speed-8k.description": "ERNIE Speed 8K es un modelo gratuito y rápido para chat diario y tareas ligeras de texto.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K es un modelo ultraligero para preguntas simples, clasificación e inferencia de bajo costo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed, que admite entradas de texto e imagen con una generación de imágenes altamente controlable y de alta calidad. Genera imágenes a partir de indicaciones de texto.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, permite edición y composición de múltiples imágenes. Ofrece mayor coherencia de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado texto-imagen de alta precisión.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] acepta texto e imágenes de referencia como entrada, permitiendo ediciones locales dirigidas y transformaciones globales complejas de escenas.",
"fal-ai/flux/krea.description": "Flux Krea [dev] es un modelo de generación de imágenes con una inclinación estética hacia imágenes más realistas y naturales.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modelo nativo multimodal de generación de imágenes.",
"fal-ai/imagen4/preview.description": "Modelo de generación de imágenes de alta calidad de Google.",
"fal-ai/nano-banana.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes mediante conversación.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen que admite ediciones semánticas y de apariencia, edita con precisión texto en chino e inglés, y permite ediciones de alta calidad como transferencia de estilo y rotación de objetos.",
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con una impresionante representación de texto en chino y estilos visuales diversos.",
"fal-ai/qwen-image-edit.description": "Un modelo profesional de edición de imágenes del equipo Qwen, que admite ediciones semánticas y de apariencia, edición precisa de texto en chino/inglés, transferencia de estilo, rotación y más.",
"fal-ai/qwen-image.description": "Un potente modelo de generación de imágenes del equipo Qwen con excelente renderizado de texto en chino y estilos visuales diversos.",
"flux-1-schnell.description": "Modelo de texto a imagen con 12 mil millones de parámetros de Black Forest Labs que utiliza destilación difusiva adversarial latente para generar imágenes de alta calidad en 1 a 4 pasos. Compite con alternativas cerradas y se lanza bajo licencia Apache-2.0 para uso personal, de investigación y comercial.",
"flux-dev.description": "FLUX.1 [dev] es un modelo destilado con pesos abiertos para uso no comercial. Mantiene calidad de imagen casi profesional y seguimiento de instrucciones mientras funciona de manera más eficiente, utilizando mejor los recursos que modelos estándar del mismo tamaño.",
"flux-kontext-max.description": "Generación y edición de imágenes contextual de última generación, combinando texto e imágenes para resultados precisos y coherentes.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro admite hasta 2 millones de tokens, siendo un modelo multimodal de tamaño medio ideal para tareas complejas.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
"gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash con soporte para generación de imágenes.",
"gemini-2.0-flash-exp.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
"gemini-2.0-flash-lite-001.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
"gemini-2.0-flash-lite.description": "Una variante de Gemini 2.0 Flash optimizada para eficiencia de costos y baja latencia.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash ofrece funciones de nueva generación como velocidad excepcional, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-image:image.description": "Nano Banana es el modelo multimodal nativo más nuevo, rápido y eficiente de Google, que permite generación y edición de imágenes conversacionales.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
@ -574,7 +575,6 @@
"glm-zero-preview.description": "GLM-Zero-Preview ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 es el modelo insignia de Anthropic, que combina inteligencia excepcional y rendimiento escalable para tareas complejas que requieren respuestas y razonamiento de la más alta calidad.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash ofrece capacidades de nueva generación, incluyendo excelente velocidad, uso nativo de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental es el modelo multimodal experimental más reciente de Google, con mejoras de calidad respecto a versiones anteriores, especialmente en conocimiento del mundo, código y contexto largo.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite es una variante ligera de Gemini con el razonamiento desactivado por defecto para mejorar la latencia y el costo, aunque puede activarse mediante parámetros.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ofrece funciones de nueva generación como velocidad excepcional, uso integrado de herramientas, generación multimodal y una ventana de contexto de 1 millón de tokens.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash es el modelo de razonamiento de alto rendimiento de Google para tareas multimodales extendidas.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Variante de pensamiento largo de K2 de alta velocidad con contexto de 256k, razonamiento profundo sólido y salida de 60100 tokens/segundo.",
"kimi-k2-thinking.description": "kimi-k2-thinking es un modelo de pensamiento de Moonshot AI con capacidades generales de agentes y razonamiento. Destaca en razonamiento profundo y puede resolver problemas complejos mediante el uso de herramientas en múltiples pasos.",
"kimi-k2-turbo-preview.description": "kimi-k2 es un modelo base MoE con sólidas capacidades de programación y agentes (1T de parámetros totales, 32B activos), superando a otros modelos abiertos en razonamiento, programación, matemáticas y benchmarks de agentes.",
"kimi-k2.5.description": "Kimi K2.5 es el modelo Kimi más avanzado, ofreciendo SOTA de código abierto en tareas de agentes, programación y comprensión visual. Soporta entradas multimodales y modos de pensamiento y no pensamiento.",
"kimi-k2.description": "Kimi-K2 es un modelo base MoE de Moonshot AI con sólidas capacidades de programación y agentes, con un total de 1T de parámetros y 32B activos. En benchmarks de razonamiento general, programación, matemáticas y tareas de agentes, supera a otros modelos abiertos.",
"kimi-k2:1t.description": "Kimi K2 es un gran modelo MoE LLM de Moonshot AI con 1T de parámetros totales y 32B activos por pasada. Está optimizado para capacidades de agentes, incluyendo uso avanzado de herramientas, razonamiento y síntesis de código.",
"kimi-latest.description": "Kimi Latest utiliza el modelo Kimi más reciente y puede incluir funciones experimentales. Admite comprensión de imágenes y selecciona automáticamente modelos de facturación 8k/32k/128k según la longitud del contexto.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B es un modelo general de tamaño medio que equilibra costo y calidad para generación de texto y preguntas y respuestas.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K está orientado al reconocimiento de intención y orquestación de agentes con soporte para contexto largo.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K es un modelo de agente ligero para diálogos de múltiples turnos y flujos de trabajo de bajo costo.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K es un modelo de agente de alto rendimiento para aplicaciones de agentes a gran escala y múltiples tareas.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K es un modelo de agente de alta concurrencia para conversaciones cortas a medias y respuestas rápidas.",
"qianfan-check-vl.description": "Qianfan Check VL es un modelo de revisión de contenido multimodal para tareas de cumplimiento y reconocimiento de imagen-texto.",
"qianfan-composition.description": "Qianfan Composition es un modelo de creación multimodal para comprensión y generación combinada de imagen y texto.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL es un modelo de reconocimiento multimodal enfocado en escenarios en inglés.",
@ -1091,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B es un modelo de tamaño medio para preguntas y respuestas multilingües y generación de texto.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 es un modelo instructivo insignia para una amplia gama de tareas de generación y razonamiento.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 es un modelo de pensamiento ultra grande para razonamiento complejo.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B es un modelo general de gran tamaño para tareas complejas.",
"qwen3-235b-a22b.description": "Qwen3 es un modelo Tongyi Qwen de nueva generación con grandes avances en razonamiento, capacidad general, habilidades de agente y rendimiento multilingüe, y permite cambiar entre modos de pensamiento.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 es un modelo instructivo de tamaño medio-grande para generación de alta calidad y preguntas y respuestas.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 es un modelo de pensamiento de tamaño medio-grande que equilibra precisión y coste.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B es un modelo general de tamaño medio-grande que equilibra coste y calidad.",
@ -1103,6 +1102,7 @@
"qwen3-coder-flash.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.",
"qwen3-coder-plus.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.",
"qwen3-coder:480b.description": "Modelo de alto rendimiento de Alibaba para tareas de agente y programación con contexto largo.",
"qwen3-max-2026-01-23.description": "Los modelos Qwen3 Max ofrecen grandes mejoras sobre la serie 2.5 en capacidad general, comprensión del chino/inglés, seguimiento de instrucciones complejas, tareas abiertas subjetivas, capacidad multilingüe y uso de herramientas, con menos alucinaciones. La última versión qwen3-max mejora la programación agente y el uso de herramientas respecto a qwen3-max-preview. Esta versión alcanza el SOTA en su campo y está orientada a necesidades de agentes más complejas.",
"qwen3-max-preview.description": "Modelo Qwen con mejor rendimiento para tareas complejas y de múltiples pasos. La vista previa admite razonamiento.",
"qwen3-max.description": "Los modelos Qwen3 Max ofrecen grandes mejoras sobre la serie 2.5 en capacidad general, comprensión en chino/inglés, seguimiento de instrucciones complejas, tareas abiertas subjetivas, capacidad multilingüe y uso de herramientas, con menos alucinaciones. La última versión qwen3-max mejora la programación agente y el uso de herramientas respecto a qwen3-max-preview. Este lanzamiento alcanza el estado del arte en el campo y está dirigido a necesidades de agentes más complejas.",
"qwen3-next-80b-a3b-instruct.description": "Modelo de próxima generación Qwen3 de código abierto sin razonamiento. En comparación con la versión anterior (Qwen3-235B-A22B-Instruct-2507), mejora la comprensión del chino, el razonamiento lógico y la generación de texto.",
@ -1177,8 +1177,9 @@
"tts-1.description": "El último modelo de texto a voz optimizado para velocidad en tiempo real.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) está ajustado para tareas de instrucciones precisas con un sólido rendimiento lingüístico.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva el estándar de la industria, superando a sus competidores y a Claude 3 Opus en amplias evaluaciones, manteniendo velocidad y costo de nivel medio.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo insignia Claude 3 Opus en muchos indicadores de inteligencia.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet es el modelo de próxima generación más rápido de Anthropic. En comparación con Claude 3 Haiku, mejora en múltiples habilidades y supera al anterior modelo insignia Claude 3 Opus en muchos benchmarks de inteligencia.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 es el modelo Haiku más rápido e inteligente de Anthropic, con velocidad relámpago y pensamiento extendido.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 es el modelo más inteligente de Anthropic para la creación de agentes y programación.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 es el modelo más inteligente de Anthropic hasta la fecha.",
"v0-1.0-md.description": "v0-1.0-md es un modelo heredado disponible a través de la API v0.",
"v0-1.5-lg.description": "v0-1.5-lg es adecuado para tareas avanzadas de pensamiento o razonamiento.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} parámetros en total",
"arguments.title": "Argumentos",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtener modelos disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtener habilidades disponibles",

View file

@ -29,6 +29,7 @@
"internlm.description": "Una organización de código abierto centrada en la investigación de modelos grandes y herramientas, que ofrece una plataforma eficiente y fácil de usar para acceder a modelos y algoritmos de vanguardia.",
"jina.description": "Fundada en 2020, Jina AI es una empresa líder en búsqueda con IA. Su pila de búsqueda incluye modelos vectoriales, reordenadores y pequeños modelos de lenguaje para construir aplicaciones generativas y multimodales confiables y de alta calidad.",
"lmstudio.description": "LM Studio es una aplicación de escritorio para desarrollar y experimentar con LLMs en tu ordenador.",
"lobehub.description": "LobeHub Cloud utiliza APIs oficiales para acceder a modelos de IA y mide el uso mediante Créditos vinculados a los tokens del modelo.",
"minimax.description": "Fundada en 2021, MiniMax desarrolla IA de propósito general con modelos fundacionales multimodales, incluyendo modelos de texto MoE con billones de parámetros, modelos de voz y visión, junto con aplicaciones como Hailuo AI.",
"mistral.description": "Mistral ofrece modelos avanzados generales, especializados y de investigación para razonamiento complejo, tareas multilingües y generación de código, con llamadas a funciones para integraciones personalizadas.",
"modelscope.description": "ModelScope es la plataforma de modelos como servicio de Alibaba Cloud, que ofrece una amplia gama de modelos de IA y servicios de inferencia.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "همین حالا ثبت‌نام کنید",
"betterAuth.signin.socialError": "ورود اجتماعی ناموفق بود، لطفاً دوباره تلاش کنید",
"betterAuth.signin.socialOnlyHint": "این ایمیل از طریق یک حساب کاربری شبکه اجتماعی ثبت شده است. لطفاً با همان ارائه‌دهنده وارد شوید یا",
"betterAuth.signin.ssoOnlyNoProviders": "ثبت‌نام با ایمیل غیرفعال است و هیچ ارائه‌دهنده SSO پیکربندی نشده است. لطفاً با مدیر سیستم تماس بگیرید.",
"betterAuth.signin.submit": "ورود",
"betterAuth.signup.confirmPasswordPlaceholder": "تأیید رمز عبور",
"betterAuth.signup.emailPlaceholder": "آدرس ایمیل خود را وارد کنید",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "مشاهده جزئیات",
"clearCurrentMessages": "پاک‌سازی پیام‌های جلسه جاری",
"compressedHistory": "تاریخچه فشرده‌شده",
"compression.cancel": "لغو فشرده‌سازی",
"compression.cancelConfirm": "آیا مطمئن هستید که می‌خواهید فشرده‌سازی را لغو کنید؟ این کار پیام‌های اصلی را بازیابی خواهد کرد.",
"compression.history": "تاریخچه",
"compression.summary": "خلاصه",
"confirmClearCurrentMessages": "در حال پاک‌سازی پیام‌های جلسه جاری هستید. پس از پاک‌سازی، قابل بازیابی نیستند. لطفاً اقدام خود را تأیید کنید.",
@ -58,6 +60,10 @@
"emptyAgentAction": "ایجاد عامل",
"extendParams.disableContextCaching.desc": "تا ۹۰٪ هزینه تولید یک گفتگو را کاهش داده و تا ۴ برابر سرعت را افزایش می‌دهد. فعال‌سازی این گزینه محدودیت تعداد پیام‌های تاریخی را به‌طور خودکار غیرفعال می‌کند. <1>بیشتر بدانید</1>",
"extendParams.disableContextCaching.title": "فعال‌سازی ذخیره‌سازی زمینه",
"extendParams.effort.desc": "با استفاده از پارامتر تلاش، میزان توکنی که کلود هنگام پاسخ‌گویی استفاده می‌کند را کنترل کنید.",
"extendParams.effort.title": "تلاش",
"extendParams.enableAdaptiveThinking.desc": "با فعال‌سازی حالت تفکر تطبیقی، به کلود اجازه دهید به‌صورت پویا تصمیم بگیرد چه زمانی و چقدر فکر کند.",
"extendParams.enableAdaptiveThinking.title": "فعال‌سازی تفکر تطبیقی",
"extendParams.enableReasoning.desc": "بر اساس محدودیت مکانیزم تفکر Claude، فعال‌سازی این گزینه محدودیت تعداد پیام‌های تاریخی را به‌طور خودکار غیرفعال می‌کند. <1>بیشتر بدانید</1>",
"extendParams.enableReasoning.title": "فعال‌سازی تفکر عمیق",
"extendParams.imageAspectRatio.title": "نسبت تصویر",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "هنوز هیچ گروه عامل فورک‌شده‌ای وجود ندارد",
"user.noForkedAgents": "هنوز هیچ عامل فورک‌شده‌ای وجود ندارد",
"user.publishedAgents": "عوامل ایجادشده",
"user.publishedGroups": "گروه‌های ایجادشده",
"user.searchPlaceholder": "جستجو بر اساس نام یا توضیحات...",
"user.statusFilter.all": "همه",
"user.statusFilter.archived": "بایگانی‌شده",
"user.statusFilter.deprecated": "منسوخ‌شده",
"user.statusFilter.favorite": "مورد علاقه",
"user.statusFilter.forked": "انشعاب‌یافته",
"user.statusFilter.published": "منتشرشده",
"user.statusFilter.unpublished": "در حال بررسی",
"user.tabs.favorites": "علاقه‌مندی‌ها",
"user.tabs.forkedAgents": "فورک‌شده‌ها",
"user.tabs.publishedAgents": "ایجادشده",

View file

@ -150,6 +150,7 @@
"upload.desc": "جزئیات: {{detail}}",
"upload.fileOnlySupportInServerMode": "حالت فعلی استقرار از بارگذاری فایل‌های غیرتصویری پشتیبانی نمی‌کند. برای بارگذاری فایل با فرمت {{ext}}، لطفاً به حالت پایگاه‌داده سرور تغییر دهید یا از سرویس {{cloud}} استفاده کنید.",
"upload.networkError": "لطفاً اتصال شبکه خود را بررسی کرده و مطمئن شوید پیکربندی CORS سرویس ذخیره‌سازی فایل صحیح است.",
"upload.storageLimitExceeded": "فضای ذخیره‌سازی فایل شما به حد مجاز طرح رسیده است. لطفاً برای افزایش فضا، طرح خود را ارتقاء دهید یا فایل‌های غیرضروری را حذف کنید.",
"upload.title": "بارگذاری فایل ناموفق بود. لطفاً اتصال شبکه را بررسی کرده یا بعداً تلاش کنید.",
"upload.unknownError": "دلیل خطا: {{reason}}",
"upload.uploadFailed": "بارگذاری فایل ناموفق بود."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "نام نمایشی مدل",
"providerModels.item.modelConfig.extendParams.extra": "پارامترهای پیشرفته‌ای را که توسط مدل پشتیبانی می‌شوند انتخاب کنید. برای پیش‌نمایش کنترل‌ها، نشانگر را روی گزینه‌ها نگه دارید. پیکربندی‌های نادرست ممکن است باعث شکست درخواست شوند.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "برای مدل‌های Claude؛ می‌تواند هزینه را کاهش داده و پاسخ‌ها را سریع‌تر کند.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "برای Claude Opus 4.6؛ سطح تلاش را کنترل می‌کند (کم/متوسط/زیاد/حداکثر).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "برای Claude Opus 4.6؛ تفکر تطبیقی را فعال یا غیرفعال می‌کند.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "برای مدل‌های Claude، DeepSeek و سایر مدل‌های استدلالی؛ امکان تفکر عمیق‌تر را فراهم می‌کند.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "برای سری GPT-5؛ شدت استدلال را کنترل می‌کند.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "برای سری GPT-5.1؛ شدت استدلال را کنترل می‌کند.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "یک مدل استدلالی داخلی جدید با ۸۰ هزار زنجیره تفکر و ورودی ۱ میلیون توکن، با عملکردی در سطح مدل‌های برتر جهانی.",
"MiniMax-M2-Stable.description": "طراحی‌شده برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور، با هم‌زمانی بالاتر برای استفاده تجاری.",
"MiniMax-M2.1-Lightning.description": "قابلیت‌های قدرتمند برنامه‌نویسی چندزبانه با تجربه‌ای کاملاً ارتقاء‌یافته. سریع‌تر و کارآمدتر.",
"MiniMax-M2.1.description": "قابلیت‌های قدرتمند برنامه‌نویسی چندزبانه با تجربه‌ای کاملاً ارتقاء‌یافته در برنامه‌نویسی.",
"MiniMax-M2.1.description": "MiniMax-M2.1 یک مدل بزرگ متن‌باز پیشرفته از MiniMax است که بر حل وظایف پیچیده دنیای واقعی تمرکز دارد. نقاط قوت اصلی آن شامل توانایی برنامه‌نویسی چندزبانه و قابلیت عمل به‌عنوان یک عامل هوشمند برای حل مسائل پیچیده است.",
"MiniMax-M2.description": "طراحی‌شده به‌طور خاص برای کدنویسی کارآمد و جریان‌های کاری عامل‌محور.",
"MiniMax-Text-01.description": "MiniMax-01 توجه خطی در مقیاس بزرگ را فراتر از ترنسفورمرهای کلاسیک معرفی می‌کند، با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال در هر عبور. این مدل عملکردی در سطح برتر ارائه می‌دهد و تا ۴ میلیون توکن زمینه را پشتیبانی می‌کند (۳۲ برابر GPT-4o، ۲۰ برابر Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 یک مدل استدلالی با وزن‌های باز و معماری توجه ترکیبی در مقیاس بزرگ است با ۴۵۶ میلیارد پارامتر کل و حدود ۴۵.۹ میلیارد پارامتر فعال در هر توکن. این مدل به‌صورت بومی از زمینه ۱ میلیون توکن پشتیبانی می‌کند و با استفاده از Flash Attention، مصرف FLOPs را در تولید ۱۰۰ هزار توکن تا ۷۵٪ نسبت به DeepSeek R1 کاهش می‌دهد. با معماری MoE به‌همراه CISPO و آموزش تقویتی با توجه ترکیبی، عملکردی پیشرو در استدلال ورودی‌های طولانی و وظایف واقعی مهندسی نرم‌افزار ارائه می‌دهد.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "با ۱ تریلیون پارامتر کل و ۳۲ میلیارد فعال، در میان مدل‌های غیرتفکری، در دانش پیشرفته، ریاضی و کدنویسی در سطح برتر قرار دارد و در وظایف عمومی عامل‌ها نیز قوی‌تر است. برای بارهای کاری عامل‌ها بهینه شده و می‌تواند اقدام کند، نه فقط پاسخ دهد. برای چت عمومی، بداهه‌گویی و تجربه‌های عامل‌محور در سطح واکنشی بدون تفکر طولانی بهترین گزینه است.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (۴۶.۷ میلیارد) یک مدل دستورالعمل‌محور با دقت بالا برای محاسبات پیچیده است.",
"OmniConsistency.description": "OmniConsistency با معرفی ترنسفورمرهای انتشار در مقیاس بزرگ (DiTs) و داده‌های سبک‌دهی‌شده جفت‌شده، ثبات سبک و تعمیم‌پذیری را در وظایف تصویر به تصویر بهبود می‌بخشد و از تخریب سبک جلوگیری می‌کند.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 نسخه ارتقاءیافته‌ای از سری PaddleOCR-VL است که با دقت ۹۴.۵٪ در معیار OmniDocBench v1.5 برای تجزیه و تحلیل اسناد، از مدل‌های بزرگ عمومی و مدل‌های تخصصی تجزیه اسناد پیشی گرفته است. این مدل به‌صورت نوآورانه از مکان‌یابی جعبه‌های نامنظم برای عناصر سند پشتیبانی می‌کند و تصاویر اسکن‌شده، کج‌شده و گرفته‌شده از صفحه‌نمایش را به‌خوبی پردازش می‌کند.",
"Phi-3-medium-128k-instruct.description": "همان مدل Phi-3-medium با پنجره زمینه بزرگ‌تر برای RAG یا نمونه‌های چندگانه.",
"Phi-3-medium-4k-instruct.description": "مدلی با ۱۴ میلیارد پارامتر و کیفیت بالاتر نسبت به Phi-3-mini، متمرکز بر داده‌های با کیفیت و نیازمند استدلال.",
"Phi-3-mini-128k-instruct.description": "همان مدل Phi-3-mini با پنجره زمینه بزرگ‌تر برای RAG یا نمونه‌های چندگانه.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که از MLA و DeepSeekMoE با تعادل بار بدون اتلاف برای استنتاج و آموزش کارآمد استفاده می‌کند. با پیش‌آموزش بر روی ۱۴.۸ تریلیون توکن با کیفیت بالا و تنظیم بیشتر با SFT و RL، از سایر مدل‌های باز پیشی می‌گیرد و به مدل‌های بسته پیشرو نزدیک می‌شود.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 جدیدترین و قدرتمندترین نسخه Kimi K2 است. این مدل MoE سطح بالا با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال است. ویژگی‌های کلیدی شامل هوش کدنویسی عامل‌محور قوی‌تر با پیشرفت‌های قابل توجه در معیارها و وظایف واقعی عامل‌ها، به‌علاوه زیبایی‌شناسی و قابلیت استفاده بهتر در کدنویسی رابط کاربری است.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo نسخه توربو بهینه‌شده برای سرعت استدلال و توان عملیاتی است، در حالی که استدلال چندمرحله‌ای و استفاده از ابزار K2 Thinking را حفظ می‌کند. این مدل MoE با حدود ۱ تریلیون پارامتر کل، زمینه بومی ۲۵۶ هزار توکن و فراخوانی ابزار در مقیاس بزرگ پایدار برای سناریوهای تولیدی با نیازهای سخت‌گیرانه‌تر در تأخیر و هم‌زمانی است.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 یک مدل عامل چندوجهی بومی متن‌باز است که بر پایه Kimi-K2-Base ساخته شده و با حدود ۱.۵ تریلیون توکن ترکیبی بینایی و متنی آموزش دیده است. این مدل از معماری MoE با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال بهره می‌برد و از پنجره متنی ۲۵۶ هزار توکن پشتیبانی می‌کند و درک زبان و تصویر را به‌صورت یکپارچه ارائه می‌دهد.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 مدل پرچم‌دار نسل جدید Zhipu با ۳۵۵ میلیارد پارامتر کل و ۳۲ میلیارد پارامتر فعال است که به‌طور کامل در زمینه‌های گفت‌وگوی عمومی، استدلال و توانایی‌های عامل به‌روزرسانی شده است. GLM-4.7 تفکر درهم‌تنیده را بهبود می‌بخشد و مفاهیم تفکر حفظ‌شده و تفکر در سطح نوبت را معرفی می‌کند.",
"QwQ-32B-Preview.description": "Qwen QwQ یک مدل تحقیقاتی آزمایشی است که بر بهبود توانایی استدلال تمرکز دارد.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview یک مدل تحقیقاتی از Qwen است که بر استدلال بصری تمرکز دارد و در درک صحنه‌های پیچیده و حل مسائل ریاضی بصری توانمند است.",
@ -272,20 +274,21 @@
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌های مختلف بهبود یافته و در بسیاری از معیارهای هوش از مدل بزرگ‌تر قبلی، Claude 3 Opus، پیشی گرفته است.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که در مهارت‌های مختلف بهبود یافته و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku پاسخ‌های سریع برای وظایف سبک ارائه می‌دهد.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است. این مدل می‌تواند پاسخ‌های تقریباً فوری یا استدلال گام‌به‌گام قابل مشاهده تولید کند. Sonnet به‌ویژه در برنامه‌نویسی، علم داده، بینایی و وظایف عامل قوی است.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 هوشمندترین مدل Anthropic و نخستین مدل استدلال ترکیبی در بازار است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با کنترل دقیق را ارائه می‌دهد.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku سریع‌ترین و فشرده‌ترین مدل Anthropic است که برای پاسخ‌های تقریباً فوری با عملکرد سریع و دقیق طراحی شده است.",
"claude-3-opus-20240229.description": "Claude 3 Opus قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet تعادل بین هوش و سرعت را برای بارهای کاری سازمانی برقرار می‌کند و با هزینه کمتر، بهره‌وری بالا و استقرار قابل اعتماد در مقیاس وسیع را ارائه می‌دهد.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعت بالا و توانایی استدلال پیشرفته ارائه می‌شود.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده ارائه می‌شود.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking یک نسخه پیشرفته است که می‌تواند فرآیند استدلال خود را آشکار کند.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک مطلب عملکردی ممتاز دارد.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 جدیدترین و توانمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-opus-4-20250514.description": "Claude Opus 4 قدرتمندترین مدل Anthropic برای وظایف بسیار پیچیده است که در عملکرد، هوش، روانی و درک زبان برتری دارد.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش برجسته را با عملکرد مقیاس‌پذیر ترکیب می‌کند و برای وظایف پیچیده‌ای که نیاز به پاسخ‌های باکیفیت و استدلال دارند، ایده‌آل است.",
"claude-opus-4-6.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عامل‌ها و برنامه‌نویسی است.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام طولانی با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 می‌تواند پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با فرآیند قابل مشاهده تولید کند.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 هوشمندترین مدل Anthropic تا به امروز است که پاسخ‌های تقریباً فوری یا تفکر گام‌به‌گام با کنترل دقیق برای کاربران API ارائه می‌دهد.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"codegeex-4.description": "CodeGeeX-4 یک دستیار هوش مصنوعی قدرتمند برای برنامه‌نویسی است که از پرسش و پاسخ چندزبانه و تکمیل کد پشتیبانی می‌کند تا بهره‌وری توسعه‌دهندگان را افزایش دهد.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B یک مدل تولید کد چندزبانه است که از تکمیل و تولید کد، مفسر کد، جستجوی وب، فراخوانی توابع و پرسش و پاسخ در سطح مخزن پشتیبانی می‌کند و طیف گسترده‌ای از سناریوهای توسعه نرم‌افزار را پوشش می‌دهد. این مدل یکی از بهترین مدل‌های کد زیر ۱۰ میلیارد پارامتر است.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
"deepseek-chat.description": "مدلی متن‌باز و جدید که توانایی‌های عمومی و کدنویسی را ترکیب می‌کند. این مدل گفت‌وگوی عمومی مدل چت و قدرت کدنویسی مدل برنامه‌نویس را حفظ کرده و با هم‌راستایی ترجیحی بهتر ارائه می‌شود. DeepSeek-V2.5 همچنین در نوشتن و پیروی از دستورالعمل‌ها بهبود یافته است.",
"deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 یک مدل کدنویسی MoE متن‌باز است که در وظایف برنامه‌نویسی عملکردی هم‌سطح با GPT-4 Turbo دارد.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "نسخه کامل سریع DeepSeek R1 با جستجوی وب در زمان واقعی که توانایی در مقیاس ۶۷۱B را با پاسخ‌دهی سریع‌تر ترکیب می‌کند.",
"deepseek-r1-online.description": "نسخه کامل DeepSeek R1 با ۶۷۱ میلیارد پارامتر و جستجوی وب در زمان واقعی که درک و تولید قوی‌تری را ارائه می‌دهد.",
"deepseek-r1.description": "DeepSeek-R1 پیش از یادگیری تقویتی از داده‌های شروع سرد استفاده می‌کند و در وظایف ریاضی، کدنویسی و استدلال عملکردی هم‌سطح با OpenAI-o1 دارد.",
"deepseek-reasoner.description": "حالت تفکر DeepSeek V3.2 پیش از پاسخ نهایی زنجیره‌ای از افکار را تولید می‌کند تا دقت را افزایش دهد.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking یک مدل استدلال عمیق است که پیش از تولید خروجی، زنجیره‌ای از تفکر ایجاد می‌کند تا دقت بالاتری داشته باشد. این مدل در رقابت‌ها نتایج برتری کسب کرده و استدلالی در سطح Gemini-3.0-Pro ارائه می‌دهد.",
"deepseek-v2.description": "DeepSeek V2 یک مدل MoE کارآمد است که پردازش مقرون‌به‌صرفه را امکان‌پذیر می‌سازد.",
"deepseek-v2:236b.description": "DeepSeek V2 236B مدل متمرکز بر کدنویسی DeepSeek است که توانایی بالایی در تولید کد دارد.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 یک مدل MoE با ۶۷۱ میلیارد پارامتر است که در برنامه‌نویسی، توانایی‌های فنی، درک زمینه و پردازش متون بلند عملکرد برجسته‌ای دارد.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "پیش‌نمایش ERNIE Character Fiction 8K یک مدل ساخت شخصیت و داستان برای ارزیابی و آزمایش ویژگی‌ها است.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K یک مدل شخصیتی برای رمان‌نویسی و خلق داستان است که برای تولید داستان‌های بلند مناسب است.",
"ernie-irag-edit.description": "ERNIE iRAG Edit یک مدل ویرایش تصویر است که از پاک‌کردن، بازنقاشی و تولید نسخه‌های جایگزین پشتیبانی می‌کند.",
"ernie-lite-8k.description": "ERNIE Lite 8K یک مدل سبک عمومی برای پرسش‌وپاسخ روزمره و تولید محتوا با حساسیت به هزینه است.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K یک مدل سبک و پرکاربرد برای سناریوهای حساس به تأخیر و هزینه است.",
"ernie-novel-8k.description": "ERNIE Novel 8K برای رمان‌های بلند و داستان‌های IP با روایت چندشخصیتی طراحی شده است.",
"ernie-speed-128k.description": "ERNIE Speed 128K یک مدل بدون هزینه ورودی/خروجی برای درک متون بلند و آزمایش‌های گسترده است.",
"ernie-speed-8k.description": "ERNIE Speed 8K یک مدل رایگان و سریع برای چت روزمره و وظایف متنی سبک است.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K یک مدل با ارزش بالا و هم‌زمانی بالا برای خدمات آنلاین گسترده و برنامه‌های سازمانی است.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K یک مدل فوق‌سبک برای پرسش‌وپاسخ ساده، طبقه‌بندی و استنتاج کم‌هزینه است.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
"ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متنی و تصویری پشتیبانی می‌کند و تولید تصاویر با کیفیت بالا و قابل کنترل را ممکن می‌سازد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 که توسط تیم Seed شرکت ByteDance توسعه یافته، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات موضوعی بهبود یافته، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 که توسط تیم Seed شرکت ByteDance توسعه یافته، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و قابل کنترل پشتیبانی می‌کند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] ورودی‌های متنی و تصاویر مرجع را می‌پذیرد و امکان ویرایش‌های محلی هدفمند و تغییرات پیچیده در صحنه کلی را فراهم می‌کند.",
"fal-ai/flux/krea.description": "Flux Krea [dev] یک مدل تولید تصویر با تمایل زیبایی‌شناسی به تصاویر طبیعی و واقع‌گرایانه‌تر است.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "یک مدل قدرتمند بومی چندوجهی برای تولید تصویر.",
"fal-ai/imagen4/preview.description": "مدل تولید تصویر با کیفیت بالا از گوگل.",
"fal-ai/nano-banana.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که امکان تولید و ویرایش تصویر از طریق مکالمه را فراهم می‌کند.",
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش‌های معنایی و ظاهری پشتیبانی می‌کند، متون چینی و انگلیسی را با دقت ویرایش می‌کند و ویرایش‌های با کیفیتی مانند انتقال سبک و چرخش اشیاء را ممکن می‌سازد.",
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر چشمگیر متون چینی و سبک‌های بصری متنوع.",
"fal-ai/qwen-image-edit.description": "مدل ویرایش تصویر حرفه‌ای از تیم Qwen که از ویرایش معنایی و ظاهری، ویرایش دقیق متن چینی/انگلیسی، انتقال سبک، چرخش و موارد دیگر پشتیبانی می‌کند.",
"fal-ai/qwen-image.description": "مدل قدرتمند تولید تصویر از تیم Qwen با رندر قوی متن چینی و سبک‌های بصری متنوع.",
"flux-1-schnell.description": "مدل تبدیل متن به تصویر با ۱۲ میلیارد پارامتر از Black Forest Labs که از تقطیر انتشار تقابلی نهفته برای تولید تصاویر با کیفیت بالا در ۱ تا ۴ مرحله استفاده می‌کند. این مدل با جایگزین‌های بسته رقابت می‌کند و تحت مجوز Apache-2.0 برای استفاده شخصی، تحقیقاتی و تجاری منتشر شده است.",
"flux-dev.description": "FLUX.1 [dev] یک مدل تقطیر شده با وزن‌های باز برای استفاده غیرتجاری است. این مدل کیفیت تصویر نزدیک به حرفه‌ای و پیروی از دستورالعمل را حفظ می‌کند و در عین حال کارآمدتر اجرا می‌شود و منابع را بهتر از مدل‌های استاندارد هم‌سایز استفاده می‌کند.",
"flux-kontext-max.description": "تولید و ویرایش تصویر متنی-زمینه‌ای پیشرفته که متن و تصویر را برای نتایج دقیق و منسجم ترکیب می‌کند.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro از حداکثر ۲ میلیون توکن پشتیبانی می‌کند و یک مدل چندوجهی میان‌رده ایده‌آل برای وظایف پیچیده است.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
"gemini-2.0-flash-exp-image-generation.description": "مدل آزمایشی Gemini 2.0 Flash با پشتیبانی از تولید تصویر.",
"gemini-2.0-flash-exp.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
"gemini-2.0-flash-lite-001.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
"gemini-2.0-flash-lite.description": "یک نسخه بهینه‌شده Gemini 2.0 Flash برای بهره‌وری هزینه و تأخیر کم.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash ویژگی‌های نسل بعدی از جمله سرعت استثنایی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه ۱ میلیون توکن را ارائه می‌دهد.",
"gemini-2.5-flash-image-preview.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-image:image.description": "Nano Banana جدیدترین، سریع‌ترین و کارآمدترین مدل چندوجهی بومی گوگل است که تولید و ویرایش تصویری مکالمه‌ای را ممکن می‌سازد.",
"gemini-2.5-flash-lite-preview-06-17.description": "نسخه پیش‌نمایش Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "سری GLM-Z1 استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.",
"glm-z1-flashx.description": "سریع و کم‌هزینه: نسخه Flash با استدلال فوق‌سریع و هم‌زمانی بیشتر.",
"glm-zero-preview.description": "GLM-Zero-Preview استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش استثنایی و عملکرد مقیاس‌پذیر را برای وظایف پیچیده با نیاز به پاسخ‌های باکیفیت و استدلال ترکیب می‌کند.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 مدل پرچم‌دار Anthropic است که هوش استثنایی و عملکرد مقیاس‌پذیر را برای وظایف پیچیده با نیاز به پاسخ‌های باکیفیت و استدلال قوی ترکیب می‌کند.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash قابلیت‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت عالی، استفاده بومی از ابزارها، تولید چندوجهی و پنجره زمینه‌ای ۱ میلیون توکن.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental جدیدترین مدل چندوجهی آزمایشی گوگل است که در مقایسه با نسخه‌های قبلی بهبودهایی در دانش عمومی، کدنویسی و زمینه بلند دارد.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite نسخه سبک Gemini است که به‌طور پیش‌فرض تفکر را غیرفعال کرده تا تأخیر و هزینه را کاهش دهد، اما می‌توان آن را از طریق پارامترها فعال کرد.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite ویژگی‌های نسل بعدی را ارائه می‌دهد، از جمله سرعت بالا، استفاده داخلی از ابزارها، تولید چندوجهی و پنجره زمینه‌ای ۱ میلیون توکن.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash مدل استدلال با عملکرد بالای گوگل برای وظایف چندوجهی گسترده است.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "نسخه سریع K2 با تفکر طولانی، دارای پنجره متنی ۲۵۶هزار توکن، استدلال عمیق قوی و خروجی ۶۰ تا ۱۰۰ توکن در ثانیه.",
"kimi-k2-thinking.description": "kimi-k2-thinking مدل تفکر Moonshot AI با توانایی‌های عمومی در عامل‌سازی و استدلال است. این مدل در استدلال عمیق برتری دارد و می‌تواند مسائل دشوار را از طریق استفاده چندمرحله‌ای از ابزارها حل کند.",
"kimi-k2-turbo-preview.description": "kimi-k2 یک مدل پایه MoE با قابلیت‌های قوی در برنامه‌نویسی و عامل‌سازی است (۱ تریلیون پارامتر کل، ۳۲ میلیارد فعال) که در معیارهای استدلال، برنامه‌نویسی، ریاضی و عامل از سایر مدل‌های متن‌باز پیشی می‌گیرد.",
"kimi-k2.5.description": "Kimi K2.5 توانمندترین مدل Kimi است که در وظایف عامل، برنامه‌نویسی و درک بینایی عملکرد SOTA متن‌باز ارائه می‌دهد. این مدل از ورودی‌های چندوجهی و حالت‌های تفکر و بدون تفکر پشتیبانی می‌کند.",
"kimi-k2.description": "Kimi-K2 یک مدل پایه MoE از Moonshot AI با قابلیت‌های قوی در برنامه‌نویسی و عامل‌سازی است که در مجموع دارای ۱ تریلیون پارامتر و ۳۲ میلیارد فعال است. در معیارهای استدلال عمومی، برنامه‌نویسی، ریاضی و وظایف عامل از سایر مدل‌های متن‌باز پیشی می‌گیرد.",
"kimi-k2:1t.description": "Kimi K2 یک مدل زبانی بزرگ MoE از Moonshot AI با ۱ تریلیون پارامتر کل و ۳۲ میلیارد فعال در هر عبور است. این مدل برای قابلیت‌های عامل از جمله استفاده پیشرفته از ابزار، استدلال و ترکیب کد بهینه‌سازی شده است.",
"kimi-latest.description": "Kimi Latest از جدیدترین مدل Kimi استفاده می‌کند و ممکن است شامل ویژگی‌های آزمایشی باشد. این مدل از درک تصویر پشتیبانی می‌کند و به‌طور خودکار مدل‌های ۸k/32k/128k را بر اساس طول زمینه انتخاب می‌کند.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B یک مدل عمومی میان‌رده است که بین هزینه و کیفیت در تولید متن و پاسخ به پرسش‌ها تعادل برقرار می‌کند.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K برای شناسایی نیت و هماهنگی عامل‌ها با پشتیبانی از زمینه طولانی طراحی شده است.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K یک مدل سبک‌وزن برای گفت‌وگوی چندمرحله‌ای کم‌هزینه و جریان‌های کاری است.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K یک مدل عامل با توان عملیاتی بالا برای برنامه‌های عامل چندوظیفه‌ای در مقیاس بزرگ است.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K یک مدل عامل با هم‌زمانی بالا برای گفت‌وگوهای کوتاه تا متوسط و پاسخ‌دهی سریع است.",
"qianfan-check-vl.description": "Qianfan Check VL یک مدل بازبینی محتوای چندوجهی برای تطابق تصویر-متن و وظایف شناسایی است.",
"qianfan-composition.description": "Qianfan Composition یک مدل تولید چندوجهی برای درک و تولید ترکیبی تصویر و متن است.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL یک مدل شناسایی چندوجهی متمرکز بر سناریوهای انگلیسی است.",
@ -1091,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B یک مدل میان‌رده برای پرسش‌وپاسخ چندزبانه و تولید متن است.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct یک مدل راهبردی برای طیف گسترده‌ای از وظایف تولید و استدلال است.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking یک مدل بسیار بزرگ برای استدلال پیچیده است.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B یک مدل عمومی بزرگ برای وظایف پیچیده است.",
"qwen3-235b-a22b.description": "Qwen3 نسل جدید مدل Tongyi Qwen است که در استدلال، توانایی عمومی، قابلیت‌های عامل و عملکرد چندزبانه پیشرفت چشمگیری داشته و از تغییر حالت تفکر پشتیبانی می‌کند.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct یک مدل میان‌تا‌بزرگ برای تولید با کیفیت بالا و پرسش‌وپاسخ است.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking یک مدل میان‌تا‌بزرگ برای استدلال است که بین دقت و هزینه تعادل برقرار می‌کند.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B یک مدل عمومی میان‌تا‌بزرگ است که بین هزینه و کیفیت تعادل برقرار می‌کند.",
@ -1103,6 +1102,7 @@
"qwen3-coder-flash.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.",
"qwen3-coder-plus.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.",
"qwen3-coder:480b.description": "مدل با عملکرد بالا از علی‌بابا برای وظایف عامل و کدنویسی با پشتیبانی از زمینه طولانی.",
"qwen3-max-2026-01-23.description": "مدل‌های Qwen3 Max نسبت به سری ۲.۵ پیشرفت‌های بزرگی در توانایی عمومی، درک چینی/انگلیسی، پیروی از دستورالعمل‌های پیچیده، وظایف ذهنی باز، توانایی چندزبانه و استفاده از ابزار دارند و خطاهای توهمی کمتری دارند. نسخه جدید qwen3-max در برنامه‌نویسی عامل‌محور و استفاده از ابزار نسبت به نسخه پیش‌نمایش بهبود یافته و به سطح SOTA در حوزه خود رسیده و برای نیازهای پیچیده‌تر عامل‌ها طراحی شده است.",
"qwen3-max-preview.description": "بهترین مدل Qwen برای وظایف پیچیده و چندمرحله‌ای. نسخه پیش‌نمایش از تفکر پشتیبانی می‌کند.",
"qwen3-max.description": "مدل‌های Qwen3 Max نسبت به سری 2.5 پیشرفت‌های چشمگیری در توانایی عمومی، درک زبان چینی/انگلیسی، پیروی از دستورالعمل‌های پیچیده، وظایف باز ذهنی، توانایی چندزبانه و استفاده از ابزار دارند، با کاهش خطاهای توهمی. نسخه جدید qwen3-max توانایی برنامه‌نویسی عامل‌محور و استفاده از ابزار را نسبت به qwen3-max-preview بهبود داده است. این نسخه به سطح پیشرفته در حوزه خود رسیده و برای نیازهای پیچیده‌تر عامل‌ها طراحی شده است.",
"qwen3-next-80b-a3b-instruct.description": "مدل متن‌باز نسل بعدی Qwen3 بدون قابلیت تفکر. نسبت به نسخه قبلی (Qwen3-235B-A22B-Instruct-2507)، درک زبان چینی بهتر، استدلال منطقی قوی‌تر و تولید متن بهبود یافته‌ای دارد.",
@ -1177,8 +1177,9 @@
"tts-1.description": "جدیدترین مدل تبدیل متن به گفتار با بهینه‌سازی برای سرعت در زمان واقعی.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) برای انجام دقیق وظایف دستوری با عملکرد زبانی قوی تنظیم شده است.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet استاندارد صنعت را ارتقا داده و در ارزیابی‌های گسترده از رقبا و Claude 3 Opus پیشی می‌گیرد، در حالی که سرعت و هزینه متوسط را حفظ می‌کند.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet سریع‌ترین مدل نسل جدید Anthropic است. نسبت به Claude 3 Haiku در مهارت‌ها بهبود یافته و در بسیاری از معیارهای هوش از پرچم‌دار قبلی Claude 3 Opus پیشی می‌گیرد.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است، با سرعتی برق‌آسا و توانایی تفکر گسترده.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet سریع‌ترین مدل نسل جدید Anthropic است. در مقایسه با Claude 3 Haiku، در مهارت‌های مختلف بهبود یافته و در بسیاری از معیارهای هوش از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 سریع‌ترین و هوشمندترین مدل Haiku از Anthropic است که با سرعتی برق‌آسا و توانایی تفکر گسترده ارائه می‌شود.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 هوشمندترین مدل Anthropic برای ساخت عامل‌ها و برنامه‌نویسی است.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 هوشمندترین مدل Anthropic تا به امروز است.",
"v0-1.0-md.description": "v0-1.0-md یک مدل قدیمی است که از طریق API نسخه v0 ارائه می‌شود.",
"v0-1.5-lg.description": "v0-1.5-lg برای وظایف پیشرفته تفکر یا استدلال مناسب است.",
@ -1199,5 +1200,37 @@
"x-ai/grok-4-fast.description": "Grok 4 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای موارد استفاده با هم‌زمانی بالا و زمینه‌های طولانی ایده‌آل است.",
"x-ai/grok-4.1-fast-non-reasoning.description": "Grok 4 Fast (بدون استدلال) مدل چندوجهی با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای سناریوهای حساس به تأخیر و هزینه طراحی شده و نیازی به استدلال درون‌مدلی ندارد. این مدل در کنار نسخه استدلالی Grok 4 Fast قرار دارد و می‌توان استدلال را از طریق پارامتر API فعال کرد. اعلان‌ها و تکمیل‌ها ممکن است توسط xAI یا OpenRouter برای بهبود مدل‌های آینده استفاده شوند.",
"x-ai/grok-4.1-fast.description": "Grok 4 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای موارد استفاده با هم‌زمانی بالا و زمینه‌های طولانی ایده‌آل است.",
"x-ai/grok-4.description": "Grok 4 مدل پرچم‌دار xAI با توانایی استدلال قوی و قابلیت چندوجهی است."
"x-ai/grok-4.description": "Grok 4 مدل پرچم‌دار xAI با توانایی استدلال قوی و قابلیت چندوجهی است.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 مدل سریع کدنویسی از xAI است که خروجی‌هایی خوانا و مناسب برای مهندسی ارائه می‌دهد.",
"xai/grok-2-vision.description": "Grok 2 Vision در وظایف بصری عملکردی عالی دارد و در استدلال ریاضی تصویری (MathVista) و پرسش‌وپاسخ اسناد (DocVQA) به سطح SOTA می‌رسد. این مدل اسناد، نمودارها، گراف‌ها، اسکرین‌شات‌ها و عکس‌ها را پردازش می‌کند.",
"xai/grok-2.description": "Grok 2 یک مدل پیشرفته با استدلال پیشرفته، چت قوی، کدنویسی و عملکرد استدلالی عالی است که در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4 Turbo قرار دارد.",
"xai/grok-3-fast.description": "مدل پرچم‌دار xAI در کاربردهای سازمانی مانند استخراج داده، کدنویسی و خلاصه‌سازی برتری دارد و دانش عمیقی در حوزه‌های مالی، سلامت، حقوق و علوم دارد. نسخه سریع آن بر زیرساخت سریع‌تری اجرا می‌شود و پاسخ‌های بسیار سریع‌تری با هزینه بیشتر به ازای هر توکن ارائه می‌دهد.",
"xai/grok-3-mini-fast.description": "مدل سبک xAI که پیش از پاسخ‌دهی فکر می‌کند، مناسب برای وظایف ساده یا مبتنی بر منطق بدون نیاز به دانش عمیق حوزه‌ای است. ردپای خام استدلال در دسترس است. نسخه سریع آن بر زیرساخت سریع‌تری اجرا می‌شود و پاسخ‌های بسیار سریع‌تری با هزینه بیشتر به ازای هر توکن ارائه می‌دهد.",
"xai/grok-3-mini.description": "مدل سبک xAI که پیش از پاسخ‌دهی فکر می‌کند، مناسب برای وظایف ساده یا مبتنی بر منطق بدون نیاز به دانش عمیق حوزه‌ای است. ردپای خام استدلال در دسترس است.",
"xai/grok-3.description": "مدل پرچم‌دار xAI در کاربردهای سازمانی مانند استخراج داده، کدنویسی و خلاصه‌سازی برتری دارد و دانش عمیقی در حوزه‌های مالی، سلامت، حقوق و علوم دارد.",
"xai/grok-4.description": "جدیدترین مدل پرچم‌دار xAI با عملکرد بی‌نظیر در زبان طبیعی، ریاضی و استدلال — یک مدل همه‌کاره ایده‌آل.",
"yi-large-fc.description": "بر پایه yi-large با قابلیت فراخوانی ابزار پیشرفته، مناسب برای سناریوهای عامل و جریان کاری.",
"yi-large-preview.description": "نسخه اولیه؛ استفاده از yi-large (جدیدتر) توصیه می‌شود.",
"yi-large-rag.description": "یک سرویس پیشرفته بر پایه yi-large که بازیابی و تولید را برای پاسخ‌های دقیق با جستجوی وب در زمان واقعی ترکیب می‌کند.",
"yi-large-turbo.description": "ارزش و عملکرد استثنایی، تنظیم‌شده برای تعادل قوی میان کیفیت، سرعت و هزینه.",
"yi-large.description": "مدلی جدید با ۱۰۰ میلیارد پارامتر و توانایی قوی در پرسش‌وپاسخ و تولید متن.",
"yi-lightning-lite.description": "نسخه سبک؛ استفاده از yi-lightning توصیه می‌شود.",
"yi-lightning.description": "مدل جدید با عملکرد بالا، استنتاج سریع‌تر و خروجی با کیفیت بالا.",
"yi-medium-200k.description": "مدلی با زمینه طولانی ۲۰۰ هزار توکن برای درک و تولید عمیق متون بلند.",
"yi-medium.description": "مدل میان‌رده تنظیم‌شده با توانایی و ارزش متعادل، بهینه‌شده برای پیروی از دستورالعمل‌ها.",
"yi-spark.description": "مدلی جمع‌وجور و سریع با توانایی تقویت‌شده در ریاضی و برنامه‌نویسی.",
"yi-vision-v2.description": "مدل بینایی برای وظایف پیچیده با درک و تحلیل قوی چندتصویری.",
"yi-vision.description": "مدل بینایی برای وظایف پیچیده با درک و تحلیل قوی تصویر.",
"z-ai/glm-4.5-air.description": "GLM 4.5 Air نسخه سبک GLM 4.5 برای سناریوهای حساس به هزینه است که در عین حال استدلال قوی را حفظ می‌کند.",
"z-ai/glm-4.5.description": "GLM 4.5 مدل پرچم‌دار Z.AI با استدلال ترکیبی بهینه‌شده برای وظایف مهندسی و زمینه‌های طولانی است.",
"z-ai/glm-4.6.description": "GLM 4.6 مدل پرچم‌دار Z.AI با طول زمینه گسترش‌یافته و قابلیت برنامه‌نویسی است.",
"z-ai/glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که توانایی‌های عمومی بهبود یافته، پاسخ‌های طبیعی‌تر و تجربه نوشتاری جذاب‌تری ارائه می‌دهد.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.",
"zai-org/GLM-4.5.description": "GLM-4.5 یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند به‌طور عمیق بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.",
"zai-org/GLM-4.5V.description": "GLM-4.5V جدیدترین مدل VLM از Zhipu AI است که بر پایه مدل متنی پرچم‌دار GLM-4.5-Air (با ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال) ساخته شده و از معماری MoE برای عملکرد قوی با هزینه کمتر بهره می‌برد. این مدل مسیر GLM-4.1V-Thinking را دنبال کرده و با افزودن 3D-RoPE استدلال فضایی سه‌بعدی را بهبود می‌بخشد. با پیش‌آموزش، SFT و RL بهینه‌سازی شده و تصاویر، ویدیو و اسناد بلند را پردازش می‌کند و در ۴۱ معیار چندوجهی عمومی در میان مدل‌های متن‌باز رتبه برتر دارد. حالت تفکر قابل تنظیم به کاربران امکان می‌دهد بین سرعت و عمق تعادل برقرار کنند.",
"zai-org/GLM-4.6.description": "در مقایسه با GLM-4.5، مدل GLM-4.6 زمینه را از ۱۲۸ هزار به ۲۰۰ هزار توکن گسترش می‌دهد تا وظایف عامل پیچیده‌تری را مدیریت کند. در معیارهای کد امتیاز بالاتری کسب کرده و عملکرد واقعی بهتری در برنامه‌هایی مانند Claude Code، Cline، Roo Code و Kilo Code دارد، از جمله تولید بهتر صفحات فرانت‌اند. استدلال بهبود یافته و استفاده از ابزار در حین استدلال پشتیبانی می‌شود که توانایی کلی را تقویت می‌کند. این مدل بهتر در چارچوب‌های عامل ادغام می‌شود، عامل‌های ابزار/جستجو را بهبود می‌بخشد و سبک نوشتاری و نقش‌آفرینی طبیعی‌تری دارد.",
"zai/glm-4.5-air.description": "GLM-4.5 و GLM-4.5-Air جدیدترین مدل‌های پرچم‌دار ما برای برنامه‌های عامل هستند که هر دو از معماری MoE استفاده می‌کنند. GLM-4.5 دارای ۳۵۵ میلیارد پارامتر کل و ۳۲ میلیارد فعال در هر عبور است؛ GLM-4.5-Air نسخه سبک‌تر با ۱۰۶ میلیارد کل و ۱۲ میلیارد فعال است.",
"zai/glm-4.5.description": "سری GLM-4.5 برای عامل‌ها طراحی شده است. مدل پرچم‌دار GLM-4.5 استدلال، کدنویسی و مهارت‌های عامل را با ۳۵۵ میلیارد پارامتر کل (۳۲ میلیارد فعال) ترکیب می‌کند و دو حالت عملیاتی به‌عنوان یک سیستم استدلال ترکیبی ارائه می‌دهد.",
"zai/glm-4.5v.description": "GLM-4.5V بر پایه GLM-4.5-Air ساخته شده، تکنیک‌های اثبات‌شده GLM-4.1V-Thinking را به ارث برده و با معماری MoE قدرتمند ۱۰۶ میلیارد پارامتری مقیاس یافته است.",
"zenmux/auto.description": "مسیریابی خودکار ZenMux بهترین مدل از نظر ارزش و عملکرد را بر اساس درخواست شما از میان گزینه‌های پشتیبانی‌شده انتخاب می‌کند."
}

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} پارامتر در مجموع",
"arguments.title": "آرگومان‌ها",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "دریافت مدل‌های موجود",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "دریافت مهارت‌های موجود",

View file

@ -29,6 +29,7 @@
"internlm.description": "یک سازمان متن‌باز متمرکز بر تحقیقات مدل‌های بزرگ و ابزارهای مرتبط که پلتفرمی کارآمد و آسان برای استفاده ارائه می‌دهد تا مدل‌ها و الگوریتم‌های پیشرفته را در دسترس قرار دهد.",
"jina.description": "Jina AI که در سال 2020 تأسیس شد، یک شرکت پیشرو در زمینه جستجوی هوش مصنوعی است. پشته جستجوی آن شامل مدل‌های برداری، رتبه‌بندها و مدل‌های زبانی کوچک برای ساخت اپلیکیشن‌های جستجوی مولد و چندوجهی با کیفیت بالا است.",
"lmstudio.description": "LM Studio یک اپلیکیشن دسکتاپ برای توسعه و آزمایش مدل‌های زبانی بزرگ روی رایانه شخصی شماست.",
"lobehub.description": "LobeHub Cloud از رابط‌های برنامه‌نویسی رسمی برای دسترسی به مدل‌های هوش مصنوعی استفاده می‌کند و مصرف را با اعتباراتی که به توکن‌های مدل وابسته‌اند، اندازه‌گیری می‌کند.",
"minimax.description": "MiniMax که در سال 2021 تأسیس شد، هوش مصنوعی چندمنظوره با مدل‌های پایه چندوجهی از جمله مدل‌های متنی با پارامترهای تریلیونی، مدل‌های گفتاری و تصویری توسعه می‌دهد و اپ‌هایی مانند Hailuo AI را ارائه می‌کند.",
"mistral.description": "Mistral مدل‌های عمومی، تخصصی و تحقیقاتی پیشرفته‌ای برای استدلال پیچیده، وظایف چندزبانه و تولید کد ارائه می‌دهد و از فراخوانی توابع برای یکپارچه‌سازی سفارشی پشتیبانی می‌کند.",
"modelscope.description": "ModelScope پلتفرم مدل به‌عنوان‌سرویس Alibaba Cloud است که مجموعه‌ای گسترده از مدل‌های هوش مصنوعی و خدمات استنتاج را ارائه می‌دهد.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Inscrivez-vous maintenant",
"betterAuth.signin.socialError": "Échec de la connexion sociale, veuillez réessayer",
"betterAuth.signin.socialOnlyHint": "Cet e-mail a été enregistré via un compte social tiers. Connectez-vous avec ce fournisseur, ou",
"betterAuth.signin.ssoOnlyNoProviders": "L'inscription par e-mail est désactivée et aucun fournisseur SSO n'est configuré. Veuillez contacter votre administrateur.",
"betterAuth.signin.submit": "Se connecter",
"betterAuth.signup.confirmPasswordPlaceholder": "Confirmez votre mot de passe",
"betterAuth.signup.emailPlaceholder": "Saisissez votre adresse e-mail",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Voir les détails",
"clearCurrentMessages": "Effacer les messages de la session actuelle",
"compressedHistory": "Historique compressé",
"compression.cancel": "Décompresser",
"compression.cancelConfirm": "Êtes-vous sûr de vouloir décompresser ? Cela restaurera les messages d'origine.",
"compression.history": "Historique",
"compression.summary": "Résumé",
"confirmClearCurrentMessages": "Vous êtes sur le point deffacer les messages de la session actuelle. Une fois effacés, ils ne pourront pas être récupérés. Veuillez confirmer votre action.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Créer un agent",
"extendParams.disableContextCaching.desc": "Réduit jusquà 90 % le coût de génération dune conversation et augmente la vitesse jusquà 4x. Lactivation désactive automatiquement la limite du nombre de messages historiques. <1>En savoir plus</1>",
"extendParams.disableContextCaching.title": "Activer la mise en cache du contexte",
"extendParams.effort.desc": "Contrôlez le nombre de jetons utilisés par Claude pour répondre grâce au paramètre d'effort.",
"extendParams.effort.title": "Effort",
"extendParams.enableAdaptiveThinking.desc": "Permet à Claude de décider dynamiquement quand et combien réfléchir grâce au mode de pensée adaptative.",
"extendParams.enableAdaptiveThinking.title": "Activer la pensée adaptative",
"extendParams.enableReasoning.desc": "Basé sur la limite du mécanisme de réflexion Claude, lactivation désactive automatiquement la limite du nombre de messages historiques. <1>En savoir plus</1>",
"extendParams.enableReasoning.title": "Activer la réflexion approfondie",
"extendParams.imageAspectRatio.title": "Ratio daspect de limage",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Aucun groupe dagents forkés pour le moment",
"user.noForkedAgents": "Aucun agent forké pour le moment",
"user.publishedAgents": "Agents créés",
"user.publishedGroups": "Groupes créés",
"user.searchPlaceholder": "Rechercher par nom ou description...",
"user.statusFilter.all": "Tous",
"user.statusFilter.archived": "Archivé",
"user.statusFilter.deprecated": "Obsolète",
"user.statusFilter.favorite": "Favori",
"user.statusFilter.forked": "Dupliqué",
"user.statusFilter.published": "Publié",
"user.statusFilter.unpublished": "En cours d'examen",
"user.tabs.favorites": "Favoris",
"user.tabs.forkedAgents": "Forkés",
"user.tabs.publishedAgents": "Créés",

View file

@ -150,6 +150,7 @@
"upload.desc": "Détails : {{detail}}",
"upload.fileOnlySupportInServerMode": "Le mode de déploiement actuel ne prend pas en charge le téléversement de fichiers non image. Pour téléverser des fichiers {{ext}}, passez au mode serveur ou utilisez le service {{cloud}}.",
"upload.networkError": "Veuillez vérifier votre connexion réseau et la configuration CORS du service de stockage.",
"upload.storageLimitExceeded": "Votre espace de stockage a atteint la limite de votre forfait. Veuillez mettre à niveau votre forfait ou supprimer les fichiers inutilisés pour libérer de lespace.",
"upload.title": "Échec du téléversement. Veuillez vérifier votre connexion ou réessayer plus tard.",
"upload.unknownError": "Raison de l'erreur : {{reason}}",
"upload.uploadFailed": "Échec du téléversement du fichier."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Nom d'affichage du modèle",
"providerModels.item.modelConfig.extendParams.extra": "Choisissez les paramètres étendus pris en charge par le modèle. Survolez une option pour prévisualiser les contrôles. Des configurations incorrectes peuvent entraîner des échecs de requête.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Pour les modèles Claude ; peut réduire les coûts et accélérer les réponses.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Pour Claude Opus 4.6 ; contrôle le niveau d'effort (faible/moyen/élevé/maximal).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Pour Claude Opus 4.6 ; active ou désactive la pensée adaptative.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Pour Claude, DeepSeek et autres modèles de raisonnement ; active une réflexion plus approfondie.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Pour la série GPT-5 ; contrôle lintensité du raisonnement.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Pour la série GPT-5.1 ; contrôle lintensité du raisonnement.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Un nouveau modèle de raisonnement interne avec 80 000 chaînes de pensée et 1 million dentrées, offrant des performances comparables aux meilleurs modèles mondiaux.",
"MiniMax-M2-Stable.description": "Conçu pour un codage efficace et des flux de travail dagents, avec une plus grande simultanéité pour un usage commercial.",
"MiniMax-M2.1-Lightning.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée. Plus rapide et plus efficace.",
"MiniMax-M2.1.description": "Puissantes capacités de programmation multilingue, expérience de codage entièrement améliorée",
"MiniMax-M2.1.description": "MiniMax-M2.1 est un modèle phare open source de MiniMax, conçu pour résoudre des tâches complexes du monde réel. Ses principaux atouts résident dans ses capacités de programmation multilingue et sa faculté à résoudre des problèmes complexes en tant qu'agent.",
"MiniMax-M2.description": "Conçu spécifiquement pour un codage efficace et des flux de travail d'agents",
"MiniMax-Text-01.description": "MiniMax-01 introduit une attention linéaire à grande échelle au-delà des Transformers classiques, avec 456 milliards de paramètres et 45,9 milliards activés par passage. Il atteint des performances de premier plan et prend en charge jusquà 4 millions de jetons de contexte (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 est un modèle de raisonnement à attention hybride à grande échelle avec poids ouverts, totalisant 456 milliards de paramètres et environ 45,9 milliards actifs par jeton. Il prend en charge nativement un contexte de 1 million de jetons et utilise Flash Attention pour réduire les FLOPs de 75 % sur une génération de 100 000 jetons par rapport à DeepSeek R1. Grâce à une architecture MoE, CISPO et un entraînement RL à attention hybride, il atteint des performances de pointe sur les tâches de raisonnement à long contexte et dingénierie logicielle réelle.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 000 milliards de paramètres totaux avec 32 milliards actifs. Parmi les modèles non pensants, il excelle dans les connaissances de pointe, les mathématiques et le codage, et se montre plus performant dans les tâches générales dagent. Optimisé pour les charges de travail dagents, il peut agir, et pas seulement répondre. Idéal pour les conversations générales, improvisées et les expériences dagents, en tant que modèle réflexe sans réflexion prolongée.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7B) est un modèle dinstruction de haute précision pour les calculs complexes.",
"OmniConsistency.description": "OmniConsistency améliore la cohérence stylistique et la généralisation dans les tâches image-à-image en introduisant des Diffusion Transformers (DiTs) à grande échelle et des données stylisées appariées, évitant ainsi la dégradation du style.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 est une version améliorée de la série PaddleOCR-VL, atteignant une précision de 94,5 % sur le benchmark de compréhension de documents OmniDocBench v1.5, surpassant les modèles généralistes de grande taille et les modèles spécialisés en analyse documentaire. Il innove en prenant en charge la localisation de boîtes englobantes irrégulières pour les éléments de document, gérant efficacement les images numérisées, inclinées ou capturées à lécran.",
"Phi-3-medium-128k-instruct.description": "Le même modèle Phi-3-medium avec une fenêtre de contexte élargie pour les invites RAG ou few-shot.",
"Phi-3-medium-4k-instruct.description": "Un modèle de 14 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement poussé.",
"Phi-3-mini-128k-instruct.description": "Le même modèle Phi-3-mini avec une fenêtre de contexte élargie pour les invites RAG ou few-shot.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 est un modèle MoE de 671 milliards de paramètres utilisant MLA et DeepSeekMoE avec un équilibrage de charge sans perte pour une inférence et un entraînement efficaces. Préentraîné sur 14,8T de jetons de haute qualité et affiné avec SFT et RL, il surpasse les autres modèles open source et se rapproche des modèles fermés de pointe.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 est le tout dernier et le plus puissant modèle Kimi K2. Il s'agit d'un modèle MoE de premier plan avec 1T de paramètres totaux et 32B de paramètres actifs. Ses principales caractéristiques incluent une intelligence de codage agentique renforcée avec des gains significatifs sur les benchmarks et les tâches d'agents réels, ainsi qu'une esthétique et une convivialité améliorées pour le codage en interface utilisateur.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo est la variante Turbo optimisée pour la vitesse de raisonnement et le débit, tout en conservant le raisonnement multi-étapes et l'utilisation d'outils de K2 Thinking. Il s'agit d'un modèle MoE avec environ 1T de paramètres totaux, un contexte natif de 256K, et un appel d'outils à grande échelle stable pour des scénarios de production nécessitant une faible latence et une forte concurrence.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 est un agent multimodal natif open source, basé sur Kimi-K2-Base, entraîné sur environ 1,5 billion de jetons mêlant vision et texte. Le modèle adopte une architecture MoE avec 1T de paramètres totaux et 32B de paramètres actifs, prenant en charge une fenêtre de contexte de 256K, intégrant harmonieusement les capacités de compréhension visuelle et linguistique.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 est le modèle phare de nouvelle génération de Zhipu, doté de 355 milliards de paramètres totaux et de 32 milliards de paramètres actifs. Il a été entièrement amélioré pour les dialogues généraux, le raisonnement et les capacités dagent. GLM-4.7 renforce la pensée intercalée et introduit la pensée préservée ainsi que la pensée au niveau des tours.",
"QwQ-32B-Preview.description": "Qwen QwQ est un modèle de recherche expérimental axé sur l'amélioration du raisonnement.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview est un modèle de recherche de Qwen axé sur le raisonnement visuel, avec des points forts en compréhension de scènes complexes et en résolution de problèmes visuels mathématiques.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore ses compétences globales et dépasse le précédent modèle le plus avancé, Claude 3 Opus, sur de nombreux benchmarks dintelligence.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide dAnthropic, offrant des améliorations globales et surpassant lancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fournit des réponses rapides pour les tâches légères.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché. Il peut produire des réponses quasi instantanées ou un raisonnement détaillé étape par étape visible par lutilisateur. Sonnet est particulièrement performant en programmation, science des données, vision et tâches dagent.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 est le modèle le plus intelligent dAnthropic et le premier modèle de raisonnement hybride sur le marché, capable de fournir des réponses quasi instantanées ou une réflexion approfondie avec un contrôle précis.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet est le modèle le plus récent et le plus performant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku est le modèle le plus rapide et le plus compact dAnthropic, conçu pour des réponses quasi instantanées avec des performances rapides et précises.",
"claude-3-opus-20240229.description": "Claude 3 Opus est le modèle le plus puissant dAnthropic pour les tâches complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet équilibre intelligence et rapidité pour les charges de travail en entreprise, offrant une grande utilité à moindre coût et un déploiement fiable à grande échelle.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant une vitesse fulgurante et un raisonnement approfondi.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, combinant une vitesse fulgurante et une réflexion étendue.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking est une variante avancée capable de révéler son processus de raisonnement.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, se distinguant par ses performances, son intelligence, sa fluidité et sa compréhension.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 est le modèle le plus récent et le plus performant dAnthropic pour les tâches hautement complexes, excellent en performance, intelligence, fluidité et compréhension.",
"claude-opus-4-20250514.description": "Claude Opus 4 est le modèle le plus puissant dAnthropic pour les tâches complexes, offrant des performances exceptionnelles en intelligence, fluidité et compréhension.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive, idéal pour les tâches complexes nécessitant des réponses et un raisonnement de très haute qualité.",
"claude-opus-4-6.description": "Claude Opus 4.6 est le modèle le plus intelligent dAnthropic pour la création dagents et le codage.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking peut produire des réponses quasi instantanées ou une réflexion détaillée étape par étape avec un processus visible.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 peut générer des réponses quasi instantanées ou un raisonnement détaillé étape par étape avec un processus visible.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 est le modèle le plus intelligent dAnthropic à ce jour, offrant des réponses quasi instantanées ou une réflexion pas à pas avec un contrôle précis pour les utilisateurs dAPI.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 est le modèle le plus intelligent dAnthropic à ce jour.",
"codegeex-4.description": "CodeGeeX-4 est un assistant de codage IA puissant prenant en charge les questions-réponses multilingues et la complétion de code pour améliorer la productivité des développeurs.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B est un modèle multilingue de génération de code prenant en charge la complétion et la génération de code, linterprétation de code, la recherche web, lappel de fonctions et les questions-réponses au niveau des dépôts. Il couvre un large éventail de scénarios de développement logiciel et est lun des meilleurs modèles de code sous 10 milliards de paramètres.",
"codegemma.description": "CodeGemma est un modèle léger pour diverses tâches de programmation, permettant une itération rapide et une intégration facile.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
"deepseek-chat.description": "Un nouveau modèle open source combinant capacités générales et de codage. Il conserve le dialogue général du modèle de chat et les solides compétences en programmation du modèle de codeur, avec un meilleur alignement des préférences. DeepSeek-V2.5 améliore également la rédaction et le suivi des instructions.",
"deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et dagents. Il atteint des niveaux comparables à GPT-5 sur les benchmarks publics et est le premier à intégrer la réflexion dans lutilisation doutils, menant les évaluations open source dagents.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à léchelle du projet et un remplissage de fragments.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 est un modèle de code MoE open source performant sur les tâches de programmation, comparable à GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "Version complète rapide de DeepSeek R1 avec recherche web en temps réel, combinant des capacités à léchelle de 671B et des réponses plus rapides.",
"deepseek-r1-online.description": "Version complète de DeepSeek R1 avec 671B de paramètres et recherche web en temps réel, offrant une meilleure compréhension et génération.",
"deepseek-r1.description": "DeepSeek-R1 utilise des données de démarrage à froid avant lapprentissage par renforcement et affiche des performances comparables à OpenAI-o1 en mathématiques, codage et raisonnement.",
"deepseek-reasoner.description": "Le mode de raisonnement DeepSeek V3.2 produit une chaîne de pensée avant la réponse finale pour améliorer la précision.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking est un modèle de raisonnement profond qui génère une chaîne de pensée avant la réponse pour une précision accrue, avec des résultats compétitifs de haut niveau et un raisonnement comparable à Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 est un modèle MoE efficace pour un traitement économique.",
"deepseek-v2:236b.description": "DeepSeek V2 236B est le modèle axé sur le code de DeepSeek avec une forte génération de code.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 est un modèle MoE de 671B paramètres avec des points forts en programmation, compréhension du contexte et traitement de longs textes.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview est une préversion de modèle pour la création de personnages et dintrigues, destinée à lévaluation des fonctionnalités.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K est un modèle de personnage pour romans et création dintrigues, adapté à la génération dhistoires longues.",
"ernie-irag-edit.description": "ERNIE iRAG Edit est un modèle dédition dimage prenant en charge leffacement, la retouche et la génération de variantes.",
"ernie-lite-8k.description": "ERNIE Lite 8K est un modèle général léger pour la QA quotidienne et la génération de contenu à faible coût.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K est un modèle léger haute performance pour les scénarios sensibles à la latence et au coût.",
"ernie-novel-8k.description": "ERNIE Novel 8K est conçu pour les romans longs et les intrigues IP avec des récits multi-personnages.",
"ernie-speed-128k.description": "ERNIE Speed 128K est un modèle sans frais dE/S pour la compréhension de longs textes et les essais à grande échelle.",
"ernie-speed-8k.description": "ERNIE Speed 8K est un modèle gratuit et rapide pour le chat quotidien et les tâches textuelles légères.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K est un modèle à haute valeur et haute concurrence pour les services en ligne à grande échelle et les applications dentreprise.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K est un modèle ultra-léger pour la QA simple, la classification et linférence à faible coût.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour lévaluation et les tests.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 est un modèle de génération dimages développé par ByteDance Seed, prenant en charge les entrées texte et image pour une génération dimages de haute qualité et hautement contrôlable. Il génère des images à partir dinvites textuelles.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par léquipe Seed de ByteDance, prend en charge lédition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page daffiches et une conception de logos avec un rendu texte-image de haute précision.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération dimages de haute qualité et hautement contrôlable à partir dinvites.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur lédition dimages, prenant en charge les entrées texte et image.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepte des textes et des images de référence en entrée, permettant des modifications locales ciblées et des transformations globales complexes de scènes.",
"fal-ai/flux/krea.description": "Flux Krea [dev] est un modèle de génération dimages avec une préférence esthétique pour des images plus réalistes et naturelles.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un puissant modèle natif multimodal de génération dimages.",
"fal-ai/imagen4/preview.description": "Modèle de génération dimages de haute qualité développé par Google.",
"fal-ai/nano-banana.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages via la conversation.",
"fal-ai/qwen-image-edit.description": "Un modèle professionnel dédition dimages de léquipe Qwen, prenant en charge les modifications sémantiques et visuelles, lédition précise de texte en chinois et en anglais, ainsi que des retouches de haute qualité comme le transfert de style et la rotation dobjets.",
"fal-ai/qwen-image.description": "Un puissant modèle de génération dimages de léquipe Qwen, offrant un rendu impressionnant du texte chinois et une grande diversité de styles visuels.",
"fal-ai/qwen-image-edit.description": "Un modèle dédition dimage professionnel de léquipe Qwen, prenant en charge les modifications sémantiques et dapparence, lédition précise de texte en chinois/anglais, le transfert de style, la rotation, et plus encore.",
"fal-ai/qwen-image.description": "Un puissant modèle de génération dimages de léquipe Qwen, avec un excellent rendu du texte en chinois et une grande diversité de styles visuels.",
"flux-1-schnell.description": "Modèle texte-vers-image à 12 milliards de paramètres de Black Forest Labs utilisant la distillation par diffusion latente adversariale pour générer des images de haute qualité en 1 à 4 étapes. Il rivalise avec les alternatives propriétaires et est publié sous licence Apache-2.0 pour un usage personnel, de recherche et commercial.",
"flux-dev.description": "FLUX.1 [dev] est un modèle distillé à poids ouverts pour un usage non commercial. Il conserve une qualité dimage proche du niveau professionnel et un bon suivi des instructions tout en étant plus efficace que les modèles standards de taille équivalente.",
"flux-kontext-max.description": "Génération et édition dimages contextuelles de pointe, combinant texte et images pour des résultats précis et cohérents.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro prend en charge jusquà 2 millions de jetons, un modèle multimodal de taille moyenne idéal pour les tâches complexes.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, lutilisation native doutils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
"gemini-2.0-flash-exp-image-generation.description": "Modèle expérimental Gemini 2.0 Flash avec prise en charge de la génération dimages.",
"gemini-2.0-flash-exp.description": "Une variante de Gemini 2.0 Flash optimisée pour lefficacité des coûts et la faible latence.",
"gemini-2.0-flash-lite-001.description": "Une variante de Gemini 2.0 Flash optimisée pour lefficacité des coûts et la faible latence.",
"gemini-2.0-flash-lite.description": "Une variante de Gemini 2.0 Flash optimisée pour lefficacité des coûts et la faible latence.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, lutilisation native doutils, la génération multimodale et une fenêtre de contexte de 1 million de jetons.",
"gemini-2.5-flash-image-preview.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana est le modèle multimodal natif le plus récent, rapide et efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-image:image.description": "Nano Banana est le modèle multimodal natif le plus récent, le plus rapide et le plus efficace de Google, permettant la génération et lédition dimages en conversation.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "La série GLM-Z1 offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
"glm-z1-flashx.description": "Rapide et économique : version Flash avec raisonnement ultra-rapide et haute concurrence.",
"glm-zero-preview.description": "GLM-Zero-Preview offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant intelligence exceptionnelle et performance évolutive pour les tâches complexes nécessitant des réponses et un raisonnement de la plus haute qualité.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 est le modèle phare dAnthropic, combinant une intelligence exceptionnelle et des performances évolutives pour les tâches complexes nécessitant des réponses et un raisonnement de la plus haute qualité.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre des capacités de nouvelle génération, notamment une vitesse exceptionnelle, l'utilisation native d'outils, la génération multimodale et une fenêtre de contexte dun million de jetons.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental est le dernier modèle multimodal expérimental de Google, avec des améliorations notables par rapport aux versions précédentes, notamment en connaissances générales, en code et en gestion de contexte étendu.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite est une variante allégée de Gemini, avec le raisonnement désactivé par défaut pour réduire la latence et les coûts, mais pouvant être activé via des paramètres.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite propose des fonctionnalités de nouvelle génération, notamment une vitesse exceptionnelle, l'utilisation intégrée d'outils, la génération multimodale et une fenêtre de contexte dun million de jetons.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash est le modèle de raisonnement haute performance de Google pour les tâches multimodales étendues.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Variante rapide de K2 pensée longue avec un contexte de 256k, un raisonnement profond puissant et une sortie de 60 à 100 tokens/seconde.",
"kimi-k2-thinking.description": "kimi-k2-thinking est un modèle de raisonnement de Moonshot AI avec des capacités générales dagent et de raisonnement. Il excelle dans le raisonnement profond et peut résoudre des problèmes complexes via lutilisation doutils en plusieurs étapes.",
"kimi-k2-turbo-preview.description": "kimi-k2 est un modèle de base MoE avec de solides capacités en codage et en agents (1T de paramètres totaux, 32B actifs), surpassant les autres modèles open source courants en raisonnement, programmation, mathématiques et benchmarks dagents.",
"kimi-k2.5.description": "Kimi K2.5 est le modèle Kimi le plus performant, offrant un état de lart open source pour les tâches dagents, le codage et la compréhension visuelle. Il prend en charge les entrées multimodales et les modes avec ou sans raisonnement.",
"kimi-k2.description": "Kimi-K2 est un modèle de base MoE de Moonshot AI avec de solides capacités en codage et en agents, totalisant 1T de paramètres avec 32B actifs. Sur les benchmarks de raisonnement général, de codage, de mathématiques et de tâches dagent, il surpasse les autres modèles open source courants.",
"kimi-k2:1t.description": "Kimi K2 est un grand LLM MoE de Moonshot AI avec 1T de paramètres totaux et 32B actifs par passage. Il est optimisé pour les capacités dagent, y compris lutilisation avancée doutils, le raisonnement et la synthèse de code.",
"kimi-latest.description": "Kimi Latest utilise le modèle Kimi le plus récent et peut inclure des fonctionnalités expérimentales. Il prend en charge la compréhension dimages et sélectionne automatiquement les modèles de facturation 8k/32k/128k en fonction de la longueur du contexte.",
@ -852,6 +853,23 @@
"meta/llama-3.3-70b.description": "Un équilibre parfait entre performance et efficacité. Conçu pour une IA conversationnelle hautes performances dans la création de contenu, les applications dentreprise et la recherche, avec une solide compréhension du langage pour le résumé, la classification, lanalyse de sentiment et la génération de code.",
"meta/llama-4-maverick.description": "La famille Llama 4 est une série de modèles IA multimodaux natifs prenant en charge le texte et les expériences multimodales, utilisant MoE pour une compréhension avancée du texte et de limage. Llama 4 Maverick est un modèle de 17B avec 128 experts, déployé par DeepInfra.",
"meta/llama-4-scout.description": "La famille Llama 4 est une série de modèles IA multimodaux natifs prenant en charge le texte et les expériences multimodales, utilisant MoE pour une compréhension avancée du texte et de limage. Llama 4 Scout est un modèle de 17B avec 16 experts, déployé par DeepInfra.",
"microsoft/Phi-3-medium-128k-instruct.description": "Le même modèle Phi-3-medium avec une fenêtre de contexte plus large pour les invites RAG ou few-shot.",
"microsoft/Phi-3-medium-4k-instruct.description": "Un modèle de 14 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement intensif.",
"microsoft/Phi-3-mini-128k-instruct.description": "Le même modèle Phi-3-mini avec une fenêtre de contexte plus large pour les invites RAG ou few-shot.",
"microsoft/Phi-3-mini-4k-instruct.description": "Le plus petit membre de la famille Phi-3, optimisé pour la qualité et une faible latence.",
"microsoft/Phi-3-small-128k-instruct.description": "Le même modèle Phi-3-small avec une fenêtre de contexte plus large pour les invites RAG ou few-shot.",
"microsoft/Phi-3-small-8k-instruct.description": "Un modèle de 7 milliards de paramètres avec une qualité supérieure à Phi-3-mini, axé sur des données de haute qualité nécessitant un raisonnement intensif.",
"microsoft/Phi-3.5-mini-instruct.description": "Une version mise à jour du modèle Phi-3-mini.",
"microsoft/Phi-3.5-vision-instruct.description": "Une version mise à jour du modèle Phi-3-vision.",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 est un modèle linguistique de Microsoft AI, excellent pour les dialogues complexes, les tâches multilingues, le raisonnement et les assistants.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B est le modèle Wizard le plus avancé de Microsoft AI, avec des performances très compétitives.",
"mimo-v2-flash.description": "MiMo-V2-Flash : un modèle efficace pour le raisonnement, le codage et les bases des agents.",
"minicpm-v.description": "MiniCPM-V est le modèle multimodal de nouvelle génération dOpenBMB, avec dexcellentes capacités dOCR et de compréhension multimodale pour de nombreux cas dusage.",
"minimax-m2.1.description": "MiniMax-M2.1 est la dernière version de la série MiniMax, optimisée pour la programmation multilingue et les tâches complexes du monde réel. En tant que modèle natif IA, il améliore considérablement les performances, le support des frameworks dagents et ladaptation multi-scénarios, visant à aider entreprises et particuliers à adopter plus rapidement un mode de vie et de travail natif IA.",
"minimax-m2.description": "MiniMax M2 est un modèle de langage efficace conçu spécifiquement pour le codage et les flux de travail dagents.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 est un modèle de langage de pointe, léger, optimisé pour le codage, les flux de travail dagents et le développement dapplications modernes, offrant des sorties plus claires et concises avec des temps de réponse plus rapides.",
"minimax/minimax-m2.description": "MiniMax-M2 est un modèle performant pour le codage et les tâches dagents dans de nombreux scénarios dingénierie.",
"minimaxai/minimax-m2.description": "MiniMax-M2 est un modèle MoE compact, rapide et économique (230B au total, 10B actifs), conçu pour des performances de haut niveau en codage et agents tout en conservant une forte intelligence générale. Il excelle dans lédition multi-fichiers, les boucles code-exécution-correction, la validation de tests et les chaînes doutils complexes.",
"mistralai/Mistral-7B-v0.1.description": "Mistral 7B est un modèle compact mais performant, idéal pour le traitement par lots et les tâches simples comme la classification et la génération de texte, avec un raisonnement solide.",
"mistralai/Mixtral-8x22B-Instruct-v0.1.description": "Mixtral-8x22B Instruct (141B) est un très grand modèle de langage conçu pour les charges de travail intensives.",
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46,7B) offre une grande capacité pour le traitement de données à grande échelle.",
@ -891,8 +909,6 @@
"qianfan-8b.description": "Qianfan 8B est un modèle général de taille moyenne équilibrant coût et qualité pour la génération de texte et les questions-réponses.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K est conçu pour la reconnaissance d'intention et l'orchestration d'agents avec un support de contexte étendu.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K est un modèle d'agent léger pour des dialogues multi-tours à faible coût et des flux de travail simples.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K est un modèle d'agent à haut débit pour des applications d'agents multitâches à grande échelle.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K est un modèle d'agent à haute concurrence pour des conversations courtes à moyennes avec des réponses rapides.",
"qianfan-check-vl.description": "Qianfan Check VL est un modèle de révision de contenu multimodal pour les tâches de conformité et de reconnaissance image-texte.",
"qianfan-composition.description": "Qianfan Composition est un modèle de création multimodale pour la compréhension et la génération combinées d'image et de texte.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL est un modèle de reconnaissance multimodale axé sur les scénarios en anglais.",
@ -960,7 +976,6 @@
"qwen3-14b.description": "Qwen3 14B est un modèle de taille moyenne pour les questions-réponses multilingues et la génération de texte.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 est un modèle instruct phare pour une large gamme de tâches de génération et de raisonnement.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 est un modèle de raisonnement ultra-large pour les tâches complexes.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B est un modèle général de grande taille pour les tâches complexes.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 est un modèle instruct de taille moyenne à grande pour une génération et des réponses de haute qualité.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 est un modèle de raisonnement équilibrant précision et coût.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B est un modèle général de taille moyenne à grande, équilibrant coût et qualité.",
@ -1005,9 +1020,6 @@
"tts-1.description": "Le dernier modèle de synthèse vocale optimisé pour la vitesse en temps réel.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) est ajusté pour les tâches dinstruction précises avec de solides performances linguistiques.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet redéfinit les standards de lindustrie, surpassant ses concurrents et Claude 3 Opus dans de nombreuses évaluations tout en conservant une vitesse et un coût intermédiaires.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet est le modèle nouvelle génération le plus rapide dAnthropic. Par rapport à Claude 3 Haiku, il améliore toutes les compétences et dépasse lancien modèle phare Claude 3 Opus sur de nombreux benchmarks dintelligence.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 est le modèle Haiku le plus rapide et le plus intelligent dAnthropic, avec une vitesse fulgurante et une capacité de réflexion étendue.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 est à ce jour le modèle le plus intelligent dAnthropic.",
"v0-1.0-md.description": "v0-1.0-md est un modèle hérité accessible via lAPI v0.",
"v0-1.5-lg.description": "v0-1.5-lg est adapté aux tâches avancées de réflexion ou de raisonnement.",
"v0-1.5-md.description": "v0-1.5-md est adapté aux tâches quotidiennes et à la génération dinterfaces utilisateur.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} paramètres au total",
"arguments.title": "Arguments",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obtenir les modèles disponibles",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obtenir les Compétences disponibles",

View file

@ -29,6 +29,7 @@
"internlm.description": "Une organisation open source axée sur la recherche et les outils pour les grands modèles, offrant une plateforme efficace et accessible pour les modèles et algorithmes de pointe.",
"jina.description": "Fondée en 2020, Jina AI est une entreprise leader en IA de recherche. Sa pile technologique comprend des modèles vectoriels, des rerankers et de petits modèles linguistiques pour créer des applications de recherche générative et multimodale fiables et de haute qualité.",
"lmstudio.description": "LM Studio est une application de bureau pour développer et expérimenter avec des LLMs sur votre ordinateur.",
"lobehub.description": "LobeHub Cloud utilise les API officielles pour accéder aux modèles d'IA et mesure l'utilisation à l'aide de Crédits liés aux jetons des modèles.",
"minimax.description": "Fondée en 2021, MiniMax développe une IA généraliste avec des modèles fondamentaux multimodaux, incluant des modèles texte MoE à un billion de paramètres, des modèles vocaux et visuels, ainsi que des applications comme Hailuo AI.",
"mistral.description": "Mistral propose des modèles avancés généralistes, spécialisés et de recherche pour le raisonnement complexe, les tâches multilingues et la génération de code, avec appels de fonctions pour des intégrations personnalisées.",
"modelscope.description": "ModelScope est la plateforme de modèles en tant que service d'Alibaba Cloud, offrant un large éventail de modèles d'IA et de services d'inférence.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Registrati ora",
"betterAuth.signin.socialError": "Accesso social non riuscito, riprova",
"betterAuth.signin.socialOnlyHint": "Questa email è stata registrata tramite un account social di terze parti. Accedi con quel provider oppure",
"betterAuth.signin.ssoOnlyNoProviders": "La registrazione via email è disabilitata e non sono configurati provider SSO. Contatta l'amministratore.",
"betterAuth.signin.submit": "Accedi",
"betterAuth.signup.confirmPasswordPlaceholder": "Conferma la tua password",
"betterAuth.signup.emailPlaceholder": "Inserisci il tuo indirizzo email",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Visualizza dettagli",
"clearCurrentMessages": "Cancella i messaggi della sessione corrente",
"compressedHistory": "Cronologia compressa",
"compression.cancel": "Decomprimi",
"compression.cancelConfirm": "Sei sicuro di voler decomprimere? Questo ripristinerà i messaggi originali.",
"compression.history": "Cronologia",
"compression.summary": "Riepilogo",
"confirmClearCurrentMessages": "Stai per cancellare i messaggi della sessione corrente. Una volta cancellati, non potranno essere recuperati. Confermi l'operazione?",
@ -58,6 +60,10 @@
"emptyAgentAction": "Crea Agente",
"extendParams.disableContextCaching.desc": "Riduce fino al 90% il costo di generazione di una singola conversazione e aumenta la velocità fino a 4 volte. L'attivazione disabilita automaticamente il limite sul numero di messaggi storici. <1>Scopri di più</1>",
"extendParams.disableContextCaching.title": "Abilita Cache del Contesto",
"extendParams.effort.desc": "Controlla quanti token utilizza Claude nelle risposte tramite il parametro di impegno.",
"extendParams.effort.title": "Impegno",
"extendParams.enableAdaptiveThinking.desc": "Consenti a Claude di decidere dinamicamente quando e quanto riflettere con la modalità di pensiero adattivo.",
"extendParams.enableAdaptiveThinking.title": "Abilita Pensiero Adattivo",
"extendParams.enableReasoning.desc": "Basato sul limite del meccanismo di pensiero Claude, l'attivazione disabilita automaticamente il limite sul numero di messaggi storici. <1>Scopri di più</1>",
"extendParams.enableReasoning.title": "Abilita Pensiero Profondo",
"extendParams.imageAspectRatio.title": "Proporzioni Immagine",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Nessun gruppo di agenti forkati",
"user.noForkedAgents": "Nessun agente forkato",
"user.publishedAgents": "Agenti Creati",
"user.publishedGroups": "Gruppi Creati",
"user.searchPlaceholder": "Cerca per nome o descrizione...",
"user.statusFilter.all": "Tutti",
"user.statusFilter.archived": "Archiviati",
"user.statusFilter.deprecated": "Obsoleti",
"user.statusFilter.favorite": "Preferiti",
"user.statusFilter.forked": "Duplicati",
"user.statusFilter.published": "Pubblicati",
"user.statusFilter.unpublished": "In Revisione",
"user.tabs.favorites": "Preferiti",
"user.tabs.forkedAgents": "Forkati",
"user.tabs.publishedAgents": "Creati",

View file

@ -150,6 +150,7 @@
"upload.desc": "Dettagli: {{detail}}",
"upload.fileOnlySupportInServerMode": "La modalità di distribuzione attuale non supporta il caricamento di file non immagine. Per caricare file in formato {{ext}}, passa alla modalità server o usa il servizio {{cloud}}.",
"upload.networkError": "Controlla la connessione di rete e assicurati che la configurazione CORS del servizio di archiviazione sia corretta.",
"upload.storageLimitExceeded": "Lo spazio di archiviazione dei tuoi file ha raggiunto il limite previsto dal piano. Aggiorna il tuo piano oppure elimina i file non utilizzati per liberare spazio.",
"upload.title": "Caricamento file fallito. Controlla la connessione o riprova più tardi.",
"upload.unknownError": "Motivo dell'errore: {{reason}}",
"upload.uploadFailed": "Caricamento file fallito."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Nome visualizzato del modello",
"providerModels.item.modelConfig.extendParams.extra": "Scegli i parametri estesi supportati dal modello. Passa il mouse su un'opzione per visualizzare l'anteprima dei controlli. Configurazioni errate possono causare errori nella richiesta.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Per i modelli Claude; può ridurre i costi e velocizzare le risposte.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Per Claude Opus 4.6; controlla il livello di impegno (basso/medio/alto/massimo).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Per Claude Opus 4.6; attiva o disattiva il pensiero adattivo.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Per Claude, DeepSeek e altri modelli di ragionamento; abilita un pensiero più profondo.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Per la serie GPT-5; controlla l'intensità del ragionamento.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Per la serie GPT-5.1; controlla l'intensità del ragionamento.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Nuovo modello di ragionamento proprietario con 80K chain-of-thought e 1M di input, con prestazioni comparabili ai migliori modelli globali.",
"MiniMax-M2-Stable.description": "Progettato per flussi di lavoro di codifica e agenti efficienti, con maggiore concorrenza per l'uso commerciale.",
"MiniMax-M2.1-Lightning.description": "Potenti capacità di programmazione multilingue e un'esperienza di sviluppo completamente rinnovata. Più veloce ed efficiente.",
"MiniMax-M2.1.description": "Potenti capacità di programmazione multilingue e un'esperienza di sviluppo completamente rinnovata",
"MiniMax-M2.1.description": "MiniMax-M2.1 è un modello open-source di punta di MiniMax, progettato per affrontare compiti complessi del mondo reale. I suoi punti di forza principali sono le capacità di programmazione multilingue e la risoluzione di compiti complessi come agente.",
"MiniMax-M2.description": "Progettato specificamente per una programmazione efficiente e flussi di lavoro con agenti",
"MiniMax-Text-01.description": "MiniMax-01 introduce l'attenzione lineare su larga scala oltre i Transformer classici, con 456B parametri e 45,9B attivati per passaggio. Raggiunge prestazioni di alto livello e supporta fino a 4M token di contesto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 è un modello di ragionamento ibrido su larga scala con pesi open, 456B parametri totali e ~45,9B attivi per token. Supporta nativamente 1M di contesto e utilizza Flash Attention per ridurre i FLOPs del 75% nella generazione di 100K token rispetto a DeepSeek R1. Con architettura MoE, CISPO e addestramento RL ibrido, raggiunge prestazioni leader su ragionamento con input lunghi e compiti reali di ingegneria del software.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1T parametri totali con 32B attivi. Tra i modelli non pensanti, è tra i migliori per conoscenze avanzate, matematica e programmazione, ed è più forte nei compiti generali da agente. Ottimizzato per carichi di lavoro da agente, può eseguire azioni, non solo rispondere a domande. Ideale per conversazioni improvvisate, chat generali e esperienze da agente, come modello reattivo senza riflessione prolungata.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7B) è un modello ad alta precisione per istruzioni complesse e calcoli avanzati.",
"OmniConsistency.description": "OmniConsistency migliora la coerenza stilistica e la generalizzazione nei compiti immagine-a-immagine introducendo Diffusion Transformers (DiTs) su larga scala e dati stilizzati accoppiati, evitando il degrado dello stile.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 è una versione aggiornata della serie PaddleOCR-VL, che raggiunge un'accuratezza del 94,5% nel benchmark di parsing documentale OmniDocBench v1.5, superando i principali modelli generali e specializzati. Supporta in modo innovativo la localizzazione di riquadri irregolari per elementi documentali, gestendo efficacemente immagini scansionate, inclinate e catturate da schermo.",
"Phi-3-medium-128k-instruct.description": "Lo stesso modello Phi-3-medium con una finestra contestuale più ampia per prompt RAG o few-shot.",
"Phi-3-medium-4k-instruct.description": "Un modello da 14B parametri con qualità superiore rispetto a Phi-3-mini, focalizzato su dati di alta qualità e ad alta intensità di ragionamento.",
"Phi-3-mini-128k-instruct.description": "Lo stesso modello Phi-3-mini con una finestra contestuale più ampia per prompt RAG o few-shot.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 è un modello MoE da 671B parametri che utilizza MLA e DeepSeekMoE con bilanciamento del carico senza perdite per un'inferenza e addestramento efficienti. Preaddestrato su 14,8T token di alta qualità e ulteriormente ottimizzato con SFT e RL, supera altri modelli open-source e si avvicina ai modelli chiusi leader.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente di Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Le caratteristiche principali includono un'intelligenza di codifica agentica più forte con miglioramenti significativi nei benchmark e nei compiti reali da agente, oltre a una migliore estetica e usabilità del codice frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo è la variante Turbo ottimizzata per velocità di ragionamento e throughput, mantenendo il ragionamento multi-step e l'uso di strumenti di K2 Thinking. È un modello MoE con ~1T parametri totali, contesto nativo da 256K e chiamata stabile di strumenti su larga scala per scenari di produzione con requisiti più severi di latenza e concorrenza.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 è un modello agente multimodale nativo open-source, basato su Kimi-K2-Base, addestrato su circa 1,5 trilioni di token misti visivi e testuali. Il modello adotta un'architettura MoE con 1T di parametri totali e 32B attivi, supporta una finestra di contesto di 256K e integra perfettamente le capacità di comprensione visiva e linguistica.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 è il modello di punta di nuova generazione di Zhipu, con 355 miliardi di parametri totali e 32 miliardi di parametri attivi, completamente aggiornato nelle capacità di dialogo generale, ragionamento e agenti. GLM-4.7 migliora il Pensiero Intercalato e introduce il Pensiero Conservato e il Pensiero a Livello di Turno.",
"QwQ-32B-Preview.description": "Qwen QwQ è un modello di ricerca sperimentale focalizzato sul miglioramento del ragionamento.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview è un modello di ricerca del team Qwen focalizzato sul ragionamento visivo, con punti di forza nella comprensione di scene complesse e nella risoluzione di problemi visivi di matematica.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic. Rispetto a Claude 3 Haiku, migliora in tutte le competenze e supera il precedente modello di punta Claude 3 Opus in numerosi benchmark di intelligenza.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in tutte le competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in molti benchmark.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku fornisce risposte rapide per attività leggere.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato. È in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo visibili all'utente. Sonnet è particolarmente forte nella programmazione, data science, visione e compiti agentici.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 è il modello più intelligente di Anthropic e il primo modello di ragionamento ibrido sul mercato, in grado di fornire risposte quasi istantanee o riflessioni prolungate con controllo fine-granulare.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku è il modello più veloce e compatto di Anthropic, progettato per risposte quasi istantanee con prestazioni rapide e accurate.",
"claude-3-opus-20240229.description": "Claude 3 Opus è il modello più potente di Anthropic per compiti altamente complessi, eccellendo in prestazioni, intelligenza, fluidità e comprensione.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet bilancia intelligenza e velocità per carichi di lavoro aziendali, offrendo alta utilità a costi inferiori e distribuzione affidabile su larga scala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di ragionamento esteso.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 è il modello Haiku più veloce e intelligente di Anthropic, con velocità fulminea e capacità di pensiero esteso.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking è una variante avanzata in grado di mostrare il proprio processo di ragionamento.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è il modello più recente e avanzato di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 è l'ultimo e più avanzato modello di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-20250514.description": "Claude Opus 4 è il modello più potente di Anthropic per compiti altamente complessi, eccellente in prestazioni, intelligenza, fluidità e comprensione.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili, ideale per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"claude-opus-4-6.description": "Claude Opus 4.6 è il modello più intelligente di Anthropic per la creazione di agenti e la programmazione.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking può produrre risposte quasi istantanee o riflessioni estese passo dopo passo con processo visibile.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è in grado di fornire risposte quasi istantanee o ragionamenti dettagliati passo dopo passo con processo visibile.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente mai realizzato da Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 è il modello più intelligente di Anthropic fino ad oggi, offre risposte quasi istantanee o pensiero passo-passo esteso con controllo fine-granulare per gli utenti API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 è il modello più intelligente di Anthropic fino ad oggi.",
"codegeex-4.description": "CodeGeeX-4 è un potente assistente di codifica AI che supporta Q&A multilingue e completamento del codice per aumentare la produttività degli sviluppatori.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B è un modello multilingue di generazione di codice che supporta completamento e generazione di codice, interprete di codice, ricerca web, chiamata di funzioni e Q&A a livello di repository, coprendo un'ampia gamma di scenari di sviluppo software. È un modello di codice di alto livello con meno di 10B parametri.",
"codegemma.description": "CodeGemma è un modello leggero per compiti di programmazione vari, che consente iterazioni rapide e facile integrazione.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
"deepseek-chat.description": "Un nuovo modello open-source che combina capacità generali e di programmazione. Mantiene il dialogo generale del modello conversazionale e la forte capacità di codifica del modello per programmatori, con un migliore allineamento alle preferenze. DeepSeek-V2.5 migliora anche la scrittura e il rispetto delle istruzioni.",
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza dell'output per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli GPT-5 ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni open-source degli agenti.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 è un modello MoE open-source per il codice che ottiene ottimi risultati nei compiti di programmazione, comparabile a GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 versione completa veloce con ricerca web in tempo reale, che combina capacità su scala 671B e risposte rapide.",
"deepseek-r1-online.description": "DeepSeek R1 versione completa con 671 miliardi di parametri e ricerca web in tempo reale, che offre una comprensione e generazione più avanzate.",
"deepseek-r1.description": "DeepSeek-R1 utilizza dati cold-start prima dell'RL e ottiene prestazioni comparabili a OpenAI-o1 in matematica, programmazione e ragionamento.",
"deepseek-reasoner.description": "La modalità di pensiero DeepSeek V3.2 produce una catena di pensieri prima della risposta finale per migliorare l'accuratezza.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking è un modello di ragionamento profondo che genera catene di pensiero prima degli output per una maggiore accuratezza, con risultati di alto livello e ragionamento comparabile a Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 è un modello MoE efficiente per un'elaborazione conveniente.",
"deepseek-v2:236b.description": "DeepSeek V2 236B è il modello DeepSeek focalizzato sul codice con forte capacità di generazione.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 è un modello MoE con 671 miliardi di parametri, con punti di forza nella programmazione, capacità tecnica, comprensione del contesto e gestione di testi lunghi.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview è unanteprima del modello per la creazione di personaggi e trame, utile per valutazioni e test di funzionalità.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K è un modello con personalità per romanzi e creazione di trame, adatto alla generazione di storie di lunga durata.",
"ernie-irag-edit.description": "ERNIE iRAG Edit è un modello per lediting di immagini che supporta cancellazione, ritocco e generazione di varianti.",
"ernie-lite-8k.description": "ERNIE Lite 8K è un modello generale leggero per domande e risposte quotidiane e generazione di contenuti sensibili ai costi.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K è un modello leggero ad alte prestazioni per scenari sensibili a latenza e costi.",
"ernie-novel-8k.description": "ERNIE Novel 8K è progettato per romanzi lunghi e trame IP con narrazioni multi-personaggio.",
"ernie-speed-128k.description": "ERNIE Speed 128K è un modello senza costi di I/O per la comprensione di testi lunghi e prove su larga scala.",
"ernie-speed-8k.description": "ERNIE Speed 8K è un modello gratuito e veloce per chat quotidiane e compiti testuali leggeri.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K è un modello ad alto valore e alta concorrenza per servizi online su larga scala e applicazioni aziendali.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K è un modello ultra-leggero per domande semplici, classificazione e inferenza a basso costo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è unanteprima del modello di pensiero per valutazioni e test.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input testuali e visivi con generazione di immagini di alta qualità e altamente controllabile. Genera immagini a partire da prompt testuali.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Offre coerenza del soggetto migliorata, esecuzione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout per poster e design di loghi con rendering testo-immagine ad alta precisione.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input testuali e visivi per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sullediting di immagini, che supporta input di testo e immagini.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accetta testo e immagini di riferimento come input, consentendo modifiche locali mirate e trasformazioni complesse della scena globale.",
"fal-ai/flux/krea.description": "Flux Krea [dev] è un modello di generazione di immagini con una preferenza estetica per immagini più realistiche e naturali.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Un potente modello nativo multimodale per la generazione di immagini.",
"fal-ai/imagen4/preview.description": "Modello di generazione di immagini di alta qualità sviluppato da Google.",
"fal-ai/nano-banana.description": "Nano Banana è il modello multimodale nativo più recente, veloce ed efficiente di Google, che consente la generazione e lediting di immagini tramite conversazione.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen che supporta modifiche semantiche e visive, modifica con precisione testi in cinese e inglese, e consente modifiche di alta qualità come trasferimento di stile e rotazione di oggetti.",
"fal-ai/qwen-image.description": "Un potente modello di generazione di immagini del team Qwen con eccellente resa del testo cinese e stili visivi diversificati.",
"fal-ai/qwen-image-edit.description": "Un modello professionale di editing immagini del team Qwen, che supporta modifiche semantiche e di aspetto, editing preciso di testo in cinese/inglese, trasferimento di stile, rotazione e altro.",
"fal-ai/qwen-image.description": "Un potente modello di generazione immagini del team Qwen con forte rendering del testo cinese e stili visivi diversificati.",
"flux-1-schnell.description": "Modello testo-immagine da 12 miliardi di parametri di Black Forest Labs che utilizza la distillazione latente avversariale per generare immagini di alta qualità in 1-4 passaggi. Con licenza Apache-2.0 per uso personale, di ricerca e commerciale.",
"flux-dev.description": "FLUX.1 [dev] è un modello distillato a pesi aperti per uso non commerciale. Mantiene una qualità dimmagine quasi professionale e capacità di seguire istruzioni, con maggiore efficienza rispetto ai modelli standard di pari dimensioni.",
"flux-kontext-max.description": "Generazione ed editing di immagini contestuali allavanguardia, combinando testo e immagini per risultati precisi e coerenti.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro supporta fino a 2 milioni di token, un modello multimodale di medie dimensioni ideale per compiti complessi.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
"gemini-2.0-flash-exp-image-generation.description": "Modello sperimentale Gemini 2.0 Flash con supporto alla generazione di immagini.",
"gemini-2.0-flash-exp.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
"gemini-2.0-flash-lite-001.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
"gemini-2.0-flash-lite.description": "Una variante di Gemini 2.0 Flash ottimizzata per efficienza dei costi e bassa latenza.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash offre funzionalità di nuova generazione tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
"gemini-2.5-flash-image-preview.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e l'editing di immagini in conversazione.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e l'editing di immagini in conversazione.",
"gemini-2.5-flash-image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
"gemini-2.5-flash-image:image.description": "Nano Banana è il più recente, veloce ed efficiente modello multimodale nativo di Google, che consente la generazione e modifica di immagini in conversazione.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview è il modello più piccolo e conveniente di Google, progettato per luso su larga scala.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
"gemini-3-flash-preview.description": "Gemini 3 Flash è il modello più intelligente progettato per la velocità, che combina intelligenza all'avanguardia con un eccellente ancoraggio alla ricerca.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche chat multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
"gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "La serie GLM-Z1 eccelle nel ragionamento complesso, con prestazioni elevate in logica, matematica e programmazione.",
"glm-z1-flashx.description": "Veloce ed economico: versione Flash con ragionamento ultra-rapido e maggiore concorrenza.",
"glm-zero-preview.description": "GLM-Zero-Preview offre un ragionamento complesso avanzato, eccellendo in logica, matematica e programmazione.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che unisce intelligenza eccezionale e prestazioni scalabili per compiti complessi che richiedono risposte e ragionamenti di altissima qualità.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 è il modello di punta di Anthropic, che combina intelligenza eccezionale e prestazioni scalabili per compiti complessi che richiedono risposte e ragionamenti della massima qualità.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash offre capacità di nuova generazione, tra cui velocità eccezionale, uso nativo di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental è il più recente modello multimodale sperimentale di Google, con miglioramenti qualitativi rispetto alle versioni precedenti, in particolare in conoscenza del mondo, codice e contesto esteso.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite è una variante leggera di Gemini con il ragionamento disattivato per impostazione predefinita per migliorare latenza e costi, ma può essere attivato tramite parametri.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite offre funzionalità di nuova generazione tra cui velocità eccezionale, uso integrato di strumenti, generazione multimodale e una finestra di contesto da 1 milione di token.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash è il modello di ragionamento ad alte prestazioni di Google per compiti multimodali estesi.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Variante K2 long-thinking ad alta velocità con contesto da 256k, ragionamento profondo avanzato e output da 60100 token/sec.",
"kimi-k2-thinking.description": "kimi-k2-thinking è un modello di ragionamento di Moonshot AI con capacità generali di agenti e ragionamento. Eccelle nel ragionamento profondo e può risolvere problemi complessi tramite l'uso di strumenti multi-step.",
"kimi-k2-turbo-preview.description": "kimi-k2 è un modello base MoE con forti capacità di programmazione e agenti (1T di parametri totali, 32B attivi), che supera altri modelli open-source mainstream nei benchmark di ragionamento, programmazione, matematica e agenti.",
"kimi-k2.5.description": "Kimi K2.5 è il modello Kimi più avanzato, che offre prestazioni SOTA open-source in compiti da agente, programmazione e comprensione visiva. Supporta input multimodali e modalità con o senza pensiero.",
"kimi-k2.description": "Kimi-K2 è un modello base MoE di Moonshot AI con forti capacità di programmazione e agenti, per un totale di 1T di parametri con 32B attivi. Nei benchmark per ragionamento generale, programmazione, matematica e compiti agentici, supera altri modelli open-source mainstream.",
"kimi-k2:1t.description": "Kimi K2 è un grande LLM MoE di Moonshot AI con 1T di parametri totali e 32B attivi per passaggio. È ottimizzato per capacità agentiche tra cui uso avanzato di strumenti, ragionamento e sintesi di codice.",
"kimi-latest.description": "Kimi Latest utilizza il modello Kimi più recente e può includere funzionalità sperimentali. Supporta la comprensione delle immagini e seleziona automaticamente i modelli di fatturazione 8k/32k/128k in base alla lunghezza del contesto.",
@ -821,6 +822,9 @@
"meta-llama/llama-3.3-70b-instruct.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
"meta-llama/llama-3.3-70b-instruct:free.description": "Llama 3.3 è il modello Llama open source multilingue più avanzato, con prestazioni vicine a quelle dei modelli da 405B a costi molto contenuti. Basato su Transformer, è migliorato con SFT e RLHF per utilità e sicurezza. La versione ottimizzata per istruzioni è pensata per chat multilingue e supera molti modelli open e closed nei benchmark di settore. Data di cutoff: dicembre 2023.",
"meta.llama3-1-405b-instruct-v1:0.description": "Meta Llama 3.1 405B Instruct è il modello Llama 3.1 Instruct più grande e potente, altamente avanzato per il ragionamento dialogico e la generazione di dati sintetici, e una solida base per pretraining o fine-tuning specifici per dominio. I LLM multilingue Llama 3.1 sono una serie di modelli di generazione preaddestrati e ottimizzati per le istruzioni in versioni da 8B, 70B e 405B (input/output testuale). I modelli ottimizzati per le istruzioni sono progettati per dialoghi multilingue e superano molti modelli open chat disponibili nei benchmark industriali. Llama 3.1 è pensato per l'uso commerciale e di ricerca in più lingue. I modelli ottimizzati per le istruzioni sono adatti a chat in stile assistente, mentre i modelli preaddestrati si adattano a compiti più generali di generazione linguistica. Gli output di Llama 3.1 possono anche essere utilizzati per migliorare altri modelli, inclusa la generazione e il perfezionamento di dati sintetici. Llama 3.1 è un modello Transformer autoregressivo con architettura ottimizzata. Le versioni ottimizzate utilizzano fine-tuning supervisionato (SFT) e apprendimento per rinforzo con feedback umano (RLHF) per allinearsi alle preferenze umane in termini di utilità e sicurezza.",
"meta.llama3-1-70b-instruct-v1:0.description": "Meta Llama 3.1 70B Instruct aggiornato con una finestra di contesto estesa a 128K, supporto multilingue e ragionamento migliorato. I modelli Llama 3.1 multilingue sono pre-addestrati e ottimizzati per la generazione in 8B, 70B e 405B. I modelli ottimizzati per istruzioni sono ideali per chat in stile assistente, mentre i modelli pre-addestrati si adattano a compiti generali di generazione linguistica. I risultati possono anche migliorare altri modelli, inclusa la generazione e il perfezionamento di dati sintetici. Llama 3.1 è un modello Transformer autoregressivo con architettura ottimizzata. Le versioni ottimizzate usano SFT e RLHF per allinearsi alle preferenze umane in termini di utilità e sicurezza.",
"meta.llama3-1-8b-instruct-v1:0.description": "Meta Llama 3.1 8B Instruct aggiornato con finestra di contesto da 128K, supporto multilingue e ragionamento migliorato. La famiglia Llama 3.1 include modelli ottimizzati per istruzioni da 8B, 70B e 405B, ideali per chat multilingue e prestazioni elevate nei benchmark. Progettato per uso commerciale e di ricerca in più lingue. I risultati possono migliorare altri modelli (es. dati sintetici). È un modello Transformer autoregressivo, con SFT e RLHF per allineamento a utilità e sicurezza.",
"meta.llama3-70b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source per sviluppatori, ricercatori e aziende, progettato per costruire, sperimentare e scalare responsabilmente idee di IA generativa. Parte della base per l'innovazione della comunità globale, è adatto per creazione di contenuti, IA conversazionale, comprensione linguistica, R&S e applicazioni aziendali.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 è un LLM open-source pensato per sviluppatori, ricercatori e aziende, progettato per supportare la creazione, la sperimentazione e la scalabilità responsabile di idee basate su IA generativa. Parte integrante dellecosistema globale per linnovazione comunitaria, è ideale per ambienti con risorse limitate, dispositivi edge e tempi di addestramento ridotti.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Solido ragionamento visivo su immagini ad alta risoluzione, ideale per applicazioni di comprensione visiva.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Ragionamento visivo avanzato per applicazioni agenti di comprensione visiva.",
@ -849,6 +853,9 @@
"meta/llama-3.3-70b.description": "Un perfetto equilibrio tra prestazioni ed efficienza. Progettato per IA conversazionale ad alte prestazioni in creazione di contenuti, applicazioni aziendali e ricerca, con forte comprensione linguistica per sintesi, classificazione, analisi del sentiment e generazione di codice.",
"meta/llama-4-maverick.description": "La famiglia Llama 4 è una serie di modelli AI nativamente multimodali che supportano esperienze testuali e multimodali, utilizzando MoE per una comprensione avanzata di testo e immagini. Llama 4 Maverick è un modello da 17B con 128 esperti, distribuito da DeepInfra.",
"meta/llama-4-scout.description": "La famiglia Llama 4 è una serie di modelli AI nativamente multimodali che supportano esperienze testuali e multimodali, utilizzando MoE per una comprensione avanzata di testo e immagini. Llama 4 Scout è un modello da 17B con 16 esperti, distribuito da DeepInfra.",
"microsoft/Phi-3-medium-128k-instruct.description": "Lo stesso modello Phi-3-medium con una finestra di contesto più ampia per prompt RAG o few-shot.",
"microsoft/Phi-3-medium-4k-instruct.description": "Un modello da 14B parametri con qualità superiore rispetto a Phi-3-mini, focalizzato su dati di alta qualità e intensivi in ragionamento.",
"microsoft/Phi-3-mini-128k-instruct.description": "Lo stesso modello Phi-3-mini con una finestra di contesto più ampia per prompt RAG o few-shot.",
"microsoft/Phi-3-mini-4k-instruct.description": "Il membro più piccolo della famiglia Phi-3, ottimizzato per qualità e bassa latenza.",
"microsoft/Phi-3-small-128k-instruct.description": "Lo stesso modello Phi-3-small con una finestra contestuale più ampia per RAG o prompt few-shot.",
"microsoft/Phi-3-small-8k-instruct.description": "Un modello da 7 miliardi di parametri con qualità superiore rispetto a Phi-3-mini, focalizzato su dati di alta qualità e ad alta intensità di ragionamento.",
@ -856,7 +863,11 @@
"microsoft/Phi-3.5-vision-instruct.description": "Una versione aggiornata del modello Phi-3-vision.",
"microsoft/WizardLM-2-8x22B.description": "WizardLM 2 è un modello linguistico di Microsoft AI eccellente nei dialoghi complessi, nei compiti multilingue, nel ragionamento e negli assistenti.",
"microsoft/wizardlm-2-8x22b.description": "WizardLM-2 8x22B è il modello Wizard più avanzato di Microsoft AI, con prestazioni altamente competitive.",
"mimo-v2-flash.description": "MiMo-V2-Flash: un modello efficiente per ragionamento, programmazione e basi per agenti.",
"minicpm-v.description": "MiniCPM-V è il modello multimodale di nuova generazione di OpenBMB, con eccellenti capacità OCR e comprensione multimodale per un'ampia gamma di casi d'uso.",
"minimax-m2.1.description": "MiniMax-M2.1 è l'ultima versione della serie MiniMax, ottimizzata per la programmazione multilingue e compiti complessi del mondo reale. Come modello nativo IA, MiniMax-M2.1 offre miglioramenti significativi in prestazioni, supporto per framework agentici e adattamento a scenari multipli, con l'obiettivo di aiutare aziende e individui a trovare più rapidamente uno stile di vita e lavoro nativo IA.",
"minimax-m2.description": "MiniMax M2 è un modello linguistico di grandi dimensioni efficiente, costruito specificamente per la programmazione e i flussi di lavoro degli agenti.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 è un modello linguistico di grandi dimensioni all'avanguardia e leggero, ottimizzato per la programmazione, i flussi di lavoro proxy e lo sviluppo di applicazioni moderne, offrendo output più puliti e concisi e tempi di risposta percettiva più rapidi.",
"minimax/minimax-m2.description": "MiniMax-M2 è un modello ad alto valore che eccelle nella codifica e nei compiti per agenti in molti scenari ingegneristici.",
"minimaxai/minimax-m2.description": "MiniMax-M2 è un modello MoE compatto, veloce ed economico (230B totali, 10B attivi) progettato per prestazioni di alto livello nella codifica e nei compiti per agenti, mantenendo una forte intelligenza generale. Eccelle in modifiche multi-file, cicli di esecuzione-correzione del codice, validazione dei test e catene di strumenti complesse.",
"ministral-3b-latest.description": "Ministral 3B è il modello edge di punta di Mistral.",
@ -894,6 +905,42 @@
"mistralai/Mixtral-8x7B-Instruct-v0.1.description": "Mixtral-8x7B Instruct (46.7B) offre alta capacità per l'elaborazione di dati su larga scala.",
"mistralai/Mixtral-8x7B-v0.1.description": "Mixtral 8x7B è un modello MoE sparso che aumenta la velocità di inferenza, adatto a compiti multilingue e generazione di codice.",
"mistralai/mistral-nemo.description": "Mistral Nemo è un modello da 7.3B con supporto multilingue e forti prestazioni nella codifica.",
"mixtral-8x7b-32768.description": "Mixtral 8x7B fornisce calcolo parallelo tollerante ai guasti per compiti complessi.",
"mixtral.description": "Mixtral è il modello MoE di Mistral AI con pesi open-source, che supporta la generazione di codice e la comprensione linguistica.",
"mixtral:8x22b.description": "Mixtral è il modello MoE di Mistral AI con pesi open-source, che supporta la generazione di codice e la comprensione linguistica.",
"moonshot-v1-128k-vision-preview.description": "I modelli visivi Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) comprendono contenuti visivi come testo, colori e forme degli oggetti.",
"moonshot-v1-128k.description": "Moonshot V1 128K offre un contesto ultra-lungo per la generazione di testi molto estesi, gestendo fino a 128.000 token per scenari di ricerca, accademici e documenti di grandi dimensioni.",
"moonshot-v1-32k-vision-preview.description": "I modelli visivi Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) comprendono contenuti visivi come testo, colori e forme degli oggetti.",
"moonshot-v1-32k.description": "Moonshot V1 32K supporta 32.768 token per contesti di media lunghezza, ideale per documenti lunghi e dialoghi complessi in creazione di contenuti, report e sistemi di chat.",
"moonshot-v1-8k-vision-preview.description": "I modelli visivi Kimi (inclusi moonshot-v1-8k-vision-preview/moonshot-v1-32k-vision-preview/moonshot-v1-128k-vision-preview) comprendono contenuti visivi come testo, colori e forme degli oggetti.",
"moonshot-v1-8k.description": "Moonshot V1 8K è ottimizzato per la generazione di testi brevi con prestazioni efficienti, gestendo 8.192 token per chat brevi, appunti e contenuti rapidi.",
"moonshot-v1-auto.description": "Moonshot V1 Auto seleziona automaticamente il modello più adatto in base all'utilizzo corrente dei token di contesto.",
"moonshotai/Kimi-Dev-72B.description": "Kimi-Dev-72B è un LLM open-source per il codice, ottimizzato con RL su larga scala per generare patch robuste e pronte per la produzione. Ottiene un punteggio del 60,4% su SWE-bench Verified, stabilendo un nuovo record tra i modelli open-source per attività di ingegneria del software automatizzata come la correzione di bug e la revisione del codice.",
"moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 è la versione più recente e potente della serie Kimi K2. È un modello MoE di fascia alta con 1T di parametri totali e 32B attivi. Tra le caratteristiche principali: maggiore intelligenza agentica nella programmazione, miglioramenti significativi nei benchmark e nei compiti reali per agenti, oltre a un'estetica e usabilità del codice frontend più curate.",
"moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking è il più recente e potente modello open-source per il ragionamento. Estende notevolmente la profondità del ragionamento multi-step e mantiene un uso stabile degli strumenti per 200300 chiamate consecutive, stabilendo nuovi record su Humanity's Last Exam (HLE), BrowseComp e altri benchmark. Eccelle in programmazione, matematica, logica e scenari agentici. Basato su un'architettura MoE con ~1T di parametri totali, supporta una finestra di contesto di 256K e chiamate a strumenti.",
"moonshotai/kimi-k2-0711.description": "Kimi K2 0711 è la variante instruct della serie Kimi, adatta per codice di alta qualità e uso di strumenti.",
"moonshotai/kimi-k2-0905.description": "Kimi K2 0905 è un aggiornamento che migliora le prestazioni di contesto e ragionamento con ottimizzazioni per la programmazione.",
"moonshotai/kimi-k2-instruct-0905.description": "Il modello kimi-k2-0905-preview supporta una finestra di contesto di 256k, con programmazione agentica più avanzata, codice frontend più rifinito e pratico, e una migliore comprensione del contesto.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo è una versione ad alta velocità di Kimi K2 Thinking, che riduce significativamente la latenza mantenendo un ragionamento profondo.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking è il modello di ragionamento di Moonshot ottimizzato per compiti di ragionamento profondo, con capacità agentiche generali.",
"moonshotai/kimi-k2.description": "Kimi K2 è un grande modello MoE di Moonshot AI con 1T di parametri totali e 32B attivi per passaggio, ottimizzato per capacità agentiche tra cui uso avanzato di strumenti, ragionamento e sintesi di codice.",
"morph/morph-v3-fast.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 4500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.",
"morph/morph-v3-large.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 2500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2 con i più recenti dataset sviluppati internamente.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B è un LLM personalizzato da NVIDIA per migliorare l'utilità. Ottiene ottimi risultati su Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di auto-allineamento al 1° ottobre 2024. È addestrato da Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward e prompt HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modello linguistico distintivo che offre precisione ed efficienza eccezionali.",
"nvidia/llama-3.1-nemotron-70b-instruct.description": "Llama-3.1-Nemotron-70B-Instruct è un modello personalizzato da NVIDIA progettato per migliorare l'utilità delle risposte LLM.",
"o1-mini.description": "Più piccolo e veloce di o1-preview, con un costo inferiore dell'80%, eccelle nella generazione di codice e nei compiti a contesto breve.",
"o1-preview.description": "Focalizzato su ragionamento avanzato e risoluzione di problemi complessi, inclusi matematica e scienze. Ideale per applicazioni che richiedono comprensione profonda del contesto e flussi di lavoro autonomi.",
"o1-pro.description": "La serie o1 è addestrata con apprendimento per rinforzo per pensare prima di rispondere e gestire ragionamenti complessi. o1-pro utilizza più risorse computazionali per un pensiero più profondo e risposte di qualità costantemente superiore.",
"o1.description": "o1 è il nuovo modello di ragionamento di OpenAI con input testo+immagine e output testuale, adatto a compiti complessi che richiedono conoscenze ampie. Ha una finestra di contesto di 200K e un cutoff di conoscenza a ottobre 2023.",
"o3-2025-04-16.description": "o3 è il nuovo modello di ragionamento di OpenAI con input testo+immagine e output testuale per compiti complessi che richiedono conoscenze ampie.",
"o3-deep-research.description": "o3-deep-research è il nostro modello più avanzato per ricerca approfondita su compiti multi-step complessi. Può cercare sul web e accedere ai tuoi dati tramite connettori MCP.",
"o3-mini.description": "o3-mini è il nostro ultimo modello di ragionamento compatto, che offre maggiore intelligenza mantenendo gli stessi obiettivi di costo e latenza di o1-mini.",
"o3-pro-2025-06-10.description": "o3 Pro è il nuovo modello di ragionamento di OpenAI con input testo+immagine e output testuale per compiti complessi che richiedono conoscenze ampie.",
"o3-pro.description": "o3-pro utilizza più risorse computazionali per pensare più a fondo e fornire risposte costantemente migliori; disponibile solo tramite l'API Responses.",
"o3.description": "o3 è un modello versatile e potente che stabilisce un nuovo standard per matematica, scienze, programmazione e ragionamento visivo. Eccelle nella scrittura tecnica e nel seguire istruzioni, e può analizzare testo, codice e immagini per problemi multi-step.",
"o4-mini-2025-04-16.description": "o4-mini è un modello di ragionamento OpenAI con input testo+immagine e output testuale, adatto a compiti complessi che richiedono conoscenze ampie, con una finestra di contesto di 200K.",
"o4-mini-deep-research.description": "o4-mini-deep-research è un modello di ricerca approfondita più veloce ed economico per ricerche complesse a più passaggi. Può cercare sul web e accedere ai tuoi dati tramite connettori MCP.",
"o4-mini.description": "o4-mini è l'ultimo modello compatto della serie o, ottimizzato per un ragionamento rapido ed efficace, con alta efficienza nei compiti di programmazione e visione.",
"open-codestral-mamba.description": "Codestral Mamba è un modello linguistico Mamba 2 focalizzato sulla generazione di codice, adatto a compiti avanzati di programmazione e ragionamento.",
@ -918,6 +965,9 @@
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Mini è una versione più piccola e veloce di GPT-5.1-Codex, ideale per scenari di programmazione sensibili a latenza e costi.",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codex è una variante di GPT-5.1 ottimizzata per l'ingegneria del software e i flussi di lavoro di programmazione, adatta a grandi refactoring, debug complessi e compiti autonomi prolungati.",
"openai/gpt-5.1.description": "GPT-5.1 è il nuovo modello di punta della serie GPT-5, con miglioramenti significativi rispetto a GPT-5 nel ragionamento generale, nel seguire istruzioni e nella naturalezza conversazionale, adatto a compiti ampi.",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chat è la variante ChatGPT per sperimentare i più recenti miglioramenti nella conversazione.",
"openai/gpt-5.2-pro.description": "GPT-5.2 Pro: una variante GPT-5.2 più intelligente e precisa (solo tramite Responses API), adatta a problemi complessi e ragionamenti multi-turno estesi.",
"openai/gpt-5.2.description": "GPT-5.2 è un modello di punta per la programmazione e i flussi di lavoro agentici, con ragionamento potenziato e prestazioni su contesti lunghi.",
"openai/gpt-5.description": "GPT-5 è il modello ad alte prestazioni di OpenAI per un'ampia gamma di compiti di produzione e ricerca.",
"openai/gpt-oss-120b.description": "Un LLM generalista altamente capace con ragionamento forte e controllabile.",
"openai/gpt-oss-20b.description": "Un modello linguistico compatto a pesi aperti ottimizzato per bassa latenza e ambienti con risorse limitate, inclusi deployment locali e edge.",
@ -933,6 +983,17 @@
"openai/text-embedding-3-small.description": "Variante migliorata e ad alte prestazioni del modello ada di embedding di OpenAI.",
"openai/text-embedding-ada-002.description": "Modello legacy di embedding testuale di OpenAI.",
"openrouter/auto.description": "In base alla lunghezza del contesto, all'argomento e alla complessità, la tua richiesta viene instradata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderato) o GPT-4o.",
"perplexity/sonar-pro.description": "Il prodotto di punta di Perplexity con ancoraggio alla ricerca, supporta query avanzate e follow-up.",
"perplexity/sonar-reasoning-pro.description": "Un modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) con ricerca migliorata, incluse più query per richiesta.",
"perplexity/sonar-reasoning.description": "Un modello focalizzato sul ragionamento che produce catene di pensiero (CoT) con spiegazioni dettagliate basate sulla ricerca.",
"perplexity/sonar.description": "Il prodotto leggero di Perplexity con ancoraggio alla ricerca, più veloce ed economico rispetto a Sonar Pro.",
"phi3.description": "Phi-3 è il modello open-source leggero di Microsoft per un'integrazione efficiente e ragionamento su larga scala.",
"phi3:14b.description": "Phi-3 è il modello open-source leggero di Microsoft per un'integrazione efficiente e ragionamento su larga scala.",
"pixtral-12b-2409.description": "Pixtral è forte nella comprensione di grafici/immagini, QA su documenti, ragionamento multimodale e seguire istruzioni. Elabora immagini alla risoluzione/aspect ratio nativi e gestisce qualsiasi numero di immagini entro una finestra di contesto di 128K.",
"pixtral-large-latest.description": "Pixtral Large è un modello multimodale open-source da 124B parametri basato su Mistral Large 2, il secondo della nostra famiglia multimodale con comprensione visiva di livello avanzato.",
"pro-128k.description": "Spark Pro 128K offre una capacità di contesto molto ampia, gestendo fino a 128K token, ideale per documenti lunghi che richiedono analisi testuale completa e coerenza a lungo raggio, con logica fluida e supporto a citazioni diversificate in discussioni complesse.",
"pro-deepseek-r1.description": "Modello di servizio dedicato per aziende con concorrenza inclusa.",
"pro-deepseek-v3.description": "Modello di servizio dedicato per aziende con concorrenza inclusa.",
"qwen/qwen2.5-coder-32b-instruct.description": "Un avanzato LLM per la generazione, il ragionamento e la correzione del codice nei principali linguaggi di programmazione.",
"qwen/qwen2.5-coder-7b-instruct.description": "Un solido modello di codice di medie dimensioni con contesto da 32K, eccellente nella programmazione multilingue.",
"qwen/qwen3-14b.description": "Qwen3-14B è la variante da 14B per il ragionamento generale e scenari di chat.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} parametri in totale",
"arguments.title": "Argomenti",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Ottieni modelli disponibili",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Ottieni Competenze disponibili",

View file

@ -29,6 +29,7 @@
"internlm.description": "Un'organizzazione open-source focalizzata sulla ricerca e gli strumenti per modelli di grandi dimensioni, che offre una piattaforma efficiente e facile da usare per rendere accessibili modelli e algoritmi all'avanguardia.",
"jina.description": "Fondata nel 2020, Jina AI è un'azienda leader nell'AI per la ricerca. Il suo stack include modelli vettoriali, reranker e piccoli modelli linguistici per costruire app di ricerca generativa e multimodale affidabili e di alta qualità.",
"lmstudio.description": "LM Studio è un'app desktop per sviluppare e sperimentare con LLM direttamente sul tuo computer.",
"lobehub.description": "LobeHub Cloud utilizza le API ufficiali per accedere ai modelli di intelligenza artificiale e misura l'utilizzo tramite Crediti legati ai token del modello.",
"minimax.description": "Fondata nel 2021, MiniMax sviluppa AI generali con modelli fondamentali multimodali, inclusi modelli testuali MoE da trilioni di parametri, modelli vocali e visivi, oltre ad app come Hailuo AI.",
"mistral.description": "Mistral offre modelli avanzati generali, specializzati e di ricerca per ragionamento complesso, compiti multilingue e generazione di codice, con supporto per chiamate di funzione per integrazioni personalizzate.",
"modelscope.description": "ModelScope è la piattaforma di modelli-as-a-service di Alibaba Cloud, che offre un'ampia gamma di modelli AI e servizi di inferenza.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "今すぐ登録",
"betterAuth.signin.socialError": "ソーシャルログインに失敗しました。もう一度お試しください",
"betterAuth.signin.socialOnlyHint": "このメールアドレスは外部のソーシャルアカウントで登録されています。該当のサービスでサインインするか、",
"betterAuth.signin.ssoOnlyNoProviders": "メール登録は無効になっており、SSOプロバイダーも設定されていません。管理者にお問い合わせください。",
"betterAuth.signin.submit": "ログイン",
"betterAuth.signup.confirmPasswordPlaceholder": "パスワードの確認を入力してください",
"betterAuth.signup.emailPlaceholder": "メールアドレスを入力してください",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "詳細を見る",
"clearCurrentMessages": "現在の会話メッセージをクリア",
"compressedHistory": "圧縮された履歴",
"compression.cancel": "解凍する",
"compression.cancelConfirm": "本当に解凍しますか?元のメッセージが復元されます。",
"compression.history": "履歴",
"compression.summary": "要約",
"confirmClearCurrentMessages": "現在の会話メッセージをクリアしてもよろしいですか?クリア後は復元できません",
@ -58,6 +60,10 @@
"emptyAgentAction": "アシスタントを作成",
"extendParams.disableContextCaching.desc": "1 回の会話生成にかかるコストを最大 90% 削減し、最大 4 倍の速度を実現します。有効にすると、過去のメッセージ数の制限が自動的に解除されます。<1>詳細はこちら</1>",
"extendParams.disableContextCaching.title": "コンテキストキャッシュを有効にする",
"extendParams.effort.desc": "effort パラメータを使用して、Claude が応答時に使用するトークン数を制御します。",
"extendParams.effort.title": "努力度",
"extendParams.enableAdaptiveThinking.desc": "適応的思考モードを有効にすると、Claude がいつどの程度思考するかを動的に判断します。",
"extendParams.enableAdaptiveThinking.title": "適応的思考を有効にする",
"extendParams.enableReasoning.desc": "Claude の思考メカニズムの制限に基づき、有効にすると過去のメッセージ数の制限が自動的に解除されます。<1>詳細はこちら</1>",
"extendParams.enableReasoning.title": "深い思考を有効にする",
"extendParams.imageAspectRatio.title": "画像のアスペクト比",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "フォーク済みのエージェントグループはまだありません",
"user.noForkedAgents": "フォーク済みのエージェントはまだありません",
"user.publishedAgents": "作成したアシスタント",
"user.publishedGroups": "作成したグループ",
"user.searchPlaceholder": "名前または説明で検索...",
"user.statusFilter.all": "すべて",
"user.statusFilter.archived": "アーカイブ済み",
"user.statusFilter.deprecated": "非推奨",
"user.statusFilter.favorite": "お気に入り",
"user.statusFilter.forked": "フォーク済み",
"user.statusFilter.published": "公開済み",
"user.statusFilter.unpublished": "レビュー中",
"user.tabs.favorites": "お気に入り",
"user.tabs.forkedAgents": "フォーク済み",
"user.tabs.publishedAgents": "作成したアシスタント",

View file

@ -150,6 +150,7 @@
"upload.desc": "詳細:{{detail}}",
"upload.fileOnlySupportInServerMode": "現在のデプロイモードでは非画像ファイルのアップロードはサポートされていません。{{ext}} をアップロードするには、サーバーデータベースデプロイに切り替えるか、{{cloud}} サービスを使用してください",
"upload.networkError": "ネットワーク異常または CORS 設定が正しくありません。ファイルストレージサービスの CORS 設定を確認してから再試行してください",
"upload.storageLimitExceeded": "ファイルストレージがご利用中のプランの上限に達しました。プランをアップグレードするか、未使用のファイルを削除して空き容量を確保してください。",
"upload.title": "アップロードが完了できませんでした",
"upload.unknownError": "原因:{{reason}}",
"upload.uploadFailed": "アップロードが完了できませんでした"

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "モデル表示名",
"providerModels.item.modelConfig.extendParams.extra": "モデルがサポートする拡張パラメータを選択してください。オプションにカーソルを合わせるとコントロールのプレビューが表示されます。不正な設定はリクエストの失敗を引き起こす可能性があります。",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claudeモデル向けコストを抑え、応答速度を向上させる可能性があります。",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Claude Opus 4.6 用:労力レベルを制御します(低/中/高/最大)。",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Claude Opus 4.6 用:アダプティブシンキングのオン/オフを切り替えます。",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude、DeepSeekなどの推論モデル向けより深い思考を可能にします。",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5シリーズ向け推論の強度を制御します。",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1シリーズ向け;推論の強度を制御します。",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "80Kの思考連鎖と1Mの入力を備えた新しい社内推論モデルで、世界トップクラスのモデルに匹敵する性能を発揮します。",
"MiniMax-M2-Stable.description": "効率的なコーディングとエージェントワークフローのために設計され、商用利用における高い同時実行性を実現します。",
"MiniMax-M2.1-Lightning.description": "強力な多言語プログラミング機能を備え、プログラミング体験を全面的にアップグレード。より高速かつ効率的に。",
"MiniMax-M2.1.description": "強力な多言語プログラミング機能を備え、プログラミング体験を全面的にアップグレード",
"MiniMax-M2.1.description": "MiniMax-M2.1は、MiniMaxが開発したフラッグシップのオープンソース大規模モデルで、複雑な現実世界のタスク解決に特化しています。多言語プログラミング能力とエージェントとしての高度なタスク処理能力が主な強みです。",
"MiniMax-M2.description": "効率的なコーディングとエージェントワークフローのために特化して設計されたモデル",
"MiniMax-Text-01.description": "MiniMax-01は、従来のTransformerを超える大規模な線形アテンションを導入し、4560億のパラメータと1パスあたり45.9億のアクティブパラメータを持ちます。最大400万トークンのコンテキストをサポートしGPT-4oの32倍、Claude-3.5-Sonnetの20倍、最高水準の性能を実現します。",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1は、4560億の総パラメータとトークンあたり約45.9億のアクティブパラメータを持つ、オープンウェイトの大規模ハイブリッドアテンション推論モデルです。100Kトークン生成時にFLOPsを75%削減するFlash Attentionを採用し、1Mのコンテキストをネイティブにサポートします。MoEアーキテクチャ、CISPO、ハイブリッドアテンション強化学習により、長文推論や実際のソフトウェアエンジニアリングタスクで卓越した性能を発揮します。",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "総パラメータ1兆、アクティブパラメータ32Bの非思考型モデルで、最先端の知識、数学、コーディングにおいてトップクラスの性能を誇ります。一般的なエージェントタスクにも強く、質問に答えるだけでなく行動も可能です。即興的な会話や一般的なチャット、エージェント体験に最適な、反射レベルのモデルです。",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO46.7B)は、複雑な計算に対応する高精度な命令モデルです。",
"OmniConsistency.description": "OmniConsistencyは、大規模なDiffusion TransformerDiTとペア化されたスタイル付きデータを導入することで、画像間タスクにおけるスタイルの一貫性と汎化性能を向上させ、スタイルの劣化を防ぎます。",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5は、PaddleOCR-VLシリーズのアップグレード版で、OmniDocBench v1.5文書解析ベンチマークで94.5%の精度を達成し、汎用大規模モデルや専門的な文書解析モデルを上回ります。不規則なバウンディングボックスによる文書要素の位置特定を革新的にサポートし、スキャン画像、傾いた画像、スクリーンショットなどにも高精度で対応します。",
"Phi-3-medium-128k-instruct.description": "Phi-3-mediumモデルに、RAGやfew-shotプロンプト向けの大きなコンテキストウィンドウを追加したバージョンです。",
"Phi-3-medium-4k-instruct.description": "Phi-3-miniよりも高品質で、推論重視のデータに特化した140億パラメータのモデルです。",
"Phi-3-mini-128k-instruct.description": "Phi-3-miniモデルに、RAGやfew-shotプロンプト向けの大きなコンテキストウィンドウを追加したバージョンです。",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3は、MLAとDeepSeekMoEを使用し、損失のない負荷分散により効率的な推論と学習を実現する6710億パラメータのMoEモデルです。14.8兆の高品質トークンで事前学習され、SFTとRLでさらに調整され、他のオープンモデルを上回り、主要なクローズドモデルに迫る性能を発揮します。",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 は、最新かつ最も高性能な Kimi K2 モデルです。1T の総パラメータと 32B のアクティブパラメータを持つ最上位の MoE モデルであり、エージェント型コーディング知能が強化され、ベンチマークおよび実世界のエージェントタスクにおいて大幅な性能向上を実現しています。さらに、フロントエンドのコード美学と使いやすさも改善されています。",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo は、K2 Thinking のマルチステップ推論とツール使用能力を維持しつつ、推論速度とスループットを最適化した Turbo バリアントです。約 1T の総パラメータを持つ MoE モデルで、ネイティブで 256K のコンテキスト長をサポートし、低レイテンシーかつ高同時実行性が求められる本番環境において安定した大規模ツール呼び出しが可能です。",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5は、Kimi-K2-Baseを基盤としたオープンソースのネイティブマルチモーダルエージェントモデルで、約1.5兆の視覚・テキストトークンで訓練されています。MoEアーキテクチャを採用し、総パラメータ数1兆、アクティブパラメータ数32B、256Kのコンテキストウィンドウをサポートし、視覚と言語の理解をシームレスに統合しています。",
"Pro/zai-org/glm-4.7.description": "GLM-4.7は、Zhipuが開発した次世代のフラッグシップモデルで、総パラメータ数355B、アクティブパラメータ数32Bを備えています。一般的な対話、推論、エージェント機能において全面的に強化されており、「交差思考Interleaved Thinking」の強化に加え、「保持思考Preserved Thinking」や「ターン単位思考Turn-level Thinking」といった新たな思考モードも導入されています。",
"QwQ-32B-Preview.description": "Qwen QwQ は、推論能力の向上に焦点を当てた実験的研究モデルです。",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview は、Qwen による視覚的推論に特化した研究モデルであり、複雑なシーン理解や視覚的数学問題に強みを持ちます。",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haikuは、Anthropicが提供する次世代モデルの中で最も高速なモデルです。Claude 3 Haikuと比較して全体的なスキルが向上しており、従来の最大モデルであるClaude 3 Opusを多くの知能ベンチマークで上回っています。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 HaikuはAnthropicの次世代モデルの中で最速であり、スキル全般で向上し、従来のフラッグシップClaude 3 Opusを多くのベンチマークで上回ります。",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haikuは、軽量タスク向けに高速な応答を提供します。",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnetは、Anthropicが開発した最も知的なモデルであり、市場初のハイブリッド推論モデルです。即時応答と段階的な思考プロセスの両方を提供でき、ユーザーはその思考過程を視覚的に確認できます。特にコーディング、データサイエンス、画像認識、エージェントタスクに強みを持ちます。",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7はAnthropicの最も知的なモデルで、市場初のハイブリッド推論モデルです。即時応答と深い思考の両方を細かく制御できます。",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnetは、Anthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-haiku-20240307.description": "Claude 3 Haikuは、Anthropicの最速かつ最小のモデルで、即時応答と高速かつ正確な性能を実現するよう設計されています。",
"claude-3-opus-20240229.description": "Claude 3 Opusは、Anthropicの最も強力なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnetは、知性と速度のバランスを取り、エンタープライズ向けのワークロードにおいて高い実用性とコスト効率、信頼性のある大規模展開を実現します。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5は、AnthropicのHaikuモデルの中で最も高速かつ高性能なモデルであり、驚異的なスピードと高度な推論能力を兼ね備えています。",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5はAnthropicの最速かつ最も知的なHaikuモデルで、驚異的なスピードと深い思考能力を備えています。",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinkingは、推論プロセスを可視化できる高度なバリアントです。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1は、Anthropicが提供する最新かつ最も高性能なモデルであり、極めて複雑なタスクにおいて卓越したパフォーマンス、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4は、Anthropicの中で最も強力なモデルであり、非常に複雑なタスクにおいて優れたパフォーマンス、知性、流暢さ、理解力を示します。",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1はAnthropicの最新かつ最も高性能なモデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-20250514.description": "Claude Opus 4はAnthropicの最強モデルで、非常に複雑なタスクにおいて卓越した性能、知性、流暢さ、理解力を発揮します。",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5は、Anthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに最適です。",
"claude-opus-4-6.description": "Claude Opus 4.6は、エージェント構築やコーディングにおいてAnthropicの最も知的なモデルです。",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinkingは、即時応答または段階的な思考プロセスを可視化しながら出力できます。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4は、即時応答と段階的な思考プロセスの両方を提供でき、その過程を可視化することが可能です。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5は、Anthropicがこれまでに開発した中で最も知的なモデルです。",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4はAnthropic史上最も知的なモデルで、APIユーザー向けに即時応答と段階的な深い思考を細かく制御できます。",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5はAnthropic史上最も知的なモデルです。",
"codegeex-4.description": "CodeGeeX-4は、開発者の生産性を向上させる多言語対応のAIコーディングアシスタントで、Q&Aやコード補完をサポートします。",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9Bは、多言語コード生成モデルで、コード補完、生成、インタープリタ、Web検索、関数呼び出し、リポジトリレベルのQ&Aなど、幅広いソフトウェア開発シナリオに対応します。10B未満のパラメータで最高クラスのコードモデルです。",
"codegemma.description": "CodeGemmaは、さまざまなプログラミングタスクに対応する軽量モデルで、迅速な反復と統合を可能にします。",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
"deepseek-chat.description": "DeepSeek-V2.5は、一般的な対話能力と強力なコーディング能力を兼ね備えた新しいオープンソースモデルです。チャットモデルの自然な対話性とコーディングモデルの技術力を融合し、ユーザーの好みにより適合した応答を実現します。さらに、文章生成や指示の理解にも優れています。",
"deepseek-chat.description": "DeepSeek V3.2は、日常的なQAやエージェントタスクにおいて推論力と出力長のバランスを実現しています。公開ベンチマークではGPT-5レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価でリードしています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
"deepseek-coder-v2.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 はオープンソースの MoE コードモデルで、コーディングタスクにおいて GPT-4 Turbo に匹敵する性能を発揮します。",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 高速フルバージョンは、リアルタイムのウェブ検索を搭載し、671Bスケールの能力と高速応答を両立します。",
"deepseek-r1-online.description": "DeepSeek R1 フルバージョンは、671Bパラメータとリアルタイムのウェブ検索を備え、より強力な理解と生成を提供します。",
"deepseek-r1.description": "DeepSeek-R1は、強化学習前にコールドスタートデータを使用し、数学、コーディング、推論においてOpenAI-o1と同等の性能を発揮します。",
"deepseek-reasoner.description": "DeepSeek V3.2の思考モードでは、最終的な回答の前に思考の過程Chain-of-Thoughtを出力することで、精度を向上させます。",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinkingは、出力前に思考の連鎖Chain-of-Thoughtを生成することで精度を高めた深い推論モデルで、競技レベルの結果を達成し、Gemini-3.0-Proに匹敵する推論力を持ちます。",
"deepseek-v2.description": "DeepSeek V2は、コスト効率の高い処理を実現する効率的なMoEモデルです。",
"deepseek-v2:236b.description": "DeepSeek V2 236Bは、コード生成に特化したDeepSeekのモデルで、強力なコード生成能力を持ちます。",
"deepseek-v3-0324.description": "DeepSeek-V3-0324は、671BパラメータのMoEモデルで、プログラミングや技術的能力、文脈理解、長文処理において優れた性能を発揮します。",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview は、キャラクターとプロットの創作に対応したモデルのプレビュー版であり、機能評価とテストに適しています。",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K は、小説やプロット創作に適した人格モデルであり、長編ストーリー生成に最適です。",
"ernie-irag-edit.description": "ERNIE iRAG Edit は、消去、再描画、バリエーション生成に対応した画像編集モデルです。",
"ernie-lite-8k.description": "ERNIE Lite 8K は、コスト重視の日常的な質問応答やコンテンツ生成に適した軽量汎用モデルです。",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K は、レイテンシーとコストに敏感なシナリオに対応した軽量高性能モデルです。",
"ernie-novel-8k.description": "ERNIE Novel 8K は、複数キャラクターによる長編小説や IP プロットの生成に特化しています。",
"ernie-speed-128k.description": "ERNIE Speed 128K は、長文理解と大規模試行に対応した I/O 無料モデルです。",
"ernie-speed-8k.description": "ERNIE Speed 8K は、日常会話や軽量なテキストタスクに適した無料かつ高速なモデルです。",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K は、大規模なオンラインサービスや企業アプリケーション向けの高同時接続・高価値モデルです。",
"ernie-tiny-8k.description": "ERNIE Tiny 8K は、シンプルな質問応答、分類、低コスト推論に適した超軽量モデルです。",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedが開発した画像生成モデルであり、テキストおよび画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成可能です。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5は、ByteDanceのSeedチームが開発したモデルで、複数画像の編集と合成をサポートします。被写体の一貫性、指示の正確な追従、空間論理の理解、美的表現、ポスターレイアウトやロゴデザインにおける高精度なテキスト・画像レンダリングに優れています。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0は、ByteDance Seedが開発したモデルで、テキストと画像の入力に対応し、プロンプトから高品質で制御可能な画像生成を実現します。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] は、テキストと参照画像を入力として受け取り、局所的な編集や複雑なシーン全体の変換を可能にします。",
"fal-ai/flux/krea.description": "Flux Krea [dev] は、よりリアルで自然な画像を生成する美的バイアスを持つ画像生成モデルです。",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "強力なネイティブマルチモーダル画像生成モデルです。",
"fal-ai/imagen4/preview.description": "Google による高品質な画像生成モデルです。",
"fal-ai/nano-banana.description": "Nano Banana は Google による最新・最速・最も効率的なネイティブマルチモーダルモデルで、会話を通じた画像生成と編集が可能です。",
"fal-ai/qwen-image-edit.description": "Qwenチームが開発したプロフェッショナルな画像編集モデルで、意味や外観の編集、中文・英文テキストの精密な編集、スタイル変換やオブジェクトの回転など高品質な編集が可能です。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストの描画に優れ、多様なビジュアルスタイルに対応します。",
"fal-ai/qwen-image-edit.description": "Qwenチームによるプロフェッショナルな画像編集モデルで、意味的・外観的な編集、正確な中英テキスト編集、スタイル変換、回転などをサポートします。",
"fal-ai/qwen-image.description": "Qwenチームによる強力な画像生成モデルで、中国語テキストのレンダリングに優れ、多様なビジュアルスタイルを提供します。",
"flux-1-schnell.description": "Black Forest Labs による 120 億パラメータのテキストから画像への変換モデルで、潜在敵対的拡散蒸留を用いて 14 ステップで高品質な画像を生成します。クローズドな代替モデルに匹敵し、Apache-2.0 ライセンスのもと、個人・研究・商用利用が可能です。",
"flux-dev.description": "FLUX.1 [dev] は、非商用利用向けのオープンウェイト蒸留モデルで、プロレベルに近い画像品質と指示追従性を維持しつつ、同サイズの標準モデルよりも効率的に動作します。",
"flux-kontext-max.description": "最先端のコンテキスト画像生成・編集モデルで、テキストと画像を組み合わせて精密かつ一貫性のある結果を生成します。",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro は最大 200 万トークンに対応し、複雑なタスクに最適な中規模マルチモーダルモデルです。",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
"gemini-2.0-flash-exp-image-generation.description": "画像生成に対応した Gemini 2.0 Flash の実験的モデルです。",
"gemini-2.0-flash-exp.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
"gemini-2.0-flash-lite-001.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
"gemini-2.0-flash-lite.description": "コスト効率と低遅延に最適化された Gemini 2.0 Flash のバリアントです。",
"gemini-2.0-flash.description": "Gemini 2.0 Flash は、次世代の機能を提供するモデルで、卓越したスピード、ネイティブツールの使用、マルチモーダル生成、100万トークンのコンテキストウィンドウを備えています。",
"gemini-2.5-flash-image-preview.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
"gemini-2.5-flash-image-preview:image.description": "Nano BananaはGoogleの最新かつ最速で最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集を可能にします。",
"gemini-2.5-flash-image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
"gemini-2.5-flash-image:image.description": "Nano Banana は、Google による最新かつ最速、最も効率的なネイティブマルチモーダルモデルで、会話形式での画像生成と編集が可能です。",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-3-flash-preview.description": "Gemini 3 Flash は、最先端の知能と優れた検索基盤を融合し、スピードに特化した最もスマートなモデルです。",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proは、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana ProGoogleの画像生成モデルであり、マルチモーダルチャットにも対応しています。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana ProGoogleの画像生成モデルで、マルチモーダルチャットにも対応しています。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
@ -574,7 +575,6 @@
"glm-zero-preview.description": "GLM-Zero-Preview は、論理、数学、プログラミングにおいて優れた複雑推論能力を発揮します。",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5はAnthropicのフラッグシップモデルで、卓越した知性とスケーラブルな性能を兼ね備え、最高品質の応答と推論が求められる複雑なタスクに対応します。",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flashは次世代の性能を提供し、優れた速度、ネイティブなツール使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウを備えています。",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash ExperimentalはGoogleの最新の実験的マルチモーダルAIモデルで、前バージョンに比べて世界知識、コード、長文コンテキスト処理において品質が向上しています。",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Liteは軽量なGeminiバリアントで、レイテンシとコストを改善するためにデフォルトで思考機能が無効化されていますが、パラメータで有効化可能です。",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Liteは、優れた速度、組み込みツール使用、マルチモーダル生成、1Mトークンのコンテキストウィンドウなど、次世代の機能を提供します。",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flashは、拡張されたマルチモーダルタスク向けに設計されたGoogleの高性能推論モデルです。",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "256kコンテキストに対応した高速K2長期思考バリアント。深い推論能力と毎秒60〜100トークンの出力速度を備えています。",
"kimi-k2-thinking.description": "kimi-k2-thinking は、Moonshot AI による思考モデルで、一般的なエージェント機能と推論能力を備えています。深い推論に優れ、マルチステップのツール使用を通じて難問を解決できます。",
"kimi-k2-turbo-preview.description": "kimi-k2 は、強力なコーディングおよびエージェント機能を備えた MoE 基盤モデルです(総パラメータ数 1T、アクティブ 32B。推論、プログラミング、数学、エージェントベンチマークにおいて、他の主流のオープンモデルを上回る性能を発揮します。",
"kimi-k2.5.description": "Kimi K2.5は、エージェントタスク、コーディング、視覚理解においてオープンソースのSOTAを実現する最も高性能なKimiモデルです。マルチモーダル入力と、思考モード・非思考モードの両方をサポートします。",
"kimi-k2.description": "Kimi-K2 は Moonshot AI による MoE ベースモデルで、強力なコーディングおよびエージェント機能を備えています。総パラメータ数は 1T、アクティブは 32B。一般的な推論、コーディング、数学、エージェントタスクのベンチマークにおいて、他の主流のオープンモデルを上回る性能を示します。",
"kimi-k2:1t.description": "Kimi K2 は、Moonshot AI による大規模 MoE LLM で、総パラメータ数 1T、1回のフォワードパスでアクティブ 32B。高度なツール使用、推論、コード生成などのエージェント機能に最適化されています。",
"kimi-latest.description": "Kimi Latest は最新の Kimi モデルを使用し、実験的な機能を含む場合があります。画像理解をサポートし、コンテキスト長に応じて 8k/32k/128k の課金モデルを自動選択します。",
@ -960,6 +961,47 @@
"openai/gpt-5-mini.description": "GPT-5 Miniは、低レイテンシー・低コストのシナリオ向けに設計された小型のGPT-5バリアントです。",
"openai/gpt-5-nano.description": "GPT-5 Nanoは、コストとレイテンシーに厳しい制約があるシナリオ向けの超小型バリアントです。",
"openai/gpt-5-pro.description": "GPT-5 Proは、OpenAIのフラッグシップモデルであり、強力な推論、コード生成、エンタープライズ向け機能を提供し、テスト時のルーティングや厳格な安全ポリシーに対応しています。",
"openai/gpt-5.1-chat.description": "GPT-5.1 ChatはGPT-5.1ファミリーの軽量版で、低遅延な会話に最適化されつつ、強力な推論力と指示実行能力を保持しています。",
"openai/gpt-5.1-codex-mini.description": "GPT-5.1-Codex-Miniは、GPT-5.1-Codexの小型・高速版で、遅延やコストに敏感なコーディングシナリオに適しています。",
"openai/gpt-5.1-codex.description": "GPT-5.1-Codexは、ソフトウェアエンジニアリングとコーディングワークフローに最適化されたGPT-5.1のバリアントで、大規模なリファクタリング、複雑なデバッグ、長時間の自律的コーディングタスクに適しています。",
"openai/gpt-5.1.description": "GPT-5.1はGPT-5シリーズの最新フラッグシップで、一般的な推論、指示の追従、会話の自然さにおいて大幅な改善が施され、幅広いタスクに対応します。",
"openai/gpt-5.2-chat.description": "GPT-5.2 Chatは、最新の会話機能を体験できるChatGPTバリアントです。",
"openai/gpt-5.2-pro.description": "GPT-5.2 Proは、より賢く精密なGPT-5.2バリアントResponses API専用で、難解な問題や長い多段階推論に適しています。",
"openai/gpt-5.2.description": "GPT-5.2は、推論力と長文コンテキスト性能を強化した、コーディングやエージェントワークフロー向けのフラッグシップモデルです。",
"openai/gpt-5.description": "GPT-5は、OpenAIの高性能モデルで、幅広い実務および研究タスクに対応します。",
"openai/gpt-oss-120b.description": "強力で制御可能な推論力を持つ高性能な汎用LLMです。",
"openai/gpt-oss-20b.description": "低遅延かつリソース制約のある環境(ローカルやエッジ)向けに最適化されたコンパクトなオープンウェイト言語モデルです。",
"openai/o1-mini.description": "o1-miniは、コーディング、数学、科学向けに設計された高速かつコスト効率の高い推論モデルで、128Kのコンテキストと2023年10月の知識カットオフを持ちます。",
"openai/o1-preview.description": "o1は、広範な知識を必要とする複雑なタスク向けに設計されたOpenAIの新しい推論モデルで、128Kのコンテキストと2023年10月の知識カットオフを持ちます。",
"openai/o1.description": "OpenAI o1は、深い思考を必要とする複雑な問題に対応するために構築されたフラッグシップ推論モデルで、多段階タスクにおいて高精度な推論を実現します。",
"openai/o3-mini-high.description": "o3-mini高推論は、o1-miniと同等のコストと遅延でより高い知性を提供します。",
"openai/o3-mini.description": "o3-miniは、OpenAIの最新小型推論モデルで、o1-miniと同等のコストと遅延でより高い知性を実現します。",
"openai/o3.description": "OpenAI o3は、コーディング、数学、科学、視覚認識において新たなSOTAを打ち立てた最強の推論モデルです。複雑で多面的なクエリに優れ、画像、グラフ、図表の分析に特に強みを持ちます。",
"openai/o4-mini-high.description": "o4-mini高推論ティアは、高速かつ効率的な推論に最適化され、コーディングと視覚性能に優れています。",
"openai/o4-mini.description": "OpenAI o4-miniは、低遅延シナリオ向けの小型で効率的な推論モデルです。",
"openai/text-embedding-3-large.description": "OpenAIの英語および非英語タスク向けで最も高性能な埋め込みモデルです。",
"openai/text-embedding-3-small.description": "OpenAIの改良された高性能なada埋め込みモデルのバリアントです。",
"openai/text-embedding-ada-002.description": "OpenAIの旧世代テキスト埋め込みモデルです。",
"openrouter/auto.description": "コンテキスト長、トピック、複雑さに応じて、Llama 3 70B Instruct、Claude 3.5 Sonnet自己モデレート、またはGPT-4oにルーティングされます。",
"perplexity/sonar-pro.description": "Perplexityの主力製品で、検索に基づいた高度なクエリやフォローアップに対応します。",
"perplexity/sonar-reasoning-pro.description": "強化された検索機能を備えた高度な推論特化モデル。1リクエストあたり複数の検索クエリを含むCoT思考の連鎖を出力します。",
"perplexity/sonar-reasoning.description": "詳細な検索に基づく説明を伴う思考の連鎖CoTを出力する推論特化モデルです。",
"perplexity/sonar.description": "Perplexityの軽量製品で、検索に基づいた応答を提供し、Sonar Proよりも高速かつ低コストです。",
"phi3.description": "Phi-3は、Microsoftが提供する軽量なオープンモデルで、効率的な統合と大規模な推論に対応します。",
"phi3:14b.description": "Phi-3は、Microsoftが提供する軽量なオープンモデルで、効率的な統合と大規模な推論に対応します。",
"pixtral-12b-2409.description": "Pixtralは、グラフや画像の理解、文書QA、マルチモーダル推論、指示の追従に優れています。ネイティブ解像度・アスペクト比で画像を処理し、128Kのコンテキストウィンドウ内で任意の数の画像を扱えます。",
"pixtral-large-latest.description": "Pixtral Largeは、Mistral Large 2を基盤とした124Bパラメータのオープンマルチモーダルモデルで、最先端の画像理解を備えたPixtralファミリーの第2世代です。",
"pro-128k.description": "Spark Pro 128Kは、最大128Kのコンテキスト処理に対応し、長文ドキュメントの全文解析や長距離の一貫性が求められる場面に最適です。複雑な議論における滑らかな論理展開と多様な引用サポートを提供します。",
"pro-deepseek-r1.description": "同時実行性をバンドルしたエンタープライズ向け専用サービスモデルです。",
"pro-deepseek-v3.description": "同時実行性をバンドルしたエンタープライズ向け専用サービスモデルです。",
"qianfan-70b.description": "Qianfan 70Bは、高品質な生成と複雑な推論に対応する大規模な中国語モデルです。",
"qianfan-8b.description": "Qianfan 8Bは、コストと品質のバランスに優れた中規模の汎用モデルで、テキスト生成やQAに対応します。",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32Kは、長文コンテキストに対応した意図認識とエージェントのオーケストレーションに特化しています。",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8Kは、低コストでマルチターン対話やワークフローに対応する軽量エージェントモデルです。",
"qianfan-check-vl.description": "Qianfan Check VLは、画像とテキストのコンプライアンス確認や認識タスクに対応するマルチモーダルコンテンツ審査モデルです。",
"qianfan-composition.description": "Qianfan Compositionは、画像とテキストの混合理解・生成に対応するマルチモーダル創作モデルです。",
"qianfan-engcard-vl.description": "Qianfan EngCard VLは、英語シナリオに特化したマルチモーダル認識モデルです。",
"qianfan-lightning-128b-a19b.description": "Qianfan Lightning 128B A19Bは、複雑なQAや大規模推論に対応する高性能な中国語汎用モデルです。",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8Bは、Llamaをベースにしたマルチモーダルモデルで、一般的な画像と言語の理解に対応します。",
"qianfan-multipicocr.description": "Qianfan MultiPicOCRは、複数画像に対応したOCRモデルで、画像間のテキスト検出と認識を行います。",
"qianfan-qi-vl.description": "Qianfan QI VLは、複雑な画像と言語のシナリオにおける高精度な検索と質問応答に対応するマルチモーダルQAモデルです。",
@ -1002,6 +1044,38 @@
"qwen/qwen2.5-coder-7b-instruct.description": "32Kコンテキストに対応した中規模の強力なコードモデルで、多言語プログラミングに優れています。",
"qwen/qwen3-14b.description": "Qwen3-14Bは、一般的な推論とチャットシナリオに対応する14Bバリアントです。",
"qwen/qwen3-14b:free.description": "Qwen3-14Bは、14.8Bパラメータの密な因果LLMで、複雑な推論と効率的なチャットに対応します。数学、コーディング、論理における思考モードと、一般チャット向けの非思考モードを切り替え可能です。100以上の言語と方言に対応し、指示追従、エージェントツールの使用、創造的な文章生成に最適化されています。32Kコンテキストをネイティブに処理し、YaRNで131Kまで拡張可能です。",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507は、Qwen3シリーズのInstructバリアントで、多言語指示対応と長文コンテキスト処理のバランスに優れています。",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507は、Qwen3のThinkingバリアントで、複雑な数学や推論タスクに強化されています。",
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22Bは、Qwenの235BパラメータのMoEモデルで、1回の推論で22Bがアクティブになります。複雑な推論・数学・コードに対応する思考モードと、効率的なチャット用の非思考モードを切り替え可能です。100以上の言語・方言に対応し、高度な指示追従やエージェントツールの利用が可能です。32Kのコンテキストをネイティブに処理し、YaRNにより131Kまで拡張可能です。",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22Bは、Qwenの235BパラメータのMoEモデルで、1回の推論で22Bがアクティブになります。複雑な推論・数学・コードに対応する思考モードと、効率的なチャット用の非思考モードを切り替え可能です。100以上の言語・方言に対応し、高度な指示追従やエージェントツールの利用が可能です。32Kのコンテキストをネイティブに処理し、YaRNにより131Kまで拡張可能です。",
"qwen/qwen3-30b-a3b.description": "Qwen3は、密結合およびMoEアーキテクチャを採用した最新のQwen LLMで、推論、多言語対応、高度なエージェントタスクに優れています。思考モードと非思考モードを切り替える独自機能により、柔軟かつ高品質なパフォーマンスを実現します。\n\nQwen3は、QwQやQwen2.5などの従来モデルを大きく上回り、数学、コーディング、常識推論、創造的な文章生成、対話において優れた性能を発揮します。Qwen3-30B-A3Bバリアントは30.5Bパラメータ3.3Bアクティブ、48層、128エキスパート1タスクあたり8アクティブを持ち、YaRNにより最大131Kのコンテキストに対応します。",
"qwen/qwen3-30b-a3b:free.description": "Qwen3は、密結合およびMoEアーキテクチャを採用した最新のQwen LLMで、推論、多言語対応、高度なエージェントタスクに優れています。思考モードと非思考モードを切り替える独自機能により、柔軟かつ高品質なパフォーマンスを実現します。\n\nQwen3は、QwQやQwen2.5などの従来モデルを大きく上回り、数学、コーディング、常識推論、創造的な文章生成、対話において優れた性能を発揮します。Qwen3-30B-A3Bバリアントは30.5Bパラメータ3.3Bアクティブ、48層、128エキスパート1タスクあたり8アクティブを持ち、YaRNにより最大131Kのコンテキストに対応します。",
"qwen/qwen3-32b.description": "Qwen3-32Bは、32.8Bパラメータの密結合型因果LLMで、複雑な推論と効率的なチャットに最適化されています。数学、コーディング、論理に対応する思考モードと、一般的なチャットに適した非思考モードを切り替え可能です。100以上の言語・方言に対応し、指示追従、エージェントツールの利用、創造的な文章生成に優れています。32Kのコンテキストをネイティブに処理し、YaRNにより131Kまで拡張可能です。",
"qwen/qwen3-32b:free.description": "Qwen3-32Bは、32.8Bパラメータの密結合型因果LLMで、複雑な推論と効率的なチャットに最適化されています。数学、コーディング、論理に対応する思考モードと、一般的なチャットに適した非思考モードを切り替え可能です。100以上の言語・方言に対応し、指示追従、エージェントツールの利用、創造的な文章生成に優れています。32Kのコンテキストをネイティブに処理し、YaRNにより131Kまで拡張可能です。",
"qwen/qwen3-8b:free.description": "Qwen3-8Bは、8.2Bパラメータの密結合型因果LLMで、推論重視のタスクと効率的なチャットに対応します。数学、コーディング、論理に対応する思考モードと、一般的なチャットに適した非思考モードを切り替え可能です。100以上の言語・方言に対応し、指示追従、エージェント統合、創造的な文章生成に最適化されています。32Kのコンテキストをネイティブに処理し、YaRNにより131Kまで拡張可能です。",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plusは、より複雑なツール利用と長時間セッションに最適化されたQwenシリーズのコーディングエージェントモデルです。",
"qwen/qwen3-coder.description": "Qwen3-Coderは、長文コードの理解と生成に優れたQwen3のコード生成ファミリーです。",
"qwen/qwen3-max-preview.description": "Qwen3 Maxプレビューは、高度な推論とツール統合に対応するMaxバリアントです。",
"qwen/qwen3-max.description": "Qwen3 Maxは、Qwen3シリーズの最上位推論モデルで、多言語推論とツール統合に対応します。",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plusは、視覚機能を強化したQwen3のバリアントで、マルチモーダル推論と動画処理に優れています。",
"qwen2.5-14b-instruct-1m.description": "Qwen2.5のオープンソース72Bモデルです。",
"qwen2.5-14b-instruct.description": "Qwen2.5のオープンソース14Bモデルです。",
"qwen2.5-32b-instruct.description": "Qwen2.5のオープンソース32Bモデルです。",
"qwen2.5-72b-instruct.description": "Qwen2.5のオープンソース72Bモデルです。",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instructは、マルチシナリオのチャットと生成に対応する成熟したオープンソース指示モデルです。",
"qwen2.5-coder-1.5b-instruct.description": "オープンソースのQwenコードモデルです。",
"qwen2.5-coder-14b-instruct.description": "オープンソースのQwenコードモデルです。",
"qwen2.5-coder-32b-instruct.description": "オープンソースのQwenコードモデルです。",
"qwen2.5-coder-7b-instruct.description": "オープンソースのQwenコードモデルです。",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coderは、Qwenファミリー旧CodeQwenの最新コード特化LLMです。",
"qwen2.5-instruct.description": "Qwen2.5は、0.5Bから72Bパラメータまでのベースおよび指示調整済みモデルを含む最新のQwen LLMシリーズです。",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Mathは、数学問題の解決に優れた性能を発揮します。",
"qwen2.5-math-72b-instruct.description": "Qwen-Mathは、数学問題の解決に優れた性能を発揮します。",
"qwen2.5-math-7b-instruct.description": "Qwen-Mathは、数学問題の解決に優れた性能を発揮します。",
"qwen2.5-omni-7b.description": "Qwen-Omniモデルは、動画、音声、画像、テキストなどのマルチモーダル入力に対応し、音声およびテキスト出力を生成します。",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instructは、プライベート展開やマルチシナリオ利用に適したオープンソースのマルチモーダルモデルです。",
"qwen2.5-vl-72b-instruct.description": "指示追従、数学、問題解決、コーディングの性能が向上し、一般的な物体認識も強化されています。形式を問わず正確な視覚要素の位置特定、10分までの長時間動画理解、秒単位のイベントタイミング、時間順序や速度の理解、OSやモバイルを操作可能なエージェント機能を備えています。重要情報の抽出やJSON出力にも優れています。これはシリーズ中最強の72Bバージョンです。",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instructは、展開コストと認識能力のバランスに優れた軽量マルチモーダルモデルです。",
"qwen2.5-vl-instruct.description": "Qwen2.5-VLは、Qwenファミリーにおける最新の視覚と言語の統合モデルです。",
"qwen2.5.description": "Qwen2.5は、Alibabaが開発した次世代の大規模言語モデルで、多様なユースケースにおいて高い性能を発揮します。",
"qwen2.5:0.5b.description": "Qwen2.5は、Alibabaが開発した次世代の大規模言語モデルで、多様なユースケースにおいて高い性能を発揮します。",
@ -1016,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14Bは、多言語の質問応答やテキスト生成に対応する中規模モデルです。",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507は、幅広い生成および推論タスクに対応するフラッグシップの指示モデルです。",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507は、難解な推論に対応する超大規模な思考モデルです。",
"qwen3-235b-a22b.description": "Qwen3 235B A22Bは、複雑なタスクに対応する汎用の大規模モデルです。",
"qwen3-235b-a22b.description": "Qwen3は、推論、汎用能力、エージェント機能、多言語性能において大幅な向上を遂げた次世代のTongyi Qwenモデルで、思考モードの切り替えに対応します。",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507は、高品質な生成と質問応答に対応する中〜大規模の指示モデルです。",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507は、精度とコストのバランスを取った中〜大規模の思考モデルです。",
"qwen3-30b-a3b.description": "Qwen3 30B A3Bは、コストと品質のバランスに優れた中〜大規模の汎用モデルです。",
@ -1028,6 +1102,7 @@
"qwen3-coder-flash.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。",
"qwen3-coder-plus.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。",
"qwen3-coder:480b.description": "エージェントおよびコーディングタスク向けのAlibabaの高性能長文コンテキストモデルです。",
"qwen3-max-2026-01-23.description": "Qwen3 Maxモデルは、2.5シリーズに比べて汎用能力、中国語・英語理解、複雑な指示追従、主観的なオープンタスク、多言語対応、ツール利用において大幅な向上を実現し、幻覚の発生も抑制されています。最新のqwen3-maxは、qwen3-max-previewよりもエージェントプログラミングとツール利用が改善されており、分野別SOTAを達成し、より複雑なエージェントニーズに対応します。",
"qwen3-max-preview.description": "複雑で多段階のタスクに対応する最高性能のQwenモデル。プレビュー版は思考機能をサポートします。",
"qwen3-max.description": "Qwen3 Maxモデルは、2.5シリーズに比べて汎用能力、中国語/英語理解、複雑な指示の追従、主観的なオープンタスク、多言語対応、ツール使用において大幅な向上を実現し、幻覚の発生も抑制されています。最新のqwen3-maxは、qwen3-max-previewよりもエージェントプログラミングとツール使用が改善されており、分野別SOTAに到達し、より複雑なエージェントニーズに対応します。",
"qwen3-next-80b-a3b-instruct.description": "次世代のQwen3非思考型オープンソースモデル。前バージョンQwen3-235B-A22B-Instruct-2507と比較して、中国語理解、論理的推論、テキスト生成が向上しています。",
@ -1049,6 +1124,10 @@
"qwq-plus.description": "Qwen2.5を基盤としたQwQ推論モデルは、強化学習により推論能力を大幅に向上させています。数学やコードAIME 24/25、LiveCodeBenchおよび一般ベンチマークIFEval、LiveBenchにおいて、DeepSeek-R1と同等の性能を達成しています。",
"qwq.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に難解な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと競合する中規模の推論モデルです。",
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",
"text-embedding-3-large.description": "英語および非英語タスクにおいて最も高性能な埋め込みモデルです。",
"text-embedding-3-small.description": "検索やRAGシナリオ向けに効率的かつコストパフォーマンスに優れた次世代埋め込みモデルです。",
"thudm/glm-4-32b.description": "GLM-4-32B-0414は、コード生成、関数呼び出し、エージェントタスクに最適化された32Bの中英バイリンガルオープンウェイトモデルです。15Tの高品質かつ推論重視のデータで事前学習され、人間の好みに基づく調整、リジェクションサンプリング、強化学習RLによりさらに洗練されています。複雑な推論、成果物生成、構造化出力に優れ、複数のベンチマークでGPT-4oやDeepSeek-V3-0324と同等の性能を発揮します。",
@ -1062,9 +1141,6 @@
"tts-1.description": "リアルタイム速度に最適化された最新の音声合成モデルです。",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v111Bは、精密な指示タスクに対応するよう調整され、優れた言語性能を発揮します。",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnetは業界標準を引き上げ、Claude 3 Opusや他の競合モデルを幅広い評価で上回りながら、中間レベルの速度とコストを維持しています。",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 SonnetはAnthropicの次世代最速モデルで、Claude 3 Haikuと比較して全体的なスキルが向上し、旧フラッグシップのClaude 3 Opusを多くの知能ベンチマークで上回ります。",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5はAnthropicの最速かつ最も知的なHaikuモデルで、驚異的な速度と拡張的な思考能力を備えています。",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5は、これまでで最も知的なAnthropicのモデルです。",
"v0-1.0-md.description": "v0 APIを通じて提供されるレガシーモデルです。",
"v0-1.5-lg.description": "高度な思考や推論タスクに適したモデルです。",
"v0-1.5-md.description": "日常的なタスクやUI生成に適したモデルです。",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "合計で{{count}}個のパラメーターがあります",
"arguments.title": "パラメーター一覧",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "利用可能なモデルを取得",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "利用可能なツールを取得",

View file

@ -29,6 +29,7 @@
"internlm.description": "InternLMは、大規模モデルの研究とツール開発に特化したオープンソース組織で、最先端のモデルとアルゴリズムを誰でも使いやすく提供します。",
"jina.description": "Jina AIは2020年に設立された検索AIのリーディングカンパニーで、ベクトルモデル、リランカー、小型言語モデルを含む検索スタックにより、高品質な生成・マルチモーダル検索アプリを構築できます。",
"lmstudio.description": "LM Studioは、ローカルPC上でLLMの開発と実験ができるデスクトップアプリです。",
"lobehub.description": "LobeHub Cloud は、公式 API を使用して AI モデルにアクセスし、モデルのトークンに基づいたクレジットで使用量を測定します。",
"minimax.description": "MiniMaxは2021年に設立され、マルチモーダル基盤モデルを用いた汎用AIを開発しています。兆単位パラメータのMoEテキストモデル、音声モデル、ビジョンモデル、Hailuo AIなどのアプリを提供します。",
"mistral.description": "Mistralは、複雑な推論、多言語タスク、コード生成に対応した高度な汎用・専門・研究モデルを提供し、関数呼び出しによるカスタム統合も可能です。",
"modelscope.description": "ModelScopeは、Alibaba Cloudが提供するモデル・アズ・ア・サービスMaaSプラットフォームで、幅広いAIモデルと推論サービスを提供します。",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "지금 가입하기",
"betterAuth.signin.socialError": "소셜 로그인에 실패했습니다. 다시 시도하세요",
"betterAuth.signin.socialOnlyHint": "이 이메일은 제3자 소셜 계정을 통해 등록되었습니다. 해당 제공업체로 로그인하거나,",
"betterAuth.signin.ssoOnlyNoProviders": "이메일 등록이 비활성화되어 있으며 설정된 SSO 공급자가 없습니다. 관리자에게 문의해 주세요.",
"betterAuth.signin.submit": "로그인",
"betterAuth.signup.confirmPasswordPlaceholder": "비밀번호를 다시 입력해 주세요",
"betterAuth.signup.emailPlaceholder": "이메일 주소를 입력하세요",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "자세히 보기",
"clearCurrentMessages": "현재 대화 메시지 지우기",
"compressedHistory": "압축된 기록",
"compression.cancel": "압축 해제",
"compression.cancelConfirm": "정말로 압축을 해제하시겠습니까? 원래 메시지가 복원됩니다.",
"compression.history": "기록",
"compression.summary": "요약",
"confirmClearCurrentMessages": "현재 대화 메시지를 지우시겠습니까? 지운 후 복구할 수 없습니다",
@ -58,6 +60,10 @@
"emptyAgentAction": "도우미 만들기",
"extendParams.disableContextCaching.desc": "단일 대화 생성을 위한 비용을 최대 90%까지 절감하고 최대 4배 빠른 속도를 제공합니다. 이 기능을 활성화하면 이전 메시지 수에 대한 제한이 자동으로 해제됩니다. <1>자세히 알아보기</1>",
"extendParams.disableContextCaching.title": "컨텍스트 캐시 활성화",
"extendParams.effort.desc": "Effort 매개변수를 사용하여 Claude가 응답 시 사용하는 토큰 수를 제어합니다.",
"extendParams.effort.title": "노력 수준",
"extendParams.enableAdaptiveThinking.desc": "적응형 사고 모드를 통해 Claude가 언제 얼마나 사고할지 동적으로 결정하도록 합니다.",
"extendParams.enableAdaptiveThinking.title": "적응형 사고 활성화",
"extendParams.enableReasoning.desc": "Claude 사고 메커니즘의 제한에 따라, 이 기능을 활성화하면 이전 메시지 수에 대한 제한이 자동으로 해제됩니다. <1>자세히 알아보기</1>",
"extendParams.enableReasoning.title": "심층 사고 활성화",
"extendParams.imageAspectRatio.title": "이미지 가로세로 비율",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "포크한 에이전트 그룹이 없습니다",
"user.noForkedAgents": "포크한 에이전트가 없습니다",
"user.publishedAgents": "제작한 도우미",
"user.publishedGroups": "생성한 그룹",
"user.searchPlaceholder": "이름 또는 설명으로 검색...",
"user.statusFilter.all": "전체",
"user.statusFilter.archived": "보관됨",
"user.statusFilter.deprecated": "사용 중단됨",
"user.statusFilter.favorite": "즐겨찾기",
"user.statusFilter.forked": "포크됨",
"user.statusFilter.published": "게시됨",
"user.statusFilter.unpublished": "검토 중",
"user.tabs.favorites": "즐겨찾기",
"user.tabs.forkedAgents": "포크됨",
"user.tabs.publishedAgents": "창작",

View file

@ -150,6 +150,7 @@
"upload.desc": "상세 정보: {{detail}}",
"upload.fileOnlySupportInServerMode": "현재 배포 모드에서는 이미지가 아닌 파일 업로드는 지원되지 않습니다. {{ext}}을(를) 업로드하려면 서버 데이터베이스 배포로 전환하거나 {{cloud}} 서비스를 사용하세요",
"upload.networkError": "네트워크 이상 또는 CORS 설정이 올바르지 않습니다. 파일 스토리지 서비스의 CORS 설정을 확인한 후 다시 시도하세요",
"upload.storageLimitExceeded": "파일 저장 용량이 현재 요금제의 한도에 도달했습니다. 요금제를 업그레이드하거나 사용하지 않는 파일을 삭제하여 공간을 확보해 주세요.",
"upload.title": "업로드를 완료할 수 없습니다",
"upload.unknownError": "원인: {{reason}}",
"upload.uploadFailed": "업로드를 완료할 수 없습니다"

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "모델 표시 이름",
"providerModels.item.modelConfig.extendParams.extra": "모델이 지원하는 확장 매개변수를 선택하세요. 옵션 위에 마우스를 올리면 제어 항목을 미리 볼 수 있습니다. 잘못된 설정은 요청 실패를 초래할 수 있습니다.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Claude 모델용; 비용을 줄이고 응답 속도를 높일 수 있습니다.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Claude Opus 4.6용; 노력 수준을 설정합니다 (낮음/중간/높음/최대).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Claude Opus 4.6용; 적응형 사고 기능을 켜거나 끕니다.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Claude, DeepSeek 및 기타 추론 모델용; 더 깊은 사고를 활성화합니다.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "GPT-5 시리즈용; 추론 강도를 제어합니다.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "GPT-5.1 시리즈용; 추론 강도를 제어합니다.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "80K 체인 오브 싱킹과 100만 입력을 지원하는 새로운 자체 개발 추론 모델로, 세계 최고 수준의 모델과 유사한 성능을 제공합니다.",
"MiniMax-M2-Stable.description": "상업적 사용을 위한 높은 동시성을 제공하며, 효율적인 코딩 및 에이전트 워크플로우에 최적화되어 있습니다.",
"MiniMax-M2.1-Lightning.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험. 더 빠르고 효율적입니다.",
"MiniMax-M2.1.description": "강력한 다국어 프로그래밍 기능과 전면적으로 업그레이드된 코딩 경험",
"MiniMax-M2.1.description": "MiniMax-M2.1은 MiniMax에서 개발한 대표적인 오픈소스 대형 모델로, 복잡한 실제 과제를 해결하는 데 중점을 둡니다. 다국어 프로그래밍 능력과 에이전트로서 복잡한 작업을 수행하는 능력이 핵심 강점입니다.",
"MiniMax-M2.description": "효율적인 코딩 및 에이전트 워크플로우를 위해 특별히 설계됨",
"MiniMax-Text-01.description": "MiniMax-01은 기존 트랜스포머를 넘어선 대규모 선형 어텐션을 도입한 모델로, 4560억 파라미터 중 459억이 활성화됩니다. 최대 400만 토큰의 문맥을 지원하며, GPT-4o의 32배, Claude-3.5-Sonnet의 20배에 해당합니다.",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1은 오픈 가중치 기반의 대규모 하이브리드 어텐션 추론 모델로, 총 4560억 파라미터 중 토큰당 약 459억이 활성화됩니다. 100만 문맥을 기본 지원하며, Flash Attention을 통해 10만 토큰 생성 시 FLOPs를 DeepSeek R1 대비 75% 절감합니다. MoE 아키텍처와 CISPO, 하이브리드 어텐션 RL 학습을 통해 장문 추론 및 실제 소프트웨어 엔지니어링 작업에서 선도적인 성능을 보입니다.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "총 1조 파라미터 중 320억이 활성화되는 모델로, 비사고형 모델 중 최상위 수준의 최신 지식, 수학, 코딩 성능을 보이며, 일반 에이전트 작업에서도 강력한 성능을 발휘합니다. 에이전트 워크로드에 최적화되어 단순한 응답을 넘어 행동 수행이 가능하며, 즉흥적이고 일반적인 대화 및 에이전트 경험에 적합한 반사 수준의 모델입니다.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B)는 복잡한 계산을 위한 고정밀 지시 모델입니다.",
"OmniConsistency.description": "OmniConsistency는 대규모 Diffusion Transformer(DiT)와 스타일이 적용된 쌍 데이터셋을 도입하여 이미지-투-이미지 작업에서 스타일 일관성과 일반화를 향상시키며, 스타일 저하를 방지합니다.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5는 PaddleOCR-VL 시리즈의 업그레이드 버전으로, OmniDocBench v1.5 문서 파싱 벤치마크에서 94.5%의 정확도를 달성하여 일반 대형 모델 및 전문 문서 파싱 모델을 능가합니다. 문서 요소에 대한 불규칙한 경계 상자 위치 지정을 혁신적으로 지원하며, 스캔 이미지, 기울어진 이미지, 화면 캡처 이미지 등을 효과적으로 처리합니다.",
"Phi-3-medium-128k-instruct.description": "RAG 또는 few-shot 프롬프트를 위한 더 큰 컨텍스트 윈도우를 갖춘 동일한 Phi-3-medium 모델입니다.",
"Phi-3-medium-4k-instruct.description": "14B 파라미터를 가진 모델로, Phi-3-mini보다 더 높은 품질을 제공하며, 고품질 및 추론 중심 데이터에 중점을 둡니다.",
"Phi-3-mini-128k-instruct.description": "RAG 또는 few-shot 프롬프트를 위한 더 큰 컨텍스트 윈도우를 갖춘 동일한 Phi-3-mini 모델입니다.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3는 6710억 매개변수의 MoE 모델로, MLA와 DeepSeekMoE를 사용하며 손실 없는 부하 분산을 통해 효율적인 추론과 학습을 실현합니다. 14.8조 고품질 토큰으로 사전 학습되었고, SFT 및 RL로 추가 튜닝되어 다른 오픈 모델을 능가하며 상용 모델에 근접한 성능을 보입니다.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905는 최신이자 가장 강력한 Kimi K2 모델입니다. 총 1조, 활성 320억 매개변수를 가진 최상급 MoE 모델로, 에이전트 기반 코딩 지능이 강화되어 벤치마크 및 실제 에이전트 작업에서 큰 성능 향상을 보입니다. 프론트엔드 코드의 미적 품질과 사용성도 개선되었습니다.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo는 추론 속도와 처리량을 최적화한 Turbo 버전으로, K2 Thinking의 다단계 추론 및 도구 사용 능력을 유지합니다. 약 1조 매개변수를 가진 MoE 모델로, 기본 256K 컨텍스트를 지원하며, 대규모 도구 호출이 필요한 실시간 및 동시성 높은 환경에 적합합니다.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5는 Kimi-K2-Base를 기반으로 구축된 오픈소스 네이티브 멀티모달 에이전트 모델로, 약 1.5조 개의 비전 및 텍스트 토큰으로 학습되었습니다. MoE 아키텍처를 채택하여 총 1조 파라미터 중 320억 개가 활성화되며, 256K 컨텍스트 윈도우를 지원하여 비전과 언어 이해를 자연스럽게 통합합니다.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 총 355B 파라미터 중 32B가 활성화되어 있으며, 일반 대화, 추론, 에이전트 기능 전반에서 완전히 업그레이드되었습니다. GLM-4.7은 교차적 사고(Interleaved Thinking)를 강화하고, 보존적 사고(Preserved Thinking) 및 턴 단위 사고(Turn-level Thinking)를 도입하여 성능을 향상시켰습니다.",
"QwQ-32B-Preview.description": "Qwen QwQ는 추론 능력 향상을 목표로 한 실험적 연구 모델입니다.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview는 복잡한 장면 이해와 시각 수학 문제 해결에 강점을 가진 Qwen의 시각 추론 연구 모델입니다.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델입니다. Claude 3 Haiku와 비교해 전반적인 능력이 향상되었으며, 이전의 최고 모델인 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku는 가벼운 작업에 빠른 응답을 제공하는 모델입니다.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet은 Anthropic의 가장 지능적인 모델이자 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답은 물론, 사용자가 확인할 수 있는 단계별 추론도 가능합니다. 특히 코딩, 데이터 과학, 비전, 에이전트 작업에 강점을 보입니다.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7은 Anthropic의 가장 지능적인 모델로, 시장 최초의 하이브리드 추론 모델입니다. 즉각적인 응답 또는 심층적 사고를 세밀하게 제어할 수 있습니다.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku는 Anthropic의 가장 빠르고 컴팩트한 모델로, 빠르고 정확한 성능으로 즉각적인 응답을 위해 설계되었습니다.",
"claude-3-opus-20240229.description": "Claude 3 Opus는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet은 엔터프라이즈 워크로드를 위한 지능과 속도의 균형을 제공하며, 낮은 비용으로 높은 효용성과 안정적인 대규모 배포를 지원합니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 추론 능력을 갖추고 있습니다.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 심화된 사고 능력을 갖추고 있습니다.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking은 자신의 추론 과정을 드러낼 수 있는 고급 변형 모델입니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 매우 복잡한 작업에서 탁월한 성능, 지능, 유창성, 이해력을 보여줍니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 매우 복잡한 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1은 Anthropic의 최신이자 가장 강력한 모델로, 고난도 작업에서 탁월한 성능, 지능, 유창성, 이해력을 자랑합니다.",
"claude-opus-4-20250514.description": "Claude Opus 4는 Anthropic의 가장 강력한 모델로, 고난도 작업에서 뛰어난 성능, 지능, 유창성, 이해력을 제공합니다.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 품질의 응답과 추론이 필요한 복잡한 작업에 이상적입니다.",
"claude-opus-4-6.description": "Claude Opus 4.6은 에이전트 구축 및 코딩에 최적화된 Anthropic의 가장 지능적인 모델입니다.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking은 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 확장된 사고를 생성할 수 있습니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 즉각적인 응답 또는 단계별 사고 과정을 시각적으로 보여주는 응답을 생성할 수 있습니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 Anthropic이 개발한 가장 지능적인 모델입니다.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4는 Anthropic의 가장 지능적인 모델로, API 사용자에게 즉각적인 응답 또는 단계별 사고를 세밀하게 제어할 수 있는 기능을 제공합니다.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5는 현재까지 출시된 Anthropic 모델 중 가장 지능적인 모델입니다.",
"codegeex-4.description": "CodeGeeX-4는 다국어 Q&A 및 코드 자동 완성을 지원하여 개발자의 생산성을 높이는 강력한 AI 코딩 도우미입니다.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B는 코드 자동 완성 및 생성, 코드 인터프리터, 웹 검색, 함수 호출, 저장소 수준의 코드 Q&A를 지원하는 다국어 코드 생성 모델로, 다양한 소프트웨어 개발 시나리오를 포괄합니다. 10B 미만 파라미터 중 최고 수준의 코드 모델입니다.",
"codegemma.description": "CodeGemma는 다양한 프로그래밍 작업을 위한 경량 모델로, 빠른 반복과 통합을 가능하게 합니다.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
"deepseek-chat.description": "일반 대화 능력과 코드 작성 능력을 결합한 새로운 오픈소스 모델입니다. 대화 모델의 일반적인 대화 능력과 코드 모델의 강력한 코딩 능력을 유지하면서 선호도 정렬이 개선되었습니다. DeepSeek-V2.5는 글쓰기와 지시 따르기에서도 향상된 성능을 보입니다.",
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론력과 출력 길이의 균형을 맞췄습니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
"deepseek-coder-v2.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2는 GPT-4 Turbo에 필적하는 성능을 보이는 오픈소스 MoE 코드 모델입니다.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1의 빠른 전체 버전으로, 실시간 웹 검색을 지원하며 671B 규모의 성능과 빠른 응답을 결합합니다.",
"deepseek-r1-online.description": "DeepSeek R1 전체 버전은 671B 파라미터와 실시간 웹 검색을 지원하여 더 강력한 이해 및 생성 능력을 제공합니다.",
"deepseek-r1.description": "DeepSeek-R1은 강화 학습 전 콜드 스타트 데이터를 사용하며, 수학, 코딩, 추론에서 OpenAI-o1과 유사한 성능을 보입니다.",
"deepseek-reasoner.description": "DeepSeek V3.2의 사고 모드는 최종 답변 전에 사고 과정을 출력하여 정확도를 높입니다.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking은 출력 전에 사고 과정을 생성하여 정확도를 높이는 심층 추론 모델입니다. 주요 대회에서 상위권 성적을 기록했으며, Gemini-3.0-Pro에 필적하는 추론 능력을 보입니다.",
"deepseek-v2.description": "DeepSeek V2는 비용 효율적인 처리를 위한 고효율 MoE 모델입니다.",
"deepseek-v2:236b.description": "DeepSeek V2 236B는 코드 생성에 강점을 가진 DeepSeek의 코드 특화 모델입니다.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324는 671B 파라미터의 MoE 모델로, 프로그래밍 및 기술 역량, 문맥 이해, 장문 처리에서 뛰어난 성능을 보입니다.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview는 캐릭터 및 스토리 창작 기능을 평가하고 테스트하기 위한 프리뷰 모델입니다.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K는 장편 소설 및 스토리 창작에 적합한 페르소나 모델로, 다채로운 이야기 생성에 최적화되어 있습니다.",
"ernie-irag-edit.description": "ERNIE iRAG Edit는 이미지 지우기, 다시 그리기, 변형 생성 등을 지원하는 이미지 편집 모델입니다.",
"ernie-lite-8k.description": "ERNIE Lite 8K는 비용에 민감한 일상 질의응답 및 콘텐츠 생성을 위한 경량 범용 모델입니다.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K는 지연 시간과 비용에 민감한 시나리오에 적합한 고성능 경량 모델입니다.",
"ernie-novel-8k.description": "ERNIE Novel 8K는 다수의 캐릭터가 등장하는 장편 소설 및 IP 스토리 창작을 위해 설계되었습니다.",
"ernie-speed-128k.description": "ERNIE Speed 128K는 입출력 요금이 없는 모델로, 장문 이해 및 대규모 테스트에 적합합니다.",
"ernie-speed-8k.description": "ERNIE Speed 8K는 일상 대화 및 간단한 텍스트 작업에 적합한 무료 고속 모델입니다.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K는 대규모 온라인 서비스 및 기업용 애플리케이션을 위한 고동시성, 고가치 모델입니다.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K는 간단한 질의응답, 분류, 저비용 추론에 적합한 초경량 모델입니다.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed에서 개발한 이미지 생성 모델로, 텍스트와 이미지 입력을 지원하며, 고품질의 이미지 생성과 세밀한 제어가 가능합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5는 ByteDance Seed 팀이 개발한 모델로, 다중 이미지 편집 및 합성을 지원합니다. 피사체 일관성, 지시사항 정확도, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인에서 향상된 성능을 보이며, 고정밀 텍스트-이미지 렌더링을 제공합니다.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0은 ByteDance Seed가 개발한 모델로, 텍스트와 이미지 입력을 지원하여 높은 제어력과 품질의 이미지 생성을 가능하게 합니다.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro]는 텍스트와 참조 이미지를 입력으로 받아, 국소 편집과 복잡한 장면 변환을 정밀하게 수행할 수 있습니다.",
"fal-ai/flux/krea.description": "Flux Krea [dev]는 보다 사실적이고 자연스러운 이미지 스타일에 중점을 둔 이미지 생성 모델입니다.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "강력한 네이티브 멀티모달 이미지 생성 모델입니다.",
"fal-ai/imagen4/preview.description": "Google에서 개발한 고품질 이미지 생성 모델입니다.",
"fal-ai/nano-banana.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀에서 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 기반 편집을 지원하며, 중국어와 영어 텍스트를 정밀하게 편집하고 스타일 전환, 객체 회전 등 고품질 편집이 가능합니다.",
"fal-ai/qwen-image.description": "Qwen 팀에서 개발한 강력한 이미지 생성 모델로, 중국어 텍스트 표현이 뛰어나며 다양한 시각 스타일을 지원합니다.",
"fal-ai/qwen-image-edit.description": "Qwen 팀이 개발한 전문 이미지 편집 모델로, 의미 기반 및 외형 기반 편집, 정확한 중/영문 텍스트 편집, 스타일 전환, 회전 등을 지원합니다.",
"fal-ai/qwen-image.description": "Qwen 팀이 개발한 강력한 이미지 생성 모델로, 다양한 시각 스타일과 뛰어난 중문 텍스트 렌더링 기능을 갖추고 있습니다.",
"flux-1-schnell.description": "Black Forest Labs에서 개발한 120억 파라미터 텍스트-이미지 모델로, 잠재 적대 확산 증류를 사용하여 1~4단계 내에 고품질 이미지를 생성합니다. Apache-2.0 라이선스로 개인, 연구, 상업적 사용이 가능합니다.",
"flux-dev.description": "FLUX.1 [dev]는 오픈 가중치 증류 모델로, 비상업적 사용을 위해 설계되었습니다. 전문가 수준의 이미지 품질과 지시 따르기를 유지하면서도 더 효율적으로 작동하며, 동일 크기의 표준 모델보다 자원을 더 잘 활용합니다.",
"flux-kontext-max.description": "최첨단 문맥 기반 이미지 생성 및 편집 모델로, 텍스트와 이미지를 결합하여 정밀하고 일관된 결과를 생성합니다.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro는 최대 200만 토큰을 지원하는 중간 규모의 멀티모달 모델로, 복잡한 작업에 이상적입니다.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
"gemini-2.0-flash-exp-image-generation.description": "이미지 생성을 지원하는 Gemini 2.0 Flash 실험 모델입니다.",
"gemini-2.0-flash-exp.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
"gemini-2.0-flash-lite-001.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
"gemini-2.0-flash-lite.description": "비용 효율성과 낮은 지연 시간에 최적화된 Gemini 2.0 Flash 변형입니다.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash는 탁월한 속도, 네이티브 도구 사용, 멀티모달 생성, 100만 토큰 문맥 창 등 차세대 기능을 제공합니다.",
"gemini-2.5-flash-image-preview.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-image:image.description": "Nano Banana는 Google의 최신, 가장 빠르고 효율적인 네이티브 멀티모달 모델로, 대화형 이미지 생성 및 편집을 지원합니다.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "GLM-Z1 시리즈는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
"glm-z1-flashx.description": "빠르고 저비용: 초고속 추론과 높은 동시성을 제공하는 Flash 향상 버전입니다.",
"glm-zero-preview.description": "GLM-Zero-Preview는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5는 Anthropic의 대표 모델로, 탁월한 지능과 확장 가능한 성능을 결합하여 최고 수준의 응답 품질과 추론 능력이 요구되는 복잡한 작업을 처리합니다.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5는 Anthropic의 플래그십 모델로, 복잡한 작업에서 최고 수준의 응답 품질과 추론 능력을 제공하는 뛰어난 지능과 확장 가능한 성능을 결합합니다.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash는 차세대 기능을 제공하며, 뛰어난 속도, 기본 도구 사용, 멀티모달 생성, 1M 토큰 컨텍스트 윈도우를 지원합니다.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental은 Google의 최신 실험용 멀티모달 AI 모델로, 이전 버전 대비 세계 지식, 코드, 장문 컨텍스트 처리에서 품질이 향상되었습니다.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite는 지연 시간과 비용을 줄이기 위해 기본적으로 사고 기능이 비활성화된 경량 Gemini 변형 모델이며, 매개변수를 통해 활성화할 수 있습니다.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite는 차세대 기능을 제공하며, 뛰어난 속도, 내장 도구 사용, 멀티모달 생성, 1M 토큰 컨텍스트 윈도우를 지원합니다.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash는 Google의 고성능 추론 모델로, 확장된 멀티모달 작업에 적합합니다.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "256K 컨텍스트, 강력한 심층 추론, 초당 60~100 토큰 출력 속도를 갖춘 고속 K2 장기 사고 모델입니다.",
"kimi-k2-thinking.description": "kimi-k2-thinking은 Moonshot AI의 사고 모델로, 일반적인 에이전트 및 추론 능력을 갖추고 있으며, 다단계 도구 사용을 통해 복잡한 문제를 해결할 수 있습니다.",
"kimi-k2-turbo-preview.description": "kimi-k2는 MoE 기반의 모델로, 강력한 코딩 및 에이전트 기능을 갖추고 있으며(총 1조 파라미터, 활성 320억), 추론, 프로그래밍, 수학, 에이전트 벤치마크에서 주요 오픈 모델들을 능가합니다.",
"kimi-k2.5.description": "Kimi K2.5는 가장 강력한 Kimi 모델로, 에이전트 작업, 코딩, 비전 이해에서 오픈소스 SOTA 성능을 제공합니다. 멀티모달 입력과 사고/비사고 모드를 모두 지원합니다.",
"kimi-k2.description": "Kimi-K2는 Moonshot AI의 MoE 기반 모델로, 총 1조 파라미터 중 320억이 활성화되며, 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.",
"kimi-k2:1t.description": "Kimi K2는 Moonshot AI의 대규모 MoE LLM으로, 총 1조 파라미터 중 320억이 활성화됩니다. 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.",
"kimi-latest.description": "Kimi Latest는 최신 Kimi 모델을 사용하며, 실험적 기능이 포함될 수 있습니다. 이미지 이해를 지원하며, 문맥 길이에 따라 8k/32k/128k 요금 모델을 자동 선택합니다.",
@ -982,6 +983,65 @@
"openai/text-embedding-3-small.description": "OpenAI의 향상된 고성능 ada 임베딩 모델 변형입니다.",
"openai/text-embedding-ada-002.description": "OpenAI의 레거시 텍스트 임베딩 모델입니다.",
"openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.",
"perplexity/sonar-pro.description": "Perplexity의 플래그십 제품으로, 검색 기반 응답을 지원하며 고급 질의 및 후속 질문에 대응합니다.",
"perplexity/sonar-reasoning-pro.description": "향상된 검색 기능과 함께 CoT 출력을 제공하는 고급 추론 중심 모델로, 요청당 다중 검색 질의를 포함합니다.",
"perplexity/sonar-reasoning.description": "세부적인 검색 기반 설명과 함께 사고의 흐름(CoT)을 출력하는 추론 중심 모델입니다.",
"perplexity/sonar.description": "Perplexity의 경량 제품으로, 검색 기반 응답을 제공하며 Sonar Pro보다 빠르고 저렴합니다.",
"phi3.description": "Phi-3는 Microsoft의 경량 오픈 모델로, 효율적인 통합과 대규모 추론을 지원합니다.",
"phi3:14b.description": "Phi-3는 Microsoft의 경량 오픈 모델로, 효율적인 통합과 대규모 추론을 지원합니다.",
"pixtral-12b-2409.description": "Pixtral은 차트/이미지 이해, 문서 질의응답, 멀티모달 추론, 지시사항 이행에 강점을 보입니다. 원본 해상도 및 비율로 이미지를 처리하며, 128K 컨텍스트 윈도우 내에서 다수의 이미지를 다룰 수 있습니다.",
"pixtral-large-latest.description": "Pixtral Large는 Mistral Large 2를 기반으로 구축된 124B 파라미터의 오픈 멀티모달 모델로, 최첨단 이미지 이해 능력을 갖춘 두 번째 멀티모달 모델입니다.",
"pro-128k.description": "Spark Pro 128K는 최대 128K의 대용량 컨텍스트를 지원하여, 전체 텍스트 분석과 장거리 일관성이 필요한 장문 문서에 적합합니다. 복잡한 논의에서 논리적 흐름과 다양한 인용을 자연스럽게 처리합니다.",
"pro-deepseek-r1.description": "동시 처리 기능이 포함된 기업 전용 서비스 모델입니다.",
"pro-deepseek-v3.description": "동시 처리 기능이 포함된 기업 전용 서비스 모델입니다.",
"qianfan-70b.description": "Qianfan 70B는 고품질 생성과 복잡한 추론을 위한 대형 중국어 모델입니다.",
"qianfan-8b.description": "Qianfan 8B는 비용과 품질의 균형을 맞춘 중형 범용 텍스트 생성 및 질의응답 모델입니다.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K는 긴 컨텍스트를 지원하며, 의도 인식 및 에이전트 오케스트레이션에 최적화되어 있습니다.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K는 저비용 다중 회차 대화 및 워크플로우를 위한 경량 에이전트 모델입니다.",
"qianfan-check-vl.description": "Qianfan Check VL은 이미지-텍스트 적합성 및 인식 작업을 위한 멀티모달 콘텐츠 검토 모델입니다.",
"qianfan-composition.description": "Qianfan Composition은 이미지와 텍스트의 혼합 이해 및 생성을 위한 멀티모달 창작 모델입니다.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL은 영어 환경에 특화된 멀티모달 인식 모델입니다.",
"qianfan-lightning-128b-a19b.description": "Qianfan Lightning 128B A19B는 복잡한 질의응답 및 대규모 추론을 위한 고성능 중국어 범용 모델입니다.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B는 Llama 기반의 멀티모달 모델로, 일반적인 이미지-텍스트 이해를 지원합니다.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR은 여러 이미지에서 텍스트를 감지하고 인식하는 다중 이미지 OCR 모델입니다.",
"qianfan-qi-vl.description": "Qianfan QI VL은 복잡한 이미지-텍스트 시나리오에서 정확한 검색 및 질의응답을 위한 멀티모달 QA 모델입니다.",
"qianfan-singlepicocr.description": "Qianfan SinglePicOCR은 단일 이미지에서 고정확 문자 인식을 수행하는 OCR 모델입니다.",
"qianfan-vl-70b.description": "Qianfan VL 70B는 복잡한 이미지-텍스트 이해를 위한 대형 비전-언어 모델입니다.",
"qianfan-vl-8b.description": "Qianfan VL 8B는 일상적인 이미지-텍스트 질의응답 및 분석을 위한 경량 비전-언어 모델입니다.",
"qvq-72b-preview.description": "QVQ-72B-Preview는 시각적 추론 향상을 목표로 하는 Qwen의 실험적 연구 모델입니다.",
"qvq-max.description": "Qwen QVQ 시각 추론 모델은 시각 입력과 연쇄적 사고 출력을 지원하며, 수학, 코딩, 시각 분석, 창의적 작업 및 일반 작업에서 강력한 성능을 발휘합니다.",
"qvq-plus.description": "시각 입력과 연쇄적 사고 출력을 지원하는 시각 추론 모델입니다. qvq-plus 시리즈는 qvq-max의 후속으로, 더 빠른 추론과 우수한 품질-비용 균형을 제공합니다.",
"qwen-3-32b.description": "Qwen 3 32B: 다국어 및 코딩 작업에 강하며, 중규모 프로덕션 환경에 적합합니다.",
"qwen-coder-plus.description": "Qwen 코드 모델입니다.",
"qwen-coder-turbo-latest.description": "Qwen 코드 모델입니다.",
"qwen-coder-turbo.description": "Qwen 코드 모델입니다.",
"qwen-flash.description": "가장 빠르고 비용 효율적인 Qwen 모델로, 간단한 작업에 이상적입니다.",
"qwen-image-edit.description": "Qwen Image Edit는 이미지와 텍스트 프롬프트를 기반으로 이미지를 편집하는 이미지-투-이미지 모델로, 정밀한 조정과 창의적 변형이 가능합니다.",
"qwen-image.description": "Qwen-Image는 다양한 예술 스타일을 지원하고 복잡한 텍스트 렌더링에 강한 범용 이미지 생성 모델입니다. 특히 중국어와 영어에 강하며, 다중 행 레이아웃, 문단 수준 텍스트, 복잡한 텍스트-이미지 레이아웃의 세부 표현을 지원합니다.",
"qwen-long.description": "초대형 Qwen 모델로, 긴 문맥과 다문서 시나리오에서의 대화를 지원합니다.",
"qwen-math-plus-latest.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.",
"qwen-math-plus.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.",
"qwen-math-turbo-latest.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.",
"qwen-math-turbo.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.",
"qwen-max.description": "천억 규모의 초대형 Qwen 모델로, 중국어, 영어 및 기타 언어를 지원합니다. 현재 Qwen2.5 제품의 API 모델입니다.",
"qwen-omni-turbo.description": "Qwen-Omni 모델은 비디오, 오디오, 이미지, 텍스트 등 다중 모달 입력을 지원하며, 오디오 및 텍스트 출력을 제공합니다.",
"qwen-plus.description": "중국어, 영어 및 기타 언어를 지원하는 향상된 초대형 Qwen 모델입니다.",
"qwen-turbo.description": "Qwen Turbo는 더 이상 업데이트되지 않으며, Qwen Flash로 대체됩니다. 중국어, 영어 및 기타 언어를 지원하는 초대형 Qwen 모델입니다.",
"qwen-vl-chat-v1.description": "Qwen VL은 다중 이미지 입력, 다회차 질의응답, 창의적 작업 등 유연한 상호작용을 지원합니다.",
"qwen-vl-max-latest.description": "초대형 Qwen 비전-언어 모델로, 향상된 버전 대비 시각 추론 및 지시 따르기 능력이 더욱 향상되어 인지 및 지각 능력이 강화되었습니다.",
"qwen-vl-max.description": "초대형 Qwen 비전-언어 모델로, 향상된 버전 대비 시각 추론 및 지시 따르기 능력이 더욱 향상되어 시각적 인지 및 이해력이 강화되었습니다.",
"qwen-vl-ocr.description": "Qwen OCR은 문서, 표, 시험 이미지, 필기체 등에서 텍스트를 추출하는 모델입니다. 중국어, 영어, 프랑스어, 일본어, 한국어, 독일어, 러시아어, 이탈리아어, 베트남어, 아랍어를 지원합니다.",
"qwen-vl-plus-latest.description": "세부 묘사 및 텍스트 인식에서 큰 향상을 이룬 향상된 대규모 Qwen 비전-언어 모델로, 100만 화소 이상의 해상도와 자유로운 종횡비를 지원합니다.",
"qwen-vl-plus.description": "세부 묘사 및 텍스트 인식에서 큰 향상을 이룬 향상된 대규모 Qwen 비전-언어 모델로, 100만 화소 이상의 해상도와 자유로운 종횡비를 지원합니다.",
"qwen-vl-v1.description": "Qwen-7B에서 초기화된 사전학습 모델로, 비전 모듈과 448 해상도 이미지 입력을 추가하였습니다.",
"qwen/qwen-2-7b-instruct.description": "Qwen2는 새로운 Qwen LLM 시리즈입니다. Qwen2 7B는 언어 이해, 다국어 처리, 프로그래밍, 수학, 추론에 뛰어난 트랜스포머 기반 모델입니다.",
"qwen/qwen-2-7b-instruct:free.description": "Qwen2는 이해력과 생성 능력이 향상된 새로운 대형 언어 모델 시리즈입니다.",
"qwen/qwen-2-vl-72b-instruct.description": "Qwen2-VL은 Qwen-VL의 최신 버전으로, MathVista, DocVQA, RealWorldQA, MTVQA 등 시각 벤치마크에서 최고 성능을 달성했습니다. 20분 이상의 비디오를 이해하여 고품질 Q&A, 대화, 콘텐츠 생성이 가능하며, 복잡한 추론과 의사결정도 처리합니다. 모바일 기기 및 로봇과 통합되어 시각적 맥락과 텍스트 지시에 따라 행동할 수 있습니다. 영어와 중국어 외에도 대부분의 유럽 언어, 일본어, 한국어, 아랍어, 베트남어 등 다양한 언어의 이미지 내 텍스트를 읽을 수 있습니다.",
"qwen/qwen-2.5-72b-instruct.description": "Qwen2.5-72B-Instruct는 알리바바 클라우드의 최신 LLM 중 하나로, 코딩 및 수학 성능이 크게 향상되었으며, 중국어와 영어를 포함한 29개 이상의 언어를 지원합니다. 지시 따르기, 구조화된 데이터 이해 및 출력(특히 JSON)에서 큰 개선을 보였습니다.",
"qwen/qwen2.5-32b-instruct.description": "Qwen2.5-32B-Instruct는 알리바바 클라우드의 최신 LLM 중 하나로, 코딩 및 수학 성능이 크게 향상되었으며, 중국어와 영어를 포함한 29개 이상의 언어를 지원합니다. 지시 따르기, 구조화된 데이터 이해 및 출력(특히 JSON)에서 큰 개선을 보였습니다.",
"qwen/qwen2.5-7b-instruct.description": "중국어와 영어를 지원하는 이중언어 LLM으로, 언어, 코딩, 수학, 추론 작업에 적합합니다.",
"qwen/qwen2.5-coder-32b-instruct.description": "주요 프로그래밍 언어 전반에 걸쳐 코드 생성, 추론, 수정에 특화된 고급 LLM입니다.",
"qwen/qwen2.5-coder-7b-instruct.description": "32K 문맥을 지원하는 강력한 중형 코드 모델로, 다국어 프로그래밍에 뛰어납니다.",
"qwen/qwen3-14b:free.description": "Qwen3-14B는 복잡한 추론과 효율적인 대화를 위해 설계된 148억 매개변수의 밀집형 인과 LLM입니다. 수학, 코딩, 논리를 위한 사고 모드와 일반 대화를 위한 비사고 모드 간 전환이 가능합니다. 100개 이상의 언어와 방언에 걸쳐 지시 따르기, 에이전트 도구 사용, 창의적 글쓰기에 최적화되어 있습니다. 기본적으로 32K 컨텍스트를 처리하며 YaRN을 통해 131K까지 확장됩니다.",
"qwen/qwen3-235b-a22b-2507.description": "Qwen3-235B-A22B-Instruct-2507은 Qwen3 시리즈의 Instruct 변형으로, 다국어 지시 수행과 장문 컨텍스트 시나리오 간의 균형을 이룹니다.",
"qwen/qwen3-235b-a22b-thinking-2507.description": "Qwen3-235B-A22B-Thinking-2507은 복잡한 수학 및 추론 작업에 강화된 Qwen3의 사고 중심 변형입니다.",
@ -1026,13 +1086,22 @@
"qwen2:72b.description": "Qwen2는 다양한 사용 사례에서 강력한 성능을 발휘하는 Alibaba의 차세대 대형 언어 모델입니다.",
"qwen3-0.6b.description": "Qwen3 0.6B는 단순한 추론과 매우 제한된 환경을 위한 입문용 모델입니다.",
"qwen3-1.7b.description": "Qwen3 1.7B는 엣지 및 디바이스 배포를 위한 초경량 모델입니다.",
"qwen3-14b.description": "Qwen3 14B는 다국어 질의응답 및 텍스트 생성을 위한 중간 규모 모델입니다.",
"qwen3-14b.description": "Qwen3-14B는 일반 추론 및 대화 시나리오에 적합한 14B 버전입니다.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507은 다양한 생성 및 추론 작업을 위한 플래그십 지시 모델입니다.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507은 고난도 추론을 위한 초대형 사고 모델입니다.",
"qwen3-235b-a22b.description": "Qwen3는 차세대 Tongyi Qwen 모델로, 추론, 일반 능력, 에이전트 기능, 다국어 성능에서 큰 향상을 이루었으며, 사고 모드 전환을 지원합니다.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507은 고품질 생성 및 질의응답을 위한 중대형 지시 모델입니다.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507은 정확성과 비용의 균형을 맞춘 중대형 사고 모델입니다.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B는 비용과 품질의 균형을 고려한 중대형 범용 모델입니다.",
"qwen3-32b.description": "Qwen3 32B는 더 강력한 이해가 필요한 일반 작업에 적합합니다.",
"qwen3-4b.description": "Qwen3 4B는 소형~중형 애플리케이션 및 로컬 추론에 적합합니다.",
"qwen3-8b.description": "Qwen3 8B는 고동시 처리에 적합한 유연한 배포가 가능한 경량 모델입니다.",
"qwen3-coder-30b-a3b-instruct.description": "오픈소스 Qwen 코드 모델입니다. 최신 qwen3-coder-30b-a3b-instruct는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct는 다국어 프로그래밍과 복잡한 코드 이해를 위한 플래그십 코드 모델입니다.",
"qwen3-coder-flash.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder-plus.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder:480b.description": "Alibaba의 고성능 장문 컨텍스트 모델로, 에이전트 및 코딩 작업에 적합합니다.",
"qwen3-max-2026-01-23.description": "Qwen3 Max 모델은 2.5 시리즈 대비 일반 능력, 중영어 이해, 복잡한 지시 따르기, 주관적 개방형 작업, 다국어 능력, 도구 사용에서 큰 향상을 이루었으며, 환각 현상이 줄었습니다. 최신 qwen3-max는 qwen3-max-preview보다 에이전트 프로그래밍 및 도구 사용이 향상되었으며, 복잡한 에이전트 요구를 충족하는 분야 최고 성능을 달성했습니다.",
"qwen3-max-preview.description": "복잡하고 다단계 작업에 최적화된 Qwen 모델의 프리뷰 버전입니다. 사고 기능을 지원합니다.",
"qwen3-max.description": "Qwen3 Max 모델은 2.5 시리즈 대비 전반적인 능력, 중영어 이해, 복잡한 지시 수행, 주관적 개방형 작업, 다국어 처리, 도구 활용 등에서 큰 향상을 보이며, 환각 현상도 줄였습니다. 최신 qwen3-max는 qwen3-max-preview보다 에이전트 프로그래밍과 도구 활용이 향상되었습니다. 이 릴리스는 분야별 SOTA 수준에 도달하며, 더 복잡한 에이전트 요구를 충족합니다.",
"qwen3-next-80b-a3b-instruct.description": "차세대 Qwen3 오픈소스 모델로, 이전 버전(Qwen3-235B-A22B-Instruct-2507) 대비 중국어 이해, 논리적 추론, 텍스트 생성 능력이 향상되었습니다.",
@ -1082,6 +1151,39 @@
"step-1v-8k.description": "기본 이미지-텍스트 작업을 위한 소형 비전 모델입니다.",
"step-1x-edit.description": "이 모델은 이미지 편집에 중점을 두며, 사용자 제공 이미지와 텍스트를 기반으로 이미지를 수정 및 향상시킵니다. 텍스트 설명 및 예시 이미지 등 다양한 입력 형식을 지원하며, 사용자 의도에 맞는 편집을 생성합니다.",
"step-1x-medium.description": "이 모델은 텍스트 프롬프트 입력을 기반으로 강력한 이미지 생성을 제공합니다. 중국어를 기본적으로 지원하여 중국어 설명을 더 잘 이해하고 의미를 시각적 특징으로 변환하여 더 정확한 생성을 수행합니다. 고해상도, 고품질 이미지를 생성하며 일정 수준의 스타일 전환도 지원합니다.",
"step-2-16k-exp.description": "최신 기능과 지속적인 업데이트가 포함된 실험적 Step-2 빌드입니다. 프로덕션 환경에는 권장되지 않습니다.",
"step-2-16k.description": "복잡한 대화를 위한 대용량 문맥 상호작용을 지원합니다.",
"step-2-mini.description": "차세대 자체 개발 MFA 어텐션 아키텍처 기반으로, Step-1 수준의 결과를 훨씬 낮은 비용으로 제공하며, 처리량과 지연 시간도 개선되었습니다. 일반 작업과 강력한 코딩 능력을 처리합니다.",
"step-2x-large.description": "StepFun의 차세대 이미지 생성 모델로, 텍스트 프롬프트로부터 고품질 이미지를 생성합니다. 더 사실적인 질감과 강력한 중영문 텍스트 렌더링을 제공합니다.",
"step-3.description": "강력한 시각 인식과 복잡한 추론 능력을 갖춘 모델로, 도메인 간 지식 이해, 수학-시각 교차 분석, 다양한 일상 시각 분석 작업을 정확하게 처리합니다.",
"step-r1-v-mini.description": "이미지와 텍스트를 처리한 후 깊은 추론을 통해 텍스트를 생성하는 강력한 이미지 이해 추론 모델입니다. 시각 추론에 뛰어나며, 수학, 코딩, 텍스트 추론에서 최고 수준의 성능을 발휘하며, 100K 문맥 창을 지원합니다.",
"stepfun-ai/step3.description": "Step3는 StepFun의 최첨단 멀티모달 추론 모델로, 총 321B, 활성 38B 파라미터의 MoE 아키텍처 기반입니다. 종단 간 설계로 디코딩 비용을 최소화하면서 최고 수준의 비전-언어 추론을 제공합니다. MFA 및 AFD 설계를 통해 고급 및 저사양 가속기 모두에서 효율적입니다. 사전학습은 20T+ 텍스트 토큰과 4T 이미지-텍스트 토큰을 다국어로 사용하며, 수학, 코드, 멀티모달 벤치마크에서 최고 수준의 오픈모델 성능을 달성합니다.",
"taichu_llm.description": "대규모 고품질 데이터로 학습되어 텍스트 이해, 콘텐츠 생성, 대화형 질의응답 능력이 향상되었습니다.",
"taichu_o1.description": "taichu_o1은 멀티모달 상호작용과 강화학습을 통해 인간과 유사한 연쇄적 사고를 구현하는 차세대 추론 모델로, 복잡한 의사결정 시뮬레이션을 지원하며, 높은 정확도를 유지하면서 추론 경로를 노출합니다. 전략 분석 및 심층 사고에 적합합니다.",
"taichu_vl.description": "이미지 이해, 지식 전이, 논리 귀속을 결합하여 이미지-텍스트 질의응답에서 뛰어난 성능을 발휘합니다.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct는 총 80B, 활성 13B 파라미터로 더 큰 모델과 유사한 성능을 제공합니다. 빠른/느린 하이브리드 추론, 안정적인 장문 이해, BFCL-v3 및 τ-Bench에서 선도적인 에이전트 능력을 지원합니다. GQA 및 다중 양자화 형식을 통해 효율적인 추론이 가능합니다.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan 번역 모델은 Hunyuan-MT-7B와 앙상블 모델 Hunyuan-MT-Chimera로 구성됩니다. Hunyuan-MT-7B는 33개 언어와 5개 중국 소수민족 언어를 지원하는 7B 경량 번역 모델로, WMT25에서 31개 언어쌍 중 30개에서 1위를 차지했습니다. 텐센트 Hunyuan은 사전학습부터 SFT, 번역 RL, 앙상블 RL까지 전체 학습 파이프라인을 사용하여 효율적이고 배포가 쉬운 최고 성능을 달성했습니다.",
"text-embedding-3-large.description": "영어 및 비영어 작업에 가장 강력한 임베딩 모델입니다.",
"text-embedding-3-small.description": "검색 및 RAG 시나리오에 적합한 효율적이고 비용 효율적인 차세대 임베딩 모델입니다.",
"thudm/glm-4-32b.description": "GLM-4-32B-0414는 코드 생성, 함수 호출, 에이전트 작업에 최적화된 32B 중영 이중언어 오픈 가중치 모델입니다. 15T 고품질 추론 중심 데이터로 사전학습되었으며, 인간 선호 정렬, 거절 샘플링, RL로 추가 정제되었습니다. 복잡한 추론, 산출물 생성, 구조화된 출력에서 뛰어나며, 여러 벤치마크에서 GPT-4o 및 DeepSeek-V3-0324 수준의 성능을 달성합니다.",
"thudm/glm-4-32b:free.description": "GLM-4-32B-0414는 코드 생성, 함수 호출, 에이전트 작업에 최적화된 32B 중영 이중언어 오픈 가중치 모델입니다. 15T 고품질 추론 중심 데이터로 사전학습되었으며, 인간 선호 정렬, 거절 샘플링, RL로 추가 정제되었습니다. 복잡한 추론, 산출물 생성, 구조화된 출력에서 뛰어나며, 여러 벤치마크에서 GPT-4o 및 DeepSeek-V3-0324 수준의 성능을 달성합니다.",
"thudm/glm-4-9b-chat.description": "Zhipu AI의 최신 GLM-4 사전학습 모델의 오픈소스 릴리스입니다.",
"thudm/glm-z1-32b.description": "GLM-Z1-32B-0414는 GLM-4-32B의 향상된 추론 버전으로, 수학, 논리, 코드 중심 문제 해결에 최적화되었습니다. 복잡한 다단계 작업을 개선하기 위해 확장된 RL(작업별 및 일반 쌍별 선호)을 적용하였습니다. 프롬프트 엔지니어링을 통한 사고 단계 유도, 장문 출력의 일관성 향상, 에이전트 워크플로우 최적화(YaRN 기반 장문맥, JSON 도구 호출, 세밀한 샘플링)를 지원합니다. 정밀한 다단계 또는 형식적 유도 작업에 이상적입니다.",
"thudm/glm-z1-rumination-32b.description": "GLM Z1 Rumination 32B는 GLM-4-Z1 시리즈의 32B 심층 추론 모델로, 장시간 사고가 필요한 복잡한 개방형 작업에 최적화되었습니다. glm-4-32b-0414를 기반으로 추가 RL 단계와 다단계 정렬을 도입하여 '반추' 기능을 구현하였습니다. 반복 추론, 다중 홉 분석, 검색·인용 기반 통합 등 도구 보강 워크플로우를 포함합니다. 연구 글쓰기, 비교 분석, 복잡한 질의응답에 뛰어나며, 에이전트 파이프라인을 위한 검색/탐색 함수 호출(`search`, `click`, `open`, `finish`)을 지원합니다. 반추 행동은 규칙 기반 보상 설계와 지연된 의사결정 메커니즘을 포함한 다회전 루프로 제어되며, OpenAI의 내부 정렬 스택과 같은 심층 연구 프레임워크를 기준으로 벤치마크되었습니다. 이 변형은 속도보다 깊이에 중점을 둡니다.",
"tngtech/deepseek-r1t-chimera:free.description": "DeepSeek-R1T-Chimera는 DeepSeek-R1과 DeepSeek-V3(0324)를 병합하여 R1의 추론력과 V3의 토큰 효율성을 결합한 모델입니다. DeepSeek-MoE 트랜스포머 기반으로, 일반 텍스트 생성에 최적화되었습니다. 사전학습 가중치를 병합하여 추론, 효율성, 지시 따르기의 균형을 맞췄으며, 연구 및 상업적 사용을 위한 MIT 라이선스로 공개되었습니다.",
"togethercomputer/StripedHyena-Nous-7B.description": "StripedHyena Nous (7B)는 아키텍처와 전략을 통해 연산 효율성을 향상시킨 모델입니다.",
"tts-1-hd.description": "품질에 최적화된 최신 텍스트-투-스피치 모델입니다.",
"tts-1.description": "실시간 속도에 최적화된 최신 텍스트-투-스피치 모델입니다.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B)는 정밀한 지시 작업에 최적화된 강력한 언어 성능을 제공합니다.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet은 업계 기준을 끌어올리며, 다양한 평가에서 경쟁 모델과 Claude 3 Opus를 능가하면서도 중간 수준의 속도와 비용을 유지합니다.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet은 Anthropic의 가장 빠른 차세대 모델로, Claude 3 Haiku 대비 전반적인 능력이 향상되었으며, 이전 플래그십 Claude 3 Opus를 여러 지능 벤치마크에서 능가합니다.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5는 Anthropic의 가장 빠르고 지능적인 Haiku 모델로, 번개 같은 속도와 확장된 사고 능력을 갖추고 있습니다.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6은 에이전트 구축과 코딩에 최적화된 Anthropic의 가장 지능적인 모델입니다.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5는 현재까지 출시된 Anthropic의 가장 지능적인 모델입니다.",
"v0-1.0-md.description": "v0 API를 통해 제공되는 레거시 모델입니다.",
"v0-1.5-lg.description": "고급 사고 또는 추론 작업에 적합합니다.",
"v0-1.5-md.description": "일상 작업 및 UI 생성에 적합합니다.",
"vercel/v0-1.0-md.description": "v0의 기반 모델에 접근하여 최신 웹 앱을 프레임워크별 추론과 최신 지식으로 생성, 수정, 최적화할 수 있습니다.",
"vercel/v0-1.5-md.description": "v0의 모델에 접근하여 최신 지식과 프레임워크별 추론을 바탕으로 현대적인 웹 앱을 생성, 수정, 최적화할 수 있습니다.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code는 바이트댄스 화산 엔진의 LLM으로, 에이전트 프로그래밍에 최적화되어 있으며, 256K 컨텍스트 지원과 함께 프로그래밍 및 에이전트 벤치마크에서 뛰어난 성능을 발휘합니다.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed는 창의성, 안정성, 사실감이 향상된 최신 모델로, 빠른 생성 속도와 높은 가치를 제공합니다.",
@ -1121,6 +1223,7 @@
"z-ai/glm-4.5-air.description": "GLM 4.5 Air는 비용에 민감한 시나리오를 위한 경량 모델로, 강력한 추론 능력을 유지합니다.",
"z-ai/glm-4.5.description": "GLM 4.5는 Z.AI의 대표 모델로, 하이브리드 추론이 가능하며, 엔지니어링 및 장문 컨텍스트 작업에 최적화되어 있습니다.",
"z-ai/glm-4.6.description": "GLM 4.6은 Z.AI의 대표 모델로, 확장된 컨텍스트 길이와 향상된 코딩 기능을 제공합니다.",
"z-ai/glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 일반 능력 향상, 더 자연스럽고 간결한 응답, 몰입감 있는 글쓰기 경험을 제공합니다.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5.description": "GLM-4.5는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 깊이 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5V.description": "GLM-4.5V는 GLM-4.5-Air 기반의 최신 VLM으로, 106B 총 파라미터(12B 활성)를 갖춘 MoE 아키텍처를 사용하여 낮은 비용으로 강력한 성능을 제공합니다. GLM-4.1V-Thinking 경로를 따르며, 3D-RoPE를 추가하여 3D 공간 추론을 향상시켰습니다. 사전학습, SFT, RL을 통해 최적화되었으며, 이미지, 비디오, 장문 문서를 처리할 수 있습니다. 41개 공개 멀티모달 벤치마크에서 오픈 모델 중 최고 순위를 기록했습니다. Thinking 모드 전환 기능을 통해 속도와 깊이를 조절할 수 있습니다.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "총 {{count}}개의 매개변수가 있습니다",
"arguments.title": "매개변수 목록",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "사용 가능한 모델 가져오기",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "사용 가능한 도구 가져오기",

View file

@ -29,6 +29,7 @@
"internlm.description": "InternLM은 대규모 모델 연구 및 도구 개발에 집중하는 오픈소스 조직으로, 최신 모델과 알고리즘을 누구나 쉽게 사용할 수 있도록 효율적인 플랫폼을 제공합니다.",
"jina.description": "2020년에 설립된 Jina AI는 선도적인 검색 AI 기업으로, 벡터 모델, 재정렬기, 소형 언어 모델을 포함한 검색 스택을 통해 신뢰성 높고 고품질의 생성형 및 멀티모달 검색 앱을 구축합니다.",
"lmstudio.description": "LM Studio는 데스크탑에서 LLM을 개발하고 실험할 수 있는 애플리케이션입니다.",
"lobehub.description": "LobeHub Cloud는 공식 API를 통해 AI 모델에 접근하며, 모델 토큰에 기반한 크레딧으로 사용량을 측정합니다.",
"minimax.description": "2021년에 설립된 MiniMax는 텍스트, 음성, 비전 등 멀티모달 기반의 범용 AI를 개발하며, 조 단위 파라미터의 MoE 텍스트 모델과 Hailuo AI와 같은 앱을 제공합니다.",
"mistral.description": "Mistral은 복잡한 추론, 다국어 작업, 코드 생성에 적합한 고급 범용, 특화, 연구용 모델을 제공하며, 사용자 정의 통합을 위한 함수 호출 기능도 지원합니다.",
"modelscope.description": "ModelScope는 Alibaba Cloud의 모델 서비스 플랫폼으로, 다양한 AI 모델과 추론 서비스를 제공합니다.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Registreer nu",
"betterAuth.signin.socialError": "Sociale login mislukt, probeer het opnieuw",
"betterAuth.signin.socialOnlyHint": "Dit e-mailadres is geregistreerd via een externe sociale account. Log in met die aanbieder, of",
"betterAuth.signin.ssoOnlyNoProviders": "Registratie via e-mail is uitgeschakeld en er zijn geen SSO-providers geconfigureerd. Neem contact op met je beheerder.",
"betterAuth.signin.submit": "Inloggen",
"betterAuth.signup.confirmPasswordPlaceholder": "Bevestig je wachtwoord",
"betterAuth.signup.emailPlaceholder": "Voer je e-mailadres in",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Details bekijken",
"clearCurrentMessages": "Huidige sessieberichten wissen",
"compressedHistory": "Samengevatte Geschiedenis",
"compression.cancel": "Uitpakken",
"compression.cancelConfirm": "Weet je zeker dat je wilt uitpakken? Dit zal de oorspronkelijke berichten herstellen.",
"compression.history": "Geschiedenis",
"compression.summary": "Samenvatting",
"confirmClearCurrentMessages": "Je staat op het punt de huidige sessieberichten te wissen. Na het wissen kunnen ze niet worden hersteld. Bevestig je actie.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Agent aanmaken",
"extendParams.disableContextCaching.desc": "Verlaag tot 90% van de kosten per gesprek en verhoog de snelheid tot 4x. Inschakelen schakelt automatisch de limiet op historische berichten uit. <1>Meer informatie</1>",
"extendParams.disableContextCaching.title": "Context Caching inschakelen",
"extendParams.effort.desc": "Bepaal met de inspanningsparameter hoeveel tokens Claude gebruikt bij het reageren.",
"extendParams.effort.title": "Inspanning",
"extendParams.enableAdaptiveThinking.desc": "Laat Claude dynamisch beslissen wanneer en hoeveel hij moet nadenken met de adaptieve denkmethode.",
"extendParams.enableAdaptiveThinking.title": "Adaptief Denken Inschakelen",
"extendParams.enableReasoning.desc": "Gebaseerd op het Claude Thinking-mechanisme. Inschakelen schakelt automatisch de limiet op historische berichten uit. <1>Meer informatie</1>",
"extendParams.enableReasoning.title": "Diep Denken inschakelen",
"extendParams.imageAspectRatio.title": "Beeldverhouding",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Nog geen geforkte agentgroepen",
"user.noForkedAgents": "Nog geen geforkte agents",
"user.publishedAgents": "Gemaakte Agents",
"user.publishedGroups": "Aangemaakte Groepen",
"user.searchPlaceholder": "Zoeken op naam of beschrijving...",
"user.statusFilter.all": "Alles",
"user.statusFilter.archived": "Gearchiveerd",
"user.statusFilter.deprecated": "Verouderd",
"user.statusFilter.favorite": "Favoriet",
"user.statusFilter.forked": "Gekopieerd",
"user.statusFilter.published": "Gepubliceerd",
"user.statusFilter.unpublished": "In Beoordeling",
"user.tabs.favorites": "Favorieten",
"user.tabs.forkedAgents": "Geforkt",
"user.tabs.publishedAgents": "Gemaakt",

View file

@ -150,6 +150,7 @@
"upload.desc": "Details: {{detail}}",
"upload.fileOnlySupportInServerMode": "De huidige implementatiemodus ondersteunt geen upload van niet-afbeeldingsbestanden. Om bestanden in {{ext}}-formaat te uploaden, schakel over naar serverdatabase-implementatie of gebruik de {{cloud}}-service.",
"upload.networkError": "Controleer je netwerkverbinding en zorg dat de cross-origin-instellingen van de opslagservice correct zijn.",
"upload.storageLimitExceeded": "Je bestandsopslag heeft de limiet van je abonnement bereikt. Upgrade je abonnement of verwijder ongebruikte bestanden om ruimte vrij te maken.",
"upload.title": "Uploaden van bestand mislukt. Controleer je netwerkverbinding of probeer later opnieuw.",
"upload.unknownError": "Foutreden: {{reason}}",
"upload.uploadFailed": "Uploaden van bestand mislukt."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Modelweergavenaam",
"providerModels.item.modelConfig.extendParams.extra": "Kies uitgebreide parameters die door het model worden ondersteund. Beweeg met de muis over een optie om de instellingen te bekijken. Onjuiste configuraties kunnen leiden tot fouten bij het uitvoeren van verzoeken.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Voor Claude-modellen; kan kosten verlagen en reacties versnellen.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Voor Claude Opus 4.6; bepaalt het inspanningsniveau (laag/middel/hoog/maximaal).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Voor Claude Opus 4.6; schakelt adaptief denken in of uit.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Voor Claude-, DeepSeek- en andere redeneermodellen; activeert diepgaander denken.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Voor GPT-5-serie; regelt de intensiteit van het redeneren.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Voor GPT-5.1-serie; regelt de intensiteit van het redeneren.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Een nieuw intern redeneermodel met 80K chain-of-thought en 1M input, met prestaties vergelijkbaar met toonaangevende wereldwijde modellen.",
"MiniMax-M2-Stable.description": "Ontworpen voor efficiënte codeer- en agentworkflows, met hogere gelijktijdigheid voor commercieel gebruik.",
"MiniMax-M2.1-Lightning.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring. Sneller en efficiënter.",
"MiniMax-M2.1.description": "Krachtige meertalige programmeermogelijkheden, een volledig vernieuwde programmeerervaring.",
"MiniMax-M2.1.description": "MiniMax-M2.1 is het vlaggenschip open-source grote model van MiniMax, gericht op het oplossen van complexe, realistische taken. De kernkwaliteiten zijn meertalige programmeermogelijkheden en het vermogen om complexe taken als een Agent op te lossen.",
"MiniMax-M2.description": "Speciaal ontwikkeld voor efficiënt coderen en agent-workflows.",
"MiniMax-Text-01.description": "MiniMax-01 introduceert grootschalige lineaire aandacht voorbij klassieke Transformers, met 456B parameters en 45,9B geactiveerd per pass. Het levert topprestaties en ondersteunt tot 4M tokens context (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 is een open-gewichten grootschalig hybrid-attention redeneermodel met 456B totale parameters en ~45,9B actief per token. Het ondersteunt native 1M context en gebruikt Flash Attention om FLOPs met 75% te verminderen bij 100K-token generatie versus DeepSeek R1. Met een MoE-architectuur plus CISPO en hybrid-attention RL-training behaalt het toonaangevende prestaties op lang-input redeneren en echte software engineering-taken.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 biljoen totale parameters met 32 miljard actief. Onder de niet-denkende modellen behoort het tot de top op het gebied van geavanceerde kennis, wiskunde en programmeren, en is het sterker in algemene agenttaken. Geoptimaliseerd voor agentworkloads, kan het acties uitvoeren in plaats van alleen vragen beantwoorden. Ideaal voor improviserende, algemene gesprekken en agentervaringen als een reflexmatig model zonder langdurig denkproces.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7 miljard) is een zeer nauwkeurig instructiemodel voor complexe berekeningen.",
"OmniConsistency.description": "OmniConsistency verbetert stijlconsistentie en generalisatie bij beeld-naar-beeld-taken door grootschalige Diffusion Transformers (DiTs) en gepaarde gestileerde data te introduceren, waardoor stijlvervaging wordt voorkomen.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 is een geüpgradede versie van de PaddleOCR-VL-serie en behaalt 94,5% nauwkeurigheid op de OmniDocBench v1.5 benchmark voor documentanalyse. Het overtreft toonaangevende algemene grote modellen en gespecialiseerde documentmodellen. Het ondersteunt innovatief de lokalisatie van onregelmatige begrenzingskaders voor documentelementen, en verwerkt effectief gescande, gekantelde en schermopnames.",
"Phi-3-medium-128k-instruct.description": "Hetzelfde Phi-3-medium model met een groter contextvenster voor RAG of few-shot prompts.",
"Phi-3-medium-4k-instruct.description": "Een model met 14 miljard parameters van hogere kwaliteit dan Phi-3-mini, gericht op hoogwaardige, redeneerintensieve data.",
"Phi-3-mini-128k-instruct.description": "Hetzelfde Phi-3-mini model met een groter contextvenster voor RAG of few-shot prompts.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 is een MoE-model met 671 miljard parameters dat gebruikmaakt van MLA en DeepSeekMoE met verliesvrije load balancing voor efficiënte inferentie en training. Voorgetraind op 14,8 biljoen hoogwaardige tokens en verder verfijnd met SFT en RL, overtreft het andere open modellen en benadert toonaangevende gesloten modellen.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 is de nieuwste en krachtigste Kimi K2. Het is een topklasse MoE-model met 1 biljoen totale en 32 miljard actieve parameters. Belangrijke kenmerken zijn sterkere agentgerichte programmeerintelligentie met aanzienlijke verbeteringen op benchmarks en echte agenttaken, plus verbeterde esthetiek en bruikbaarheid van frontend-code.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo is de Turbo-variant geoptimaliseerd voor redeneersnelheid en verwerkingscapaciteit, terwijl het de meerstapsredenering en gereedschapsgebruik van K2 Thinking behoudt. Het is een MoE-model met ongeveer 1 biljoen totale parameters, native 256K context en stabiele grootschalige tool-aanroepen voor productieomgevingen met strengere eisen aan latentie en gelijktijdigheid.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 is een open-source native multimodaal agentmodel, gebaseerd op Kimi-K2-Base, getraind op ongeveer 1,5 biljoen gecombineerde visuele en tekstuele tokens. Het model gebruikt een MoE-architectuur met 1T totale parameters en 32B actieve parameters, ondersteunt een contextvenster van 256K en integreert naadloos visuele en taalbegripmogelijkheden.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu met 355 miljard totale parameters en 32 miljard actieve parameters. Het is volledig vernieuwd op het gebied van algemene dialoog, redeneren en agentfunctionaliteit. GLM-4.7 versterkt Interleaved Thinking en introduceert Preserved Thinking en Turn-level Thinking.",
"QwQ-32B-Preview.description": "Qwen QwQ is een experimenteel onderzoeksmodel gericht op het verbeteren van redenering.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview is een onderzoeksmodel van Qwen gericht op visuele redenering, met sterke prestaties in het begrijpen van complexe scènes en visuele wiskundeproblemen.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic. In vergelijking met Claude 3 Haiku presteert het beter op meerdere vaardigheden en overtreft het het vorige topmodel Claude 3 Opus op veel intelligentietests.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste model van de volgende generatie van Anthropic, met verbeterde vaardigheden en betere prestaties dan het vorige vlaggenschip Claude 3 Opus op veel benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku levert snelle reacties voor lichte taken.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze redeneringen tonen. Sonnet blinkt uit in coderen, datawetenschap, visuele taken en agenttoepassingen.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 is het meest intelligente model van Anthropic en het eerste hybride redeneermodel op de markt. Het ondersteunt directe reacties of uitgebreide denkprocessen met fijnmazige controle.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku is het snelste en meest compacte model van Anthropic, ontworpen voor vrijwel directe reacties met snelle en nauwkeurige prestaties.",
"claude-3-opus-20240229.description": "Claude 3 Opus is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet biedt een balans tussen intelligentie en snelheid voor zakelijke toepassingen, met hoge bruikbaarheid tegen lagere kosten en betrouwbare grootschalige inzet.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en slimste Haiku-model van Anthropic, met bliksemsnelle reacties en geavanceerde redeneercapaciteiten.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 is het snelste en meest intelligente Haiku-model van Anthropic, met bliksemsnelle reacties en diepgaand denkvermogen.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking is een geavanceerde variant die zijn redeneerproces kan onthullen.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, met uitmuntende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitstekende prestaties op het gebied van intelligentie, vloeiendheid en begrip.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 is het nieuwste en meest capabele model van Anthropic voor zeer complexe taken, uitblinkend in prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-20250514.description": "Claude Opus 4 is het krachtigste model van Anthropic voor zeer complexe taken, met uitmuntende prestaties, intelligentie, vloeiendheid en begrip.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie combineert met schaalbare prestaties. Ideaal voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
"claude-opus-4-6.description": "Claude Opus 4.6 is het meest intelligente model van Anthropic voor het bouwen van agents en programmeren.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking kan vrijwel directe antwoorden geven of uitgebreide stapsgewijze redenering tonen met zichtbaar proces.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 kan vrijwel direct antwoorden genereren of uitgebreide stapsgewijze denkprocessen tonen met een zichtbaar verloop.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is tot nu toe het meest intelligente model van Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 is het meest intelligente model van Anthropic tot nu toe, met directe reacties of uitgebreide stapsgewijze denkprocessen en fijnmazige controle voor API-gebruikers.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 is het meest intelligente model van Anthropic tot nu toe.",
"codegeex-4.description": "CodeGeeX-4 is een krachtige AI-codeassistent die meertalige Q&A en codeaanvulling ondersteunt om de productiviteit van ontwikkelaars te verhogen.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B is een meertalig codegeneratiemodel dat codeaanvulling en -generatie, code-interpreter, webzoekopdrachten, functieaanroepen en Q&A op repo-niveau ondersteunt. Het dekt een breed scala aan softwareontwikkelingsscenarios en is een topmodel onder de 10 miljard parameters.",
"codegemma.description": "CodeGemma is een lichtgewicht model voor diverse programmeertaken, dat snelle iteratie en integratie mogelijk maakt.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
"deepseek-chat.description": "Een nieuw open-source model dat algemene en programmeercapaciteiten combineert. Het behoudt de algemene dialoogvaardigheden van het chatmodel en de sterke programmeerprestaties van het coderingsmodel, met verbeterde voorkeurafstemming. DeepSeek-V2.5 verbetert ook schrijfvaardigheid en het volgen van instructies.",
"deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoordtaken en agenttoepassingen. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, leidend in open-source agentbeoordelingen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 is een open-source MoE-codeermodel dat sterk presteert bij programmeertaken, vergelijkbaar met GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "DeepSeek R1 snelle volledige versie met realtime webzoekfunctie, combineert 671B-capaciteit met snellere reacties.",
"deepseek-r1-online.description": "DeepSeek R1 volledige versie met 671B parameters en realtime webzoekfunctie, biedt sterkere begrip- en generatiecapaciteiten.",
"deepseek-r1.description": "DeepSeek-R1 gebruikt cold-start data vóór versterkingsleren en presteert vergelijkbaar met OpenAI-o1 op wiskunde, programmeren en redenering.",
"deepseek-reasoner.description": "DeepSeek V3.2-denkmodus genereert een denkproces vóór het eindantwoord om de nauwkeurigheid te verbeteren.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking is een diep redeneermodel dat eerst een denkproces genereert voordat het output levert, voor hogere nauwkeurigheid. Het behaalt topprestaties in competities en redeneert op het niveau van Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 is een efficiënt MoE-model voor kosteneffectieve verwerking.",
"deepseek-v2:236b.description": "DeepSeek V2 236B is DeepSeeks codegerichte model met sterke codegeneratie.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 is een MoE-model met 671B parameters en uitmuntende prestaties in programmeren, technische vaardigheden, contextbegrip en verwerking van lange teksten.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview is een previewmodel voor personage- en plotcreatie, bedoeld voor functietests en evaluatie.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K is een personagegericht model voor romans en plotontwikkeling, geschikt voor het genereren van lange verhalen.",
"ernie-irag-edit.description": "ERNIE iRAG Edit is een afbeeldingsbewerkingsmodel dat wissen, herschilderen en variantgeneratie ondersteunt.",
"ernie-lite-8k.description": "ERNIE Lite 8K is een lichtgewicht algemeen model voor kostengevoelige dagelijkse vraag-en-antwoord en inhoudsgeneratie.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is een lichtgewicht model met hoge prestaties voor scenario's met lage latentie en kosten.",
"ernie-novel-8k.description": "ERNIE Novel 8K is ontworpen voor lange romans en IP-verhalen met meerdere personages.",
"ernie-speed-128k.description": "ERNIE Speed 128K is een model zonder I/O-kosten voor begrip van lange teksten en grootschalige tests.",
"ernie-speed-8k.description": "ERNIE Speed 8K is een gratis, snel model voor dagelijkse gesprekken en lichte teksttaken.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is een model met hoge gelijktijdigheid en hoge waarde voor grootschalige online diensten en zakelijke toepassingen.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K is een ultralicht model voor eenvoudige vraag-en-antwoord, classificatie en goedkope inferentie.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 is een afbeeldingsgeneratiemodel van ByteDance Seed, dat tekst- en afbeeldingsinvoer ondersteunt en zeer controleerbare, hoogwaardige beelden genereert op basis van tekstprompts.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde onderwerpconsistentie, nauwkeurige instructieopvolging, ruimtelijk logisch begrip, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en beeldinvoer voor zeer controleerbare, hoogwaardige beeldgeneratie op basis van prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] accepteert tekst en referentieafbeeldingen als invoer, waardoor gerichte lokale bewerkingen en complexe wereldwijde scèneaanpassingen mogelijk zijn.",
"fal-ai/flux/krea.description": "Flux Krea [dev] is een afbeeldingsgeneratiemodel met een esthetische voorkeur voor realistische, natuurlijke beelden.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Een krachtig, native multimodaal afbeeldingsgeneratiemodel.",
"fal-ai/imagen4/preview.description": "Hoogwaardig afbeeldingsgeneratiemodel van Google.",
"fal-ai/nano-banana.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee beeldgeneratie en -bewerking via conversatie mogelijk is.",
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team dat semantische en visuele bewerkingen ondersteunt, nauwkeurige bewerking van Chinese en Engelse tekst mogelijk maakt, en hoogwaardige bewerkingen zoals stijltransfers en objectrotatie uitvoert.",
"fal-ai/qwen-image.description": "Een krachtig afbeeldingsgeneratiemodel van het Qwen-team met indrukwekkende weergave van Chinese tekst en diverse visuele stijlen.",
"fal-ai/qwen-image-edit.description": "Een professioneel afbeeldingsbewerkingsmodel van het Qwen-team, met ondersteuning voor semantische en uiterlijke bewerkingen, nauwkeurige Chinese/Engelse tekstbewerking, stijltransformatie, rotatie en meer.",
"fal-ai/qwen-image.description": "Een krachtig beeldgeneratiemodel van het Qwen-team met sterke Chinese tekstrendering en diverse visuele stijlen.",
"flux-1-schnell.description": "Een tekst-naar-beeldmodel met 12 miljard parameters van Black Forest Labs, dat gebruikmaakt van latente adversariële diffusiedistillatie om hoogwaardige beelden te genereren in 14 stappen. Het evenaart gesloten alternatieven en is uitgebracht onder de Apache-2.0-licentie voor persoonlijk, onderzoeks- en commercieel gebruik.",
"flux-dev.description": "FLUX.1 [dev] is een open-gewichten gedistilleerd model voor niet-commercieel gebruik. Het behoudt bijna professionele beeldkwaliteit en instructieopvolging, terwijl het efficiënter werkt en middelen beter benut dan standaardmodellen van vergelijkbare grootte.",
"flux-kontext-max.description": "State-of-the-art contextuele beeldgeneratie en -bewerking, waarbij tekst en afbeeldingen worden gecombineerd voor nauwkeurige, samenhangende resultaten.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro ondersteunt tot 2 miljoen tokens en is een ideaal middelgroot multimodaal model voor complexe taken.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"gemini-2.0-flash-exp-image-generation.description": "Experimentele variant van Gemini 2.0 Flash met ondersteuning voor beeldgeneratie.",
"gemini-2.0-flash-exp.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash-lite-001.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash-lite.description": "Een variant van Gemini 2.0 Flash geoptimaliseerd voor kostenefficiëntie en lage latentie.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat conversatiegestuurde beeldgeneratie en -bewerking mogelijk maakt.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, dat conversatiegestuurde beeldgeneratie en -bewerking mogelijk maakt.",
"gemini-2.5-flash-image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-image:image.description": "Nano Banana is het nieuwste, snelste en meest efficiënte native multimodale model van Google, waarmee conversatiegestuurde beeldgeneratie en -bewerking mogelijk is.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
"gemini-3-flash-preview.description": "Gemini 3 Flash is het slimste model dat is gebouwd voor snelheid, met geavanceerde intelligentie en uitstekende zoekverankering.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het afbeeldingsgeneratiemodel van Google en ondersteunt ook multimodale chat.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "De GLM-Z1-serie biedt krachtige complexe redenering en blinkt uit in logica, wiskunde en programmeren.",
"glm-z1-flashx.description": "Snel en kostenefficiënt: Flash-verbeterd met ultrasnelle redenering en hogere gelijktijdigheid.",
"glm-zero-preview.description": "GLM-Zero-Preview levert sterke complexe redenering en blinkt uit in logica, wiskunde en programmeren.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie en schaalbare prestaties combineert voor complexe taken die hoogwaardige antwoorden en redenering vereisen.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 is het vlaggenschipmodel van Anthropic, dat uitzonderlijke intelligentie en schaalbare prestaties combineert voor complexe taken die antwoorden van de hoogste kwaliteit en redeneervermogen vereisen.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash biedt mogelijkheden van de volgende generatie, waaronder uitstekende snelheid, native toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental is het nieuwste experimentele multimodale AI-model van Google met kwaliteitsverbeteringen ten opzichte van eerdere versies, vooral op het gebied van wereldkennis, code en lange context.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite is een lichte variant van Gemini met standaard uitgeschakeld denkvermogen om latentie en kosten te verlagen, maar dit kan worden ingeschakeld via parameters.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite biedt functies van de volgende generatie, waaronder uitzonderlijke snelheid, ingebouwd toolgebruik, multimodale generatie en een contextvenster van 1 miljoen tokens.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash is het krachtige redeneermodel van Google voor uitgebreide multimodale taken.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Snelle K2-variant voor diepgaand denken met 256k context, sterke redenering en een uitvoersnelheid van 60100 tokens/seconde.",
"kimi-k2-thinking.description": "kimi-k2-thinking is een Moonshot AI-denkmodel met algemene agent- en redeneervaardigheden. Het blinkt uit in diepgaand redeneren en kan complexe problemen oplossen via meerstapsgebruik van tools.",
"kimi-k2-turbo-preview.description": "kimi-k2 is een MoE-basismodel met sterke programmeer- en agentvaardigheden (1T totale parameters, 32B actief), dat beter presteert dan andere gangbare open modellen op het gebied van redeneren, programmeren, wiskunde en agentbenchmarks.",
"kimi-k2.5.description": "Kimi K2.5 is het meest capabele Kimi-model, met open-source SOTA-prestaties in agenttaken, programmeren en visueel begrip. Het ondersteunt multimodale invoer en zowel denk- als niet-denkmodi.",
"kimi-k2.description": "Kimi-K2 is een MoE-basismodel van Moonshot AI met sterke programmeer- en agentvaardigheden, met in totaal 1T parameters waarvan 32B actief. Het presteert beter dan andere gangbare open modellen op benchmarks voor algemeen redeneren, programmeren, wiskunde en agenttaken.",
"kimi-k2:1t.description": "Kimi K2 is een groot MoE LLM van Moonshot AI met 1T totale parameters en 32B actief per voorwaartse stap. Het is geoptimaliseerd voor agentvaardigheden zoals geavanceerd toolgebruik, redeneren en codesynthese.",
"kimi-latest.description": "Kimi Latest gebruikt het nieuwste Kimi-model en kan experimentele functies bevatten. Het ondersteunt beeldbegrip en kiest automatisch 8k/32k/128k factureringsmodellen op basis van contextlengte.",
@ -970,6 +971,37 @@
"openai/gpt-5.description": "GPT-5 is OpenAIs krachtige model voor een breed scala aan productie- en onderzoekstaken.",
"openai/gpt-oss-120b.description": "Een zeer capabel algemeen LLM met sterk, controleerbaar redeneervermogen.",
"openai/gpt-oss-20b.description": "Een compact taalmodel met open gewichten, geoptimaliseerd voor lage latentie en omgevingen met beperkte middelen, inclusief lokale en edge-implementaties.",
"openai/o1-mini.description": "o1-mini is een snel, kostenefficiënt redeneermodel ontworpen voor programmeren, wiskunde en wetenschap. Het ondersteunt 128K context en heeft een kennisgrens van oktober 2023.",
"openai/o1-preview.description": "o1 is het nieuwe redeneermodel van OpenAI voor complexe taken die brede kennis vereisen. Het ondersteunt 128K context en heeft een kennisgrens van oktober 2023.",
"openai/o1.description": "OpenAI o1 is een vlaggenschip redeneermodel gebouwd voor complexe problemen die diepgaand denken vereisen, met sterk redeneervermogen en hogere nauwkeurigheid bij meerstapstaken.",
"openai/o3-mini-high.description": "o3-mini (hoog redeneervermogen) biedt hogere intelligentie tegen dezelfde kosten en latentie als o1-mini.",
"openai/o3-mini.description": "o3-mini is het nieuwste kleine redeneermodel van OpenAI, met hogere intelligentie tegen dezelfde kosten en latentie als o1-mini.",
"openai/o3.description": "OpenAI o3 is het krachtigste redeneermodel, dat nieuwe SOTA-prestaties levert in programmeren, wiskunde, wetenschap en visuele perceptie. Het blinkt uit in complexe, veelzijdige vragen en is bijzonder sterk in het analyseren van afbeeldingen, grafieken en diagrammen.",
"openai/o4-mini-high.description": "o4-mini high reasoning tier is geoptimaliseerd voor snelle, efficiënte redenering met sterke prestaties in programmeren en visuele taken.",
"openai/o4-mini.description": "OpenAI o4-mini is een klein, efficiënt redeneermodel voor scenario's met lage latentie.",
"openai/text-embedding-3-large.description": "Het meest capabele embeddingmodel van OpenAI voor Engelse en niet-Engelse taken.",
"openai/text-embedding-3-small.description": "De verbeterde, krachtige ada embedding-variant van OpenAI.",
"openai/text-embedding-ada-002.description": "Het oudere tekstembeddingmodel van OpenAI.",
"openrouter/auto.description": "Op basis van contextlengte, onderwerp en complexiteit wordt je verzoek doorgestuurd naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelf-gemodereerd) of GPT-4o.",
"perplexity/sonar-pro.description": "Het vlaggenschipproduct van Perplexity met zoekverankering, ondersteuning voor geavanceerde vragen en vervolginteracties.",
"perplexity/sonar-reasoning-pro.description": "Een geavanceerd redeneermodel dat keten-van-gedachten (CoT) genereert met verbeterde zoekfunctionaliteit, inclusief meerdere zoekopdrachten per verzoek.",
"perplexity/sonar-reasoning.description": "Een redeneermodel dat keten-van-gedachten (CoT) genereert met gedetailleerde, op zoek gebaseerde uitleg.",
"perplexity/sonar.description": "Het lichtgewicht product van Perplexity met zoekverankering, sneller en goedkoper dan Sonar Pro.",
"phi3.description": "Phi-3 is het lichtgewicht open model van Microsoft voor efficiënte integratie en grootschalige redenering.",
"phi3:14b.description": "Phi-3 is het lichtgewicht open model van Microsoft voor efficiënte integratie en grootschalige redenering.",
"pixtral-12b-2409.description": "Pixtral blinkt uit in grafiek-/beeldbegrip, documentvraag-en-antwoord, multimodale redenering en instructieopvolging. Het verwerkt beelden in native resolutie/verhouding en ondersteunt een onbeperkt aantal beelden binnen een contextvenster van 128K.",
"pixtral-large-latest.description": "Pixtral Large is een open multimodaal model met 124B parameters, gebaseerd op Mistral Large 2. Het is het tweede model in onze multimodale familie met geavanceerd beeldbegrip.",
"pro-128k.description": "Spark Pro 128K biedt een zeer grote contextcapaciteit tot 128K, ideaal voor langvormige documenten die volledige tekstanalyse en langeafstandscoherentie vereisen, met vloeiende logica en diverse citatieondersteuning in complexe discussies.",
"pro-deepseek-r1.description": "Toegewijd bedrijfsmodel met gebundelde gelijktijdigheid.",
"pro-deepseek-v3.description": "Toegewijd bedrijfsmodel met gebundelde gelijktijdigheid.",
"qianfan-70b.description": "Qianfan 70B is een groot Chinees model voor hoogwaardige generatie en complexe redenering.",
"qianfan-8b.description": "Qianfan 8B is een middelgroot algemeen model dat kosten en kwaliteit in balans brengt voor tekstgeneratie en vraag-antwoordtoepassingen.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K richt zich op intentieherkenning en agentcoördinatie met ondersteuning voor lange context.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K is een lichtgewicht agentmodel voor kostenefficiënte meerstapsdialogen en workflows.",
"qianfan-check-vl.description": "Qianfan Check VL is een multimodaal contentcontrolemodel voor naleving en herkenning van beeld-tekstinhoud.",
"qianfan-composition.description": "Qianfan Composition is een multimodaal creatiemodel voor gemengde beeld-tekstbegrip en -generatie.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL is een multimodaal herkenningsmodel gericht op Engelstalige scenario's.",
"qianfan-lightning-128b-a19b.description": "Qianfan Lightning 128B A19B is een krachtig Chinees algemeen model voor complexe vraag-antwoordtoepassingen en grootschalige redenering.",
"qianfan-llama-vl-8b.description": "Qianfan Llama VL 8B is een multimodaal model gebaseerd op Llama voor algemene beeld-tekstbegrip.",
"qianfan-multipicocr.description": "Qianfan MultiPicOCR is een OCR-model voor meerdere afbeeldingen dat tekst detecteert en herkent in verschillende beelden.",
"qianfan-qi-vl.description": "Qianfan QI VL is een multimodaal vraag-en-antwoordmodel voor nauwkeurige informatieopvraging en beantwoording in complexe beeld-tekstscenario's.",
@ -1017,10 +1049,60 @@
"qwen/qwen3-235b-a22b.description": "Qwen3-235B-A22B is een 235B-parameter MoE-model van Qwen met 22B actief per forward pass. Het schakelt tussen een denkmodus voor complexe redenering, wiskunde en codering en een niet-denkmodus voor efficiënte chat. Het biedt sterke redenering, meertalige ondersteuning (100+ talen/dialecten), geavanceerde instructieopvolging en gebruik van agenttools. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
"qwen/qwen3-235b-a22b:free.description": "Qwen3-235B-A22B is een 235B-parameter MoE-model van Qwen met 22B actief per forward pass. Het schakelt tussen een denkmodus voor complexe redenering, wiskunde en codering en een niet-denkmodus voor efficiënte chat. Het biedt sterke redenering, meertalige ondersteuning (100+ talen/dialecten), geavanceerde instructieopvolging en gebruik van agenttools. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
"qwen/qwen3-30b-a3b.description": "Qwen3 is de nieuwste generatie Qwen LLM met dense en MoE-architecturen, uitblinkend in redenering, meertalige ondersteuning en geavanceerde agenttaken. De unieke mogelijkheid om te schakelen tussen een denkmodus voor complexe redenering en een niet-denkmodus voor efficiënte chat zorgt voor veelzijdige, hoogwaardige prestaties.\n\nQwen3 presteert aanzienlijk beter dan eerdere modellen zoals QwQ en Qwen2.5, met uitstekende resultaten in wiskunde, codering, alledaagse redenering, creatief schrijven en interactieve chat. De Qwen3-30B-A3B-variant heeft 30,5B parameters (3,3B actief), 48 lagen, 128 experts (8 actief per taak) en ondersteunt tot 131K context met YaRN, en zet een nieuwe standaard voor open modellen.",
"qwen/qwen3-30b-a3b:free.description": "Qwen3 is de nieuwste generatie Qwen LLM met dichte en MoE-architecturen, uitblinkend in redenering, meertalige ondersteuning en geavanceerde agenttaken. De unieke mogelijkheid om te schakelen tussen een denkmodus voor complexe redenering en een niet-denkmodus voor efficiënte gesprekken zorgt voor veelzijdige, hoogwaardige prestaties.\n\nQwen3 presteert aanzienlijk beter dan eerdere modellen zoals QwQ en Qwen2.5, met uitstekende resultaten in wiskunde, codering, alledaagse redenering, creatief schrijven en interactieve gesprekken. De Qwen3-30B-A3B-variant heeft 30,5 miljard parameters (3,3 miljard actief), 48 lagen, 128 experts (8 actief per taak) en ondersteunt tot 131K context met YaRN, waarmee het een nieuwe standaard zet voor open modellen.",
"qwen/qwen3-32b.description": "Qwen3-32B is een dicht 32,8 miljard-parameter causaal LLM geoptimaliseerd voor complexe redenering en efficiënte gesprekken. Het schakelt tussen een denkmodus voor wiskunde, codering en logica en een niet-denkmodus voor snellere algemene gesprekken. Het presteert sterk in instructieopvolging, gebruik van agenttools en creatief schrijven in meer dan 100 talen en dialecten. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
"qwen/qwen3-32b:free.description": "Qwen3-32B is een dicht 32,8 miljard-parameter causaal LLM geoptimaliseerd voor complexe redenering en efficiënte gesprekken. Het schakelt tussen een denkmodus voor wiskunde, codering en logica en een niet-denkmodus voor snellere algemene gesprekken. Het presteert sterk in instructieopvolging, gebruik van agenttools en creatief schrijven in meer dan 100 talen en dialecten. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
"qwen/qwen3-8b:free.description": "Qwen3-8B is een dicht 8,2 miljard-parameter causaal LLM gebouwd voor taken met veel redenering en efficiënte gesprekken. Het schakelt tussen een denkmodus voor wiskunde, codering en logica en een niet-denkmodus voor algemene gesprekken. Fijn afgestemd op instructieopvolging, agentintegratie en creatief schrijven in meer dan 100 talen en dialecten. Ondersteunt standaard 32K context en schaalt tot 131K met YaRN.",
"qwen/qwen3-coder-plus.description": "Qwen3-Coder-Plus is een Qwen-serie codeeragentmodel geoptimaliseerd voor complexer gebruik van tools en langdurige sessies.",
"qwen/qwen3-coder.description": "Qwen3-Coder is de Qwen3-codegeneratiefamilie, sterk in het begrijpen en genereren van code in lange documenten.",
"qwen/qwen3-max-preview.description": "Qwen3 Max (preview) is de Max-variant voor geavanceerde redenering en toolintegratie.",
"qwen/qwen3-max.description": "Qwen3 Max is het high-end redeneringsmodel in de Qwen3-serie voor meertalige redenering en toolintegratie.",
"qwen/qwen3-vl-plus.description": "Qwen3 VL-Plus is de visueel verbeterde Qwen3-variant met verbeterde multimodale redenering en videoprocessing.",
"qwen2.5-14b-instruct-1m.description": "Qwen2.5 open-source 72B model.",
"qwen2.5-14b-instruct.description": "Qwen2.5 open-source 14B model.",
"qwen2.5-32b-instruct.description": "Qwen2.5 open-source 32B model.",
"qwen2.5-72b-instruct.description": "Qwen2.5 open-source 72B model.",
"qwen2.5-7b-instruct.description": "Qwen2.5 7B Instruct is een volwassen open-source instructiemodel voor chats en generatie in meerdere scenario's.",
"qwen2.5-coder-1.5b-instruct.description": "Open-source Qwen-codeermodel.",
"qwen2.5-coder-14b-instruct.description": "Open-source Qwen-codeermodel.",
"qwen2.5-coder-32b-instruct.description": "Open-source Qwen-codeermodel.",
"qwen2.5-coder-7b-instruct.description": "Open-source Qwen-codeermodel.",
"qwen2.5-coder-instruct.description": "Qwen2.5-Coder is het nieuwste codegerichte LLM in de Qwen-familie (voorheen CodeQwen).",
"qwen2.5-instruct.description": "Qwen2.5 is de nieuwste Qwen LLM-serie, met basis- en instructieafgestemde modellen van 0,5B tot 72B parameters.",
"qwen2.5-math-1.5b-instruct.description": "Qwen-Math levert sterke prestaties bij het oplossen van wiskundige problemen.",
"qwen2.5-math-72b-instruct.description": "Qwen-Math levert sterke prestaties bij het oplossen van wiskundige problemen.",
"qwen2.5-math-7b-instruct.description": "Qwen-Math levert sterke prestaties bij het oplossen van wiskundige problemen.",
"qwen2.5-omni-7b.description": "Qwen-Omni-modellen ondersteunen multimodale invoer (video, audio, afbeeldingen, tekst) en geven audio en tekst als uitvoer.",
"qwen2.5-vl-32b-instruct.description": "Qwen2.5 VL 32B Instruct is een open-source multimodaal model geschikt voor privé-implementatie en gebruik in meerdere scenario's.",
"qwen2.5-vl-72b-instruct.description": "Verbeterde instructieopvolging, wiskunde, probleemoplossing en codering, met sterkere algemene objectherkenning. Ondersteunt nauwkeurige lokalisatie van visuele elementen in verschillende formaten, begrip van lange video's (tot 10 minuten) met timing op secondeniveau, temporele ordening en snelheidsbegrip, en agents die besturingssystemen of mobiele apparaten kunnen aansturen via parsing en lokalisatie. Sterke extractie van kerninformatie en JSON-uitvoer. Dit is de 72B, krachtigste versie in de serie.",
"qwen2.5-vl-7b-instruct.description": "Qwen2.5 VL 7B Instruct is een lichtgewicht multimodaal model dat implementatiekosten en herkenningsvermogen in balans brengt.",
"qwen2.5-vl-instruct.description": "Qwen2.5-VL is het nieuwste visie-taalmodel in de Qwen-familie.",
"qwen2.5.description": "Qwen2.5 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2.5:0.5b.description": "Qwen2.5 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2.5:1.5b.description": "Qwen2.5 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2.5:72b.description": "Qwen2.5 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2.description": "Qwen2 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2:0.5b.description": "Qwen2 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2:1.5b.description": "Qwen2 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen2:72b.description": "Qwen2 is Alibabas volgende generatie groot taalmodel met sterke prestaties in uiteenlopende toepassingen.",
"qwen3-0.6b.description": "Qwen3 0.6B is een instapmodel voor eenvoudige redenering en zeer beperkte omgevingen.",
"qwen3-1.7b.description": "Qwen3 1.7B is een ultralicht model voor implementatie op edge- en apparaatniveau.",
"qwen3-14b.description": "Qwen3 14B is een middelgroot model voor meertalige vraag-antwoordtoepassingen en tekstgeneratie.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 is een vlaggenschip instructiemodel voor een breed scala aan generatie- en redeneertaken.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 is een ultragroot denkmodel voor complexe redenering.",
"qwen3-235b-a22b.description": "Qwen3 is een next-gen Tongyi Qwen-model met grote verbeteringen in redenering, algemene vaardigheden, agentcapaciteiten en meertalige prestaties, en ondersteunt het schakelen tussen denkmodi.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 is een middelgroot instructiemodel voor hoogwaardige generatie en vraag-antwoordtoepassingen.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 is een middelgroot denkmodel dat nauwkeurigheid en kosten in balans brengt.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B is een middelgroot algemeen model dat kosten en kwaliteit in balans brengt.",
"qwen3-32b.description": "Qwen3 32B is geschikt voor algemene taken die sterk begrip vereisen.",
"qwen3-4b.description": "Qwen3 4B is geschikt voor kleine tot middelgrote toepassingen en lokale inferentie.",
"qwen3-8b.description": "Qwen3 8B is een lichtgewicht model met flexibele implementatie voor werklasten met hoge gelijktijdigheid.",
"qwen3-coder-30b-a3b-instruct.description": "Open-source Qwen-codeermodel. De nieuwste qwen3-coder-30b-a3b-instruct is gebaseerd op Qwen3 en levert sterke codeeragentmogelijkheden, toolgebruik en omgevingsinteractie voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is een toonaangevend codeermodel voor meertalige programmering en complexe codebegrip.",
"qwen3-coder-flash.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder-plus.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder:480b.description": "Alibabas krachtige model met lange context voor agent- en programmeertaken.",
"qwen3-max-2026-01-23.description": "Qwen3 Max-modellen leveren grote verbeteringen ten opzichte van de 2.5-serie in algemene vaardigheden, Chinees/Engels begrip, complexe instructieopvolging, subjectieve open taken, meertalige vaardigheden en toolgebruik, met minder hallucinaties. De nieuwste qwen3-max verbetert agentisch programmeren en toolgebruik ten opzichte van qwen3-max-preview. Deze release bereikt SOTA-niveau en richt zich op complexere agentbehoeften.",
"qwen3-max-preview.description": "Best presterend Qwen-model voor complexe, meerstaps taken. De preview ondersteunt denkprocessen.",
"qwen3-max.description": "Qwen3 Max-modellen bieden aanzienlijke verbeteringen ten opzichte van de 2.5-serie op het gebied van algemene capaciteiten, Chinees/Engels begrip, complexe instructieopvolging, subjectieve open taken, meertaligheid en gereedschapsgebruik, met minder hallucinaties. De nieuwste qwen3-max verbetert programmeeragenten en gereedschapsgebruik ten opzichte van qwen3-max-preview. Deze release bereikt SOTA in het veld en richt zich op complexere agentbehoeften.",
"qwen3-next-80b-a3b-instruct.description": "Volgende generatie Qwen3 open-source model zonder denkmodus. Vergeleken met de vorige versie (Qwen3-235B-A22B-Instruct-2507) heeft het een beter Chinees begrip, sterkere logische redenering en verbeterde tekstgeneratie.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} parameters in totaal",
"arguments.title": "Argumenten",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Beschikbare modellen ophalen",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Beschikbare Skills ophalen",

View file

@ -29,6 +29,7 @@
"internlm.description": "Een open-source organisatie gericht op grootschalig modelonderzoek en tooling, met een efficiënt en gebruiksvriendelijk platform dat geavanceerde modellen en algoritmen toegankelijk maakt.",
"jina.description": "Opgericht in 2020, is Jina AI een toonaangevend zoek-AI-bedrijf. De zoekstack omvat vectormodellen, herordenaars en kleine taalmodellen om betrouwbare, hoogwaardige generatieve en multimodale zoekapps te bouwen.",
"lmstudio.description": "LM Studio is een desktopapplicatie voor het ontwikkelen en experimenteren met LLMs op je eigen computer.",
"lobehub.description": "LobeHub Cloud gebruikt officiële API's om toegang te krijgen tot AI-modellen en meet het gebruik met Credits die gekoppeld zijn aan modeltokens.",
"minimax.description": "Opgericht in 2021, bouwt MiniMax algemene AI met multimodale fundamentele modellen, waaronder tekstmodellen met biljoenen parameters, spraakmodellen en visiemodellen, evenals apps zoals Hailuo AI.",
"mistral.description": "Mistral biedt geavanceerde algemene, gespecialiseerde en onderzoeksmodellen voor complexe redenering, meertalige taken en codegeneratie, met functie-aanroepen voor aangepaste integraties.",
"modelscope.description": "ModelScope is het model-as-a-service platform van Alibaba Cloud, met een breed scala aan AI-modellen en inferentiediensten.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Zarejestruj się teraz",
"betterAuth.signin.socialError": "Logowanie społecznościowe nie powiodło się, spróbuj ponownie",
"betterAuth.signin.socialOnlyHint": "Ten adres e-mail został zarejestrowany za pomocą zewnętrznego konta społecznościowego. Zaloguj się za pomocą tego dostawcy lub",
"betterAuth.signin.ssoOnlyNoProviders": "Rejestracja za pomocą e-maila jest wyłączona, a żaden dostawca SSO nie został skonfigurowany. Skontaktuj się z administratorem.",
"betterAuth.signin.submit": "Zaloguj się",
"betterAuth.signup.confirmPasswordPlaceholder": "Potwierdź hasło",
"betterAuth.signup.emailPlaceholder": "Wprowadź adres e-mail",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Zobacz szczegóły",
"clearCurrentMessages": "Wyczyść wiadomości z bieżącej sesji",
"compressedHistory": "Skompresowana historia",
"compression.cancel": "Rozpakuj",
"compression.cancelConfirm": "Czy na pewno chcesz rozpakować? Spowoduje to przywrócenie oryginalnych wiadomości.",
"compression.history": "Historia",
"compression.summary": "Podsumowanie",
"confirmClearCurrentMessages": "Zamierzasz usunąć wiadomości z bieżącej sesji. Po usunięciu nie będzie można ich odzyskać. Potwierdź swoją decyzję.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Utwórz Agenta",
"extendParams.disableContextCaching.desc": "Zmniejsz koszt generowania jednej rozmowy nawet o 90% i zwiększ prędkość do 4x. Włączenie tej opcji automatycznie wyłączy limit liczby wiadomości historycznych. <1>Dowiedz się więcej</1>",
"extendParams.disableContextCaching.title": "Włącz buforowanie kontekstu",
"extendParams.effort.desc": "Kontroluj, ile tokenów Claude używa podczas odpowiadania, za pomocą parametru wysiłku.",
"extendParams.effort.title": "Wysiłek",
"extendParams.enableAdaptiveThinking.desc": "Pozwól Claudeowi dynamicznie decydować, kiedy i jak intensywnie myśleć, dzięki trybowi adaptacyjnego myślenia.",
"extendParams.enableAdaptiveThinking.title": "Włącz adaptacyjne myślenie",
"extendParams.enableReasoning.desc": "Na podstawie ograniczeń mechanizmu Claude Thinking, włączenie tej opcji automatycznie wyłączy limit liczby wiadomości historycznych. <1>Dowiedz się więcej</1>",
"extendParams.enableReasoning.title": "Włącz głębokie myślenie",
"extendParams.imageAspectRatio.title": "Proporcje obrazu",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Brak rozwidlonych grup agentów",
"user.noForkedAgents": "Brak rozwidlonych agentów",
"user.publishedAgents": "Utworzeni Agenci",
"user.publishedGroups": "Utworzone grupy",
"user.searchPlaceholder": "Szukaj po nazwie lub opisie...",
"user.statusFilter.all": "Wszystkie",
"user.statusFilter.archived": "Zarchiwizowane",
"user.statusFilter.deprecated": "Przestarzałe",
"user.statusFilter.favorite": "Ulubione",
"user.statusFilter.forked": "Sklonowane",
"user.statusFilter.published": "Opublikowane",
"user.statusFilter.unpublished": "W trakcie przeglądu",
"user.tabs.favorites": "Ulubione",
"user.tabs.forkedAgents": "Rozwidleni",
"user.tabs.publishedAgents": "Utworzone",

View file

@ -150,6 +150,7 @@
"upload.desc": "Szczegóły: {{detail}}",
"upload.fileOnlySupportInServerMode": "Obecny tryb wdrożenia nie obsługuje przesyłania plików innych niż obrazy. Aby przesłać pliki w formacie {{ext}}, przełącz się na wdrożenie z bazą danych serwera lub skorzystaj z usługi {{cloud}}.",
"upload.networkError": "Sprawdź połączenie sieciowe i konfigurację CORS usługi przechowywania plików.",
"upload.storageLimitExceeded": "Limit przestrzeni dyskowej w Twoim planie został osiągnięty. Zaktualizuj plan lub usuń nieużywane pliki, aby zwolnić miejsce.",
"upload.title": "Przesyłanie pliku nie powiodło się. Sprawdź połączenie sieciowe lub spróbuj ponownie później.",
"upload.unknownError": "Powód błędu: {{reason}}",
"upload.uploadFailed": "Przesyłanie pliku nie powiodło się."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Nazwa wyświetlana modelu",
"providerModels.item.modelConfig.extendParams.extra": "Wybierz rozszerzone parametry obsługiwane przez model. Najedź kursorem na opcję, aby zobaczyć podgląd ustawień. Nieprawidłowa konfiguracja może spowodować błędy żądania.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Dla modeli Claude; może obniżyć koszty i przyspieszyć odpowiedzi.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Dla Claude Opus 4.6; kontroluje poziom wysiłku (niski/średni/wysoki/maksymalny).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Dla Claude Opus 4.6; przełącza adaptacyjne myślenie włączone/wyłączone.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Dla modeli Claude, DeepSeek i innych wspierających rozumowanie; odblokowuje głębsze myślenie.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Dla serii GPT-5; kontroluje intensywność rozumowania.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Dla serii GPT-5.1; kontroluje intensywność rozumowania.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Nowy wewnętrzny model rozumowania z 80 tys. łańcuchów myślowych i 1 mln tokenów wejściowych, oferujący wydajność porównywalną z czołowymi modelami światowymi.",
"MiniMax-M2-Stable.description": "Zaprojektowany z myślą o wydajnym kodowaniu i przepływach pracy agentów, z większą równoległością dla zastosowań komercyjnych.",
"MiniMax-M2.1-Lightning.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne. Szybsze i bardziej wydajne.",
"MiniMax-M2.1.description": "Potężne możliwości programowania wielojęzycznego, kompleksowo ulepszone doświadczenie programistyczne",
"MiniMax-M2.1.description": "MiniMax-M2.1 to flagowy, otwartoźródłowy model dużej skali od MiniMax, zaprojektowany do rozwiązywania złożonych zadań rzeczywistych. Jego główne atuty to wielojęzyczne możliwości programistyczne oraz zdolność działania jako Agent do rozwiązywania skomplikowanych problemów.",
"MiniMax-M2.description": "Stworzony specjalnie z myślą o efektywnym kodowaniu i przepływach pracy agentów",
"MiniMax-Text-01.description": "MiniMax-01 wprowadza dużą skalę uwagi liniowej wykraczającą poza klasyczne Transformatory, z 456 mld parametrów i 45,9 mld aktywowanych na przebieg. Osiąga najwyższą wydajność i obsługuje do 4 mln tokenów kontekstu (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 to model rozumowania o otwartych wagach, oparty na hybrydowej uwadze, z 456 mld parametrów ogółem i ~45,9 mld aktywnych na token. Natywnie obsługuje kontekst 1 mln tokenów i wykorzystuje Flash Attention, redukując FLOPs o 75% przy generowaniu 100 tys. tokenów w porównaniu do DeepSeek R1. Dzięki architekturze MoE, CISPO i treningowi RL z hybrydową uwagą, osiąga czołowe wyniki w zadaniach rozumowania z długim wejściem i rzeczywistym inżynierii oprogramowania.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 bln parametrów ogółem, z 32 mld aktywnych. Wśród modeli bez trybu myślenia, wyróżnia się w wiedzy czołowej, matematyce i kodowaniu, a także w zadaniach ogólnych agentów. Optymalizowany pod kątem obciążeń agentowych potrafi podejmować działania, a nie tylko odpowiadać. Najlepszy do improwizowanych rozmów, ogólnego czatu i doświadczeń agentowych jako model reagujący bez długiego namysłu.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7 mld) to model instrukcyjny o wysokiej precyzji do złożonych obliczeń.",
"OmniConsistency.description": "OmniConsistency poprawia spójność stylu i uogólnianie w zadaniach obraz-do-obrazu, wprowadzając duże Transformatory Dyfuzyjne (DiTs) i sparowane dane stylizowane, unikając degradacji stylu.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 to ulepszona wersja serii PaddleOCR-VL, osiągająca 94,5% dokładności w benchmarku analizy dokumentów OmniDocBench v1.5, przewyższając wiodące ogólne modele wielkoskalowe oraz wyspecjalizowane modele do analizy dokumentów. Innowacyjnie obsługuje lokalizację nieregularnych ramek ograniczających elementy dokumentu, skutecznie radząc sobie ze skanami, przechylonymi obrazami i zrzutami ekranu.",
"Phi-3-medium-128k-instruct.description": "Ten sam model Phi-3-medium z większym oknem kontekstu do zadań RAG lub few-shot.",
"Phi-3-medium-4k-instruct.description": "Model z 14 mld parametrów, o wyższej jakości niż Phi-3-mini, skoncentrowany na danych wymagających intensywnego rozumowania.",
"Phi-3-mini-128k-instruct.description": "Ten sam model Phi-3-mini z większym oknem kontekstu do zadań RAG lub few-shot.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 to model MoE z 671 mld parametrów, wykorzystujący MLA i DeepSeekMoE z równoważeniem obciążenia bez strat, zapewniający efektywne wnioskowanie i trening. Wstępnie wytrenowany na 14,8 bln wysokiej jakości tokenów i dalej dostrojony za pomocą SFT i RL, przewyższa inne modele otwarte i zbliża się do czołowych modeli zamkniętych.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 to najnowsza i najpotężniejsza wersja Kimi K2. Jest to model MoE najwyższej klasy z 1T łącznych i 32B aktywnych parametrów. Kluczowe cechy to silniejsza inteligencja kodowania agentowego z istotnymi poprawami w testach porównawczych i zadaniach agentowych w rzeczywistych warunkach, a także ulepszona estetyka i użyteczność kodowania frontendowego.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo to wariant Turbo zoptymalizowany pod kątem szybkości rozumowania i przepustowości, zachowując jednocześnie wieloetapowe rozumowanie i obsługę narzędzi znane z K2 Thinking. Jest to model MoE z około 1T łącznych parametrów, natywnym kontekstem 256K i stabilnym wywoływaniem narzędzi na dużą skalę, przeznaczony do zastosowań produkcyjnych z rygorystycznymi wymaganiami dotyczącymi opóźnień i współbieżności.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 to natywny, otwartoźródłowy model agenta multimodalnego, zbudowany na bazie Kimi-K2-Base, wytrenowany na około 1,5 biliona mieszanych tokenów wizualnych i tekstowych. Model wykorzystuje architekturę MoE z 1T całkowitych parametrów i 32B aktywnych parametrów, obsługuje kontekst o długości 256K, płynnie integrując rozumienie wizji i języka.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, oferujący ulepszone ogólne możliwości, prostsze i bardziej naturalne odpowiedzi oraz bardziej wciągające doświadczenie pisarskie.",
"QwQ-32B-Preview.description": "Qwen QwQ to eksperymentalny model badawczy skoncentrowany na ulepszaniu zdolności rozumowania.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview to model badawczy od Qwen, skoncentrowany na rozumowaniu wizualnym, wyróżniający się w złożonym rozumieniu scen i problemach matematycznych opartych na obrazie.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji firmy Anthropic. W porównaniu do Claude 3 Haiku oferuje lepsze umiejętności i przewyższa wcześniejszy największy model Claude 3 Opus w wielu testach inteligencji.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszenia w wielu obszarach i przewyższający poprzedni flagowy model Claude 3 Opus w licznych benchmarkach.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku zapewnia szybkie odpowiedzi w lekkich zadaniach.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet to najbardziej zaawansowany model firmy Anthropic i pierwszy na rynku model hybrydowego rozumowania. Potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane, krok po kroku, rozumowanie widoczne dla użytkownika. Sonnet szczególnie dobrze radzi sobie z programowaniem, analizą danych, zadaniami wizualnymi i agentowymi.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 to najbardziej zaawansowany model Anthropic i pierwszy na rynku model hybrydowego rozumowania, oferujący błyskawiczne odpowiedzi lub pogłębione myślenie z precyzyjną kontrolą.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet to najnowszy i najbardziej zaawansowany model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku to najszybszy i najbardziej kompaktowy model firmy Anthropic, zaprojektowany do natychmiastowych odpowiedzi z szybką i dokładną wydajnością.",
"claude-3-opus-20240229.description": "Claude 3 Opus to najpotężniejszy model firmy Anthropic do bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet łączy inteligencję i szybkość dla obciążeń korporacyjnych, oferując wysoką użyteczność przy niższych kosztach i niezawodnym wdrażaniu na dużą skalę.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najinteligentniejszy model Haiku firmy Anthropic, oferujący błyskawiczne działanie i zaawansowane rozumowanie.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, łączący błyskawiczne działanie z pogłębionym rozumowaniem.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking to zaawansowany wariant, który może ujawniać swój proces rozumowania.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model firmy Anthropic do realizacji bardzo złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model firmy Anthropic do realizacji bardzo złożonych zadań, oferujący najwyższą wydajność, inteligencję, płynność i zrozumienie.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 to najnowszy i najbardziej zaawansowany model Anthropic do złożonych zadań, wyróżniający się wydajnością, inteligencją, płynnością i zrozumieniem.",
"claude-opus-4-20250514.description": "Claude Opus 4 to najpotężniejszy model Anthropic do złożonych zadań, oferujący najwyższą wydajność, inteligencję, płynność i zrozumienie.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję z wydajnością na dużą skalę, idealny do złożonych zadań wymagających najwyższej jakości odpowiedzi i rozumowania.",
"claude-opus-4-6.description": "Claude Opus 4.6 to najbardziej inteligentny model Anthropic do budowy agentów i programowania.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking może generować natychmiastowe odpowiedzi lub rozszerzone rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 potrafi generować niemal natychmiastowe odpowiedzi lub rozbudowane rozumowanie krok po kroku z widocznym procesem.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to jak dotąd najbardziej inteligentny model firmy Anthropic.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 to najbardziej inteligentny model Anthropic, oferujący błyskawiczne odpowiedzi lub pogłębione, krok po kroku rozumowanie z precyzyjną kontrolą dla użytkowników API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.",
"codegeex-4.description": "CodeGeeX-4 to potężny asystent programistyczny AI, obsługujący wielojęzyczne pytania i uzupełnianie kodu w celu zwiększenia produktywności programistów.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B to wielojęzyczny model generowania kodu obsługujący uzupełnianie i generowanie kodu, interpretację kodu, wyszukiwanie w sieci, wywoływanie funkcji i pytania na poziomie repozytorium. Obejmuje szeroki zakres scenariuszy programistycznych i jest jednym z najlepszych modeli kodu poniżej 10B parametrów.",
"codegemma.description": "CodeGemma to lekki model do różnorodnych zadań programistycznych, umożliwiający szybką iterację i integrację.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
"deepseek-chat.description": "Nowy model open-source łączący ogólne zdolności językowe i programistyczne. Zachowuje ogólny dialog modelu czatu i silne możliwości kodowania modelu programisty, z lepszym dopasowaniem do preferencji użytkownika. DeepSeek-V2.5 poprawia również pisanie i wykonywanie poleceń.",
"deepseek-chat.description": "DeepSeek V3.2 równoważy rozumowanie i długość odpowiedzi w codziennych zadaniach QA i agentowych. W publicznych benchmarkach osiąga poziom GPT-5 i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
"deepseek-coder-v2.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "DeepSeek Coder V2 to open-sourceowy model kodu MoE, który osiąga wysokie wyniki w zadaniach programistycznych, porównywalne z GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "Szybka pełna wersja DeepSeek R1 z wyszukiwaniem w czasie rzeczywistym, łącząca możliwości modelu 671B z szybszymi odpowiedziami.",
"deepseek-r1-online.description": "Pełna wersja DeepSeek R1 z 671 miliardami parametrów i wyszukiwaniem w czasie rzeczywistym, oferująca lepsze rozumienie i generowanie.",
"deepseek-r1.description": "DeepSeek-R1 wykorzystuje dane startowe przed RL i osiąga wyniki porównywalne z OpenAI-o1 w zadaniach matematycznych, programistycznych i logicznych.",
"deepseek-reasoner.description": "Tryb rozumowania DeepSeek V3.2 generuje łańcuch myślowy przed odpowiedzią końcową, aby zwiększyć dokładność.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking to model głębokiego rozumowania, który generuje łańcuch myśli przed odpowiedzią dla większej dokładności, osiągając czołowe wyniki w konkursach i rozumowaniu porównywalnym z Gemini-3.0-Pro.",
"deepseek-v2.description": "DeepSeek V2 to wydajny model MoE zoptymalizowany pod kątem efektywności kosztowej.",
"deepseek-v2:236b.description": "DeepSeek V2 236B to model skoncentrowany na kodzie, oferujący zaawansowane generowanie kodu.",
"deepseek-v3-0324.description": "DeepSeek-V3-0324 to model MoE z 671 miliardami parametrów, wyróżniający się w programowaniu, rozumieniu kontekstu i obsłudze długich tekstów.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "ERNIE Character Fiction 8K Preview to model podglądowy do tworzenia postaci i fabuły, przeznaczony do oceny funkcji i testów.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K to model osobowościowy do powieści i tworzenia fabuły, odpowiedni do generowania długich historii.",
"ernie-irag-edit.description": "ERNIE iRAG Edit to model edycji obrazu obsługujący wymazywanie, przemalowywanie i generowanie wariantów.",
"ernie-lite-8k.description": "ERNIE Lite 8K to lekki model ogólnego przeznaczenia do codziennego QA i generowania treści przy ograniczonym budżecie.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K to lekki model wysokiej wydajności do scenariuszy wrażliwych na opóźnienia i koszty.",
"ernie-novel-8k.description": "ERNIE Novel 8K został stworzony do długich powieści i fabuł IP z narracją wielopostaciową.",
"ernie-speed-128k.description": "ERNIE Speed 128K to model bez opłat za I/O do rozumienia długich tekstów i testów na dużą skalę.",
"ernie-speed-8k.description": "ERNIE Speed 8K to darmowy, szybki model do codziennych rozmów i lekkich zadań tekstowych.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K to model o wysokiej równoczesności i dużej wartości do usług online na dużą skalę i aplikacji korporacyjnych.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K to ultralekki model do prostych QA, klasyfikacji i wnioskowania przy niskim koszcie.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 to model generowania obrazów firmy ByteDance Seed, obsługujący wejścia tekstowe i graficzne oraz umożliwiający precyzyjne, wysokiej jakości generowanie obrazów. Tworzy obrazy na podstawie tekstowych podpowiedzi.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed firmy ByteDance, obsługuje edycję i kompozycję wielu obrazów. Oferuje lepszą spójność obiektów, precyzyjne wykonywanie poleceń, rozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją renderowania tekstu i obrazu.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, opracowany przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do generowania obrazów wysokiej jakości z dużą kontrolą.",
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] przyjmuje tekst i obrazy referencyjne jako dane wejściowe, umożliwiając lokalne edycje i złożone transformacje sceny.",
"fal-ai/flux/krea.description": "Flux Krea [dev] to model generowania obrazów z estetycznym ukierunkowaniem na bardziej realistyczne, naturalne obrazy.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Potężny natywny model multimodalny do generowania obrazów.",
"fal-ai/imagen4/preview.description": "Model generowania obrazów wysokiej jakości od Google.",
"fal-ai/nano-banana.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający generowanie i edycję obrazów w rozmowie.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wizualną, precyzyjnie edytujący tekst w języku chińskim i angielskim oraz umożliwiający wysokiej jakości modyfikacje, takie jak transfer stylu i obrót obiektów.",
"fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, oferujący imponujące renderowanie tekstu chińskiego i różnorodne style wizualne.",
"fal-ai/qwen-image-edit.description": "Profesjonalny model edycji obrazów od zespołu Qwen, obsługujący edycję semantyczną i wyglądu, precyzyjną edycję tekstu w języku chińskim i angielskim, transfer stylu, obracanie i inne funkcje.",
"fal-ai/qwen-image.description": "Potężny model generowania obrazów od zespołu Qwen, z silnym renderowaniem tekstu chińskiego i różnorodnymi stylami wizualnymi.",
"flux-1-schnell.description": "Model tekst-na-obraz z 12 miliardami parametrów od Black Forest Labs, wykorzystujący latent adversarial diffusion distillation do generowania wysokiej jakości obrazów w 14 krokach. Dorównuje zamkniętym alternatywom i jest dostępny na licencji Apache-2.0 do użytku osobistego, badawczego i komercyjnego.",
"flux-dev.description": "FLUX.1 [dev] to model z otwartymi wagami do użytku niekomercyjnego. Zachowuje jakość obrazu zbliżoną do wersji pro i przestrzeganie instrukcji, działając przy tym wydajniej niż standardowe modele o podobnym rozmiarze.",
"flux-kontext-max.description": "Najnowocześniejsze generowanie i edycja obrazów kontekstowych, łączące tekst i obrazy dla precyzyjnych, spójnych wyników.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro obsługuje do 2 milionów tokenów, będąc idealnym modelem multimodalnym średniej wielkości do złożonych zadań.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
"gemini-2.0-flash-exp-image-generation.description": "Eksperymentalny model Gemini 2.0 Flash z obsługą generowania obrazów.",
"gemini-2.0-flash-exp.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
"gemini-2.0-flash-lite-001.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
"gemini-2.0-flash-lite.description": "Wariant Gemini 2.0 Flash zoptymalizowany pod kątem efektywności kosztowej i niskich opóźnień.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash oferuje funkcje nowej generacji, w tym wyjątkową szybkość, natywną obsługę narzędzi, generowanie multimodalne i kontekst o długości 1 miliona tokenów.",
"gemini-2.5-flash-image-preview.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-image:image.description": "Nano Banana to najnowszy, najszybszy i najbardziej wydajny natywny model multimodalny Google, umożliwiający konwersacyjną generację i edycję obrazów.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
@ -527,7 +528,7 @@
"gemini-2.5-pro.description": "Gemini 2.5 Pro to flagowy model rozumowania Google z obsługą długiego kontekstu do złożonych zadań.",
"gemini-3-flash-preview.description": "Gemini 3 Flash to najszybszy i najinteligentniejszy model, łączący najnowsze osiągnięcia AI z doskonałym osadzeniem w wynikach wyszukiwania.",
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów firmy Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
"gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite",
@ -572,9 +573,8 @@
"glm-z1-flash.description": "Seria GLM-Z1 oferuje zaawansowane wnioskowanie z naciskiem na logikę, matematykę i programowanie.",
"glm-z1-flashx.description": "Szybki i ekonomiczny: ulepszony Flash z ultraszybkim wnioskowaniem i wyższą równoległością.",
"glm-zero-preview.description": "GLM-Zero-Preview zapewnia zaawansowane wnioskowanie, wyróżniając się w logice, matematyce i programowaniu.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 to flagowy model firmy Anthropic, łączący wyjątkową inteligencję i skalowalną wydajność w złożonych zadaniach wymagających najwyższej jakości odpowiedzi i rozumowania.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 to flagowy model Anthropic, łączący wyjątkową inteligencję i skalowalną wydajność w złożonych zadaniach wymagających najwyższej jakości odpowiedzi i rozumowania.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferuje nowej generacji możliwości, w tym doskonałą szybkość, natywne użycie narzędzi, generację multimodalną i kontekst do 1 miliona tokenów.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental to najnowszy eksperymentalny model multimodalny Google z poprawioną jakością względem poprzednich wersji, szczególnie w zakresie wiedzy o świecie, kodu i długiego kontekstu.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite to lekka wersja Gemini z domyślnie wyłączonym myśleniem, co poprawia opóźnienia i koszty; można je włączyć za pomocą parametrów.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite oferuje funkcje nowej generacji, w tym wyjątkową szybkość, wbudowane narzędzia, generację multimodalną i kontekst do 1 miliona tokenów.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash to wysokowydajny model wnioskowania Google do zaawansowanych zadań multimodalnych.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Szybka wersja K2 z długim myśleniem, oknem kontekstu 256k, silnym głębokim rozumowaniem i szybkością generowania 60100 tokenów/sek.",
"kimi-k2-thinking.description": "kimi-k2-thinking to model rozumowania Moonshot AI z ogólnymi zdolnościami agentowymi i rozumowania. Doskonale radzi sobie z głębokim rozumowaniem i potrafi rozwiązywać trudne problemy za pomocą wieloetapowego użycia narzędzi.",
"kimi-k2-turbo-preview.description": "kimi-k2 to model bazowy MoE o silnych możliwościach programistycznych i agentowych (1T parametrów, 32B aktywnych), przewyższający inne popularne otwarte modele w testach rozumowania, programowania, matematyki i agentów.",
"kimi-k2.5.description": "Kimi K2.5 to najbardziej zaawansowany model Kimi, oferujący SOTA open-source w zadaniach agentowych, programowaniu i rozumieniu wizji. Obsługuje wejścia multimodalne oraz tryby z myśleniem i bez myślenia.",
"kimi-k2.description": "Kimi-K2 to model bazowy MoE firmy Moonshot AI o silnych możliwościach programistycznych i agentowych, z łączną liczbą 1T parametrów i 32B aktywnych. W testach ogólnego rozumowania, kodowania, matematyki i zadań agentowych przewyższa inne popularne otwarte modele.",
"kimi-k2:1t.description": "Kimi K2 to duży model MoE LLM firmy Moonshot AI z 1T parametrów i 32B aktywnych na każde przejście. Zoptymalizowany pod kątem zdolności agentowych, w tym zaawansowanego użycia narzędzi, rozumowania i syntezy kodu.",
"kimi-latest.description": "Kimi Latest korzysta z najnowszego modelu Kimi i może zawierać funkcje eksperymentalne. Obsługuje rozumienie obrazów i automatycznie wybiera modele rozliczeniowe 8k/32k/128k w zależności od długości kontekstu.",
@ -801,6 +802,20 @@
"meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
"meta-llama/Llama-3.3-70B-Instruct-Turbo.description": "Meta Llama 3.3 to wielojęzyczny model LLM z 70 miliardami parametrów (tekst wejściowy/wyjściowy), dostępny w wersjach wstępnie wytrenowanej i dostrojonej do instrukcji. Wersja dostrojona do instrukcji jest zoptymalizowana pod kątem wielojęzycznego czatu i przewyższa wiele otwartych i zamkniętych modeli czatu w standardowych testach branżowych.",
"meta-llama/Llama-Vision-Free.description": "LLaMA 3.2 został zaprojektowany do zadań łączących obraz i tekst. Doskonale radzi sobie z opisywaniem obrazów i wizualnym Q&A, łącząc generowanie języka z rozumieniem wizualnym.",
"meta-llama/Meta-Llama-3-70B-Instruct-Lite.description": "Llama 3 70B Instruct Lite został zaprojektowany z myślą o wysokiej wydajności przy niskim opóźnieniu.",
"meta-llama/Meta-Llama-3-70B-Instruct-Turbo.description": "Llama 3 70B Instruct Turbo zapewnia silne rozumienie i generowanie dla najbardziej wymagających zadań.",
"meta-llama/Meta-Llama-3-8B-Instruct-Lite.description": "Llama 3 8B Instruct Lite równoważy wydajność w środowiskach o ograniczonych zasobach.",
"meta-llama/Meta-Llama-3-8B-Instruct-Turbo.description": "Llama 3 8B Instruct Turbo to wydajny LLM do szerokiego zakresu zastosowań.",
"meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo.description": "Model Llama 3.1 Turbo 405B oferuje ogromną pojemność kontekstu do przetwarzania dużych zbiorów danych i doskonale sprawdza się w aplikacjach AI na ultra dużą skalę.",
"meta-llama/Meta-Llama-3.1-405B-Instruct.description": "Llama 3.1 to wiodąca rodzina modeli Meta, skalująca się do 405B parametrów, przeznaczona do złożonych dialogów, tłumaczeń wielojęzycznych i analizy danych.",
"meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo.description": "Llama 3.1 70B jest precyzyjnie dostrojony do zastosowań o dużym obciążeniu; kwantyzacja FP8 zapewnia wydajność i dokładność w złożonych scenariuszach.",
"meta-llama/Meta-Llama-3.1-70B.description": "Llama 3.1 to wiodąca rodzina modeli Meta, skalująca się do 405B parametrów, przeznaczona do złożonych dialogów, tłumaczeń wielojęzycznych i analizy danych.",
"meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo.description": "Llama 3.1 8B wykorzystuje kwantyzację FP8, obsługuje do 131 072 tokenów kontekstu i plasuje się wśród najlepszych modeli open-source w złożonych zadaniach na wielu benchmarkach.",
"meta-llama/llama-3-70b-instruct.description": "Llama 3 70B Instruct jest zoptymalizowany pod kątem wysokiej jakości dialogu i osiąga dobre wyniki w ocenach ludzkich.",
"meta-llama/llama-3-8b-instruct.description": "Llama 3 8B Instruct jest zoptymalizowany pod kątem wysokiej jakości dialogu, przewyższając wiele zamkniętych modeli.",
"meta-llama/llama-3.1-70b-instruct.description": "Najnowsza seria Llama 3.1 od Meta, wariant 70B dostrojony do instrukcji, zoptymalizowany pod kątem wysokiej jakości dialogu. W ocenach branżowych wykazuje silną wydajność w porównaniu z wiodącymi zamkniętymi modelami. (Dostępny tylko dla zweryfikowanych podmiotów korporacyjnych.)",
"meta-llama/llama-3.1-8b-instruct.description": "Najnowsza seria Llama 3.1 od Meta, wariant 8B dostrojony do instrukcji, szczególnie szybki i wydajny. W ocenach branżowych zapewnia wysoką wydajność, przewyższając wiele wiodących zamkniętych modeli. (Dostępny tylko dla zweryfikowanych podmiotów korporacyjnych.)",
"meta-llama/llama-3.1-8b-instruct:free.description": "LLaMA 3.1 oferuje wsparcie wielojęzyczne i jest jednym z wiodących modeli generatywnych.",
"meta.llama3-8b-instruct-v1:0.description": "Meta Llama 3 to otwarty model językowy (LLM) stworzony z myślą o programistach, naukowcach i przedsiębiorstwach, zaprojektowany, by wspierać ich w budowaniu, eksperymentowaniu i odpowiedzialnym skalowaniu pomysłów z zakresu generatywnej sztucznej inteligencji. Jako fundament globalnej innowacji społecznościowej, doskonale sprawdza się przy ograniczonych zasobach obliczeniowych, na urządzeniach brzegowych oraz przy szybszym czasie trenowania.",
"meta/Llama-3.2-11B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów w wysokiej rozdzielczości, idealne do aplikacji zrozumienia wizualnego.",
"meta/Llama-3.2-90B-Vision-Instruct.description": "Zaawansowane rozumowanie obrazów dla aplikacji agentów opartych na zrozumieniu wizualnym.",
@ -868,8 +883,6 @@
"qianfan-8b.description": "Qianfan 8B to średniej wielkości model ogólnego przeznaczenia, łączący niskie koszty z wysoką jakością generowania tekstu i odpowiadania na pytania.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K koncentruje się na rozpoznawaniu intencji i orkiestracji agentów z obsługą długiego kontekstu.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K to lekki model agenta do tanich dialogów wieloetapowych i przepływów pracy.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K to model agenta o wysokiej przepustowości, przeznaczony do aplikacji wielozadaniowych na dużą skalę.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K to model agenta o wysokiej współbieżności, przeznaczony do krótkich i średnich rozmów z szybką odpowiedzią.",
"qianfan-check-vl.description": "Qianfan Check VL to multimodalny model do przeglądu treści, oceniający zgodność obrazów i tekstów oraz wykonujący zadania rozpoznawania.",
"qianfan-composition.description": "Qianfan Composition to multimodalny model twórczy do zrozumienia i generowania treści łączących obrazy i tekst.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL to multimodalny model rozpoznawania skoncentrowany na scenariuszach w języku angielskim.",
@ -936,7 +949,6 @@
"qwen3-14b.description": "Qwen3 14B to średniej wielkości model do wielojęzycznego QA i generowania tekstu.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 to flagowy model instrukcyjny do szerokiego zakresu zadań generacyjnych i rozumowania.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 to ultraduży model myślący do trudnych zadań wymagających rozumowania.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B to ogólny duży model do złożonych zadań.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 to średnio-duży model instrukcyjny do wysokiej jakości generowania i QA.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 to średnio-duży model myślący, łączący dokładność i efektywność kosztową.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B to średnio-duży model ogólny, równoważący koszty i jakość.",
@ -981,9 +993,6 @@
"tts-1.description": "Najnowszy model tekst-na-mowę zoptymalizowany pod kątem szybkości działania w czasie rzeczywistym.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) jest dostrojony do precyzyjnych zadań instrukcyjnych z silną wydajnością językową.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet podnosi standard branżowy, przewyższając konkurencję i Claude 3 Opus w szerokich ocenach, zachowując jednocześnie średni poziom szybkości i kosztów.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet to najszybszy model nowej generacji od Anthropic. W porównaniu do Claude 3 Haiku poprawia się we wszystkich umiejętnościach i przewyższa poprzedni flagowy model Claude 3 Opus w wielu benchmarkach inteligencji.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 to najszybszy i najbardziej inteligentny model Haiku od Anthropic, oferujący błyskawiczną szybkość i rozszerzone myślenie.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 to najbardziej inteligentny model Anthropic do tej pory.",
"v0-1.0-md.description": "v0-1.0-md to model starszej generacji udostępniany przez API v0.",
"v0-1.5-lg.description": "v0-1.5-lg jest odpowiedni do zaawansowanych zadań myślowych i rozumowania.",
"v0-1.5-md.description": "v0-1.5-md jest odpowiedni do codziennych zadań i generowania interfejsów użytkownika.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "Łącznie {{count}} parametrów",
"arguments.title": "Argumenty",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Pobierz dostępne modele",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Pobierz dostępne Umiejętności",

View file

@ -29,6 +29,7 @@
"internlm.description": "Organizacja open-source skupiona na badaniach nad dużymi modelami i narzędziach, oferująca wydajną i łatwą w użyciu platformę udostępniającą najnowsze modele i algorytmy.",
"jina.description": "Założona w 2020 roku, Jina AI to wiodąca firma zajmująca się wyszukiwaniem AI. Jej stos wyszukiwania obejmuje modele wektorowe, rerankery i małe modele językowe do tworzenia niezawodnych, wysokiej jakości aplikacji generatywnych i multimodalnych.",
"lmstudio.description": "LM Studio to aplikacja desktopowa do tworzenia i testowania LLM-ów na własnym komputerze.",
"lobehub.description": "LobeHub Cloud korzysta z oficjalnych interfejsów API do uzyskiwania dostępu do modeli AI i mierzy zużycie za pomocą Kredytów powiązanych z tokenami modeli.",
"minimax.description": "Założona w 2021 roku, MiniMax tworzy AI ogólnego przeznaczenia z multimodalnymi modelami bazowymi, w tym tekstowymi modelami MoE z bilionami parametrów, modelami mowy i wizji oraz aplikacjami takimi jak Hailuo AI.",
"mistral.description": "Mistral oferuje zaawansowane modele ogólne, specjalistyczne i badawcze do złożonego rozumowania, zadań wielojęzycznych i generowania kodu, z obsługą wywołań funkcji do niestandardowych integracji.",
"modelscope.description": "ModelScope to platforma model-as-a-service Alibaba Cloud, oferująca szeroki wybór modeli AI i usług inferencyjnych.",

View file

@ -98,6 +98,7 @@
"betterAuth.signin.signupLink": "Cadastre-se agora",
"betterAuth.signin.socialError": "Falha no login social, tente novamente",
"betterAuth.signin.socialOnlyHint": "Este e-mail foi registrado por meio de uma conta social de terceiros. Faça login com esse provedor ou",
"betterAuth.signin.ssoOnlyNoProviders": "O registro por e-mail está desativado e nenhum provedor de SSO foi configurado. Por favor, entre em contato com o administrador.",
"betterAuth.signin.submit": "Entrar",
"betterAuth.signup.confirmPasswordPlaceholder": "Confirme sua senha",
"betterAuth.signup.emailPlaceholder": "Digite seu e-mail",

View file

@ -32,6 +32,8 @@
"chatList.longMessageDetail": "Ver detalhes",
"clearCurrentMessages": "Limpar mensagens da sessão atual",
"compressedHistory": "Histórico Comprimido",
"compression.cancel": "Descompactar",
"compression.cancelConfirm": "Tem certeza de que deseja descompactar? Isso restaurará as mensagens originais.",
"compression.history": "Histórico",
"compression.summary": "Resumo",
"confirmClearCurrentMessages": "Você está prestes a limpar as mensagens da sessão atual. Uma vez limpas, não poderão ser recuperadas. Confirme sua ação.",
@ -58,6 +60,10 @@
"emptyAgentAction": "Criar Agente",
"extendParams.disableContextCaching.desc": "Reduza em até 90% o custo de geração de uma única conversa e aumente a velocidade em até 4x. Ativar isso desativa automaticamente o limite de mensagens históricas. <1>Saiba mais</1>",
"extendParams.disableContextCaching.title": "Ativar Cache de Contexto",
"extendParams.effort.desc": "Controle quantos tokens o Claude usa ao responder com o parâmetro de esforço.",
"extendParams.effort.title": "Esforço",
"extendParams.enableAdaptiveThinking.desc": "Permita que o Claude decida dinamicamente quando e quanto pensar com o modo de pensamento adaptativo.",
"extendParams.enableAdaptiveThinking.title": "Ativar Pensamento Adaptativo",
"extendParams.enableReasoning.desc": "Com base no limite do mecanismo de Pensamento Claude, ativar isso desativa automaticamente o limite de mensagens históricas. <1>Saiba mais</1>",
"extendParams.enableReasoning.title": "Ativar Pensamento Profundo",
"extendParams.imageAspectRatio.title": "Proporção da Imagem",

View file

@ -490,6 +490,15 @@
"user.noForkedAgentGroups": "Nenhum grupo de agentes forkado ainda",
"user.noForkedAgents": "Nenhum agente forkado ainda",
"user.publishedAgents": "Agentes Criados",
"user.publishedGroups": "Grupos Criados",
"user.searchPlaceholder": "Pesquisar por nome ou descrição...",
"user.statusFilter.all": "Todos",
"user.statusFilter.archived": "Arquivados",
"user.statusFilter.deprecated": "Obsoletos",
"user.statusFilter.favorite": "Favoritos",
"user.statusFilter.forked": "Derivados",
"user.statusFilter.published": "Publicados",
"user.statusFilter.unpublished": "Em Análise",
"user.tabs.favorites": "Favoritos",
"user.tabs.forkedAgents": "Forkados",
"user.tabs.publishedAgents": "Criados",

View file

@ -150,6 +150,7 @@
"upload.desc": "Detalhes: {{detail}}",
"upload.fileOnlySupportInServerMode": "O modo de implantação atual não suporta upload de arquivos que não sejam imagens. Para enviar arquivos no formato {{ext}}, mude para implantação com banco de dados ou use o serviço {{cloud}}.",
"upload.networkError": "Verifique sua conexão de rede e a configuração de CORS do serviço de armazenamento de arquivos.",
"upload.storageLimitExceeded": "O armazenamento de arquivos atingiu o limite do seu plano. Faça upgrade do plano ou exclua arquivos não utilizados para liberar espaço.",
"upload.title": "Falha no upload do arquivo. Verifique sua conexão ou tente novamente mais tarde.",
"upload.unknownError": "Motivo do erro: {{reason}}",
"upload.uploadFailed": "Falha no upload do arquivo."

View file

@ -196,6 +196,8 @@
"providerModels.item.modelConfig.displayName.title": "Nome de Exibição do Modelo",
"providerModels.item.modelConfig.extendParams.extra": "Escolha os parâmetros estendidos compatíveis com o modelo. Passe o mouse sobre uma opção para visualizar os controles. Configurações incorretas podem causar falhas na solicitação.",
"providerModels.item.modelConfig.extendParams.options.disableContextCaching.hint": "Para modelos Claude; pode reduzir custos e acelerar as respostas.",
"providerModels.item.modelConfig.extendParams.options.effort.hint": "Para Claude Opus 4.6; controla o nível de esforço (baixo/médio/alto/máximo).",
"providerModels.item.modelConfig.extendParams.options.enableAdaptiveThinking.hint": "Para Claude Opus 4.6; ativa ou desativa o pensamento adaptativo.",
"providerModels.item.modelConfig.extendParams.options.enableReasoning.hint": "Para modelos Claude, DeepSeek e outros com raciocínio; ativa um pensamento mais profundo.",
"providerModels.item.modelConfig.extendParams.options.gpt5ReasoningEffort.hint": "Para a série GPT-5; controla a intensidade do raciocínio.",
"providerModels.item.modelConfig.extendParams.options.gpt5_1ReasoningEffort.hint": "Para a série GPT-5.1; controla a intensidade do raciocínio.",

View file

@ -74,7 +74,7 @@
"MiniMax-M1.description": "Um novo modelo de raciocínio interno com 80 mil cadeias de pensamento e 1 milhão de tokens de entrada, oferecendo desempenho comparável aos principais modelos globais.",
"MiniMax-M2-Stable.description": "Projetado para fluxos de trabalho de codificação e agentes eficientes, com maior concorrência para uso comercial.",
"MiniMax-M2.1-Lightning.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada. Mais rápido e eficiente.",
"MiniMax-M2.1.description": "Poderosas capacidades de programação multilíngue, experiência de codificação totalmente aprimorada",
"MiniMax-M2.1.description": "MiniMax-M2.1 é o principal modelo open-source da MiniMax, focado em resolver tarefas complexas do mundo real. Seus principais pontos fortes são as capacidades de programação multilíngue e a habilidade de atuar como um Agente para resolver tarefas complexas.",
"MiniMax-M2.description": "Desenvolvido especificamente para codificação eficiente e fluxos de trabalho com agentes",
"MiniMax-Text-01.description": "O MiniMax-01 introduz atenção linear em larga escala além dos Transformers clássicos, com 456 bilhões de parâmetros e 45,9 bilhões ativados por passagem. Alcança desempenho de ponta e suporta até 4 milhões de tokens de contexto (32× GPT-4o, 20× Claude-3.5-Sonnet).",
"MiniMaxAI/MiniMax-M1-80k.description": "MiniMax-M1 é um modelo de raciocínio com pesos abertos, atenção híbrida em larga escala, com 456 bilhões de parâmetros totais e ~45,9 bilhões ativos por token. Suporta nativamente 1 milhão de tokens de contexto e utiliza Flash Attention para reduzir FLOPs em 75% na geração de 100 mil tokens em comparação com o DeepSeek R1. Com arquitetura MoE, CISPO e treinamento com atenção híbrida via RL, atinge desempenho líder em raciocínio com entradas longas e tarefas reais de engenharia de software.",
@ -82,6 +82,7 @@
"Moonshot-Kimi-K2-Instruct.description": "1 trilhão de parâmetros totais com 32 bilhões ativos. Entre os modelos sem modo de pensamento, é de ponta em conhecimento avançado, matemática e codificação, com desempenho superior em tarefas gerais de agentes. Otimizado para cargas de trabalho de agentes, pode agir, não apenas responder perguntas. Ideal para conversas improvisadas, bate-papo geral e experiências com agentes como um modelo de reflexo, sem pensamento prolongado.",
"NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO.description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46,7B) é um modelo de instrução de alta precisão para cálculos complexos.",
"OmniConsistency.description": "OmniConsistency melhora a consistência de estilo e a generalização em tarefas de imagem para imagem ao introduzir Diffusion Transformers (DiTs) em larga escala e dados estilizados pareados, evitando a degradação de estilo.",
"PaddlePaddle/PaddleOCR-VL-1.5.description": "PaddleOCR-VL-1.5 é uma versão aprimorada da série PaddleOCR-VL, alcançando 94,5% de precisão no benchmark de análise de documentos OmniDocBench v1.5, superando modelos grandes generalistas e modelos especializados em análise de documentos. Inova ao oferecer suporte à localização de caixas delimitadoras irregulares para elementos de documentos, lidando de forma eficaz com imagens escaneadas, inclinadas e capturadas de tela.",
"Phi-3-medium-128k-instruct.description": "O mesmo modelo Phi-3-medium com uma janela de contexto maior para RAG ou prompts de poucos exemplos.",
"Phi-3-medium-4k-instruct.description": "Um modelo com 14 bilhões de parâmetros e qualidade superior ao Phi-3-mini, focado em dados de alta qualidade e raciocínio intensivo.",
"Phi-3-mini-128k-instruct.description": "O mesmo modelo Phi-3-mini com uma janela de contexto maior para RAG ou prompts de poucos exemplos.",
@ -104,6 +105,7 @@
"Pro/deepseek-ai/DeepSeek-V3.description": "DeepSeek-V3 é um modelo MoE com 671 bilhões de parâmetros, utilizando MLA e DeepSeekMoE com balanceamento de carga sem perdas para inferência e treinamento eficientes. Pré-treinado com 14,8 trilhões de tokens de alta qualidade e ajustado com SFT e RL, supera outros modelos abertos e se aproxima dos modelos fechados líderes.",
"Pro/moonshotai/Kimi-K2-Instruct-0905.description": "Kimi K2-Instruct-0905 é o mais novo e poderoso modelo Kimi K2. Trata-se de um modelo MoE de alto nível com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos. Seus principais recursos incluem inteligência de codificação agentica aprimorada, com ganhos significativos em benchmarks e tarefas reais de agentes, além de melhorias na estética e usabilidade da codificação de frontend.",
"Pro/moonshotai/Kimi-K2-Thinking.description": "Kimi K2 Thinking Turbo é a variante Turbo otimizada para velocidade de raciocínio e rendimento, mantendo o raciocínio em múltiplas etapas e o uso de ferramentas do K2 Thinking. É um modelo MoE com aproximadamente 1 trilhão de parâmetros totais, contexto nativo de 256K e chamadas de ferramentas em larga escala estáveis para cenários de produção com exigências mais rigorosas de latência e concorrência.",
"Pro/moonshotai/Kimi-K2.5.description": "Kimi K2.5 é um modelo agente multimodal nativo open-source, baseado no Kimi-K2-Base, treinado com aproximadamente 1,5 trilhão de tokens mistos de visão e texto. O modelo adota uma arquitetura MoE com 1 trilhão de parâmetros totais e 32 bilhões de parâmetros ativos, suportando uma janela de contexto de 256K, integrando perfeitamente capacidades de compreensão visual e linguística.",
"Pro/zai-org/glm-4.7.description": "GLM-4.7 é o modelo carro-chefe de nova geração da Zhipu, com 355 bilhões de parâmetros totais e 32 bilhões de parâmetros ativos, totalmente aprimorado em diálogo geral, raciocínio e capacidades de agente. O GLM-4.7 aprimora o Pensamento Intercalado e introduz o Pensamento Preservado e o Pensamento por Turno.",
"QwQ-32B-Preview.description": "Qwen QwQ é um modelo de pesquisa experimental focado em aprimorar o raciocínio.",
"Qwen/QVQ-72B-Preview.description": "QVQ-72B-Preview é um modelo de pesquisa da Qwen focado em raciocínio visual, com pontos fortes em compreensão de cenas complexas e problemas visuais de matemática.",
@ -272,21 +274,22 @@
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo anterior mais avançado, Claude 3 Opus, em muitos testes de inteligência.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de próxima geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o anterior modelo principal Claude 3 Opus em muitos benchmarks.",
"claude-3-5-haiku-latest.description": "Claude 3.5 Haiku oferece respostas rápidas para tarefas leves.",
"claude-3-7-sonnet-20250219.description": "Claude 3.7 Sonnet é o modelo mais inteligente da Anthropic e o primeiro modelo de raciocínio híbrido do mercado. Ele pode gerar respostas quase instantâneas ou raciocínios detalhados passo a passo que o usuário pode acompanhar. O Sonnet se destaca especialmente em tarefas de programação, ciência de dados, visão computacional e agentes.",
"claude-3-7-sonnet-20250219.description": "Claude Sonnet 3.7 é o modelo mais inteligente da Anthropic e o primeiro modelo de raciocínio híbrido do mercado, oferecendo respostas quase instantâneas ou pensamento prolongado com controle refinado.",
"claude-3-7-sonnet-latest.description": "Claude 3.7 Sonnet é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-haiku-20240307.description": "Claude 3 Haiku é o modelo mais rápido e compacto da Anthropic, projetado para respostas quase instantâneas com desempenho rápido e preciso.",
"claude-3-opus-20240229.description": "Claude 3 Opus é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-3-sonnet-20240229.description": "Claude 3 Sonnet equilibra inteligência e velocidade para cargas de trabalho empresariais, oferecendo alta utilidade com menor custo e implantação confiável em larga escala.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade impressionante e raciocínio estendido.",
"claude-haiku-4-5-20251001.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e capacidade de pensamento estendido.",
"claude-opus-4-1-20250805-thinking.description": "Claude Opus 4.1 Thinking é uma variante avançada que pode revelar seu processo de raciocínio.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com destaque em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-1-20250805.description": "Claude Opus 4.1 é o modelo mais recente e avançado da Anthropic para tarefas altamente complexas, destacando-se em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-20250514.description": "Claude Opus 4 é o modelo mais poderoso da Anthropic para tarefas altamente complexas, com excelência em desempenho, inteligência, fluência e compreensão.",
"claude-opus-4-5-20251101.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional com desempenho escalável, ideal para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
"claude-opus-4-6.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para construção de agentes e programação.",
"claude-sonnet-4-20250514-thinking.description": "Claude Sonnet 4 Thinking pode produzir respostas quase instantâneas ou pensamento passo a passo estendido com processo visível.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 pode gerar respostas quase instantâneas ou raciocínios detalhados passo a passo com processo visível.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"claude-sonnet-4-20250514.description": "Claude Sonnet 4 é o modelo mais inteligente da Anthropic até o momento, oferecendo respostas quase instantâneas ou pensamento passo a passo com controle refinado para usuários de API.",
"claude-sonnet-4-5-20250929.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até hoje.",
"codegeex-4.description": "CodeGeeX-4 é um assistente de codificação com IA poderoso que oferece suporte a perguntas e respostas multilíngues e autocompletar código para aumentar a produtividade dos desenvolvedores.",
"codegeex4-all-9b.description": "CodeGeeX4-ALL-9B é um modelo de geração de código multilíngue que oferece suporte a autocompletar e geração de código, interpretação de código, busca na web, chamadas de função e perguntas e respostas em nível de repositório, cobrindo uma ampla gama de cenários de desenvolvimento de software. É um modelo de código de alto nível com menos de 10 bilhões de parâmetros.",
"codegemma.description": "CodeGemma é um modelo leve para tarefas variadas de programação, permitindo iteração rápida e fácil integração.",
@ -355,7 +358,7 @@
"deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
"deepseek-chat.description": "Um novo modelo de código aberto que combina habilidades gerais e de programação. Mantém o diálogo geral do modelo de chat e a forte capacidade de codificação do modelo de programador, com melhor alinhamento de preferências. O DeepSeek-V2.5 também melhora a escrita e o seguimento de instruções.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Em benchmarks públicos, atinge níveis comparáveis ao GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes open-source.",
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
"deepseek-coder-v2.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
"deepseek-coder-v2:236b.description": "O DeepSeek Coder V2 é um modelo de código MoE open-source com forte desempenho em tarefas de programação, comparável ao GPT-4 Turbo.",
@ -378,7 +381,7 @@
"deepseek-r1-fast-online.description": "Versão completa e rápida do DeepSeek R1 com busca em tempo real na web, combinando capacidade de 671B com respostas mais ágeis.",
"deepseek-r1-online.description": "Versão completa do DeepSeek R1 com 671B de parâmetros e busca em tempo real na web, oferecendo compreensão e geração mais robustas.",
"deepseek-r1.description": "O DeepSeek-R1 usa dados de inicialização a frio antes do RL e apresenta desempenho comparável ao OpenAI-o1 em matemática, programação e raciocínio.",
"deepseek-reasoner.description": "O modo de raciocínio DeepSeek V3.2 gera uma cadeia de pensamento antes da resposta final para melhorar a precisão.",
"deepseek-reasoner.description": "DeepSeek V3.2 Thinking é um modelo de raciocínio profundo que gera cadeias de pensamento antes das respostas para maior precisão, com resultados de ponta em competições e raciocínio comparável ao Gemini-3.0-Pro.",
"deepseek-v2.description": "O DeepSeek V2 é um modelo MoE eficiente para processamento econômico.",
"deepseek-v2:236b.description": "O DeepSeek V2 236B é o modelo da DeepSeek focado em código com forte geração de código.",
"deepseek-v3-0324.description": "O DeepSeek-V3-0324 é um modelo MoE com 671B de parâmetros, com destaque em programação, capacidade técnica, compreensão de contexto e manipulação de textos longos.",
@ -463,16 +466,13 @@
"ernie-char-fiction-8k-preview.description": "Pré-visualização do ERNIE Character Fiction 8K, modelo para criação de personagens e enredos, voltado para avaliação e testes de recursos.",
"ernie-char-fiction-8k.description": "ERNIE Character Fiction 8K é um modelo de personagem para romances e criação de enredos, adequado para geração de histórias longas.",
"ernie-irag-edit.description": "ERNIE iRAG Edit é um modelo de edição de imagem que suporta apagar, repintar e gerar variantes.",
"ernie-lite-8k.description": "ERNIE Lite 8K é um modelo geral leve para perguntas e respostas diárias e geração de conteúdo com foco em custo.",
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K é um modelo leve de alto desempenho para cenários sensíveis à latência e ao custo.",
"ernie-novel-8k.description": "ERNIE Novel 8K é projetado para romances longos e enredos de IP com narrativas de múltiplos personagens.",
"ernie-speed-128k.description": "ERNIE Speed 128K é um modelo sem custo de I/O para compreensão de textos longos e testes em larga escala.",
"ernie-speed-8k.description": "ERNIE Speed 8K é um modelo gratuito e rápido para bate-papo diário e tarefas leves de texto.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K é um modelo de alto valor e alta concorrência para serviços online em larga escala e aplicativos corporativos.",
"ernie-tiny-8k.description": "ERNIE Tiny 8K é um modelo ultra leve para perguntas e respostas simples, classificação e inferência de baixo custo.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 é um modelo de geração de imagens da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagens altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, oferece edição e composição de múltiplas imagens. Apresenta consistência aprimorada de elementos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôsteres e design de logotipos com renderização texto-imagem de alta precisão.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, suporta entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
"fal-ai/flux-pro/kontext.description": "FLUX.1 Kontext [pro] aceita texto e imagens de referência como entrada, permitindo edições locais direcionadas e transformações complexas de cena.",
"fal-ai/flux/krea.description": "Flux Krea [dev] é um modelo de geração de imagens com viés estético para imagens mais realistas e naturais.",
@ -480,8 +480,8 @@
"fal-ai/hunyuan-image/v3.description": "Um poderoso modelo multimodal nativo de geração de imagens.",
"fal-ai/imagen4/preview.description": "Modelo de geração de imagens de alta qualidade do Google.",
"fal-ai/nano-banana.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen que permite edições semânticas e visuais, edita com precisão textos em chinês e inglês, e possibilita edições de alta qualidade como transferência de estilo e rotação de objetos.",
"fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen com renderização impressionante de texto em chinês e estilos visuais diversos.",
"fal-ai/qwen-image-edit.description": "Um modelo profissional de edição de imagens da equipe Qwen, com suporte a edições semânticas e visuais, edição precisa de texto em chinês/inglês, transferência de estilo, rotação e mais.",
"fal-ai/qwen-image.description": "Um poderoso modelo de geração de imagens da equipe Qwen, com forte renderização de texto em chinês e estilos visuais diversos.",
"flux-1-schnell.description": "Modelo de texto para imagem com 12 bilhões de parâmetros da Black Forest Labs, usando difusão adversarial latente para gerar imagens de alta qualidade em 1 a 4 etapas. Rivaliza com alternativas fechadas e é lançado sob licença Apache-2.0 para uso pessoal, acadêmico e comercial.",
"flux-dev.description": "FLUX.1 [dev] é um modelo destilado de código aberto para uso não comercial. Mantém qualidade de imagem próxima à profissional e seguimento de instruções, com execução mais eficiente e melhor uso de recursos do que modelos padrão do mesmo tamanho.",
"flux-kontext-max.description": "Geração e edição de imagens contextuais de última geração, combinando texto e imagens para resultados precisos e coerentes.",
@ -509,10 +509,11 @@
"gemini-1.5-pro-latest.description": "Gemini 1.5 Pro suporta até 2 milhões de tokens, sendo um modelo multimodal de porte médio ideal para tarefas complexas.",
"gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
"gemini-2.0-flash-exp-image-generation.description": "Modelo experimental Gemini 2.0 Flash com suporte à geração de imagens.",
"gemini-2.0-flash-exp.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
"gemini-2.0-flash-lite-001.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
"gemini-2.0-flash-lite.description": "Uma variante do Gemini 2.0 Flash otimizada para eficiência de custo e baixa latência.",
"gemini-2.0-flash.description": "Gemini 2.0 Flash oferece recursos de próxima geração, incluindo velocidade excepcional, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
"gemini-2.5-flash-image-preview.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image-preview:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-image:image.description": "Nano Banana é o modelo multimodal nativo mais novo, rápido e eficiente do Google, permitindo geração e edição de imagens por meio de conversas.",
"gemini-2.5-flash-lite-preview-06-17.description": "Gemini 2.5 Flash-Lite Preview é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
@ -574,7 +575,6 @@
"glm-zero-preview.description": "GLM-Zero-Preview oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
"global.anthropic.claude-opus-4-5-20251101-v1:0.description": "Claude Opus 4.5 é o modelo principal da Anthropic, combinando inteligência excepcional e desempenho escalável para tarefas complexas que exigem respostas e raciocínio da mais alta qualidade.",
"google/gemini-2.0-flash-001.description": "Gemini 2.0 Flash oferece capacidades de nova geração, incluindo excelente velocidade, uso nativo de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
"google/gemini-2.0-flash-exp:free.description": "Gemini 2.0 Flash Experimental é o mais recente modelo multimodal experimental do Google, com melhorias de qualidade em relação às versões anteriores, especialmente em conhecimento geral, código e contexto longo.",
"google/gemini-2.0-flash-lite-001.description": "Gemini 2.0 Flash Lite é uma variante leve do Gemini com raciocínio desativado por padrão para melhorar latência e custo, podendo ser ativado via parâmetros.",
"google/gemini-2.0-flash-lite.description": "Gemini 2.0 Flash Lite oferece recursos de nova geração, incluindo velocidade excepcional, uso integrado de ferramentas, geração multimodal e janela de contexto de 1 milhão de tokens.",
"google/gemini-2.0-flash.description": "Gemini 2.0 Flash é o modelo de raciocínio de alto desempenho do Google para tarefas multimodais estendidas.",
@ -751,6 +751,7 @@
"kimi-k2-thinking-turbo.description": "Variante de raciocínio longo de alta velocidade do K2 com contexto de 256k, raciocínio profundo robusto e saída de 60100 tokens/segundo.",
"kimi-k2-thinking.description": "kimi-k2-thinking é o modelo de raciocínio da Moonshot AI com habilidades gerais de agentes e raciocínio. Ele se destaca em raciocínio profundo e pode resolver problemas difíceis com uso de ferramentas em múltiplas etapas.",
"kimi-k2-turbo-preview.description": "kimi-k2 é um modelo base MoE com fortes capacidades de programação e agentes (1T de parâmetros totais, 32B ativos), superando outros modelos abertos populares em benchmarks de raciocínio, programação, matemática e agentes.",
"kimi-k2.5.description": "Kimi K2.5 é o modelo Kimi mais avançado, oferecendo SOTA open-source em tarefas de agentes, programação e compreensão visual. Suporta entradas multimodais e modos com ou sem raciocínio.",
"kimi-k2.description": "Kimi-K2 é um modelo base MoE da Moonshot AI com fortes capacidades de programação e agentes, totalizando 1T de parâmetros com 32B ativos. Em benchmarks de raciocínio geral, programação, matemática e tarefas de agentes, supera outros modelos abertos populares.",
"kimi-k2:1t.description": "Kimi K2 é um grande modelo MoE LLM da Moonshot AI com 1T de parâmetros totais e 32B ativos por passagem. É otimizado para capacidades de agentes, incluindo uso avançado de ferramentas, raciocínio e síntese de código.",
"kimi-latest.description": "Kimi Latest usa o modelo Kimi mais recente e pode incluir recursos experimentais. Suporta compreensão de imagens e seleciona automaticamente modelos de cobrança 8k/32k/128k com base no comprimento do contexto.",
@ -997,8 +998,6 @@
"qianfan-8b.description": "Qianfan 8B é um modelo geral de porte médio que equilibra custo e qualidade para geração de texto e perguntas e respostas.",
"qianfan-agent-intent-32k.description": "Qianfan Agent Intent 32K é voltado para reconhecimento de intenção e orquestração de agentes com suporte a contexto longo.",
"qianfan-agent-lite-8k.description": "Qianfan Agent Lite 8K é um modelo de agente leve para diálogos de múltiplas voltas e fluxos de trabalho de baixo custo.",
"qianfan-agent-speed-32k.description": "Qianfan Agent Speed 32K é um modelo de agente de alta vazão para aplicativos de agentes multitarefa em larga escala.",
"qianfan-agent-speed-8k.description": "Qianfan Agent Speed 8K é um modelo de agente de alta concorrência para conversas curtas a médias e respostas rápidas.",
"qianfan-check-vl.description": "Qianfan Check VL é um modelo de revisão de conteúdo multimodal para conformidade e reconhecimento de imagem-texto.",
"qianfan-composition.description": "Qianfan Composition é um modelo de criação multimodal para compreensão e geração mista de imagem e texto.",
"qianfan-engcard-vl.description": "Qianfan EngCard VL é um modelo de reconhecimento multimodal focado em cenários em inglês.",
@ -1091,7 +1090,7 @@
"qwen3-14b.description": "Qwen3 14B é um modelo de porte médio para perguntas e respostas multilíngues e geração de texto.",
"qwen3-235b-a22b-instruct-2507.description": "Qwen3 235B A22B Instruct 2507 é um modelo de instrução de ponta para uma ampla gama de tarefas de geração e raciocínio.",
"qwen3-235b-a22b-thinking-2507.description": "Qwen3 235B A22B Thinking 2507 é um modelo de raciocínio ultra grande para tarefas complexas.",
"qwen3-235b-a22b.description": "Qwen3 235B A22B é um modelo geral de grande porte para tarefas complexas.",
"qwen3-235b-a22b.description": "Qwen3 é a nova geração do modelo Tongyi Qwen, com grandes avanços em raciocínio, capacidade geral, habilidades de agente e desempenho multilíngue, além de suporte à alternância de modos de raciocínio.",
"qwen3-30b-a3b-instruct-2507.description": "Qwen3 30B A3B Instruct 2507 é um modelo de instrução de porte médio-grande para geração de alta qualidade e perguntas e respostas.",
"qwen3-30b-a3b-thinking-2507.description": "Qwen3 30B A3B Thinking 2507 é um modelo de raciocínio de porte médio-grande que equilibra precisão e custo.",
"qwen3-30b-a3b.description": "Qwen3 30B A3B é um modelo geral de porte médio-grande que equilibra custo e qualidade.",
@ -1103,6 +1102,7 @@
"qwen3-coder-flash.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
"qwen3-coder-plus.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
"qwen3-coder:480b.description": "Modelo de alto desempenho da Alibaba com suporte a contexto longo para tarefas de agente e codificação.",
"qwen3-max-2026-01-23.description": "Os modelos Qwen3 Max apresentam grandes avanços em relação à série 2.5 em capacidade geral, compreensão de chinês/inglês, seguimento de instruções complexas, tarefas subjetivas abertas, habilidade multilíngue e uso de ferramentas, com menos alucinações. A versão mais recente do qwen3-max melhora a programação agente e o uso de ferramentas em relação ao qwen3-max-preview. Este lançamento atinge o SOTA da área e atende a necessidades mais complexas de agentes.",
"qwen3-max-preview.description": "Modelo Qwen com melhor desempenho para tarefas complexas e de múltiplas etapas. A prévia oferece suporte a raciocínio.",
"qwen3-max.description": "Os modelos Qwen3 Max apresentam grandes avanços em relação à série 2.5 em capacidade geral, compreensão de chinês/inglês, seguimento de instruções complexas, tarefas subjetivas abertas, capacidade multilíngue e uso de ferramentas, com menos alucinações. O qwen3-max mais recente melhora a programação agente e o uso de ferramentas em relação ao qwen3-max-preview. Esta versão atinge o estado da arte e atende a necessidades mais complexas de agentes.",
"qwen3-next-80b-a3b-instruct.description": "Modelo Qwen3 de próxima geração, de código aberto e sem raciocínio. Em comparação com a versão anterior (Qwen3-235B-A22B-Instruct-2507), possui melhor compreensão do chinês, raciocínio lógico mais forte e geração de texto aprimorada.",
@ -1177,9 +1177,10 @@
"tts-1.description": "O mais recente modelo de texto para fala otimizado para velocidade em tempo real.",
"upstage/SOLAR-10.7B-Instruct-v1.0.description": "Upstage SOLAR Instruct v1 (11B) é ajustado para tarefas de instrução precisas com forte desempenho linguístico.",
"us.anthropic.claude-3-5-sonnet-20241022-v2:0.description": "Claude 3.5 Sonnet eleva o padrão da indústria, superando concorrentes e o Claude 3 Opus em avaliações amplas, mantendo velocidade e custo intermediários.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em várias habilidades e supera o antigo carro-chefe Claude 3 Opus em muitos benchmarks de inteligência.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e raciocínio estendido.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até o momento.",
"us.anthropic.claude-3-7-sonnet-20250219-v1:0.description": "Claude 3.7 Sonnet é o modelo de próxima geração mais rápido da Anthropic. Em comparação com o Claude 3 Haiku, apresenta melhorias em diversas habilidades e supera o modelo principal anterior Claude 3 Opus em muitos benchmarks de inteligência.",
"us.anthropic.claude-haiku-4-5-20251001-v1:0.description": "Claude Haiku 4.5 é o modelo Haiku mais rápido e inteligente da Anthropic, com velocidade relâmpago e pensamento estendido.",
"us.anthropic.claude-opus-4-6-v1.description": "Claude Opus 4.6 é o modelo mais inteligente da Anthropic para construção de agentes e programação.",
"us.anthropic.claude-sonnet-4-5-20250929-v1:0.description": "Claude Sonnet 4.5 é o modelo mais inteligente da Anthropic até hoje.",
"v0-1.0-md.description": "v0-1.0-md é um modelo legado disponibilizado via API v0.",
"v0-1.5-lg.description": "v0-1.5-lg é adequado para tarefas avançadas de pensamento ou raciocínio.",
"v0-1.5-md.description": "v0-1.5-md é adequado para tarefas cotidianas e geração de interfaces.",

View file

@ -1,4 +1,5 @@
{
"arguments.moreParams": "{{count}} parâmetros no total",
"arguments.title": "Argumentos",
"builtins.lobe-agent-builder.apiName.getAvailableModels": "Obter modelos disponíveis",
"builtins.lobe-agent-builder.apiName.getAvailableTools": "Obter Habilidades disponíveis",

Some files were not shown because too many files have changed in this diff Show more