feat(cloud): add Nano Banana 2 support (#12493)

This commit is contained in:
YuTengjing 2026-02-27 10:26:07 +08:00 committed by GitHub
parent c960705177
commit 0ec6c2f38e
No known key found for this signature in database
GPG key ID: B5690EEEBB952194
163 changed files with 7611 additions and 1193 deletions

View file

@ -795,14 +795,6 @@
"count": 1
}
},
"src/store/image/slices/generationConfig/initialState.ts": {
"sort-keys-fix/sort-keys-fix": {
"count": 1
},
"typescript-sort-keys/interface": {
"count": 1
}
},
"src/store/library/slices/content/action.ts": {
"no-unused-private-class-members": {
"count": 2

View file

@ -256,11 +256,6 @@
"footer.star.title": "قيّمنا على GitHub",
"footer.title": "هل أعجبك منتجنا؟",
"fullscreen": "وضع ملء الشاشة",
"geminiImageChineseWarning.content": "قد يفشل Nano Banana أحيانًا في إنشاء الصور عند استخدام اللغة الصينية. يُنصح باستخدام اللغة الإنجليزية للحصول على نتائج أفضل.",
"geminiImageChineseWarning.continueGenerate": "متابعة التوليد",
"geminiImageChineseWarning.continueSend": "متابعة الإرسال",
"geminiImageChineseWarning.doNotShowAgain": "عدم الإظهار مرة أخرى",
"geminiImageChineseWarning.title": "تنبيه إدخال باللغة الصينية",
"historyRange": "نطاق السجل",
"home.suggestQuestions": "جرّب هذه الأمثلة",
"import": "استيراد",
@ -397,6 +392,7 @@
"tab.chat": "الدردشة",
"tab.community": "المجتمع",
"tab.discover": "اكتشف",
"tab.eval": "مختبر التقييم",
"tab.files": "الملفات",
"tab.home": "الرئيسية",
"tab.knowledgeBase": "المكتبة",

316
locales/ar/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "حذف المعيار",
"benchmark.actions.delete.confirm": "هل أنت متأكد أنك تريد حذف هذا المعيار؟ سيتم أيضًا حذف مجموعات البيانات وسجلات التقييم المرتبطة.",
"benchmark.actions.edit": "تعديل المعيار",
"benchmark.actions.export": "تصدير",
"benchmark.card.bestScore": "الأفضل",
"benchmark.card.caseCount": "{{count}} حالات",
"benchmark.card.datasetCount": "{{count}} مجموعات بيانات",
"benchmark.card.empty": "لا توجد تقييمات بعد",
"benchmark.card.emptyHint": "قم بإنشاء تقييم جديد من صفحة تفاصيل المعيار",
"benchmark.card.importDataset": "استيراد مجموعة بيانات",
"benchmark.card.noDataset": "لا توجد مجموعات بيانات بعد",
"benchmark.card.noDatasetHint": "قم باستيراد مجموعة بيانات لبدء التقييم",
"benchmark.card.noRecentRuns": "لا توجد تقييمات حديثة للعرض",
"benchmark.card.recentRuns": "التقييمات الحديثة",
"benchmark.card.runCount": "{{count}} تقييمات",
"benchmark.card.startFirst": "ابدأ التقييم الأول",
"benchmark.card.viewAll": "عرض الكل {{count}}",
"benchmark.create.confirm": "إنشاء",
"benchmark.create.description.label": "الوصف",
"benchmark.create.description.placeholder": "وصف المعيار (اختياري)",
"benchmark.create.error": "فشل في إنشاء المعيار",
"benchmark.create.identifier.label": "المعرف",
"benchmark.create.identifier.placeholder": "معرف-المعيار",
"benchmark.create.identifierRequired": "يرجى إدخال معرف",
"benchmark.create.name.label": "الاسم",
"benchmark.create.name.placeholder": "أدخل اسم المعيار",
"benchmark.create.nameRequired": "يرجى إدخال اسم المعيار",
"benchmark.create.success": "تم إنشاء المعيار بنجاح",
"benchmark.create.tags.label": "العلامات",
"benchmark.create.tags.placeholder": "أضف علامات، افصلها بفاصلة أو مسافة",
"benchmark.create.title": "إنشاء معيار",
"benchmark.detail.backToOverview": "العودة إلى النظرة العامة",
"benchmark.detail.datasetCount": "{{count}} مجموعة بيانات{{count, plural, one {} other {s}}} في هذا المعيار",
"benchmark.detail.runCount": "{{count}} تشغيل تقييم{{count, plural, one {} other {s}}} على هذا المعيار",
"benchmark.detail.stats.addFirstDataset": "انقر لإضافة أول مجموعة بيانات",
"benchmark.detail.stats.avgCost": "متوسط التكلفة",
"benchmark.detail.stats.avgDuration": "متوسط المدة",
"benchmark.detail.stats.basedOnLastNRuns": "بناءً على آخر {{count}} تشغيلات",
"benchmark.detail.stats.bestPerformance": "أفضل أداء بواسطة {{agent}} بمعدل نجاح {{passRate}}%",
"benchmark.detail.stats.bestScore": "أفضل نتيجة",
"benchmark.detail.stats.cases": "الحالات",
"benchmark.detail.stats.dataScale": "حجم البيانات",
"benchmark.detail.stats.datasets": "مجموعات البيانات",
"benchmark.detail.stats.needSetup": "الإعداد مطلوب",
"benchmark.detail.stats.noEvalRecord": "لا توجد سجلات تقييم بعد",
"benchmark.detail.stats.perRun": "/ تشغيل",
"benchmark.detail.stats.runs": "التشغيلات",
"benchmark.detail.stats.tags": "العلامات",
"benchmark.detail.stats.topAgents": "أفضل الوكلاء",
"benchmark.detail.stats.totalCases": "إجمالي الحالات",
"benchmark.detail.stats.waiting": "انتظار...",
"benchmark.detail.tabs.data": "البيانات",
"benchmark.detail.tabs.datasets": "مجموعات البيانات",
"benchmark.detail.tabs.runs": "التشغيلات",
"benchmark.edit.confirm": "حفظ",
"benchmark.edit.error": "فشل في تحديث المعيار",
"benchmark.edit.success": "تم تحديث المعيار بنجاح",
"benchmark.edit.title": "تعديل المعيار",
"benchmark.empty": "لا توجد معايير بعد. قم بإنشاء واحد للبدء.",
"caseDetail.actual": "الإخراج الفعلي",
"caseDetail.chatArea.title": "المحادثة",
"caseDetail.completionReason": "الحالة",
"caseDetail.cost": "التكلفة",
"caseDetail.difficulty": "الصعوبة",
"caseDetail.duration": "المدة",
"caseDetail.expected": "الإخراج المتوقع",
"caseDetail.failureReason": "سبب الفشل",
"caseDetail.input": "الإدخال",
"caseDetail.judgeComment": "تعليق القاضي",
"caseDetail.resources": "الموارد",
"caseDetail.score": "النتيجة",
"caseDetail.section.runtime": "وقت التشغيل",
"caseDetail.section.scoring": "تفاصيل التقييم",
"caseDetail.section.testCase": "حالة الاختبار",
"caseDetail.steps": "الخطوات",
"caseDetail.threads.attempt": "المحاولة #{{number}}",
"caseDetail.tokens": "استخدام الرموز",
"common.cancel": "إلغاء",
"common.create": "إنشاء",
"common.delete": "حذف",
"common.edit": "تعديل",
"common.later": "لاحقًا",
"common.next": "التالي",
"common.update": "تحديث",
"dataset.actions.addDataset": "إضافة مجموعة بيانات",
"dataset.actions.import": "استيراد البيانات",
"dataset.actions.importDataset": "استيراد مجموعة بيانات",
"dataset.create.description.label": "الوصف",
"dataset.create.description.placeholder": "وصف مجموعة البيانات (اختياري)",
"dataset.create.error": "فشل في إنشاء مجموعة البيانات",
"dataset.create.identifier.label": "المعرف",
"dataset.create.identifier.placeholder": "معرف-مجموعة-البيانات",
"dataset.create.identifierRequired": "يرجى إدخال معرف",
"dataset.create.importNow": "هل ترغب في استيراد البيانات الآن؟",
"dataset.create.name.label": "اسم مجموعة البيانات",
"dataset.create.name.placeholder": "أدخل اسم مجموعة البيانات",
"dataset.create.nameRequired": "يرجى إدخال اسم مجموعة البيانات",
"dataset.create.preset.label": "الإعداد المسبق لمجموعة البيانات",
"dataset.create.success": "تم إنشاء مجموعة البيانات بنجاح",
"dataset.create.successTitle": "تم إنشاء مجموعة البيانات",
"dataset.create.title": "إنشاء مجموعة بيانات",
"dataset.delete.confirm": "هل أنت متأكد أنك تريد حذف هذه المجموعة؟ سيتم أيضًا حذف جميع حالات الاختبار الموجودة بها.",
"dataset.delete.error": "فشل في حذف مجموعة البيانات",
"dataset.delete.success": "تم حذف مجموعة البيانات بنجاح",
"dataset.detail.addRun": "تشغيل جديد",
"dataset.detail.backToBenchmark": "العودة إلى المعيار",
"dataset.detail.caseCount": "{{count}} حالة اختبار{{count, plural, one {} other {s}}}",
"dataset.detail.relatedRuns": "التشغيلات المرتبطة ({{count}})",
"dataset.detail.testCases": "حالات الاختبار",
"dataset.detail.viewDetail": "عرض التفاصيل",
"dataset.edit.error": "فشل في تحديث مجموعة البيانات",
"dataset.edit.success": "تم تحديث مجموعة البيانات بنجاح",
"dataset.edit.title": "تعديل مجموعة البيانات",
"dataset.empty": "لا توجد مجموعات بيانات",
"dataset.empty.description": "قم باستيراد مجموعة بيانات لبدء بناء هذا المعيار",
"dataset.empty.title": "لا توجد مجموعات بيانات بعد",
"dataset.evalMode.hint": "وضع التقييم الافتراضي لمجموعة البيانات، يمكن تجاوزه على مستوى حالة الاختبار",
"dataset.import.category": "الفئة",
"dataset.import.categoryDesc": "تسمية التصنيف للتجميع",
"dataset.import.choices": "الخيارات",
"dataset.import.choicesDesc": "خيارات متعددة للاختيار",
"dataset.import.confirm": "استيراد",
"dataset.import.error": "فشل في استيراد مجموعة البيانات",
"dataset.import.expected": "الإجابة المتوقعة",
"dataset.import.expectedDelimiter": "فاصل الإجابة",
"dataset.import.expectedDelimiter.desc": "فاصل الإجابة",
"dataset.import.expectedDelimiter.placeholder": "مثل | أو ,",
"dataset.import.expectedDesc": "الإجابة الصحيحة للمقارنة",
"dataset.import.fieldMapping": "تعيين الحقول",
"dataset.import.fieldMapping.desc": "عمود \"الإدخال\" مطلوب",
"dataset.import.hideSkipped": "إخفاء الأعمدة المتخطاة",
"dataset.import.ignore": "تخطي",
"dataset.import.ignoreDesc": "لا تقم باستيراد هذا العمود",
"dataset.import.input": "الإدخال",
"dataset.import.inputDesc": "السؤال أو الطلب المرسل إلى النموذج",
"dataset.import.metadata": "البيانات الوصفية",
"dataset.import.metadataDesc": "معلومات إضافية، يتم تخزينها كما هي",
"dataset.import.next": "التالي",
"dataset.import.parseError": "فشل في تحليل الملف",
"dataset.import.parsing": "جارٍ تحليل الملف...",
"dataset.import.prev": "السابق",
"dataset.import.preview": "معاينة البيانات",
"dataset.import.preview.desc": "تأكد من صحة التعيين، ثم قم بالاستيراد.",
"dataset.import.preview.rows": "إجمالي {{count}} صفوف",
"dataset.import.sortOrder": "رقم العنصر",
"dataset.import.sortOrderDesc": "معرف السؤال/العنصر للمرجعية",
"dataset.import.step.mapping": "تعيين الحقول",
"dataset.import.step.preview": "معاينة",
"dataset.import.step.upload": "رفع الملف",
"dataset.import.success": "تم استيراد {{count}} حالة اختبار بنجاح",
"dataset.import.title": "استيراد مجموعة بيانات",
"dataset.import.upload.hint": "يدعم CSV، XLSX، JSON، JSONL",
"dataset.import.upload.text": "انقر أو اسحب الملف هنا للرفع",
"dataset.import.uploading": "جارٍ الرفع...",
"dataset.switchDataset": "تبديل مجموعة البيانات",
"difficulty.easy": "سهل",
"difficulty.hard": "صعب",
"difficulty.medium": "متوسط",
"evalMode.contains": "مطابقة تحتوي",
"evalMode.contains.desc": "يجب أن يحتوي الإخراج على النص المتوقع",
"evalMode.equals": "مطابقة تامة",
"evalMode.equals.desc": "يجب أن يكون الإخراج مطابقًا تمامًا لما هو متوقع",
"evalMode.label": "وضع التقييم",
"evalMode.llm-rubric": "تقييم LLM",
"evalMode.llm-rubric.desc": "استخدام LLM لتقييم جودة الإخراج",
"evalMode.placeholder": "اختر وضع التقييم",
"evalMode.prompt.label": "طلب القاضي",
"evalMode.prompt.placeholder": "أدخل معايير التقييم أو الطلب لقاضي LLM",
"evalMode.rubric": "تقييم بالمعايير",
"evalMode.rubric.desc": "تقييم الإخراج باستخدام معايير المعيار مع معايير مرجحة",
"overview.createBenchmark": "إنشاء معيار",
"overview.importDataset": "استيراد مجموعة بيانات",
"overview.subtitle": "قيّم وكلاء الذكاء الاصطناعي عبر مجموعات البيانات",
"overview.title": "مختبر التقييم",
"run.actions.abort": "إلغاء",
"run.actions.abort.confirm": "هل أنت متأكد أنك تريد إلغاء هذا التقييم؟",
"run.actions.create": "تقييم جديد",
"run.actions.delete": "حذف",
"run.actions.delete.confirm": "هل أنت متأكد أنك تريد حذف هذا التقييم؟",
"run.actions.edit": "تعديل",
"run.actions.retryCase": "إعادة المحاولة",
"run.actions.retryErrors": "إعادة المحاولة للأخطاء",
"run.actions.retryErrors.confirm": "سيتم إعادة تشغيل جميع الحالات التي تحتوي على أخطاء أو انتهاء المهلة. لن تتأثر الحالات التي نجحت أو فشلت.",
"run.actions.run": "تشغيل",
"run.actions.start": "ابدأ",
"run.actions.start.confirm": "هل أنت متأكد أنك تريد بدء هذا التقييم؟",
"run.chart.duration": "المدة (ثانية)",
"run.chart.error": "خطأ",
"run.chart.fail": "فشل",
"run.chart.latencyDistribution": "توزيع التأخير",
"run.chart.latencyTokenDistribution": "توزيع التأخير / الرموز",
"run.chart.pass": "نجاح",
"run.chart.passFailError": "نجاح / فشل / خطأ",
"run.chart.tokens": "الرموز",
"run.config.agentId": "الوكيل",
"run.config.concurrency": "التزامن",
"run.config.judgeModel": "نموذج القاضي",
"run.config.k": "التنفيذات (K)",
"run.config.k.hint": "قم بتشغيل كل حالة اختبار {{k}} مرات للحصول على مقاييس pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "الحد الأقصى للخطوات",
"run.config.maxSteps.hint": "كل استدعاء LLM أو استدعاء أداة بواسطة الوكيل يُعتبر خطوة واحدة",
"run.config.model": "النموذج",
"run.config.temperature": "درجة الحرارة",
"run.config.timeout": "انتهاء المهلة",
"run.config.timeout.unit": "دقيقة",
"run.create.advanced": "إعدادات متقدمة",
"run.create.agent": "الوكيل",
"run.create.agent.placeholder": "اختر وكيلًا",
"run.create.agent.required": "يرجى اختيار وكيل",
"run.create.caseCount": "{{count}} حالات",
"run.create.confirm": "إنشاء وبدء",
"run.create.createOnly": "إنشاء فقط",
"run.create.dataset": "مجموعة البيانات",
"run.create.dataset.placeholder": "اختر مجموعة بيانات",
"run.create.dataset.required": "يرجى اختيار مجموعة بيانات",
"run.create.name": "اسم التشغيل",
"run.create.name.placeholder": "أدخل اسمًا لهذا التشغيل",
"run.create.name.required": "يرجى إدخال اسم التشغيل",
"run.create.name.useTimestamp": "استخدام الوقت الحالي كاسم",
"run.create.openAgent": "فتح الوكيل في نافذة جديدة",
"run.create.title": "تقييم جديد",
"run.create.titleWithDataset": "تقييم جديد على \"{{dataset}}\"",
"run.detail.agent": "الوكيل",
"run.detail.agent.none": "غير محدد",
"run.detail.agent.unnamed": "وكيل غير مسمى",
"run.detail.backToBenchmark": "العودة إلى المعيار",
"run.detail.caseResults": "تفاصيل التقييم",
"run.detail.config": "إعدادات التقييم",
"run.detail.configSnapshot": "لقطة الإعدادات",
"run.detail.dataset": "مجموعة البيانات",
"run.detail.model": "النموذج",
"run.detail.overview": "نظرة عامة",
"run.detail.progress": "التقدم",
"run.detail.progressCases": "الحالات",
"run.detail.report": "ملخص التقييم",
"run.edit.error": "فشل في تحديث التقييم",
"run.edit.success": "تم تحديث التقييم بنجاح",
"run.edit.title": "تعديل التقييم",
"run.empty.description": "ابدأ أول تشغيل تقييم على هذه المجموعة",
"run.empty.descriptionBenchmark": "ابدأ أول تشغيل تقييم على هذا المعيار",
"run.empty.title": "لا توجد تشغيلات بعد",
"run.filter.active": "نشط",
"run.filter.empty": "لا توجد تشغيلات تطابق الفلتر الحالي.",
"run.idle.hint": "انقر على ابدأ لبدء التقييم",
"run.metrics.avgScore": "متوسط النتيجة",
"run.metrics.cost": "التكلفة",
"run.metrics.duration": "المدة",
"run.metrics.errorCases": "خطأ",
"run.metrics.evaluated": "{{count}} تم تقييمها",
"run.metrics.passRate": "معدل النجاح",
"run.metrics.perCase": "/ حالة",
"run.metrics.tokens": "الرموز",
"run.metrics.totalDuration": "إجمالي",
"run.pending.hint": "التقييم في قائمة الانتظار، في انتظار البدء...",
"run.running.hint": "التقييم قيد التشغيل، ستظهر النتائج قريبًا...",
"run.status.aborted": "تم الإلغاء",
"run.status.completed": "مكتمل",
"run.status.error": "خطأ في التشغيل",
"run.status.failed": "فشل",
"run.status.idle": "خامل",
"run.status.pending": "قيد الانتظار",
"run.status.running": "قيد التشغيل",
"run.status.timeout": "انتهاء المهلة",
"sidebar.benchmarks": "المعايير",
"sidebar.dashboard": "لوحة التحكم",
"sidebar.datasets": "مجموعات البيانات",
"sidebar.runs": "التشغيلات",
"table.columns.avgCost": "متوسط التكلفة",
"table.columns.category": "الفئة",
"table.columns.cost": "التكلفة",
"table.columns.difficulty": "الصعوبة",
"table.columns.duration": "المدة",
"table.columns.evalMode": "وضع التقييم",
"table.columns.expected": "الإجابة المتوقعة",
"table.columns.input": "الإدخال",
"table.columns.score": "النتيجة",
"table.columns.status": "الحالة",
"table.columns.steps": "الخطوات",
"table.columns.tags": "العلامات",
"table.columns.tokens": "الرموز",
"table.columns.totalCost": "إجمالي التكلفة",
"table.filter.all": "الكل",
"table.filter.error": "خطأ في التشغيل",
"table.filter.failed": "فشل",
"table.filter.passed": "نجح",
"table.filter.running": "قيد التشغيل",
"table.search.placeholder": "ابحث عن الحالات...",
"table.total": "الإجمالي {{count}}",
"testCase.actions.add": "إضافة حالة اختبار",
"testCase.actions.import": "استيراد حالات الاختبار",
"testCase.create.advanced": "خيارات إضافية",
"testCase.create.difficulty.label": "الصعوبة",
"testCase.create.error": "فشل في إضافة حالة الاختبار",
"testCase.create.expected.label": "الإخراج المتوقع",
"testCase.create.expected.placeholder": "أدخل الإجابة المتوقعة",
"testCase.create.expected.required": "يرجى إدخال الإخراج المتوقع",
"testCase.create.input.label": "الإدخال",
"testCase.create.input.placeholder": "أدخل إدخال حالة الاختبار أو السؤال",
"testCase.create.success": "تمت إضافة حالة الاختبار بنجاح",
"testCase.create.tags.label": "العلامات",
"testCase.create.tags.placeholder": "علامات مفصولة بفاصلة (اختياري)",
"testCase.create.title": "إضافة حالة اختبار",
"testCase.delete.confirm": "هل أنت متأكد أنك تريد حذف حالة الاختبار هذه؟",
"testCase.delete.error": "فشل في حذف حالة الاختبار",
"testCase.delete.success": "تم حذف حالة الاختبار",
"testCase.edit.error": "فشل في تحديث حالة الاختبار",
"testCase.edit.success": "تم تحديث حالة الاختبار بنجاح",
"testCase.edit.title": "تعديل حالة الاختبار",
"testCase.empty.description": "قم باستيراد أو إضافة حالات اختبار يدويًا إلى هذه المجموعة",
"testCase.empty.title": "لا توجد حالات اختبار بعد",
"testCase.preview.expected": "المتوقع",
"testCase.preview.input": "الإدخال",
"testCase.preview.title": "معاينة حالة الاختبار",
"testCase.search.placeholder": "ابحث عن الحالات..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "بحث معمق",
"starter.developing": "قريبًا",
"starter.image": "صورة",
"starter.nanoBanana2": "🍌 نانو موزة 2",
"starter.seedance": "سيدانس 2.0",
"starter.write": "كتابة"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "لسلسلة Gemini؛ يتحكم في ميزانية التفكير.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "لنماذج المعاينة السريعة من Gemini 3 Flash؛ يتحكم في عمق التفكير.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "لنماذج المعاينة الاحترافية من Gemini 3 Pro؛ يتحكم في عمق التفكير.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "لنماذج Gemini 3.1 Pro Preview؛ يتحكم في عمق التفكير بمستويات منخفضة/متوسطة/عالية.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "لسلسلة Gemini؛ يدعم توفير سياق من خلال عنوان URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "اختر المعلمات الموسعة لتفعيلها",
"providerModels.item.modelConfig.extendParams.previewFallback": "المعاينة غير متوفرة",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo يقدم أداءً قويًا في الحوسبة والدردشة مع فهم دلالي ممتاز وكفاءة عالية في التوليد، مما يجعله مثاليًا للمؤسسات والمطورين.",
"360gpt2-o1.description": "360gpt2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.",
"360gpt2-pro.description": "360GPT2 Pro هو نموذج متقدم لمعالجة اللغة الطبيعية من 360 يتميز بتوليد وفهم نصوص ممتاز، خاصة في المهام الإبداعية، ويعالج التحولات المعقدة ولعب الأدوار.",
"360zhinao2-o1.5.description": "360 Zhinao أقوى نموذج استدلال، يتميز بأقوى القدرات ويدعم استدعاء الأدوات والاستدلال المتقدم.",
"360zhinao2-o1.description": "360zhinao2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.",
"360zhinao3-o1.5.description": "360 Zhinao نموذج الاستدلال من الجيل التالي.",
"4.0Ultra.description": "Spark Ultra هو أقوى نموذج في سلسلة Spark، يعزز فهم النصوص وتلخيصها، ويطور البحث عبر الإنترنت. يُعد حلاً شاملاً لزيادة الإنتاجية في بيئة العمل وتقديم إجابات دقيقة، مما يجعله منتجًا ذكيًا رائدًا.",
"AnimeSharp.description": "AnimeSharp (المعروف أيضًا باسم \"4x-AnimeSharp\") هو نموذج مفتوح المصدر لتحسين دقة الصور يعتمد على ESRGAN من Kim2091، يركز على تكبير وتحسين صور الأنمي. تم تغيير اسمه من \"4x-TextSharpV1\" في فبراير 2022، وكان مخصصًا أيضًا لصور النصوص ولكنه أصبح محسنًا بشكل كبير لمحتوى الأنمي.",
"Baichuan2-Turbo.description": "يستخدم تعزيز البحث لربط النموذج بالمعرفة المتخصصة ومعرفة الويب. يدعم تحميل ملفات PDF/Word وإدخال الروابط لاسترجاع شامل وفي الوقت المناسب، مع مخرجات دقيقة واحترافية.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision هو نموذج متعدد الوسائط متقدم يقدم أداءً قويًا في اختبارات اللغة والنصوص والرؤية. يركز إصدار 8B على تقليل التأخير مع الحفاظ على أداء قوي.",
"charglm-3.description": "CharGLM-3 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.",
"charglm-4.description": "CharGLM-4 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.",
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.",
"chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي. يجمع بين فهم اللغة القوي وتوليدها للاستخدامات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.",
"claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد من Anthropic، يتميز بتحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) هو نموذج مبتكر يوفر فهمًا عميقًا للغة وتفاعلًا ذكيًا.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.",
"deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية وتطبيقات الوكلاء. يحقق نتائج تضاهي GPT-5 في المعايير العامة، وهو الأول في دمج التفكير مع استخدام الأدوات، مما يجعله رائدًا في تقييمات الوكلاء مفتوحة المصدر.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek، يدعم أوضاع التفكير وغير التفكير، ويوفر كفاءة تفكير أعلى من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام أدوات الوكلاء وأداء المهام. يدعم نافذة سياق 128k وما يصل إلى 64k من الرموز الناتجة.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 هو نموذج استدلال من الجيل التالي مع تحسينات في الاستدلال المعقد وسلسلة الأفكار، مناسب للمهام التي تتطلب تحليلاً عميقًا.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp يقدم انتباهاً متفرقاً لتحسين كفاءة التدريب والاستدلال على النصوص الطويلة، بسعر أقل من deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "في المهام شديدة التعقيد، يتفوق نموذج Speciale بشكل كبير على النسخة القياسية، ولكنه يستهلك عددًا كبيرًا من الرموز ويتكبد تكاليف أعلى. حاليًا، يتم استخدام DeepSeek-V3.2-Speciale للأبحاث فقط، ولا يدعم استدعاء الأدوات، ولم يتم تحسينه بشكل خاص للمحادثات اليومية أو مهام الكتابة.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think هو نموذج تفكير عميق كامل يتميز باستدلال طويل السلسلة أقوى.",
"deepseek-v3.2.description": "DeepSeek-V3.2 هو أول نموذج استدلال هجين من DeepSeek يدمج التفكير في استخدام الأدوات. يستخدم بنية فعالة لتقليل الحسابات، وتعلم تقوية واسع النطاق لتعزيز القدرات، وبيانات مهام تركيبية ضخمة لتعزيز التعميم. يجمع بين هذه العناصر الثلاثة لتحقيق أداء مماثل لـ GPT-5-High، مع تقليل كبير في طول المخرجات، مما يقلل من عبء الحوسبة وأوقات انتظار المستخدمين.",
"deepseek-v3.description": "DeepSeek-V3 هو نموذج MoE قوي بإجمالي 671 مليار معلمة و37 مليار معلمة نشطة لكل رمز.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.",
"doubao-lite-128k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 128k.",
"doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
"doubao-lite-4k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 4k.",
"doubao-pro-256k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 256k.",
"doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن معالجة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، عالٍ)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.",
"doubao-vision-lite-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
"doubao-vision-pro-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 هو أحدث نموذج متعدد الوسائط من ByteDance، يدمج قدرات تحويل النص إلى صورة، والصورة إلى صورة، وتوليد الصور بالجملة، مع دمج الفهم العام وقدرات الاستدلال. مقارنة بالإصدار السابق 4.0، يقدم جودة توليد محسّنة بشكل كبير، مع تحسين تناسق التحرير ودمج الصور المتعددة. يوفر تحكمًا أكثر دقة في التفاصيل البصرية، مما يجعل النصوص الصغيرة والوجوه الصغيرة أكثر طبيعية، ويحقق تخطيطًا وألوانًا أكثر انسجامًا، مما يعزز الجماليات العامة.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite هو أحدث نموذج لتوليد الصور من ByteDance. لأول مرة، يدمج قدرات الاسترجاع عبر الإنترنت، مما يسمح له بتضمين معلومات الويب في الوقت الفعلي وتعزيز حداثة الصور المولدة. كما تم ترقية ذكاء النموذج، مما يمكنه من تفسير التعليمات المعقدة والمحتوى البصري بدقة. بالإضافة إلى ذلك، يقدم تغطية محسّنة للمعرفة العالمية، وتناسقًا مرجعيًا، وجودة توليد في السيناريوهات المهنية، مما يلبي بشكل أفضل احتياجات الإبداع البصري على مستوى المؤسسات.",
"emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم المشكلات العاطفية.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B هو نموذج مفتوح المصدر وخفيف الوزن، مصمم للنشر المحلي والمخصص.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking هو نموذج نصي MoE (مزيج من الخبراء) مدرب بعديًا مع إجمالي 21 مليار معلمة و3 مليارات معلمة نشطة، يقدم جودة وعمق استدلال محسّنة بشكل كبير.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B هو نموذج مفتوح المصدر ذو عدد كبير من المعلمات، يتميز بفهم وتوليد أقوى.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B هو نموذج MoE فائق الحجم من Baidu ERNIE يتمتع بقدرات استدلال ممتازة.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview هو نموذج معاينة بسياق 8K لتقييم أداء ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.",
"ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP مع سرد متعدد الشخصيات.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوازي وعالي القيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview هو نموذج تفكير سريع مع سياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.",
"ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.",
"ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، من تطوير فريق Seed في ByteDance، يدعم تحرير الصور المتعددة وتركيبها. يتميز بثبات أكبر في العناصر، ودقة في تنفيذ التعليمات، وفهم للمنطق المكاني، وتعبير جمالي، وتصميم الملصقات والشعارات مع عرض دقيق للنصوص والصور.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير فريق Seed في ByteDance، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة من خلال الأوامر.",
"fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
"gemini-2.5-flash-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا المحادثة متعددة الوسائط.",
"gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.",
"gemini-flash-latest.description": "أحدث إصدار من Gemini Flash",
"gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite",
"gemini-pro-latest.description": "أحدث إصدار من Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
"glm-4v-plus.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.",
"glm-4v.description": "GLM-4V يقدم فهمًا قويًا للصور واستدلالًا عبر المهام البصرية.",
"glm-5.description": "نموذج قوي للتفكير والوكالة من Z.ai مع 744B إجمالي المعلمات (40B نشطة)، مصمم لهندسة الأنظمة المعقدة والمهام طويلة الأمد.",
"glm-5.description": "سلسلة GLM هي نموذج استدلال هجين من Zhipu AI مصمم للوكلاء، مع أوضاع تفكير وغير تفكير.",
"glm-z1-air.description": "نموذج استدلال يتمتع بقدرات استنتاج قوية للمهام التي تتطلب استدلالًا عميقًا.",
"glm-z1-airx.description": "استدلال فائق السرعة مع جودة استدلال عالية.",
"glm-z1-flash.description": "سلسلة GLM-Z1 تقدم استدلالًا معقدًا قويًا، وتتفوق في المنطق، الرياضيات، والبرمجة.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.",
"grok-4.description": "أحدث وأقوى نموذج رائد لدينا، يتفوق في معالجة اللغة الطبيعية والرياضيات والاستدلال — مثالي كأداة شاملة.",
"grok-code-fast-1.description": "يسعدنا إطلاق grok-code-fast-1، نموذج استدلال سريع وفعال من حيث التكلفة يتفوق في البرمجة التلقائية.",
"grok-imagine-image-pro.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.",
"grok-imagine-image.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.",
"groq/compound-mini.description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم بنماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
"groq/compound.description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم بعدة نماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B هو نموذج لغوي إبداعي وذكي مدمج من عدة نماذج رائدة.",
"hunyuan-2.0-instruct-20251111.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير اتباع التعليمات، وفهم النصوص متعددة الأدوار والطويلة، والإبداع الأدبي، ودقة المعرفة، والبرمجة، وقدرات الاستدلال.",
"hunyuan-2.0-thinking-20251109.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير قدرة النموذج على اتباع التعليمات المعقدة، وفهم النصوص متعددة الأدوار والطويلة، ومعالجة الأكواد، والعمل كوكيل، وأداء مهام الاستدلال.",
"hunyuan-a13b.description": "أول نموذج تفكير هجين من Hunyuan، مطور من hunyuan-standard-256K (بإجمالي 80 مليار، 13 مليار نشطة). يعتمد بشكل افتراضي على التفكير البطيء ويدعم التبديل بين التفكير السريع والبطيء عبر المعلمات أو بإضافة /no_think. تم تحسين القدرات العامة مقارنة بالجيل السابق، خاصة في الرياضيات والعلوم وفهم النصوص الطويلة والمهام المعتمدة على الوكلاء.",
"hunyuan-code.description": "أحدث نموذج لتوليد الشيفرات تم تدريبه على 200 مليار من الشيفرات عالية الجودة وعلى مدار ستة أشهر من التدريب الدقيق؛ تم توسيع السياق إلى 8 آلاف. يحتل المراتب الأولى في المعايير الآلية لخمس لغات وفي التقييمات البشرية عبر عشرة معايير.",
"hunyuan-functioncall.description": "أحدث نموذج MoE لوظائف الاستدعاء، تم تدريبه على بيانات عالية الجودة، ويتميز بإطار سياق 32 ألف وكفاءة رائدة في المعايير المختلفة.",
"hunyuan-large-longcontext.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.",
"hunyuan-large-vision.description": "نموذج رؤية-لغة مدرب من Hunyuan Large لفهم الصور والنصوص. يدعم إدخال صور متعددة + نص بأي دقة، ويعزز الفهم البصري متعدد اللغات.",
"hunyuan-large.description": "يحتوي Hunyuan-large على ~389 مليار معلمة إجمالية و~52 مليار نشطة، وهو أكبر وأقوى نموذج MoE مفتوح في بنية Transformer.",
"hunyuan-lite-vision.description": "أحدث نموذج متعدد الوسائط بحجم 7 مليار مع إطار سياق 32 ألف، يدعم الدردشة متعددة الوسائط بالصينية/الإنجليزية، والتعرف على الكائنات، وفهم جداول المستندات، والرياضيات متعددة الوسائط، ويتفوق على نظرائه من نفس الحجم في العديد من المعايير.",
"hunyuan-code.description": "أحدث نموذج برمجي من Hunyuan مدرب على 200 مليار بيانات أكواد عالية الجودة بالإضافة إلى ستة أشهر من بيانات SFT، مع سياق 8K. يحتل مرتبة قريبة من القمة في معايير البرمجة الآلية وفي تقييمات الخبراء البشريين عبر خمس لغات.",
"hunyuan-functioncall.description": "أحدث نموذج MoE FunctionCall من Hunyuan مدرب على بيانات استدعاء الأدوات عالية الجودة، مع نافذة سياق 32K ومعايير رائدة عبر الأبعاد.",
"hunyuan-lite.description": "تمت ترقيته إلى بنية MoE مع إطار سياق 256 ألف، ويتفوق على العديد من النماذج المفتوحة في مجالات معالجة اللغة الطبيعية، الشيفرة، الرياضيات، والمعايير الصناعية.",
"hunyuan-pro.description": "نموذج طويل السياق MoE-32K بعدد تريليون معلمة، يتصدر المعايير، قوي في التعليمات المعقدة والتفكير، الرياضيات المتقدمة، استدعاء الوظائف، ومُحسّن للترجمة متعددة اللغات، والمالية، والقانون، والمجالات الطبية.",
"hunyuan-role.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.",
"hunyuan-standard-256K.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوسع MOE-256K طول السياق وجودته.",
"hunyuan-standard-vision.description": "أحدث نموذج متعدد الوسائط مع استجابات متعددة اللغات وقدرة متوازنة بين الصينية والإنجليزية.",
"hunyuan-standard.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوفر MOE-32K قيمة قوية أثناء التعامل مع مدخلات طويلة.",
"hunyuan-t1-20250321.description": "يبني توازناً بين الفنون والعلوم، مع قدرة قوية على التقاط المعلومات من النصوص الطويلة. يدعم الإجابات المنطقية لمشاكل الرياضيات والمنطق والعلوم والشيفرة بمستويات صعوبة مختلفة.",
"hunyuan-t1-20250403.description": "يحسن توليد الشيفرات على مستوى المشاريع وجودة الكتابة، ويعزز فهم المواضيع متعددة الأدوار واتباع التعليمات الموجهة للأعمال، ويحسن فهم الكلمات ويقلل من مشكلات الخلط بين الصينية المبسطة/التقليدية والإنجليزية.",
"hunyuan-t1-20250529.description": "يعزز الكتابة الإبداعية والتأليف، ويقوي البرمجة الأمامية، والرياضيات، والتفكير المنطقي، ويحسن اتباع التعليمات.",
"hunyuan-t1-20250711.description": "يحسن بشكل كبير أداء الرياضيات الصعبة، والمنطق، والبرمجة، ويعزز استقرار المخرجات، ويقوي القدرة على التعامل مع النصوص الطويلة.",
"hunyuan-role.description": "أحدث نموذج لعب الأدوار من Hunyuan، تم تحسينه رسميًا ببيانات لعب الأدوار، مما يقدم أداءً أساسيًا أقوى في سيناريوهات لعب الأدوار.",
"hunyuan-standard-256K.description": "يستخدم توجيهًا محسّنًا لتخفيف توازن التحميل وانهيار الخبراء. يصل النص الطويل \"الإبرة في كومة القش\" إلى 99.9%. MOE-256K يدفع أكثر في الطول والجودة، مما يوسع بشكل كبير طول الإدخال.",
"hunyuan-standard.description": "يستخدم توجيهًا محسّنًا لتخفيف توازن التحميل وانهيار الخبراء. يصل النص الطويل \"الإبرة في كومة القش\" إلى 99.9%. MOE-32K يقدم قيمة أفضل مع تحقيق توازن بين الجودة والسعر لإدخالات النص الطويل.",
"hunyuan-t1-latest.description": "يحسن بشكل ملحوظ نموذج التفكير البطيء في الرياضيات الصعبة، والتفكير المعقد، والبرمجة المعقدة، واتباع التعليمات، وجودة الكتابة الإبداعية.",
"hunyuan-t1-vision-20250619.description": "أحدث نموذج t1-vision متعدد الوسائط للتفكير العميق بسلسلة تفكير أصلية طويلة، محسّن بشكل كبير عن النسخة الافتراضية السابقة.",
"hunyuan-t1-vision-20250916.description": "أحدث نموذج t1-vision للتفكير العميق مع تحسينات كبيرة في VQA، التثبيت البصري، التعرف البصري على الحروف، الرسوم البيانية، حل المشكلات المصورة، والإبداع المعتمد على الصور، بالإضافة إلى دعم أقوى للإنجليزية واللغات منخفضة الموارد.",
"hunyuan-turbo-20241223.description": "يعزز توسيع التعليمات لتحسين التعميم، ويحسن بشكل كبير التفكير في الرياضيات/الشيفرة/المنطق، ويعزز فهم الكلمات، ويحسن جودة الكتابة.",
"hunyuan-turbo-latest.description": "تحسينات عامة في تجربة المستخدم عبر فهم اللغة الطبيعية، الكتابة، الدردشة، الأسئلة والأجوبة، الترجمة، والمجالات المتخصصة؛ استجابات أكثر إنسانية، توضيح أفضل للنوايا الغامضة، تحليل كلمات محسن، جودة إبداعية وتفاعلية أعلى، ومحادثات متعددة الأدوار أقوى.",
"hunyuan-turbo-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة باستخدام بنية MoE جديدة، مع تحسينات واسعة في التعرف، إنشاء المحتوى، الأسئلة المعرفية، والتفكير التحليلي.",
"hunyuan-turbo.description": "نموذج الجيل التالي من Hunyuan LLM بمعمارية MoE جديدة، يوفر تفكيراً أسرع ونتائج أقوى من hunyuan-pro.",
"hunyuan-turbos-20250313.description": "يوحد أسلوب حل المسائل الرياضية ويقوي الأسئلة والأجوبة متعددة الأدوار في الرياضيات. تم تحسين أسلوب الكتابة لتقليل الطابع الآلي وإضفاء لمسة احترافية.",
"hunyuan-turbos-20250416.description": "تمت ترقية قاعدة التدريب المسبق لتحسين فهم التعليمات واتباعها؛ يعزز المحاذاة أداء الرياضيات، الشيفرة، المنطق، والعلوم؛ يحسن جودة الكتابة، الفهم، دقة الترجمة، والأسئلة المعرفية؛ يقوي قدرات الوكلاء، خاصة في الفهم متعدد الأدوار.",
"hunyuan-turbos-20250604.description": "تمت ترقية قاعدة التدريب المسبق مع تحسينات في الكتابة وفهم القراءة، مكاسب كبيرة في الشيفرة والعلوم، وتحسين في اتباع التعليمات المعقدة.",
"hunyuan-turbos-20250926.description": "تحسين جودة بيانات التدريب المسبق واستراتيجية ما بعد التدريب، مما يعزز أداء الوكلاء، اللغات الإنجليزية/منخفضة الموارد، اتباع التعليمات، الشيفرة، والقدرات العلمية.",
"hunyuan-turbos-latest.description": "أحدث نموذج رائد من Hunyuan TurboS مع تفكير أقوى وتجربة شاملة أفضل.",
"hunyuan-turbos-longtext-128k-20250325.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.",
"hunyuan-turbos-role-plus.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.",
"hunyuan-turbos-vision-20250619.description": "أحدث نموذج TurboS رائد للرؤية واللغة مع تحسينات كبيرة في مهام الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.",
"hunyuan-turbos-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة مبني على أحدث إصدار من TurboS، يركز على مهام فهم الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.",
"hunyuan-vision-1.5-instruct.description": "نموذج تفكير سريع لتحويل الصور إلى نصوص مبني على قاعدة TurboS النصية، مع تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور والتحليل البصري المنطقي.",
"hunyuan-vision.description": "أحدث نموذج متعدد الوسائط يدعم إدخال الصور + النصوص لتوليد نصوص.",
"hunyuan-vision-1.5-instruct.description": "نموذج سريع التفكير لتحويل الصور إلى نص مبني على قاعدة النص TurboS، يظهر تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور واستدلال تحليل الصور.",
"hunyuan-vision.description": "أحدث نموذج متعدد الوسائط من Hunyuan يدعم إدخالات الصور + النصوص لتوليد النصوص.",
"image-01-live.description": "نموذج توليد صور بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة وأنماط قابلة للتحكم.",
"image-01.description": "نموذج توليد صور جديد بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة ومن صورة إلى صورة.",
"imagen-4.0-fast-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة السريعة",
"imagen-4.0-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة",
"imagen-4.0-generate-preview-06-06.description": "عائلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة.",
"imagen-4.0-ultra-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة الفائقة",
"imagen-4.0-ultra-generate-preview-06-06.description": "متغير Ultra من الجيل الرابع لعائلة نماذج Imagen لتحويل النص إلى صورة.",
"inception/mercury-coder-small.description": "Mercury Coder Small مثالي لتوليد الشيفرة، تصحيح الأخطاء، وإعادة الهيكلة بزمن استجابة منخفض.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 هو النموذج الثالث من معمارية Ling 2.0 من فريق Bailing في Ant Group. هو نموذج MoE يحتوي على 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل رمز (4.8 مليار بدون تضمين). رغم تكوينه الخفيف، يتفوق أو يضاهي نماذج كثيفة بحجم 40 مليار وحتى نماذج MoE أكبر في العديد من الاختبارات، مستكشفًا الكفاءة العالية من خلال المعمارية واستراتيجية التدريب.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE صغير عالي الأداء يحتوي على 16 مليار معلمة إجمالية و1.4 مليار نشطة لكل رمز (789 مليون بدون تضمين)، ويقدم توليدًا سريعًا جدًا. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة، يحقق أداءً من الدرجة الأولى مماثلًا للنماذج الكثيفة تحت 10 مليار ونماذج MoE الأكبر.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T هو نموذج MoE للاستدلال من inclusionAI يحتوي على تريليون معلمة، مناسب لمهام الاستدلال واسعة النطاق والبحث.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 هو متغير من نموذج Ring من inclusionAI مخصص لسيناريوهات الإنتاجية العالية، يركز على السرعة وكفاءة التكلفة.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 هو نموذج MoE خفيف الوزن عالي الإنتاجية من inclusionAI، مصمم للتزامن العالي.",
"intern-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة Intern، حاليًا محدد على intern-s1-pro.",
"intern-s1-mini.description": "نموذج كبير متعدد الوسائط خفيف الوزن يتميز بقدرات استدلال علمية قوية.",
"intern-s1-pro.description": "لقد أطلقنا نموذج الاستدلال متعدد الوسائط الأكثر تقدمًا مفتوح المصدر، حاليًا النموذج الكبير متعدد الوسائط مفتوح المصدر الأفضل أداءً من حيث الأداء العام.",
"intern-s1.description": "نموذج الاستدلال متعدد الوسائط مفتوح المصدر لا يظهر فقط قدرات عامة قوية ولكنه يحقق أداءً متقدمًا عبر مجموعة واسعة من المهام العلمية.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat هو نموذج محادثة مفتوح المصدر مبني على بنية InternLM2. يركز نموذج 7B على توليد الحوارات ويدعم اللغتين الصينية والإنجليزية، ويستخدم تدريبًا حديثًا لتقديم محادثات ذكية وسلسة. مناسب لسيناريوهات متعددة مثل دعم العملاء والمساعدين الشخصيين.",
"internlm2.5-latest.description": "نماذج قديمة لا تزال مدعومة وتتميز بأداء ممتاز ومستقر بعد عدة تحديثات. متوفرة بحجم 7B و20B، وتدعم سياقًا يصل إلى 1M، مع تحسينات في تنفيذ التعليمات واستخدام الأدوات. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternLM2.5 (حاليًا internlm2.5-20b-chat).",
"internlm3-latest.description": "أحدث سلسلة نماذج لدينا بأداء استدلال ممتاز، تتصدر النماذج المفتوحة في فئتها الحجمية. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternLM3 (حاليًا internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO هو نموذج مدرب مسبقًا متعدد الوسائط للاستدلال المعقد بين الصور والنصوص.",
"internvl2.5-latest.description": "InternVL2.5 لا يزال مدعومًا ويتميز بأداء قوي ومستقر. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternVL2.5 (حاليًا internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B هو نموذج متعدد الوسائط متوسط الحجم يوازن بين الأداء والتكلفة.",
"internvl3-1b.description": "InternVL3 1B هو نموذج متعدد الوسائط خفيف الوزن مناسب للنشر في بيئات محدودة الموارد.",
"internvl3-38b.description": "InternVL3 38B هو نموذج مفتوح المصدر كبير متعدد الوسائط لفهم دقيق بين الصور والنصوص.",
"internvl3-latest.description": "أحدث نموذج متعدد الوسائط لدينا يتميز بفهم أقوى بين الصور والنصوص وقدرة على استيعاب تسلسلات صور طويلة، ويقارن بأفضل النماذج المغلقة. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternVL (حاليًا internvl3-78b).",
"internvl3.5-241b-a28b.description": "نموذجنا الكبير متعدد الوسائط الجديد يتميز بفهم محسّن للنصوص والصور وقدرات فهم الصور طويلة التسلسل، مما يحقق أداءً مشابهًا للنماذج المغلقة المصدر الرائدة.",
"internvl3.5-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة InternVL3.5، حاليًا محدد على internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG هو نموذج توليد معزز باسترجاع الصور، يدعم البحث عن الصور، واسترجاع الصور والنصوص، وتوليد المحتوى.",
"jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.",
"jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 هو نموذج لغوي كبير وفعّال صُمم خصيصًا للبرمجة وسير عمل الوكلاء.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج لغوي كبير وخفيف الوزن ومتطور، مُحسّن للبرمجة وسير عمل الوكلاء وتطوير التطبيقات الحديثة، ويقدم مخرجات أنظف وأكثر إيجازًا واستجابة أسرع.",
"minimax/minimax-m2.description": "MiniMax-M2 هو نموذج عالي القيمة يتميز في مهام البرمجة والوكلاء في العديد من سيناريوهات الهندسة.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج MoE صغير وسريع وفعال من حيث التكلفة مصمم لأداء البرمجة والوكلاء من الدرجة الأولى.",
"minimaxai/minimax-m2.description": "MiniMax-M2 هو نموذج MoE مدمج وسريع وفعّال من حيث التكلفة (230 مليار إجمالي، 10 مليارات نشطة) صُمم لتحقيق أداء رفيع المستوى في البرمجة ومهام الوكلاء مع الحفاظ على ذكاء عام قوي. يتميز بتحرير ملفات متعددة، وتشغيل الكود وتصحيحه، والتحقق من الاختبارات، وسلاسل أدوات معقدة.",
"ministral-3b-latest.description": "Ministral 3B هو النموذج الرائد من Mistral للأجهزة الطرفية.",
"ministral-8b-latest.description": "Ministral 8B هو نموذج فعال من حيث التكلفة من Mistral للأجهزة الطرفية.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "نموذج kimi-k2-0905-preview يدعم نافذة سياق بحجم 256K، مع برمجة وكيلة أقوى، وشيفرة أمامية أكثر صقلًا وعملية، وفهم أفضل للسياق.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo هو إصدار عالي السرعة من Kimi K2 Thinking، يقلل بشكل كبير من زمن الاستجابة مع الحفاظ على عمق التفكير.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking هو نموذج التفكير من Moonshot، مُحسّن لمهام التفكير العميق، مع قدرات عامة كوكلاء.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 هو النموذج الأكثر ذكاءً من Kimi حتى الآن، يتميز بهندسة متعددة الوسائط أصلية.",
"moonshotai/kimi-k2.description": "Kimi K2 هو نموذج MoE كبير من Moonshot AI يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة لكل تمرير أمامي، مُحسّن لقدرات الوكلاء بما في ذلك استخدام الأدوات المتقدمة، والتفكير، وتوليد الشيفرة.",
"morph/morph-v3-fast.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 4500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.",
"morph/morph-v3-large.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 2500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.",
"musesteamer-air-image.description": "musesteamer-air-image هو نموذج لتوليد الصور تم تطويره بواسطة فريق البحث في Baidu لتقديم أداء استثنائي من حيث التكلفة. يمكنه بسرعة توليد صور واضحة ومتسقة الحركة بناءً على مطالبات المستخدم، مما يحول أوصاف المستخدم بسهولة إلى صور.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B هو إصدار محدث من Nous Hermes 2 باستخدام أحدث مجموعات البيانات المطورة داخليًا.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B هو نموذج LLM مخصص من NVIDIA لتحسين الفائدة. يحقق أداءً قويًا في Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، ويحتل المرتبة الأولى في جميع معايير المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريبه من Llama-3.1-70B-Instruct باستخدام RLHF (REINFORCE)، وLlama-3.1-Nemotron-70B-Reward، ومطالبات HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "نموذج لغوي مميز يقدم دقة وكفاءة استثنائية.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "استنادًا إلى طول السياق والموضوع والتعقيد، يتم توجيه طلبك إلى Llama 3 70B Instruct أو Claude 3.5 Sonnet (بمراقبة ذاتية) أو GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"oswe-vscode-secondary.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.",
"perplexity/sonar-pro.description": "المنتج الرائد من Perplexity مع دعم البحث، يدعم الاستفسارات المتقدمة والمتابعة.",
"perplexity/sonar-reasoning-pro.description": "نموذج متقدم يركز على التفكير، ينتج سلسلة تفكير (CoT) مع بحث محسّن، بما في ذلك استعلامات بحث متعددة لكل طلب.",
"perplexity/sonar-reasoning.description": "نموذج يركز على التفكير، ينتج سلسلة تفكير (CoT) مع شروحات مفصلة مدعومة بالبحث.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "نموذج Qwen للبرمجة.",
"qwen-coder-turbo.description": "نموذج Qwen للبرمجة.",
"qwen-flash.description": "أسرع وأقل نماذج Qwen تكلفة، مثالي للمهام البسيطة.",
"qwen-image-edit-max.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.",
"qwen-image-edit-plus.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.",
"qwen-image-edit.description": "Qwen Image Edit هو نموذج تحويل صورة إلى صورة يقوم بتحرير الصور بناءً على صور الإدخال والتعليمات النصية، مما يتيح تعديلات دقيقة وتحولات إبداعية.",
"qwen-image-max.description": "نموذج توليد الصور Qwen (سلسلة Max) يقدم واقعية محسّنة وطبيعية بصرية مقارنة بسلسلة Plus، مما يقلل بشكل فعال من العيوب الناتجة عن الذكاء الاصطناعي، ويظهر أداءً رائعًا في مظهر الإنسان، تفاصيل القوام، وتقديم النصوص.",
"qwen-image-plus.description": "يدعم مجموعة واسعة من الأنماط الفنية ويتميز بشكل خاص في تقديم النصوص المعقدة داخل الصور، مما يمكن من تصميم تخطيط متكامل للنصوص والصور.",
"qwen-image.description": "Qwen-Image هو نموذج عام لتوليد الصور يدعم أنماط فنية متعددة وعرض نصوص معقدة، خاصة باللغتين الصينية والإنجليزية. يدعم تخطيطات متعددة الأسطر، نصوص على مستوى الفقرة، وتفاصيل دقيقة لتخطيطات النصوص والصور المعقدة.",
"qwen-long.description": "نموذج Qwen فائق الحجم يدعم السياقات الطويلة والدردشة عبر سيناريوهات متعددة الوثائق.",
"qwen-math-plus-latest.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "نموذج Qwen مفتوح المصدر للبرمجة. الإصدار الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3 ويقدم قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct هو نموذج برمجة رائد مخصص للبرمجة متعددة اللغات وفهم الكود المعقد.",
"qwen3-coder-flash.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder-next.description": "الجيل التالي من Qwen coder محسن لتوليد الأكواد المعقدة متعددة الملفات، وتصحيح الأخطاء، وسير العمل عالي الإنتاجية للوكلاء. مصمم لتكامل الأدوات القوي وتحسين أداء الاستدلال.",
"qwen3-coder-plus.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.",
"qwen3-coder:480b.description": "نموذج عالي الأداء من Alibaba لمعالجة المهام المتعلقة بالوكلاء والبرمجة مع دعم لسياقات طويلة.",
"qwen3-max-2026-01-23.description": "نماذج Qwen3 Max تحقق تقدمًا كبيرًا مقارنة بسلسلة 2.5 في القدرات العامة، وفهم الصينية/الإنجليزية، واتباع التعليمات المعقدة، والمهام المفتوحة الذاتية، والقدرة متعددة اللغات، واستخدام الأدوات، مع تقليل الهلوسة. الإصدار الأحدث qwen3-max يحسن البرمجة الوكيلة واستخدام الأدوات مقارنة بـ qwen3-max-preview. هذا الإصدار يحقق أداءً رائدًا في المجال ويستهدف احتياجات الوكلاء المعقدة.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking هو نموذج تفكير متعدد الوسائط مخصص للاستدلال البصري التفصيلي.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: إصدار خفيف وسريع للاستدلال مخصص للطلبات الحساسة للزمن أو ذات الحجم الكبير.",
"qwen3-vl-plus.description": "Qwen VL هو نموذج توليد نصوص مع فهم بصري. يمكنه تنفيذ OCR، والتلخيص، والاستدلال، مثل استخراج السمات من صور المنتجات أو حل المشكلات من الصور.",
"qwen3.5-397b-a17b.description": "يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يظهر تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.",
"qwen3.description": "Qwen3 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.",
"qwq-32b-preview.description": "QwQ هو نموذج بحث تجريبي من Qwen يركز على تحسين الاستدلال.",
"qwq-32b.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم تفكيراً واستدلالاً يعزز الأداء بشكل كبير، خاصة في المشكلات المعقدة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.",
"r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النصوص إلى فيديو، والصور إلى فيديو (الإطار الأول، أو الإطار الأول والأخير)، وتوليد الصوت المتزامن مع العناصر البصرية.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، وتفسير محسّن للمطالبات المعقدة، وتناسق مرجعي محسّن للإبداع البصري المهني.",
"solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.",
"solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.",
"solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar-reasoning.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.",
"sonar.description": "منتج بحث خفيف الوزن يعتمد على البحث الموجه، أسرع وأقل تكلفة من Sonar Pro.",
"spark-x.description": "تحديثات X1.5: (1) إضافة وضع التفكير الديناميكي يتم التحكم به عبر الحقل `thinking`؛ (2) طول سياق أكبر مع 64K إدخال و64K إخراج؛ (3) دعم FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.",
"spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.",
"stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "يدعم التفاعلات ذات السياق الكبير للمحادثات المعقدة.",
"step-2-mini.description": "مبني على بنية MFA الجديدة، يقدم نتائج مماثلة لـ Step-1 بتكلفة أقل، مع إنتاجية أعلى وزمن استجابة أسرع. يتعامل مع المهام العامة بقدرة قوية على البرمجة.",
"step-2x-large.description": "نموذج صور من الجيل الجديد من StepFun يركز على توليد الصور، وينتج صورًا عالية الجودة من التعليمات النصية. يتميز بواقعية أكبر في الملمس وقدرة أقوى على عرض النصوص الصينية/الإنجليزية.",
"step-3.5-flash.description": "نموذج الاستدلال اللغوي الرائد من Stepfun. يقدم هذا النموذج قدرات استدلال من الدرجة الأولى مع تنفيذ سريع وموثوق. يمكنه تفكيك وتخطيط المهام المعقدة، استدعاء الأدوات بسرعة وموثوقية لتنفيذها، والتفوق في الاستدلال المنطقي، الرياضيات، هندسة البرمجيات، البحث العميق، وغيرها من المهام المتقدمة. طول السياق هو 256K.",
"step-3.description": "يتمتع هذا النموذج بإدراك بصري قوي واستدلال معقد، ويتعامل بدقة مع فهم المعرفة عبر المجالات، وتحليل الرياضيات والرؤية، ومجموعة واسعة من مهام التحليل البصري اليومية.",
"step-r1-v-mini.description": "نموذج استدلال يتمتع بفهم قوي للصور، يمكنه معالجة الصور والنصوص، ثم توليد نص بعد استدلال عميق. يتفوق في الاستدلال البصري ويقدم أداءً رائدًا في الرياضيات والبرمجة والاستدلال النصي، مع نافذة سياق تصل إلى 100 ألف.",
"stepfun-ai/step3.description": "Step3 هو نموذج استدلال متعدد الوسائط متقدم من StepFun، مبني على بنية MoE بسعة إجمالية 321B و38B نشطة. تصميمه الشامل يقلل من تكلفة فك التشفير مع تقديم استدلال رؤية-لغة من الدرجة الأولى. بفضل تصميم MFA وAFD، يظل فعالًا على المسرعات القوية والضعيفة. تم تدريبه مسبقًا على أكثر من 20 تريليون رمز نصي و4 تريليون رمز صورة-نص بعدة لغات. يحقق أداءً رائدًا في النماذج المفتوحة في اختبارات الرياضيات والبرمجة ومتعددة الوسائط.",
"taichu_llm.description": "مدرب على بيانات ضخمة عالية الجودة، يتمتع بفهم نصي أقوى، وقدرات على إنشاء المحتوى، وإجابات محادثية دقيقة.",
"taichu_o1.description": "taichu_o1 هو نموذج استدلال من الجيل الجديد يستخدم التفاعل متعدد الوسائط والتعلم المعزز لتحقيق تسلسل تفكير شبيه بالبشر، يدعم محاكاة القرارات المعقدة، ويعرض مسارات التفكير مع الحفاظ على دقة عالية، مناسب لتحليل الاستراتيجيات والتفكير العميق.",
"taichu_vl.description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويتفوق في أسئلة الصور والنصوص.",
"taichu4_vl_2b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 2B يتميز باستخدام ذاكرة أقل، تصميم خفيف الوزن، سرعة استجابة سريعة، وقدرات فهم متعددة الوسائط قوية.",
"taichu4_vl_32b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 32B مناسب لمهام الفهم والاستدلال متعددة الوسائط المعقدة، ويظهر أداءً رائعًا في الاستدلال الرياضي متعدد الوسائط، قدرات الوكيل متعدد الوسائط، والفهم العام للصور والبصريات.",
"taichu4_vl_32b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 32B مصمم لفهم النصوص والصور المعقدة وسيناريوهات الإجابة على الأسئلة المعرفية البصرية، ويتفوق في وصف الصور، الإجابة على الأسئلة البصرية، فهم الفيديو، ومهام تحديد المواقع البصرية.",
"taichu4_vl_3b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 3B يؤدي بكفاءة مهام الفهم والاستدلال متعددة الوسائط، مع تحسينات شاملة في الفهم البصري، تحديد المواقع البصرية، التعرف على النصوص البصرية (OCR)، والقدرات ذات الصلة.",
"taichu_llm.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_llm_14b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_llm_2b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.",
"taichu_o1.description": "taichu_o1 هو نموذج كبير للاستدلال من الجيل التالي يحقق سلسلة التفكير البشرية من خلال التفاعل متعدد الوسائط والتعلم المعزز. يدعم محاكاة اتخاذ القرارات المعقدة، ومع الحفاظ على دقة عالية للإخراج، يكشف عن مسارات استدلال قابلة للتفسير. يناسب تحليل الاستراتيجيات، التفكير العميق، والسيناريوهات المشابهة.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct يستخدم 80 مليار معلمة إجمالية مع 13 مليار نشطة لمضاهاة النماذج الأكبر. يدعم الاستدلال الهجين السريع/البطيء، وفهم النصوص الطويلة بثبات، وقدرات وكيل رائدة على BFCL-v3 وτ-Bench. تدعم تنسيقات GQA والتكميم المتعدد الاستدلال بكفاءة.",
"tencent/Hunyuan-MT-7B.description": "نموذج الترجمة Hunyuan يشمل Hunyuan-MT-7B وHunyuan-MT-Chimera. Hunyuan-MT-7B هو نموذج ترجمة خفيف بسعة 7B يدعم 33 لغة بالإضافة إلى 5 لغات صينية محلية. حصل على المركز الأول في 30 من أصل 31 زوج لغوي في WMT25. يستخدم Hunyuan من Tencent سلسلة تدريب كاملة من التدريب المسبق إلى SFT إلى الترجمة بالتعلم المعزز، محققًا أداءً رائدًا بحجمه وسهولة في النشر.",
"text-embedding-3-large.description": "أقوى نموذج تضمين للمهام باللغة الإنجليزية وغير الإنجليزية.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md مناسب للمهام اليومية وتوليد واجهات المستخدم.",
"vercel/v0-1.0-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.",
"vercel/v0-1.5-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code مُحسن لتلبية احتياجات البرمجة على مستوى المؤسسات، بناءً على قدرات Agent وVLM الممتازة في Seed 2.0، مع تعزيز خاص لقدرات البرمجة، ليس فقط في الأداء الأمامي ولكن أيضًا لتلبية احتياجات البرمجة متعددة اللغات الشائعة في المؤسسات، مما يجعله مناسبًا للاستخدام مع أدوات البرمجة بالذكاء الاصطناعي.",
"volcengine/doubao-seed-2-0-lite.description": "يجمع بين جودة التوليد وسرعة الاستجابة، مناسب كنموذج إنتاج عام.",
"volcengine/doubao-seed-2-0-mini.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code هو نموذج لغة كبير من محرك ByteDance Volcano، مُحسّن للبرمجة الذاتية، ويؤدي أداءً قويًا في اختبارات البرمجة والوكلاء مع دعم سياق يصل إلى 256 ألف.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed هو أحدث نموذج يتميز بتحسينات في الإبداع، والثبات، والواقعية، ويوفر توليدًا سريعًا وقيمة عالية.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro هو أحدث نموذج يتميز بتحسينات في الإبداع، والثبات، والواقعية، ويُنتج تفاصيل أغنى.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، يقدم توليدًا سريعًا وقيمة عالية.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، ينتج تفاصيل أكثر ثراءً.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview يدعم تحرير الصور الفردية ودمج الصور المتعددة.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع.",
"wan2.6-image.description": "Wanxiang 2.6 Image يدعم تحرير الصور وإخراج تخطيط مختلط للنصوص والصور.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع (مثل Wanxiang 2.5).",
"wanx-v1.description": "نموذج تحويل النص إلى صورة الأساسي. يُقابل Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "يتفوّق في الصور الشخصية الملمّسة بسرعة معتدلة وتكلفة منخفضة. يُقابل Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "إصدار مطوّر بالكامل مع تفاصيل صور أغنى وسرعة أبطأ قليلاً. يُقابل Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون)، مثالي لحالات الاستخدام ذات التزامن العالي والسياق الطويل.",
"x-ai/grok-4.description": "Grok 4 هو النموذج الرائد من xAI بقدرات استدلال قوية ودعم متعدد الوسائط.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI بإخراج قابل للقراءة ومناسب للهندسة.",
"x1.description": "تحديثات X1.5: (1) يضيف وضع التفكير الديناميكي الذي يتم التحكم فيه عبر الحقل `thinking`; (2) طول سياق أكبر مع 64K إدخال و64K إخراج; (3) يدعم وظيفة استدعاء الأدوات.",
"xai/grok-2-vision.description": "Grok 2 Vision يتفوّق في المهام البصرية، ويقدّم أداءً رائدًا في استدلال الرياضيات البصرية (MathVista) وأسئلة المستندات (DocVQA). يتعامل مع المستندات، والمخططات، والرسوم البيانية، ولقطات الشاشة، والصور.",
"xai/grok-2.description": "Grok 2 هو نموذج متقدم بأداء رائد في الاستدلال، والدردشة، والبرمجة، ويتفوّق على Claude 3.5 Sonnet وGPT-4 Turbo في تصنيفات LMSYS.",
"xai/grok-3-fast.description": "نموذج xAI الرائد يتفوّق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة عميقة في مجالات مثل المالية، والرعاية الصحية، والقانون، والعلوم. الإصدار السريع يعمل على بنية تحتية أسرع لتقديم استجابات أسرع بتكلفة أعلى لكل رمز.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 هو النموذج الرائد من Z.AI باستدلال هجين مُحسّن للهندسة والمهام طويلة السياق.",
"z-ai/glm-4.6.description": "GLM 4.6 هو النموذج الرائد من Z.AI مع طول سياق ممتد وقدرات برمجية متقدمة.",
"z-ai/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، يقدم قدرات عامة محسَّنة، وردودًا أبسط وأكثر طبيعية، وتجربة كتابة أكثر تفاعلية.",
"z-ai/glm5.description": "نموذج قوي للتفكير والوكالة من Z.ai مع 744B إجمالي المعلمات (40B نشطة)، مصمم لهندسة الأنظمة المعقدة والمهام طويلة الأمد.",
"z-ai/glm4.7.description": "GLM-4.7 هو أحدث نموذج رئيسي من Zhipu، محسّن لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة.",
"z-ai/glm5.description": "GLM-5 هو النموذج الأساسي الجديد من Zhipu AI للهندسة الوكيلة، يحقق أداءً مفتوح المصدر SOTA في البرمجة وقدرات الوكلاء. يتطابق مع أداء Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image هو نموذج خفيف الوزن لتحويل النصوص إلى صور يمكنه بسرعة إنتاج الصور، يدعم تقديم النصوص باللغتين الصينية والإنجليزية، ويتكيف بمرونة مع دقة متعددة ونسب عرض إلى ارتفاع.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5.description": "GLM-4.5 هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن بعمق لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.",
"zai-org/GLM-4.5V.description": "GLM-4.5V هو أحدث نموذج رؤية من Zhipu AI، مبني على نموذج النص الرائد GLM-4.5-Air (إجمالي 106 مليار، 12 مليار نشط) باستخدام بنية MoE لأداء قوي بتكلفة أقل. يتبع مسار GLM-4.1V-Thinking ويضيف 3D-RoPE لتحسين الاستدلال المكاني ثلاثي الأبعاد. مُحسّن من خلال التدريب المسبق، والتعلم الخاضع للإشراف، والتعلم المعزز، ويتعامل مع الصور، والفيديو، والمستندات الطويلة، ويتصدر النماذج المفتوحة في 41 معيارًا متعدد الوسائط. يتيح وضع التفكير للمستخدمين التوازن بين السرعة والعمق.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "تحديث العقدة",
"builtins.lobe-page-agent.apiName.wrapNodes": "تغليف العقد",
"builtins.lobe-page-agent.title": "الصفحة",
"builtins.lobe-skill-store.apiName.importFromMarket": "استيراد من السوق",
"builtins.lobe-skill-store.apiName.importSkill": "استيراد المهارة",
"builtins.lobe-skill-store.apiName.searchSkill": "البحث عن المهارات",
"builtins.lobe-skill-store.title": "متجر المهارات",
"builtins.lobe-skills.apiName.execScript": "تشغيل البرنامج النصي",
"builtins.lobe-skills.apiName.exportFile": "تصدير الملف",
"builtins.lobe-skills.apiName.importFromMarket": "استيراد من السوق",
"builtins.lobe-skills.apiName.importSkill": "استيراد المهارة",
"builtins.lobe-skills.apiName.readReference": "قراءة المرجع",
"builtins.lobe-skills.apiName.runSkill": "تفعيل المهارة",
"builtins.lobe-skills.apiName.searchSkill": "البحث عن المهارات",
"builtins.lobe-skills.title": "المهارات",
"builtins.lobe-tools.apiName.activateTools": "تفعيل الأدوات",
"builtins.lobe-user-memory.apiName.addContextMemory": "إضافة ذاكرة السياق",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "إضافة ذاكرة الخبرة",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "إضافة ذاكرة الهوية",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "بحث الويب",
"confirm": "تأكيد",
"debug.arguments": "المعلمات",
"debug.error": "سجل الأخطاء",
"debug.function_call": "استدعاء الدالة",
"debug.intervention": "تدخل المهارة",
"debug.off": "إيقاف التصحيح",
@ -321,8 +335,8 @@
"dev.saveSuccess": "تم حفظ الإعدادات",
"dev.tabs.manifest": "البيان",
"dev.tabs.meta": "معلومات التعريف",
"dev.title.create": "إضافة مهارة مخصصة",
"dev.title.edit": "تعديل مهارة مخصصة",
"dev.title.create": "إضافة مهارة MCP مخصصة",
"dev.title.edit": "تعديل مهارة MCP مخصصة",
"dev.title.editCommunity": "تعديل مهارة المجتمع",
"dev.title.skillDetails": "تفاصيل المهارة",
"dev.title.skillSettings": "إعدادات المهارة",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud هي خدمة سحابية للذكاء الاصطناعي التوليدي فعالة من حيث التكلفة، مبنية على نماذج مفتوحة المصدر قوية.",
"spark.description": "يوفر iFLYTEK Spark ذكاءً اصطناعيًا متعدد اللغات قويًا عبر مجالات متعددة، مما يمكّن من الابتكار في الأجهزة الذكية والرعاية الصحية والتمويل وغيرها.",
"stepfun.description": "تقدم نماذج Stepfun قدرات رائدة في التعدد الوسائطي والتفكير المعقد، مع فهم طويل للسياق وتنظيم بحث مستقل قوي.",
"straico.description": "يُبسط Straico دمج الذكاء الاصطناعي من خلال توفير مساحة عمل موحدة تجمع بين أفضل نماذج الذكاء الاصطناعي التوليدية للنصوص والصور والصوت، مما يمكّن المسوقين ورواد الأعمال والهواة من الوصول السلس إلى أدوات الذكاء الاصطناعي المتنوعة.",
"taichu.description": "Taichu هو نموذج متعدد الوسائط من الجيل التالي من CASIA ومعهد ووهان للذكاء الاصطناعي، يدعم الأسئلة والأجوبة متعددة الجولات، والكتابة، وتوليد الصور، وفهم الأبعاد الثلاثية، وتحليل الإشارات بقدرات إدراكية وإبداعية متقدمة.",
"tencentcloud.description": "توفر Tencent Cloud محرك معرفة قائم على النماذج اللغوية الكبيرة يقدم إجابات معرفية شاملة للمؤسسات والمطورين، مع خدمات معيارية مثل تحليل المستندات، والتقسيم، والتضمين، وإعادة الصياغة متعددة الجولات لبناء حلول ذكاء اصطناعي مخصصة.",
"togetherai.description": "توفر Together AI أداءً رائدًا من خلال نماذج مبتكرة، وتخصيص واسع، وتوسع سريع، ونشر بسيط لتلبية احتياجات المؤسسات.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "ملف تعريف الوكيل",
"agentInfoDescription.value.unset": "غير محدد",
"agentInfoDescription.value.untitled": "وكيل بدون عنوان",
"agentSkillDetail.addedAt": "تمت الإضافة",
"agentSkillDetail.publishedAt": "تم النشر",
"agentSkillDetail.repository": "مستودع GitHub",
"agentSkillDetail.skillContent": "محتوى المهارة",
"agentSkillDetail.sourceUrl": "مصدر استيراد المهارة",
"agentSkillDetail.updatedAt": "تم التحديث",
"agentSkillEdit.descriptionDesc": "ملخص موجز لما تفعله المهارة، يساعد الوكيل على فهم متى يستخدمها",
"agentSkillEdit.fileReadonly": "هذا الملف للقراءة فقط. يمكن تعديل وصف المهارة والتعليمات فقط.",
"agentSkillEdit.instructions": "التعليمات",
"agentSkillEdit.instructionsDesc": "التعليمات الأساسية بصيغة Markdown التي تحدد سلوك المهارة وسير العمل",
"agentSkillEdit.instructionsPlaceholder": "أدخل تعليمات المهارة بصيغة Markdown...",
"agentSkillEdit.nameDesc": "المعرف الفريد لهذه المهارة، غير قابل للتعديل بعد الإنشاء",
"agentSkillEdit.saveSuccess": "تم تحديث المهارة بنجاح",
"agentSkillEdit.title": "إعدادات المهارة",
"agentSkillItem.deleteConfirm.desc": "هل أنت متأكد أنك تريد حذف مهارة الوكيل \"{{name}}\"؟ لا يمكن التراجع عن هذا الإجراء.",
"agentSkillItem.deleteConfirm.title": "حذف مهارة الوكيل",
"agentSkillModal.content": "محتوى المهارة",
"agentSkillModal.contentPlaceholder": "أدخل محتوى المهارة بصيغة Markdown...",
"agentSkillModal.description": "الوصف",
"agentSkillModal.descriptionPlaceholder": "قم بوصف هذه المهارة بشكل موجز",
"agentSkillModal.github.desc": "استيراد المهارات مباشرة من مستودع GitHub عام.",
"agentSkillModal.github.title": "استيراد من GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo",
"agentSkillModal.importError": "فشل الاستيراد: {{error}}",
"agentSkillModal.importSuccess": "تم استيراد مهارة الوكيل بنجاح",
"agentSkillModal.upload.desc": "قم برفع ملف .zip أو .skill محلي للتثبيت.",
"agentSkillModal.upload.dragText": "اسحب وأفلت أو انقر للرفع",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md يحتوي على اسم المهارة ووصفها بصيغة YAML",
"agentSkillModal.upload.requirementZip": "ملف .zip أو .skill يحتوي على SKILL.md في الدليل الرئيسي",
"agentSkillModal.upload.requirements": "متطلبات الملف",
"agentSkillModal.upload.title": "رفع المهارة",
"agentSkillModal.upload.uploading": "جارٍ الرفع...",
"agentSkillModal.url.desc": "استيراد مهارة عن طريق توفير رابط مباشر إلى ملف SKILL.md.",
"agentSkillModal.url.title": "استيراد من رابط",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "مهارة الوكيل",
"agentTab.chat": "تفضيلات المحادثة",
"agentTab.meta": "معلومات الوكيل",
"agentTab.modal": "إعدادات النموذج",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "تحديد النموذج المستخدم للترجمة",
"systemAgent.translation.title": "وكيل ترجمة الرسائل",
"tab.about": "حول",
"tab.addAgentSkill": "إضافة مهارة الوكيل",
"tab.addCustomMcp": "إضافة مهارة MCP مخصصة",
"tab.addCustomMcp.desc": "تكوين خادم MCP مخصص يدويًا",
"tab.addCustomSkill": "إضافة مهارة مخصصة",
"tab.agent": "خدمة الوكيل",
"tab.all": "الكل",
@ -652,7 +691,13 @@
"tab.experiment": "تجريبي",
"tab.hotkey": "اختصارات لوحة المفاتيح",
"tab.image": "خدمة توليد الصور",
"tab.importFromGithub": "استيراد من GitHub",
"tab.importFromGithub.desc": "استيراد من مستودع GitHub عام",
"tab.importFromUrl": "استيراد من رابط",
"tab.importFromUrl.desc": "استيراد عبر رابط مباشر إلى SKILL.md",
"tab.llm": "نموذج اللغة",
"tab.manualFill": "التعبئة اليدوية",
"tab.manualFill.desc": "تكوين مهارة MCP مخصصة يدويًا",
"tab.memory": "الذاكرة",
"tab.profile": "حسابي",
"tab.provider": "مزود خدمة الذكاء الاصطناعي",
@ -669,6 +714,8 @@
"tab.sync": "مزامنة السحابة",
"tab.systemTools": "أدوات النظام",
"tab.tts": "تحويل النص إلى كلام",
"tab.uploadZip": "رفع ملف مضغوط",
"tab.uploadZip.desc": "رفع ملف .zip أو .skill محلي",
"tab.usage": "إحصائيات الاستخدام",
"tools.add": "إضافة مهارة",
"tools.builtins.groupName": "المهارات المدمجة",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Дайте ни звезда в GitHub",
"footer.title": "Харесвате ли нашия продукт?",
"fullscreen": "Цял екран",
"geminiImageChineseWarning.content": "Nano Banana понякога може да не успее да генерира изображения при използване на китайски език. Препоръчваме използването на английски за по-добри резултати.",
"geminiImageChineseWarning.continueGenerate": "Продължи с генерирането",
"geminiImageChineseWarning.continueSend": "Продължи с изпращането",
"geminiImageChineseWarning.doNotShowAgain": "Не показвай повече",
"geminiImageChineseWarning.title": "Известие за въвеждане на китайски език",
"historyRange": "Обхват на историята",
"home.suggestQuestions": "Опитайте с тези примери",
"import": "Импортирай",
@ -397,6 +392,7 @@
"tab.chat": "Чат",
"tab.community": "Общност",
"tab.discover": "Открий",
"tab.eval": "Оценителна лаборатория",
"tab.files": "Файлове",
"tab.home": "Начало",
"tab.knowledgeBase": "Библиотека",

316
locales/bg-BG/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Изтриване на бенчмарк",
"benchmark.actions.delete.confirm": "Сигурни ли сте, че искате да изтриете този бенчмарк? Свързаните набори от данни и записи за оценка също ще бъдат изтрити.",
"benchmark.actions.edit": "Редактиране на бенчмарк",
"benchmark.actions.export": "Експортиране",
"benchmark.card.bestScore": "Най-добър",
"benchmark.card.caseCount": "{{count}} случая",
"benchmark.card.datasetCount": "{{count}} набора от данни",
"benchmark.card.empty": "Все още няма оценки",
"benchmark.card.emptyHint": "Създайте нова оценка от страницата с подробности за бенчмарка",
"benchmark.card.importDataset": "Импортиране на набор от данни",
"benchmark.card.noDataset": "Все още няма набори от данни",
"benchmark.card.noDatasetHint": "Импортирайте набор от данни, за да започнете оценяването",
"benchmark.card.noRecentRuns": "Няма скорошни оценки за показване",
"benchmark.card.recentRuns": "Скорошни оценки",
"benchmark.card.runCount": "{{count}} оценки",
"benchmark.card.startFirst": "Започнете първата оценка",
"benchmark.card.viewAll": "Вижте всички {{count}}",
"benchmark.create.confirm": "Създаване",
"benchmark.create.description.label": "Описание",
"benchmark.create.description.placeholder": "Описание на бенчмарка (по избор)",
"benchmark.create.error": "Неуспешно създаване на бенчмарк",
"benchmark.create.identifier.label": "Идентификатор",
"benchmark.create.identifier.placeholder": "идентификатор-на-бенчмарк",
"benchmark.create.identifierRequired": "Моля, въведете идентификатор",
"benchmark.create.name.label": "Име",
"benchmark.create.name.placeholder": "Въведете име на бенчмарк",
"benchmark.create.nameRequired": "Моля, въведете име на бенчмарк",
"benchmark.create.success": "Бенчмаркът е успешно създаден",
"benchmark.create.tags.label": "Етикети",
"benchmark.create.tags.placeholder": "Добавете етикети, разделени със запетая или интервал",
"benchmark.create.title": "Създаване на бенчмарк",
"benchmark.detail.backToOverview": "Обратно към прегледа",
"benchmark.detail.datasetCount": "{{count}} набор{{count, plural, one {} other {а}}} от данни в този бенчмарк",
"benchmark.detail.runCount": "{{count}} оценка{{count, plural, one {} other {и}}} на този бенчмарк",
"benchmark.detail.stats.addFirstDataset": "Кликнете, за да добавите първия набор от данни",
"benchmark.detail.stats.avgCost": "Средна цена",
"benchmark.detail.stats.avgDuration": "Средна продължителност",
"benchmark.detail.stats.basedOnLastNRuns": "Въз основа на последните {{count}} оценки",
"benchmark.detail.stats.bestPerformance": "Най-добро представяне от {{agent}} с {{passRate}}% успеваемост",
"benchmark.detail.stats.bestScore": "Най-добър резултат",
"benchmark.detail.stats.cases": "Случаи",
"benchmark.detail.stats.dataScale": "Мащаб на данните",
"benchmark.detail.stats.datasets": "Набори от данни",
"benchmark.detail.stats.needSetup": "Необходима настройка",
"benchmark.detail.stats.noEvalRecord": "Все още няма записи за оценка",
"benchmark.detail.stats.perRun": "/ Оценка",
"benchmark.detail.stats.runs": "Оценки",
"benchmark.detail.stats.tags": "Етикети",
"benchmark.detail.stats.topAgents": "Топ агенти",
"benchmark.detail.stats.totalCases": "Общо случаи",
"benchmark.detail.stats.waiting": "Изчакване...",
"benchmark.detail.tabs.data": "Данни",
"benchmark.detail.tabs.datasets": "Набори от данни",
"benchmark.detail.tabs.runs": "Оценки",
"benchmark.edit.confirm": "Запазване",
"benchmark.edit.error": "Неуспешно обновяване на бенчмарк",
"benchmark.edit.success": "Бенчмаркът е успешно обновен",
"benchmark.edit.title": "Редактиране на бенчмарк",
"benchmark.empty": "Все още няма бенчмаркове. Създайте един, за да започнете.",
"caseDetail.actual": "Действителен изход",
"caseDetail.chatArea.title": "Разговор",
"caseDetail.completionReason": "Статус",
"caseDetail.cost": "Цена",
"caseDetail.difficulty": "Трудност",
"caseDetail.duration": "Продължителност",
"caseDetail.expected": "Очакван изход",
"caseDetail.failureReason": "Причина за неуспех",
"caseDetail.input": "Вход",
"caseDetail.judgeComment": "Коментар на съдията",
"caseDetail.resources": "Ресурси",
"caseDetail.score": "Резултат",
"caseDetail.section.runtime": "Време за изпълнение",
"caseDetail.section.scoring": "Детайли за оценяване",
"caseDetail.section.testCase": "Тестов случай",
"caseDetail.steps": "Стъпки",
"caseDetail.threads.attempt": "Траектория #{{number}}",
"caseDetail.tokens": "Използване на токени",
"common.cancel": "Отказ",
"common.create": "Създаване",
"common.delete": "Изтриване",
"common.edit": "Редактиране",
"common.later": "По-късно",
"common.next": "Напред",
"common.update": "Обновяване",
"dataset.actions.addDataset": "Добавяне на набор от данни",
"dataset.actions.import": "Импортиране на данни",
"dataset.actions.importDataset": "Импортиране на набор от данни",
"dataset.create.description.label": "Описание",
"dataset.create.description.placeholder": "Описание на набора от данни (по избор)",
"dataset.create.error": "Неуспешно създаване на набор от данни",
"dataset.create.identifier.label": "Идентификатор",
"dataset.create.identifier.placeholder": "идентификатор-на-набор-от-данни",
"dataset.create.identifierRequired": "Моля, въведете идентификатор",
"dataset.create.importNow": "Искате ли да импортирате данни сега?",
"dataset.create.name.label": "Име на набора от данни",
"dataset.create.name.placeholder": "Въведете име на набора от данни",
"dataset.create.nameRequired": "Моля, въведете име на набора от данни",
"dataset.create.preset.label": "Предварителна настройка на набора от данни",
"dataset.create.success": "Наборът от данни е успешно създаден",
"dataset.create.successTitle": "Наборът от данни е създаден",
"dataset.create.title": "Създаване на набор от данни",
"dataset.delete.confirm": "Сигурни ли сте, че искате да изтриете този набор от данни? Всички тестови случаи в него също ще бъдат изтрити.",
"dataset.delete.error": "Неуспешно изтриване на набор от данни",
"dataset.delete.success": "Наборът от данни е успешно изтрит",
"dataset.detail.addRun": "Нова оценка",
"dataset.detail.backToBenchmark": "Обратно към бенчмарк",
"dataset.detail.caseCount": "{{count}} тестов случай{{count, plural, one {} other {и}}}",
"dataset.detail.relatedRuns": "Свързани оценки ({{count}})",
"dataset.detail.testCases": "Тестови случаи",
"dataset.detail.viewDetail": "Вижте детайли",
"dataset.edit.error": "Неуспешно обновяване на набор от данни",
"dataset.edit.success": "Наборът от данни е успешно обновен",
"dataset.edit.title": "Редактиране на набор от данни",
"dataset.empty": "Няма набори от данни",
"dataset.empty.description": "Импортирайте набор от данни, за да започнете изграждането на този бенчмарк",
"dataset.empty.title": "Все още няма набори от данни",
"dataset.evalMode.hint": "Стандартен режим на оценка за набора от данни, може да бъде променен на ниво тестов случай",
"dataset.import.category": "Категория",
"dataset.import.categoryDesc": "Класификационен етикет за групиране",
"dataset.import.choices": "Опции",
"dataset.import.choicesDesc": "Опции за избор",
"dataset.import.confirm": "Импортиране",
"dataset.import.error": "Неуспешно импортиране на набор от данни",
"dataset.import.expected": "Очакван отговор",
"dataset.import.expectedDelimiter": "Разделител за отговор",
"dataset.import.expectedDelimiter.desc": "Разделител за отговор",
"dataset.import.expectedDelimiter.placeholder": "напр. | или ,",
"dataset.import.expectedDesc": "Правилен отговор за сравнение",
"dataset.import.fieldMapping": "Съответствие на полета",
"dataset.import.fieldMapping.desc": "Колоната \"Вход\" е задължителна",
"dataset.import.hideSkipped": "Скриване на пропуснатите колони",
"dataset.import.ignore": "Пропускане",
"dataset.import.ignoreDesc": "Не импортирайте тази колона",
"dataset.import.input": "Вход",
"dataset.import.inputDesc": "Въпрос или подканване, изпратено към модела",
"dataset.import.metadata": "Метаданни",
"dataset.import.metadataDesc": "Допълнителна информация, съхранявана както е",
"dataset.import.next": "Напред",
"dataset.import.parseError": "Неуспешно анализиране на файла",
"dataset.import.parsing": "Анализиране на файла...",
"dataset.import.prev": "Назад",
"dataset.import.preview": "Преглед на данни",
"dataset.import.preview.desc": "Потвърдете, че съответствието е правилно, след това импортирайте.",
"dataset.import.preview.rows": "Общо {{count}} реда",
"dataset.import.sortOrder": "Номер на елемент",
"dataset.import.sortOrderDesc": "Идентификатор на въпрос/елемент за справка",
"dataset.import.step.mapping": "Съответствие на полета",
"dataset.import.step.preview": "Преглед",
"dataset.import.step.upload": "Качване на файл",
"dataset.import.success": "Успешно импортирани {{count}} тестови случаи",
"dataset.import.title": "Импортиране на набор от данни",
"dataset.import.upload.hint": "Поддържа CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Кликнете или плъзнете файл тук, за да го качите",
"dataset.import.uploading": "Качване...",
"dataset.switchDataset": "Смяна на набор от данни",
"difficulty.easy": "Лесно",
"difficulty.hard": "Трудно",
"difficulty.medium": "Средно",
"evalMode.contains": "Съвпадение по съдържание",
"evalMode.contains.desc": "Изходът трябва да съдържа очаквания текст",
"evalMode.equals": "Точно съвпадение",
"evalMode.equals.desc": "Изходът трябва да бъде точно същият като очаквания",
"evalMode.label": "Режим на оценка",
"evalMode.llm-rubric": "LLM съдия",
"evalMode.llm-rubric.desc": "Използвайте LLM за оценка на качеството на изхода",
"evalMode.placeholder": "Изберете режим на оценка",
"evalMode.prompt.label": "Подканващ текст за съдията",
"evalMode.prompt.placeholder": "Въведете критериите за оценка или подканващ текст за LLM съдия",
"evalMode.rubric": "Оценяване по критерии",
"evalMode.rubric.desc": "Оценете изхода, използвайки критерии с теглови оценки",
"overview.createBenchmark": "Създаване на бенчмарк",
"overview.importDataset": "Импортиране на набор от данни",
"overview.subtitle": "Оценявайте вашите AI агенти чрез набори от данни",
"overview.title": "Лаборатория за оценка",
"run.actions.abort": "Прекратяване",
"run.actions.abort.confirm": "Сигурни ли сте, че искате да прекратите тази оценка?",
"run.actions.create": "Нова оценка",
"run.actions.delete": "Изтриване",
"run.actions.delete.confirm": "Сигурни ли сте, че искате да изтриете тази оценка?",
"run.actions.edit": "Редактиране",
"run.actions.retryCase": "Повторен опит",
"run.actions.retryErrors": "Повторен опит за грешки",
"run.actions.retryErrors.confirm": "Това ще преизпълни всички случаи с грешки и изтичане на времето. Успешните и неуспешните случаи няма да бъдат засегнати.",
"run.actions.run": "Изпълнение",
"run.actions.start": "Старт",
"run.actions.start.confirm": "Сигурни ли сте, че искате да започнете тази оценка?",
"run.chart.duration": "Продължителност (секунди)",
"run.chart.error": "Грешка",
"run.chart.fail": "Неуспех",
"run.chart.latencyDistribution": "Разпределение на латентността",
"run.chart.latencyTokenDistribution": "Латентност / Разпределение на токени",
"run.chart.pass": "Успех",
"run.chart.passFailError": "Успех / Неуспех / Грешка",
"run.chart.tokens": "Токени",
"run.config.agentId": "Агент",
"run.config.concurrency": "Едновременност",
"run.config.judgeModel": "Модел на съдията",
"run.config.k": "Изпълнения (K)",
"run.config.k.hint": "Изпълнете всеки тестов случай {{k}} пъти за метрики pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Максимален брой стъпки",
"run.config.maxSteps.hint": "Всяко извикване на LLM или инструмент от агента се брои като 1 стъпка",
"run.config.model": "Модел",
"run.config.temperature": "Температура",
"run.config.timeout": "Изтичане на времето",
"run.config.timeout.unit": "мин",
"run.create.advanced": "Разширени настройки",
"run.create.agent": "Агент",
"run.create.agent.placeholder": "Изберете агент",
"run.create.agent.required": "Моля, изберете агент",
"run.create.caseCount": "{{count}} случая",
"run.create.confirm": "Създаване и старт",
"run.create.createOnly": "Само създаване",
"run.create.dataset": "Набор от данни",
"run.create.dataset.placeholder": "Изберете набор от данни",
"run.create.dataset.required": "Моля, изберете набор от данни",
"run.create.name": "Име на оценката",
"run.create.name.placeholder": "Въведете име за тази оценка",
"run.create.name.required": "Моля, въведете име на оценката",
"run.create.name.useTimestamp": "Използвайте текущото време като име",
"run.create.openAgent": "Отворете агента в нов прозорец",
"run.create.title": "Нова оценка",
"run.create.titleWithDataset": "Нова оценка на \"{{dataset}}\"",
"run.detail.agent": "Агент",
"run.detail.agent.none": "Не е посочен",
"run.detail.agent.unnamed": "Безименен агент",
"run.detail.backToBenchmark": "Обратно към бенчмарк",
"run.detail.caseResults": "Детайли за оценка",
"run.detail.config": "Конфигурация на оценката",
"run.detail.configSnapshot": "Снимка на конфигурацията",
"run.detail.dataset": "Набор от данни",
"run.detail.model": "Модел",
"run.detail.overview": "Преглед",
"run.detail.progress": "Прогрес",
"run.detail.progressCases": "случаи",
"run.detail.report": "Обобщение на оценката",
"run.edit.error": "Неуспешно обновяване на оценката",
"run.edit.success": "Оценката е успешно обновена",
"run.edit.title": "Редактиране на оценка",
"run.empty.description": "Започнете първата си оценка на този набор от данни",
"run.empty.descriptionBenchmark": "Започнете първата си оценка на този бенчмарк",
"run.empty.title": "Все още няма оценки",
"run.filter.active": "Активни",
"run.filter.empty": "Няма оценки, които съответстват на текущия филтър.",
"run.idle.hint": "Кликнете върху Старт, за да започнете оценката",
"run.metrics.avgScore": "Среден резултат",
"run.metrics.cost": "Цена",
"run.metrics.duration": "Продължителност",
"run.metrics.errorCases": "Грешка",
"run.metrics.evaluated": "{{count}} оценени",
"run.metrics.passRate": "Успеваемост",
"run.metrics.perCase": "/ случай",
"run.metrics.tokens": "Токени",
"run.metrics.totalDuration": "Кумулативно",
"run.pending.hint": "Оценката е в опашката, изчаква да започне...",
"run.running.hint": "Оценката се изпълнява, резултатите ще се появят скоро...",
"run.status.aborted": "Прекратена",
"run.status.completed": "Завършена",
"run.status.error": "Грешка в оценката",
"run.status.failed": "Неуспешна",
"run.status.idle": "Неактивна",
"run.status.pending": "В очакване",
"run.status.running": "Изпълнява се",
"run.status.timeout": "Изтичане на времето",
"sidebar.benchmarks": "Бенчмаркове",
"sidebar.dashboard": "Табло",
"sidebar.datasets": "Набори от данни",
"sidebar.runs": "Оценки",
"table.columns.avgCost": "Средна цена",
"table.columns.category": "Категория",
"table.columns.cost": "Цена",
"table.columns.difficulty": "Трудност",
"table.columns.duration": "Продължителност",
"table.columns.evalMode": "Режим на оценка",
"table.columns.expected": "Очакван отговор",
"table.columns.input": "Вход",
"table.columns.score": "Резултат",
"table.columns.status": "Статус",
"table.columns.steps": "Стъпки",
"table.columns.tags": "Етикети",
"table.columns.tokens": "Токени",
"table.columns.totalCost": "Обща цена",
"table.filter.all": "Всички",
"table.filter.error": "Грешка в оценката",
"table.filter.failed": "Неуспешни",
"table.filter.passed": "Успешни",
"table.filter.running": "Изпълняващи се",
"table.search.placeholder": "Търсене на случаи...",
"table.total": "Общо {{count}}",
"testCase.actions.add": "Добавяне на тестов случай",
"testCase.actions.import": "Импортиране на тестови случаи",
"testCase.create.advanced": "Още опции",
"testCase.create.difficulty.label": "Трудност",
"testCase.create.error": "Неуспешно добавяне на тестов случай",
"testCase.create.expected.label": "Очакван изход",
"testCase.create.expected.placeholder": "Въведете очаквания отговор",
"testCase.create.expected.required": "Моля, въведете очаквания изход",
"testCase.create.input.label": "Вход",
"testCase.create.input.placeholder": "Въведете входа или въпроса за тестовия случай",
"testCase.create.success": "Тестовият случай е успешно добавен",
"testCase.create.tags.label": "Етикети",
"testCase.create.tags.placeholder": "Етикети, разделени със запетая (по избор)",
"testCase.create.title": "Добавяне на тестов случай",
"testCase.delete.confirm": "Сигурни ли сте, че искате да изтриете този тестов случай?",
"testCase.delete.error": "Неуспешно изтриване на тестов случай",
"testCase.delete.success": "Тестовият случай е изтрит",
"testCase.edit.error": "Неуспешно обновяване на тестов случай",
"testCase.edit.success": "Тестовият случай е успешно обновен",
"testCase.edit.title": "Редактиране на тестов случай",
"testCase.empty.description": "Импортирайте или ръчно добавете тестови случаи към този набор от данни",
"testCase.empty.title": "Все още няма тестови случаи",
"testCase.preview.expected": "Очакван",
"testCase.preview.input": "Вход",
"testCase.preview.title": "Преглед на тестов случай",
"testCase.search.placeholder": "Търсене на случаи..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Задълбочено проучване",
"starter.developing": "Очаквайте скоро",
"starter.image": "Изображение",
"starter.nanoBanana2": "🍌 Нано Банан 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Писане"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "За серията Gemini; контролира бюджета за мислене.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "За моделите Gemini 3 Flash Preview; контролира дълбочината на мислене.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "За моделите Gemini 3 Pro Preview; контролира дълбочината на мислене.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "За моделите Gemini 3.1 Pro Preview; контролира дълбочината на мислене с ниско/средно/високо ниво.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "За серията Gemini; поддържа предоставяне на контекст чрез URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Изберете разширени параметри за активиране",
"providerModels.item.modelConfig.extendParams.previewFallback": "Прегледът не е наличен",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo предлага мощни изчислителни и диалогови възможности с отлично семантично разбиране и ефективност на генериране, идеален за предприятия и разработчици.",
"360gpt2-o1.description": "360gpt2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.",
"360gpt2-pro.description": "360GPT2 Pro е усъвършенстван NLP модел от 360 с отлични възможности за генериране и разбиране на текст, особено при творчески задачи, справяйки се със сложни трансформации и ролеви игри.",
"360zhinao2-o1.5.description": "360 Zhinao най-мощният модел за разсъждение, с най-силни способности, поддържащ както използване на инструменти, така и напреднало разсъждение.",
"360zhinao2-o1.description": "360zhinao2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.",
"360zhinao3-o1.5.description": "360 Zhinao модел за разсъждение от следващо поколение.",
"4.0Ultra.description": "Spark Ultra е най-мощният модел от серията Spark, подобряващ разбирането и обобщаването на текст, както и уеб търсенето. Това е цялостно решение за повишаване на продуктивността на работното място и точността на отговорите, позиционирайки го като водещ интелигентен продукт.",
"AnimeSharp.description": "AnimeSharp (известен още като \"4x-AnimeSharp\") е отворен модел за супер-резолюция, базиран на ESRGAN от Kim2091, фокусиран върху увеличаване и изостряне на изображения в аниме стил. Преименуван е от \"4x-TextSharpV1\" през февруари 2022 г., първоначално предназначен и за текстови изображения, но силно оптимизиран за аниме съдържание.",
"Baichuan2-Turbo.description": "Използва разширение чрез търсене, за да свърже модела с домейн и уеб знания. Поддържа качване на PDF/Word файлове и въвеждане на URL адреси за навременно, цялостно извличане и професионални, точни резултати.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Тази версия с 8 милиарда параметри е фокусирана върху ниска латентност и силна производителност.",
"charglm-3.description": "CharGLM-3 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
"charglm-4.description": "CharGLM-4 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.",
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.",
"chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Той комбинира силно разбиране на езика и генериране за мащабни случаи на употреба като клиентска поддръжка, образование и техническа помощ.",
"claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзхождащ предишния водещ модел Claude 3 Opus в много бенчмаркове.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.",
"deepseek-chat.description": "DeepSeek V3.2 балансира разсъждението и дължината на отговорите за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, а това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворен код за агенти.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 е нов хибриден модел за разсъждение от DeepSeek, поддържащ както мислещ, така и немислещ режим и предлагащ по-висока ефективност на мисленето от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и изпълнението на задачи. Поддържа 128k контекстен прозорец и до 64k изходни токена.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "При силно сложни задачи, моделът Speciale значително превъзхожда стандартната версия, но консумира значително повече токени и води до по-високи разходи. В момента DeepSeek-V3.2-Speciale е предназначен само за изследователска употреба, не поддържа използване на инструменти и не е специално оптимизиран за ежедневни разговори или задачи за писане.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.",
"deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за логическо мислене от DeepSeek, който интегрира мисленето в използването на инструменти. Използва ефективна архитектура за намаляване на изчислителните ресурси, мащабно обучение с подсилване за повишаване на способностите и синтетични задачи в голям мащаб за по-добра обобщаемост. Комбинацията от тези три елемента постига производителност, сравнима с GPT-5-High, със значително по-кратки изходни текстове, което намалява изчислителното натоварване и времето за изчакване на потребителя.",
"deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции. Поддържа контекстен прозорец от 128k и до 16k изходни токена.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.",
"doubao-lite-128k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 128k.",
"doubao-lite-32k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.",
"doubao-lite-4k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 4k.",
"doubao-pro-256k.description": "Най-добре представящият се флагмански модел за сложни задачи, с отлични резултати в справочни въпроси, обобщение, създаване, класификация на текст и ролеви игри. Поддържа разсъждение и фина настройка с контекстен прозорец от 256k.",
"doubao-pro-32k.description": "Най-добре представящият се флагмански модел за сложни задачи, с отлични резултати в справочни въпроси, обобщение, създаване, класификация на текст и ролеви игри. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash е изключително бърз мултимодален дълбок разсъждаващ модел с TPOT до 10ms. Поддържа текст и визия, надминава предишния lite модел в разбиране на текст и съответства на конкурентни pro модели във визия. Поддържа контекстен прозорец от 256k и до 16k изходни токена.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite е нов мултимодален дълбок разсъждаващ модел с регулируемо усилие на разсъждение (Минимално, Ниско, Средно, Високо), осигуряващ по-добра стойност и силен избор за обичайни задачи, с контекстен прозорец до 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Моделът за изображения на Doubao от ByteDance Seed поддържа вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Поддържа редактиране на изображения, водено от текст, с размери на изхода между 512 и 1536 по дългата страна.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.",
"doubao-vision-lite-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.",
"doubao-vision-pro-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 е най-новият мултимодален модел за изображения на ByteDance, интегриращ текст-към-изображение, изображение-към-изображение и групово генериране на изображения, като включва обща логика и способности за разсъждение. В сравнение с предишната версия 4.0, той предлага значително подобрено качество на генериране, с по-добра консистентност при редактиране и мулти-изображение сливане. Осигурява по-прецизен контрол върху визуалните детайли, като произвежда малък текст и малки лица по-естествено, и постига по-хармонично оформление и цветове, подобрявайки цялостната естетика.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite е най-новият модел за генериране на изображения на ByteDance. За първи път интегрира възможности за онлайн извличане, позволявайки му да включва информация в реално време от уеб и да подобрява актуалността на генерираните изображения. Интелигентността на модела също е подобрена, позволявайки прецизно интерпретиране на сложни инструкции и визуално съдържание. Освен това предлага подобрено глобално покритие на знания, консистентност на референциите и качество на генериране в професионални сценарии, по-добре отговаряйки на нуждите за визуално създаване на корпоративно ниво.",
"emohaa.description": "Emohaa е модел за психично здраве с професионални консултантски способности, който помага на потребителите да разберат емоционални проблеми.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B е лек модел с отворен код за локално и персонализирано внедряване.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking е текстов MoE (смес от експерти) пост-трениран модел с общо 21B параметри и 3B активни параметри, предлагащ значително подобрено качество и дълбочина на разсъждения.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B е модел с отворен код с голям брой параметри и по-силни способности за разбиране и генериране.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B е ултра-голям MoE модел на Baidu ERNIE с отлични способности за разсъждение.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview е модел за предварителен преглед с 8K контекст за оценка на ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K е лек високопроизводителен модел за сценарии, чувствителни към латентност и разходи.",
"ernie-novel-8k.description": "ERNIE Novel 8K е създаден за дълги романи и IP сюжети с многоперсонажни наративи.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview е бърз мисловен модел с 32K контекст за сложни разсъждения и многократни разговори.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.",
"ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработен от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена последователност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на постери и дизайн на лога с високопрецизно визуално-текстово рендиране.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработен от ByteDance Seed, поддържа текстови и визуални входове за висококачествено и силно контролируемо генериране на изображения от подсказки.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview е най-изгодният модел на Google с пълни възможности.",
"gemini-2.5-flash-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash е най-изгодният модел на Google с пълни възможности.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proе модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът на Google за генериране на изображения и поддържа мултимодален чат.",
"gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) предоставя професионално качество на изображенията с Flash скорост и поддръжка на мултимодални разговори.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предоставя професионално качество на изображенията с Flash скорост и поддръжка на мултимодални разговори.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.",
"gemini-flash-latest.description": "Най-новата версия на Gemini Flash",
"gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite",
"gemini-pro-latest.description": "Най-новата версия на Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
"glm-4v-plus.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.",
"glm-4v.description": "GLM-4V осигурява силно разбиране на изображения и логическо мислене в различни визуални задачи.",
"glm-5.description": "Силен модел за разсъждение и агентски задачи от Z.ai с общо 744B параметри (40B активни), създаден за сложни системни инженерни задачи и дългосрочни задачи.",
"glm-5.description": "Серията GLM е хибриден модел за разсъждение от Zhipu AI, създаден за агенти, с режими на мислене и без мислене.",
"glm-z1-air.description": "Модел за логическо мислене със силни способности за дълбоко разсъждение при сложни задачи.",
"glm-z1-airx.description": "Ултра-бързо логическо мислене с високо качество на разсъжденията.",
"glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "С гордост представяме Grok 4 Fast нашият най-нов напредък в икономичните логически модели.",
"grok-4.description": "Нашият най-нов и най-мощен водещ модел, който се отличава в обработка на естествен език, математика и логика идеален универсален модел.",
"grok-code-fast-1.description": "С гордост представяме grok-code-fast-1 бърз и икономичен логически модел, който се отличава в агентско програмиране.",
"grok-imagine-image-pro.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.",
"grok-imagine-image.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.",
"groq/compound-mini.description": "Compound-mini е композитна AI система, задвижвана от публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.",
"groq/compound.description": "Compound е композитна AI система, задвижвана от множество публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B е креативен и интелигентен езиков модел, създаден чрез обединяване на няколко водещи модела.",
"hunyuan-2.0-instruct-20251111.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява следването на инструкции, многократното и дългосрочно разбиране на текст, литературното създаване, точността на знанията, кодирането и способностите за разсъждение.",
"hunyuan-2.0-thinking-20251109.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява способността на модела да следва сложни инструкции, да разбира многократен и дългосрочен текст, да обработва код, да функционира като агент и да изпълнява задачи за разсъждение.",
"hunyuan-a13b.description": "Първият хибриден логически модел на Hunyuan, надграден от hunyuan-standard-256K (общо 80B, 13B активни). По подразбиране използва бавно мислене и поддържа превключване между бързо/бавно чрез параметри или префикс /no_think. Общите възможности са подобрени спрямо предишното поколение, особено в математика, наука, разбиране на дълги текстове и агентски задачи.",
"hunyuan-code.description": "Най-новият модел за генериране на код, обучен с 200B висококачествен код и шест месеца SFT; контекстът е разширен до 8K. Води в автоматизирани тестове за пет езика и в човешки оценки по десет критерия.",
"hunyuan-functioncall.description": "Най-новият MoE модел FunctionCall, обучен с висококачествени данни за извикване на функции, с прозорец на контекста от 32K и водещи резултати в бенчмаркове по различни измерения.",
"hunyuan-large-longcontext.description": "Отличава се при задачи с дълги документи като обобщаване и въпроси/отговори, като същевременно се справя с общо генериране. Силен в анализ и генериране на дълги текстове със сложно и детайлно съдържание.",
"hunyuan-large-vision.description": "Модел за разбиране на изображения и текст, обучен от Hunyuan Large. Поддържа вход от множество изображения + текст при всякаква резолюция и подобрява многоезичното визуално разбиране.",
"hunyuan-large.description": "Hunyuan-large има ~389B общи параметри и ~52B активни най-големият и най-мощен отворен MoE модел с трансформър архитектура.",
"hunyuan-lite-vision.description": "Най-новият 7B мултимодален модел с прозорец на контекста от 32K, поддържащ китайско/английски мултимодален чат, разпознаване на обекти, разбиране на таблици в документи и мултимодална математика, превъзхождащ други 7B модели в множество бенчмаркове.",
"hunyuan-code.description": "Най-новият кодов модел на Hunyuan, обучен върху 200B висококачествени кодови данни плюс шест месеца SFT данни, с 8K контекст. Той се нарежда близо до върха в автоматизирани кодови бенчмаркове и в експертни човешки оценки в пет езика.",
"hunyuan-functioncall.description": "Най-новият MoE FunctionCall модел на Hunyuan, обучен върху висококачествени данни за използване на инструменти, с прозорец за контекст от 32K и водещи бенчмаркове в различни измерения.",
"hunyuan-lite.description": "Надграден до MoE архитектура с прозорец на контекста от 256K, водещ много отворени модели в NLP, програмиране, математика и индустриални бенчмаркове.",
"hunyuan-pro.description": "MoE модел с трилион параметри и 32K контекст, водещ в бенчмаркове, силен при сложни инструкции и логика, напреднала математика, извикване на функции и оптимизиран за многоезичен превод, финанси, право и медицина.",
"hunyuan-role.description": "Най-новият модел за ролеви игри, официално фино настроен върху ролеви датасети, осигуряващ по-силна базова производителност за ролеви сценарии.",
"hunyuan-standard-256K.description": "Използва подобрено маршрутизиране за намаляване на натоварването и срив на експерти. Постига 99.9% точност при търсене на игла в купа сено в дълъг контекст. MOE-256K допълнително разширява дължината и качеството на контекста.",
"hunyuan-standard-vision.description": "Най-новият мултимодален модел с многоезични отговори и балансирани способности на китайски и английски.",
"hunyuan-standard.description": "Използва подобрено маршрутизиране за намаляване на натоварването и срив на експерти. Постига 99.9% точност при търсене на игла в купа сено в дълъг контекст. MOE-32K предлага силна стойност при работа с дълги входове.",
"hunyuan-t1-20250321.description": "Изгражда балансирани способности в изкуства и STEM с добро улавяне на информация от дълги текстове. Поддържа логически отговори за задачи по математика, логика, наука и програмиране на различни нива на трудност.",
"hunyuan-t1-20250403.description": "Подобрява генерирането на код на ниво проекти и качеството на писане, засилва разбирането на теми в многоходови разговори и следване на инструкции, подобрява разбиране на думи и намалява смесването на опростен/традиционен китайски и китайски/английски изход.",
"hunyuan-t1-20250529.description": "Подобрява креативното писане и композиция, засилва фронтенд програмиране, математика и логическо мислене, и подобрява следването на инструкции.",
"hunyuan-t1-20250711.description": "Значително подобрява трудна математика, логика и програмиране, повишава стабилността на изхода и засилва способностите за работа с дълги текстове.",
"hunyuan-role.description": "Най-новият модел за ролеви игри на Hunyuan, официално фино настроен с данни за ролеви игри, предоставящ по-силна основна производителност в сценарии за ролеви игри.",
"hunyuan-standard-256K.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Дългият текст \"игла в купа сено\" достига 99.9%. MOE-256K разширява дължината и качеството, значително увеличавайки дължината на входа.",
"hunyuan-standard.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Дългият текст \"игла в купа сено\" достига 99.9%. MOE-32K предлага по-добра стойност, като балансира качество и цена за дълги текстови входове.",
"hunyuan-t1-latest.description": "Значително подобрява модела с бавно мислене при трудна математика, сложна логика, трудни задачи по програмиране, следване на инструкции и качество на креативното писане.",
"hunyuan-t1-vision-20250619.description": "Най-новият мултимодален модел t1-vision с дълбоко логическо мислене и вградена верига на мисълта, значително подобрен спрямо предишната версия по подразбиране.",
"hunyuan-t1-vision-20250916.description": "Най-новият модел t1-vision с дълбоко логическо мислене и големи подобрения във VQA, визуално привързване, OCR, диаграми, решаване на заснети задачи и създаване на съдържание от изображения, както и по-силна поддръжка на английски и езици с ограничени ресурси.",
"hunyuan-turbo-20241223.description": "Тази версия подобрява мащабирането на инструкции за по-добра генерализация, значително подобрява логическото мислене в математика/код/логика, засилва разбирането на думи и повишава качеството на писане.",
"hunyuan-turbo-latest.description": "Общи подобрения в NLP разбирането, писането, чата, въпросите и отговорите, превода и специализираните области; по-човешки отговори, по-добро изясняване на неясни намерения, подобрен синтактичен анализ, по-високо творческо качество и интерактивност, както и по-силни многозавойни разговори.",
"hunyuan-turbo-vision.description": "Флагмански модел от ново поколение за визия и език с нова MoE архитектура, с широки подобрения в разпознаването, създаването на съдържание, въпроси и отговори по знания и аналитично мислене.",
"hunyuan-turbo.description": "Преглед на следващото поколение LLM на Hunyuan с нова MoE архитектура, осигуряваща по-бързо разсъждение и по-силни резултати от hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Унифицира стила на решаване на математически задачи и засилва многозавойните въпроси и отговори в математиката. Стилът на писане е усъвършенстван, за да намали изкуствения тон и да добави изтънченост.",
"hunyuan-turbos-20250416.description": "Подобрен базов модел за предварително обучение за по-добро разбиране и следване на инструкции; подобрено съгласуване в математика, код, логика и наука; подобрено качество на писане, разбиране, точност на превода и въпроси и отговори по знания; засилени способности на агентите, особено при многозавойно разбиране.",
"hunyuan-turbos-20250604.description": "Подобрен базов модел за предварително обучение с по-добро писане и четене с разбиране, значителни подобрения в кода и STEM, както и по-добро следване на сложни инструкции.",
"hunyuan-turbos-20250926.description": "Подобрено качество на предварителните данни и стратегията за последващо обучение, подобряваща агентите, английския език/езиците с ограничени ресурси, следването на инструкции, кода и STEM възможностите.",
"hunyuan-turbos-latest.description": "Най-новият флагмански модел Hunyuan TurboS с по-силно разсъждение и по-добро цялостно изживяване.",
"hunyuan-turbos-longtext-128k-20250325.description": "Изключителен при задачи с дълги документи като обобщение и въпроси и отговори, като същевременно се справя с общо генериране. Силен при анализ и генериране на дълги текстове за сложни и детайлни съдържания.",
"hunyuan-turbos-role-plus.description": "Най-новият модел за ролеви игри, официално фино настроен върху ролеви набори от данни, осигуряващ по-силна базова производителност за ролеви сценарии.",
"hunyuan-turbos-vision-20250619.description": "Най-новият флагмански модел TurboS за визия и език с големи подобрения при задачи с изображения и текст като разпознаване на обекти, въпроси и отговори по знания, копирайтинг и решаване на задачи по снимки.",
"hunyuan-turbos-vision.description": "Флагмански модел от ново поколение за визия и език, базиран на най-новия TurboS, фокусиран върху задачи с разбиране на изображения и текст като разпознаване на обекти, въпроси и отговори по знания, копирайтинг и решаване на задачи по снимки.",
"hunyuan-vision-1.5-instruct.description": "Модел за бързо мислене, генериращ текст от изображения, базиран на текстовия TurboS. В сравнение с предишната версия, има значителни подобрения в основното разпознаване и анализ на изображения.",
"hunyuan-vision.description": "Най-новият мултимодален модел, поддържащ вход от изображения и текст за генериране на текст.",
"hunyuan-vision-1.5-instruct.description": "Бърз мисловен модел за изображения-към-текст, базиран на текстовата основа TurboS, показващ значителни подобрения спрямо предишната версия в основно разпознаване на изображения и анализ на разсъждения.",
"hunyuan-vision.description": "Най-новият мултимодален модел на Hunyuan, поддържащ входове за изображения + текст за генериране на текст.",
"image-01-live.description": "Модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и контролируеми стилови настройки.",
"image-01.description": "Нов модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и от изображение към изображение.",
"imagen-4.0-fast-generate-001.description": "Бързата версия от четвъртото поколение модели Imagen за преобразуване от текст към изображение.",
"imagen-4.0-generate-001.description": "Четвърто поколение модели Imagen за преобразуване от текст към изображение.",
"imagen-4.0-generate-preview-06-06.description": "Семейство модели от четвърто поколение Imagen за преобразуване от текст към изображение.",
"imagen-4.0-ultra-generate-001.description": "Ultra версията от четвъртото поколение модели Imagen за преобразуване от текст към изображение.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Ultra вариант от четвъртото поколение модели Imagen за преобразуване от текст към изображение.",
"inception/mercury-coder-small.description": "Mercury Coder Small е идеален за генериране на код, отстраняване на грешки и рефакториране с минимално закъснение.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 е третият модел от архитектурата Ling 2.0, разработен от екипа Bailing на Ant Group. Това е MoE модел със 100 милиарда общи параметри, от които само 6.1 милиарда са активни на токен (4.8 милиарда без вграждане). Въпреки леката си конфигурация, той съперничи или надминава плътни модели с 40 милиарда параметри и дори по-големи MoE модели в множество бенчмаркове, като постига висока ефективност чрез архитектура и стратегия на обучение.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 е малък, високоефективен MoE LLM с 16 милиарда общи параметри и само 1.4 милиарда активни на токен (789 милиона без вграждане), осигуряващ изключително бързо генериране. Благодарение на ефективния MoE дизайн и голям обем висококачествени обучителни данни, той постига водеща производителност, сравнима с плътни модели под 10 милиарда и по-големи MoE модели.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T е MoE модел на inclusionAI с трилион параметри, предназначен за мащабни задачи по разсъждение и научни изследвания.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 е вариант на модела Ring от inclusionAI за сценарии с висока пропускателна способност, с акцент върху скоростта и ефективността на разходите.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 е лек MoE модел на inclusionAI с висока пропускателна способност, създаден за едновременна работа.",
"intern-latest.description": "По подразбиране сочи към най-новия модел от серията Intern, в момента настроен на intern-s1-pro.",
"intern-s1-mini.description": "Лек мултимодален голям модел със силни научни способности за разсъждение.",
"intern-s1-pro.description": "Пуснахме най-напредналия ни отворен мултимодален модел за разсъждение, в момента най-добре представящият се отворен мултимодален голям езиков модел по отношение на общата производителност.",
"intern-s1.description": "Отвореният мултимодален модел за разсъждение не само демонстрира силни общи способности, но и постига най-добри резултати в широк спектър от научни задачи.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat е отворен модел за чат, базиран на архитектурата InternLM2. Моделът с 7B параметри е фокусиран върху генериране на диалог с поддръжка на китайски/английски, използвайки съвременно обучение за плавен и интелигентен разговор. Подходящ е за различни сценарии като клиентска поддръжка и лични асистенти.",
"internlm2.5-latest.description": "Наследени модели, които все още се поддържат с отлична и стабилна производителност след множество итерации. Предлагат се във варианти 7B и 20B, поддържат 1M контекст и по-силно следване на инструкции и използване на инструменти. По подразбиране използва последната серия InternLM2.5 (в момента internlm2.5-20b-chat).",
"internlm3-latest.description": "Нашата най-нова серия модели с отлична производителност при разсъждение, водеща сред отворените модели в своя клас. По подразбиране използва последната серия InternLM3 (в момента internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO е мултимодален предварително обучен модел за комплексно визуално-текстово разсъждение.",
"internvl2.5-latest.description": "InternVL2.5 все още се поддържа с висока и стабилна производителност. По подразбиране използва последната серия InternVL2.5 (в момента internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B е среден по размер мултимодален модел, балансиращ между производителност и разходи.",
"internvl3-1b.description": "InternVL3 1B е лек мултимодален модел за внедряване при ограничени ресурси.",
"internvl3-38b.description": "InternVL3 38B е голям отворен мултимодален модел за високоточна визуално-текстова интерпретация.",
"internvl3-latest.description": "Нашият най-нов мултимодален модел с по-силно визуално-текстово разбиране и разбиране на дълги визуални последователности, сравним с водещите затворени модели. По подразбиране използва последната серия InternVL (в момента internvl3-78b).",
"internvl3.5-241b-a28b.description": "Нашият новоиздаден мултимодален голям модел предлага подобрено разбиране на изображения и текст и способности за дългосрочно разбиране на изображения, постигайки производителност, сравнима с водещите затворени модели.",
"internvl3.5-latest.description": "По подразбиране сочи към най-новия модел от серията InternVL3.5, в момента настроен на internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.",
"jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.",
"jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 е ефективен голям езиков модел, създаден специално за програмиране и агентни работни потоци.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 е лек, авангарден голям езиков модел, оптимизиран за програмиране, агентни работни потоци и съвременно разработване на приложения, осигуряващ по-чист, по-кратък изход и по-бърза реакция.",
"minimax/minimax-m2.description": "MiniMax-M2 е високостойностен модел, който се отличава в програмиране и агентни задачи в множество инженерни сценарии.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 е компактен, бърз, икономичен MoE модел, създаден за топ-клас кодиране и производителност на агенти.",
"minimaxai/minimax-m2.description": "MiniMax-M2 е компактен, бърз и икономичен MoE модел (230B общо, 10B активни), създаден за първокласно програмиране и агентна производителност, като същевременно запазва силна обща интелигентност. Отличава се при редакции на множество файлове, цикли код-изпълнение-корекция, валидиране на тестове и сложни инструментални вериги.",
"ministral-3b-latest.description": "Ministral 3B е водещият edge модел на Mistral.",
"ministral-8b-latest.description": "Ministral 8B е високоефективен edge модел от Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Моделът kimi-k2-0905-preview поддържа 256K контекстен прозорец, с по-силно агентно програмиране, по-изпипан и практичен фронтенд код и по-добро разбиране на контекста.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo е високоскоростна версия на Kimi K2 Thinking, значително намаляваща латентността, като запазва дълбокото разсъждение.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking е модел за разсъждение на Moonshot, оптимизиран за задачи, изискващи дълбоко мислене, с общи агентни способности.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 е най-интелигентният модел Kimi досега, с вградена мултимодална архитектура.",
"moonshotai/kimi-k2.description": "Kimi K2 е голям MoE модел от Moonshot AI с 1T общи параметри и 32B активни при всяко преминаване, оптимизиран за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.",
"morph/morph-v3-fast.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 4500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.",
"morph/morph-v3-large.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 2500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.",
"musesteamer-air-image.description": "musesteamer-air-image е модел за генериране на изображения, разработен от екипа за търсене на Baidu, за да предостави изключителна стойност за разходите. Той може бързо да генерира ясни, съгласувани с действия изображения въз основа на потребителски подсказки, превръщайки описанията на потребителите лесно във визуализации.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2 с най-новите вътрешно разработени набори от данни.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B е персонализиран LLM от NVIDIA, създаден за подобряване на полезността. Представя се отлично в Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, заемайки първо място и в трите автоматични бенчмарка към 1 октомври 2024 г. Обучен е от Llama-3.1-70B-Instruct с помощта на RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Отличителен езиков модел, предлагащ изключителна точност и ефективност.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Въз основа на дължината на контекста, темата и сложността, заявката ви се насочва към Llama 3 70B Instruct, Claude 3.5 Sonnet (със самомодерация) или GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.",
"oswe-vscode-secondary.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.",
"perplexity/sonar-pro.description": "Водещият продукт на Perplexity с търсене в реално време, поддържащ сложни заявки и последващи въпроси.",
"perplexity/sonar-reasoning-pro.description": "Разширен модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подобрено търсене, включително множество заявки на заявка.",
"perplexity/sonar-reasoning.description": "Модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подробни обяснения, базирани на търсене.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Модел за програмиране от серията Qwen.",
"qwen-coder-turbo.description": "Модел за програмиране от серията Qwen.",
"qwen-flash.description": "Най-бързият и най-евтин модел от Qwen, идеален за прости задачи.",
"qwen-image-edit-max.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.",
"qwen-image-edit-plus.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.",
"qwen-image-edit.description": "Qwen Image Edit е модел за редактиране на изображения, който променя изображения въз основа на входни изображения и текстови подсказки, позволявайки прецизни корекции и творчески трансформации.",
"qwen-image-max.description": "Моделът за генериране на изображения Qwen (серия Max) предоставя подобрена реалистичност и визуална естественост в сравнение със серията Plus, ефективно намалявайки артефактите, генерирани от AI, и демонстрирайки изключителна производителност в човешки външен вид, текстурни детайли и рендиране на текст.",
"qwen-image-plus.description": "Поддържа широк спектър от художествени стилове и е особено умел в рендирането на сложен текст в изображения, позволявайки интегриран дизайн на оформление на изображения и текст.",
"qwen-image.description": "Qwen-Image е универсален модел за генериране на изображения, поддържащ множество художествени стилове и силно рендиране на сложен текст, особено на китайски и английски. Поддържа многострочни оформления, текст на ниво абзац и фини детайли за сложни текстово-визуални оформления.",
"qwen-long.description": "Изключително голям модел от Qwen с дълъг контекст и чат в сценарии с дълги и многодокументни взаимодействия.",
"qwen-math-plus-latest.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Модел за програмиране Qwen с отворен код. Най-новият qwen3-coder-30b-a3b-instruct е базиран на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct е водещ модел за програмиране с поддръжка на много езици и разбиране на сложен код.",
"qwen3-coder-flash.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder-next.description": "Следващо поколение Qwen кодер, оптимизиран за сложна многокодова генерация, дебъгване и високопроизводителни работни потоци на агенти. Създаден за силна интеграция на инструменти и подобрена производителност на разсъждения.",
"qwen3-coder-plus.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.",
"qwen3-coder:480b.description": "Високопроизводителен модел на Alibaba с дълъг контекст за задачи с агенти и програмиране.",
"qwen3-max-2026-01-23.description": "Моделите Qwen3 Max предлагат значителни подобрения спрямо серията 2.5 в общите способности, разбиране на китайски/английски, следване на сложни инструкции, субективни отворени задачи, многоезичност и използване на инструменти, с по-малко халюцинации. Най-новият qwen3-max подобрява агентското програмиране и използването на инструменти спрямо qwen3-max-preview. Това издание достига върхови резултати в областта и е насочено към по-сложни нужди на агентите.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking е мултимоделен модел с верига на мисълта за детайлна визуална аргументация.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: лек, високоскоростен модел за аргументация, подходящ за заявки с ниска латентност или голям обем.",
"qwen3-vl-plus.description": "Qwen VL е модел за генериране на текст с разбиране на визуално съдържание. Може да извършва OCR, както и обобщаване и логическа обработка, например извличане на атрибути от продуктови снимки или решаване на задачи от изображения.",
"qwen3.5-397b-a17b.description": "Поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, докато предлага по-добра ефективност и по-ниска цена. В мултимодалните способности той показва значителни подобрения спрямо серията Qwen3 VL.",
"qwen3.description": "Qwen3 е следващото поколение голям езиков модел на Alibaba с висока ефективност в разнообразни приложения.",
"qwq-32b-preview.description": "QwQ е експериментален изследователски модел от Qwen, фокусиран върху подобрена аргументация.",
"qwq-32b.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при сложни задачи. QwQ-32B е среден по размер модел, съперничещ на водещи модели като DeepSeek-R1 и o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.",
"r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа генериране на видео от текст, от изображение към видео (първи кадър, първи+последен кадър) и синхронизирано с визуалното съдържание аудио.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за информация в реално време, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.",
"solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.",
"solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.",
"solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.",
"sonar-reasoning.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.",
"sonar.description": "Лек продукт с обосновано търсене, по-бърз и по-евтин от Sonar Pro.",
"spark-x.description": "Актуализация X1.5: (1) добавя динамичен мисловен режим, контролиран чрез полето `thinking`; (2) по-голяма дължина на контекста с 64K вход и 64K изход; (3) поддържа FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.",
"spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.",
"stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Поддържа взаимодействия с голям контекст за сложни диалози.",
"step-2-mini.description": "Изграден върху следващото поколение вътрешна архитектура MFA attention, предоставяйки резултати, подобни на Step-1, при значително по-ниска цена, с по-висока пропускателна способност и по-бърза латентност. Обработва общи задачи със силни способности за програмиране.",
"step-2x-large.description": "Модел от ново поколение StepFun за генериране на изображения, създаващ висококачествени изображения от текстови подканва. Осигурява по-реалистична текстура и по-добро визуализиране на китайски/английски текст.",
"step-3.5-flash.description": "Флагманският модел за езиково разсъждение от Stepfun. Този модел предоставя топ способности за разсъждение заедно с бързо и надеждно изпълнение. Може да разлага и планира сложни задачи, бързо и надеждно да извиква инструменти за тяхното изпълнение и да превъзхожда в логическо разсъждение, математика, софтуерно инженерство, дълбоки изследвания и други сложни задачи. Дължината на контекста е 256K.",
"step-3.description": "Този модел притежава силно визуално възприятие и сложна логика, точно обработва междудомейново знание, анализ между математика и визия и широк спектър от ежедневни визуални задачи.",
"step-r1-v-mini.description": "Модел за логическо разсъждение със силно визуално разбиране, който може да обработва изображения и текст, след което да генерира текст след дълбоко разсъждение. Отличава се във визуално разсъждение и предоставя водещи резултати в математика, програмиране и текстово разсъждение, с контекстен прозорец от 100K.",
"stepfun-ai/step3.description": "Step3 е авангарден мултимодален модел за разсъждение от StepFun, изграден върху MoE архитектура с общо 321B и 38B активни параметъра. Дизайнът от край до край минимизира разходите за декодиране, като същевременно осигурява водещо разсъждение между визия и език. С MFA и AFD дизайн, остава ефективен както на флагмански, така и на нискобюджетни ускорители. Предобучен с над 20T текстови токени и 4T токени от изображения и текст на множество езици. Постига водеща производителност сред отворените модели в математика, код и мултимодални бенчмаркове.",
"taichu_llm.description": "Обучен върху масивни висококачествени данни, с по-силно разбиране на текст, създаване на съдържание и разговорно въпроси-отговори.",
"taichu_o1.description": "taichu_o1 е модел от ново поколение за разсъждение, използващ мултимодално взаимодействие и обучение чрез подсилване за постигане на човешкоподобна верига на мисълта, поддържащ симулация на сложни решения и разкриващ логически пътища, като същевременно поддържа висока точност подходящ за стратегически анализ и дълбоко мислене.",
"taichu_vl.description": "Комбинира визуално разбиране, трансфер на знания и логическа атрибуция, отличавайки се в задачи с въпроси и отговори между изображения и текст.",
"taichu4_vl_2b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 2B се отличава с по-ниска употреба на памет, лек дизайн, бърза скорост на отговор и силни способности за мултимодално разбиране.",
"taichu4_vl_32b.description": "Версията с мислене на модела Taichu4.0-VL 32B е подходяща за сложни задачи за мултимодално разбиране и разсъждение, демонстрирайки изключителна производителност в мултимодално математическо разсъждение, мултимодални способности на агенти и общо разбиране на изображения и визуализации.",
"taichu4_vl_32b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 32B е предназначена за сложни сценарии за разбиране на изображения и текст и визуални въпроси и отговори, превъзхождайки в описания на изображения, визуални въпроси и отговори, разбиране на видео и задачи за визуална локализация.",
"taichu4_vl_3b.description": "Версията с мислене на модела Taichu4.0-VL 3B ефективно изпълнява задачи за мултимодално разбиране и разсъждение, с цялостни подобрения в визуалното разбиране, визуалната локализация, OCR разпознаването и свързаните способности.",
"taichu_llm.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_llm_14b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_llm_2b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.",
"taichu_o1.description": "taichu_o1 е модел за разсъждение от следващо поколение, който постига човешка верига на мисълта чрез мултимодално взаимодействие и обучение чрез подсилване. Поддържа сложни симулации за вземане на решения и, докато поддържа високопрецизен изход, разкрива интерпретируеми пътища на разсъждение. Подходящ е за анализ на стратегии, дълбоко мислене и подобни сценарии.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct използва общо 80B параметъра с 13B активни, за да съответства на по-големи модели. Поддържа хибридно бързо/бавнопотоцово разсъждение, стабилно разбиране на дълги текстове и водещи способности на агенти в BFCL-v3 и τ-Bench. GQA и мулти-квантови формати позволяват ефективно извеждане.",
"tencent/Hunyuan-MT-7B.description": "Моделът за превод Hunyuan включва Hunyuan-MT-7B и ансамбъла Hunyuan-MT-Chimera. Hunyuan-MT-7B е лек модел с 7B параметъра, поддържащ 33 езика плюс 5 китайски малцинствени езика. В WMT25 заема първо място в 30 от 31 езикови двойки. Tencent Hunyuan използва пълен тренировъчен процес от предобучение до SFT, превод чрез RL и ансамблово RL, постигайки водеща производителност за своя размер с ефективно и лесно внедряване.",
"text-embedding-3-large.description": "Най-способният модел за вграждане за задачи на английски и други езици.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md е подходящ за ежедневни задачи и генериране на потребителски интерфейси.",
"vercel/v0-1.0-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.",
"vercel/v0-1.5-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code е оптимизиран за корпоративни нужди за програмиране, като се основава на отличните способности на Seed 2.0 за агенти и VLM, специално подобрявайки кодовите способности. Не само че предната част се представя изключително добре, но и е специално оптимизиран за често срещани многоезични кодови нужди на предприятията, подходящ за интеграция с различни AI инструменти за програмиране.",
"volcengine/doubao-seed-2-0-lite.description": "Съчетава качество на генериране и скорост на отговор, подходящ за общи производствени модели.",
"volcengine/doubao-seed-2-0-mini.description": "Насочва към най-новата версия на doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Насочва към най-новата версия на doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code е LLM на ByteDance Volcano Engine, оптимизиран за агентно програмиране, с висока ефективност в програмиране и агентни бенчмаркове и поддръжка на контекст от 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed е най-новият модел с подобрения в креативността, стабилността и реализъма, осигуряващ бързо генериране и висока стойност.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro е най-новият модел с подобрения в креативността, стабилността и реализъма, създаващ по-богати детайли.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash е най-новият модел с подобрения в креативността, стабилността и реализма, предоставящ бързо генериране и висока стойност.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus е най-новият модел с подобрения в креативността, стабилността и реализма, произвеждащ по-богати детайли.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview поддържа редактиране на единични изображения и сливане на множество изображения.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението.",
"wan2.6-image.description": "Wanxiang 2.6 Image поддържа редактиране на изображения и смесен изход на оформление на изображения и текст.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението (същото като Wanxiang 2.5).",
"wanx-v1.description": "Базов модел за преобразуване на текст в изображение. Съответства на Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Изключителен при текстурирани портрети с умерена скорост и по-ниска цена. Съответства на Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Изцяло обновена версия с по-богати детайли в изображенията и леко по-бавна скорост. Съответства на Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast е високопроизводителен, нискобюджетен модел на xAI (поддържа 2M контекст), идеален за случаи с висока едновременност и дълъг контекст.",
"x-ai/grok-4.description": "Grok 4 е водещ логически модел на xAI с мощни логически и мултимодални възможности.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 е бърз кодов модел на xAI с четим и удобен за инженеринг изход.",
"x1.description": "Актуализации на X1.5: (1) добавя динамичен режим на мислене, контролиран чрез полето `thinking`; (2) по-голяма дължина на контекста с 64K вход и 64K изход; (3) поддържа FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision се отличава във визуални задачи, постигайки водещи резултати във визуална математическа логика (MathVista) и въпроси и отговори по документи (DocVQA). Обработва документи, диаграми, графики, екранни снимки и снимки.",
"xai/grok-2.description": "Grok 2 е авангарден модел с водеща логика, силен чат, кодиране и логическа ефективност, надминаващ Claude 3.5 Sonnet и GPT-4 Turbo в LMSYS.",
"xai/grok-3-fast.description": "Водещият модел на xAI се отличава в корпоративни приложения като извличане на данни, кодиране и обобщаване, с дълбоки познания в области като финанси, здравеопазване, право и наука. Бързият вариант работи върху по-бърза инфраструктура за значително по-бързи отговори при по-висока цена на токен.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 е флагманският модел на Z.AI с хибридно разсъждение, оптимизиран за инженерни и задачи с дълъг контекст.",
"z-ai/glm-4.6.description": "GLM 4.6 е флагманският модел на Z.AI с разширен контекст и подобрени възможности за програмиране.",
"z-ai/glm-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, предлагащ подобрени общи възможности, по-прости и естествени отговори и по-завладяващо писмено изживяване.",
"z-ai/glm5.description": "Силен модел за разсъждение и агентски задачи от Z.ai с общо 744B параметри (40B активни), създаден за сложни системни инженерни задачи и дългосрочни задачи.",
"z-ai/glm4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии на агентно кодиране с усъвършенствани кодови способности.",
"z-ai/glm5.description": "GLM-5 е новият флагмански основен модел на Zhipu AI за инженеринг на агенти, постигайки отворен източник SOTA производителност в кодиране и способности на агенти. Сравнява се с Claude Opus 4.5 по производителност.",
"z-image-turbo.description": "Z-Image е лек модел за генериране на изображения от текст, който може бързо да произвежда изображения, поддържа както китайско, така и английско рендиране на текст и гъвкаво се адаптира към множество резолюции и съотношения.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air е базов модел за агентни приложения с архитектура Mixture-of-Experts. Оптимизиран е за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
"zai-org/GLM-4.5.description": "GLM-4.5 е базов модел, създаден за агентни приложения с архитектура Mixture-of-Experts. Дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.",
"zai-org/GLM-4.5V.description": "GLM-4.5V е най-новият визуален езиков модел (VLM) на Zhipu AI, изграден върху флагманския текстов модел GLM-4.5-Air (106B общо, 12B активни) с MoE архитектура за висока производителност при по-ниска цена. Следва пътя на GLM-4.1V-Thinking и добавя 3D-RoPE за подобрено пространствено разсъждение в 3D. Оптимизиран чрез предварително обучение, SFT и RL, обработва изображения, видео и дълги документи и е сред водещите отворени модели в 41 публични мултимодални бенчмарка. Режимът Thinking позволява на потребителите да балансират между скорост и дълбочина.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Актуализиране на възел",
"builtins.lobe-page-agent.apiName.wrapNodes": "Обвиване на възли",
"builtins.lobe-page-agent.title": "Страница",
"builtins.lobe-skill-store.apiName.importFromMarket": "Импортиране от пазара",
"builtins.lobe-skill-store.apiName.importSkill": "Импортиране на умение",
"builtins.lobe-skill-store.apiName.searchSkill": "Търсене на умения",
"builtins.lobe-skill-store.title": "Магазин за умения",
"builtins.lobe-skills.apiName.execScript": "Изпълнение на скрипт",
"builtins.lobe-skills.apiName.exportFile": "Експортиране на файл",
"builtins.lobe-skills.apiName.importFromMarket": "Импортиране от пазара",
"builtins.lobe-skills.apiName.importSkill": "Импортиране на умение",
"builtins.lobe-skills.apiName.readReference": "Прочитане на справка",
"builtins.lobe-skills.apiName.runSkill": "Активиране на умение",
"builtins.lobe-skills.apiName.searchSkill": "Търсене на умения",
"builtins.lobe-skills.title": "Умения",
"builtins.lobe-tools.apiName.activateTools": "Активиране на инструменти",
"builtins.lobe-user-memory.apiName.addContextMemory": "Добавяне на контекстна памет",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Добавяне на памет за опит",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Добавяне на памет за идентичност",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Уеб търсене",
"confirm": "Потвърди",
"debug.arguments": "Аргументи",
"debug.error": "Дневник на грешки",
"debug.function_call": "Извикване на функция",
"debug.intervention": "Интервенция на умение",
"debug.off": "Отстраняване на грешки изключено",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Настройките са запазени",
"dev.tabs.manifest": "Манифест",
"dev.tabs.meta": "Мета информация",
"dev.title.create": "Добави персонализирано умение",
"dev.title.edit": "Редактирай персонализирано умение",
"dev.title.create": "Добавяне на персонализирано MCP умение",
"dev.title.edit": "Редактиране на персонализирано MCP умение",
"dev.title.editCommunity": "Редактиране на умение на общността",
"dev.title.skillDetails": "Детайли за умението",
"dev.title.skillSettings": "Настройки на умението",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud е икономична GenAI облачна услуга, изградена върху стабилни open-source базови модели.",
"spark.description": "iFLYTEK Spark предоставя мощен многоезичен AI в различни области, позволявайки иновации в умния хардуер, здравеопазването, финансите и други вертикали.",
"stepfun.description": "Моделите на Stepfun предлагат водещи мултимодални и сложни разсъждателни възможности, с разбиране на дълъг контекст и мощна автономна координация на търсене.",
"straico.description": "Straico опростява интеграцията на изкуствения интелект, като предоставя унифицирано работно пространство, което обединява водещи модели за генериране на текст, изображения и аудио, давайки възможност на маркетолози, предприемачи и ентусиасти за лесен достъп до разнообразни AI инструменти.",
"taichu.description": "Модел от ново поколение от CASIA и Института по AI в Ухан, поддържащ многократни въпроси и отговори, писане, генериране на изображения, 3D разбиране и анализ на сигнали с по-силна когниция и креативност.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power предоставя цялостни решения за въпроси и отговори за предприятия и разработчици, с модулни услуги като анализ на документи, сегментиране, вграждания и многократна пренаписка за изграждане на персонализирани AI решения.",
"togetherai.description": "Together AI предлага водеща производителност с иновативни модели, широка персонализация, бързо мащабиране и лесно внедряване за нуждите на предприятията.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Профил на агента",
"agentInfoDescription.value.unset": "Не е зададено",
"agentInfoDescription.value.untitled": "Агент без заглавие",
"agentSkillDetail.addedAt": "Добавено",
"agentSkillDetail.publishedAt": "Публикувано",
"agentSkillDetail.repository": "GitHub хранилище",
"agentSkillDetail.skillContent": "Съдържание на умението",
"agentSkillDetail.sourceUrl": "Източник на импортиране на умението",
"agentSkillDetail.updatedAt": "Актуализирано",
"agentSkillEdit.descriptionDesc": "Кратко обобщение на това, което прави умението, помагащо на агента да разбере кога да го използва",
"agentSkillEdit.fileReadonly": "Този файл е само за четене. Могат да се редактират само описанието и инструкциите на умението.",
"agentSkillEdit.instructions": "Инструкции",
"agentSkillEdit.instructionsDesc": "Основните инструкции в Markdown, които определят поведението и работния процес на умението",
"agentSkillEdit.instructionsPlaceholder": "Въведете инструкциите за умението във формат Markdown...",
"agentSkillEdit.nameDesc": "Уникалният идентификатор за това умение, не може да се редактира след създаване",
"agentSkillEdit.saveSuccess": "Умението е успешно актуализирано",
"agentSkillEdit.title": "Настройки на умението",
"agentSkillItem.deleteConfirm.desc": "Сигурни ли сте, че искате да изтриете умението на агента \"{{name}}\"? Това действие не може да бъде отменено.",
"agentSkillItem.deleteConfirm.title": "Изтриване на умение на агент",
"agentSkillModal.content": "Съдържание на умението",
"agentSkillModal.contentPlaceholder": "Въведете съдържанието на умението във формат Markdown...",
"agentSkillModal.description": "Описание",
"agentSkillModal.descriptionPlaceholder": "Кратко опишете това умение",
"agentSkillModal.github.desc": "Импортирайте умения директно от публично GitHub хранилище.",
"agentSkillModal.github.title": "Импортиране от GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/потребител/хранилище",
"agentSkillModal.importError": "Импортирането не бе успешно: {{error}}",
"agentSkillModal.importSuccess": "Умението на агента е успешно импортирано",
"agentSkillModal.upload.desc": "Качете локален .zip или .skill файл за инсталиране.",
"agentSkillModal.upload.dragText": "Плъзнете и пуснете или кликнете, за да качите",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md съдържа име и описание на умението във формат YAML",
"agentSkillModal.upload.requirementZip": ".zip или .skill файл със SKILL.md в основната директория",
"agentSkillModal.upload.requirements": "Изисквания за файла",
"agentSkillModal.upload.title": "Качване на умение",
"agentSkillModal.upload.uploading": "Качване...",
"agentSkillModal.url.desc": "Импортирайте умение, като предоставите директен линк към SKILL.md файл.",
"agentSkillModal.url.title": "Импортиране от URL",
"agentSkillModal.url.urlPlaceholder": "https://example.com/път/до/SKILL.md",
"agentSkillTag": "Умение на агент",
"agentTab.chat": "Предпочитания за чат",
"agentTab.meta": "Информация за агента",
"agentTab.modal": "Настройки на модела",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Посочете модел за превод",
"systemAgent.translation.title": "Агент за превод на съобщения",
"tab.about": "Относно",
"tab.addAgentSkill": "Добавяне на умение на агент",
"tab.addCustomMcp": "Добавяне на персонализирано MCP умение",
"tab.addCustomMcp.desc": "Ръчно конфигуриране на персонализиран MCP сървър",
"tab.addCustomSkill": "Добавяне на персонализирано умение",
"tab.agent": "Услуга за агент",
"tab.all": "Всички",
@ -652,7 +691,13 @@
"tab.experiment": "Експеримент",
"tab.hotkey": "Клавишни комбинации",
"tab.image": "Услуга за генериране на изображения",
"tab.importFromGithub": "Импортиране от GitHub",
"tab.importFromGithub.desc": "Импортиране от публично GitHub хранилище",
"tab.importFromUrl": "Импортиране от URL",
"tab.importFromUrl.desc": "Импортиране чрез директен линк към SKILL.md",
"tab.llm": "Езиков модел",
"tab.manualFill": "Ръчно попълване",
"tab.manualFill.desc": "Ръчно конфигуриране на персонализирано MCP умение",
"tab.memory": "Памет",
"tab.profile": "Моят акаунт",
"tab.provider": "Доставчик на AI услуги",
@ -669,6 +714,8 @@
"tab.sync": "Облачна синхронизация",
"tab.systemTools": "Системни инструменти",
"tab.tts": "Текст в реч",
"tab.uploadZip": "Качване на Zip",
"tab.uploadZip.desc": "Качване на локален .zip или .skill файл",
"tab.usage": "Статистика на използване",
"tools.add": "Добави умение",
"tools.builtins.groupName": "Вградени",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Geben Sie uns einen Stern auf GitHub",
"footer.title": "Gefällt Ihnen unser Produkt?",
"fullscreen": "Vollbildmodus",
"geminiImageChineseWarning.content": "Nano Banana kann gelegentlich keine Bilder generieren, wenn Chinesisch verwendet wird. Für bessere Ergebnisse wird empfohlen, Englisch zu verwenden.",
"geminiImageChineseWarning.continueGenerate": "Weiter generieren",
"geminiImageChineseWarning.continueSend": "Weiter senden",
"geminiImageChineseWarning.doNotShowAgain": "Nicht mehr anzeigen",
"geminiImageChineseWarning.title": "Hinweis zur chinesischen Eingabe",
"historyRange": "Verlaufsspanne",
"home.suggestQuestions": "Probieren Sie diese Beispiele aus",
"import": "Importieren",
@ -397,6 +392,7 @@
"tab.chat": "Chat",
"tab.community": "Community",
"tab.discover": "Entdecken",
"tab.eval": "Bewertungslabor",
"tab.files": "Dateien",
"tab.home": "Startseite",
"tab.knowledgeBase": "Bibliothek",

316
locales/de-DE/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Benchmark löschen",
"benchmark.actions.delete.confirm": "Sind Sie sicher, dass Sie diesen Benchmark löschen möchten? Verknüpfte Datensätze und Bewertungsaufzeichnungen werden ebenfalls gelöscht.",
"benchmark.actions.edit": "Benchmark bearbeiten",
"benchmark.actions.export": "Exportieren",
"benchmark.card.bestScore": "Beste",
"benchmark.card.caseCount": "{{count}} Fälle",
"benchmark.card.datasetCount": "{{count}} Datensätze",
"benchmark.card.empty": "Noch keine Bewertungen",
"benchmark.card.emptyHint": "Erstellen Sie eine neue Bewertung auf der Benchmark-Detailseite",
"benchmark.card.importDataset": "Datensatz importieren",
"benchmark.card.noDataset": "Noch keine Datensätze",
"benchmark.card.noDatasetHint": "Importieren Sie einen Datensatz, um mit der Bewertung zu beginnen",
"benchmark.card.noRecentRuns": "Keine aktuellen Bewertungen anzuzeigen",
"benchmark.card.recentRuns": "Aktuelle Bewertungen",
"benchmark.card.runCount": "{{count}} Bewertungen",
"benchmark.card.startFirst": "Erste Bewertung starten",
"benchmark.card.viewAll": "Alle {{count}} anzeigen",
"benchmark.create.confirm": "Erstellen",
"benchmark.create.description.label": "Beschreibung",
"benchmark.create.description.placeholder": "Benchmark-Beschreibung (optional)",
"benchmark.create.error": "Benchmark konnte nicht erstellt werden",
"benchmark.create.identifier.label": "Kennung",
"benchmark.create.identifier.placeholder": "benchmark-kennung",
"benchmark.create.identifierRequired": "Bitte geben Sie eine Kennung ein",
"benchmark.create.name.label": "Name",
"benchmark.create.name.placeholder": "Benchmark-Namen eingeben",
"benchmark.create.nameRequired": "Bitte geben Sie einen Benchmark-Namen ein",
"benchmark.create.success": "Benchmark erfolgreich erstellt",
"benchmark.create.tags.label": "Tags",
"benchmark.create.tags.placeholder": "Tags hinzufügen, getrennt durch Komma oder Leerzeichen",
"benchmark.create.title": "Benchmark erstellen",
"benchmark.detail.backToOverview": "Zurück zur Übersicht",
"benchmark.detail.datasetCount": "{{count}} Datensatz{{count, plural, one {} other {e}}} in diesem Benchmark",
"benchmark.detail.runCount": "{{count}} Bewertungsdurchlauf{{count, plural, one {} other {e}}} auf diesem Benchmark",
"benchmark.detail.stats.addFirstDataset": "Klicken, um den ersten Datensatz hinzuzufügen",
"benchmark.detail.stats.avgCost": "Durchschn. Kosten",
"benchmark.detail.stats.avgDuration": "Durchschn. Dauer",
"benchmark.detail.stats.basedOnLastNRuns": "Basierend auf den letzten {{count}} Durchläufen",
"benchmark.detail.stats.bestPerformance": "Beste Leistung von {{agent}} mit {{passRate}}% Erfolgsquote",
"benchmark.detail.stats.bestScore": "Beste Punktzahl",
"benchmark.detail.stats.cases": "Fälle",
"benchmark.detail.stats.dataScale": "Datenumfang",
"benchmark.detail.stats.datasets": "Datensätze",
"benchmark.detail.stats.needSetup": "Einrichtung erforderlich",
"benchmark.detail.stats.noEvalRecord": "Noch keine Bewertungsaufzeichnungen",
"benchmark.detail.stats.perRun": "/ Durchlauf",
"benchmark.detail.stats.runs": "Durchläufe",
"benchmark.detail.stats.tags": "Tags",
"benchmark.detail.stats.topAgents": "Top-Agenten",
"benchmark.detail.stats.totalCases": "Gesamtanzahl der Fälle",
"benchmark.detail.stats.waiting": "Warten...",
"benchmark.detail.tabs.data": "Daten",
"benchmark.detail.tabs.datasets": "Datensätze",
"benchmark.detail.tabs.runs": "Durchläufe",
"benchmark.edit.confirm": "Speichern",
"benchmark.edit.error": "Benchmark konnte nicht aktualisiert werden",
"benchmark.edit.success": "Benchmark erfolgreich aktualisiert",
"benchmark.edit.title": "Benchmark bearbeiten",
"benchmark.empty": "Noch keine Benchmarks. Erstellen Sie einen, um zu beginnen.",
"caseDetail.actual": "Tatsächliche Ausgabe",
"caseDetail.chatArea.title": "Konversation",
"caseDetail.completionReason": "Status",
"caseDetail.cost": "Kosten",
"caseDetail.difficulty": "Schwierigkeit",
"caseDetail.duration": "Dauer",
"caseDetail.expected": "Erwartete Ausgabe",
"caseDetail.failureReason": "Fehlergrund",
"caseDetail.input": "Eingabe",
"caseDetail.judgeComment": "Kommentar des Richters",
"caseDetail.resources": "Ressourcen",
"caseDetail.score": "Punktzahl",
"caseDetail.section.runtime": "Laufzeit",
"caseDetail.section.scoring": "Bewertungsdetails",
"caseDetail.section.testCase": "Testfall",
"caseDetail.steps": "Schritte",
"caseDetail.threads.attempt": "Verlauf #{{number}}",
"caseDetail.tokens": "Token-Nutzung",
"common.cancel": "Abbrechen",
"common.create": "Erstellen",
"common.delete": "Löschen",
"common.edit": "Bearbeiten",
"common.later": "Später",
"common.next": "Weiter",
"common.update": "Aktualisieren",
"dataset.actions.addDataset": "Datensatz hinzufügen",
"dataset.actions.import": "Daten importieren",
"dataset.actions.importDataset": "Datensatz importieren",
"dataset.create.description.label": "Beschreibung",
"dataset.create.description.placeholder": "Datensatzbeschreibung (optional)",
"dataset.create.error": "Datensatz konnte nicht erstellt werden",
"dataset.create.identifier.label": "Kennung",
"dataset.create.identifier.placeholder": "datensatz-kennung",
"dataset.create.identifierRequired": "Bitte geben Sie eine Kennung ein",
"dataset.create.importNow": "Möchten Sie jetzt Daten importieren?",
"dataset.create.name.label": "Datensatzname",
"dataset.create.name.placeholder": "Datensatznamen eingeben",
"dataset.create.nameRequired": "Bitte geben Sie einen Datensatznamen ein",
"dataset.create.preset.label": "Datensatz-Voreinstellung",
"dataset.create.success": "Datensatz erfolgreich erstellt",
"dataset.create.successTitle": "Datensatz erstellt",
"dataset.create.title": "Datensatz erstellen",
"dataset.delete.confirm": "Sind Sie sicher, dass Sie diesen Datensatz löschen möchten? Alle darin enthaltenen Testfälle werden ebenfalls gelöscht.",
"dataset.delete.error": "Datensatz konnte nicht gelöscht werden",
"dataset.delete.success": "Datensatz erfolgreich gelöscht",
"dataset.detail.addRun": "Neuer Durchlauf",
"dataset.detail.backToBenchmark": "Zurück zum Benchmark",
"dataset.detail.caseCount": "{{count}} Testfall{{count, plural, one {} other {e}}}",
"dataset.detail.relatedRuns": "Verknüpfte Durchläufe ({{count}})",
"dataset.detail.testCases": "Testfälle",
"dataset.detail.viewDetail": "Details anzeigen",
"dataset.edit.error": "Datensatz konnte nicht aktualisiert werden",
"dataset.edit.success": "Datensatz erfolgreich aktualisiert",
"dataset.edit.title": "Datensatz bearbeiten",
"dataset.empty": "Keine Datensätze",
"dataset.empty.description": "Importieren Sie einen Datensatz, um diesen Benchmark zu erstellen",
"dataset.empty.title": "Noch keine Datensätze",
"dataset.evalMode.hint": "Standard-Bewertungsmodus für den Datensatz, kann auf Testfall-Ebene überschrieben werden",
"dataset.import.category": "Kategorie",
"dataset.import.categoryDesc": "Klassifikationslabel zur Gruppierung",
"dataset.import.choices": "Auswahlmöglichkeiten",
"dataset.import.choicesDesc": "Optionen für Mehrfachauswahl",
"dataset.import.confirm": "Importieren",
"dataset.import.error": "Datensatz konnte nicht importiert werden",
"dataset.import.expected": "Erwartete Antwort",
"dataset.import.expectedDelimiter": "Antwort-Trennzeichen",
"dataset.import.expectedDelimiter.desc": "Antwort-Trennzeichen",
"dataset.import.expectedDelimiter.placeholder": "z. B. | oder ,",
"dataset.import.expectedDesc": "Korrekte Antwort zum Vergleich",
"dataset.import.fieldMapping": "Feldzuordnung",
"dataset.import.fieldMapping.desc": "\"Eingabe\"-Spalte ist erforderlich",
"dataset.import.hideSkipped": "Übersprungene Spalten ausblenden",
"dataset.import.ignore": "Überspringen",
"dataset.import.ignoreDesc": "Diese Spalte nicht importieren",
"dataset.import.input": "Eingabe",
"dataset.import.inputDesc": "Frage oder Eingabeaufforderung an das Modell",
"dataset.import.metadata": "Metadaten",
"dataset.import.metadataDesc": "Zusätzliche Informationen, werden unverändert gespeichert",
"dataset.import.next": "Weiter",
"dataset.import.parseError": "Datei konnte nicht analysiert werden",
"dataset.import.parsing": "Datei wird analysiert...",
"dataset.import.prev": "Zurück",
"dataset.import.preview": "Datenvorschau",
"dataset.import.preview.desc": "Bestätigen Sie, dass die Zuordnung korrekt ist, und importieren Sie dann.",
"dataset.import.preview.rows": "{{count}} Zeilen insgesamt",
"dataset.import.sortOrder": "Artikelnummer",
"dataset.import.sortOrderDesc": "Frage-/Artikel-ID zur Referenz",
"dataset.import.step.mapping": "Felder zuordnen",
"dataset.import.step.preview": "Vorschau",
"dataset.import.step.upload": "Datei hochladen",
"dataset.import.success": "{{count}} Testfälle erfolgreich importiert",
"dataset.import.title": "Datensatz importieren",
"dataset.import.upload.hint": "Unterstützt CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Klicken oder Datei hierher ziehen, um hochzuladen",
"dataset.import.uploading": "Hochladen...",
"dataset.switchDataset": "Datensatz wechseln",
"difficulty.easy": "Einfach",
"difficulty.hard": "Schwierig",
"difficulty.medium": "Mittel",
"evalMode.contains": "Enthält Übereinstimmung",
"evalMode.contains.desc": "Ausgabe muss den erwarteten Text enthalten",
"evalMode.equals": "Exakte Übereinstimmung",
"evalMode.equals.desc": "Ausgabe muss genau mit der erwarteten übereinstimmen",
"evalMode.label": "Bewertungsmodus",
"evalMode.llm-rubric": "LLM-Richter",
"evalMode.llm-rubric.desc": "Verwenden Sie LLM, um die Ausgabequalität zu bewerten",
"evalMode.placeholder": "Bewertungsmodus auswählen",
"evalMode.prompt.label": "Richter-Aufforderung",
"evalMode.prompt.placeholder": "Geben Sie die Bewertungskriterien oder die Aufforderung für den LLM-Richter ein",
"evalMode.rubric": "Rubrik-Bewertung",
"evalMode.rubric.desc": "Bewerten Sie die Ausgabe mit Benchmark-Rubriken und gewichteten Kriterien",
"overview.createBenchmark": "Benchmark erstellen",
"overview.importDataset": "Datensatz importieren",
"overview.subtitle": "Bewerten und vergleichen Sie Ihre KI-Agenten über Datensätze hinweg",
"overview.title": "Bewertungslabor",
"run.actions.abort": "Abbrechen",
"run.actions.abort.confirm": "Sind Sie sicher, dass Sie diese Bewertung abbrechen möchten?",
"run.actions.create": "Neue Bewertung",
"run.actions.delete": "Löschen",
"run.actions.delete.confirm": "Sind Sie sicher, dass Sie diese Bewertung löschen möchten?",
"run.actions.edit": "Bearbeiten",
"run.actions.retryCase": "Erneut versuchen",
"run.actions.retryErrors": "Fehler erneut versuchen",
"run.actions.retryErrors.confirm": "Dies wird alle Fehler- und Timeout-Fälle erneut ausführen. Bestanden und fehlgeschlagene Fälle bleiben unberührt.",
"run.actions.run": "Ausführen",
"run.actions.start": "Starten",
"run.actions.start.confirm": "Sind Sie sicher, dass Sie diese Bewertung starten möchten?",
"run.chart.duration": "Dauer (s)",
"run.chart.error": "Fehler",
"run.chart.fail": "Fehlgeschlagen",
"run.chart.latencyDistribution": "Latenzverteilung",
"run.chart.latencyTokenDistribution": "Latenz / Token-Verteilung",
"run.chart.pass": "Bestanden",
"run.chart.passFailError": "Bestanden / Fehlgeschlagen / Fehler",
"run.chart.tokens": "Tokens",
"run.config.agentId": "Agent",
"run.config.concurrency": "Parallelität",
"run.config.judgeModel": "Richter-Modell",
"run.config.k": "Ausführungen (K)",
"run.config.k.hint": "Führen Sie jeden Testfall {{k}} Mal für pass@{{k}}/pass^{{k}}-Metriken aus",
"run.config.maxSteps": "Maximale Schritte",
"run.config.maxSteps.hint": "Jeder LLM-Aufruf oder Werkzeugaufruf durch den Agenten zählt als 1 Schritt",
"run.config.model": "Modell",
"run.config.temperature": "Temperatur",
"run.config.timeout": "Timeout",
"run.config.timeout.unit": "min",
"run.create.advanced": "Erweiterte Einstellungen",
"run.create.agent": "Agent",
"run.create.agent.placeholder": "Agent auswählen",
"run.create.agent.required": "Bitte wählen Sie einen Agenten aus",
"run.create.caseCount": "{{count}} Fälle",
"run.create.confirm": "Erstellen & Starten",
"run.create.createOnly": "Erstellen",
"run.create.dataset": "Datensatz",
"run.create.dataset.placeholder": "Datensatz auswählen",
"run.create.dataset.required": "Bitte wählen Sie einen Datensatz aus",
"run.create.name": "Bewertungsname",
"run.create.name.placeholder": "Geben Sie einen Namen für diese Bewertung ein",
"run.create.name.required": "Bitte geben Sie einen Bewertungsnamen ein",
"run.create.name.useTimestamp": "Aktuelle Zeit als Namen verwenden",
"run.create.openAgent": "Agent in neuem Fenster öffnen",
"run.create.title": "Neue Bewertung",
"run.create.titleWithDataset": "Neue Bewertung für \"{{dataset}}\"",
"run.detail.agent": "Agent",
"run.detail.agent.none": "Nicht angegeben",
"run.detail.agent.unnamed": "Unbenannter Agent",
"run.detail.backToBenchmark": "Zurück zum Benchmark",
"run.detail.caseResults": "Bewertungsdetails",
"run.detail.config": "Bewertungskonfiguration",
"run.detail.configSnapshot": "Konfigurations-Snapshot",
"run.detail.dataset": "Datensatz",
"run.detail.model": "Modell",
"run.detail.overview": "Übersicht",
"run.detail.progress": "Fortschritt",
"run.detail.progressCases": "Fälle",
"run.detail.report": "Bewertungszusammenfassung",
"run.edit.error": "Bewertung konnte nicht aktualisiert werden",
"run.edit.success": "Bewertung erfolgreich aktualisiert",
"run.edit.title": "Bewertung bearbeiten",
"run.empty.description": "Starten Sie Ihren ersten Bewertungsdurchlauf für diesen Datensatz",
"run.empty.descriptionBenchmark": "Starten Sie Ihren ersten Bewertungsdurchlauf für diesen Benchmark",
"run.empty.title": "Noch keine Durchläufe",
"run.filter.active": "Aktiv",
"run.filter.empty": "Keine Durchläufe entsprechen dem aktuellen Filter.",
"run.idle.hint": "Klicken Sie auf Start, um die Bewertung zu beginnen",
"run.metrics.avgScore": "Durchschn. Punktzahl",
"run.metrics.cost": "Kosten",
"run.metrics.duration": "Dauer",
"run.metrics.errorCases": "Fehler",
"run.metrics.evaluated": "{{count}} bewertet",
"run.metrics.passRate": "Erfolgsquote",
"run.metrics.perCase": "/ Fall",
"run.metrics.tokens": "Tokens",
"run.metrics.totalDuration": "Kumulativ",
"run.pending.hint": "Bewertung ist in der Warteschlange und wartet auf den Start...",
"run.running.hint": "Bewertung läuft, Ergebnisse werden in Kürze angezeigt...",
"run.status.aborted": "Abgebrochen",
"run.status.completed": "Abgeschlossen",
"run.status.error": "Bewertungsfehler",
"run.status.failed": "Fehlgeschlagen",
"run.status.idle": "Inaktiv",
"run.status.pending": "Ausstehend",
"run.status.running": "Läuft",
"run.status.timeout": "Zeitüberschreitung",
"sidebar.benchmarks": "Benchmarks",
"sidebar.dashboard": "Dashboard",
"sidebar.datasets": "Datensätze",
"sidebar.runs": "Durchläufe",
"table.columns.avgCost": "Durchschn. Kosten",
"table.columns.category": "Kategorie",
"table.columns.cost": "Kosten",
"table.columns.difficulty": "Schwierigkeit",
"table.columns.duration": "Dauer",
"table.columns.evalMode": "Bewertungsmodus",
"table.columns.expected": "Erwartete Antwort",
"table.columns.input": "Eingabe",
"table.columns.score": "Punktzahl",
"table.columns.status": "Status",
"table.columns.steps": "Schritte",
"table.columns.tags": "Tags",
"table.columns.tokens": "Tokens",
"table.columns.totalCost": "Gesamtkosten",
"table.filter.all": "Alle",
"table.filter.error": "Bewertungsfehler",
"table.filter.failed": "Fehlgeschlagen",
"table.filter.passed": "Bestanden",
"table.filter.running": "Läuft",
"table.search.placeholder": "Fälle suchen...",
"table.total": "Insgesamt {{count}}",
"testCase.actions.add": "Testfall hinzufügen",
"testCase.actions.import": "Testfälle importieren",
"testCase.create.advanced": "Weitere Optionen",
"testCase.create.difficulty.label": "Schwierigkeit",
"testCase.create.error": "Testfall konnte nicht hinzugefügt werden",
"testCase.create.expected.label": "Erwartete Ausgabe",
"testCase.create.expected.placeholder": "Geben Sie die erwartete Antwort ein",
"testCase.create.expected.required": "Bitte geben Sie die erwartete Ausgabe ein",
"testCase.create.input.label": "Eingabe",
"testCase.create.input.placeholder": "Geben Sie die Eingabe oder Frage für den Testfall ein",
"testCase.create.success": "Testfall erfolgreich hinzugefügt",
"testCase.create.tags.label": "Tags",
"testCase.create.tags.placeholder": "Kommagetrennte Tags (optional)",
"testCase.create.title": "Testfall hinzufügen",
"testCase.delete.confirm": "Sind Sie sicher, dass Sie diesen Testfall löschen möchten?",
"testCase.delete.error": "Testfall konnte nicht gelöscht werden",
"testCase.delete.success": "Testfall gelöscht",
"testCase.edit.error": "Testfall konnte nicht aktualisiert werden",
"testCase.edit.success": "Testfall erfolgreich aktualisiert",
"testCase.edit.title": "Testfall bearbeiten",
"testCase.empty.description": "Importieren oder fügen Sie manuell Testfälle zu diesem Datensatz hinzu",
"testCase.empty.title": "Noch keine Testfälle",
"testCase.preview.expected": "Erwartet",
"testCase.preview.input": "Eingabe",
"testCase.preview.title": "Testfall-Vorschau",
"testCase.search.placeholder": "Fälle suchen..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Tiefgehende Recherche",
"starter.developing": "Demnächst verfügbar",
"starter.image": "Bild",
"starter.nanoBanana2": "🍌 Nano-Banane 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Schreiben"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Für die Gemini-Serie; steuert das Denkbudget.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Für Gemini 3 Flash Preview-Modelle; steuert die Denktiefe.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Für Gemini 3 Pro Preview-Modelle; steuert die Denktiefe.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Für Gemini 3.1 Pro Vorschau-Modelle; steuert die Denktiefe mit niedrigen/mittleren/hohen Stufen.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Für die Gemini-Serie; unterstützt die Bereitstellung von URL-Kontext.",
"providerModels.item.modelConfig.extendParams.placeholder": "Wählen Sie zu aktivierende erweiterte Parameter",
"providerModels.item.modelConfig.extendParams.previewFallback": "Vorschau nicht verfügbar",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo bietet starke Rechen- und Chatfähigkeiten mit exzellentem semantischen Verständnis und effizienter Textgenerierung ideal für Unternehmen und Entwickler.",
"360gpt2-o1.description": "360gpt2-o1 entwickelt Gedankengänge durch Baumsuche mit Reflexionsmechanismus und RL-Training, was Selbstreflexion und Selbstkorrektur ermöglicht.",
"360gpt2-pro.description": "360GPT2 Pro ist ein fortschrittliches NLP-Modell von 360 mit herausragender Textgenerierung und -verarbeitung, besonders für kreative Aufgaben. Es bewältigt komplexe Transformationen und Rollenspiele.",
"360zhinao2-o1.5.description": "360 Zhinao ist das leistungsstärkste Modell für logisches Denken, mit den stärksten Fähigkeiten und Unterstützung für Werkzeugaufrufe sowie fortgeschrittenes logisches Denken.",
"360zhinao2-o1.description": "360zhinao2-o1 entwickelt Gedankengänge durch Baumsuche mit Reflexionsmechanismus und RL-Training, was Selbstreflexion und Selbstkorrektur ermöglicht.",
"360zhinao3-o1.5.description": "360 Zhinao Next-Generation-Modell für logisches Denken.",
"4.0Ultra.description": "Spark Ultra ist das leistungsstärkste Modell der Spark-Serie. Es verbessert das Textverständnis und die Zusammenfassung und optimiert die Websuche. Als umfassende Lösung steigert es die Produktivität am Arbeitsplatz und liefert präzise Antworten ein führendes intelligentes Produkt.",
"AnimeSharp.description": "AnimeSharp (auch bekannt als „4x-AnimeSharp“) ist ein quelloffenes Super-Resolution-Modell basierend auf ESRGAN von Kim2091. Es ist auf das Hochskalieren und Schärfen von Anime-Bildern spezialisiert. Im Februar 2022 wurde es von „4x-TextSharpV1“ umbenannt, ursprünglich auch für Textbilder gedacht, aber stark für Anime-Inhalte optimiert.",
"Baichuan2-Turbo.description": "Verwendet Sucherweiterung, um das Modell mit domänenspezifischem und Webwissen zu verbinden. Unterstützt PDF-/Word-Uploads und URL-Eingaben für zeitnahe, umfassende Recherche und professionelle, präzise Ausgaben.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision ist ein hochmodernes multimodales Modell mit starker Leistung in Sprach-, Text- und Bildbenchmarks. Diese 8B-Version ist auf geringe Latenz und starke Leistung ausgelegt.",
"charglm-3.description": "CharGLM-3 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.",
"charglm-4.description": "CharGLM-4 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.",
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.",
"chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird. Es kombiniert starkes Sprachverständnis und -generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Unterstützung.",
"claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.",
"deepseek-chat.description": "DeepSeek V3.2 bietet ein ausgewogenes Verhältnis zwischen logischem Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führend in Open-Source-Agentenbewertungen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2B Tokens (87% Code, 13% chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 ist ein neues hybrides Schlussfolgerungsmodell von DeepSeek, das sowohl Denk- als auch Nicht-Denk-Modi unterstützt und eine höhere Denkeffizienz als DeepSeek-R1-0528 bietet. Optimierungen nach dem Training verbessern die Nutzung von Agenten-Tools und die Leistung bei Agentenaufgaben erheblich. Es unterstützt ein Kontextfenster von 128k und bis zu 64k Ausgabetokens.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 ist ein Modell der nächsten Generation für komplexe Schlussfolgerungen und Gedankengänge, ideal für Aufgaben mit tiefgehender Analyse.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp führt Sparse Attention ein, um die Effizienz beim Training und bei der Inferenz bei langen Texten zu verbessern zu einem günstigeren Preis als deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "Bei hochkomplexen Aufgaben übertrifft das Speciale-Modell die Standardversion deutlich, verbraucht jedoch erheblich mehr Tokens und verursacht höhere Kosten. Derzeit ist DeepSeek-V3.2-Speciale nur für Forschungszwecke vorgesehen, unterstützt keine Werkzeugaufrufe und wurde nicht speziell für alltägliche Konversations- oder Schreibaufgaben optimiert.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think ist ein vollwertiges Denkmodell mit stärkerer langkettiger Argumentation.",
"deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Reasoning-Modell von DeepSeek, das Denkprozesse in die Werkzeugnutzung integriert. Es verwendet eine effiziente Architektur zur Reduzierung des Rechenaufwands, groß angelegte Verstärkungslernen zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Diese Kombination ermöglicht eine Leistung vergleichbar mit GPT-5-High bei deutlich kürzeren Ausgaben, was Rechenkosten und Wartezeiten für Nutzer erheblich reduziert.",
"deepseek-v3.description": "DeepSeek-V3 ist ein leistungsstarkes MoE-Modell mit insgesamt 671 Milliarden Parametern und 37 Milliarden aktiven Parametern pro Token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen. Unterstützt ein Kontextfenster von 128k und bis zu 16k Ausgabetokens.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.",
"doubao-lite-128k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 128k.",
"doubao-lite-32k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.",
"doubao-lite-4k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 4k.",
"doubao-pro-256k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Texten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 256k.",
"doubao-pro-32k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Texten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash ist ein ultraschnelles multimodales Modell für tiefes logisches Denken mit einer TPOT von nur 10 ms. Es unterstützt Text- und Bildverarbeitung, übertrifft das vorherige Lite-Modell im Textverständnis und erreicht die Leistung konkurrierender Pro-Modelle im visuellen Bereich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite ist ein neues multimodales Modell für tiefes logisches Denken mit einstellbarem Denkaufwand (Minimal, Niedrig, Mittel, Hoch). Es bietet ein besseres Preis-Leistungs-Verhältnis und ist eine starke Wahl für allgemeine Aufgaben. Unterstützt ein Kontextfenster von bis zu 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Das Doubao-Bildmodell von ByteDance Seed unterstützt Text- und Bildeingaben mit hochgradig kontrollierbarer, hochwertiger Bildgenerierung. Es unterstützt textgesteuerte Bildbearbeitung mit Ausgabengrößen zwischen 512 und 1536 auf der langen Seite.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.",
"doubao-vision-lite-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
"doubao-vision-pro-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 ist das neueste multimodale Bildmodell von ByteDance, das Text-zu-Bild, Bild-zu-Bild und Batch-Bilderzeugung integriert und dabei Allgemeinwissen und logisches Denken einbezieht. Im Vergleich zur vorherigen Version 4.0 bietet es eine deutlich verbesserte Generierungsqualität, bessere Konsistenz bei der Bearbeitung und Multi-Bild-Fusion. Es ermöglicht eine präzisere Kontrolle über visuelle Details, erzeugt kleine Texte und kleine Gesichter natürlicher und erreicht harmonischere Layouts und Farben, wodurch die Gesamtästhetik verbessert wird.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite ist das neueste Bildgenerierungsmodell von ByteDance. Erstmals integriert es Online-Retrieval-Funktionen, die es ermöglichen, Echtzeit-Webinformationen einzubeziehen und die Aktualität der generierten Bilder zu verbessern. Die Intelligenz des Modells wurde ebenfalls aufgerüstet, um komplexe Anweisungen und visuelle Inhalte präzise zu interpretieren. Darüber hinaus bietet es eine verbesserte globale Wissensabdeckung, Konsistenz bei Referenzen und Generierungsqualität in professionellen Szenarien, um den visuellen Erstellungsbedarf auf Unternehmensebene besser zu erfüllen.",
"emohaa.description": "Emohaa ist ein Modell für psychische Gesundheit mit professionellen Beratungsfähigkeiten, das Nutzern hilft, emotionale Probleme zu verstehen.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B ist ein quelloffenes, leichtgewichtiges Modell für lokale und individuell angepasste Bereitstellungen.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking ist ein Text-MoE (Mixture-of-Experts)-Modell mit insgesamt 21 Milliarden Parametern und 3 Milliarden aktiven Parametern, das eine deutlich verbesserte Qualität und Tiefe des logischen Denkens bietet.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B ist ein quelloffenes Modell mit vielen Parametern und bietet eine verbesserte Fähigkeit zum Verstehen und Generieren.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B ist das ultra-große MoE-Modell von Baidu ERNIE mit herausragender Fähigkeit zum logischen Schlussfolgern.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview ist ein Vorschau-Modell mit 8K Kontextlänge zur Bewertung von ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K ist ein leichtgewichtiges Hochleistungsmodell für latenz- und kostensensitive Anwendungen.",
"ernie-novel-8k.description": "ERNIE Novel 8K ist für Langform-Romane und IP-Plots mit mehreren Charakteren konzipiert.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K ist ein hochgradig skalierbares Modell für großflächige Online-Dienste und Unternehmensanwendungen.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview ist ein schnelles Denkmodell mit 32K Kontext für komplexes logisches Denken und mehrstufige Chats.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.",
"ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team bei ByteDance, unterstützt Multi-Image-Bearbeitung und -Komposition. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung aus Prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
"gemini-2.5-flash-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Modell zur Bildgenerierung und unterstützt auch multimodale Konversationen.",
"gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Bildqualität auf Pro-Niveau mit Flash-Geschwindigkeit und unterstützt multimodale Chats.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Bildqualität auf Pro-Niveau mit Flash-Geschwindigkeit und unterstützt multimodale Chats.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.",
"gemini-flash-latest.description": "Neueste Version von Gemini Flash",
"gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite",
"gemini-pro-latest.description": "Neueste Version von Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
"glm-4v-plus.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.",
"glm-4v.description": "GLM-4V bietet starkes Bildverständnis und logisches Denken für visuelle Aufgaben.",
"glm-5.description": "Ein starkes Modell für Schlussfolgerungen und agentische Aufgaben von Z.ai mit insgesamt 744B Parametern (40B aktiv), entwickelt für komplexe Systemtechnik und langfristige Aufgaben.",
"glm-5.description": "Die GLM-Serie ist ein hybrides Modell für logisches Denken von Zhipu AI, das sowohl Denk- als auch Nicht-Denk-Modi bietet.",
"glm-z1-air.description": "Ein Modell mit starker Argumentationsfähigkeit für Aufgaben, die tiefes Schlussfolgern erfordern.",
"glm-z1-airx.description": "Ultraschnelles Schlussfolgern bei gleichzeitig hoher Denkqualität.",
"glm-z1-flash.description": "Die GLM-Z1-Serie bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen unser neuester Fortschritt bei kosteneffizienten Denkmodellen.",
"grok-4.description": "Unser neuestes und leistungsstärkstes Flaggschiffmodell, das in NLP, Mathematik und logischem Denken herausragt ein idealer Allrounder.",
"grok-code-fast-1.description": "Wir freuen uns, grok-code-fast-1 vorzustellen ein schnelles und kosteneffizientes Denkmodell, das sich besonders für agentenbasiertes Programmieren eignet.",
"grok-imagine-image-pro.description": "Erstellen Sie Bilder aus Textvorgaben, bearbeiten Sie bestehende Bilder mit natürlicher Sprache oder verfeinern Sie Bilder iterativ durch mehrstufige Gespräche.",
"grok-imagine-image.description": "Erstellen Sie Bilder aus Textvorgaben, bearbeiten Sie bestehende Bilder mit natürlicher Sprache oder verfeinern Sie Bilder iterativ durch mehrstufige Gespräche.",
"groq/compound-mini.description": "Compound-mini ist ein zusammengesetztes KI-System, das auf öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
"groq/compound.description": "Compound ist ein zusammengesetztes KI-System, das auf mehreren öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B ist ein kreatives, intelligentes Sprachmodell, das aus mehreren Spitzenmodellen zusammengeführt wurde.",
"hunyuan-2.0-instruct-20251111.description": "Release-Features: Die Modellbasis wurde von TurboS auf **Hunyuan 2.0** aufgerüstet, was umfassende Verbesserungen der Fähigkeiten mit sich bringt. Es verbessert signifikant die Befolgung von Anweisungen, das Verständnis von mehrstufigen und langen Texten, literarische Kreation, Wissensgenauigkeit, Codierung und logisches Denken.",
"hunyuan-2.0-thinking-20251109.description": "Release-Features: Die Modellbasis wurde von TurboS auf **Hunyuan 2.0** aufgerüstet, was umfassende Verbesserungen der Fähigkeiten mit sich bringt. Es verbessert signifikant die Fähigkeit des Modells, komplexe Anweisungen zu befolgen, mehrstufige und lange Texte zu verstehen, Code zu verarbeiten, als Agent zu agieren und logische Denkaufgaben auszuführen.",
"hunyuan-a13b.description": "Das erste hybride Denkmodell von Hunyuan, aufgerüstet von hunyuan-standard-256K (80B gesamt, 13B aktiv). Standardmäßig im langsamen Denkmodus, unterstützt Umschaltung zwischen schnell/langsam über Parameter oder Präfix /no_think. Insgesamt verbesserte Fähigkeiten gegenüber der vorherigen Generation, insbesondere in Mathematik, Wissenschaft, Langtextverständnis und Agentenaufgaben.",
"hunyuan-code.description": "Neuestes Codegenerierungsmodell, trainiert mit 200B hochwertigem Code und sechs Monaten SFT; Kontext erweitert auf 8K. Führend in automatisierten Benchmarks für fünf Programmiersprachen und in menschlichen Bewertungen nach zehn Kriterien.",
"hunyuan-functioncall.description": "Neuestes MoE FunctionCall-Modell, trainiert mit hochwertigen Funktionsaufrufdaten, mit 32K Kontextfenster und führenden Benchmark-Ergebnissen in mehreren Dimensionen.",
"hunyuan-large-longcontext.description": "Hervorragend bei Langdokumentaufgaben wie Zusammenfassungen und Fragenbeantwortung, bewältigt aber auch allgemeine Generierung. Starke Analyse und Generierung von langen, komplexen Inhalten.",
"hunyuan-large-vision.description": "Ein visuell-sprachliches Modell, trainiert auf Basis von Hunyuan Large für Bild-Text-Verständnis. Unterstützt Multi-Bild- + Texteingaben in beliebiger Auflösung und verbessert das mehrsprachige visuelle Verständnis.",
"hunyuan-large.description": "Hunyuan-large verfügt über ~389B Gesamtparameter und ~52B aktive das größte und leistungsstärkste offene MoE-Modell in einer Transformer-Architektur.",
"hunyuan-lite-vision.description": "Neuestes 7B multimodales Modell mit 32K Kontextfenster, unterstützt chinesisch/englischen multimodalen Chat, Objekterkennung, Dokumenttabellenverständnis und multimodale Mathematik, übertrifft 7B-Konkurrenzmodelle in mehreren Benchmarks.",
"hunyuan-code.description": "Das neueste Code-Modell von Hunyuan, trainiert mit 200 Milliarden hochwertigen Code-Daten plus sechs Monaten SFT-Daten, mit 8K Kontext. Es rangiert nahe der Spitze in automatisierten Code-Benchmarks und in Expertenbewertungen über fünf Sprachen hinweg.",
"hunyuan-functioncall.description": "Das neueste MoE FunctionCall-Modell von Hunyuan, trainiert mit hochwertigen Werkzeugaufruf-Daten, mit einem 32K Kontextfenster und führenden Benchmarks über verschiedene Dimensionen.",
"hunyuan-lite.description": "Aufgerüstet auf eine MoE-Architektur mit 256K Kontextfenster, führend gegenüber vielen offenen Modellen in NLP, Code, Mathematik und Branchenbenchmarks.",
"hunyuan-pro.description": "MoE-Modell mit Billionenparametern und 32K Kontext, führend in Benchmarks, stark bei komplexen Anweisungen und logischem Denken, fortgeschrittener Mathematik, Funktionsaufrufen und optimiert für mehrsprachige Übersetzung, Finanzen, Recht und Medizin.",
"hunyuan-role.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.",
"hunyuan-standard-256K.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-256K erweitert Kontextlänge und -qualität weiter.",
"hunyuan-standard-vision.description": "Neuestes multimodales Modell mit mehrsprachigen Antworten und ausgewogener chinesisch/englischer Fähigkeit.",
"hunyuan-standard.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-32K bietet starken Mehrwert bei der Verarbeitung langer Eingaben.",
"hunyuan-t1-20250321.description": "Vereint künstlerische und MINT-Fähigkeiten mit starkem Langtextverständnis. Unterstützt logische Antworten für Mathematik-, Logik-, Wissenschafts- und Programmierprobleme auf verschiedenen Schwierigkeitsstufen.",
"hunyuan-t1-20250403.description": "Verbessert die Codegenerierung auf Projektebene und die Schreibqualität, stärkt das Verständnis mehrerer Gesprächsrunden und die Befolgung von ToB-Anweisungen, verbessert das Wortverständnis und reduziert Probleme mit gemischter vereinfachter/traditioneller und chinesisch/englischer Ausgabe.",
"hunyuan-t1-20250529.description": "Verbessert kreatives Schreiben und Komposition, stärkt Frontend-Programmierung, Mathematik und logisches Denken sowie die Befolgung von Anweisungen.",
"hunyuan-t1-20250711.description": "Verbessert stark schwierige Mathematik-, Logik- und Programmierfähigkeiten, erhöht die Ausgabestabilität und stärkt die Langtextverarbeitung.",
"hunyuan-role.description": "Das neueste Rollenspiel-Modell von Hunyuan, offiziell mit Rollenspiel-Daten feinabgestimmt, bietet stärkere Basisleistung in Rollenspiel-Szenarien.",
"hunyuan-standard-256K.description": "Verwendet verbessertes Routing, um Lastenausgleich und Expertenzusammenbruch zu mildern. Langtext-\"Nadel im Heuhaufen\" erreicht 99,9%. MOE-256K erweitert die Eingabelänge und Qualität erheblich.",
"hunyuan-standard.description": "Verwendet verbessertes Routing, um Lastenausgleich und Expertenzusammenbruch zu mildern. Langtext-\"Nadel im Heuhaufen\" erreicht 99,9%. MOE-32K bietet ein besseres Preis-Leistungs-Verhältnis bei gleichzeitiger Balance von Qualität und Preis für Langtexteingaben.",
"hunyuan-t1-latest.description": "Verbessert das langsame Denkmodell deutlich bei schwieriger Mathematik, komplexem logischen Denken, anspruchsvoller Programmierung, Befolgung von Anweisungen und kreativer Schreibqualität.",
"hunyuan-t1-vision-20250619.description": "Neuestes t1-vision multimodales Modell mit tiefem logischen Denken und nativer Kettenlogik, deutlich verbessert gegenüber der vorherigen Standardversion.",
"hunyuan-t1-vision-20250916.description": "Neuestes t1-vision Modell mit großen Fortschritten in VQA, visueller Verankerung, OCR, Diagrammen, Lösung fotografierter Aufgaben und bildbasierter Kreation sowie stärkerem Englisch und Unterstützung für ressourcenschwache Sprachen.",
"hunyuan-turbo-20241223.description": "Diese Version verbessert die Skalierung von Anweisungen für bessere Generalisierung, stärkt Mathematik-/Code-/Logikdenken, verbessert das Wortverständnis und die Schreibqualität.",
"hunyuan-turbo-latest.description": "Allgemeine Verbesserungen in NLP-Verständnis, Schreiben, Chat, QA, Übersetzung und Fachgebieten; menschlichere Antworten, bessere Klärung bei unklarer Absicht, verbessertes Wortverständnis, höhere kreative Qualität und Interaktivität sowie stärkere Mehrfachdialoge.",
"hunyuan-turbo-vision.description": "Flaggschiff der nächsten Generation im Bereich Vision-Language mit neuer MoE-Architektur, umfassenden Verbesserungen in Erkennung, Inhaltserstellung, Wissens-QA und analytischem Denken.",
"hunyuan-turbo.description": "Vorschau auf Hunyuans LLM der nächsten Generation mit neuer MoE-Architektur, liefert schnelleres Denken und bessere Ergebnisse als hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Vereinheitlicht den Stil mathematischer Lösungen und verbessert mehrstufige Mathematik-Fragen. Der Schreibstil wurde verfeinert, um den KI-typischen Ton zu reduzieren und die Ausdrucksweise zu verbessern.",
"hunyuan-turbos-20250416.description": "Verbesserte Pretraining-Basis zur besseren Verständnis und Befolgung von Anweisungen; Ausrichtung verbessert Mathematik, Programmierung, Logik und Naturwissenschaften; verbessert Schreibqualität, Textverständnis, Übersetzungsgenauigkeit und Wissensfragen; stärkt Agentenfähigkeiten, insbesondere bei mehrstufigem Verständnis.",
"hunyuan-turbos-20250604.description": "Verbesserte Pretraining-Basis mit besserem Schreiben und Leseverständnis, deutlichen Fortschritten in Programmierung und MINT-Fächern sowie besserem Umgang mit komplexen Anweisungen.",
"hunyuan-turbos-20250926.description": "Verbesserte Qualität der Pretraining-Daten und Post-Training-Strategie, wodurch Agenten, Englisch/niedrig-resourcige Sprachen, Anweisungsbefolgung, Programmierung und MINT-Fähigkeiten verbessert werden.",
"hunyuan-turbos-latest.description": "Das neueste Hunyuan TurboS-Flaggschiffmodell mit stärkerem logischen Denken und insgesamt besserer Nutzererfahrung.",
"hunyuan-turbos-longtext-128k-20250325.description": "Hervorragend bei Aufgaben mit langen Dokumenten wie Zusammenfassungen und Fragenbeantwortung, beherrscht aber auch allgemeine Textgenerierung. Besonders stark bei Analyse und Erstellung komplexer, detaillierter Langtexte.",
"hunyuan-turbos-role-plus.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.",
"hunyuan-turbos-vision-20250619.description": "Neuestes TurboS Vision-Language-Flaggschiff mit großen Fortschritten bei Bild-Text-Aufgaben wie Objekterkennung, Wissensfragen, Werbetexten und bildbasiertem Problemlösen.",
"hunyuan-turbos-vision.description": "Ein Next-Gen Vision-Language-Flaggschiff basierend auf dem neuesten TurboS, spezialisiert auf Bild-Text-Verständnisaufgaben wie Objekterkennung, Wissensfragen, Werbetexte und bildbasiertes Problemlösen.",
"hunyuan-vision-1.5-instruct.description": "Ein schnelles Bild-zu-Text-Modell basierend auf dem Text-TurboS-Modell, mit deutlichen Verbesserungen gegenüber der Vorgängerversion in den Bereichen Bildgrundlagen-Erkennung und Bildanalyse-Logik.",
"hunyuan-vision.description": "Neuestes multimodales Modell mit Unterstützung für Bild- und Texteingaben zur Textgenerierung.",
"hunyuan-vision-1.5-instruct.description": "Ein schnelles Denkmodell für Bild-zu-Text, basierend auf der TurboS-Textbasis, mit bemerkenswerten Verbesserungen gegenüber der vorherigen Version in grundlegender Bilderkennung und Bildanalyse.",
"hunyuan-vision.description": "Das neueste multimodale Modell von Hunyuan unterstützt Bild- und Texteingaben zur Textgenerierung.",
"image-01-live.description": "Ein Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild-Generierung und steuerbare Stilvorgaben unterstützt.",
"image-01.description": "Ein neues Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild- und Bild-zu-Bild-Generierung unterstützt.",
"imagen-4.0-fast-generate-001.description": "Schnellversion der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.",
"imagen-4.0-generate-001.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellreihe.",
"imagen-4.0-generate-preview-06-06.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellfamilie.",
"imagen-4.0-ultra-generate-001.description": "Ultra-Version der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Ultra-Variante der vierten Generation der Imagen-Text-zu-Bild-Modelle.",
"inception/mercury-coder-small.description": "Mercury Coder Small eignet sich ideal für Codegenerierung, Debugging und Refactoring mit minimaler Latenz.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 ist das dritte Modell der Ling 2.0-Architektur vom Bailing-Team der Ant Group. Es handelt sich um ein MoE-Modell mit insgesamt 100 Milliarden Parametern, von denen nur 6,1 Milliarden pro Token aktiv sind (4,8 Milliarden ohne Einbettung). Trotz der schlanken Konfiguration erreicht es die Leistung von 40B-dichten Modellen und übertrifft sogar größere MoE-Modelle in mehreren Benchmarks ein Beweis für hohe Effizienz durch Architektur und Trainingsstrategie.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes MoE-LLM mit 16 Milliarden Gesamtparametern und nur 1,4 Milliarden aktiven Parametern pro Token (789 Millionen ohne Einbettung), das eine sehr schnelle Generierung ermöglicht. Dank effizientem MoE-Design und großen, hochwertigen Trainingsdaten erreicht es eine Spitzenleistung, vergleichbar mit dichten Modellen unter 10B und größeren MoE-Modellen.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T ist das Billionen-Parameter-MoE-Modell von inclusionAI für groß angelegte Denk- und Forschungsaufgaben.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 ist eine Variante des Ring-Modells von inclusionAI für Szenarien mit hohem Durchsatz, mit Fokus auf Geschwindigkeit und Kosteneffizienz.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 ist das leichtgewichtige Hochdurchsatz-MoE-Modell von inclusionAI, entwickelt für gleichzeitige Verarbeitung.",
"intern-latest.description": "Standardmäßig verweist es auf unser neuestes veröffentlichtes Modell der Intern-Serie, derzeit auf intern-s1-pro eingestellt.",
"intern-s1-mini.description": "Ein leichtgewichtiges multimodales Großmodell mit starken wissenschaftlichen Denkfähigkeiten.",
"intern-s1-pro.description": "Wir haben unser fortschrittlichstes Open-Source-Multimodales Denkmodell eingeführt, das derzeit das leistungsstärkste Open-Source-Multimodale Großmodell in Bezug auf die Gesamtleistung ist.",
"intern-s1.description": "Das Open-Source-Multimodale Denkmodell demonstriert nicht nur starke allgemeine Fähigkeiten, sondern erreicht auch Spitzenleistungen in einer Vielzahl wissenschaftlicher Aufgaben.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat ist ein Open-Source-Chatmodell basierend auf der InternLM2-Architektur. Das 7B-Modell konzentriert sich auf Dialoggenerierung mit Unterstützung für Chinesisch und Englisch und nutzt modernes Training für flüssige, intelligente Konversationen. Es eignet sich für viele Chat-Szenarien wie Kundensupport und persönliche Assistenten.",
"internlm2.5-latest.description": "Legacy-Modelle, die weiterhin gepflegt werden und nach vielen Iterationen eine hervorragende, stabile Leistung bieten. Verfügbar in 7B- und 20B-Größen, mit Unterstützung für 1M-Kontext und verbesserter Befolgung von Anweisungen sowie Werkzeugnutzung. Standardmäßig wird die neueste InternLM2.5-Serie verwendet (derzeit internlm2.5-20b-chat).",
"internlm3-latest.description": "Unsere neueste Modellreihe mit exzellenter Denkleistung, führend unter offenen Modellen ihrer Größenklasse. Standardmäßig wird die neueste InternLM3-Serie verwendet (derzeit internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO ist ein multimodales vortrainiertes Modell für komplexes Bild-Text-Denken.",
"internvl2.5-latest.description": "InternVL2.5 wird weiterhin gepflegt und bietet starke, stabile Leistung. Standardmäßig wird die neueste InternVL2.5-Serie verwendet (derzeit internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B ist ein mittelgroßes multimodales Modell mit ausgewogenem Verhältnis von Leistung und Kosten.",
"internvl3-1b.description": "InternVL3 1B ist ein leichtgewichtiges multimodales Modell für ressourcenbeschränkte Einsätze.",
"internvl3-38b.description": "InternVL3 38B ist ein großes Open-Source-Multimodalmodell für hochpräzises Bild-Text-Verständnis.",
"internvl3-latest.description": "Unser neuestes multimodales Modell mit verbessertem Bild-Text-Verständnis und Langsequenz-Bildverarbeitung, vergleichbar mit führenden geschlossenen Modellen. Standardmäßig wird die neueste InternVL-Serie verwendet (derzeit internvl3-78b).",
"internvl3.5-241b-a28b.description": "Unser neu veröffentlichtes multimodales Großmodell bietet verbesserte Bild- und Textverständnisfähigkeiten sowie Langsequenz-Bildverständnis, mit einer Leistung, die mit führenden Closed-Source-Modellen vergleichbar ist.",
"internvl3.5-latest.description": "Standardmäßig verweist es auf das neueste Modell der InternVL3.5-Serie, derzeit auf internvl3.5-241b-a28b eingestellt.",
"irag-1.0.description": "ERNIE iRAG ist ein Modell zur bildgestützten Generierung mit Bildsuche, Bild-Text-Retrieval und Inhaltserstellung.",
"jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.",
"jamba-mini.description": "Das effizienteste Modell seiner Klasse vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 ist ein effizientes großes Sprachmodell, das speziell für Programmierung und Agenten-Workflows entwickelt wurde.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 ist ein leichtgewichtiges, hochmodernes großes Sprachmodell, optimiert für Programmierung, Proxy-Workflows und moderne Anwendungsentwicklung. Es liefert klarere, prägnantere Ausgaben und schnellere Reaktionszeiten.",
"minimax/minimax-m2.description": "MiniMax-M2 ist ein leistungsstarkes Modell, das sich in vielen technischen Szenarien bei Programmier- und Agentenaufgaben bewährt.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 ist ein kompaktes, schnelles und kosteneffizientes MoE-Modell, das für erstklassige Codierung und Agentenleistung entwickelt wurde.",
"minimaxai/minimax-m2.description": "MiniMax-M2 ist ein kompaktes, schnelles und kosteneffizientes MoE-Modell (230B gesamt, 10B aktiv), das für erstklassige Programmier- und Agentenleistung entwickelt wurde und gleichzeitig starke allgemeine Intelligenz beibehält. Es glänzt bei Mehrdatei-Bearbeitungen, Code-Ausführen-Korrigieren-Schleifen, Testvalidierung und komplexen Toolchains.",
"ministral-3b-latest.description": "Ministral 3B ist das Spitzenmodell von Mistral für Edge-Anwendungen.",
"ministral-8b-latest.description": "Ministral 8B ist ein äußerst kosteneffizientes Edge-Modell von Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Das Modell kimi-k2-0905-preview unterstützt ein Kontextfenster von 256K, bietet stärkere agentenbasierte Codierung, ausgereifteren und praxisnahen Frontend-Code sowie ein besseres Kontextverständnis.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo ist eine Hochgeschwindigkeitsversion von Kimi K2 Thinking mit deutlich reduzierter Latenz bei gleichbleibender Tiefe im Denkprozess.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking ist Moonshots Modell für Denkprozesse, optimiert für tiefgehende Aufgaben mit allgemeinen Agentenfähigkeiten.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 ist das intelligenteste Kimi-Modell bisher, mit nativer multimodaler Architektur.",
"moonshotai/kimi-k2.description": "Kimi K2 ist ein großes MoE-Modell von Moonshot AI mit 1T Gesamtparametern und 32B aktiven Parametern pro Durchlauf. Es ist optimiert für Agentenfähigkeiten wie fortgeschrittene Werkzeugnutzung, logisches Denken und Code-Synthese.",
"morph/morph-v3-fast.description": "Morph bietet ein spezialisiertes Modell, um Codeänderungen anzuwenden, die von fortschrittlichen Modellen (z.B. Claude oder GPT-4o) vorgeschlagen wurden mit über 4500 Tokens/Sek. Es ist der letzte Schritt in einem KI-Coding-Workflow und unterstützt 16k Eingabe-/Ausgabe-Tokens.",
"morph/morph-v3-large.description": "Morph bietet ein spezialisiertes Modell, um Codeänderungen anzuwenden, die von fortschrittlichen Modellen (z.B. Claude oder GPT-4o) vorgeschlagen wurden mit über 2500 Tokens/Sek. Es ist der letzte Schritt in einem KI-Coding-Workflow und unterstützt 16k Eingabe-/Ausgabe-Tokens.",
"musesteamer-air-image.description": "musesteamer-air-image ist ein Bildgenerierungsmodell, das von Baidus Suchteam entwickelt wurde, um außergewöhnliche Kosten-Leistungs-Verhältnisse zu bieten. Es kann schnell klare, handlungskoherente Bilder basierend auf Benutzeranweisungen generieren und Benutzerbeschreibungen mühelos in visuelle Darstellungen umwandeln.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B ist eine aktualisierte Version von Nous Hermes 2 mit den neuesten intern entwickelten Datensätzen.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B ist ein von NVIDIA angepasstes LLM zur Verbesserung der Nützlichkeit. Es erzielt Spitzenwerte bei Arena Hard, AlpacaEval 2 LC und GPT-4-Turbo MT-Bench und belegt am 1. Oktober 2024 Platz 1 in allen drei Auto-Alignment-Benchmarks. Es wurde aus Llama-3.1-70B-Instruct mithilfe von RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward und HelpSteer2-Preference-Prompts trainiert.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Ein einzigartiges Sprachmodell mit außergewöhnlicher Genauigkeit und Effizienz.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Basierend auf Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstmoderiert) oder GPT-4o weitergeleitet.",
"oswe-vscode-prime.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.",
"oswe-vscode-secondary.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Modell, das ein Gleichgewicht zwischen hoher Recheneffizienz und hervorragender Leistung in logischem Denken und Agentenfähigkeiten bietet.",
"perplexity/sonar-pro.description": "Perplexitys Flaggschiffprodukt mit Suchverankerung, unterstützt komplexe Anfragen und Folgefragen.",
"perplexity/sonar-reasoning-pro.description": "Ein fortschrittliches Modell mit Fokus auf logisches Denken, das CoT mit erweiterter Suche ausgibt, einschließlich mehrerer Suchanfragen pro Anfrage.",
"perplexity/sonar-reasoning.description": "Ein Modell mit Fokus auf logisches Denken, das Chain-of-Thought (CoT) mit detaillierten, suchbasierten Erklärungen liefert.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Qwen-Code-Modell.",
"qwen-coder-turbo.description": "Qwen-Code-Modell.",
"qwen-flash.description": "Schnellstes und kostengünstigstes Qwen-Modell, ideal für einfache Aufgaben.",
"qwen-image-edit-max.description": "Das Qwen-Bildbearbeitungsmodell unterstützt Mehrfach-Bildeingaben und -ausgaben, ermöglicht präzise Textbearbeitung im Bild, das Hinzufügen, Entfernen oder Verschieben von Objekten, die Modifikation von Aktionen von Subjekten, den Stiltransfer von Bildern und verbesserte visuelle Details.",
"qwen-image-edit-plus.description": "Das Qwen-Bildbearbeitungsmodell unterstützt Mehrfach-Bildeingaben und -ausgaben, ermöglicht präzise Textbearbeitung im Bild, das Hinzufügen, Entfernen oder Verschieben von Objekten, die Modifikation von Aktionen von Subjekten, den Stiltransfer von Bildern und verbesserte visuelle Details.",
"qwen-image-edit.description": "Qwen Image Edit ist ein Bild-zu-Bild-Modell, das Bilder basierend auf Eingabebildern und Textanweisungen bearbeitet für präzise Anpassungen und kreative Transformationen.",
"qwen-image-max.description": "Das Qwen-Bildgenerierungsmodell (Max-Serie) bietet verbesserte Realismus und visuelle Natürlichkeit im Vergleich zur Plus-Serie, reduziert effektiv KI-generierte Artefakte und zeigt herausragende Leistung bei menschlichem Erscheinungsbild, Texturdetails und Textrendering.",
"qwen-image-plus.description": "Es unterstützt eine breite Palette künstlerischer Stile und ist besonders versiert im Rendern komplexer Texte innerhalb von Bildern, wodurch integrierte Bild-Text-Layout-Designs ermöglicht werden.",
"qwen-image.description": "Qwen-Image ist ein allgemeines Bildgenerierungsmodell mit Unterstützung für verschiedene Kunststile und starker Textdarstellung, insbesondere in Chinesisch und Englisch. Es unterstützt mehrzeilige Layouts, Absatztexte und feine Details für komplexe Text-Bild-Layouts.",
"qwen-long.description": "Ultragroßes Qwen-Modell mit langem Kontext und Chat über lange und mehrteilige Dokumente hinweg.",
"qwen-math-plus-latest.description": "Qwen Math ist ein Sprachmodell, das auf das Lösen mathematischer Probleme spezialisiert ist.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Open-Source-Qwen-Code-Modell. Das neueste qwen3-coder-30b-a3b-instruct basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct ist ein Flaggschiff-Code-Modell für mehrsprachige Programmierung und komplexes Codeverständnis.",
"qwen3-coder-flash.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.",
"qwen3-coder-next.description": "Next-Gen Qwen-Coder optimiert für komplexe Multi-Datei-Codegenerierung, Debugging und hochdurchsatzfähige Agenten-Workflows. Entwickelt für starke Werkzeugintegration und verbesserte Leistung im logischen Denken.",
"qwen3-coder-plus.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.",
"qwen3-coder:480b.description": "Alibabas leistungsstarkes Langkontextmodell für Agenten- und Programmieraufgaben.",
"qwen3-max-2026-01-23.description": "Qwen3 Max-Modelle bieten große Fortschritte gegenüber der 2.5-Serie in allgemeinen Fähigkeiten, chinesisch/englischem Verständnis, komplexer Befehlsverarbeitung, offenen subjektiven Aufgaben, Mehrsprachigkeit und Werkzeugnutzung mit weniger Halluzinationen. Die neueste Version verbessert agentenbasiertes Programmieren und Werkzeugnutzung gegenüber qwen3-max-preview. Diese Veröffentlichung erreicht SOTA in ihrem Bereich und zielt auf komplexere Agentenanforderungen ab.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking ist ein multimodales Chain-of-Thought-Modell für detailliertes visuelles Denken.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: leichtgewichtige, hochschnelle Denkversion für latenzempfindliche oder hochvolumige Anfragen.",
"qwen3-vl-plus.description": "Qwen VL ist ein Textgenerierungsmodell mit Bildverständnis. Es kann OCR durchführen sowie zusammenfassen und schlussfolgern, z.B. Attribute aus Produktfotos extrahieren oder Probleme aus Bildern lösen.",
"qwen3.5-397b-a17b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und niedrigere Kosten. In multimodalen Fähigkeiten bietet es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.",
"qwen3.5-plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, während es bessere Effizienz und niedrigere Kosten bietet. In Bezug auf multimodale Fähigkeiten zeigt es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.",
"qwen3.description": "Qwen3 ist Alibabas nächste Generation eines großen Sprachmodells mit starker Leistung in vielfältigen Anwendungsfällen.",
"qwq-32b-preview.description": "QwQ ist ein experimentelles Forschungsmodell von Qwen mit Fokus auf verbesserte Schlussfolgerungen.",
"qwq-32b.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich steigern insbesondere bei komplexen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini konkurriert.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich insbesondere bei schwierigen Problemen.",
"r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) sowie Audiogenerierung synchronisiert mit visuellen Inhalten.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webgestützte Generierung für Echtzeitinformationen, verbesserte Interpretation komplexer Eingaben und verbesserte Konsistenz bei Referenzen für professionelle visuelle Erstellung.",
"solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.",
"solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.",
"solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Ein fortschrittliches Suchprodukt mit fundierter Suche für komplexe Anfragen und Folgefragen.",
"sonar-reasoning.description": "Ein fortschrittliches Suchprodukt mit fundierter Suche für komplexe Anfragen und Folgefragen.",
"sonar.description": "Ein leichtgewichtiges, suchbasiertes Produkt schneller und kostengünstiger als Sonar Pro.",
"spark-x.description": "X1.5-Updates: (1) Einführung eines dynamischen Denkmodus, gesteuert über das Feld `thinking`; (2) größere Kontextlänge mit 64K Eingabe und 64K Ausgabe; (3) Unterstützung für FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Modell, das ein Gleichgewicht zwischen hoher Recheneffizienz und hervorragender Leistung in logischem Denken und Agentenfähigkeiten bietet.",
"spark-x.description": "X2-Fähigkeiten-Übersicht: 1. Führt dynamische Anpassung des Denkmodus ein, gesteuert über das `thinking`-Feld. 2. Erweiterte Kontextlänge: 64K Eingabetokens und 128K Ausgabetokens. 3. Unterstützt Funktionaufruf-Funktionalität.",
"stable-diffusion-3-medium.description": "Das neueste Text-zu-Bild-Modell von Stability AI. Diese Version verbessert die Bildqualität, das Textverständnis und die Stilvielfalt erheblich, interpretiert komplexe Spracheingaben präziser und erzeugt genauere, vielfältigere Bilder.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo nutzt Adversarial Diffusion Distillation (ADD) auf stable-diffusion-3.5-large für höhere Geschwindigkeit.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large ist ein MMDiT Text-zu-Bild-Modell mit 800 Millionen Parametern, das hervorragende Qualität und präzise Prompt-Umsetzung bietet. Es unterstützt 1-Megapixel-Bilder und läuft effizient auf Consumer-Hardware.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Unterstützt Interaktionen mit großem Kontext für komplexe Dialoge.",
"step-2-mini.description": "Basierend auf der nächsten Generation der internen MFA-Attention-Architektur liefert es Ergebnisse auf Step-1-Niveau bei deutlich geringeren Kosten, höherem Durchsatz und geringerer Latenz. Bewältigt allgemeine Aufgaben mit starker Programmierleistung.",
"step-2x-large.description": "Ein neues StepFun-Bildmodell der nächsten Generation mit Fokus auf Bildgenerierung. Es erzeugt hochwertige Bilder aus Texteingaben mit realistischeren Texturen und besserer Darstellung chinesischer/englischer Texte.",
"step-3.5-flash.description": "Das Flaggschiff-Sprachmodell für logisches Denken von Stepfun. Dieses Modell bietet erstklassige Fähigkeiten im logischen Denken sowie schnelle und zuverlässige Ausführung. Es kann komplexe Aufgaben zerlegen und planen, Werkzeuge schnell und zuverlässig aufrufen, und in logischem Denken, Mathematik, Softwareentwicklung, tiefgehender Forschung und anderen anspruchsvollen Aufgaben herausragend sein. Die Kontextlänge beträgt 256K.",
"step-3.description": "Dieses Modell verfügt über starke visuelle Wahrnehmung und komplexe Schlussfolgerungsfähigkeiten. Es verarbeitet domänenübergreifendes Wissen, analysiert Mathematik und visuelle Inhalte gemeinsam und bewältigt eine Vielzahl alltäglicher visueller Analyseaufgaben.",
"step-r1-v-mini.description": "Ein Schlussfolgerungsmodell mit starkem Bildverständnis, das Bilder und Texte verarbeiten und anschließend durch tiefes Denken Text generieren kann. Es glänzt im visuellen Denken und liefert Spitzenleistungen in Mathematik, Programmierung und Textverständnis mit einem Kontextfenster von 100K.",
"stepfun-ai/step3.description": "Step3 ist ein hochmodernes multimodales Schlussfolgerungsmodell von StepFun, basierend auf einer MoE-Architektur mit insgesamt 321B und 38B aktiven Parametern. Sein End-to-End-Design minimiert die Dekodierungskosten und liefert erstklassige Vision-Language-Schlussfolgerungen. Dank MFA- und AFD-Design bleibt es sowohl auf High-End- als auch auf Low-End-Beschleunigern effizient. Das Pretraining umfasst über 20T Text-Tokens und 4T Bild-Text-Tokens in vielen Sprachen. Es erreicht führende Leistungen bei offenen Modellen in Mathematik, Code und multimodalen Benchmarks.",
"taichu_llm.description": "Trainiert mit umfangreichen hochwertigen Daten, mit verbesserter Textverständnis, Inhaltserstellung und dialogbasierter Fragebeantwortung.",
"taichu_o1.description": "taichu_o1 ist ein Next-Gen-Reasoning-Modell, das multimodale Interaktion und Reinforcement Learning nutzt, um menschenähnliches Denken in Ketten zu ermöglichen. Es unterstützt komplexe Entscheidungssimulationen, legt Denkpfade offen und liefert hochpräzise Ergebnisse ideal für strategische Analysen und tiefgehendes Denken.",
"taichu_vl.description": "Kombiniert Bildverständnis, Wissensübertragung und logische Zuordnung herausragend bei Bild-Text-Fragen.",
"taichu4_vl_2b_nothinking.description": "Die No-Thinking-Version des Taichu4.0-VL 2B-Modells bietet geringeren Speicherverbrauch, ein leichtes Design, schnelle Reaktionsgeschwindigkeit und starke multimodale Verständnisfähigkeiten.",
"taichu4_vl_32b.description": "Die Thinking-Version des Taichu4.0-VL 32B-Modells eignet sich für komplexe multimodale Verständnis- und Denkaufgaben und zeigt herausragende Leistung in multimodaler mathematischer Logik, multimodalen Agentenfähigkeiten und allgemeinem Bild- und visuellen Verständnis.",
"taichu4_vl_32b_nothinking.description": "Die No-Thinking-Version des Taichu4.0-VL 32B-Modells ist für komplexe Bild- und Textverständnis- sowie visuelle Wissens-QA-Szenarien konzipiert und zeichnet sich durch Bildunterschriftenerstellung, visuelle Fragenbeantwortung, Videoverständnis und visuelle Lokalisierungsaufgaben aus.",
"taichu4_vl_3b.description": "Die Thinking-Version des Taichu4.0-VL 3B-Modells führt multimodale Verständnis- und Denkaufgaben effizient aus, mit umfassenden Upgrades in visuellem Verständnis, visueller Lokalisierung, OCR-Erkennung und verwandten Fähigkeiten.",
"taichu_llm.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.",
"taichu_llm_14b.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.",
"taichu_llm_2b.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.",
"taichu_o1.description": "taichu_o1 ist ein Next-Generation-Großmodell für logisches Denken, das durch multimodale Interaktion und Verstärkungslernen menschenähnliche Kettenlogik erreicht. Es unterstützt komplexe Entscheidungssimulationen und zeigt bei gleichzeitiger Aufrechterhaltung hochpräziser Ausgaben interpretierbare Denkwege. Es eignet sich gut für Strategieanalysen, tiefes Denken und ähnliche Szenarien.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct nutzt insgesamt 80B Parameter, davon 13B aktiv, um mit größeren Modellen zu konkurrieren. Es unterstützt hybrides schnelles/langsames Denken, stabiles Langtextverständnis und führende Agentenfähigkeiten auf BFCL-v3 und τ-Bench. GQA- und Multi-Quant-Formate ermöglichen effiziente Inferenz.",
"tencent/Hunyuan-MT-7B.description": "Das Hunyuan-Übersetzungsmodell umfasst Hunyuan-MT-7B und das Ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B ist ein leichtgewichtiges 7B-Modell, das 33 Sprachen sowie 5 chinesische Minderheitensprachen unterstützt. Bei WMT25 erzielte es 30 erste Plätze in 31 Sprachpaaren. Tencent Hunyuan verwendet eine vollständige Trainingspipeline von Pretraining über SFT bis hin zu RL für Übersetzung und Ensemble, und erreicht führende Leistung bei einfacher, effizienter Bereitstellung.",
"text-embedding-3-large.description": "Das leistungsfähigste Embedding-Modell für englische und nicht-englische Aufgaben.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md eignet sich für alltägliche Aufgaben und UI-Generierung.",
"vercel/v0-1.0-md.description": "Zugriff auf die Modelle hinter v0 zur Generierung, Fehlerbehebung und Optimierung moderner Webanwendungen mit frameworkspezifischem Denken und aktuellem Wissen.",
"vercel/v0-1.5-md.description": "Zugriff auf die Modelle hinter v0 zur Generierung, Fehlerbehebung und Optimierung moderner Webanwendungen mit frameworkspezifischem Denken und aktuellem Wissen.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code ist für unternehmensspezifische Programmieranforderungen optimiert und verstärkt die Codefähigkeiten auf der Grundlage der hervorragenden Agent- und VLM-Fähigkeiten von Seed 2.0. Es zeigt nicht nur herausragende Frontend-Leistungen, sondern wurde auch speziell für die häufigen mehrsprachigen Codierungsanforderungen von Unternehmen optimiert und eignet sich für die Integration in verschiedene KI-Programmierwerkzeuge.",
"volcengine/doubao-seed-2-0-lite.description": "Vereint Generierungsqualität und Reaktionsgeschwindigkeit, geeignet als allgemeines Produktionsmodell.",
"volcengine/doubao-seed-2-0-mini.description": "Verweist auf die neueste Version von doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Verweist auf die neueste Version von doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code ist das LLM der ByteDance Volcano Engine, optimiert für agentenbasiertes Programmieren. Es überzeugt bei Programmier- und Agentenbenchmarks mit Unterstützung für 256K-Kontext.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus für schnelle Generierung und hohen Mehrwert.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus mit reicheren Details.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus, das schnelle Generierung und hohen Wert bietet.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus, das reichere Details erzeugt.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview unterstützt Einzelbildbearbeitung und Multi-Bild-Fusion.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I unterstützt flexible Auswahl von Bilddimensionen innerhalb der Gesamtpixelbereichs- und Seitenverhältnisbeschränkungen.",
"wan2.6-image.description": "Wanxiang 2.6 Image unterstützt Bildbearbeitung und gemischte Bild-Text-Layout-Ausgabe.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I unterstützt flexible Auswahl von Bilddimensionen innerhalb der Gesamtpixelbereichs- und Seitenverhältnisbeschränkungen (wie Wanxiang 2.5).",
"wanx-v1.description": "Basismodell für Text-zu-Bild. Entspricht Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Hervorragend bei texturierten Porträts mit moderater Geschwindigkeit und geringeren Kosten. Entspricht Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Vollständig aktualisierte Version mit reicheren Bilddetails und etwas langsamerer Geschwindigkeit. Entspricht Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast ist xAIs hochdurchsatzfähiges, kostengünstiges Modell (unterstützt 2M Kontextfenster), ideal für hochparallele und langkontextuelle Anwendungsfälle.",
"x-ai/grok-4.description": "Grok 4 ist xAIs Flaggschiff-Reasoning-Modell mit starker Denk- und Multimodal-Fähigkeit.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 ist xAIs schnelles Codemodell mit lesbaren, entwicklerfreundlichen Ausgaben.",
"x1.description": "X1.5 Updates: (1) fügt dynamischen Denkmodus hinzu, gesteuert durch das `thinking`-Feld; (2) größere Kontextlänge mit 64K Eingabe und 64K Ausgabe; (3) unterstützt FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision überzeugt bei visuellen Aufgaben mit SOTA-Leistung in visuellem Mathematik-Reasoning (MathVista) und Dokumenten-QA (DocVQA). Es verarbeitet Dokumente, Diagramme, Grafiken, Screenshots und Fotos.",
"xai/grok-2.description": "Grok 2 ist ein Spitzenmodell mit modernstem Reasoning, starker Chat-, Coding- und Denkleistung und übertrifft Claude 3.5 Sonnet und GPT-4 Turbo auf LMSYS.",
"xai/grok-3-fast.description": "xAIs Flaggschiffmodell überzeugt in Unternehmensanwendungen wie Datenextraktion, Codierung und Zusammenfassung mit tiefem Fachwissen in Finanzen, Gesundheitswesen, Recht und Wissenschaft. Die schnelle Variante läuft auf schnellerer Infrastruktur für deutlich schnellere Antworten bei höheren Tokenkosten.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 ist Z.AIs Flaggschiffmodell mit hybridem Reasoning, optimiert für Engineering- und Langkontextaufgaben.",
"z-ai/glm-4.6.description": "GLM 4.6 ist Z.AIs Flaggschiffmodell mit erweitertem Kontextumfang und Codierungsfähigkeiten.",
"z-ai/glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu mit verbesserten allgemeinen Fähigkeiten, natürlicheren und einfacheren Antworten sowie einem immersiveren Schreiberlebnis.",
"z-ai/glm5.description": "Ein starkes Modell für Schlussfolgerungen und agentische Aufgaben von Z.ai mit insgesamt 744B Parametern (40B aktiv), entwickelt für komplexe Systemtechnik und langfristige Aufgaben.",
"z-ai/glm4.7.description": "GLM-4.7 ist das neueste Flaggschiff-Modell von Zhipu, optimiert für Agentic-Coding-Szenarien mit verbesserten Codierungsfähigkeiten.",
"z-ai/glm5.description": "GLM-5 ist das neue Flaggschiff-Grundlagenmodell von Zhipu AI für Agenten-Engineering, das Open-Source-SOTA-Leistung in Codierung und Agentenfähigkeiten erreicht. Es entspricht der Leistung von Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image ist ein leichtgewichtiges Text-zu-Bild-Generierungsmodell, das schnell Bilder erzeugen kann, sowohl chinesische als auch englische Textrendering unterstützt und sich flexibel an verschiedene Auflösungen und Seitenverhältnisse anpasst.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
"zai-org/GLM-4.5.description": "GLM-4.5 ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist tiefgreifend optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.",
"zai-org/GLM-4.5V.description": "GLM-4.5V ist Zhipu AIs neuestes VLM, basierend auf dem GLM-4.5-Air-Textmodell (106B gesamt, 12B aktiv) mit MoE-Architektur für starke Leistung bei geringeren Kosten. Es folgt dem GLM-4.1V-Thinking-Ansatz und fügt 3D-RoPE zur Verbesserung des 3D-Räumlichkeitsdenkens hinzu. Optimiert durch Pretraining, SFT und RL, verarbeitet es Bilder, Videos und lange Dokumente und belegt Spitzenplätze unter offenen Modellen in 41 öffentlichen multimodalen Benchmarks. Ein Thinking-Modus-Schalter ermöglicht die Balance zwischen Geschwindigkeit und Tiefe.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Knoten aktualisieren",
"builtins.lobe-page-agent.apiName.wrapNodes": "Knoten umschließen",
"builtins.lobe-page-agent.title": "Seite",
"builtins.lobe-skill-store.apiName.importFromMarket": "Aus dem Markt importieren",
"builtins.lobe-skill-store.apiName.importSkill": "Fähigkeit importieren",
"builtins.lobe-skill-store.apiName.searchSkill": "Fähigkeiten suchen",
"builtins.lobe-skill-store.title": "Fähigkeitenmarkt",
"builtins.lobe-skills.apiName.execScript": "Skript ausführen",
"builtins.lobe-skills.apiName.exportFile": "Datei exportieren",
"builtins.lobe-skills.apiName.importFromMarket": "Aus dem Markt importieren",
"builtins.lobe-skills.apiName.importSkill": "Fähigkeit importieren",
"builtins.lobe-skills.apiName.readReference": "Referenz lesen",
"builtins.lobe-skills.apiName.runSkill": "Fähigkeit aktivieren",
"builtins.lobe-skills.apiName.searchSkill": "Fähigkeiten suchen",
"builtins.lobe-skills.title": "Fähigkeiten",
"builtins.lobe-tools.apiName.activateTools": "Werkzeuge aktivieren",
"builtins.lobe-user-memory.apiName.addContextMemory": "Kontextgedächtnis hinzufügen",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Erfahrungsgedächtnis hinzufügen",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Identitätsgedächtnis hinzufügen",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Websuche",
"confirm": "Bestätigen",
"debug.arguments": "Argumente",
"debug.error": "Fehlerprotokoll",
"debug.function_call": "Funktionsaufruf",
"debug.intervention": "Skill-Intervention",
"debug.off": "Debug aus",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Einstellungen gespeichert",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Metadaten",
"dev.title.create": "Benutzerdefinierten Skill hinzufügen",
"dev.title.edit": "Benutzerdefinierten Skill bearbeiten",
"dev.title.create": "Benutzerdefinierte MCP-Fähigkeit hinzufügen",
"dev.title.edit": "Benutzerdefinierte MCP-Fähigkeit bearbeiten",
"dev.title.editCommunity": "Community-Funktion bearbeiten",
"dev.title.skillDetails": "Funktionsdetails",
"dev.title.skillSettings": "Funktionseinstellungen",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud ist ein kostengünstiger GenAI-Cloud-Service auf Basis leistungsstarker Open-Source-Modelle.",
"spark.description": "iFLYTEK Spark bietet leistungsstarke mehrsprachige KI für verschiedene Branchen von Smart Hardware über Gesundheitswesen bis hin zu Finanzen.",
"stepfun.description": "Stepfun-Modelle bieten führende multimodale und komplexe Denkfähigkeiten mit Langkontextverständnis und leistungsstarker autonomer Suchorchestrierung.",
"straico.description": "Straico vereinfacht die Integration von KI, indem es einen einheitlichen Arbeitsbereich bietet, der führende text-, bild- und audiogenerative KI-Modelle zusammenführt. So erhalten Marketer, Unternehmer und Enthusiasten nahtlosen Zugang zu vielfältigen KI-Tools.",
"taichu.description": "Ein multimodales Next-Gen-Modell von CASIA und dem Wuhan Institute of AI unterstützt mehrstufige Q&A, Schreiben, Bildgenerierung, 3D-Verständnis und Signalanalyse mit starker Kognition und Kreativität.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power bietet End-to-End-Wissens-Q&A für Unternehmen und Entwickler mit modularen Diensten wie Dokumentenparsing, Chunking, Embeddings und mehrstufigem Rewriting für individuelle KI-Lösungen.",
"togetherai.description": "Together AI liefert führende Leistung mit innovativen Modellen, breiter Anpassbarkeit, schneller Skalierung und einfacher Bereitstellung für Unternehmensanforderungen.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Agentenprofil",
"agentInfoDescription.value.unset": "Nicht festgelegt",
"agentInfoDescription.value.untitled": "Unbenannter Agent",
"agentSkillDetail.addedAt": "Hinzugefügt",
"agentSkillDetail.publishedAt": "Veröffentlicht",
"agentSkillDetail.repository": "GitHub-Repository",
"agentSkillDetail.skillContent": "Skill-Inhalt",
"agentSkillDetail.sourceUrl": "Skill-Importquelle",
"agentSkillDetail.updatedAt": "Aktualisiert",
"agentSkillEdit.descriptionDesc": "Eine kurze Zusammenfassung dessen, was der Skill macht, um dem Agenten zu helfen, zu verstehen, wann er ihn verwenden soll",
"agentSkillEdit.fileReadonly": "Diese Datei ist schreibgeschützt. Nur die Skill-Beschreibung und Anweisungen können bearbeitet werden.",
"agentSkillEdit.instructions": "Anweisungen",
"agentSkillEdit.instructionsDesc": "Die zentralen Anweisungen in Markdown, die das Verhalten und den Ablauf des Skills definieren",
"agentSkillEdit.instructionsPlaceholder": "Geben Sie die Skill-Anweisungen im Markdown-Format ein...",
"agentSkillEdit.nameDesc": "Die eindeutige Kennung für diesen Skill, nach der Erstellung nicht mehr bearbeitbar",
"agentSkillEdit.saveSuccess": "Skill erfolgreich aktualisiert",
"agentSkillEdit.title": "Skill-Einstellungen",
"agentSkillItem.deleteConfirm.desc": "Sind Sie sicher, dass Sie den Agenten-Skill \"{{name}}\" löschen möchten? Diese Aktion kann nicht rückgängig gemacht werden.",
"agentSkillItem.deleteConfirm.title": "Agenten-Skill löschen",
"agentSkillModal.content": "Skill-Inhalt",
"agentSkillModal.contentPlaceholder": "Geben Sie den Skill-Inhalt im Markdown-Format ein...",
"agentSkillModal.description": "Beschreibung",
"agentSkillModal.descriptionPlaceholder": "Beschreiben Sie diesen Skill kurz",
"agentSkillModal.github.desc": "Importieren Sie Skills direkt aus einem öffentlichen GitHub-Repository.",
"agentSkillModal.github.title": "Aus GitHub importieren",
"agentSkillModal.github.urlPlaceholder": "https://github.com/benutzername/repo",
"agentSkillModal.importError": "Import fehlgeschlagen: {{error}}",
"agentSkillModal.importSuccess": "Agenten-Skill erfolgreich importiert",
"agentSkillModal.upload.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch, um sie zu installieren.",
"agentSkillModal.upload.dragText": "Ziehen und ablegen oder klicken, um hochzuladen",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md enthält Skill-Namen und Beschreibung im YAML-Format",
"agentSkillModal.upload.requirementZip": ".zip- oder .skill-Datei mit SKILL.md im Stammverzeichnis",
"agentSkillModal.upload.requirements": "Dateianforderungen",
"agentSkillModal.upload.title": "Skill hochladen",
"agentSkillModal.upload.uploading": "Wird hochgeladen...",
"agentSkillModal.url.desc": "Importieren Sie einen Skill, indem Sie einen direkten Link zu einer SKILL.md-Datei angeben.",
"agentSkillModal.url.title": "Aus URL importieren",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "Agenten-Skill",
"agentTab.chat": "Chat-Einstellungen",
"agentTab.meta": "Agenteninformationen",
"agentTab.modal": "Modelleinstellungen",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Modell zur Übersetzung",
"systemAgent.translation.title": "Übersetzungsagent",
"tab.about": "Über",
"tab.addAgentSkill": "Agenten-Skill hinzufügen",
"tab.addCustomMcp": "Benutzerdefinierten MCP-Skill hinzufügen",
"tab.addCustomMcp.desc": "Konfigurieren Sie manuell einen benutzerdefinierten MCP-Server",
"tab.addCustomSkill": "Benutzerdefinierten Skill hinzufügen",
"tab.agent": "Agentendienst",
"tab.all": "Alle",
@ -652,7 +691,13 @@
"tab.experiment": "Experiment",
"tab.hotkey": "Tastenkombinationen",
"tab.image": "Bildgenerierungsdienst",
"tab.importFromGithub": "Aus GitHub importieren",
"tab.importFromGithub.desc": "Importieren aus einem öffentlichen GitHub-Repository",
"tab.importFromUrl": "Aus URL importieren",
"tab.importFromUrl.desc": "Importieren über einen direkten Link zu SKILL.md",
"tab.llm": "Sprachmodell",
"tab.manualFill": "Manuell ausfüllen",
"tab.manualFill.desc": "Konfigurieren Sie einen benutzerdefinierten MCP-Skill manuell",
"tab.memory": "Speicher",
"tab.profile": "Mein Konto",
"tab.provider": "KI-Dienstanbieter",
@ -669,6 +714,8 @@
"tab.sync": "Cloud-Synchronisation",
"tab.systemTools": "Systemwerkzeuge",
"tab.tts": "Text-zu-Sprache",
"tab.uploadZip": "Zip hochladen",
"tab.uploadZip.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch",
"tab.usage": "Nutzungsstatistik",
"tools.add": "Fähigkeit hinzufügen",
"tools.builtins.groupName": "Integriert",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Star us on GitHub",
"footer.title": "Like Our Product?",
"fullscreen": "Full Screen Mode",
"geminiImageChineseWarning.content": "Nano Banana may occasionally fail to generate images when using Chinese. It is recommended to use English for better results.",
"geminiImageChineseWarning.continueGenerate": "Continue Generating",
"geminiImageChineseWarning.continueSend": "Continue Sending",
"geminiImageChineseWarning.doNotShowAgain": "Do Not Show Again",
"geminiImageChineseWarning.title": "Chinese Input Notice",
"historyRange": "History Range",
"home.suggestQuestions": "Try these examples",
"import": "Import",

View file

@ -52,7 +52,7 @@
"benchmark.detail.stats.waiting": "Waiting...",
"benchmark.detail.tabs.data": "Data",
"benchmark.detail.tabs.datasets": "Datasets",
"benchmark.detail.tabs.runs": "Evaluations",
"benchmark.detail.tabs.runs": "Runs",
"benchmark.edit.confirm": "Save",
"benchmark.edit.error": "Failed to update benchmark",
"benchmark.edit.success": "Benchmark updated successfully",
@ -103,10 +103,10 @@
"dataset.delete.confirm": "Are you sure you want to delete this dataset? All test cases in it will also be deleted.",
"dataset.delete.error": "Failed to delete dataset",
"dataset.delete.success": "Dataset deleted successfully",
"dataset.detail.addRun": "New Evaluation",
"dataset.detail.addRun": "New Run",
"dataset.detail.backToBenchmark": "Back to Benchmark",
"dataset.detail.caseCount": "{{count}} test case{{count, plural, one {} other {s}}}",
"dataset.detail.relatedRuns": "Related Evaluations ({{count}})",
"dataset.detail.relatedRuns": "Related Runs ({{count}})",
"dataset.detail.testCases": "Test Cases",
"dataset.detail.viewDetail": "View Details",
"dataset.edit.error": "Failed to update dataset",
@ -239,9 +239,9 @@
"run.edit.title": "Edit Evaluation",
"run.empty.description": "Start your first evaluation run on this dataset",
"run.empty.descriptionBenchmark": "Start your first evaluation run on this benchmark",
"run.empty.title": "No evaluations yet",
"run.empty.title": "No runs yet",
"run.filter.active": "Active",
"run.filter.empty": "No evaluations match the current filter.",
"run.filter.empty": "No runs match the current filter.",
"run.idle.hint": "Click Start to begin evaluation",
"run.metrics.avgScore": "Avg Score",
"run.metrics.cost": "Cost",

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Deep Research",
"starter.developing": "Coming soon",
"starter.image": "Image",
"starter.nanoBanana2": "🍌 Nano Banana 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Write"
}

View file

@ -232,7 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "For Gemini series; controls thinking budget.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "For Gemini 3 Flash Preview models; controls thinking depth.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "For Gemini 3 Pro Preview models; controls thinking depth.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "For Gemini 3.1 Pro Preview models; controls thinking depth.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "For Gemini 3.1 Pro Preview models; controls thinking depth with low/medium/high levels.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "For Gemini series; supports providing URL context.",
"providerModels.item.modelConfig.extendParams.placeholder": "Select extended parameters to enable",
"providerModels.item.modelConfig.extendParams.previewFallback": "Preview unavailable",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo delivers strong compute and chat capability with excellent semantic understanding and generation efficiency, ideal for enterprise and developers.",
"360gpt2-o1.description": "360gpt2-o1 builds chain-of-thought via tree search with a reflection mechanism and RL training, enabling self-reflection and self-correction.",
"360gpt2-pro.description": "360GPT2 Pro is an advanced NLP model from 360 with excellent text generation and understanding, especially for creative tasks, handling complex transformations and roleplay.",
"360zhinao2-o1.5.description": "360 Zhinao most powerful reasoning model, featuring the strongest capabilities and supporting both tool calling and advanced reasoning.",
"360zhinao2-o1.description": "360zhinao2-o1 builds chain-of-thought via tree search with a reflection mechanism and RL training, enabling self-reflection and self-correction.",
"360zhinao3-o1.5.description": "360 Zhinao Next-Generation Reasoning Model.",
"4.0Ultra.description": "Spark Ultra is the most powerful model in the Spark series, improving text understanding and summarization while upgrading web search. It is a comprehensive solution for boosting workplace productivity and accurate responses, positioning it as a leading intelligent product.",
"AnimeSharp.description": "AnimeSharp (aka \"4x-AnimeSharp\") is an open-source super-resolution model based on ESRGAN by Kim2091, focused on upscaling and sharpening anime-style images. It was renamed from \"4x-TextSharpV1\" in February 2022, originally also for text images but heavily optimized for anime content.",
"Baichuan2-Turbo.description": "Uses search augmentation to connect the model with domain and web knowledge. Supports PDF/Word uploads and URL inputs for timely, comprehensive retrieval and professional, accurate outputs.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision is a state-of-the-art multimodal model that performs strongly on key language, text, and vision benchmarks. This 8B version focuses on low latency and strong performance.",
"charglm-3.description": "CharGLM-3 is built for roleplay and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue.",
"charglm-4.description": "CharGLM-4 is built for roleplay and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue.",
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.",
"chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time. It combines strong language understanding and generation for large-scale use cases like customer support, education, and technical assistance.",
"claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is an innovative model offering deep language understanding and interaction.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.",
"deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 is a new hybrid reasoning model from DeepSeek, supporting both thinking and non-thinking modes and offering higher thinking efficiency than DeepSeek-R1-0528. Post-training optimizations greatly improve agent tool use and agent-task performance. It supports a 128k context window and up to 64k output tokens.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 is a next-generation reasoning model with improved complex reasoning and chain-of-thought, suited for tasks requiring deep analysis.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduces sparse attention to improve training and inference efficiency on long text, at a lower price than deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "On highly complex tasks, the Speciale model significantly outperforms the standard version, but it consumes considerably more tokens and incurs higher costs. Currently, DeepSeek-V3.2-Speciale is intended for research use only, does not support tool calls, and has not been specifically optimized for everyday conversation or writing tasks.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think is a full deep-thinking model with stronger long-chain reasoning.",
"deepseek-v3.2.description": "DeepSeek-V3.2 is the first hybrid reasoning model from DeepSeek that integrates thinking into tool usage. It uses efficient architecture to save computation, large-scale reinforcement learning to enhance capabilities, and large-scale synthetic task data to strengthen generalization. The combination of these three achieves performance comparable to GPT-5-High, with significantly reduced output length, notably decreasing computational overhead and user wait times.",
"deepseek-v3.description": "DeepSeek-V3 is a powerful MoE model with 671B total parameters and 37B active per token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following. It supports a 128k context window and up to 16k output tokens.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following.",
"doubao-lite-128k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 128k context window.",
"doubao-lite-32k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 32k context window.",
"doubao-lite-4k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 4k context window.",
"doubao-pro-256k.description": "The best-performing flagship model for complex tasks, with strong results in reference QA, summarization, creation, text classification, and roleplay. Supports reasoning and fine-tuning with a 256k context window.",
"doubao-pro-32k.description": "The best-performing flagship model for complex tasks, with strong results in reference QA, summarization, creation, text classification, and roleplay. Supports reasoning and fine-tuning with a 32k context window.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is an ultra-fast multimodal deep-reasoning model with TPOT as low as 10ms. It supports both text and vision, surpasses the previous lite model in text understanding, and matches competing pro models in vision. It supports a 256k context window and up to 16k output tokens.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is a new multimodal deep-reasoning model with adjustable reasoning effort (Minimal, Low, Medium, High), delivering better value and a strong choice for common tasks, with a context window up to 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "The Doubao image model from ByteDance Seed supports text and image inputs with highly controllable, high-quality image generation. It supports text-guided image editing, with output sizes between 512 and 1536 on the long side.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.",
"doubao-vision-lite-32k.description": "Doubao-vision is a multimodal model from Doubao with strong image understanding and reasoning plus accurate instruction following. It performs well on image-text extraction and image-based reasoning tasks, enabling more complex and broader visual QA scenarios.",
"doubao-vision-pro-32k.description": "Doubao-vision is a multimodal model from Doubao with strong image understanding and reasoning plus accurate instruction following. It performs well on image-text extraction and image-based reasoning tasks, enabling more complex and broader visual QA scenarios.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 is ByteDances latest multimodal image model, integrating text-to-image, image-to-image, and batch image generation capabilities, while incorporating commonsense and reasoning abilities. Compared to the previous 4.0 version, it delivers significantly improved generation quality, with better editing consistency and multi-image fusion. It offers more precise control over visual details, producing small text and small faces more naturally, and achieves more harmonious layout and color, enhancing overall aesthetics.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite is ByteDances latest image-generation model. For the first time, it integrates online retrieval capabilities, allowing it to incorporate real-time web information and enhance the timeliness of generated images. The models intelligence has also been upgraded, enabling precise interpretation of complex instructions and visual content. Additionally, it offers improved global knowledge coverage, reference consistency, and generation quality in professional scenarios, better meeting enterprise-level visual creation needs.",
"emohaa.description": "Emohaa is a mental health model with professional counseling abilities to help users understand emotional issues.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is an open-source lightweight model for local and customized deployment.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking is a text MoE (Mixture-of-Experts) post-trained model with a total of 21B parameters and 3B active parameters, offering significantly enhanced reasoning quality and depth.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is an open-source large-parameter model with stronger understanding and generation.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is Baidu ERNIEs ultra-large MoE model with excellent reasoning.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is an 8K context preview model for evaluating ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is a lightweight high-performance model for latency- and cost-sensitive scenarios.",
"ernie-novel-8k.description": "ERNIE Novel 8K is built for long-form novels and IP plots with multi-character narratives.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is a high-concurrency, high-value model for large-scale online services and enterprise apps.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.",
"ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Preview release (September 25th, 2025) of Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite is Googles smallest, best-value model, designed for large-scale use.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview is Googles best-value model with full capabilities.",
"gemini-2.5-flash-preview-09-2025.description": "Preview release (Septempber 25th, 2025) of Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash is Googles best-value model with full capabilities.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Googles most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Pro是 Google 的图像生成模型,同时支持多模态对话。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is Googles most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.",
"gemini-flash-latest.description": "Latest release of Gemini Flash",
"gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite",
"gemini-pro-latest.description": "Latest release of Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.",
"glm-4v-plus.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.",
"glm-4v.description": "GLM-4V provides strong image understanding and reasoning across visual tasks.",
"glm-5.description": "A strong reasoning and agentic model from Z.ai with 744B total parameters (40B active), built for complex systems engineering and long-horizon tasks.",
"glm-5.description": "The GLM series is a hybrid reasoning model from Zhipu AI built for agents, with thinking and non-thinking modes.",
"glm-z1-air.description": "Reasoning model with strong reasoning for tasks that require deep inference.",
"glm-z1-airx.description": "Ultra-fast reasoning with high reasoning quality.",
"glm-z1-flash.description": "GLM-Z1 series provides strong complex reasoning, excelling in logic, math, and programming.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Were excited to release Grok 4 Fast, our latest progress in cost-effective reasoning models.",
"grok-4.description": "Our newest and strongest flagship model, excelling in NLP, math, and reasoning—an ideal all-rounder.",
"grok-code-fast-1.description": "Were excited to launch grok-code-fast-1, a fast and cost-effective reasoning model that excels at agentic coding.",
"grok-imagine-image-pro.description": "Generate images from text prompts, edit existing images with natural language, or iteratively refine images through multi-turn conversations.",
"grok-imagine-image.description": "Generate images from text prompts, edit existing images with natural language, or iteratively refine images through multi-turn conversations.",
"groq/compound-mini.description": "Compound-mini is a composite AI system powered by publicly available models supported on GroqCloud, intelligently and selectively using tools to answer user queries.",
"groq/compound.description": "Compound is a composite AI system powered by multiple publicly available models supported on GroqCloud, intelligently and selectively using tools to answer user queries.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B is a creative, intelligent language model merged from multiple top models.",
"hunyuan-2.0-instruct-20251111.description": "Release Features: The model base has been upgraded from TurboS to **Hunyuan 2.0**, resulting in comprehensive capability improvements. It significantly enhances instruction-following, multi-turn and long-form text understanding, literary creation, knowledge accuracy, coding, and reasoning abilities.",
"hunyuan-2.0-thinking-20251109.description": "Release Features: The model base has been upgraded from TurboS to **Hunyuan 2.0**, resulting in comprehensive capability improvements. It significantly enhances the models ability to follow complex instructions, understand multi-turn and long-form text, handle code, operate as an agent, and perform reasoning tasks.",
"hunyuan-a13b.description": "The first hybrid reasoning model from Hunyuan, upgraded from hunyuan-standard-256K (80B total, 13B active). It defaults to slow thinking and supports fast/slow switching via params or prefixing /no_think. Overall capability is improved over the previous generation, especially in math, science, long-text understanding, and agent tasks.",
"hunyuan-code.description": "Latest code generation model trained with 200B high-quality code and six months of SFT; context expanded to 8K. It ranks top in automated benchmarks for five languages and in human evaluations across ten criteria.",
"hunyuan-functioncall.description": "Latest MoE FunctionCall model trained with high-quality function-call data, featuring a 32K context window and leading benchmark results across dimensions.",
"hunyuan-large-longcontext.description": "Excels at long-document tasks like summarization and QA while also handling general generation. Strong at long-text analysis and generation for complex, detailed content.",
"hunyuan-large-vision.description": "A vision-language model trained from Hunyuan Large for image-text understanding. Supports multi-image + text input at any resolution and improves multilingual visual understanding.",
"hunyuan-large.description": "Hunyuan-large has ~389B total parameters and ~52B activated, the largest and strongest open MoE model in a Transformer architecture.",
"hunyuan-lite-vision.description": "Latest 7B multimodal model with a 32K context window, supporting Chinese/English multimodal chat, object recognition, document table understanding, and multimodal math, outperforming 7B peers on multiple benchmarks.",
"hunyuan-code.description": "Hunyuans latest code model trained on 200B high-quality code data plus six months of SFT data, with 8K context. It ranks near the top in automated code benchmarks and in expert human evaluations across five languages.",
"hunyuan-functioncall.description": "Hunyuans latest MoE FunctionCall model trained on high-quality tool-call data, with a 32K context window and leading benchmarks across dimensions.",
"hunyuan-lite.description": "Upgraded to an MoE architecture with a 256k context window, leading many open models across NLP, code, math, and industry benchmarks.",
"hunyuan-pro.description": "Trillion-parameter MOE-32K long-context model leading benchmarks, strong at complex instructions and reasoning, advanced math, function calling, and optimized for multilingual translation, finance, law, and medical domains.",
"hunyuan-role.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.",
"hunyuan-standard-256K.description": "Uses improved routing to mitigate load balancing and expert collapse. Achieves 99.9% needle-in-a-haystack on long context. MOE-256K further expands context length and quality.",
"hunyuan-standard-vision.description": "Latest multimodal model with multilingual responses and balanced Chinese/English ability.",
"hunyuan-standard.description": "Uses improved routing to mitigate load balancing and expert collapse. Achieves 99.9% needle-in-a-haystack on long context. MOE-32K offers strong value while handling long inputs.",
"hunyuan-t1-20250321.description": "Builds balanced arts and STEM capabilities with strong long-text information capture. Supports reasoning answers for math, logic, science, and code problems across difficulty levels.",
"hunyuan-t1-20250403.description": "Improves project-level code generation and writing quality, strengthens multi-turn topic understanding and ToB instruction following, improves word-level understanding, and reduces mixed simplified/traditional and Chinese/English output issues.",
"hunyuan-t1-20250529.description": "Improves creative writing and composition, strengthens frontend coding, math, and logic reasoning, and enhances instruction following.",
"hunyuan-t1-20250711.description": "Greatly improves hard math, logic, and coding, boosts output stability, and enhances long-text capability.",
"hunyuan-role.description": "Hunyuans latest roleplay model, officially fine-tuned with roleplay data, delivering stronger base performance in roleplay scenarios.",
"hunyuan-standard-256K.description": "Uses improved routing to mitigate load balancing and expert collapse. Long-text \"needle in a haystack\" reaches 99.9%. MOE-256K pushes further in length and quality, greatly expanding input length.",
"hunyuan-standard.description": "Uses improved routing to mitigate load balancing and expert collapse. Long-text \"needle in a haystack\" reaches 99.9%. MOE-32K offers better value while balancing quality and price for long-text inputs.",
"hunyuan-t1-latest.description": "Significantly improves the slow-thinking model on hard math, complex reasoning, difficult coding, instruction following, and creative writing quality.",
"hunyuan-t1-vision-20250619.description": "Latest t1-vision multimodal deep reasoning model with native long chain-of-thought, significantly improved over the previous default version.",
"hunyuan-t1-vision-20250916.description": "Latest t1-vision deep reasoning model with major improvements in VQA, visual grounding, OCR, charts, solving photographed problems, and image-based creation, plus stronger English and low-resource languages.",
"hunyuan-turbo-20241223.description": "This version boosts instruction scaling for better generalization, significantly improves math/code/logic reasoning, enhances word-level understanding, and improves writing quality.",
"hunyuan-turbo-latest.description": "General experience improvements across NLP understanding, writing, chat, QA, translation, and domains; more human-like responses, better clarification on ambiguous intent, improved word parsing, higher creative quality and interactivity, and stronger multi-turn conversations.",
"hunyuan-turbo-vision.description": "Next-generation vision-language flagship using a new MoE architecture, with broad improvements in recognition, content creation, knowledge QA, and analytical reasoning.",
"hunyuan-turbo.description": "Preview of Hunyuans next-gen LLM with a new MoE architecture, delivering faster reasoning and stronger results than hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Unifies math solution style and strengthens multi-turn math QA. Writing style is refined to reduce AI-like tone and add polish.",
"hunyuan-turbos-20250416.description": "Upgraded pretraining base to improve instruction understanding and following; alignment boosts math, code, logic, and science; improves writing quality, comprehension, translation accuracy, and knowledge QA; strengthens agent abilities, especially multi-turn understanding.",
"hunyuan-turbos-20250604.description": "Upgraded pretraining base with improved writing and reading comprehension, significant gains in code and STEM, and better complex instruction following.",
"hunyuan-turbos-20250926.description": "Upgraded pretraining data quality and post-training strategy, improving agents, English/low-resource languages, instruction following, code, and STEM capabilities.",
"hunyuan-turbos-latest.description": "The latest Hunyuan TurboS flagship model with stronger reasoning and a better overall experience.",
"hunyuan-turbos-longtext-128k-20250325.description": "Excels at long-document tasks like summarization and QA while also handling general generation. Strong at long-text analysis and generation for complex, detailed content.",
"hunyuan-turbos-role-plus.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.",
"hunyuan-turbos-vision-20250619.description": "Latest TurboS vision-language flagship with major gains on image-text tasks such as entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
"hunyuan-turbos-vision.description": "A next-gen vision-language flagship based on the latest TurboS, focused on image-text understanding tasks like entity recognition, knowledge QA, copywriting, and photo-based problem solving.",
"hunyuan-vision-1.5-instruct.description": "基于文本 TurboS 基座生产的图生文快思考模型,相比上一版本在图像基础识别、图像分析推理等维度都有明显的效果提升。",
"hunyuan-vision.description": "Latest multimodal model supporting image + text input to generate text.",
"hunyuan-vision-1.5-instruct.description": "A fast-thinking image-to-text model built on the TurboS text base, showing notable improvements over the previous version in fundamental image recognition and image analysis reasoning.",
"hunyuan-vision.description": "Hunyuan latest multimodal model supporting image + text inputs to generate text.",
"image-01-live.description": "An image generation model with fine detail, supporting text-to-image and controllable style presets.",
"image-01.description": "A new image generation model with fine detail, supporting text-to-image and image-to-image.",
"imagen-4.0-fast-generate-001.description": "Imagen 4th generation text-to-image model series Fast version",
"imagen-4.0-generate-001.description": "Imagen 4th generation text-to-image model series",
"imagen-4.0-generate-preview-06-06.description": "Imagen fourth-generation text-to-image model family.",
"imagen-4.0-ultra-generate-001.description": "Imagen 4th generation text-to-image model series Ultra version",
"imagen-4.0-ultra-generate-preview-06-06.description": "Imagen fourth-generation text-to-image Ultra variant.",
"inception/mercury-coder-small.description": "Mercury Coder Small is ideal for code generation, debugging, and refactoring with minimal latency.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 is the third Ling 2.0 architecture model from Ant Groups Bailing team. It is an MoE model with 100B total parameters but only 6.1B active per token (4.8B non-embedding). Despite its lightweight configuration, it matches or exceeds 40B dense models and even larger MoE models on multiple benchmarks, exploring high efficiency through architecture and training strategy.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 is a small, high-performance MoE LLM with 16B total parameters and only 1.4B active per token (789M non-embedding), delivering very fast generation. With efficient MoE design and large high-quality training data, it achieves top-tier performance comparable to dense models under 10B and larger MoE models.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T is inclusionAIs trillion-parameter MoE reasoning model, suited for large-scale reasoning and research tasks.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 is a Ring model variant from inclusionAI for high-throughput scenarios, emphasizing speed and cost efficiency.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 is inclusionAI's high-throughput lightweight MoE model, built for concurrency.",
"intern-latest.description": "By default, it points to our latest released Intern series model, currently set to intern-s1-pro.",
"intern-s1-mini.description": "A lightweight multimodal large model with strong scientific reasoning capabilities.",
"intern-s1-pro.description": "We have launched our most advanced open-source multimodal reasoning model, currently the top-performing open-source multimodal large language model in terms of overall performance.",
"intern-s1.description": "The open-source multimodal reasoning model not only demonstrates strong general-purpose capabilities but also achieves state-of-the-art performance across a wide range of scientific tasks.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat is an open-source chat model based on the InternLM2 architecture. The 7B model focuses on dialogue generation with Chinese/English support, using modern training for fluent, intelligent conversation. It suits many chat scenarios such as customer support and personal assistants.",
"internlm2.5-latest.description": "Legacy models still maintained with excellent, stable performance after many iterations. Available in 7B and 20B sizes, supporting 1M context and stronger instruction following and tool use. Defaults to the latest InternLM2.5 series (currently internlm2.5-20b-chat).",
"internlm3-latest.description": "Our latest model series with excellent reasoning performance, leading open models in its size class. Defaults to the latest InternLM3 series (currently internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO is a multimodal pretrained model for complex image-text reasoning.",
"internvl2.5-latest.description": "InternVL2.5 is still maintained with strong, stable performance. Defaults to the latest InternVL2.5 series (currently internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B is a mid-size multimodal model balancing performance and cost.",
"internvl3-1b.description": "InternVL3 1B is a lightweight multimodal model for resource-constrained deployment.",
"internvl3-38b.description": "InternVL3 38B is a large open-source multimodal model for high-accuracy image-text understanding.",
"internvl3-latest.description": "Our latest multimodal model with stronger image-text understanding and long-sequence image comprehension, comparable to top closed models. Defaults to the latest InternVL series (currently internvl3-78b).",
"internvl3.5-241b-a28b.description": "Our newly released multimodal large model features enhanced image-and-text understanding and long-sequence image comprehension capabilities, achieving performance comparable to leading closed-source models.",
"internvl3.5-latest.description": "By default, it points to the latest model in the InternVL3.5 series, currently set to internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG is an image retrieval-augmented generation model for image search, image-text retrieval, and content generation.",
"jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.",
"jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 is an efficient large language model built specifically for coding and agent workflows.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 is a lightweight, cutting-edge large language model optimized for coding, proxy workflows, and modern application development, providing cleaner, more concise output and faster perceptual response times.",
"minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 is a compact, fast, cost-effective MoE model built for top-tier coding and agent performance.",
"minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.",
"ministral-3b-latest.description": "Ministral 3B is Mistrals top-tier edge model.",
"ministral-8b-latest.description": "Ministral 8B is a highly cost-effective edge model from Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "The kimi-k2-0905-preview model supports a 256k context window, with stronger agentic coding, more polished and practical frontend code, and better context understanding.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo is a high-speed version of Kimi K2 Thinking, significantly lowering latency while retaining deep reasoning.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking is Moonshots reasoning model optimized for deep reasoning tasks, with general agent capabilities.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 is the most intelligent Kimi model to date, featuring native multimodal architecture.",
"moonshotai/kimi-k2.description": "Kimi K2 is a large MoE model from Moonshot AI with 1T total parameters and 32B active per forward pass, optimized for agent capabilities including advanced tool use, reasoning, and code synthesis.",
"morph/morph-v3-fast.description": "Morph provides a specialized model to apply code changes suggested by frontier models (e.g., Claude or GPT-4o) to your existing files at FAST 4500+ tokens/sec. It is the final step in an AI coding workflow and supports 16k input/output tokens.",
"morph/morph-v3-large.description": "Morph provides a specialized model to apply code changes suggested by frontier models (e.g., Claude or GPT-4o) to your existing files at FAST 2500+ tokens/sec. It is the final step in an AI coding workflow and supports 16k input/output tokens.",
"musesteamer-air-image.description": "musesteamer-air-image is an image-generation model developed by Baidus search team to deliver exceptional cost-performance. It can quickly generate clear, action-coherent images based on user prompts, turning user descriptions effortlessly into visuals.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B is an updated Nous Hermes 2 version with the latest internally developed datasets.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B is an NVIDIA-customized LLM to improve helpfulness. It performs strongly on Arena Hard, AlpacaEval 2 LC, and GPT-4-Turbo MT-Bench, ranking #1 on all three auto-alignment benchmarks as of Oct 1, 2024. It is trained from Llama-3.1-70B-Instruct using RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward, and HelpSteer2-Preference prompts.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "A distinctive language model delivering exceptional accuracy and efficiency.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Based on context length, topic, and complexity, your request is routed to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-moderated), or GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini is a preview model optimized for code-related tasks.",
"oswe-vscode-secondary.description": "Raptor mini is a preview model optimized for code-related tasks.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 is a model that strikes a balance between high computational efficiency and excellent reasoning and agent performance.",
"perplexity/sonar-pro.description": "Perplexitys flagship product with search grounding, supporting advanced queries and follow-ups.",
"perplexity/sonar-reasoning-pro.description": "An advanced reasoning-focused model that outputs CoT with enhanced search, including multiple search queries per request.",
"perplexity/sonar-reasoning.description": "A reasoning-focused model that outputs chain-of-thought (CoT) with detailed, search-grounded explanations.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Qwen code model.",
"qwen-coder-turbo.description": "Qwen code model.",
"qwen-flash.description": "Fastest and lowest-cost Qwen model, ideal for simple tasks.",
"qwen-image-edit-max.description": "Qwen Image Editing Model supports multi-image input and multi-image output, enabling precise in-image text editing, object addition, removal, or relocation, subject action modification, image style transfer, and enhanced visual detail.",
"qwen-image-edit-plus.description": "Qwen Image Editing Model supports multi-image input and multi-image output, enabling precise in-image text editing, object addition, removal, or relocation, subject action modification, image style transfer, and enhanced visual detail.",
"qwen-image-edit.description": "Qwen Image Edit is an image-to-image model that edits images based on input images and text prompts, enabling precise adjustments and creative transformations.",
"qwen-image-max.description": "Qwen Image Generation Model (Max series) delivers enhanced realism and visual naturalness compared with the Plus series, effectively reducing AI-generated artifacts, and demonstrating outstanding performance in human appearance, texture details, and text rendering.",
"qwen-image-plus.description": "It supports a wide range of artistic styles and is particularly proficient at rendering complex text within images, enabling integrated imagetext layout design.",
"qwen-image.description": "Qwen-Image is a general image generation model supporting multiple art styles and strong complex text rendering, especially Chinese and English. It supports multi-line layouts, paragraph-level text, and fine detail for complex text-image layouts.",
"qwen-long.description": "Ultra-large Qwen model with long context and chat across long- and multi-document scenarios.",
"qwen-math-plus-latest.description": "Qwen Math is a language model specialized for solving math problems.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Open-source Qwen code model. The latest qwen3-coder-30b-a3b-instruct is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is a flagship code model for multilingual programming and complex code understanding.",
"qwen3-coder-flash.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.",
"qwen3-coder-next.description": "Nextgen Qwen coder optimized for complex multi-file code generation, debugging, and highthroughput agent workflows. Designed for strong tool integration and improved reasoning performance.",
"qwen3-coder-plus.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.",
"qwen3-coder:480b.description": "Alibaba's high-performance long-context model for agent and coding tasks.",
"qwen3-max-2026-01-23.description": "Qwen3 Max models deliver large gains over the 2.5 series in general ability, Chinese/English understanding, complex instruction following, subjective open tasks, multilingual ability, and tool use, with fewer hallucinations. The latest qwen3-max improves agentic programming and tool use over qwen3-max-preview. This release reaches field SOTA and targets more complex agent needs.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is a multimodal chain-of-thought model for detailed visual reasoning.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: lightweight, high-speed reasoning version for latency-sensitive or high-volume requests.",
"qwen3-vl-plus.description": "Qwen VL is a text generation model with vision understanding. It can do OCR and also summarize and reason, such as extracting attributes from product photos or solving problems from images.",
"qwen3.5-397b-a17b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.",
"qwen3.5-plus.description": "Qwen3.5 Plus supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, while delivering better efficiency and lower cost. In terms of multimodal capabilities, it shows significant improvements over the Qwen3 VL series.",
"qwen3.description": "Qwen3 is Alibabas next-generation large language model with strong performance across diverse use cases.",
"qwq-32b-preview.description": "QwQ is an experimental research model from Qwen focused on improved reasoning.",
"qwq-32b.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning that significantly boost downstream performance, especially on complex problems. QwQ-32B is a mid-sized reasoning model that rivals top reasoning models like DeepSeek-R1 and o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQs thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.",
"r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.",
"solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.",
"solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.",
"solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "An advanced search product with search grounding for complex queries and follow-ups.",
"sonar-reasoning.description": "An advanced search product with search grounding for complex queries and follow-ups.",
"sonar.description": "A lightweight search-grounded product, faster and cheaper than Sonar Pro.",
"spark-x.description": "X1.5 updates: (1) adds dynamic thinking mode controlled by the `thinking` field; (2) larger context length with 64K input and 64K output; (3) supports FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 is a model that strikes a balance between high computational efficiency and excellent reasoning and agent performance.",
"spark-x.description": "X2 Capabilities Overview: 1. Introduces dynamic adjustment of reasoning mode, controlled via the `thinking` field. 2. Expanded context length: 64K input tokens and 128K output tokens. 3. Supports Function Call functionality.",
"stable-diffusion-3-medium.description": "The latest text-to-image model from Stability AI. This version significantly improves image quality, text understanding, and style diversity, interpreting complex natural-language prompts more accurately and generating more precise, diverse images.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applies adversarial diffusion distillation (ADD) to stable-diffusion-3.5-large for faster speed.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is an 800M-parameter MMDiT text-to-image model with excellent quality and prompt alignment, supporting 1-megapixel images and efficient runs on consumer hardware.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Supports large-context interactions for complex dialogues.",
"step-2-mini.description": "Built on the next-generation in-house MFA attention architecture, delivering Step-1-like results at much lower cost while achieving higher throughput and faster latency. Handles general tasks with strong coding ability.",
"step-2x-large.description": "A new-generation StepFun image model focused on image generation, producing high-quality images from text prompts. It delivers more realistic texture and stronger Chinese/English text rendering.",
"step-3.5-flash.description": "The flagship language reasoning model from Stepfun. This model delivers top-tier reasoning capabilities along with fast and reliable execution. It can decompose and plan complex tasks, quickly and reliably invoke tools to carry them out, and excel in logical reasoning, mathematics, software engineering, deep research, and other sophisticated tasks. The context length is 256K.",
"step-3.description": "This model has strong visual perception and complex reasoning, accurately handling cross-domain knowledge understanding, math-vision cross analysis, and a wide range of everyday visual analysis tasks.",
"step-r1-v-mini.description": "A reasoning model with strong image understanding that can process images and text, then generate text after deep reasoning. It excels at visual reasoning and delivers top-tier math, coding, and text reasoning, with a 100K context window.",
"stepfun-ai/step3.description": "Step3 is a cutting-edge multimodal reasoning model from StepFun, built on an MoE architecture with 321B total and 38B active parameters. Its end-to-end design minimizes decoding cost while delivering top-tier vision-language reasoning. With MFA and AFD design, it stays efficient on both flagship and low-end accelerators. Pretraining uses 20T+ text tokens and 4T image-text tokens across many languages. It reaches leading open-model performance on math, code, and multimodal benchmarks.",
"taichu_llm.description": "Trained on massive high-quality data, with stronger text understanding, content creation, and conversational QA.",
"taichu_o1.description": "taichu_o1 is a next-gen reasoning model that uses multimodal interaction and reinforcement learning to achieve human-like chain-of-thought, supports complex decision simulation, and exposes reasoning paths while maintaining high-accuracy outputs, suited for strategy analysis and deep thinking.",
"taichu_vl.description": "Combines image understanding, knowledge transfer, and logical attribution, excelling in image-text QA.",
"taichu4_vl_2b_nothinking.description": "The No-Thinking version of the Taichu4.0-VL 2B model features lower memory usage, a lightweight design, fast response speed, and strong multimodal understanding capabilities.",
"taichu4_vl_32b.description": "The Thinking version of the Taichu4.0-VL 32B model is suited for complex multimodal understanding and reasoning tasks, demonstrating outstanding performance in multimodal mathematical reasoning, multimodal agent capabilities, and general image and visual comprehension.",
"taichu4_vl_32b_nothinking.description": "The No-Thinking version of the Taichu4.0-VL 32B model is designed for complex image-and-text understanding and visual knowledge QA scenarios, excelling in image captioning, visual question answering, video comprehension, and visual localization tasks.",
"taichu4_vl_3b.description": "The Thinking version of the Taichu4.0-VL 3B model efficiently performs multimodal understanding and reasoning tasks, with comprehensive upgrades in visual comprehension, visual localization, OCR recognition, and related capabilities.",
"taichu_llm.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.",
"taichu_llm_14b.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.",
"taichu_llm_2b.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.",
"taichu_o1.description": "taichu_o1 is a next-generation reasoning large model that achieves human-like chain-of-thought through multimodal interaction and reinforcement learning. It supports complex decision-making simulations and, while maintaining high-precision output, reveals interpretable reasoning pathways. It is well-suited for strategy analysis, deep thinking, and similar scenarios.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct uses 80B total parameters with 13B active to match larger models. It supports fast/slow hybrid reasoning, stable long-text understanding, and leading agent ability on BFCL-v3 and τ-Bench. GQA and multi-quant formats enable efficient inference.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan Translation Model includes Hunyuan-MT-7B and the ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B is a 7B lightweight translation model supporting 33 languages plus 5 Chinese minority languages. In WMT25 it took 30 first-place results across 31 language pairs. Tencent Hunyuan uses a full training pipeline from pretraining to SFT to translation RL and ensemble RL, achieving leading performance at its size with efficient, easy deployment.",
"text-embedding-3-large.description": "The most capable embedding model for English and non-English tasks.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md is suited for everyday tasks and UI generation.",
"vercel/v0-1.0-md.description": "Access the models behind v0 to generate, fix, and optimize modern web apps with framework-specific reasoning and up-to-date knowledge.",
"vercel/v0-1.5-md.description": "Access the models behind v0 to generate, fix, and optimize modern web apps with framework-specific reasoning and up-to-date knowledge.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code 面向企业级编程需求优化,在 Seed 2.0 优秀的 Agent、VLM 能力基础上,特别增强了代码能力,不仅前端能力表现出众,也对企业常见的多语言编码需求做了特别优化,适合接入各种 AI 编程工具使用。",
"volcengine/doubao-seed-2-0-lite.description": "兼顾生成质量与响应速度,适合作为通用生产级模型",
"volcengine/doubao-seed-2-0-mini.description": "指向 doubao-seed-2-0-mini 最新版",
"volcengine/doubao-seed-2-0-pro.description": "指向 doubao-seed-2-0-pro 最新版",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code is ByteDance Volcano Engines LLM optimized for agentic programming, performing strongly on programming and agent benchmarks with 256K context support.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed is the latest model with upgrades in creativity, stability, and realism, delivering fast generation and high value.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro is the latest model with upgrades in creativity, stability, and realism, producing richer details.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash is the latest model with upgrades in creativity, stability, and realism, delivering fast generation and high value.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus is the latest model with upgrades in creativity, stability, and realism, producing richer details.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview supports single-image editing and multi-image fusion.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I supports flexible selection of image dimensions within total pixel area and aspect ratio constraints.",
"wan2.6-image.description": "Wanxiang 2.6 Image supports image editing and mixed imagetext layout output.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I supports flexible selection of image dimensions within total pixel area and aspect ratio constraints (same as Wanxiang 2.5).",
"wanx-v1.description": "Base text-to-image model. Corresponds to Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Excels at textured portraits with moderate speed and lower cost. Corresponds to Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Fully upgraded version with richer image details and slightly slower speed. Corresponds to Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast is xAIs high-throughput, low-cost model (supports a 2M context window), ideal for high-concurrency and long-context use cases.",
"x-ai/grok-4.description": "Grok 4 is xAI's flagship reasoning model with strong reasoning and multimodal capability.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 is xAI's fast code model with readable, engineering-friendly output.",
"x1.description": "X1.5 updates: (1) adds dynamic thinking mode controlled by the `thinking` field; (2) larger context length with 64K input and 64K output; (3) supports FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision excels at visual tasks, delivering SOTA performance on visual math reasoning (MathVista) and document QA (DocVQA). It handles documents, charts, graphs, screenshots, and photos.",
"xai/grok-2.description": "Grok 2 is a frontier model with state-of-the-art reasoning, strong chat, coding, and reasoning performance, and ranks above Claude 3.5 Sonnet and GPT-4 Turbo on LMSYS.",
"xai/grok-3-fast.description": "xAIs flagship model excels in enterprise use cases like data extraction, coding, and summarization, with deep domain knowledge in finance, healthcare, law, and science. The fast variant runs on quicker infrastructure for much faster responses at higher per-token cost.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AIs flagship model with hybrid reasoning optimized for engineering and long-context tasks.",
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's flagship model with extended context length and coding capability.",
"z-ai/glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, offering improved general capabilities, simpler and more natural replies, and a more immersive writing experience.",
"z-ai/glm5.description": "A strong reasoning and agentic model from Z.ai with 744B total parameters (40B active), built for complex systems engineering and long-horizon tasks.",
"z-ai/glm4.7.description": "GLM-4.7 is Zhipu latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities.",
"z-ai/glm5.description": "GLM-5 is Zhipu AI's new flagship foundation model for agent engineering, achieving open-source SOTA performance in coding and agent capabilities. It matches Claude Opus 4.5 in performance.",
"z-image-turbo.description": "Z-Image is a lightweight text-to-image generation model that can rapidly produce images, supports both Chinese and English text rendering, and flexibly adapts to multiple resolutions and aspect ratios.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is a base model for agent applications using a Mixture-of-Experts architecture. It is optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
"zai-org/GLM-4.5.description": "GLM-4.5 is a base model built for agent applications using a Mixture-of-Experts architecture. It is deeply optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.",
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AIs latest VLM, built on the GLM-4.5-Air flagship text model (106B total, 12B active) with an MoE architecture for strong performance at lower cost. It follows the GLM-4.1V-Thinking path and adds 3D-RoPE to improve 3D spatial reasoning. Optimized through pretraining, SFT, and RL, it handles images, video, and long documents and ranks top among open models on 41 public multimodal benchmarks. A Thinking mode toggle lets users balance speed and depth.",

View file

@ -202,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Web Search",
"confirm": "Confirm",
"debug.arguments": "Arguments",
"debug.error": "Error log",
"debug.function_call": "Function call",
"debug.intervention": "Skill intervention",
"debug.off": "Debug off",
@ -334,8 +335,8 @@
"dev.saveSuccess": "Settings saved",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Meta info",
"dev.title.create": "Add Custom Skill",
"dev.title.edit": "Edit Custom Skill",
"dev.title.create": "Add Custom MCP Skill",
"dev.title.edit": "Edit Custom MCP Skill",
"dev.title.editCommunity": "Edit Community Skill",
"dev.title.skillDetails": "Skill Details",
"dev.title.skillSettings": "Skill Settings",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Danos una estrella en GitHub",
"footer.title": "¿Te gusta nuestro producto?",
"fullscreen": "Modo de pantalla completa",
"geminiImageChineseWarning.content": "Nano Banana puede fallar ocasionalmente al generar imágenes cuando se usa chino. Se recomienda usar inglés para mejores resultados.",
"geminiImageChineseWarning.continueGenerate": "Continuar generando",
"geminiImageChineseWarning.continueSend": "Continuar enviando",
"geminiImageChineseWarning.doNotShowAgain": "No mostrar de nuevo",
"geminiImageChineseWarning.title": "Aviso sobre entrada en chino",
"historyRange": "Rango de historial",
"home.suggestQuestions": "Prueba con estos ejemplos",
"import": "Importar",
@ -397,6 +392,7 @@
"tab.chat": "Chat",
"tab.community": "Comunidad",
"tab.discover": "Descubrir",
"tab.eval": "Laboratorio de Evaluación",
"tab.files": "Archivos",
"tab.home": "Inicio",
"tab.knowledgeBase": "Biblioteca",

316
locales/es-ES/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Eliminar Benchmark",
"benchmark.actions.delete.confirm": "¿Estás seguro de que deseas eliminar este benchmark? Los conjuntos de datos relacionados y los registros de evaluación también se eliminarán.",
"benchmark.actions.edit": "Editar Benchmark",
"benchmark.actions.export": "Exportar",
"benchmark.card.bestScore": "Mejor",
"benchmark.card.caseCount": "{{count}} casos",
"benchmark.card.datasetCount": "{{count}} conjuntos de datos",
"benchmark.card.empty": "Aún no hay evaluaciones",
"benchmark.card.emptyHint": "Crea una nueva evaluación desde la página de detalles del benchmark",
"benchmark.card.importDataset": "Importar Conjunto de Datos",
"benchmark.card.noDataset": "Aún no hay conjuntos de datos",
"benchmark.card.noDatasetHint": "Importa un conjunto de datos para comenzar a evaluar",
"benchmark.card.noRecentRuns": "No hay evaluaciones recientes para mostrar",
"benchmark.card.recentRuns": "Evaluaciones Recientes",
"benchmark.card.runCount": "{{count}} evaluaciones",
"benchmark.card.startFirst": "Iniciar Primera Evaluación",
"benchmark.card.viewAll": "Ver todos {{count}}",
"benchmark.create.confirm": "Crear",
"benchmark.create.description.label": "Descripción",
"benchmark.create.description.placeholder": "Descripción del benchmark (opcional)",
"benchmark.create.error": "Error al crear el benchmark",
"benchmark.create.identifier.label": "Identificador",
"benchmark.create.identifier.placeholder": "identificador-del-benchmark",
"benchmark.create.identifierRequired": "Por favor, ingresa un identificador",
"benchmark.create.name.label": "Nombre",
"benchmark.create.name.placeholder": "Ingresa el nombre del benchmark",
"benchmark.create.nameRequired": "Por favor, ingresa un nombre para el benchmark",
"benchmark.create.success": "Benchmark creado exitosamente",
"benchmark.create.tags.label": "Etiquetas",
"benchmark.create.tags.placeholder": "Agrega etiquetas, separadas por comas o espacios",
"benchmark.create.title": "Crear Benchmark",
"benchmark.detail.backToOverview": "Volver al Resumen",
"benchmark.detail.datasetCount": "{{count}} conjunto{{count, plural, one {} other {s}}} de datos en este benchmark",
"benchmark.detail.runCount": "{{count}} ejecución{{count, plural, one {} other {es}}} de evaluación en este benchmark",
"benchmark.detail.stats.addFirstDataset": "Haz clic para agregar el primer conjunto de datos",
"benchmark.detail.stats.avgCost": "Costo Promedio",
"benchmark.detail.stats.avgDuration": "Duración Promedio",
"benchmark.detail.stats.basedOnLastNRuns": "Basado en las últimas {{count}} ejecuciones",
"benchmark.detail.stats.bestPerformance": "Mejor rendimiento por {{agent}} con {{passRate}}% de tasa de éxito",
"benchmark.detail.stats.bestScore": "Mejor Puntaje",
"benchmark.detail.stats.cases": "Casos",
"benchmark.detail.stats.dataScale": "Escala de Datos",
"benchmark.detail.stats.datasets": "Conjuntos de Datos",
"benchmark.detail.stats.needSetup": "Configuración Requerida",
"benchmark.detail.stats.noEvalRecord": "Aún no hay registros de evaluación",
"benchmark.detail.stats.perRun": "/ Ejecución",
"benchmark.detail.stats.runs": "Ejecuciones",
"benchmark.detail.stats.tags": "Etiquetas",
"benchmark.detail.stats.topAgents": "Mejores Agentes",
"benchmark.detail.stats.totalCases": "Total de Casos",
"benchmark.detail.stats.waiting": "Esperando...",
"benchmark.detail.tabs.data": "Datos",
"benchmark.detail.tabs.datasets": "Conjuntos de Datos",
"benchmark.detail.tabs.runs": "Ejecuciones",
"benchmark.edit.confirm": "Guardar",
"benchmark.edit.error": "Error al actualizar el benchmark",
"benchmark.edit.success": "Benchmark actualizado exitosamente",
"benchmark.edit.title": "Editar Benchmark",
"benchmark.empty": "Aún no hay benchmarks. Crea uno para comenzar.",
"caseDetail.actual": "Salida Real",
"caseDetail.chatArea.title": "Conversación",
"caseDetail.completionReason": "Estado",
"caseDetail.cost": "Costo",
"caseDetail.difficulty": "Dificultad",
"caseDetail.duration": "Duración",
"caseDetail.expected": "Salida Esperada",
"caseDetail.failureReason": "Razón del Fallo",
"caseDetail.input": "Entrada",
"caseDetail.judgeComment": "Comentario del Juez",
"caseDetail.resources": "Recursos",
"caseDetail.score": "Puntaje",
"caseDetail.section.runtime": "Tiempo de Ejecución",
"caseDetail.section.scoring": "Detalles de Puntuación",
"caseDetail.section.testCase": "Caso de Prueba",
"caseDetail.steps": "Pasos",
"caseDetail.threads.attempt": "Trayectoria #{{number}}",
"caseDetail.tokens": "Uso de Tokens",
"common.cancel": "Cancelar",
"common.create": "Crear",
"common.delete": "Eliminar",
"common.edit": "Editar",
"common.later": "Más tarde",
"common.next": "Siguiente",
"common.update": "Actualizar",
"dataset.actions.addDataset": "Agregar Conjunto de Datos",
"dataset.actions.import": "Importar Datos",
"dataset.actions.importDataset": "Importar Conjunto de Datos",
"dataset.create.description.label": "Descripción",
"dataset.create.description.placeholder": "Descripción del conjunto de datos (opcional)",
"dataset.create.error": "Error al crear el conjunto de datos",
"dataset.create.identifier.label": "Identificador",
"dataset.create.identifier.placeholder": "identificador-del-conjunto-de-datos",
"dataset.create.identifierRequired": "Por favor, ingresa un identificador",
"dataset.create.importNow": "¿Te gustaría importar datos ahora?",
"dataset.create.name.label": "Nombre del Conjunto de Datos",
"dataset.create.name.placeholder": "Ingresa el nombre del conjunto de datos",
"dataset.create.nameRequired": "Por favor, ingresa un nombre para el conjunto de datos",
"dataset.create.preset.label": "Preajuste del Conjunto de Datos",
"dataset.create.success": "Conjunto de datos creado exitosamente",
"dataset.create.successTitle": "Conjunto de Datos Creado",
"dataset.create.title": "Crear Conjunto de Datos",
"dataset.delete.confirm": "¿Estás seguro de que deseas eliminar este conjunto de datos? Todos los casos de prueba en él también se eliminarán.",
"dataset.delete.error": "Error al eliminar el conjunto de datos",
"dataset.delete.success": "Conjunto de datos eliminado exitosamente",
"dataset.detail.addRun": "Nueva Ejecución",
"dataset.detail.backToBenchmark": "Volver al Benchmark",
"dataset.detail.caseCount": "{{count}} caso{{count, plural, one {} other {s}}} de prueba",
"dataset.detail.relatedRuns": "Ejecuciones Relacionadas ({{count}})",
"dataset.detail.testCases": "Casos de Prueba",
"dataset.detail.viewDetail": "Ver Detalles",
"dataset.edit.error": "Error al actualizar el conjunto de datos",
"dataset.edit.success": "Conjunto de datos actualizado exitosamente",
"dataset.edit.title": "Editar Conjunto de Datos",
"dataset.empty": "No hay conjuntos de datos",
"dataset.empty.description": "Importa un conjunto de datos para comenzar a construir este benchmark",
"dataset.empty.title": "Aún no hay conjuntos de datos",
"dataset.evalMode.hint": "Modo de evaluación predeterminado para el conjunto de datos, puede ser sobrescrito a nivel de caso de prueba",
"dataset.import.category": "Categoría",
"dataset.import.categoryDesc": "Etiqueta de clasificación para agrupación",
"dataset.import.choices": "Opciones",
"dataset.import.choicesDesc": "Opciones de selección múltiple",
"dataset.import.confirm": "Importar",
"dataset.import.error": "Error al importar el conjunto de datos",
"dataset.import.expected": "Respuesta Esperada",
"dataset.import.expectedDelimiter": "Delimitador de Respuesta",
"dataset.import.expectedDelimiter.desc": "Delimitador de respuesta",
"dataset.import.expectedDelimiter.placeholder": "por ejemplo, | o ,",
"dataset.import.expectedDesc": "Respuesta correcta para comparar",
"dataset.import.fieldMapping": "Mapeo de Campos",
"dataset.import.fieldMapping.desc": "La columna \"Entrada\" es obligatoria",
"dataset.import.hideSkipped": "Ocultar columnas omitidas",
"dataset.import.ignore": "Omitir",
"dataset.import.ignoreDesc": "No importar esta columna",
"dataset.import.input": "Entrada",
"dataset.import.inputDesc": "Pregunta o indicación enviada al modelo",
"dataset.import.metadata": "Metadatos",
"dataset.import.metadataDesc": "Información adicional, almacenada tal cual",
"dataset.import.next": "Siguiente",
"dataset.import.parseError": "Error al analizar el archivo",
"dataset.import.parsing": "Analizando archivo...",
"dataset.import.prev": "Anterior",
"dataset.import.preview": "Vista Previa de Datos",
"dataset.import.preview.desc": "Confirma que el mapeo es correcto, luego importa.",
"dataset.import.preview.rows": "{{count}} filas en total",
"dataset.import.sortOrder": "Número de Ítem",
"dataset.import.sortOrderDesc": "ID de pregunta/ítem para referencia",
"dataset.import.step.mapping": "Mapear Campos",
"dataset.import.step.preview": "Vista Previa",
"dataset.import.step.upload": "Subir Archivo",
"dataset.import.success": "Importados exitosamente {{count}} casos de prueba",
"dataset.import.title": "Importar Conjunto de Datos",
"dataset.import.upload.hint": "Soporta CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Haz clic o arrastra el archivo aquí para subirlo",
"dataset.import.uploading": "Subiendo...",
"dataset.switchDataset": "Cambiar Conjunto de Datos",
"difficulty.easy": "Fácil",
"difficulty.hard": "Difícil",
"difficulty.medium": "Medio",
"evalMode.contains": "Coincidencia Contenida",
"evalMode.contains.desc": "La salida debe contener el texto esperado",
"evalMode.equals": "Coincidencia Exacta",
"evalMode.equals.desc": "La salida debe ser exactamente igual a la esperada",
"evalMode.label": "Modo de Evaluación",
"evalMode.llm-rubric": "Juez LLM",
"evalMode.llm-rubric.desc": "Usar LLM para evaluar la calidad de la salida",
"evalMode.placeholder": "Selecciona el modo de evaluación",
"evalMode.prompt.label": "Indicación del Juez",
"evalMode.prompt.placeholder": "Ingresa los criterios de evaluación o la indicación para el juez LLM",
"evalMode.rubric": "Evaluación por Rubrica",
"evalMode.rubric.desc": "Evaluar la salida usando rúbricas del benchmark con criterios ponderados",
"overview.createBenchmark": "Crear Benchmark",
"overview.importDataset": "Importar Conjunto de Datos",
"overview.subtitle": "Evalúa y compara tus agentes de IA en diferentes conjuntos de datos",
"overview.title": "Laboratorio de Evaluación",
"run.actions.abort": "Abortar",
"run.actions.abort.confirm": "¿Estás seguro de que deseas abortar esta evaluación?",
"run.actions.create": "Nueva Evaluación",
"run.actions.delete": "Eliminar",
"run.actions.delete.confirm": "¿Estás seguro de que deseas eliminar esta evaluación?",
"run.actions.edit": "Editar",
"run.actions.retryCase": "Reintentar",
"run.actions.retryErrors": "Reintentar Errores",
"run.actions.retryErrors.confirm": "Esto volverá a ejecutar todos los casos de error y tiempo de espera. Los casos aprobados y fallidos no se verán afectados.",
"run.actions.run": "Ejecutar",
"run.actions.start": "Iniciar",
"run.actions.start.confirm": "¿Estás seguro de que deseas iniciar esta evaluación?",
"run.chart.duration": "Duración (s)",
"run.chart.error": "Error",
"run.chart.fail": "Fallo",
"run.chart.latencyDistribution": "Distribución de Latencia",
"run.chart.latencyTokenDistribution": "Latencia / Distribución de Tokens",
"run.chart.pass": "Aprobado",
"run.chart.passFailError": "Aprobado / Fallo / Error",
"run.chart.tokens": "Tokens",
"run.config.agentId": "Agente",
"run.config.concurrency": "Concurrencia",
"run.config.judgeModel": "Modelo del Juez",
"run.config.k": "Ejecuciones (K)",
"run.config.k.hint": "Ejecuta cada caso de prueba {{k}} veces para métricas pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Pasos Máximos",
"run.config.maxSteps.hint": "Cada llamada LLM o herramienta por el agente cuenta como 1 paso",
"run.config.model": "Modelo",
"run.config.temperature": "Temperatura",
"run.config.timeout": "Tiempo de Espera",
"run.config.timeout.unit": "min",
"run.create.advanced": "Configuraciones Avanzadas",
"run.create.agent": "Agente",
"run.create.agent.placeholder": "Selecciona un agente",
"run.create.agent.required": "Por favor, selecciona un agente",
"run.create.caseCount": "{{count}} casos",
"run.create.confirm": "Crear e Iniciar",
"run.create.createOnly": "Crear",
"run.create.dataset": "Conjunto de Datos",
"run.create.dataset.placeholder": "Selecciona un conjunto de datos",
"run.create.dataset.required": "Por favor, selecciona un conjunto de datos",
"run.create.name": "Nombre de la Ejecución",
"run.create.name.placeholder": "Ingresa un nombre para esta ejecución",
"run.create.name.required": "Por favor, ingresa un nombre para la ejecución",
"run.create.name.useTimestamp": "Usar la hora actual como nombre",
"run.create.openAgent": "Abrir agente en una nueva ventana",
"run.create.title": "Nueva Evaluación",
"run.create.titleWithDataset": "Nueva Evaluación en \"{{dataset}}\"",
"run.detail.agent": "Agente",
"run.detail.agent.none": "No especificado",
"run.detail.agent.unnamed": "Agente Sin Nombre",
"run.detail.backToBenchmark": "Volver al Benchmark",
"run.detail.caseResults": "Detalles de Evaluación",
"run.detail.config": "Configuración de Evaluación",
"run.detail.configSnapshot": "Instantánea de Configuración",
"run.detail.dataset": "Conjunto de Datos",
"run.detail.model": "Modelo",
"run.detail.overview": "Resumen",
"run.detail.progress": "Progreso",
"run.detail.progressCases": "casos",
"run.detail.report": "Resumen de Evaluación",
"run.edit.error": "Error al actualizar la evaluación",
"run.edit.success": "Evaluación actualizada exitosamente",
"run.edit.title": "Editar Evaluación",
"run.empty.description": "Inicia tu primera ejecución de evaluación en este conjunto de datos",
"run.empty.descriptionBenchmark": "Inicia tu primera ejecución de evaluación en este benchmark",
"run.empty.title": "Aún no hay ejecuciones",
"run.filter.active": "Activo",
"run.filter.empty": "No hay ejecuciones que coincidan con el filtro actual.",
"run.idle.hint": "Haz clic en Iniciar para comenzar la evaluación",
"run.metrics.avgScore": "Puntaje Promedio",
"run.metrics.cost": "Costo",
"run.metrics.duration": "Duración",
"run.metrics.errorCases": "Error",
"run.metrics.evaluated": "{{count}} evaluados",
"run.metrics.passRate": "Tasa de Éxito",
"run.metrics.perCase": "/ caso",
"run.metrics.tokens": "Tokens",
"run.metrics.totalDuration": "Acumulativo",
"run.pending.hint": "La evaluación está en cola, esperando para comenzar...",
"run.running.hint": "La evaluación está en ejecución, los resultados aparecerán en breve...",
"run.status.aborted": "Abortado",
"run.status.completed": "Completado",
"run.status.error": "Error de Ejecución",
"run.status.failed": "Fallido",
"run.status.idle": "Inactivo",
"run.status.pending": "Pendiente",
"run.status.running": "En Ejecución",
"run.status.timeout": "Tiempo de Espera Excedido",
"sidebar.benchmarks": "Benchmarks",
"sidebar.dashboard": "Tablero",
"sidebar.datasets": "Conjuntos de Datos",
"sidebar.runs": "Ejecuciones",
"table.columns.avgCost": "Costo Promedio",
"table.columns.category": "Categoría",
"table.columns.cost": "Costo",
"table.columns.difficulty": "Dificultad",
"table.columns.duration": "Duración",
"table.columns.evalMode": "Modo de Evaluación",
"table.columns.expected": "Respuesta Esperada",
"table.columns.input": "Entrada",
"table.columns.score": "Puntaje",
"table.columns.status": "Estado",
"table.columns.steps": "Pasos",
"table.columns.tags": "Etiquetas",
"table.columns.tokens": "Tokens",
"table.columns.totalCost": "Costo Total",
"table.filter.all": "Todos",
"table.filter.error": "Error de Ejecución",
"table.filter.failed": "Fallido",
"table.filter.passed": "Aprobado",
"table.filter.running": "En Ejecución",
"table.search.placeholder": "Buscar casos...",
"table.total": "Total {{count}}",
"testCase.actions.add": "Agregar Caso de Prueba",
"testCase.actions.import": "Importar Casos de Prueba",
"testCase.create.advanced": "Más Opciones",
"testCase.create.difficulty.label": "Dificultad",
"testCase.create.error": "Error al agregar el caso de prueba",
"testCase.create.expected.label": "Salida Esperada",
"testCase.create.expected.placeholder": "Ingresa la respuesta esperada",
"testCase.create.expected.required": "Por favor, ingresa la salida esperada",
"testCase.create.input.label": "Entrada",
"testCase.create.input.placeholder": "Ingresa la entrada o pregunta del caso de prueba",
"testCase.create.success": "Caso de prueba agregado exitosamente",
"testCase.create.tags.label": "Etiquetas",
"testCase.create.tags.placeholder": "Etiquetas separadas por comas (opcional)",
"testCase.create.title": "Agregar Caso de Prueba",
"testCase.delete.confirm": "¿Estás seguro de que deseas eliminar este caso de prueba?",
"testCase.delete.error": "Error al eliminar el caso de prueba",
"testCase.delete.success": "Caso de prueba eliminado",
"testCase.edit.error": "Error al actualizar el caso de prueba",
"testCase.edit.success": "Caso de prueba actualizado exitosamente",
"testCase.edit.title": "Editar Caso de Prueba",
"testCase.empty.description": "Importa o agrega manualmente casos de prueba a este conjunto de datos",
"testCase.empty.title": "Aún no hay casos de prueba",
"testCase.preview.expected": "Esperado",
"testCase.preview.input": "Entrada",
"testCase.preview.title": "Vista Previa del Caso de Prueba",
"testCase.search.placeholder": "Buscar casos..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Investigación profunda",
"starter.developing": "Próximamente",
"starter.image": "Imagen",
"starter.nanoBanana2": "🍌 Nano Banana 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Escribir"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para la serie Gemini; controla el presupuesto de pensamiento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla la profundidad del pensamiento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla la profundidad del pensamiento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Para los modelos Gemini 3.1 Pro Preview; controla la profundidad de pensamiento con niveles bajo/medio/alto.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para la serie Gemini; permite proporcionar contexto mediante URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Selecciona los parámetros extendidos a habilitar",
"providerModels.item.modelConfig.extendParams.previewFallback": "Vista previa no disponible",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo ofrece gran capacidad de cómputo y conversación con excelente comprensión semántica y eficiencia en generación, ideal para empresas y desarrolladores.",
"360gpt2-o1.description": "360gpt2-o1 construye cadenas de pensamiento mediante búsqueda en árbol con un mecanismo de reflexión y entrenamiento por RL, lo que permite autorreflexión y autocorrección.",
"360gpt2-pro.description": "360GPT2 Pro es un modelo avanzado de PLN de 360 con excelente generación y comprensión de texto, especialmente para tareas creativas, transformaciones complejas y simulación de roles.",
"360zhinao2-o1.5.description": "360 Zhinao, el modelo de razonamiento más poderoso, con las capacidades más avanzadas y soporte tanto para llamadas de herramientas como para razonamientos complejos.",
"360zhinao2-o1.description": "360zhinao2-o1 construye cadenas de pensamiento mediante búsqueda en árbol con un mecanismo de reflexión y entrenamiento por RL, lo que permite autorreflexión y autocorrección.",
"360zhinao3-o1.5.description": "360 Zhinao, modelo de razonamiento de próxima generación.",
"4.0Ultra.description": "Spark Ultra es el modelo más potente de la serie Spark, mejorando la comprensión y resumen de texto, además de optimizar la búsqueda web. Es una solución integral para aumentar la productividad en el trabajo y ofrecer respuestas precisas, posicionándose como un producto inteligente líder.",
"AnimeSharp.description": "AnimeSharp (también conocido como \"4x-AnimeSharp\") es un modelo de superresolución de código abierto basado en ESRGAN desarrollado por Kim2091, enfocado en escalar y mejorar imágenes de estilo anime. Fue renombrado desde \"4x-TextSharpV1\" en febrero de 2022, originalmente también para imágenes de texto, pero optimizado fuertemente para contenido anime.",
"Baichuan2-Turbo.description": "Utiliza aumento por búsqueda para conectar el modelo con conocimiento de dominio y de la web. Admite cargas de archivos PDF/Word e ingreso de URLs para una recuperación oportuna y completa, con resultados profesionales y precisos.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Esta versión de 8 mil millones se enfoca en baja latencia y alto rendimiento.",
"charglm-3.description": "CharGLM-3 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
"charglm-4.description": "CharGLM-4 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.",
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.",
"chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión y generación de lenguaje para casos de uso a gran escala como soporte al cliente, educación y asistencia técnica.",
"claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior modelo insignia Claude 3 Opus en muchos indicadores.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) es un modelo innovador que ofrece una comprensión profunda del lenguaje y una interacción avanzada.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles comparables a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento de DeepSeek, que admite modos de pensamiento y no pensamiento, y ofrece una mayor eficiencia de razonamiento que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas por parte de agentes y el rendimiento en tareas. Admite una ventana de contexto de 128k y hasta 64k tokens de salida.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con mejoras en razonamiento complejo y cadena de pensamiento, ideal para tareas que requieren análisis profundo.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce atención dispersa para mejorar la eficiencia de entrenamiento e inferencia en textos largos, a un precio más bajo que deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "En tareas altamente complejas, el modelo Speciale supera significativamente a la versión estándar, pero consume considerablemente más tokens y genera mayores costos. Actualmente, DeepSeek-V3.2-Speciale está destinado solo para uso en investigación, no admite llamadas de herramientas y no ha sido optimizado específicamente para conversaciones cotidianas o tareas de escritura.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think es un modelo de pensamiento profundo completo con razonamiento de cadenas largas más sólido.",
"deepseek-v3.2.description": "DeepSeek-V3.2 es el primer modelo de razonamiento híbrido de DeepSeek que integra el pensamiento en el uso de herramientas. Utiliza una arquitectura eficiente para ahorrar cómputo, aprendizaje por refuerzo a gran escala para mejorar capacidades y datos sintéticos a gran escala para fortalecer la generalización. La combinación de estos tres elementos logra un rendimiento comparable al GPT-5-High, con una longitud de salida significativamente reducida, disminuyendo notablemente la carga computacional y el tiempo de espera del usuario.",
"deepseek-v3.description": "DeepSeek-V3 es un potente modelo MoE con 671 mil millones de parámetros totales y 37 mil millones activos por token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Admite una ventana de contexto de 128k y hasta 16k tokens de salida.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.",
"doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 128k.",
"doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.",
"doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 4k.",
"doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 256k.",
"doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Admite texto y visión, supera al modelo lite anterior en comprensión de texto y se equipara a modelos pro en visión. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "El modelo de imágenes Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Admite edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.",
"doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
"doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 es el último modelo multimodal de imágenes de ByteDance, que integra capacidades de texto a imagen, imagen a imagen y generación de imágenes por lotes, mientras incorpora sentido común y habilidades de razonamiento. En comparación con la versión 4.0 anterior, ofrece una calidad de generación significativamente mejorada, con mayor consistencia en la edición y fusión de múltiples imágenes. Proporciona un control más preciso sobre los detalles visuales, produciendo texto y rostros pequeños de manera más natural, y logra una disposición y color más armoniosos, mejorando la estética general.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite es el último modelo de generación de imágenes de ByteDance. Por primera vez, integra capacidades de recuperación en línea, permitiendo incorporar información web en tiempo real y mejorar la actualidad de las imágenes generadas. La inteligencia del modelo también ha sido mejorada, permitiendo una interpretación precisa de instrucciones complejas y contenido visual. Además, ofrece una mejor cobertura de conocimiento global, consistencia de referencia y calidad de generación en escenarios profesionales, satisfaciendo mejor las necesidades de creación visual a nivel empresarial.",
"emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender problemas emocionales.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking es un modelo MoE (Mixture-of-Experts) de texto postentrenado con un total de 21 mil millones de parámetros y 3 mil millones de parámetros activos, ofreciendo una calidad y profundidad de razonamiento significativamente mejoradas.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mayor capacidad de comprensión y generación.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente capacidad de razonamiento.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.",
"ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas extensas y tramas de propiedad intelectual con narrativas de múltiples personajes.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y concurrencia para servicios en línea a gran escala y aplicaciones empresariales.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview es un modelo de pensamiento rápido con un contexto de 32K para razonamientos complejos y chats de múltiples turnos.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.",
"ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, permite edición y composición de múltiples imágenes. Ofrece mayor coherencia de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado texto-imagen de alta precisión.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google con capacidades completas.",
"gemini-2.5-flash-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash es el modelo más rentable de Google con capacidades completas.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte para chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte para chat multimodal.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.",
"gemini-flash-latest.description": "Última versión de Gemini Flash",
"gemini-flash-lite-latest.description": "Última versión de Gemini Flash-Lite",
"gemini-pro-latest.description": "Última versión de Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.",
"glm-4v-plus.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.",
"glm-4v.description": "GLM-4V ofrece sólida comprensión y razonamiento visual en tareas visuales.",
"glm-5.description": "Un modelo sólido de razonamiento y agentivo de Z.ai con un total de 744B parámetros (40B activos), diseñado para ingeniería de sistemas complejos y tareas de largo plazo.",
"glm-5.description": "La serie GLM es un modelo de razonamiento híbrido de Zhipu AI diseñado para agentes, con modos de pensamiento y no pensamiento.",
"glm-z1-air.description": "Modelo de razonamiento con gran capacidad de inferencia profunda para tareas complejas.",
"glm-z1-airx.description": "Razonamiento ultrarrápido con alta calidad de inferencia.",
"glm-z1-flash.description": "La serie GLM-Z1 ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.",
"grok-4.description": "Nuestro modelo insignia más nuevo y potente, que destaca en PLN, matemáticas y razonamiento: un todoterreno ideal.",
"grok-code-fast-1.description": "Nos complace lanzar grok-code-fast-1, un modelo de razonamiento rápido y rentable que destaca en codificación agente.",
"grok-imagine-image-pro.description": "Genera imágenes a partir de indicaciones de texto, edita imágenes existentes con lenguaje natural o refina imágenes de manera iterativa a través de conversaciones de múltiples turnos.",
"grok-imagine-image.description": "Genera imágenes a partir de indicaciones de texto, edita imágenes existentes con lenguaje natural o refina imágenes de manera iterativa a través de conversaciones de múltiples turnos.",
"groq/compound-mini.description": "Compound-mini es un sistema de IA compuesto impulsado por modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
"groq/compound.description": "Compound es un sistema de IA compuesto impulsado por múltiples modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B es un modelo de lenguaje creativo e inteligente, resultado de la fusión de varios modelos de alto nivel.",
"hunyuan-2.0-instruct-20251111.description": "Características del lanzamiento: La base del modelo se ha actualizado de TurboS a **Hunyuan 2.0**, lo que resulta en mejoras integrales de capacidad. Mejora significativamente el seguimiento de instrucciones, la comprensión de texto de múltiples turnos y de formato largo, la creación literaria, la precisión del conocimiento, la codificación y las habilidades de razonamiento.",
"hunyuan-2.0-thinking-20251109.description": "Características del lanzamiento: La base del modelo se ha actualizado de TurboS a **Hunyuan 2.0**, lo que resulta en mejoras integrales de capacidad. Mejora significativamente la capacidad del modelo para seguir instrucciones complejas, comprender texto de múltiples turnos y de formato largo, manejar código, operar como agente y realizar tareas de razonamiento.",
"hunyuan-a13b.description": "El primer modelo de razonamiento híbrido de Hunyuan, mejorado a partir del hunyuan-standard-256K (80B en total, 13B activos). Por defecto utiliza pensamiento lento y permite cambiar entre pensamiento rápido/lento mediante parámetros o el prefijo /no_think. Su capacidad general ha mejorado respecto a la generación anterior, especialmente en matemáticas, ciencia, comprensión de textos largos y tareas de agentes.",
"hunyuan-code.description": "Último modelo de generación de código entrenado con 200B de código de alta calidad y seis meses de SFT; contexto ampliado a 8K. Ocupa los primeros puestos en benchmarks automatizados para cinco lenguajes y en evaluaciones humanas según diez criterios.",
"hunyuan-functioncall.description": "Último modelo MoE FunctionCall entrenado con datos de llamadas a funciones de alta calidad, con una ventana de contexto de 32K y resultados líderes en benchmarks en múltiples dimensiones.",
"hunyuan-large-longcontext.description": "Destaca en tareas con documentos largos como resúmenes y preguntas/respuestas, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
"hunyuan-large-vision.description": "Modelo visión-lenguaje entrenado a partir de Hunyuan Large para comprensión imagen-texto. Admite entrada de múltiples imágenes + texto en cualquier resolución y mejora la comprensión visual multilingüe.",
"hunyuan-large.description": "Hunyuan-large cuenta con ~389B de parámetros totales y ~52B activados, siendo el modelo MoE abierto más grande y potente con arquitectura Transformer.",
"hunyuan-lite-vision.description": "Modelo multimodal de 7B más reciente con ventana de contexto de 32K, compatible con chat multimodal en chino/inglés, reconocimiento de objetos, comprensión de tablas en documentos y matemáticas multimodales, superando a sus pares de 7B en múltiples benchmarks.",
"hunyuan-code.description": "El último modelo de código de Hunyuan entrenado con 200 mil millones de datos de código de alta calidad más seis meses de datos SFT, con un contexto de 8K. Se ubica cerca de la cima en los benchmarks automatizados de código y en evaluaciones humanas expertas en cinco idiomas.",
"hunyuan-functioncall.description": "El último modelo MoE FunctionCall de Hunyuan entrenado con datos de llamadas de herramientas de alta calidad, con una ventana de contexto de 32K y benchmarks líderes en múltiples dimensiones.",
"hunyuan-lite.description": "Actualizado a una arquitectura MoE con ventana de contexto de 256K, liderando muchos modelos abiertos en benchmarks de NLP, código, matemáticas e industria.",
"hunyuan-pro.description": "Modelo MoE de un billón de parámetros con contexto largo de 32K, líder en benchmarks, fuerte en instrucciones complejas y razonamiento, matemáticas avanzadas, llamadas a funciones y optimizado para traducción multilingüe, finanzas, derecho y medicina.",
"hunyuan-role.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
"hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-256K amplía aún más la longitud y calidad del contexto.",
"hunyuan-standard-vision.description": "Último modelo multimodal con respuestas multilingües y capacidad equilibrada en chino/inglés.",
"hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-32K ofrece gran valor al manejar entradas extensas.",
"hunyuan-t1-20250321.description": "Desarrolla capacidades equilibradas en artes y STEM con fuerte captura de información en textos largos. Soporta razonamiento en matemáticas, lógica, ciencia y problemas de código en distintos niveles de dificultad.",
"hunyuan-t1-20250403.description": "Mejora la generación de código a nivel de proyecto y la calidad de redacción, refuerza la comprensión de temas en múltiples turnos y el seguimiento de instrucciones ToB, mejora la comprensión a nivel de palabra y reduce problemas de mezcla entre chino simplificado/tradicional e inglés.",
"hunyuan-t1-20250529.description": "Mejora la escritura creativa y la composición, refuerza la codificación frontend, el razonamiento matemático y lógico, y mejora el seguimiento de instrucciones.",
"hunyuan-t1-20250711.description": "Mejora significativamente en matemáticas complejas, lógica y codificación, aumenta la estabilidad de salida y mejora la capacidad en textos largos.",
"hunyuan-role.description": "El último modelo de rol de Hunyuan, ajustado oficialmente con datos de rol, ofreciendo un rendimiento base más sólido en escenarios de rol.",
"hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el balanceo de carga y el colapso de expertos. El texto largo \"aguja en un pajar\" alcanza el 99.9%. MOE-256K avanza aún más en longitud y calidad, ampliando enormemente la longitud de entrada.",
"hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el balanceo de carga y el colapso de expertos. El texto largo \"aguja en un pajar\" alcanza el 99.9%. MOE-32K ofrece mejor valor mientras equilibra calidad y precio para entradas de texto largo.",
"hunyuan-t1-latest.description": "Mejora significativamente el modelo de pensamiento lento en matemáticas complejas, razonamiento avanzado, codificación difícil, seguimiento de instrucciones y calidad de escritura creativa.",
"hunyuan-t1-vision-20250619.description": "Último modelo multimodal de razonamiento profundo t1-vision con cadena de pensamiento nativa larga, significativamente mejorado respecto a la versión predeterminada anterior.",
"hunyuan-t1-vision-20250916.description": "Último modelo de razonamiento profundo t1-vision con grandes mejoras en VQA, anclaje visual, OCR, gráficos, resolución de problemas fotografiados y creación basada en imágenes, además de mayor rendimiento en inglés y lenguas de bajos recursos.",
"hunyuan-turbo-20241223.description": "Esta versión mejora la escalabilidad de instrucciones para una mejor generalización, mejora significativamente el razonamiento en matemáticas/código/lógica, refuerza la comprensión a nivel de palabra y mejora la calidad de redacción.",
"hunyuan-turbo-latest.description": "Mejoras generales en la experiencia en comprensión de NLP, redacción, chat, QA, traducción y dominios; respuestas más humanas, mejor aclaración de intenciones ambiguas, mejor análisis de palabras, mayor calidad creativa e interactividad, y conversaciones de múltiples turnos más sólidas.",
"hunyuan-turbo-vision.description": "Modelo insignia visión-lenguaje de próxima generación con nueva arquitectura MoE, con amplias mejoras en reconocimiento, creación de contenido, QA de conocimiento y razonamiento analítico.",
"hunyuan-turbo.description": "Vista previa del LLM de próxima generación de Hunyuan con nueva arquitectura MoE, que ofrece razonamiento más rápido y mejores resultados que hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Unifica el estilo de solución matemática y refuerza el QA matemático en múltiples turnos. El estilo de redacción se refina para reducir el tono artificial y añadir elegancia.",
"hunyuan-turbos-20250416.description": "Base de preentrenamiento mejorada para mejorar la comprensión y seguimiento de instrucciones; la alineación mejora matemáticas, código, lógica y ciencia; mejora la calidad de redacción, comprensión, precisión de traducción y QA de conocimiento; refuerza habilidades de agente, especialmente en comprensión de múltiples turnos.",
"hunyuan-turbos-20250604.description": "Base de preentrenamiento mejorada con mejor redacción y comprensión lectora, avances significativos en código y STEM, y mejor seguimiento de instrucciones complejas.",
"hunyuan-turbos-20250926.description": "Mejora en la calidad de datos de preentrenamiento y estrategia de postentrenamiento, mejorando agentes, idiomas de bajos recursos/inglés, seguimiento de instrucciones, código y capacidades STEM.",
"hunyuan-turbos-latest.description": "El último modelo insignia Hunyuan TurboS con razonamiento más sólido y mejor experiencia general.",
"hunyuan-turbos-longtext-128k-20250325.description": "Destaca en tareas con documentos largos como resúmenes y QA, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.",
"hunyuan-turbos-role-plus.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.",
"hunyuan-turbos-vision-20250619.description": "Último modelo insignia visión-lenguaje TurboS con grandes avances en tareas imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
"hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.",
"hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.",
"hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.",
"hunyuan-vision-1.5-instruct.description": "Un modelo rápido de imagen a texto basado en la base de texto TurboS, mostrando mejoras notables sobre la versión anterior en reconocimiento de imágenes fundamental y razonamiento de análisis de imágenes.",
"hunyuan-vision.description": "El último modelo multimodal de Hunyuan que admite entradas de imagen + texto para generar texto.",
"image-01-live.description": "Un modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen y estilos predefinidos controlables.",
"image-01.description": "Un nuevo modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen e imagen a imagen.",
"imagen-4.0-fast-generate-001.description": "Versión rápida de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
"imagen-4.0-generate-001.description": "Serie de modelos de texto a imagen de cuarta generación de Imagen.",
"imagen-4.0-generate-preview-06-06.description": "Familia de modelos de texto a imagen de cuarta generación de Imagen.",
"imagen-4.0-ultra-generate-001.description": "Versión Ultra de la serie de modelos de texto a imagen de cuarta generación de Imagen.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la cuarta generación de modelos de texto a imagen de Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small es ideal para generación de código, depuración y refactorización con latencia mínima.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 es el tercer modelo de arquitectura Ling 2.0 del equipo Bailing de Ant Group. Es un modelo MoE con 100 mil millones de parámetros totales pero solo 6.1 mil millones activos por token (4.8 mil millones sin incluir embeddings). A pesar de su configuración ligera, iguala o supera a modelos densos de 40 mil millones y modelos MoE aún más grandes en múltiples pruebas, explorando alta eficiencia mediante arquitectura y estrategia de entrenamiento.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 es un modelo MoE pequeño y de alto rendimiento con 16 mil millones de parámetros totales y solo 1.4 mil millones activos por token (789 millones sin embeddings), ofreciendo generación muy rápida. Con un diseño MoE eficiente y grandes datos de entrenamiento de alta calidad, logra un rendimiento de primer nivel comparable a modelos densos de menos de 10 mil millones y modelos MoE más grandes.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T es el modelo de razonamiento MoE de un billón de parámetros de inclusionAI, adecuado para tareas de razonamiento a gran escala e investigación.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 es una variante del modelo Ring de inclusionAI para escenarios de alto rendimiento, con énfasis en velocidad y eficiencia de costos.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 es el modelo MoE ligero de alto rendimiento de inclusionAI, diseñado para concurrencia.",
"intern-latest.description": "Por defecto, apunta a nuestro último modelo lanzado de la serie Intern, actualmente configurado en intern-s1-pro.",
"intern-s1-mini.description": "Un modelo multimodal ligero con fuertes capacidades de razonamiento científico.",
"intern-s1-pro.description": "Hemos lanzado nuestro modelo de razonamiento multimodal más avanzado de código abierto, actualmente el modelo de lenguaje multimodal de código abierto con mejor rendimiento general.",
"intern-s1.description": "El modelo de razonamiento multimodal de código abierto no solo demuestra fuertes capacidades de propósito general, sino que también logra un rendimiento de vanguardia en una amplia gama de tareas científicas.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat es un modelo de chat de código abierto basado en la arquitectura InternLM2. El modelo de 7B se enfoca en la generación de diálogos con soporte en chino e inglés, utilizando entrenamiento moderno para conversaciones fluidas e inteligentes. Es adecuado para muchos escenarios de chat como atención al cliente y asistentes personales.",
"internlm2.5-latest.description": "Modelos heredados aún mantenidos con excelente y estable rendimiento tras muchas iteraciones. Disponibles en tamaños de 7B y 20B, con soporte para contexto de 1M y mejor seguimiento de instrucciones y uso de herramientas. Por defecto se usa la última serie InternLM2.5 (actualmente internlm2.5-20b-chat).",
"internlm3-latest.description": "Nuestra última serie de modelos con excelente rendimiento en razonamiento, liderando entre los modelos abiertos de su clase. Por defecto se usa la última serie InternLM3 (actualmente internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO es un modelo multimodal preentrenado para razonamiento complejo imagen-texto.",
"internvl2.5-latest.description": "InternVL2.5 sigue siendo mantenido con un rendimiento fuerte y estable. Por defecto se usa la última serie InternVL2.5 (actualmente internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B es un modelo multimodal de tamaño medio que equilibra rendimiento y costo.",
"internvl3-1b.description": "InternVL3 1B es un modelo multimodal ligero para implementaciones con recursos limitados.",
"internvl3-38b.description": "InternVL3 38B es un modelo multimodal de código abierto de gran tamaño para comprensión imagen-texto de alta precisión.",
"internvl3-latest.description": "Nuestro modelo multimodal más reciente con mejor comprensión imagen-texto y comprensión de imágenes de secuencia larga, comparable a los mejores modelos cerrados. Por defecto se usa la última serie InternVL (actualmente internvl3-78b).",
"internvl3.5-241b-a28b.description": "Nuestro modelo multimodal grande recién lanzado presenta una comprensión mejorada de imagen y texto y capacidades de comprensión de imágenes de secuencia larga, logrando un rendimiento comparable a los modelos cerrados líderes.",
"internvl3.5-latest.description": "Por defecto, apunta al último modelo de la serie InternVL3.5, actualmente configurado en internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG es un modelo de generación aumentada con recuperación de imágenes para búsqueda de imágenes, recuperación imagen-texto y generación de contenido.",
"jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.",
"jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 es un modelo de lenguaje grande eficiente diseñado específicamente para programación y flujos de trabajo de agentes.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 es un modelo de lenguaje grande de última generación y peso ligero, optimizado para programación, flujos de trabajo de agentes y desarrollo moderno de aplicaciones, ofreciendo salidas más limpias, concisas y tiempos de respuesta más rápidos.",
"minimax/minimax-m2.description": "MiniMax-M2 es un modelo de alto valor que sobresale en tareas de codificación y agentes para muchos escenarios de ingeniería.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 es un modelo MoE compacto, rápido y rentable diseñado para un rendimiento de codificación y agentes de primer nivel.",
"minimaxai/minimax-m2.description": "MiniMax-M2 es un modelo MoE compacto, rápido y rentable (230B en total, 10B activos) diseñado para un rendimiento de primer nivel en codificación y agentes, manteniendo una sólida inteligencia general. Destaca en ediciones de múltiples archivos, ciclos de ejecución y corrección de código, validación de pruebas y cadenas de herramientas complejas.",
"ministral-3b-latest.description": "Ministral 3B es el modelo de borde de más alto nivel de Mistral.",
"ministral-8b-latest.description": "Ministral 8B es un modelo de borde altamente rentable de Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "El modelo kimi-k2-0905-preview admite una ventana de contexto de 256k, con programación más autónoma, código frontend más pulido y práctico, y mejor comprensión del contexto.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo es una versión de alta velocidad de Kimi K2 Thinking, que reduce significativamente la latencia sin sacrificar el razonamiento profundo.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking es el modelo de razonamiento de Moonshot optimizado para tareas de razonamiento profundo, con capacidades generales de agente.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 es el modelo Kimi más inteligente hasta la fecha, con arquitectura multimodal nativa.",
"moonshotai/kimi-k2.description": "Kimi K2 es un modelo MoE de gran escala de Moonshot AI con 1T de parámetros totales y 32B activos por paso, optimizado para capacidades de agente como uso avanzado de herramientas, razonamiento y síntesis de código.",
"morph/morph-v3-fast.description": "Morph ofrece un modelo especializado para aplicar cambios de código sugeridos por modelos avanzados (por ejemplo, Claude o GPT-4o) a tus archivos existentes a una velocidad RÁPIDA de más de 4500 tokens/seg. Es el paso final en un flujo de trabajo de codificación con IA y admite 16k tokens de entrada/salida.",
"morph/morph-v3-large.description": "Morph ofrece un modelo especializado para aplicar cambios de código sugeridos por modelos avanzados (por ejemplo, Claude o GPT-4o) a tus archivos existentes a una velocidad RÁPIDA de más de 2500 tokens/seg. Es el paso final en un flujo de trabajo de codificación con IA y admite 16k tokens de entrada/salida.",
"musesteamer-air-image.description": "musesteamer-air-image es un modelo de generación de imágenes desarrollado por el equipo de búsqueda de Baidu para ofrecer un rendimiento excepcional en costo-beneficio. Puede generar rápidamente imágenes claras y coherentes en acción basadas en indicaciones del usuario, convirtiendo descripciones en visuales sin esfuerzo.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B es una versión actualizada de Nous Hermes 2 con los últimos conjuntos de datos desarrollados internamente.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B es un modelo LLM personalizado por NVIDIA para mejorar la utilidad. Tiene un rendimiento destacado en Arena Hard, AlpacaEval 2 LC y GPT-4-Turbo MT-Bench, ocupando el puesto #1 en los tres benchmarks de autoalineación al 1 de octubre de 2024. Está entrenado a partir de Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward y prompts de HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modelo de lenguaje distintivo que ofrece precisión y eficiencia excepcionales.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enruta a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) o GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.",
"oswe-vscode-secondary.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo que equilibra alta eficiencia computacional con un excelente rendimiento en razonamiento y agentes.",
"perplexity/sonar-pro.description": "Producto insignia de Perplexity con búsqueda fundamentada, compatible con consultas avanzadas y seguimientos.",
"perplexity/sonar-reasoning-pro.description": "Modelo avanzado centrado en razonamiento que genera cadenas de pensamiento (CoT) con búsqueda mejorada, incluyendo múltiples consultas por solicitud.",
"perplexity/sonar-reasoning.description": "Modelo centrado en razonamiento que genera cadenas de pensamiento (CoT) con explicaciones detalladas fundamentadas en búsqueda.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Modelo de código Qwen.",
"qwen-coder-turbo.description": "Modelo de código Qwen.",
"qwen-flash.description": "El modelo Qwen más rápido y económico, ideal para tareas simples.",
"qwen-image-edit-max.description": "El modelo de edición de imágenes Qwen admite entrada y salida de múltiples imágenes, permitiendo ediciones precisas de texto en imágenes, adición, eliminación o reubicación de objetos, modificación de acciones de sujetos, transferencia de estilo de imagen y detalles visuales mejorados.",
"qwen-image-edit-plus.description": "El modelo de edición de imágenes Qwen admite entrada y salida de múltiples imágenes, permitiendo ediciones precisas de texto en imágenes, adición, eliminación o reubicación de objetos, modificación de acciones de sujetos, transferencia de estilo de imagen y detalles visuales mejorados.",
"qwen-image-edit.description": "Qwen Image Edit es un modelo de imagen a imagen que edita imágenes basándose en imágenes de entrada y prompts de texto, permitiendo ajustes precisos y transformaciones creativas.",
"qwen-image-max.description": "El modelo de generación de imágenes Qwen (serie Max) ofrece un realismo mejorado y una naturalidad visual superior en comparación con la serie Plus, reduciendo eficazmente los artefactos generados por IA y demostrando un rendimiento sobresaliente en apariencia humana, detalles de textura y renderizado de texto.",
"qwen-image-plus.description": "Admite una amplia gama de estilos artísticos y es particularmente competente en renderizar texto complejo dentro de imágenes, permitiendo un diseño integrado de disposición de imagen y texto.",
"qwen-image.description": "Qwen-Image es un modelo general de generación de imágenes que admite múltiples estilos artísticos y una sólida representación de texto complejo, especialmente en chino e inglés. Soporta diseños de múltiples líneas, texto a nivel de párrafo y detalles finos para composiciones complejas de texto e imagen.",
"qwen-long.description": "Modelo Qwen ultra grande con contexto largo y chat en escenarios de múltiples documentos.",
"qwen-math-plus-latest.description": "Qwen Math es un modelo de lenguaje especializado en resolver problemas matemáticos.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Modelo de código Qwen de código abierto. El último qwen3-coder-30b-a3b-instruct se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct es un modelo de código insignia para programación multilingüe y comprensión de código complejo.",
"qwen3-coder-flash.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.",
"qwen3-coder-next.description": "El próximo generador de código Qwen optimizado para generación de código complejo de múltiples archivos, depuración y flujos de trabajo de agentes de alto rendimiento. Diseñado para una fuerte integración de herramientas y un rendimiento de razonamiento mejorado.",
"qwen3-coder-plus.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.",
"qwen3-coder:480b.description": "Modelo de alto rendimiento de Alibaba para tareas de agente y programación con contexto largo.",
"qwen3-max-2026-01-23.description": "Los modelos Qwen3 Max ofrecen grandes mejoras sobre la serie 2.5 en capacidad general, comprensión del chino/inglés, seguimiento de instrucciones complejas, tareas abiertas subjetivas, capacidad multilingüe y uso de herramientas, con menos alucinaciones. La última versión qwen3-max mejora la programación agente y el uso de herramientas respecto a qwen3-max-preview. Esta versión alcanza el SOTA en su campo y está orientada a necesidades de agentes más complejas.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking es un modelo multimodal de cadena de pensamiento para razonamiento visual detallado.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: versión ligera y de razonamiento rápido para solicitudes sensibles a la latencia o de alto volumen.",
"qwen3-vl-plus.description": "Qwen VL es un modelo de generación de texto con comprensión visual. Puede realizar OCR, resumir y razonar, como extraer atributos de fotos de productos o resolver problemas a partir de imágenes.",
"qwen3.5-397b-a17b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, mientras ofrece mejor eficiencia y menor costo. En términos de capacidades multimodales, muestra mejoras significativas sobre la serie Qwen3 VL.",
"qwen3.description": "Qwen3 es el modelo de lenguaje de próxima generación de Alibaba con alto rendimiento en diversos casos de uso.",
"qwq-32b-preview.description": "QwQ es un modelo experimental de investigación de Qwen centrado en mejorar el razonamiento.",
"qwq-32b.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas complejas. QwQ-32B es un modelo de razonamiento de tamaño medio que rivaliza con los mejores modelos como DeepSeek-R1 y o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.",
"r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance permite generación de video a partir de texto, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con lo visual.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.",
"solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.",
"solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.",
"solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.",
"sonar-reasoning.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.",
"sonar.description": "Un producto ligero con búsqueda fundamentada, más rápido y económico que Sonar Pro.",
"spark-x.description": "Actualizaciones de X1.5: (1) añade modo de pensamiento dinámico controlado por el campo `thinking`; (2) longitud de contexto ampliada con 64K de entrada y 64K de salida; (3) admite FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo que equilibra alta eficiencia computacional con un excelente rendimiento en razonamiento y agentes.",
"spark-x.description": "Resumen de capacidades de X2: 1. Introduce ajuste dinámico del modo de razonamiento, controlado a través del campo `thinking`. 2. Longitud de contexto expandida: 64K tokens de entrada y 128K tokens de salida. 3. Admite funcionalidad de llamada de funciones (Function Call).",
"stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Admite interacciones de gran contexto para diálogos complejos.",
"step-2-mini.description": "Basado en la arquitectura de atención MFA de próxima generación, ofrece resultados similares a Step-1 con menor costo, mayor rendimiento y menor latencia. Maneja tareas generales con gran capacidad de programación.",
"step-2x-large.description": "Modelo de imagen de nueva generación StepFun centrado en la generación de imágenes, produce imágenes de alta calidad a partir de texto. Ofrece texturas más realistas y mejor representación de texto en chino e inglés.",
"step-3.5-flash.description": "El modelo insignia de razonamiento de lenguaje de Stepfun. Este modelo ofrece capacidades de razonamiento de primer nivel junto con una ejecución rápida y confiable. Puede descomponer y planificar tareas complejas, invocar herramientas de manera rápida y confiable para llevarlas a cabo, y sobresalir en razonamiento lógico, matemáticas, ingeniería de software, investigación profunda y otras tareas sofisticadas. La longitud del contexto es de 256K.",
"step-3.description": "Este modelo posee una fuerte percepción visual y razonamiento complejo, manejando con precisión el entendimiento de conocimientos multidominio, análisis matemático-visual y una amplia gama de tareas de análisis visual cotidiano.",
"step-r1-v-mini.description": "Modelo de razonamiento con sólida comprensión de imágenes que puede procesar imágenes y texto, y luego generar texto tras un razonamiento profundo. Destaca en razonamiento visual y ofrece rendimiento de primer nivel en matemáticas, programación y razonamiento textual, con una ventana de contexto de 100K.",
"stepfun-ai/step3.description": "Step3 es un modelo de razonamiento multimodal de vanguardia de StepFun, basado en una arquitectura MoE con 321B parámetros totales y 38B activos. Su diseño de extremo a extremo minimiza el costo de decodificación mientras ofrece razonamiento visión-lenguaje de primer nivel. Con diseño MFA y AFD, es eficiente tanto en aceleradores de gama alta como baja. Su preentrenamiento incluye más de 20T de tokens de texto y 4T de tokens imagen-texto en múltiples idiomas. Alcanza un rendimiento líder entre modelos abiertos en matemáticas, código y benchmarks multimodales.",
"taichu_llm.description": "Entrenado con datos masivos de alta calidad, con mejor comprensión de texto, creación de contenido y preguntas y respuestas conversacionales.",
"taichu_o1.description": "taichu_o1 es un modelo de razonamiento de nueva generación que utiliza interacción multimodal y aprendizaje por refuerzo para lograr un pensamiento en cadena similar al humano, admite simulación de decisiones complejas y expone rutas de razonamiento manteniendo alta precisión, ideal para análisis estratégico y pensamiento profundo.",
"taichu_vl.description": "Combina comprensión de imágenes, transferencia de conocimiento y atribución lógica, destacando en preguntas y respuestas imagen-texto.",
"taichu4_vl_2b_nothinking.description": "La versión sin pensamiento del modelo Taichu4.0-VL 2B presenta un menor uso de memoria, un diseño ligero, velocidad de respuesta rápida y fuertes capacidades de comprensión multimodal.",
"taichu4_vl_32b.description": "La versión con pensamiento del modelo Taichu4.0-VL 32B es adecuada para tareas complejas de comprensión y razonamiento multimodal, demostrando un rendimiento sobresaliente en razonamiento matemático multimodal, capacidades de agente multimodal y comprensión general de imágenes y visuales.",
"taichu4_vl_32b_nothinking.description": "La versión sin pensamiento del modelo Taichu4.0-VL 32B está diseñada para escenarios complejos de comprensión de imagen y texto y preguntas y respuestas de conocimiento visual, destacándose en subtitulado de imágenes, preguntas y respuestas visuales, comprensión de videos y tareas de localización visual.",
"taichu4_vl_3b.description": "La versión con pensamiento del modelo Taichu4.0-VL 3B realiza eficientemente tareas de comprensión y razonamiento multimodal, con mejoras integrales en comprensión visual, localización visual, reconocimiento OCR y capacidades relacionadas.",
"taichu_llm.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.",
"taichu_llm_14b.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.",
"taichu_llm_2b.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.",
"taichu_o1.description": "taichu_o1 es un modelo de razonamiento de próxima generación que logra cadenas de pensamiento similares a las humanas a través de interacción multimodal y aprendizaje por refuerzo. Admite simulaciones de toma de decisiones complejas y, mientras mantiene una salida de alta precisión, revela vías de razonamiento interpretables. Es adecuado para análisis estratégico, pensamiento profundo y escenarios similares.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B parámetros totales con 13B activos para igualar modelos más grandes. Admite razonamiento híbrido rápido/lento, comprensión estable de textos largos y capacidad líder de agentes en BFCL-v3 y τ-Bench. GQA y formatos multi-cuánticos permiten inferencia eficiente.",
"tencent/Hunyuan-MT-7B.description": "El modelo de traducción Hunyuan incluye Hunyuan-MT-7B y el conjunto Hunyuan-MT-Chimera. Hunyuan-MT-7B es un modelo ligero de 7B que admite 33 idiomas y 5 lenguas minoritarias chinas. En WMT25 obtuvo 30 primeros lugares en 31 pares de idiomas. Tencent Hunyuan utiliza una canalización completa de entrenamiento desde preentrenamiento hasta SFT, RL de traducción y RL en conjunto, logrando un rendimiento líder en su tamaño con implementación eficiente y sencilla.",
"text-embedding-3-large.description": "El modelo de embedding más potente para tareas en inglés y otros idiomas.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md es adecuado para tareas cotidianas y generación de interfaces de usuario.",
"vercel/v0-1.0-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.",
"vercel/v0-1.5-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code está optimizado para necesidades de programación a nivel empresarial, basado en las excelentes capacidades de agente y VLM de Seed 2.0, con un refuerzo especial en habilidades de codificación. No solo destaca en capacidades de front-end, sino que también está especialmente optimizado para los requisitos de codificación multilingüe comunes en empresas, siendo adecuado para integrarse en diversas herramientas de programación con IA.",
"volcengine/doubao-seed-2-0-lite.description": "Equilibra calidad de generación y velocidad de respuesta, adecuado como modelo de producción general.",
"volcengine/doubao-seed-2-0-mini.description": "Apunta a la última versión de doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Apunta a la última versión de doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code es el modelo LLM de ByteDance Volcano Engine optimizado para programación agente, con un sólido rendimiento en benchmarks de programación y agentes, y soporte de contexto de 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, ofreciendo generación rápida y alto valor.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, produciendo detalles más ricos.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash es el último modelo con mejoras en creatividad, estabilidad y realismo, ofreciendo generación rápida y de alto valor.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus es el último modelo con mejoras en creatividad, estabilidad y realismo, produciendo detalles más ricos.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview admite edición de imágenes individuales y fusión de múltiples imágenes.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I admite selección flexible de dimensiones de imagen dentro de las restricciones de área total de píxeles y proporciones de aspecto.",
"wan2.6-image.description": "Wanxiang 2.6 Image admite edición de imágenes y salida de diseño mixto de imagen y texto.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I admite selección flexible de dimensiones de imagen dentro de las restricciones de área total de píxeles y proporciones de aspecto (igual que Wanxiang 2.5).",
"wanx-v1.description": "Modelo base de texto a imagen. Corresponde a Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Destaca en retratos con textura, velocidad moderada y menor costo. Corresponde a Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Versión completamente mejorada con detalles de imagen más ricos y velocidad ligeramente menor. Corresponde a Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast es el modelo de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M), ideal para casos de uso de alta concurrencia y contexto largo.",
"x-ai/grok-4.description": "Grok 4 es el modelo insignia de razonamiento de xAI con sólidas capacidades de razonamiento y multimodales.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 es el modelo rápido de código de xAI con salida legible y amigable para ingeniería.",
"x1.description": "Actualizaciones de X1.5: (1) añade modo de pensamiento dinámico controlado por el campo `thinking`; (2) mayor longitud de contexto con 64K de entrada y 64K de salida; (3) admite FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision sobresale en tareas visuales, ofreciendo rendimiento SOTA en razonamiento visual matemático (MathVista) y preguntas sobre documentos (DocVQA). Maneja documentos, gráficos, diagramas, capturas de pantalla y fotos.",
"xai/grok-2.description": "Grok 2 es un modelo de vanguardia con razonamiento de última generación, excelente en chat, codificación y rendimiento de razonamiento, superando a Claude 3.5 Sonnet y GPT-4 Turbo en LMSYS.",
"xai/grok-3-fast.description": "El modelo insignia de xAI sobresale en casos de uso empresariales como extracción de datos, codificación y resumen, con profundo conocimiento en finanzas, salud, derecho y ciencia. La variante rápida se ejecuta en infraestructura más veloz para respuestas mucho más rápidas con mayor costo por token.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 es el modelo insignia de Z.AI con razonamiento híbrido optimizado para ingeniería y tareas de contexto largo.",
"z-ai/glm-4.6.description": "GLM 4.6 es el modelo insignia de Z.AI, con una longitud de contexto ampliada y capacidades avanzadas de programación.",
"z-ai/glm-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, que ofrece capacidades generales mejoradas, respuestas más simples y naturales, y una experiencia de escritura más inmersiva.",
"z-ai/glm5.description": "Un modelo sólido de razonamiento y agentivo de Z.ai con un total de 744B parámetros (40B activos), diseñado para ingeniería de sistemas complejos y tareas de largo plazo.",
"z-ai/glm4.7.description": "GLM-4.7 es el último modelo insignia de Zhipu, mejorado para escenarios de codificación agentica con capacidades de codificación mejoradas.",
"z-ai/glm5.description": "GLM-5 es el nuevo modelo base insignia de Zhipu AI para ingeniería de agentes, logrando un rendimiento SOTA de código abierto en capacidades de codificación y agentes. Iguala el rendimiento de Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image es un modelo ligero de generación de texto a imagen que puede producir imágenes rápidamente, admite renderizado de texto en chino e inglés y se adapta de manera flexible a múltiples resoluciones y proporciones de aspecto.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air es un modelo base para aplicaciones de agentes que utiliza una arquitectura de Mezcla de Expertos (MoE). Está optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Emplea razonamiento híbrido para abordar tanto escenarios complejos como situaciones cotidianas.",
"zai-org/GLM-4.5.description": "GLM-4.5 es un modelo base diseñado para aplicaciones de agentes con una arquitectura de Mezcla de Expertos (MoE). Está profundamente optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Utiliza razonamiento híbrido para manejar tanto razonamientos complejos como escenarios cotidianos.",
"zai-org/GLM-4.5V.description": "GLM-4.5V es el último modelo VLM de Zhipu AI, basado en el modelo de texto insignia GLM-4.5-Air (106B en total, 12B activos) con una arquitectura MoE que ofrece alto rendimiento a menor costo. Sigue la línea de pensamiento de GLM-4.1V-Thinking y añade 3D-RoPE para mejorar el razonamiento espacial en 3D. Optimizado mediante preentrenamiento, SFT y RL, maneja imágenes, videos y documentos extensos, y se posiciona entre los mejores modelos abiertos en 41 benchmarks multimodales públicos. Un modo de pensamiento configurable permite equilibrar velocidad y profundidad.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Actualizar nodo",
"builtins.lobe-page-agent.apiName.wrapNodes": "Envolver nodos",
"builtins.lobe-page-agent.title": "Página",
"builtins.lobe-skill-store.apiName.importFromMarket": "Importar del Mercado",
"builtins.lobe-skill-store.apiName.importSkill": "Importar Habilidad",
"builtins.lobe-skill-store.apiName.searchSkill": "Buscar Habilidades",
"builtins.lobe-skill-store.title": "Tienda de Habilidades",
"builtins.lobe-skills.apiName.execScript": "Ejecutar Script",
"builtins.lobe-skills.apiName.exportFile": "Exportar Archivo",
"builtins.lobe-skills.apiName.importFromMarket": "Importar del Mercado",
"builtins.lobe-skills.apiName.importSkill": "Importar Habilidad",
"builtins.lobe-skills.apiName.readReference": "Leer Referencia",
"builtins.lobe-skills.apiName.runSkill": "Activar Habilidad",
"builtins.lobe-skills.apiName.searchSkill": "Buscar Habilidades",
"builtins.lobe-skills.title": "Habilidades",
"builtins.lobe-tools.apiName.activateTools": "Activar Herramientas",
"builtins.lobe-user-memory.apiName.addContextMemory": "Agregar memoria de contexto",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Agregar memoria de experiencia",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Agregar memoria de identidad",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Búsqueda Web",
"confirm": "Confirmar",
"debug.arguments": "Argumentos",
"debug.error": "Registro de errores",
"debug.function_call": "Llamada a función",
"debug.intervention": "Intervención de Skill",
"debug.off": "Depuración desactivada",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Configuración guardada",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Información meta",
"dev.title.create": "Agregar Skill personalizado",
"dev.title.edit": "Editar Skill personalizado",
"dev.title.create": "Agregar Habilidad MCP Personalizada",
"dev.title.edit": "Editar Habilidad MCP Personalizada",
"dev.title.editCommunity": "Editar habilidad de la comunidad",
"dev.title.skillDetails": "Detalles de la habilidad",
"dev.title.skillSettings": "Configuración de la habilidad",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud es un servicio de nube GenAI rentable basado en modelos de código abierto robustos.",
"spark.description": "iFLYTEK Spark ofrece IA multilingüe potente en múltiples dominios, habilitando innovaciones en hardware inteligente, salud, finanzas y otros sectores.",
"stepfun.description": "Los modelos Stepfun ofrecen capacidades líderes en razonamiento multimodal y complejo, con comprensión de contexto largo y potente orquestación de búsqueda autónoma.",
"straico.description": "Straico simplifica la integración de la IA al proporcionar un espacio de trabajo unificado que reúne los mejores modelos generativos de texto, imagen y audio, empoderando a los mercadólogos, emprendedores y entusiastas con acceso fluido a diversas herramientas de IA.",
"taichu.description": "Un modelo multimodal de nueva generación de CASIA y el Instituto de IA de Wuhan, que admite preguntas y respuestas multivuelta, redacción, generación de imágenes, comprensión 3D y análisis de señales con mayor cognición y creatividad.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power proporciona preguntas y respuestas de conocimiento de extremo a extremo para empresas y desarrolladores, con servicios modulares como análisis de documentos, segmentación, embeddings y reescritura multivuelta para crear soluciones de IA personalizadas.",
"togetherai.description": "Together AI ofrece rendimiento líder con modelos innovadores, amplia personalización, escalado rápido y despliegue sencillo para necesidades empresariales.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Perfil del Agente",
"agentInfoDescription.value.unset": "No Establecido",
"agentInfoDescription.value.untitled": "Agente Sin Título",
"agentSkillDetail.addedAt": "Añadido",
"agentSkillDetail.publishedAt": "Publicado",
"agentSkillDetail.repository": "Repositorio de GitHub",
"agentSkillDetail.skillContent": "Contenido de la Habilidad",
"agentSkillDetail.sourceUrl": "Fuente de Importación de la Habilidad",
"agentSkillDetail.updatedAt": "Actualizado",
"agentSkillEdit.descriptionDesc": "Un breve resumen de lo que hace la habilidad, ayudando al agente a entender cuándo usarla",
"agentSkillEdit.fileReadonly": "Este archivo es de solo lectura. Solo se pueden editar la descripción y las instrucciones de la habilidad.",
"agentSkillEdit.instructions": "Instrucciones",
"agentSkillEdit.instructionsDesc": "Las instrucciones principales en formato Markdown que definen el comportamiento y flujo de trabajo de la habilidad",
"agentSkillEdit.instructionsPlaceholder": "Introduce las instrucciones de la habilidad en formato Markdown...",
"agentSkillEdit.nameDesc": "El identificador único para esta habilidad, no editable después de su creación",
"agentSkillEdit.saveSuccess": "Habilidad actualizada con éxito",
"agentSkillEdit.title": "Configuración de la Habilidad",
"agentSkillItem.deleteConfirm.desc": "¿Estás seguro de que deseas eliminar la habilidad del agente \"{{name}}\"? Esta acción no se puede deshacer.",
"agentSkillItem.deleteConfirm.title": "Eliminar Habilidad del Agente",
"agentSkillModal.content": "Contenido de la Habilidad",
"agentSkillModal.contentPlaceholder": "Introduce el contenido de la habilidad en formato Markdown...",
"agentSkillModal.description": "Descripción",
"agentSkillModal.descriptionPlaceholder": "Describe brevemente esta habilidad",
"agentSkillModal.github.desc": "Importa habilidades directamente desde un repositorio público de GitHub.",
"agentSkillModal.github.title": "Importar desde GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/usuario/repositorio",
"agentSkillModal.importError": "Error de importación: {{error}}",
"agentSkillModal.importSuccess": "Habilidad del Agente importada con éxito",
"agentSkillModal.upload.desc": "Sube un archivo local .zip o .skill para instalar.",
"agentSkillModal.upload.dragText": "Arrastra y suelta o haz clic para subir",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md contiene el nombre y la descripción de la habilidad en formato YAML",
"agentSkillModal.upload.requirementZip": "Archivo .zip o .skill con SKILL.md en el directorio raíz",
"agentSkillModal.upload.requirements": "Requisitos del Archivo",
"agentSkillModal.upload.title": "Subir Habilidad",
"agentSkillModal.upload.uploading": "Subiendo...",
"agentSkillModal.url.desc": "Importa una habilidad proporcionando un enlace directo a un archivo SKILL.md.",
"agentSkillModal.url.title": "Importar desde URL",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "Habilidad del Agente",
"agentTab.chat": "Preferencias de Chat",
"agentTab.meta": "Información del Agente",
"agentTab.modal": "Configuración del Modelo",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Especifica el modelo usado para traducción",
"systemAgent.translation.title": "Agente de Traducción de Mensajes",
"tab.about": "Acerca de",
"tab.addAgentSkill": "Añadir Habilidad del Agente",
"tab.addCustomMcp": "Añadir Habilidad MCP Personalizada",
"tab.addCustomMcp.desc": "Configura manualmente un servidor MCP personalizado",
"tab.addCustomSkill": "Agregar habilidad personalizada",
"tab.agent": "Servicio de Agente",
"tab.all": "Todos",
@ -652,7 +691,13 @@
"tab.experiment": "Experimentos",
"tab.hotkey": "Atajos de Teclado",
"tab.image": "Servicio de Generación de Imágenes",
"tab.importFromGithub": "Importar desde GitHub",
"tab.importFromGithub.desc": "Importar desde un repositorio público de GitHub",
"tab.importFromUrl": "Importar desde URL",
"tab.importFromUrl.desc": "Importar mediante un enlace directo a SKILL.md",
"tab.llm": "Modelo de Lenguaje",
"tab.manualFill": "Rellenar Manualmente",
"tab.manualFill.desc": "Configura manualmente una habilidad MCP personalizada",
"tab.memory": "Memoria",
"tab.profile": "Mi Cuenta",
"tab.provider": "Proveedor de Servicios de IA",
@ -669,6 +714,8 @@
"tab.sync": "Sincronización en la Nube",
"tab.systemTools": "Herramientas del sistema",
"tab.tts": "Texto a Voz",
"tab.uploadZip": "Subir Archivo Zip",
"tab.uploadZip.desc": "Sube un archivo local .zip o .skill",
"tab.usage": "Estadísticas de Uso",
"tools.add": "Agregar Habilidad",
"tools.builtins.groupName": "Integradas",

View file

@ -256,11 +256,6 @@
"footer.star.title": "ما را در گیت‌هاب ستاره‌دار کنید",
"footer.title": "از محصول ما خوشتان آمده؟",
"fullscreen": "حالت تمام‌صفحه",
"geminiImageChineseWarning.content": "ممکن است نانو بنانا در تولید تصویر با زبان چینی دچار مشکل شود. توصیه می‌شود از زبان انگلیسی استفاده کنید.",
"geminiImageChineseWarning.continueGenerate": "ادامه تولید",
"geminiImageChineseWarning.continueSend": "ادامه ارسال",
"geminiImageChineseWarning.doNotShowAgain": "دیگر نمایش نده",
"geminiImageChineseWarning.title": "هشدار ورودی چینی",
"historyRange": "محدوده تاریخچه",
"home.suggestQuestions": "این نمونه‌ها را امتحان کنید",
"import": "وارد کردن",
@ -397,6 +392,7 @@
"tab.chat": "گفت‌وگو",
"tab.community": "جامعه",
"tab.discover": "کشف",
"tab.eval": "آزمایشگاه ارزیابی",
"tab.files": "فایل‌ها",
"tab.home": "خانه",
"tab.knowledgeBase": "کتابخانه",

316
locales/fa-IR/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "حذف بنچمارک",
"benchmark.actions.delete.confirm": "آیا مطمئن هستید که می‌خواهید این بنچمارک را حذف کنید؟ مجموعه داده‌ها و سوابق ارزیابی مرتبط نیز حذف خواهند شد.",
"benchmark.actions.edit": "ویرایش بنچمارک",
"benchmark.actions.export": "صادر کردن",
"benchmark.card.bestScore": "بهترین",
"benchmark.card.caseCount": "{{count}} مورد",
"benchmark.card.datasetCount": "{{count}} مجموعه داده",
"benchmark.card.empty": "هنوز ارزیابی‌ای انجام نشده است",
"benchmark.card.emptyHint": "یک ارزیابی جدید از صفحه جزئیات بنچمارک ایجاد کنید",
"benchmark.card.importDataset": "وارد کردن مجموعه داده",
"benchmark.card.noDataset": "هنوز مجموعه داده‌ای وجود ندارد",
"benchmark.card.noDatasetHint": "یک مجموعه داده وارد کنید تا ارزیابی را شروع کنید",
"benchmark.card.noRecentRuns": "هیچ ارزیابی اخیر برای نمایش وجود ندارد",
"benchmark.card.recentRuns": "ارزیابی‌های اخیر",
"benchmark.card.runCount": "{{count}} ارزیابی",
"benchmark.card.startFirst": "شروع اولین ارزیابی",
"benchmark.card.viewAll": "مشاهده همه {{count}}",
"benchmark.create.confirm": "ایجاد",
"benchmark.create.description.label": "توضیحات",
"benchmark.create.description.placeholder": "توضیحات بنچمارک (اختیاری)",
"benchmark.create.error": "ایجاد بنچمارک ناموفق بود",
"benchmark.create.identifier.label": "شناسه",
"benchmark.create.identifier.placeholder": "شناسه-بنچمارک",
"benchmark.create.identifierRequired": "لطفاً یک شناسه وارد کنید",
"benchmark.create.name.label": "نام",
"benchmark.create.name.placeholder": "نام بنچمارک را وارد کنید",
"benchmark.create.nameRequired": "لطفاً یک نام برای بنچمارک وارد کنید",
"benchmark.create.success": "بنچمارک با موفقیت ایجاد شد",
"benchmark.create.tags.label": "برچسب‌ها",
"benchmark.create.tags.placeholder": "برچسب‌ها را اضافه کنید، با کاما یا فاصله جدا کنید",
"benchmark.create.title": "ایجاد بنچمارک",
"benchmark.detail.backToOverview": "بازگشت به نمای کلی",
"benchmark.detail.datasetCount": "{{count}} مجموعه داده در این بنچمارک",
"benchmark.detail.runCount": "{{count}} اجرای ارزیابی در این بنچمارک",
"benchmark.detail.stats.addFirstDataset": "برای افزودن اولین مجموعه داده کلیک کنید",
"benchmark.detail.stats.avgCost": "میانگین هزینه",
"benchmark.detail.stats.avgDuration": "میانگین مدت زمان",
"benchmark.detail.stats.basedOnLastNRuns": "بر اساس آخرین {{count}} اجرا",
"benchmark.detail.stats.bestPerformance": "بهترین عملکرد توسط {{agent}} با نرخ موفقیت {{passRate}}%",
"benchmark.detail.stats.bestScore": "بهترین امتیاز",
"benchmark.detail.stats.cases": "موارد",
"benchmark.detail.stats.dataScale": "مقیاس داده",
"benchmark.detail.stats.datasets": "مجموعه داده‌ها",
"benchmark.detail.stats.needSetup": "نیاز به تنظیمات",
"benchmark.detail.stats.noEvalRecord": "هنوز هیچ رکورد ارزیابی‌ای وجود ندارد",
"benchmark.detail.stats.perRun": "/ اجرا",
"benchmark.detail.stats.runs": "اجراها",
"benchmark.detail.stats.tags": "برچسب‌ها",
"benchmark.detail.stats.topAgents": "بهترین عامل‌ها",
"benchmark.detail.stats.totalCases": "کل موارد",
"benchmark.detail.stats.waiting": "در انتظار...",
"benchmark.detail.tabs.data": "داده‌ها",
"benchmark.detail.tabs.datasets": "مجموعه داده‌ها",
"benchmark.detail.tabs.runs": "اجراها",
"benchmark.edit.confirm": "ذخیره",
"benchmark.edit.error": "به‌روزرسانی بنچمارک ناموفق بود",
"benchmark.edit.success": "بنچمارک با موفقیت به‌روزرسانی شد",
"benchmark.edit.title": "ویرایش بنچمارک",
"benchmark.empty": "هنوز هیچ بنچمارکی وجود ندارد. یکی ایجاد کنید تا شروع کنید.",
"caseDetail.actual": "خروجی واقعی",
"caseDetail.chatArea.title": "مکالمه",
"caseDetail.completionReason": "وضعیت",
"caseDetail.cost": "هزینه",
"caseDetail.difficulty": "سختی",
"caseDetail.duration": "مدت زمان",
"caseDetail.expected": "خروجی مورد انتظار",
"caseDetail.failureReason": "دلیل شکست",
"caseDetail.input": "ورودی",
"caseDetail.judgeComment": "نظر داور",
"caseDetail.resources": "منابع",
"caseDetail.score": "امتیاز",
"caseDetail.section.runtime": "زمان اجرا",
"caseDetail.section.scoring": "جزئیات امتیازدهی",
"caseDetail.section.testCase": "مورد آزمایشی",
"caseDetail.steps": "مراحل",
"caseDetail.threads.attempt": "مسیر #{{number}}",
"caseDetail.tokens": "استفاده از توکن",
"common.cancel": "لغو",
"common.create": "ایجاد",
"common.delete": "حذف",
"common.edit": "ویرایش",
"common.later": "بعداً",
"common.next": "بعدی",
"common.update": "به‌روزرسانی",
"dataset.actions.addDataset": "افزودن مجموعه داده",
"dataset.actions.import": "وارد کردن داده",
"dataset.actions.importDataset": "وارد کردن مجموعه داده",
"dataset.create.description.label": "توضیحات",
"dataset.create.description.placeholder": "توضیحات مجموعه داده (اختیاری)",
"dataset.create.error": "ایجاد مجموعه داده ناموفق بود",
"dataset.create.identifier.label": "شناسه",
"dataset.create.identifier.placeholder": "شناسه-مجموعه-داده",
"dataset.create.identifierRequired": "لطفاً یک شناسه وارد کنید",
"dataset.create.importNow": "آیا می‌خواهید اکنون داده وارد کنید؟",
"dataset.create.name.label": "نام مجموعه داده",
"dataset.create.name.placeholder": "نام مجموعه داده را وارد کنید",
"dataset.create.nameRequired": "لطفاً یک نام برای مجموعه داده وارد کنید",
"dataset.create.preset.label": "پیش‌تنظیم مجموعه داده",
"dataset.create.success": "مجموعه داده با موفقیت ایجاد شد",
"dataset.create.successTitle": "مجموعه داده ایجاد شد",
"dataset.create.title": "ایجاد مجموعه داده",
"dataset.delete.confirm": "آیا مطمئن هستید که می‌خواهید این مجموعه داده را حذف کنید؟ تمام موارد آزمایشی در آن نیز حذف خواهند شد.",
"dataset.delete.error": "حذف مجموعه داده ناموفق بود",
"dataset.delete.success": "مجموعه داده با موفقیت حذف شد",
"dataset.detail.addRun": "اجرای جدید",
"dataset.detail.backToBenchmark": "بازگشت به بنچمارک",
"dataset.detail.caseCount": "{{count}} مورد آزمایشی",
"dataset.detail.relatedRuns": "اجراهای مرتبط ({{count}})",
"dataset.detail.testCases": "موارد آزمایشی",
"dataset.detail.viewDetail": "مشاهده جزئیات",
"dataset.edit.error": "به‌روزرسانی مجموعه داده ناموفق بود",
"dataset.edit.success": "مجموعه داده با موفقیت به‌روزرسانی شد",
"dataset.edit.title": "ویرایش مجموعه داده",
"dataset.empty": "هیچ مجموعه داده‌ای وجود ندارد",
"dataset.empty.description": "یک مجموعه داده وارد کنید تا این بنچمارک را بسازید",
"dataset.empty.title": "هنوز هیچ مجموعه داده‌ای وجود ندارد",
"dataset.evalMode.hint": "حالت پیش‌فرض ارزیابی برای مجموعه داده، قابل تغییر در سطح موارد آزمایشی",
"dataset.import.category": "دسته‌بندی",
"dataset.import.categoryDesc": "برچسب طبقه‌بندی برای گروه‌بندی",
"dataset.import.choices": "گزینه‌ها",
"dataset.import.choicesDesc": "گزینه‌های چندگانه",
"dataset.import.confirm": "وارد کردن",
"dataset.import.error": "وارد کردن مجموعه داده ناموفق بود",
"dataset.import.expected": "پاسخ مورد انتظار",
"dataset.import.expectedDelimiter": "جداکننده پاسخ",
"dataset.import.expectedDelimiter.desc": "جداکننده پاسخ",
"dataset.import.expectedDelimiter.placeholder": "مثلاً | یا ,",
"dataset.import.expectedDesc": "پاسخ صحیح برای مقایسه",
"dataset.import.fieldMapping": "نگاشت فیلد",
"dataset.import.fieldMapping.desc": "ستون \"ورودی\" الزامی است",
"dataset.import.hideSkipped": "پنهان کردن ستون‌های رد شده",
"dataset.import.ignore": "رد کردن",
"dataset.import.ignoreDesc": "این ستون وارد نشود",
"dataset.import.input": "ورودی",
"dataset.import.inputDesc": "سؤال یا درخواست ارسال شده به مدل",
"dataset.import.metadata": "فراداده",
"dataset.import.metadataDesc": "اطلاعات اضافی، به همان صورت ذخیره می‌شود",
"dataset.import.next": "بعدی",
"dataset.import.parseError": "تجزیه فایل ناموفق بود",
"dataset.import.parsing": "در حال تجزیه فایل...",
"dataset.import.prev": "قبلی",
"dataset.import.preview": "پیش‌نمایش داده",
"dataset.import.preview.desc": "تأیید کنید که نگاشت صحیح است، سپس وارد کنید.",
"dataset.import.preview.rows": "مجموعاً {{count}} ردیف",
"dataset.import.sortOrder": "شماره آیتم",
"dataset.import.sortOrderDesc": "شناسه سؤال/آیتم برای مرجع",
"dataset.import.step.mapping": "نگاشت فیلدها",
"dataset.import.step.preview": "پیش‌نمایش",
"dataset.import.step.upload": "بارگذاری فایل",
"dataset.import.success": "{{count}} مورد آزمایشی با موفقیت وارد شد",
"dataset.import.title": "وارد کردن مجموعه داده",
"dataset.import.upload.hint": "پشتیبانی از CSV، XLSX، JSON، JSONL",
"dataset.import.upload.text": "برای بارگذاری فایل اینجا کلیک کنید یا فایل را بکشید",
"dataset.import.uploading": "در حال بارگذاری...",
"dataset.switchDataset": "تغییر مجموعه داده",
"difficulty.easy": "آسان",
"difficulty.hard": "سخت",
"difficulty.medium": "متوسط",
"evalMode.contains": "مطابقت شامل",
"evalMode.contains.desc": "خروجی باید شامل متن مورد انتظار باشد",
"evalMode.equals": "مطابقت دقیق",
"evalMode.equals.desc": "خروجی باید دقیقاً همانند مورد انتظار باشد",
"evalMode.label": "حالت ارزیابی",
"evalMode.llm-rubric": "داوری LLM",
"evalMode.llm-rubric.desc": "استفاده از LLM برای ارزیابی کیفیت خروجی",
"evalMode.placeholder": "حالت ارزیابی را انتخاب کنید",
"evalMode.prompt.label": "پیشنهاد داوری",
"evalMode.prompt.placeholder": "معیارهای ارزیابی یا پیشنهاد برای داوری LLM را وارد کنید",
"evalMode.rubric": "امتیازدهی بر اساس معیارها",
"evalMode.rubric.desc": "امتیازدهی خروجی با استفاده از معیارهای وزنی بنچمارک",
"overview.createBenchmark": "ایجاد بنچمارک",
"overview.importDataset": "وارد کردن مجموعه داده",
"overview.subtitle": "بنچمارک و ارزیابی عامل‌های هوش مصنوعی خود در مجموعه داده‌ها",
"overview.title": "آزمایشگاه ارزیابی",
"run.actions.abort": "لغو",
"run.actions.abort.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را لغو کنید؟",
"run.actions.create": "ارزیابی جدید",
"run.actions.delete": "حذف",
"run.actions.delete.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را حذف کنید؟",
"run.actions.edit": "ویرایش",
"run.actions.retryCase": "تلاش مجدد",
"run.actions.retryErrors": "تلاش مجدد برای خطاها",
"run.actions.retryErrors.confirm": "این کار تمام موارد خطا و زمان‌بر را دوباره اجرا می‌کند. موارد موفق و ناموفق تحت تأثیر قرار نمی‌گیرند.",
"run.actions.run": "اجرا",
"run.actions.start": "شروع",
"run.actions.start.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را شروع کنید؟",
"run.chart.duration": "مدت زمان (ثانیه)",
"run.chart.error": "خطا",
"run.chart.fail": "ناموفق",
"run.chart.latencyDistribution": "توزیع تأخیر",
"run.chart.latencyTokenDistribution": "توزیع تأخیر / توکن",
"run.chart.pass": "موفق",
"run.chart.passFailError": "موفق / ناموفق / خطا",
"run.chart.tokens": "توکن‌ها",
"run.config.agentId": "عامل",
"run.config.concurrency": "همزمانی",
"run.config.judgeModel": "مدل داوری",
"run.config.k": "تعداد اجراها (K)",
"run.config.k.hint": "هر مورد آزمایشی را {{k}} بار برای معیارهای pass@{{k}}/pass^{{k}} اجرا کنید",
"run.config.maxSteps": "حداکثر مراحل",
"run.config.maxSteps.hint": "هر فراخوانی LLM یا ابزار توسط عامل به عنوان 1 مرحله شمارش می‌شود",
"run.config.model": "مدل",
"run.config.temperature": "دمای مدل",
"run.config.timeout": "مهلت زمانی",
"run.config.timeout.unit": "دقیقه",
"run.create.advanced": "تنظیمات پیشرفته",
"run.create.agent": "عامل",
"run.create.agent.placeholder": "یک عامل انتخاب کنید",
"run.create.agent.required": "لطفاً یک عامل انتخاب کنید",
"run.create.caseCount": "{{count}} مورد",
"run.create.confirm": "ایجاد و شروع",
"run.create.createOnly": "فقط ایجاد",
"run.create.dataset": "مجموعه داده",
"run.create.dataset.placeholder": "یک مجموعه داده انتخاب کنید",
"run.create.dataset.required": "لطفاً یک مجموعه داده انتخاب کنید",
"run.create.name": "نام اجرا",
"run.create.name.placeholder": "یک نام برای این اجرا وارد کنید",
"run.create.name.required": "لطفاً یک نام برای اجرا وارد کنید",
"run.create.name.useTimestamp": "استفاده از زمان فعلی به عنوان نام",
"run.create.openAgent": "باز کردن عامل در پنجره جدید",
"run.create.title": "ارزیابی جدید",
"run.create.titleWithDataset": "ارزیابی جدید در \"{{dataset}}\"",
"run.detail.agent": "عامل",
"run.detail.agent.none": "مشخص نشده",
"run.detail.agent.unnamed": "عامل بدون نام",
"run.detail.backToBenchmark": "بازگشت به بنچمارک",
"run.detail.caseResults": "جزئیات ارزیابی",
"run.detail.config": "پیکربندی ارزیابی",
"run.detail.configSnapshot": "عکس فوری پیکربندی",
"run.detail.dataset": "مجموعه داده",
"run.detail.model": "مدل",
"run.detail.overview": "نمای کلی",
"run.detail.progress": "پیشرفت",
"run.detail.progressCases": "موارد",
"run.detail.report": "خلاصه ارزیابی",
"run.edit.error": "به‌روزرسانی ارزیابی ناموفق بود",
"run.edit.success": "ارزیابی با موفقیت به‌روزرسانی شد",
"run.edit.title": "ویرایش ارزیابی",
"run.empty.description": "اولین اجرای ارزیابی خود را در این مجموعه داده شروع کنید",
"run.empty.descriptionBenchmark": "اولین اجرای ارزیابی خود را در این بنچمارک شروع کنید",
"run.empty.title": "هنوز هیچ اجرایی وجود ندارد",
"run.filter.active": "فعال",
"run.filter.empty": "هیچ اجرایی با فیلتر فعلی مطابقت ندارد.",
"run.idle.hint": "برای شروع ارزیابی کلیک کنید",
"run.metrics.avgScore": "میانگین امتیاز",
"run.metrics.cost": "هزینه",
"run.metrics.duration": "مدت زمان",
"run.metrics.errorCases": "خطا",
"run.metrics.evaluated": "{{count}} ارزیابی شده",
"run.metrics.passRate": "نرخ موفقیت",
"run.metrics.perCase": "/ مورد",
"run.metrics.tokens": "توکن‌ها",
"run.metrics.totalDuration": "تجمعی",
"run.pending.hint": "ارزیابی در صف است، منتظر شروع...",
"run.running.hint": "ارزیابی در حال اجرا است، نتایج به زودی ظاهر می‌شوند...",
"run.status.aborted": "لغو شده",
"run.status.completed": "تکمیل شده",
"run.status.error": "خطای اجرا",
"run.status.failed": "ناموفق",
"run.status.idle": "بیکار",
"run.status.pending": "در انتظار",
"run.status.running": "در حال اجرا",
"run.status.timeout": "مهلت زمانی",
"sidebar.benchmarks": "بنچمارک‌ها",
"sidebar.dashboard": "داشبورد",
"sidebar.datasets": "مجموعه داده‌ها",
"sidebar.runs": "اجراها",
"table.columns.avgCost": "میانگین هزینه",
"table.columns.category": "دسته‌بندی",
"table.columns.cost": "هزینه",
"table.columns.difficulty": "سختی",
"table.columns.duration": "مدت زمان",
"table.columns.evalMode": "حالت ارزیابی",
"table.columns.expected": "پاسخ مورد انتظار",
"table.columns.input": "ورودی",
"table.columns.score": "امتیاز",
"table.columns.status": "وضعیت",
"table.columns.steps": "مراحل",
"table.columns.tags": "برچسب‌ها",
"table.columns.tokens": "توکن‌ها",
"table.columns.totalCost": "کل هزینه",
"table.filter.all": "همه",
"table.filter.error": "خطای اجرا",
"table.filter.failed": "ناموفق",
"table.filter.passed": "موفق",
"table.filter.running": "در حال اجرا",
"table.search.placeholder": "جستجوی موارد...",
"table.total": "مجموع {{count}}",
"testCase.actions.add": "افزودن مورد آزمایشی",
"testCase.actions.import": "وارد کردن موارد آزمایشی",
"testCase.create.advanced": "گزینه‌های بیشتر",
"testCase.create.difficulty.label": "سختی",
"testCase.create.error": "افزودن مورد آزمایشی ناموفق بود",
"testCase.create.expected.label": "خروجی مورد انتظار",
"testCase.create.expected.placeholder": "پاسخ مورد انتظار را وارد کنید",
"testCase.create.expected.required": "لطفاً خروجی مورد انتظار را وارد کنید",
"testCase.create.input.label": "ورودی",
"testCase.create.input.placeholder": "ورودی یا سؤال مورد آزمایشی را وارد کنید",
"testCase.create.success": "مورد آزمایشی با موفقیت اضافه شد",
"testCase.create.tags.label": "برچسب‌ها",
"testCase.create.tags.placeholder": "برچسب‌های جدا شده با کاما (اختیاری)",
"testCase.create.title": "افزودن مورد آزمایشی",
"testCase.delete.confirm": "آیا مطمئن هستید که می‌خواهید این مورد آزمایشی را حذف کنید؟",
"testCase.delete.error": "حذف مورد آزمایشی ناموفق بود",
"testCase.delete.success": "مورد آزمایشی حذف شد",
"testCase.edit.error": "به‌روزرسانی مورد آزمایشی ناموفق بود",
"testCase.edit.success": "مورد آزمایشی با موفقیت به‌روزرسانی شد",
"testCase.edit.title": "ویرایش مورد آزمایشی",
"testCase.empty.description": "موارد آزمایشی را وارد کنید یا به صورت دستی اضافه کنید",
"testCase.empty.title": "هنوز هیچ مورد آزمایشی وجود ندارد",
"testCase.preview.expected": "مورد انتظار",
"testCase.preview.input": "ورودی",
"testCase.preview.title": "پیش‌نمایش مورد آزمایشی",
"testCase.search.placeholder": "جستجوی موارد..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "تحقیق عمیق",
"starter.developing": "به‌زودی",
"starter.image": "تصویر",
"starter.nanoBanana2": "🍌 نانو موز ۲",
"starter.seedance": "سیدنس ۲.۰",
"starter.write": "نوشتن"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "برای سری Gemini؛ بودجه تفکر را کنترل می‌کند.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Flash؛ عمق تفکر را کنترل می‌کند.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Pro؛ عمق تفکر را کنترل می‌کند.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "برای مدل‌های پیش‌نمایش Gemini 3.1 Pro؛ عمق تفکر را با سطوح کم/متوسط/زیاد کنترل می‌کند.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "برای سری Gemini؛ امکان ارائه زمینه از طریق URL را فراهم می‌کند.",
"providerModels.item.modelConfig.extendParams.placeholder": "پارامترهای پیشرفته‌ای را برای فعال‌سازی انتخاب کنید",
"providerModels.item.modelConfig.extendParams.previewFallback": "پیش‌نمایش در دسترس نیست",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo توان پردازشی و گفت‌وگویی بالایی را با درک معنایی عالی و کارایی بالا در تولید متن ارائه می‌دهد و گزینه‌ای ایده‌آل برای کسب‌وکارها و توسعه‌دهندگان است.",
"360gpt2-o1.description": "360gpt2-o1 با استفاده از جست‌وجوی درختی و مکانیزم بازتاب و آموزش با یادگیری تقویتی، زنجیره تفکر را ایجاد می‌کند و قابلیت بازاندیشی و اصلاح خودکار را فراهم می‌سازد.",
"360gpt2-pro.description": "360GPT2 Pro یک مدل NLP پیشرفته از 360 است که در تولید و درک متن عملکردی عالی دارد، به‌ویژه در وظایف خلاقانه، تبدیل‌های پیچیده و ایفای نقش.",
"360zhinao2-o1.5.description": "مدل استدلال قدرتمند 360 Zhinao، با قابلیت‌های قوی‌ترین و پشتیبانی از فراخوانی ابزار و استدلال پیشرفته.",
"360zhinao2-o1.description": "360zhinao2-o1 با استفاده از جست‌وجوی درختی و مکانیزم بازتاب و آموزش با یادگیری تقویتی، زنجیره تفکر را ایجاد می‌کند و قابلیت بازاندیشی و اصلاح خودکار را فراهم می‌سازد.",
"360zhinao3-o1.5.description": "مدل استدلال نسل بعدی 360 Zhinao.",
"4.0Ultra.description": "Spark Ultra قدرتمندترین مدل در سری Spark است که درک متن و خلاصه‌سازی را بهبود می‌بخشد و جست‌وجوی وب را ارتقا می‌دهد. این مدل راه‌حلی جامع برای افزایش بهره‌وری در محیط کار و ارائه پاسخ‌های دقیق است و به‌عنوان محصولی هوشمند پیشرو شناخته می‌شود.",
"AnimeSharp.description": "AnimeSharp (با نام قبلی \"4x-TextSharpV1\") یک مدل متن‌باز برای افزایش وضوح تصاویر به سبک انیمه است که بر پایه ESRGAN توسط Kim2091 توسعه یافته است. این مدل در ابتدا برای تصاویر متنی نیز طراحی شده بود اما به‌طور ویژه برای محتوای انیمه بهینه‌سازی شده است.",
"Baichuan2-Turbo.description": "با استفاده از تقویت جست‌وجو، این مدل به دانش دامنه‌ای و وب متصل می‌شود. از بارگذاری فایل‌های PDF/Word و ورودی URL پشتیبانی می‌کند تا بازیابی اطلاعات به‌موقع و جامع و خروجی‌های حرفه‌ای و دقیق را فراهم سازد.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمون‌های کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۸ میلیاردی بر تأخیر کم و عملکرد قوی تمرکز دارد.",
"charglm-3.description": "CharGLM-3 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.",
"charglm-4.description": "CharGLM-4 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.",
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.",
"chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت لحظه‌ای به‌روزرسانی می‌شود. این مدل ترکیبی از درک زبان قوی و تولید محتوا برای موارد استفاده گسترده مانند پشتیبانی مشتری، آموزش و کمک فنی ارائه می‌دهد.",
"claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های مختلف را بهبود بخشیده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیت‌های استدلال پیچیده‌تر و زنجیره‌ای از تفکر است.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.",
"deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از هر دو حالت تفکر و بدون تفکر پشتیبانی می‌کند و بهره‌وری تفکر بالاتری نسبت به DeepSeek-R1-0528 دارد. بهینه‌سازی‌های پس از آموزش، استفاده از ابزارها و عملکرد وظایف نماینده را به‌طور قابل توجهی بهبود می‌بخشد. این مدل از پنجره متنی ۱۲۸ هزار توکن و خروجی تا ۶۴ هزار توکن پشتیبانی می‌کند.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره‌ای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.",
"deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود می‌بخشد و نسبت به deepseek-v3.1 قیمت پایین‌تری دارد.",
"deepseek-v3.2-speciale.description": "در وظایف بسیار پیچیده، مدل Speciale به‌طور قابل‌توجهی از نسخه استاندارد بهتر عمل می‌کند، اما مصرف توکن بیشتری دارد و هزینه‌های بالاتری ایجاد می‌کند. در حال حاضر، DeepSeek-V3.2-Speciale فقط برای استفاده تحقیقاتی در نظر گرفته شده است، از فراخوانی ابزار پشتیبانی نمی‌کند و به‌طور خاص برای مکالمات روزمره یا وظایف نوشتاری بهینه نشده است.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیره‌ای بلندتری دارد.",
"deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی از DeepSeek است که تفکر را با استفاده از ابزارها ادغام می‌کند. این مدل با معماری کارآمد برای صرفه‌جویی در محاسبات، یادگیری تقویتی در مقیاس بزرگ برای افزایش توانایی‌ها، و داده‌های مصنوعی در مقیاس وسیع برای تقویت تعمیم‌پذیری آموزش دیده است. ترکیب این سه عامل عملکردی هم‌تراز با GPT-5-High ارائه می‌دهد، در حالی که طول خروجی را به‌طور قابل توجهی کاهش داده و سربار محاسباتی و زمان انتظار کاربر را کم می‌کند.",
"deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد. از پنجره متنی ۱۲۸هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی می‌کند.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد.",
"doubao-lite-128k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۱۲۸هزار توکن پشتیبانی می‌کند.",
"doubao-lite-32k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۳۲هزار توکن پشتیبانی می‌کند.",
"doubao-lite-4k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۴هزار توکن پشتیبانی می‌کند.",
"doubao-pro-256k.description": "بهترین مدل پرچم‌دار برای وظایف پیچیده با نتایج قوی در پرسش و پاسخ مرجع، خلاصه‌سازی، تولید محتوا، طبقه‌بندی متنی و نقش‌آفرینی. از استدلال و تنظیم دقیق با پنجره متنی ۲۵۶هزار توکن پشتیبانی می‌کند.",
"doubao-pro-32k.description": "بهترین مدل پرچم‌دار برای وظایف پیچیده با نتایج قوی در پرسش و پاسخ مرجع، خلاصه‌سازی، تولید محتوا، طبقه‌بندی متنی و نقش‌آفرینی. از استدلال و تنظیم دقیق با پنجره متنی ۳۲هزار توکن پشتیبانی می‌کند.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash یک مدل چندوجهی با استدلال عمیق و پاسخ‌دهی فوق‌العاده سریع با TPOT تا ۱۰ میلی‌ثانیه است. از متن و تصویر پشتیبانی می‌کند، در درک متن از مدل lite قبلی پیشی می‌گیرد و در درک تصویر با مدل‌های pro رقابت می‌کند. از پنجره متنی ۲۵۶هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی می‌کند.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite یک مدل جدید چندوجهی با استدلال عمیق است که تلاش استدلالی قابل تنظیم (حداقل، کم، متوسط، زیاد) را ارائه می‌دهد و گزینه‌ای با ارزش بالا برای وظایف رایج است. از پنجره متنی تا ۲۵۶هزار توکن پشتیبانی می‌کند.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "مدل تصویر Doubao از ByteDance Seed از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. از ویرایش تصویر با راهنمایی متن پشتیبانی می‌کند و اندازه خروجی بین ۵۱۲ تا ۱۵۳۶ در ضلع بلندتر است.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.",
"doubao-vision-lite-32k.description": "Doubao-vision یک مدل چندوجهی از Doubao است که درک تصویر و استدلال قوی به همراه پیروی دقیق از دستورالعمل‌ها را ارائه می‌دهد. در استخراج متن از تصویر و وظایف استدلال مبتنی بر تصویر عملکرد خوبی دارد و سناریوهای پیچیده‌تر و گسترده‌تری برای پرسش و پاسخ بصری را ممکن می‌سازد.",
"doubao-vision-pro-32k.description": "Doubao-vision یک مدل چندوجهی از Doubao است که درک تصویر و استدلال قوی به همراه پیروی دقیق از دستورالعمل‌ها را ارائه می‌دهد. در استخراج متن از تصویر و وظایف استدلال مبتنی بر تصویر عملکرد خوبی دارد و سناریوهای پیچیده‌تر و گسترده‌تری برای پرسش و پاسخ بصری را ممکن می‌سازد.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 جدیدترین مدل چندوجهی تصویر ByteDance است که قابلیت‌های تبدیل متن به تصویر، تصویر به تصویر و تولید دسته‌ای تصاویر را ادغام می‌کند و توانایی‌های استدلال و دانش عمومی را نیز در بر می‌گیرد. در مقایسه با نسخه قبلی 4.0، کیفیت تولید به‌طور قابل‌توجهی بهبود یافته است، با سازگاری بهتر در ویرایش و ترکیب چند تصویر. کنترل دقیق‌تری بر جزئیات بصری ارائه می‌دهد، متن‌های کوچک و چهره‌های کوچک را به‌طور طبیعی‌تر تولید می‌کند و به هماهنگی بهتر در چیدمان و رنگ دست می‌یابد، که زیبایی کلی را افزایش می‌دهد.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite جدیدترین مدل تولید تصویر ByteDance است. برای اولین بار، قابلیت‌های بازیابی آنلاین را ادغام کرده است که به آن امکان می‌دهد اطلاعات وب لحظه‌ای را وارد کند و به‌موقع بودن تصاویر تولید شده را افزایش دهد. هوش مدل نیز ارتقا یافته است، که تفسیر دقیق دستورالعمل‌های پیچیده و محتوای بصری را امکان‌پذیر می‌کند. علاوه بر این، پوشش دانش جهانی، سازگاری مرجع و کیفیت تولید در سناریوهای حرفه‌ای بهبود یافته است، که نیازهای خلق بصری در سطح سازمانی را بهتر برآورده می‌کند.",
"emohaa.description": "Emohaa یک مدل سلامت روان با توانایی مشاوره حرفه‌ای است که به کاربران در درک مسائل احساسی کمک می‌کند.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B یک مدل سبک متن‌باز برای استقرار محلی و سفارشی‌سازی شده است.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking یک مدل متن MoE (ترکیب متخصصان) پس از آموزش با مجموع 21 میلیارد پارامتر و 3 میلیارد پارامتر فعال است که کیفیت و عمق استدلال را به‌طور قابل‌توجهی افزایش می‌دهد.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B یک مدل متن‌باز با پارامترهای زیاد و توانایی درک و تولید قوی‌تر است.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B مدل MoE بسیار بزرگ Baidu ERNIE با توانایی استدلال عالی است.",
"ernie-4.5-8k-preview.description": "پیش‌نمایش مدل با پنجره متنی ۸هزار توکن برای ارزیابی ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K یک مدل سبک و پرکاربرد برای سناریوهای حساس به تأخیر و هزینه است.",
"ernie-novel-8k.description": "ERNIE Novel 8K برای رمان‌های بلند و داستان‌های IP با روایت چندشخصیتی طراحی شده است.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K یک مدل با ارزش بالا و هم‌زمانی بالا برای خدمات آنلاین گسترده و برنامه‌های سازمانی است.",
"ernie-x1-turbo-32k-preview.description": "پیش‌نمایش ERNIE X1 Turbo 32K یک مدل سریع تفکر با زمینه 32K برای استدلال پیچیده و چت چندمرحله‌ای است.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.",
"ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.",
"ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیش‌نمایش برای ارزیابی و آزمایش است.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته تیم Seed در ByteDance، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات موضوعی بهبود یافته، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته تیم Seed در ByteDance، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترل‌پذیری بالا از طریق دستورات پشتیبانی می‌کند.",
"fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
"gemini-2.5-flash-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.",
"gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.",
"gemini-3.1-pro-preview.description": "پیش‌نمایش Gemini 3.1 Pro قابلیت‌های استدلال بهبود یافته را به Gemini 3 Pro اضافه می‌کند و از سطح تفکر متوسط پشتیبانی می‌کند.",
"gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash",
"gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite",
"gemini-pro-latest.description": "آخرین نسخه منتشرشده از Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
"glm-4v-plus.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.",
"glm-4v.description": "GLM-4V درک تصویر و استدلال قوی در وظایف بصری را ارائه می‌دهد.",
"glm-5.description": "یک مدل استدلال قوی و عامل از Z.ai با 744 میلیارد پارامتر کل (40 میلیارد فعال)، ساخته شده برای مهندسی سیستم‌های پیچیده و وظایف بلندمدت.",
"glm-5.description": "سری GLM یک مدل استدلال ترکیبی از Zhipu AI است که برای عوامل طراحی شده است و حالت‌های تفکر و غیرتفکر را ارائه می‌دهد.",
"glm-z1-air.description": "مدل استدلال با توانایی قوی در استنتاج عمیق برای وظایف پیچیده.",
"glm-z1-airx.description": "استدلال فوق‌سریع با کیفیت بالای استدلال.",
"glm-z1-flash.description": "سری GLM-Z1 استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "با افتخار Grok 4 Fast را معرفی می‌کنیم، جدیدترین پیشرفت ما در مدل‌های استدلال مقرون‌به‌صرفه.",
"grok-4.description": "جدیدترین و قدرتمندترین مدل پرچم‌دار ما که در پردازش زبان طبیعی، ریاضی و استدلال برتری دارد—یک مدل همه‌کاره ایده‌آل.",
"grok-code-fast-1.description": "با افتخار grok-code-fast-1 را معرفی می‌کنیم، مدلی سریع و مقرون‌به‌صرفه برای استدلال که در برنامه‌نویسی عامل‌محور عملکرد درخشانی دارد.",
"grok-imagine-image-pro.description": "تصاویر را از دستورات متنی تولید کنید، تصاویر موجود را با زبان طبیعی ویرایش کنید، یا تصاویر را از طریق مکالمات چندمرحله‌ای به‌طور مکرر اصلاح کنید.",
"grok-imagine-image.description": "تصاویر را از دستورات متنی تولید کنید، تصاویر موجود را با زبان طبیعی ویرایش کنید، یا تصاویر را از طریق مکالمات چندمرحله‌ای به‌طور مکرر اصلاح کنید.",
"groq/compound-mini.description": "Compound-mini یک سیستم هوش مصنوعی ترکیبی است که با مدل‌های عمومی پشتیبانی‌شده در GroqCloud کار می‌کند و به‌صورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده می‌کند.",
"groq/compound.description": "Compound یک سیستم هوش مصنوعی ترکیبی است که با چندین مدل عمومی پشتیبانی‌شده در GroqCloud کار می‌کند و به‌صورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده می‌کند.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B یک مدل زبانی خلاق و هوشمند است که از ترکیب چندین مدل برتر ساخته شده است.",
"hunyuan-2.0-instruct-20251111.description": "ویژگی‌های انتشار: پایه مدل از TurboS به **Hunyuan 2.0** ارتقا یافته است، که منجر به بهبود جامع قابلیت‌ها می‌شود. این مدل به‌طور قابل‌توجهی توانایی پیروی از دستورالعمل‌ها، درک متن چندمرحله‌ای و طولانی، خلق ادبی، دقت دانش، کدنویسی و توانایی‌های استدلال را افزایش می‌دهد.",
"hunyuan-2.0-thinking-20251109.description": "ویژگی‌های انتشار: پایه مدل از TurboS به **Hunyuan 2.0** ارتقا یافته است، که منجر به بهبود جامع قابلیت‌ها می‌شود. این مدل توانایی پیروی از دستورالعمل‌های پیچیده، درک متن چندمرحله‌ای و طولانی، مدیریت کد، عملکرد به‌عنوان عامل و انجام وظایف استدلال را به‌طور قابل‌توجهی افزایش می‌دهد.",
"hunyuan-a13b.description": "اولین مدل استدلال ترکیبی از Hunyuan، ارتقاءیافته از hunyuan-standard-256K (در مجموع ۸۰ میلیارد، ۱۳ میلیارد فعال). به‌طور پیش‌فرض با تفکر آهسته کار می‌کند و از طریق پارامترها یا پیشوند /no_think قابلیت تغییر بین تفکر سریع و آهسته را دارد. توانایی کلی آن نسبت به نسل قبلی به‌ویژه در ریاضی، علوم، درک متون بلند و وظایف عامل بهبود یافته است.",
"hunyuan-code.description": "جدیدترین مدل تولید کد که با ۲۰۰ میلیارد کد باکیفیت و شش ماه آموزش SFT آموزش دیده است؛ ظرفیت زمینه به ۸ هزار افزایش یافته. در ارزیابی‌های خودکار برای پنج زبان و در ارزیابی‌های انسانی در ده معیار برتر قرار دارد.",
"hunyuan-functioncall.description": "جدیدترین مدل MoE FunctionCall که با داده‌های باکیفیت تماس تابع آموزش دیده، دارای پنجره زمینه ۳۲ هزار و نتایج پیشرو در ارزیابی‌های مختلف است.",
"hunyuan-large-longcontext.description": "در وظایف اسناد بلند مانند خلاصه‌سازی و پرسش‌وپاسخ عملکرد درخشانی دارد و همچنین در تولید عمومی نیز توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.",
"hunyuan-large-vision.description": "مدل زبان-بینایی آموزش‌دیده از Hunyuan Large برای درک تصویر و متن. از ورودی چندتصویر + متن با هر وضوحی پشتیبانی می‌کند و درک بصری چندزبانه را بهبود می‌بخشد.",
"hunyuan-large.description": "Hunyuan-large دارای حدود ۳۸۹ میلیارد پارامتر کل و حدود ۵۲ میلیارد فعال است، بزرگ‌ترین و قوی‌ترین مدل MoE باز در معماری ترنسفورمر.",
"hunyuan-lite-vision.description": "جدیدترین مدل چندوجهی ۷ میلیاردی با پنجره زمینه ۳۲ هزار، پشتیبانی از چت چندوجهی چینی/انگلیسی، شناسایی اشیاء، درک جداول اسناد و ریاضی چندوجهی، و عملکرد بهتر نسبت به مدل‌های ۷ میلیاردی مشابه در چندین معیار.",
"hunyuan-code.description": "جدیدترین مدل کدنویسی Hunyuan که بر اساس داده‌های کد با کیفیت بالا به‌میزان 200 میلیارد و شش ماه داده SFT آموزش داده شده است، با زمینه 8K. این مدل در معیارهای کدنویسی خودکار و ارزیابی‌های انسانی متخصص در پنج زبان رتبه بالایی دارد.",
"hunyuan-functioncall.description": "جدیدترین مدل MoE FunctionCall Hunyuan که بر اساس داده‌های فراخوانی ابزار با کیفیت بالا آموزش داده شده است، با پنجره زمینه 32K و معیارهای پیشرو در ابعاد مختلف.",
"hunyuan-lite.description": "ارتقاءیافته به معماری MoE با پنجره زمینه ۲۵۶ هزار، پیشتاز در میان بسیاری از مدل‌های باز در حوزه‌های NLP، کد، ریاضی و معیارهای صنعتی.",
"hunyuan-pro.description": "مدل MoE با تریلیون پارامتر و پنجره زمینه ۳۲ هزار که در ارزیابی‌ها پیشتاز است، در دستورالعمل‌های پیچیده و استدلال، ریاضی پیشرفته، تماس تابع و ترجمه چندزبانه، مالی، حقوقی و پزشکی عملکرد قوی دارد.",
"hunyuan-role.description": "جدیدترین مدل نقش‌آفرینی که به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم دقیق شده و عملکرد پایه‌ای قوی‌تری را در سناریوهای نقش‌آفرینی ارائه می‌دهد.",
"hunyuan-standard-256K.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینه‌های بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-256K طول و کیفیت زمینه را بیشتر گسترش می‌دهد.",
"hunyuan-standard-vision.description": "جدیدترین مدل چندوجهی با پاسخ‌های چندزبانه و توانایی متعادل در زبان چینی/انگلیسی.",
"hunyuan-standard.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینه‌های بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-32K ارزش بالایی را در پردازش ورودی‌های بلند ارائه می‌دهد.",
"hunyuan-t1-20250321.description": "توانایی‌های متعادل در هنر و علوم پایه را با درک قوی اطلاعات متون بلند ایجاد می‌کند. از پاسخ‌های استدلالی برای مسائل ریاضی، منطقی، علمی و کدنویسی در سطوح مختلف پشتیبانی می‌کند.",
"hunyuan-t1-20250403.description": "تولید کد در سطح پروژه و کیفیت نوشتار را بهبود می‌بخشد، درک موضوعات چندمرحله‌ای و پیروی از دستورالعمل‌های ToB را تقویت می‌کند، درک در سطح واژه را بهبود می‌دهد و مشکلات خروجی ترکیبی ساده/سنتی و چینی/انگلیسی را کاهش می‌دهد.",
"hunyuan-t1-20250529.description": "نوشتار خلاقانه و ترکیب‌بندی را بهبود می‌بخشد، کدنویسی فرانت‌اند، ریاضی و استدلال منطقی را تقویت می‌کند و پیروی از دستورالعمل‌ها را ارتقاء می‌دهد.",
"hunyuan-t1-20250711.description": "ریاضی سخت، منطق و کدنویسی را به‌طور چشمگیری بهبود می‌بخشد، پایداری خروجی را افزایش می‌دهد و توانایی در متون بلند را ارتقاء می‌دهد.",
"hunyuan-role.description": "جدیدترین مدل نقش‌آفرینی Hunyuan که به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم شده است و عملکرد پایه قوی‌تری در سناریوهای نقش‌آفرینی ارائه می‌دهد.",
"hunyuan-standard-256K.description": "از مسیریابی بهبود یافته برای کاهش تعادل بار و فروپاشی متخصص استفاده می‌کند. متن طولانی \"سوزن در انبار کاه\" به 99.9% می‌رسد. MOE-256K طول و کیفیت ورودی را به‌طور قابل‌توجهی گسترش می‌دهد.",
"hunyuan-standard.description": "از مسیریابی بهبود یافته برای کاهش تعادل بار و فروپاشی متخصص استفاده می‌کند. متن طولانی \"سوزن در انبار کاه\" به 99.9% می‌رسد. MOE-32K ارزش بهتری ارائه می‌دهد و کیفیت و قیمت را برای ورودی‌های متن طولانی متعادل می‌کند.",
"hunyuan-t1-latest.description": "مدل تفکر آهسته را در ریاضی سخت، استدلال پیچیده، کدنویسی دشوار، پیروی از دستورالعمل‌ها و کیفیت نوشتار خلاقانه به‌طور قابل توجهی بهبود می‌بخشد.",
"hunyuan-t1-vision-20250619.description": "جدیدترین مدل استدلال عمیق چندوجهی t1-vision با زنجیره تفکر بومی، به‌طور قابل توجهی نسبت به نسخه پیش‌فرض قبلی بهبود یافته است.",
"hunyuan-t1-vision-20250916.description": "جدیدترین مدل استدلال عمیق t1-vision با بهبودهای عمده در VQA، اتصال بصری، OCR، نمودارها، حل مسائل تصویری و تولید مبتنی بر تصویر، به‌علاوه پشتیبانی قوی‌تر از زبان انگلیسی و زبان‌های کم‌منبع.",
"hunyuan-turbo-20241223.description": "این نسخه مقیاس‌پذیری دستورالعمل را برای تعمیم بهتر افزایش می‌دهد، استدلال در ریاضی/کد/منطق را به‌طور قابل توجهی بهبود می‌بخشد، درک در سطح واژه را ارتقاء می‌دهد و کیفیت نوشتار را بهبود می‌بخشد.",
"hunyuan-turbo-latest.description": "بهبودهای کلی در تجربه کاربری در درک NLP، نوشتار، چت، پرسش‌وپاسخ، ترجمه و حوزه‌های تخصصی؛ پاسخ‌هایی شبیه‌تر به انسان، وضوح بهتر در نیت‌های مبهم، تجزیه واژه‌ای بهتر، کیفیت خلاقانه بالاتر و تعامل‌پذیری بیشتر، و مکالمات چندمرحله‌ای قوی‌تر.",
"hunyuan-turbo-vision.description": "مدل پرچم‌دار نسل بعدی زبان-بینایی با استفاده از معماری جدید MoE، با بهبودهای گسترده در شناسایی، تولید محتوا، پرسش‌وپاسخ دانشی و استدلال تحلیلی.",
"hunyuan-turbo.description": "پیش‌نمایشی از مدل LLM نسل بعدی Hunyuan با معماری جدید MoE، ارائه‌دهنده استدلال سریع‌تر و نتایج قوی‌تر نسبت به hunyuan-pro.",
"hunyuan-turbos-20250313.description": "سبک حل مسائل ریاضی را یکپارچه کرده و توانایی پاسخ‌گویی چندمرحله‌ای در ریاضی را تقویت می‌کند. سبک نگارش بهبود یافته تا لحن مصنوعی کاهش یابد و متن صیقل‌خورده‌تری ارائه شود.",
"hunyuan-turbos-20250416.description": "پایه پیش‌آموزشی ارتقاء یافته برای درک بهتر دستورالعمل‌ها و پیروی از آن‌ها؛ هم‌راستایی بهبود یافته در ریاضی، کدنویسی، منطق و علوم؛ بهبود کیفیت نگارش، درک مطلب، دقت ترجمه و پاسخ‌گویی به سؤالات دانشی؛ تقویت توانایی‌های عامل، به‌ویژه درک چندمرحله‌ای.",
"hunyuan-turbos-20250604.description": "پایه پیش‌آموزشی ارتقاء یافته با بهبود در نگارش و درک مطلب، پیشرفت چشمگیر در کدنویسی و علوم پایه، و پیروی بهتر از دستورالعمل‌های پیچیده.",
"hunyuan-turbos-20250926.description": "کیفیت داده‌های پیش‌آموزشی و استراتژی پس‌آموزشی ارتقاء یافته، با بهبود در عملکرد عامل‌ها، زبان انگلیسی و زبان‌های کم‌منبع، پیروی از دستورالعمل‌ها، کدنویسی و توانایی‌های STEM.",
"hunyuan-turbos-latest.description": "جدیدترین مدل پرچم‌دار Hunyuan TurboS با استدلال قوی‌تر و تجربه‌ای کلی بهتر.",
"hunyuan-turbos-longtext-128k-20250325.description": "در انجام وظایف متنی طولانی مانند خلاصه‌سازی و پاسخ به سؤالات عملکرد عالی دارد و همچنین در تولید محتوای عمومی توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.",
"hunyuan-turbos-role-plus.description": "جدیدترین مدل نقش‌آفرینی، به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم دقیق شده و عملکرد پایه‌ای قوی‌تری در سناریوهای نقش‌آفرینی ارائه می‌دهد.",
"hunyuan-turbos-vision-20250619.description": "جدیدترین مدل پرچم‌دار TurboS در حوزه بینایی-زبان با پیشرفت‌های چشمگیر در وظایف تصویر-متن مانند شناسایی موجودیت‌ها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل مبتنی بر عکس.",
"hunyuan-turbos-vision.description": "مدل پرچم‌دار نسل جدید بینایی-زبان مبتنی بر TurboS جدید، متمرکز بر درک وظایف تصویر-متن مانند شناسایی موجودیت‌ها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل تصویری.",
"hunyuan-vision-1.5-instruct.description": "مدلی برای تولید متن از تصویر با تفکر سریع، مبتنی بر پایه TurboS متنی، که نسبت به نسخه قبلی در شناسایی پایه‌ای تصویر و استدلال تحلیلی تصویری بهبود قابل‌توجهی دارد.",
"hunyuan-vision.description": "جدیدترین مدل چندوجهی با پشتیبانی از ورودی تصویر + متن برای تولید متن.",
"hunyuan-vision-1.5-instruct.description": "یک مدل تصویر به متن سریع تفکر که بر اساس پایه متن TurboS ساخته شده است و بهبودهای قابل‌توجهی نسبت به نسخه قبلی در تشخیص تصویر بنیادی و استدلال تحلیل تصویر نشان می‌دهد.",
"hunyuan-vision.description": "جدیدترین مدل چندوجهی Hunyuan که از ورودی‌های تصویر + متن برای تولید متن پشتیبانی می‌کند.",
"image-01-live.description": "مدل تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تنظیمات سبک قابل کنترل.",
"image-01.description": "مدل جدید تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تصویر به تصویر.",
"imagen-4.0-fast-generate-001.description": "نسخه سریع از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
"imagen-4.0-generate-001.description": "سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
"imagen-4.0-generate-preview-06-06.description": "خانواده مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.",
"imagen-4.0-ultra-generate-001.description": "نسخه Ultra از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen",
"imagen-4.0-ultra-generate-preview-06-06.description": "گونه Ultra از مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small برای تولید کد، اشکال‌زدایی و بازسازی کد با کمترین تأخیر ایده‌آل است.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 سومین مدل معماری Ling 2.0 از تیم Bailing گروه Ant است. این مدل MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر توکن (۴.۸ میلیارد بدون جاسازی) است. با وجود پیکربندی سبک، عملکردی برابر یا بهتر از مدل‌های چگال ۴۰B و حتی MoEهای بزرگ‌تر در چندین معیار دارد و کارایی بالا را از طریق معماری و استراتژی آموزش بررسی می‌کند.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 یک مدل MoE کوچک و با عملکرد بالا با ۱۶ میلیارد پارامتر کل و تنها ۱.۴ میلیارد فعال در هر توکن (۷۸۹ میلیون بدون جاسازی) است که تولید بسیار سریعی دارد. با طراحی کارآمد MoE و داده‌های آموزشی با کیفیت بالا، عملکردی در سطح بالا ارائه می‌دهد که با مدل‌های چگال زیر ۱۰B و MoEهای بزرگ‌تر قابل مقایسه است.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T مدل MoE با یک تریلیون پارامتر از inclusionAI برای وظایف استدلال در مقیاس بزرگ و تحقیقات مناسب است.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 گونه‌ای از مدل Ring از inclusionAI برای سناریوهای با توان بالا است که بر سرعت و کارایی هزینه تأکید دارد.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 مدل MoE سبک و با توان بالا از inclusionAI است که برای هم‌زمانی طراحی شده است.",
"intern-latest.description": "به‌طور پیش‌فرض به جدیدترین مدل منتشر شده سری Intern اشاره دارد، که در حال حاضر به intern-s1-pro تنظیم شده است.",
"intern-s1-mini.description": "یک مدل بزرگ چندوجهی سبک با قابلیت‌های استدلال علمی قوی.",
"intern-s1-pro.description": "ما پیشرفته‌ترین مدل استدلال چندوجهی متن‌باز خود را راه‌اندازی کرده‌ایم، که در حال حاضر بهترین مدل بزرگ زبان چندوجهی متن‌باز از نظر عملکرد کلی است.",
"intern-s1.description": "مدل استدلال چندوجهی متن‌باز نه تنها قابلیت‌های عمومی قوی نشان می‌دهد، بلکه عملکرد پیشرفته‌ای در طیف گسترده‌ای از وظایف علمی دارد.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat یک مدل چت متن‌باز بر پایه معماری InternLM2 است. این مدل ۷B بر تولید گفت‌وگو تمرکز دارد و از زبان‌های چینی و انگلیسی پشتیبانی می‌کند و با آموزش مدرن، گفت‌وگویی روان و هوشمند ارائه می‌دهد. برای بسیاری از سناریوهای چت مانند پشتیبانی مشتری و دستیار شخصی مناسب است.",
"internlm2.5-latest.description": "مدل‌های قدیمی که همچنان با عملکرد عالی و پایدار پس از چندین تکرار نگهداری می‌شوند. در اندازه‌های ۷B و ۲۰B موجود هستند، از زمینه ۱M پشتیبانی می‌کنند و در پیروی از دستورالعمل و استفاده از ابزار قوی‌تر هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM2.5 (در حال حاضر internlm2.5-20b-chat) اشاره دارد.",
"internlm3-latest.description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی که در کلاس اندازه خود در میان مدل‌های متن‌باز پیشرو هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM3 (در حال حاضر internlm3-8b-instruct) اشاره دارد.",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO یک مدل پیش‌آموزش چندوجهی برای استدلال پیچیده تصویر-متن است.",
"internvl2.5-latest.description": "InternVL2.5 همچنان با عملکرد قوی و پایدار نگهداری می‌شود. به‌طور پیش‌فرض به جدیدترین سری InternVL2.5 (در حال حاضر internvl2.5-78b) اشاره دارد.",
"internvl3-14b.description": "InternVL3 14B یک مدل چندوجهی با اندازه متوسط است که بین عملکرد و هزینه تعادل برقرار می‌کند.",
"internvl3-1b.description": "InternVL3 1B یک مدل چندوجهی سبک برای استقرار در محیط‌های با منابع محدود است.",
"internvl3-38b.description": "InternVL3 38B یک مدل چندوجهی متن‌باز بزرگ برای درک دقیق تصویر-متن است.",
"internvl3-latest.description": "جدیدترین مدل چندوجهی ما با درک قوی‌تر تصویر-متن و درک توالی‌های تصویری بلند، قابل مقایسه با مدل‌های بسته برتر. به‌طور پیش‌فرض به جدیدترین سری InternVL (در حال حاضر internvl3-78b) اشاره دارد.",
"internvl3.5-241b-a28b.description": "مدل بزرگ چندوجهی تازه منتشر شده ما قابلیت‌های درک تصویر و متن پیشرفته و درک تصویر با دنباله طولانی را ارائه می‌دهد و عملکردی قابل مقایسه با مدل‌های متن‌بسته پیشرو دارد.",
"internvl3.5-latest.description": "به‌طور پیش‌فرض به جدیدترین مدل در سری InternVL3.5 اشاره دارد، که در حال حاضر به internvl3.5-241b-a28b تنظیم شده است.",
"irag-1.0.description": "ERNIE iRAG یک مدل تولید تقویت‌شده با بازیابی تصویر برای جستجوی تصویر، بازیابی تصویر-متن و تولید محتوا است.",
"jamba-large.description": "پیشرفته‌ترین و قدرتمندترین مدل ما، طراحی‌شده برای وظایف پیچیده سازمانی با عملکرد برجسته.",
"jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچک‌تر.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 یک مدل زبانی بزرگ کارآمد است که به‌طور خاص برای برنامه‌نویسی و جریان‌های کاری عامل طراحی شده است.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 یک مدل زبانی بزرگ سبک و پیشرفته است که برای برنامه‌نویسی، جریان‌های کاری نماینده و توسعه برنامه‌های مدرن بهینه شده و خروجی‌های تمیزتر، مختصرتر و پاسخ‌دهی سریع‌تری ارائه می‌دهد.",
"minimax/minimax-m2.description": "MiniMax-M2 مدلی با ارزش بالا است که در برنامه‌نویسی و وظایف عامل در بسیاری از سناریوهای مهندسی عملکرد خوبی دارد.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 یک مدل MoE جمع‌وجور، سریع و مقرون‌به‌صرفه است که برای عملکرد کدنویسی و عامل در سطح بالا طراحی شده است.",
"minimaxai/minimax-m2.description": "MiniMax-M2 یک مدل MoE فشرده، سریع و مقرون‌به‌صرفه (با ۲۳۰ میلیارد پارامتر کل و ۱۰ میلیارد فعال) است که برای عملکرد سطح بالا در برنامه‌نویسی و عامل‌ها طراحی شده و در عین حال هوش عمومی قوی را حفظ می‌کند. این مدل در ویرایش چندفایلی، حلقه‌های اجرای کد و اصلاح، اعتبارسنجی تست و زنجیره‌های ابزار پیچیده عملکرد برجسته‌ای دارد.",
"ministral-3b-latest.description": "Ministral 3B پیشرفته‌ترین مدل لبه‌ای Mistral است.",
"ministral-8b-latest.description": "Ministral 8B یک مدل لبه‌ای بسیار مقرون‌به‌صرفه از Mistral است.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "مدل kimi-k2-0905-preview از پنجره زمینه ۲۵۶K پشتیبانی می‌کند و دارای برنامه‌نویسی عامل‌محور قوی‌تر، کد رابط کاربری زیباتر و کاربردی‌تر و درک بهتر زمینه است.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo نسخه پرسرعت مدل Kimi K2 Thinking است که با حفظ عمق استدلال، تأخیر را به‌طور قابل‌توجهی کاهش می‌دهد.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking مدل استدلال Moonshot است که برای وظایف استدلال عمیق بهینه‌سازی شده و قابلیت‌های عمومی عامل را داراست.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 هوشمندترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است.",
"moonshotai/kimi-k2.description": "Kimi K2 یک مدل بزرگ MoE از Moonshot AI با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال در هر عبور است که برای قابلیت‌های عامل از جمله استفاده پیشرفته از ابزار، استدلال و تولید کد بهینه‌سازی شده است.",
"morph/morph-v3-fast.description": "Morph یک مدل تخصصی است که تغییرات کدی پیشنهادشده توسط مدل‌های پیشرفته (مانند Claude یا GPT-4o) را با سرعت بیش از ۴۵۰۰ توکن در ثانیه روی فایل‌های موجود شما اعمال می‌کند. این مدل مرحله نهایی در جریان کاری برنامه‌نویسی با هوش مصنوعی است و از ورودی/خروجی ۱۶K توکن پشتیبانی می‌کند.",
"morph/morph-v3-large.description": "Morph یک مدل تخصصی است که تغییرات کدی پیشنهادشده توسط مدل‌های پیشرفته (مانند Claude یا GPT-4o) را با سرعت بیش از ۲۵۰۰ توکن در ثانیه روی فایل‌های موجود شما اعمال می‌کند. این مدل مرحله نهایی در جریان کاری برنامه‌نویسی با هوش مصنوعی است و از ورودی/خروجی ۱۶K توکن پشتیبانی می‌کند.",
"musesteamer-air-image.description": "musesteamer-air-image یک مدل تولید تصویر است که توسط تیم جستجوی Baidu توسعه یافته است تا عملکرد هزینه‌ای استثنایی ارائه دهد. این مدل می‌تواند به‌سرعت تصاویر واضح و منسجم با عمل را بر اساس دستورات کاربر تولید کند و توصیفات کاربر را به‌راحتی به تصاویر تبدیل کند.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B نسخه به‌روزشده‌ای از Nous Hermes 2 است که با جدیدترین داده‌های داخلی توسعه یافته است.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B یک مدل سفارشی‌شده توسط NVIDIA برای بهبود مفید بودن پاسخ‌های LLM است. این مدل در Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد قوی دارد و تا ۱ اکتبر ۲۰۲۴ در هر سه معیار هم‌ترازی خودکار رتبه اول را کسب کرده است. این مدل از Llama-3.1-70B-Instruct با استفاده از RLHF (REINFORCE)، Llama-3.1-Nemotron-70B-Reward و درخواست‌های HelpSteer2-Preference آموزش دیده است.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "مدلی متمایز با دقت و کارایی استثنایی در پردازش زبان طبیعی.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "بر اساس طول متن، موضوع و پیچیدگی، درخواست شما به یکی از مدل‌های Llama 3 70B Instruct، Claude 3.5 Sonnet (با خودنظارتی) یا GPT-4o هدایت می‌شود.",
"oswe-vscode-prime.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.",
"oswe-vscode-secondary.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 مدلی است که بین کارایی محاسباتی بالا و عملکرد استدلال و عامل عالی تعادل برقرار می‌کند.",
"perplexity/sonar-pro.description": "محصول پرچم‌دار Perplexity با اتصال به جستجو، پشتیبانی از پرسش‌های پیشرفته و پیگیری‌های بعدی.",
"perplexity/sonar-reasoning-pro.description": "مدلی پیشرفته با تمرکز بر استدلال که خروجی زنجیره تفکر (CoT) را با جستجوی تقویت‌شده و چند پرس‌وجو در هر درخواست ارائه می‌دهد.",
"perplexity/sonar-reasoning.description": "مدلی با تمرکز بر استدلال که زنجیره تفکر (CoT) را با توضیحات دقیق و مبتنی بر جستجو تولید می‌کند.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "مدل کدنویسی Qwen.",
"qwen-coder-turbo.description": "مدل کدنویسی Qwen.",
"qwen-flash.description": "سریع‌ترین و کم‌هزینه‌ترین مدل Qwen، ایده‌آل برای وظایف ساده.",
"qwen-image-edit-max.description": "مدل ویرایش تصویر Qwen از ورودی چندتصویر و خروجی چندتصویر پشتیبانی می‌کند و امکان ویرایش دقیق متن در تصویر، افزودن، حذف یا جابجایی اشیاء، تغییر عمل سوژه، انتقال سبک تصویر و بهبود جزئیات بصری را فراهم می‌کند.",
"qwen-image-edit-plus.description": "مدل ویرایش تصویر Qwen از ورودی چندتصویر و خروجی چندتصویر پشتیبانی می‌کند و امکان ویرایش دقیق متن در تصویر، افزودن، حذف یا جابجایی اشیاء، تغییر عمل سوژه، انتقال سبک تصویر و بهبود جزئیات بصری را فراهم می‌کند.",
"qwen-image-edit.description": "Qwen Image Edit یک مدل تصویر به تصویر است که تصاویر را بر اساس ورودی تصویری و دستورات متنی ویرایش می‌کند و امکان تنظیمات دقیق و تغییرات خلاقانه را فراهم می‌سازد.",
"qwen-image-max.description": "مدل تولید تصویر Qwen (سری Max) واقع‌گرایی و طبیعی بودن بصری را نسبت به سری Plus بهبود می‌بخشد، مصنوعات تولید شده توسط هوش مصنوعی را به‌طور مؤثر کاهش می‌دهد و عملکرد برجسته‌ای در ظاهر انسانی، جزئیات بافت و رندر متن نشان می‌دهد.",
"qwen-image-plus.description": "از طیف گسترده‌ای از سبک‌های هنری پشتیبانی می‌کند و به‌ویژه در رندر متن پیچیده در تصاویر مهارت دارد، که طراحی چیدمان تصویر-متن یکپارچه را امکان‌پذیر می‌کند.",
"qwen-image.description": "Qwen-Image یک مدل عمومی تولید تصویر است که از سبک‌های هنری مختلف و رندر پیچیده متن (به‌ویژه چینی و انگلیسی) پشتیبانی می‌کند. از چیدمان چندخطی، متن در سطح پاراگراف و جزئیات دقیق برای ترکیب‌های پیچیده متن-تصویر پشتیبانی می‌کند.",
"qwen-long.description": "مدل Qwen فوق‌العاده بزرگ با پشتیبانی از زمینه طولانی و گفت‌وگو در سناریوهای چندسندی و چندسندی بلند.",
"qwen-math-plus-latest.description": "Qwen Math یک مدل زبانی تخصصی برای حل مسائل ریاضی است.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "مدل کدنویسی متن‌باز Qwen. نسخه جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct یک مدل کدنویسی پیشرفته برای برنامه‌نویسی چندزبانه و درک کد پیچیده است.",
"qwen3-coder-flash.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.",
"qwen3-coder-next.description": "کدنویس نسل بعدی Qwen که برای تولید کد چندفایلی پیچیده، اشکال‌زدایی و جریان‌های کاری عامل با توان بالا بهینه شده است. طراحی شده برای ادغام ابزار قوی و عملکرد استدلال بهبود یافته.",
"qwen3-coder-plus.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.",
"qwen3-coder:480b.description": "مدل با عملکرد بالا از علی‌بابا برای وظایف عامل و کدنویسی با پشتیبانی از زمینه طولانی.",
"qwen3-max-2026-01-23.description": "مدل‌های Qwen3 Max نسبت به سری ۲.۵ پیشرفت‌های بزرگی در توانایی عمومی، درک چینی/انگلیسی، پیروی از دستورالعمل‌های پیچیده، وظایف ذهنی باز، توانایی چندزبانه و استفاده از ابزار دارند و خطاهای توهمی کمتری دارند. نسخه جدید qwen3-max در برنامه‌نویسی عامل‌محور و استفاده از ابزار نسبت به نسخه پیش‌نمایش بهبود یافته و به سطح SOTA در حوزه خود رسیده و برای نیازهای پیچیده‌تر عامل‌ها طراحی شده است.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking یک مدل زنجیره تفکر چندرسانه‌ای برای استدلال بصری دقیق است.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: نسخه سبک و پرسرعت برای استدلال در درخواست‌های حساس به تأخیر یا با حجم بالا.",
"qwen3-vl-plus.description": "Qwen VL یک مدل تولید متن با درک بصری است. می‌تواند OCR انجام دهد و همچنین خلاصه‌سازی و استدلال کند، مانند استخراج ویژگی‌ها از عکس‌های محصول یا حل مسائل از روی تصاویر.",
"qwen3.5-397b-a17b.description": "از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است، که کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل‌توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.",
"qwen3.5-plus.description": "Qwen3.5 Plus از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است، در حالی که کارایی بهتر و هزینه کمتری ارائه می‌دهد. از نظر قابلیت‌های چندوجهی، بهبودهای قابل‌توجهی نسبت به سری Qwen3 VL نشان می‌دهد.",
"qwen3.description": "Qwen3 نسل بعدی مدل زبان بزرگ علی‌بابا است که عملکرد قدرتمندی در کاربردهای متنوع دارد.",
"qwq-32b-preview.description": "QwQ یک مدل تحقیقاتی آزمایشی از Qwen است که بر بهبود استدلال تمرکز دارد.",
"qwq-32b.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پایین‌دستی را به‌ویژه در مسائل پیچیده به‌طور قابل توجهی بهبود می‌بخشد. QwQ-32B یک مدل استدلال میان‌رده است که با مدل‌های برتر مانند DeepSeek-R1 و o1-mini رقابت می‌کند.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "مدل استدلال میان‌رده در خانواده Qwen. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد.",
"r1-1776.description": "R1-1776 نسخه پس‌آموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بی‌طرف طراحی شده است.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro از ByteDance از تبدیل متن به ویدیو، تصویر به ویدیو (فریم اول، فریم اول+آخر) و تولید صدا هماهنگ با تصویر پشتیبانی می‌کند.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگی‌های تولید با بازیابی وب برای اطلاعات لحظه‌ای، تفسیر پیچیده دستورالعمل‌ها و سازگاری مرجع بهبود یافته برای خلق بصری حرفه‌ای را ارائه می‌دهد.",
"solar-mini-ja.description": "Solar Mini (ژاپنی) نسخه‌ای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبان‌های انگلیسی و کره‌ای حفظ می‌کند.",
"solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبان‌های انگلیسی و کره‌ای، راه‌حلی کارآمد با حجم کم ارائه می‌دهد.",
"solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعمل‌ها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گسترده‌تر و زمینه طولانی‌تر برنامه‌ریزی شده است.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرس‌وجوهای پیچیده و پیگیری‌ها.",
"sonar-reasoning.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرس‌وجوهای پیچیده و پیگیری‌ها.",
"sonar.description": "یک محصول سبک‌وزن با جستجوی مبتنی بر زمینه، سریع‌تر و ارزان‌تر از Sonar Pro.",
"spark-x.description": "به‌روزرسانی‌های X1.5: (۱) افزودن حالت تفکر پویا با کنترل از طریق فیلد `thinking`؛ (۲) طول زمینه بزرگ‌تر با ورودی ۶۴K و خروجی ۶۴K؛ (۳) پشتیبانی از FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 مدلی است که بین کارایی محاسباتی بالا و عملکرد استدلال و عامل عالی تعادل برقرار می‌کند.",
"spark-x.description": "بررسی قابلیت‌های X2: 1. معرفی تنظیم پویا حالت استدلال، کنترل شده از طریق فیلد `thinking`. 2. طول زمینه گسترش یافته: 64K توکن ورودی و 128K توکن خروجی. 3. از قابلیت Function Call پشتیبانی می‌کند.",
"stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را به‌طور قابل‌توجهی بهبود می‌بخشد، دستورات زبان طبیعی پیچیده را دقیق‌تر تفسیر کرده و تصاویر متنوع‌تری تولید می‌کند.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده می‌کند.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه می‌دهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سخت‌افزار مصرفی پشتیبانی می‌کند.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "پشتیبانی از تعاملات با زمینه بزرگ برای گفت‌وگوهای پیچیده.",
"step-2-mini.description": "ساخته‌شده بر پایه معماری توجه MFA نسل بعدی داخلی، با نتایجی مشابه Step-1 اما با هزینه کمتر، توان عملیاتی بالاتر و تأخیر کمتر. وظایف عمومی را با توانایی قوی در کدنویسی انجام می‌دهد.",
"step-2x-large.description": "مدل تصویری نسل جدید StepFun با تمرکز بر تولید تصویر، تولید تصاویر با کیفیت بالا از دستورات متنی. بافت واقعی‌تر و رندر بهتر متون چینی/انگلیسی ارائه می‌دهد.",
"step-3.5-flash.description": "مدل استدلال زبان پرچم‌دار از Stepfun. این مدل قابلیت‌های استدلال سطح بالا را همراه با اجرای سریع و قابل‌اعتماد ارائه می‌دهد. می‌تواند وظایف پیچیده را تجزیه و برنامه‌ریزی کند، ابزارها را به‌سرعت و قابل‌اعتماد فراخوانی کند و در استدلال منطقی، ریاضیات، مهندسی نرم‌افزار، تحقیقات عمیق و سایر وظایف پیچیده برتری داشته باشد. طول زمینه 256K است.",
"step-3.description": "این مدل دارای درک بصری قوی و استدلال پیچیده است و درک دانش میان‌رشته‌ای، تحلیل ریاضی-تصویری و طیف گسترده‌ای از وظایف تحلیل بصری روزمره را با دقت انجام می‌دهد.",
"step-r1-v-mini.description": "مدل استدلال با درک قوی تصویر که می‌تواند تصاویر و متون را پردازش کرده و پس از استدلال عمیق، متن تولید کند. در استدلال بصری، ریاضی، کدنویسی و استدلال متنی عملکردی در سطح بالا دارد و از پنجره زمینه ۱۰۰ هزار توکن پشتیبانی می‌کند.",
"stepfun-ai/step3.description": "Step3 یک مدل استدلال چندوجهی پیشرفته از StepFun است که بر پایه معماری MoE با ۳۲۱ میلیارد پارامتر کل و ۳۸ میلیارد فعال ساخته شده است. طراحی انتها به انتها هزینه رمزگشایی را کاهش داده و استدلال زبان-تصویر سطح بالا را ارائه می‌دهد. با طراحی MFA و AFD، در شتاب‌دهنده‌های پرچم‌دار و سطح پایین کارآمد باقی می‌ماند. پیش‌آموزش با بیش از ۲۰ تریلیون توکن متنی و ۴ تریلیون توکن تصویر-متن در زبان‌های مختلف انجام شده و در معیارهای ریاضی، کدنویسی و چندوجهی عملکردی پیشرو دارد.",
"taichu_llm.description": "آموزش‌دیده بر داده‌های باکیفیت عظیم، با درک متنی قوی‌تر، تولید محتوا و پرسش‌وپاسخ مکالمه‌ای.",
"taichu_o1.description": "taichu_o1 یک مدل استدلال نسل جدید است که با تعامل چندوجهی و یادگیری تقویتی، زنجیره تفکر انسانی‌مانند را ایجاد می‌کند، از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی کرده و مسیرهای استدلال را در عین حفظ دقت بالا نمایش می‌دهد. مناسب برای تحلیل استراتژی و تفکر عمیق.",
"taichu_vl.description": "ترکیبی از درک تصویر، انتقال دانش و استنتاج منطقی، با عملکرد عالی در پرسش‌وپاسخ تصویر-متن.",
"taichu4_vl_2b_nothinking.description": "نسخه بدون تفکر مدل Taichu4.0-VL 2B دارای مصرف حافظه کمتر، طراحی سبک، سرعت پاسخ سریع و قابلیت‌های درک چندوجهی قوی است.",
"taichu4_vl_32b.description": "نسخه تفکر مدل Taichu4.0-VL 32B برای وظایف درک و استدلال چندوجهی پیچیده مناسب است و عملکرد برجسته‌ای در استدلال ریاضی چندوجهی، قابلیت‌های عامل چندوجهی و درک عمومی تصویر و بصری نشان می‌دهد.",
"taichu4_vl_32b_nothinking.description": "نسخه بدون تفکر مدل Taichu4.0-VL 32B برای سناریوهای درک تصویر و متن پیچیده و پرسش و پاسخ دانش بصری طراحی شده است و در زیرنویس تصویر، پرسش و پاسخ بصری، درک ویدئو و وظایف مکان‌یابی بصری برتری دارد.",
"taichu4_vl_3b.description": "نسخه تفکر مدل Taichu4.0-VL 3B وظایف درک و استدلال چندوجهی را به‌طور کارآمد انجام می‌دهد، با ارتقاهای جامع در درک بصری، مکان‌یابی بصری، تشخیص OCR و قابلیت‌های مرتبط.",
"taichu_llm.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.",
"taichu_llm_14b.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.",
"taichu_llm_2b.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.",
"taichu_o1.description": "taichu_o1 یک مدل بزرگ استدلال نسل بعدی است که زنجیره تفکر انسان‌مانند را از طریق تعامل چندوجهی و یادگیری تقویتی به دست می‌آورد. از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی می‌کند و در حالی که خروجی با دقت بالا را حفظ می‌کند، مسیرهای استدلال قابل‌تفسیر را نشان می‌دهد. برای تحلیل استراتژی، تفکر عمیق و سناریوهای مشابه مناسب است.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی هم‌تراز با مدل‌های بزرگ‌تر ارائه می‌دهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عامل‌ها در آزمون‌های BFCL-v3 و τ-Bench پشتیبانی می‌کند. فرمت‌های GQA و چندکوانتیزه‌سازی، استنتاج کارآمد را ممکن می‌سازند.",
"tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان به‌علاوه ۵ زبان اقلیت چینی پشتیبانی می‌کند. در رقابت WMT25، در ۳۰ جفت‌زبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیش‌آموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده می‌کند و با عملکردی پیشرو در اندازه خود، به‌راحتی قابل استقرار است.",
"text-embedding-3-large.description": "قوی‌ترین مدل تعبیه‌سازی برای وظایف انگلیسی و غیرانگلیسی.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md برای وظایف روزمره و تولید رابط کاربری مناسب است.",
"vercel/v0-1.0-md.description": "به مدل‌های پشت v0 دسترسی پیدا کنید تا برنامه‌های وب مدرن را با استدلال خاص فریم‌ورک و دانش به‌روز تولید، اصلاح و بهینه‌سازی کنید.",
"vercel/v0-1.5-md.description": "به مدل‌های پشت v0 دسترسی پیدا کنید تا برنامه‌های وب مدرن را با استدلال خاص فریم‌ورک و دانش به‌روز تولید، اصلاح و بهینه‌سازی کنید.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code برای نیازهای کدنویسی در سطح سازمانی بهینه شده است و بر اساس قابلیت‌های عالی Agent و VLM در Seed 2.0، توانایی‌های کدنویسی را به‌طور ویژه تقویت کرده است. نه تنها عملکرد برجسته‌ای در قابلیت‌های فرانت‌اند دارد، بلکه برای نیازهای کدنویسی چندزبانه رایج در سازمان‌ها نیز به‌طور ویژه بهینه شده است و مناسب برای استفاده در ابزارهای مختلف کدنویسی AI است.",
"volcengine/doubao-seed-2-0-lite.description": "کیفیت تولید و سرعت پاسخ را متعادل می‌کند و مناسب به‌عنوان مدل تولید عمومی است.",
"volcengine/doubao-seed-2-0-mini.description": "به نسخه جدیدترین doubao-seed-2-0-mini اشاره دارد.",
"volcengine/doubao-seed-2-0-pro.description": "به نسخه جدیدترین doubao-seed-2-0-pro اشاره دارد.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code مدل LLM شرکت ByteDance Volcano Engine است که برای برنامه‌نویسی عامل‌محور بهینه‌سازی شده و در معیارهای برنامه‌نویسی و عامل با پشتیبانی از زمینه ۲۵۶K عملکرد قوی دارد.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed جدیدترین مدل با ارتقاء در خلاقیت، پایداری و واقع‌گرایی است که تولید سریع و ارزش بالا را ارائه می‌دهد.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro جدیدترین مدل با ارتقاء در خلاقیت، پایداری و واقع‌گرایی است که جزئیات غنی‌تری تولید می‌کند.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash جدیدترین مدل با ارتقاهایی در خلاقیت، پایداری و واقع‌گرایی است که تولید سریع و ارزش بالا را ارائه می‌دهد.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus جدیدترین مدل با ارتقاهایی در خلاقیت، پایداری و واقع‌گرایی است که جزئیات غنی‌تری تولید می‌کند.",
"wan2.5-i2i-preview.description": "پیش‌نمایش Wanxiang 2.5 I2I از ویرایش تصویر تک‌تصویر و ترکیب چندتصویر پشتیبانی می‌کند.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I از انتخاب انعطاف‌پذیر ابعاد تصویر در محدوده کل مساحت پیکسل و محدودیت‌های نسبت ابعاد پشتیبانی می‌کند.",
"wan2.6-image.description": "Wanxiang 2.6 Image از ویرایش تصویر و خروجی چیدمان ترکیبی تصویر-متن پشتیبانی می‌کند.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I از انتخاب انعطاف‌پذیر ابعاد تصویر در محدوده کل مساحت پیکسل و محدودیت‌های نسبت ابعاد پشتیبانی می‌کند (مانند Wanxiang 2.5).",
"wanx-v1.description": "مدل پایه تبدیل متن به تصویر. معادل Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "در پرتره‌های بافت‌دار با سرعت متوسط و هزینه کمتر عملکرد عالی دارد. معادل Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "نسخه کاملاً ارتقاءیافته با جزئیات تصویری غنی‌تر و سرعت کمی کمتر. معادل Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای موارد استفاده با هم‌زمانی بالا و زمینه‌های طولانی ایده‌آل است.",
"x-ai/grok-4.description": "Grok 4 مدل پرچم‌دار xAI با توانایی استدلال قوی و قابلیت چندوجهی است.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 مدل سریع کدنویسی از xAI است که خروجی‌هایی خوانا و مناسب برای مهندسی ارائه می‌دهد.",
"x1.description": "به‌روزرسانی‌های X1.5: (1) اضافه کردن حالت تفکر پویا که توسط فیلد `thinking` کنترل می‌شود؛ (2) طول زمینه بزرگ‌تر با 64K ورودی و 64K خروجی؛ (3) از FunctionCall پشتیبانی می‌کند.",
"xai/grok-2-vision.description": "Grok 2 Vision در وظایف بصری عملکردی عالی دارد و در استدلال ریاضی تصویری (MathVista) و پرسش‌وپاسخ اسناد (DocVQA) به سطح SOTA می‌رسد. این مدل اسناد، نمودارها، گراف‌ها، اسکرین‌شات‌ها و عکس‌ها را پردازش می‌کند.",
"xai/grok-2.description": "Grok 2 یک مدل پیشرفته با استدلال پیشرفته، چت قوی، کدنویسی و عملکرد استدلالی عالی است که در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4 Turbo قرار دارد.",
"xai/grok-3-fast.description": "مدل پرچم‌دار xAI در کاربردهای سازمانی مانند استخراج داده، کدنویسی و خلاصه‌سازی برتری دارد و دانش عمیقی در حوزه‌های مالی، سلامت، حقوق و علوم دارد. نسخه سریع آن بر زیرساخت سریع‌تری اجرا می‌شود و پاسخ‌های بسیار سریع‌تری با هزینه بیشتر به ازای هر توکن ارائه می‌دهد.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 مدل پرچم‌دار Z.AI با استدلال ترکیبی بهینه‌شده برای وظایف مهندسی و زمینه‌های طولانی است.",
"z-ai/glm-4.6.description": "GLM 4.6 مدل پرچم‌دار Z.AI با طول زمینه گسترش‌یافته و قابلیت برنامه‌نویسی است.",
"z-ai/glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که توانایی‌های عمومی بهبود یافته، پاسخ‌های طبیعی‌تر و تجربه نوشتاری جذاب‌تری ارائه می‌دهد.",
"z-ai/glm5.description": "یک مدل استدلال قوی و عامل از Z.ai با 744 میلیارد پارامتر کل (40 میلیارد فعال)، ساخته شده برای مهندسی سیستم‌های پیچیده و وظایف بلندمدت.",
"z-ai/glm4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که برای سناریوهای کدنویسی عامل با قابلیت‌های کدنویسی بهبود یافته طراحی شده است.",
"z-ai/glm5.description": "GLM-5 مدل پایه جدید پرچم‌دار Zhipu AI برای مهندسی عامل است که عملکرد SOTA متن‌باز در قابلیت‌های کدنویسی و عامل را به دست می‌آورد. این مدل با عملکرد Claude Opus 4.5 مطابقت دارد.",
"z-image-turbo.description": "Z-Image یک مدل سبک تولید تصویر از متن است که می‌تواند به‌سرعت تصاویر تولید کند، از رندر متن چینی و انگلیسی پشتیبانی می‌کند و به‌طور انعطاف‌پذیر با وضوح‌ها و نسبت‌های ابعاد مختلف سازگار می‌شود.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.",
"zai-org/GLM-4.5.description": "GLM-4.5 یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند به‌طور عمیق بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.",
"zai-org/GLM-4.5V.description": "GLM-4.5V جدیدترین مدل VLM از Zhipu AI است که بر پایه مدل متنی پرچم‌دار GLM-4.5-Air (با ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال) ساخته شده و از معماری MoE برای عملکرد قوی با هزینه کمتر بهره می‌برد. این مدل مسیر GLM-4.1V-Thinking را دنبال کرده و با افزودن 3D-RoPE استدلال فضایی سه‌بعدی را بهبود می‌بخشد. با پیش‌آموزش، SFT و RL بهینه‌سازی شده و تصاویر، ویدیو و اسناد بلند را پردازش می‌کند و در ۴۱ معیار چندوجهی عمومی در میان مدل‌های متن‌باز رتبه برتر دارد. حالت تفکر قابل تنظیم به کاربران امکان می‌دهد بین سرعت و عمق تعادل برقرار کنند.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "به‌روزرسانی گره",
"builtins.lobe-page-agent.apiName.wrapNodes": "بسته‌بندی گره‌ها",
"builtins.lobe-page-agent.title": "صفحه",
"builtins.lobe-skill-store.apiName.importFromMarket": "وارد کردن از بازار",
"builtins.lobe-skill-store.apiName.importSkill": "وارد کردن مهارت",
"builtins.lobe-skill-store.apiName.searchSkill": "جستجوی مهارت‌ها",
"builtins.lobe-skill-store.title": "فروشگاه مهارت",
"builtins.lobe-skills.apiName.execScript": "اجرای اسکریپت",
"builtins.lobe-skills.apiName.exportFile": "صادر کردن فایل",
"builtins.lobe-skills.apiName.importFromMarket": "وارد کردن از بازار",
"builtins.lobe-skills.apiName.importSkill": "وارد کردن مهارت",
"builtins.lobe-skills.apiName.readReference": "خواندن مرجع",
"builtins.lobe-skills.apiName.runSkill": "فعال کردن مهارت",
"builtins.lobe-skills.apiName.searchSkill": "جستجوی مهارت‌ها",
"builtins.lobe-skills.title": "مهارت‌ها",
"builtins.lobe-tools.apiName.activateTools": "فعال کردن ابزارها",
"builtins.lobe-user-memory.apiName.addContextMemory": "افزودن حافظه زمینه",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "افزودن حافظه تجربه",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "افزودن حافظه هویتی",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "جستجوی وب",
"confirm": "تأیید",
"debug.arguments": "آرگومان‌ها",
"debug.error": "گزارش خطا",
"debug.function_call": "فراخوانی تابع",
"debug.intervention": "مداخله مهارت",
"debug.off": "اشکال‌زدایی خاموش",
@ -321,8 +335,8 @@
"dev.saveSuccess": "تنظیمات ذخیره شد",
"dev.tabs.manifest": "مانیفست",
"dev.tabs.meta": "اطلاعات متا",
"dev.title.create": "افزودن مهارت سفارشی",
"dev.title.edit": "ویرایش مهارت سفارشی",
"dev.title.create": "افزودن مهارت MCP سفارشی",
"dev.title.edit": "ویرایش مهارت MCP سفارشی",
"dev.title.editCommunity": "ویرایش مهارت انجمن",
"dev.title.skillDetails": "جزئیات مهارت",
"dev.title.skillSettings": "تنظیمات مهارت",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud یک سرویس ابری GenAI مقرون‌به‌صرفه است که بر پایه مدل‌های متن‌باز قدرتمند ساخته شده است.",
"spark.description": "iFLYTEK Spark هوش مصنوعی چندزبانه قدرتمندی را در حوزه‌های مختلف ارائه می‌دهد و نوآوری‌هایی در سخت‌افزار هوشمند، سلامت، مالی و سایر صنایع ایجاد می‌کند.",
"stepfun.description": "مدل‌های Stepfun قابلیت‌های پیشرفته چندوجهی و استدلال پیچیده را با درک متون بلند و هماهنگی جستجوی خودکار قدرتمند ارائه می‌دهند.",
"straico.description": "استرایکو یکپارچه‌سازی هوش مصنوعی را با ارائه یک فضای کاری متحد که مدل‌های برتر تولید متن، تصویر و صوت هوش مصنوعی را گرد هم می‌آورد، ساده می‌کند و به بازاریابان، کارآفرینان و علاقه‌مندان دسترسی آسان به ابزارهای متنوع هوش مصنوعی را می‌دهد.",
"taichu.description": "مدل چندوجهی نسل جدید از CASIA و مؤسسه هوش مصنوعی ووهان که از پرسش و پاسخ چندمرحله‌ای، نگارش، تولید تصویر، درک سه‌بعدی و تحلیل سیگنال با شناخت و خلاقیت قوی پشتیبانی می‌کند.",
"tencentcloud.description": "موتور دانش LLM Atomic Power خدمات پرسش و پاسخ دانش‌محور را برای شرکت‌ها و توسعه‌دهندگان فراهم می‌کند، با خدمات ماژولار مانند تجزیه اسناد، تقسیم‌بندی، جاسازی و بازنویسی چندمرحله‌ای برای ساخت راهکارهای سفارشی هوش مصنوعی.",
"togetherai.description": "Together AI عملکرد پیشرو را با مدل‌های نوآورانه، سفارشی‌سازی گسترده، مقیاس‌پذیری سریع و استقرار ساده برای نیازهای سازمانی ارائه می‌دهد.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "پروفایل عامل",
"agentInfoDescription.value.unset": "تنظیم نشده",
"agentInfoDescription.value.untitled": "عامل بدون عنوان",
"agentSkillDetail.addedAt": "اضافه شده",
"agentSkillDetail.publishedAt": "منتشر شده",
"agentSkillDetail.repository": "مخزن GitHub",
"agentSkillDetail.skillContent": "محتوای مهارت",
"agentSkillDetail.sourceUrl": "منبع واردات مهارت",
"agentSkillDetail.updatedAt": "به‌روزرسانی شده",
"agentSkillEdit.descriptionDesc": "خلاصه‌ای کوتاه از عملکرد مهارت که به عامل کمک می‌کند زمان استفاده از آن را درک کند",
"agentSkillEdit.fileReadonly": "این فایل فقط خواندنی است. تنها توضیحات و دستورالعمل‌های مهارت قابل ویرایش هستند.",
"agentSkillEdit.instructions": "دستورالعمل‌ها",
"agentSkillEdit.instructionsDesc": "دستورالعمل‌های اصلی به فرمت Markdown که رفتار و جریان کاری مهارت را تعریف می‌کنند",
"agentSkillEdit.instructionsPlaceholder": "دستورالعمل‌های مهارت را به فرمت Markdown وارد کنید...",
"agentSkillEdit.nameDesc": "شناسه‌ی منحصربه‌فرد برای این مهارت که پس از ایجاد قابل ویرایش نیست",
"agentSkillEdit.saveSuccess": "مهارت با موفقیت به‌روزرسانی شد",
"agentSkillEdit.title": "تنظیمات مهارت",
"agentSkillItem.deleteConfirm.desc": "آیا مطمئن هستید که می‌خواهید مهارت عامل \"{{name}}\" را حذف کنید؟ این عمل قابل بازگشت نیست.",
"agentSkillItem.deleteConfirm.title": "حذف مهارت عامل",
"agentSkillModal.content": "محتوای مهارت",
"agentSkillModal.contentPlaceholder": "محتوای مهارت را به فرمت Markdown وارد کنید...",
"agentSkillModal.description": "توضیحات",
"agentSkillModal.descriptionPlaceholder": "این مهارت را به‌طور خلاصه توصیف کنید",
"agentSkillModal.github.desc": "مهارت‌ها را مستقیماً از یک مخزن عمومی GitHub وارد کنید.",
"agentSkillModal.github.title": "وارد کردن از GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo",
"agentSkillModal.importError": "وارد کردن ناموفق بود: {{error}}",
"agentSkillModal.importSuccess": "مهارت عامل با موفقیت وارد شد",
"agentSkillModal.upload.desc": "یک فایل .zip یا .skill محلی را برای نصب آپلود کنید.",
"agentSkillModal.upload.dragText": "بکشید و رها کنید یا کلیک کنید تا آپلود کنید",
"agentSkillModal.upload.requirementSkillMd": "فایل SKILL.md شامل نام و توضیحات مهارت به فرمت YAML",
"agentSkillModal.upload.requirementZip": "فایل .zip یا .skill با SKILL.md در دایرکتوری اصلی",
"agentSkillModal.upload.requirements": "الزامات فایل",
"agentSkillModal.upload.title": "آپلود مهارت",
"agentSkillModal.upload.uploading": "در حال آپلود...",
"agentSkillModal.url.desc": "با ارائه یک لینک مستقیم به فایل SKILL.md یک مهارت وارد کنید.",
"agentSkillModal.url.title": "وارد کردن از URL",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "مهارت عامل",
"agentTab.chat": "تنظیمات گفتگو",
"agentTab.meta": "اطلاعات عامل",
"agentTab.modal": "تنظیمات مدل",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "مدلی که برای ترجمه پیام‌ها استفاده می‌شود",
"systemAgent.translation.title": "عامل ترجمه پیام",
"tab.about": "درباره",
"tab.addAgentSkill": "اضافه کردن مهارت عامل",
"tab.addCustomMcp": "اضافه کردن مهارت MCP سفارشی",
"tab.addCustomMcp.desc": "یک سرور MCP سفارشی را به‌صورت دستی پیکربندی کنید",
"tab.addCustomSkill": "افزودن مهارت سفارشی",
"tab.agent": "سرویس عامل",
"tab.all": "همه",
@ -652,7 +691,13 @@
"tab.experiment": "آزمایش",
"tab.hotkey": "کلیدهای میانبر",
"tab.image": "سرویس تولید تصویر",
"tab.importFromGithub": "وارد کردن از GitHub",
"tab.importFromGithub.desc": "وارد کردن از یک مخزن عمومی GitHub",
"tab.importFromUrl": "وارد کردن از URL",
"tab.importFromUrl.desc": "وارد کردن از طریق یک لینک مستقیم به SKILL.md",
"tab.llm": "مدل زبانی",
"tab.manualFill": "پر کردن دستی",
"tab.manualFill.desc": "یک مهارت MCP سفارشی را به‌صورت دستی پیکربندی کنید",
"tab.memory": "حافظه",
"tab.profile": "حساب من",
"tab.provider": "ارائه‌دهنده سرویس هوش مصنوعی",
@ -669,6 +714,8 @@
"tab.sync": "همگام‌سازی ابری",
"tab.systemTools": "ابزارهای سیستم",
"tab.tts": "تبدیل متن به گفتار",
"tab.uploadZip": "آپلود فایل Zip",
"tab.uploadZip.desc": "یک فایل .zip یا .skill محلی را آپلود کنید",
"tab.usage": "آمار استفاده",
"tools.add": "افزودن مهارت",
"tools.builtins.groupName": "داخلی‌ها",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Ajoutez-nous une étoile sur GitHub",
"footer.title": "Vous aimez notre produit ?",
"fullscreen": "Mode plein écran",
"geminiImageChineseWarning.content": "Nano Banana peut parfois échouer à générer des images avec du texte en chinois. Il est recommandé d'utiliser l'anglais pour de meilleurs résultats.",
"geminiImageChineseWarning.continueGenerate": "Continuer la génération",
"geminiImageChineseWarning.continueSend": "Continuer l'envoi",
"geminiImageChineseWarning.doNotShowAgain": "Ne plus afficher",
"geminiImageChineseWarning.title": "Avis sur la saisie en chinois",
"historyRange": "Plage d'historique",
"home.suggestQuestions": "Essayez ces exemples",
"import": "Importer",
@ -397,6 +392,7 @@
"tab.chat": "Discussion",
"tab.community": "Communauté",
"tab.discover": "Découvrir",
"tab.eval": "Laboratoire d'évaluation",
"tab.files": "Fichiers",
"tab.home": "Accueil",
"tab.knowledgeBase": "Bibliothèque",

316
locales/fr-FR/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Supprimer le Benchmark",
"benchmark.actions.delete.confirm": "Êtes-vous sûr de vouloir supprimer ce benchmark ? Les ensembles de données et les enregistrements d'évaluation associés seront également supprimés.",
"benchmark.actions.edit": "Modifier le Benchmark",
"benchmark.actions.export": "Exporter",
"benchmark.card.bestScore": "Meilleur",
"benchmark.card.caseCount": "{{count}} cas",
"benchmark.card.datasetCount": "{{count}} ensembles de données",
"benchmark.card.empty": "Aucune évaluation pour le moment",
"benchmark.card.emptyHint": "Créez une nouvelle évaluation depuis la page de détail du benchmark",
"benchmark.card.importDataset": "Importer un Ensemble de Données",
"benchmark.card.noDataset": "Aucun ensemble de données pour le moment",
"benchmark.card.noDatasetHint": "Importez un ensemble de données pour commencer l'évaluation",
"benchmark.card.noRecentRuns": "Aucune évaluation récente à afficher",
"benchmark.card.recentRuns": "Évaluations Récentes",
"benchmark.card.runCount": "{{count}} évaluations",
"benchmark.card.startFirst": "Commencer la Première Évaluation",
"benchmark.card.viewAll": "Voir les {{count}}",
"benchmark.create.confirm": "Créer",
"benchmark.create.description.label": "Description",
"benchmark.create.description.placeholder": "Description du benchmark (facultatif)",
"benchmark.create.error": "Échec de la création du benchmark",
"benchmark.create.identifier.label": "Identifiant",
"benchmark.create.identifier.placeholder": "identifiant-du-benchmark",
"benchmark.create.identifierRequired": "Veuillez entrer un identifiant",
"benchmark.create.name.label": "Nom",
"benchmark.create.name.placeholder": "Entrez le nom du benchmark",
"benchmark.create.nameRequired": "Veuillez entrer un nom de benchmark",
"benchmark.create.success": "Benchmark créé avec succès",
"benchmark.create.tags.label": "Étiquettes",
"benchmark.create.tags.placeholder": "Ajoutez des étiquettes, séparées par une virgule ou un espace",
"benchmark.create.title": "Créer un Benchmark",
"benchmark.detail.backToOverview": "Retour à l'Aperçu",
"benchmark.detail.datasetCount": "{{count}} ensemble{{count, plural, one {} other {s}}} de données dans ce benchmark",
"benchmark.detail.runCount": "{{count}} exécution{{count, plural, one {} other {s}}} d'évaluation sur ce benchmark",
"benchmark.detail.stats.addFirstDataset": "Cliquez pour ajouter le premier ensemble de données",
"benchmark.detail.stats.avgCost": "Coût Moyen",
"benchmark.detail.stats.avgDuration": "Durée Moyenne",
"benchmark.detail.stats.basedOnLastNRuns": "Basé sur les {{count}} dernières exécutions",
"benchmark.detail.stats.bestPerformance": "Meilleure performance par {{agent}} avec un taux de réussite de {{passRate}}%",
"benchmark.detail.stats.bestScore": "Meilleur Score",
"benchmark.detail.stats.cases": "Cas",
"benchmark.detail.stats.dataScale": "Échelle des Données",
"benchmark.detail.stats.datasets": "Ensembles de Données",
"benchmark.detail.stats.needSetup": "Configuration Requise",
"benchmark.detail.stats.noEvalRecord": "Aucun enregistrement d'évaluation pour le moment",
"benchmark.detail.stats.perRun": "/ Exécution",
"benchmark.detail.stats.runs": "Exécutions",
"benchmark.detail.stats.tags": "Étiquettes",
"benchmark.detail.stats.topAgents": "Meilleurs Agents",
"benchmark.detail.stats.totalCases": "Total des Cas",
"benchmark.detail.stats.waiting": "En attente...",
"benchmark.detail.tabs.data": "Données",
"benchmark.detail.tabs.datasets": "Ensembles de Données",
"benchmark.detail.tabs.runs": "Exécutions",
"benchmark.edit.confirm": "Enregistrer",
"benchmark.edit.error": "Échec de la mise à jour du benchmark",
"benchmark.edit.success": "Benchmark mis à jour avec succès",
"benchmark.edit.title": "Modifier le Benchmark",
"benchmark.empty": "Aucun benchmark pour le moment. Créez-en un pour commencer.",
"caseDetail.actual": "Sortie Réelle",
"caseDetail.chatArea.title": "Conversation",
"caseDetail.completionReason": "Statut",
"caseDetail.cost": "Coût",
"caseDetail.difficulty": "Difficulté",
"caseDetail.duration": "Durée",
"caseDetail.expected": "Sortie Attendue",
"caseDetail.failureReason": "Raison de l'Échec",
"caseDetail.input": "Entrée",
"caseDetail.judgeComment": "Commentaire du Juge",
"caseDetail.resources": "Ressources",
"caseDetail.score": "Score",
"caseDetail.section.runtime": "Temps d'Exécution",
"caseDetail.section.scoring": "Détails du Score",
"caseDetail.section.testCase": "Cas de Test",
"caseDetail.steps": "Étapes",
"caseDetail.threads.attempt": "Trajectoire #{{number}}",
"caseDetail.tokens": "Utilisation des Jetons",
"common.cancel": "Annuler",
"common.create": "Créer",
"common.delete": "Supprimer",
"common.edit": "Modifier",
"common.later": "Plus tard",
"common.next": "Suivant",
"common.update": "Mettre à jour",
"dataset.actions.addDataset": "Ajouter un Ensemble de Données",
"dataset.actions.import": "Importer des Données",
"dataset.actions.importDataset": "Importer un Ensemble de Données",
"dataset.create.description.label": "Description",
"dataset.create.description.placeholder": "Description de l'ensemble de données (facultatif)",
"dataset.create.error": "Échec de la création de l'ensemble de données",
"dataset.create.identifier.label": "Identifiant",
"dataset.create.identifier.placeholder": "identifiant-de-l-ensemble-de-données",
"dataset.create.identifierRequired": "Veuillez entrer un identifiant",
"dataset.create.importNow": "Souhaitez-vous importer des données maintenant ?",
"dataset.create.name.label": "Nom de l'Ensemble de Données",
"dataset.create.name.placeholder": "Entrez le nom de l'ensemble de données",
"dataset.create.nameRequired": "Veuillez entrer un nom d'ensemble de données",
"dataset.create.preset.label": "Préréglage de l'Ensemble de Données",
"dataset.create.success": "Ensemble de données créé avec succès",
"dataset.create.successTitle": "Ensemble de Données Créé",
"dataset.create.title": "Créer un Ensemble de Données",
"dataset.delete.confirm": "Êtes-vous sûr de vouloir supprimer cet ensemble de données ? Tous les cas de test qu'il contient seront également supprimés.",
"dataset.delete.error": "Échec de la suppression de l'ensemble de données",
"dataset.delete.success": "Ensemble de données supprimé avec succès",
"dataset.detail.addRun": "Nouvelle Exécution",
"dataset.detail.backToBenchmark": "Retour au Benchmark",
"dataset.detail.caseCount": "{{count}} cas de test{{count, plural, one {} other {s}}}",
"dataset.detail.relatedRuns": "Exécutions Associées ({{count}})",
"dataset.detail.testCases": "Cas de Test",
"dataset.detail.viewDetail": "Voir les Détails",
"dataset.edit.error": "Échec de la mise à jour de l'ensemble de données",
"dataset.edit.success": "Ensemble de données mis à jour avec succès",
"dataset.edit.title": "Modifier l'Ensemble de Données",
"dataset.empty": "Aucun ensemble de données",
"dataset.empty.description": "Importez un ensemble de données pour commencer à construire ce benchmark",
"dataset.empty.title": "Aucun ensemble de données pour le moment",
"dataset.evalMode.hint": "Mode d'évaluation par défaut pour l'ensemble de données, peut être remplacé au niveau du cas de test",
"dataset.import.category": "Catégorie",
"dataset.import.categoryDesc": "Étiquette de classification pour le regroupement",
"dataset.import.choices": "Choix",
"dataset.import.choicesDesc": "Options à choix multiples",
"dataset.import.confirm": "Importer",
"dataset.import.error": "Échec de l'importation de l'ensemble de données",
"dataset.import.expected": "Réponse Attendue",
"dataset.import.expectedDelimiter": "Délimiteur de Réponse",
"dataset.import.expectedDelimiter.desc": "Délimiteur de réponse",
"dataset.import.expectedDelimiter.placeholder": "ex. | ou ,",
"dataset.import.expectedDesc": "Réponse correcte à comparer",
"dataset.import.fieldMapping": "Mappage des Champs",
"dataset.import.fieldMapping.desc": "La colonne \"Entrée\" est requise",
"dataset.import.hideSkipped": "Masquer les colonnes ignorées",
"dataset.import.ignore": "Ignorer",
"dataset.import.ignoreDesc": "Ne pas importer cette colonne",
"dataset.import.input": "Entrée",
"dataset.import.inputDesc": "Question ou invite envoyée au modèle",
"dataset.import.metadata": "Métadonnées",
"dataset.import.metadataDesc": "Informations supplémentaires, stockées telles quelles",
"dataset.import.next": "Suivant",
"dataset.import.parseError": "Échec de l'analyse du fichier",
"dataset.import.parsing": "Analyse du fichier...",
"dataset.import.prev": "Précédent",
"dataset.import.preview": "Aperçu des Données",
"dataset.import.preview.desc": "Confirmez que le mappage est correct, puis importez.",
"dataset.import.preview.rows": "{{count}} lignes au total",
"dataset.import.sortOrder": "Numéro d'Article",
"dataset.import.sortOrderDesc": "ID de question/article pour référence",
"dataset.import.step.mapping": "Mapper les Champs",
"dataset.import.step.preview": "Aperçu",
"dataset.import.step.upload": "Télécharger le Fichier",
"dataset.import.success": "{{count}} cas de test importés avec succès",
"dataset.import.title": "Importer un Ensemble de Données",
"dataset.import.upload.hint": "Prend en charge CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Cliquez ou glissez un fichier ici pour le télécharger",
"dataset.import.uploading": "Téléchargement...",
"dataset.switchDataset": "Changer d'Ensemble de Données",
"difficulty.easy": "Facile",
"difficulty.hard": "Difficile",
"difficulty.medium": "Moyen",
"evalMode.contains": "Correspondance Contient",
"evalMode.contains.desc": "La sortie doit contenir le texte attendu",
"evalMode.equals": "Correspondance Exacte",
"evalMode.equals.desc": "La sortie doit être exactement la même que celle attendue",
"evalMode.label": "Mode d'Évaluation",
"evalMode.llm-rubric": "Juge LLM",
"evalMode.llm-rubric.desc": "Utiliser LLM pour évaluer la qualité de la sortie",
"evalMode.placeholder": "Sélectionnez un mode d'évaluation",
"evalMode.prompt.label": "Invite du Juge",
"evalMode.prompt.placeholder": "Entrez les critères d'évaluation ou l'invite pour le juge LLM",
"evalMode.rubric": "Évaluation par Rubrique",
"evalMode.rubric.desc": "Évaluer la sortie en utilisant des rubriques de benchmark avec des critères pondérés",
"overview.createBenchmark": "Créer un Benchmark",
"overview.importDataset": "Importer un Ensemble de Données",
"overview.subtitle": "Évaluez vos agents IA sur différents ensembles de données",
"overview.title": "Laboratoire d'Évaluation",
"run.actions.abort": "Abandonner",
"run.actions.abort.confirm": "Êtes-vous sûr de vouloir abandonner cette évaluation ?",
"run.actions.create": "Nouvelle Évaluation",
"run.actions.delete": "Supprimer",
"run.actions.delete.confirm": "Êtes-vous sûr de vouloir supprimer cette évaluation ?",
"run.actions.edit": "Modifier",
"run.actions.retryCase": "Réessayer",
"run.actions.retryErrors": "Réessayer les Erreurs",
"run.actions.retryErrors.confirm": "Cela relancera tous les cas d'erreur et de délai d'attente. Les cas réussis et échoués ne seront pas affectés.",
"run.actions.run": "Exécuter",
"run.actions.start": "Démarrer",
"run.actions.start.confirm": "Êtes-vous sûr de vouloir démarrer cette évaluation ?",
"run.chart.duration": "Durée (s)",
"run.chart.error": "Erreur",
"run.chart.fail": "Échec",
"run.chart.latencyDistribution": "Distribution de la Latence",
"run.chart.latencyTokenDistribution": "Latence / Distribution des Jetons",
"run.chart.pass": "Réussite",
"run.chart.passFailError": "Réussite / Échec / Erreur",
"run.chart.tokens": "Jetons",
"run.config.agentId": "Agent",
"run.config.concurrency": "Concurrence",
"run.config.judgeModel": "Modèle de Juge",
"run.config.k": "Exécutions (K)",
"run.config.k.hint": "Exécutez chaque cas de test {{k}} fois pour les métriques pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Étapes Maximales",
"run.config.maxSteps.hint": "Chaque appel LLM ou appel d'outil par l'agent compte comme 1 étape",
"run.config.model": "Modèle",
"run.config.temperature": "Température",
"run.config.timeout": "Délai d'Attente",
"run.config.timeout.unit": "min",
"run.create.advanced": "Paramètres Avancés",
"run.create.agent": "Agent",
"run.create.agent.placeholder": "Sélectionnez un agent",
"run.create.agent.required": "Veuillez sélectionner un agent",
"run.create.caseCount": "{{count}} cas",
"run.create.confirm": "Créer & Démarrer",
"run.create.createOnly": "Créer",
"run.create.dataset": "Ensemble de Données",
"run.create.dataset.placeholder": "Sélectionnez un ensemble de données",
"run.create.dataset.required": "Veuillez sélectionner un ensemble de données",
"run.create.name": "Nom de l'Évaluation",
"run.create.name.placeholder": "Entrez un nom pour cette évaluation",
"run.create.name.required": "Veuillez entrer un nom d'évaluation",
"run.create.name.useTimestamp": "Utiliser l'heure actuelle comme nom",
"run.create.openAgent": "Ouvrir l'agent dans une nouvelle fenêtre",
"run.create.title": "Nouvelle Évaluation",
"run.create.titleWithDataset": "Nouvelle Évaluation sur \"{{dataset}}\"",
"run.detail.agent": "Agent",
"run.detail.agent.none": "Non spécifié",
"run.detail.agent.unnamed": "Agent Sans Nom",
"run.detail.backToBenchmark": "Retour au Benchmark",
"run.detail.caseResults": "Détails de l'Évaluation",
"run.detail.config": "Configuration de l'Évaluation",
"run.detail.configSnapshot": "Instantané de la Configuration",
"run.detail.dataset": "Ensemble de Données",
"run.detail.model": "Modèle",
"run.detail.overview": "Aperçu",
"run.detail.progress": "Progression",
"run.detail.progressCases": "cas",
"run.detail.report": "Résumé de l'Évaluation",
"run.edit.error": "Échec de la mise à jour de l'évaluation",
"run.edit.success": "Évaluation mise à jour avec succès",
"run.edit.title": "Modifier l'Évaluation",
"run.empty.description": "Lancez votre première évaluation sur cet ensemble de données",
"run.empty.descriptionBenchmark": "Lancez votre première évaluation sur ce benchmark",
"run.empty.title": "Aucune évaluation pour le moment",
"run.filter.active": "Actif",
"run.filter.empty": "Aucune évaluation ne correspond au filtre actuel.",
"run.idle.hint": "Cliquez sur Démarrer pour commencer l'évaluation",
"run.metrics.avgScore": "Score Moyen",
"run.metrics.cost": "Coût",
"run.metrics.duration": "Durée",
"run.metrics.errorCases": "Erreur",
"run.metrics.evaluated": "{{count}} évalué",
"run.metrics.passRate": "Taux de Réussite",
"run.metrics.perCase": "/ cas",
"run.metrics.tokens": "Jetons",
"run.metrics.totalDuration": "Cumulatif",
"run.pending.hint": "L'évaluation est en file d'attente, en attente de démarrage...",
"run.running.hint": "L'évaluation est en cours, les résultats apparaîtront bientôt...",
"run.status.aborted": "Abandonné",
"run.status.completed": "Terminé",
"run.status.error": "Erreur d'Évaluation",
"run.status.failed": "Échoué",
"run.status.idle": "Inactif",
"run.status.pending": "En attente",
"run.status.running": "En cours",
"run.status.timeout": "Délai d'Attente",
"sidebar.benchmarks": "Benchmarks",
"sidebar.dashboard": "Tableau de Bord",
"sidebar.datasets": "Ensembles de Données",
"sidebar.runs": "Exécutions",
"table.columns.avgCost": "Coût Moyen",
"table.columns.category": "Catégorie",
"table.columns.cost": "Coût",
"table.columns.difficulty": "Difficulté",
"table.columns.duration": "Durée",
"table.columns.evalMode": "Mode d'Évaluation",
"table.columns.expected": "Réponse Attendue",
"table.columns.input": "Entrée",
"table.columns.score": "Score",
"table.columns.status": "Statut",
"table.columns.steps": "Étapes",
"table.columns.tags": "Étiquettes",
"table.columns.tokens": "Jetons",
"table.columns.totalCost": "Coût Total",
"table.filter.all": "Tous",
"table.filter.error": "Erreur d'Évaluation",
"table.filter.failed": "Échoué",
"table.filter.passed": "Réussi",
"table.filter.running": "En cours",
"table.search.placeholder": "Rechercher des cas...",
"table.total": "Total {{count}}",
"testCase.actions.add": "Ajouter un Cas de Test",
"testCase.actions.import": "Importer des Cas de Test",
"testCase.create.advanced": "Plus d'Options",
"testCase.create.difficulty.label": "Difficulté",
"testCase.create.error": "Échec de l'ajout du cas de test",
"testCase.create.expected.label": "Sortie Attendue",
"testCase.create.expected.placeholder": "Entrez la réponse attendue",
"testCase.create.expected.required": "Veuillez entrer la sortie attendue",
"testCase.create.input.label": "Entrée",
"testCase.create.input.placeholder": "Entrez l'entrée ou la question du cas de test",
"testCase.create.success": "Cas de test ajouté avec succès",
"testCase.create.tags.label": "Étiquettes",
"testCase.create.tags.placeholder": "Étiquettes séparées par des virgules (facultatif)",
"testCase.create.title": "Ajouter un Cas de Test",
"testCase.delete.confirm": "Êtes-vous sûr de vouloir supprimer ce cas de test ?",
"testCase.delete.error": "Échec de la suppression du cas de test",
"testCase.delete.success": "Cas de test supprimé",
"testCase.edit.error": "Échec de la mise à jour du cas de test",
"testCase.edit.success": "Cas de test mis à jour avec succès",
"testCase.edit.title": "Modifier le Cas de Test",
"testCase.empty.description": "Importez ou ajoutez manuellement des cas de test à cet ensemble de données",
"testCase.empty.title": "Aucun cas de test pour le moment",
"testCase.preview.expected": "Attendu",
"testCase.preview.input": "Entrée",
"testCase.preview.title": "Aperçu du Cas de Test",
"testCase.search.placeholder": "Rechercher des cas..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Recherche approfondie",
"starter.developing": "Bientôt disponible",
"starter.image": "Image",
"starter.nanoBanana2": "🍌 Nano Banane 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Écrire"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Pour la série Gemini ; contrôle le budget de réflexion.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Pour les modèles Gemini 3 Flash Preview ; contrôle la profondeur de réflexion.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Pour les modèles Gemini 3 Pro Preview ; contrôle la profondeur de réflexion.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Pour les modèles Gemini 3.1 Pro Preview ; contrôle la profondeur de réflexion avec des niveaux bas/moyen/élevé.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Pour la série Gemini ; permet de fournir un contexte via une URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Sélectionnez les paramètres étendus à activer",
"providerModels.item.modelConfig.extendParams.previewFallback": "Aperçu non disponible",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo offre de solides capacités de calcul et de conversation avec une excellente compréhension sémantique et une génération efficace, idéal pour les entreprises et les développeurs.",
"360gpt2-o1.description": "360gpt2-o1 construit une chaîne de raisonnement via une recherche arborescente avec un mécanisme de réflexion et un entraînement par renforcement, permettant lauto-réflexion et lauto-correction.",
"360gpt2-pro.description": "360GPT2 Pro est un modèle NLP avancé de 360, excellent en génération et compréhension de texte, particulièrement adapté aux tâches créatives, aux transformations complexes et aux jeux de rôle.",
"360zhinao2-o1.5.description": "360 Zhinao, le modèle de raisonnement le plus puissant, doté des capacités les plus avancées et prenant en charge à la fois l'appel d'outils et le raisonnement avancé.",
"360zhinao2-o1.description": "360zhinao2-o1 construit une chaîne de raisonnement via une recherche arborescente avec un mécanisme de réflexion et un entraînement par renforcement, permettant lauto-réflexion et lauto-correction.",
"360zhinao3-o1.5.description": "360 Zhinao, modèle de raisonnement de nouvelle génération.",
"4.0Ultra.description": "Spark Ultra est le modèle le plus puissant de la série Spark, améliorant la compréhension et le résumé de texte tout en optimisant la recherche web. Il constitue une solution complète pour accroître la productivité au travail et fournir des réponses précises, se positionnant comme un produit intelligent de premier plan.",
"AnimeSharp.description": "AnimeSharp (également connu sous le nom de \"4x-AnimeSharp\") est un modèle open source de super-résolution basé sur ESRGAN par Kim2091, conçu pour lagrandissement et laffinage des images de style anime. Il a été renommé depuis \"4x-TextSharpV1\" en février 2022, initialement destiné aussi aux images de texte mais désormais fortement optimisé pour le contenu anime.",
"Baichuan2-Turbo.description": "Utilise laugmentation par recherche pour connecter le modèle aux connaissances du domaine et du web. Prend en charge les téléchargements de fichiers PDF/Word et les entrées dURL pour une récupération rapide et complète, avec des résultats professionnels et précis.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 8B est optimisée pour une faible latence et de bonnes performances.",
"charglm-3.description": "CharGLM-3 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
"charglm-4.description": "CharGLM-4 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.",
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas dusage à grande échelle comme le support client, léducation et lassistance technique.",
"chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel. Il combine une compréhension et une génération linguistiques puissantes pour des cas d'utilisation à grande échelle tels que le support client, l'éducation et l'assistance technique.",
"claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : lappel doutils.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic, offrant des améliorations dans de nombreuses compétences et surpassant l'ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches danalyse approfondie.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.",
"deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent le niveau de GPT-5, et c'est le premier à intégrer la réflexion dans l'utilisation d'outils, menant les évaluations open source d'agents.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à léchelle du projet et un remplissage de fragments.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride de DeepSeek, prenant en charge les modes avec ou sans réflexion, et offrant une efficacité de raisonnement supérieure à celle de DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation des outils par les agents et leurs performances sur les tâches. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k jetons de sortie.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour le raisonnement complexe et la chaîne de pensée, adapté aux tâches nécessitant une analyse approfondie.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à celui de deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "Pour les tâches hautement complexes, le modèle Speciale surpasse significativement la version standard, mais consomme beaucoup plus de jetons et entraîne des coûts plus élevés. Actuellement, DeepSeek-V3.2-Speciale est destiné uniquement à la recherche, ne prend pas en charge les appels d'outils et n'a pas été spécifiquement optimisé pour les conversations ou les tâches d'écriture quotidiennes.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de réflexion approfondie complet, doté d'un raisonnement en chaîne plus puissant.",
"deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle de raisonnement hybride de DeepSeek, intégrant la réflexion à lutilisation doutils. Il utilise une architecture efficace pour réduire les coûts de calcul, un apprentissage par renforcement à grande échelle pour améliorer ses capacités, et des données synthétiques massives pour renforcer sa généralisation. Cette combinaison permet datteindre des performances comparables à GPT-5-High, tout en réduisant considérablement la longueur des sorties, ce qui diminue la charge de calcul et le temps dattente des utilisateurs.",
"deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports daspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi dinstructions. Il prend en charge une fenêtre de contexte de 128k et jusquà 16k jetons de sortie.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports daspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi dinstructions.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports daspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi dinstructions.",
"doubao-lite-128k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et lajustement fin avec une fenêtre de contexte de 128k.",
"doubao-lite-32k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et lajustement fin avec une fenêtre de contexte de 32k.",
"doubao-lite-4k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et lajustement fin avec une fenêtre de contexte de 4k.",
"doubao-pro-256k.description": "Le modèle phare le plus performant pour les tâches complexes, avec dexcellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et lajustement fin avec une fenêtre de contexte de 256k.",
"doubao-pro-32k.description": "Le modèle phare le plus performant pour les tâches complexes, avec dexcellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et lajustement fin avec une fenêtre de contexte de 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash est un modèle multimodal de raisonnement profond ultra-rapide avec un TPOT aussi bas que 10 ms. Il prend en charge le texte et la vision, dépasse lancien modèle lite en compréhension textuelle et rivalise avec les modèles pro concurrents en vision. Il prend en charge une fenêtre de contexte de 256k et jusquà 16k jetons de sortie.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite est un nouveau modèle multimodal de raisonnement profond avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé), offrant un meilleur rapport qualité-prix et un excellent choix pour les tâches courantes, avec une fenêtre de contexte allant jusquà 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Le modèle dimage Doubao de ByteDance Seed prend en charge les entrées texte et image avec une génération dimage de haute qualité et hautement contrôlable. Il prend en charge lédition dimage guidée par texte, avec des tailles de sortie entre 512 et 1536 sur le côté long.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 est un modèle de génération dimage de ByteDance Seed, prenant en charge les entrées texte et image avec une génération dimage de haute qualité et hautement contrôlable. Il génère des images à partir dinvites textuelles.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 est un modèle de génération dimage de ByteDance Seed, prenant en charge les entrées texte et image avec une génération dimage de haute qualité et hautement contrôlable. Il génère des images à partir dinvites textuelles.",
"doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement dimage, ainsi quun suivi précis des instructions. Il excelle dans lextraction image-texte et les tâches de raisonnement basées sur limage, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
"doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement dimage, ainsi quun suivi précis des instructions. Il excelle dans lextraction image-texte et les tâches de raisonnement basées sur limage, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 est le dernier modèle d'image multimodal de ByteDance, intégrant des capacités de génération de texte en image, d'image en image et de génération d'images par lots, tout en incorporant des compétences en raisonnement et en bon sens. Par rapport à la version précédente 4.0, il offre une qualité de génération nettement améliorée, avec une meilleure cohérence d'édition et une fusion multi-images. Il permet un contrôle plus précis des détails visuels, produisant des textes et des visages plus petits de manière plus naturelle, et atteint une mise en page et des couleurs plus harmonieuses, améliorant l'esthétique globale.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite est le dernier modèle de génération d'images de ByteDance. Pour la première fois, il intègre des capacités de recherche en ligne, lui permettant d'incorporer des informations web en temps réel et d'améliorer la pertinence des images générées. L'intelligence du modèle a également été améliorée, permettant une interprétation précise des instructions complexes et du contenu visuel. De plus, il offre une meilleure couverture des connaissances globales, une cohérence des références et une qualité de génération dans des scénarios professionnels, répondant mieux aux besoins de création visuelle au niveau des entreprises.",
"emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B est un modèle léger open source conçu pour un déploiement local et personnalisé.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking est un modèle textuel MoE (Mixture-of-Experts) post-entraîné avec un total de 21 milliards de paramètres et 3 milliards de paramètres actifs, offrant une qualité et une profondeur de raisonnement considérablement améliorées.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B est un modèle open source à grande capacité offrant une meilleure compréhension et génération.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B est le modèle MoE ultra-large dERNIE de Baidu, doté dexcellentes capacités de raisonnement.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview est un modèle de prévisualisation avec contexte 8K pour lévaluation dERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K est un modèle léger haute performance pour les scénarios sensibles à la latence et au coût.",
"ernie-novel-8k.description": "ERNIE Novel 8K est conçu pour les romans longs et les intrigues IP avec des récits multi-personnages.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K est un modèle à haute valeur et haute concurrence pour les services en ligne à grande échelle et les applications dentreprise.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les discussions multi-tours.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour lévaluation et les tests.",
"ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page de type affiche et une conception de logo avec un rendu texte-image de haute précision.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.",
"fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur lédition dimages, prenant en charge les entrées texte et image.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview est le modèle le plus économique de Google avec des capacités complètes.",
"gemini-2.5-flash-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash est le modèle le plus économique de Google avec des capacités complètes.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et danalyser de grands ensembles de données, bases de code et documents avec un long contexte.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et danalyser de grands ensembles de données, bases de code et documents avec un long contexte.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération dimages de Google, prenant également en charge les dialogues multimodaux.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google, prenant également en charge le chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image professionnelle à une vitesse Flash avec prise en charge de la discussion multimodale.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image professionnelle à une vitesse Flash avec prise en charge de la discussion multimodale.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.",
"gemini-flash-latest.description": "Dernière version de Gemini Flash",
"gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite",
"gemini-pro-latest.description": "Dernière version de Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.",
"glm-4v-plus.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.",
"glm-4v.description": "GLM-4V offre une compréhension et un raisonnement solides sur les tâches visuelles.",
"glm-5.description": "Un modèle puissant de raisonnement et agentique de Z.ai avec un total de 744B paramètres (40B activés), conçu pour l'ingénierie de systèmes complexes et les tâches à long terme.",
"glm-5.description": "La série GLM est un modèle de raisonnement hybride de Zhipu AI conçu pour les agents, avec des modes de réflexion et non-réflexion.",
"glm-z1-air.description": "Modèle de raisonnement avec de solides capacités dinférence pour les tâches nécessitant une réflexion approfondie.",
"glm-z1-airx.description": "Raisonnement ultra-rapide avec une qualité dinférence élevée.",
"glm-z1-flash.description": "La série GLM-Z1 offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.",
"grok-4.description": "Notre tout dernier modèle phare, excellent en traitement du langage naturel, mathématiques et raisonnement — un modèle polyvalent idéal.",
"grok-code-fast-1.description": "Nous sommes ravis de lancer grok-code-fast-1, un modèle de raisonnement rapide et économique, excellent pour le codage agentique.",
"grok-imagine-image-pro.description": "Générez des images à partir de prompts textuels, modifiez des images existantes avec un langage naturel ou affinez les images de manière itérative via des conversations multi-tours.",
"grok-imagine-image.description": "Générez des images à partir de prompts textuels, modifiez des images existantes avec un langage naturel ou affinez les images de manière itérative via des conversations multi-tours.",
"groq/compound-mini.description": "Compound-mini est un système d'IA composite alimenté par des modèles publics disponibles sur GroqCloud, utilisant intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs.",
"groq/compound.description": "Compound est un système d'IA composite alimenté par plusieurs modèles publics disponibles sur GroqCloud, utilisant intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B est un modèle de langage créatif et intelligent issu de la fusion de plusieurs modèles de pointe.",
"hunyuan-2.0-instruct-20251111.description": "Caractéristiques de la version : La base du modèle a été mise à niveau de TurboS à **Hunyuan 2.0**, entraînant des améliorations globales des capacités. Il améliore considérablement le suivi des instructions, la compréhension des textes multi-tours et longs, la création littéraire, la précision des connaissances, le codage et les capacités de raisonnement.",
"hunyuan-2.0-thinking-20251109.description": "Caractéristiques de la version : La base du modèle a été mise à niveau de TurboS à **Hunyuan 2.0**, entraînant des améliorations globales des capacités. Il améliore considérablement la capacité du modèle à suivre des instructions complexes, à comprendre des textes multi-tours et longs, à gérer du code, à fonctionner comme un agent et à effectuer des tâches de raisonnement.",
"hunyuan-a13b.description": "Premier modèle hybride de raisonnement de Hunyuan, amélioré à partir de hunyuan-standard-256K (80B au total, 13B actifs). Il privilégie la réflexion lente par défaut et permet de basculer entre réflexion rapide/lente via des paramètres ou le préfixe /no_think. Ses capacités globales sont supérieures à la génération précédente, notamment en mathématiques, sciences, compréhension de longs textes et tâches d'agents.",
"hunyuan-code.description": "Dernier modèle de génération de code entraîné sur 200B de code de haute qualité et six mois de SFT ; contexte étendu à 8K. Il se classe en tête des benchmarks automatisés pour cinq langages et des évaluations humaines sur dix critères.",
"hunyuan-functioncall.description": "Dernier modèle MoE FunctionCall entraîné sur des données d'appels de fonctions de haute qualité, avec une fenêtre de contexte de 32K et des résultats de référence de premier plan dans plusieurs dimensions.",
"hunyuan-large-longcontext.description": "Excelle dans les tâches sur documents longs comme le résumé et les questions-réponses, tout en gérant la génération générale. Très performant pour l'analyse et la génération de textes longs et complexes.",
"hunyuan-large-vision.description": "Modèle vision-langage entraîné à partir de Hunyuan Large pour la compréhension image-texte. Prend en charge les entrées multi-images + texte à toute résolution et améliore la compréhension visuelle multilingue.",
"hunyuan-large.description": "Hunyuan-large compte ~389B de paramètres totaux et ~52B activés, ce qui en fait le plus grand et le plus puissant modèle MoE open source dans une architecture Transformer.",
"hunyuan-lite-vision.description": "Dernier modèle multimodal 7B avec une fenêtre de contexte de 32K, prenant en charge le chat multimodal chinois/anglais, la reconnaissance d'objets, la compréhension de tableaux de documents et les mathématiques multimodales, surpassant ses pairs 7B sur plusieurs benchmarks.",
"hunyuan-code.description": "Le dernier modèle de code Hunyuan, entraîné sur 200 milliards de données de code de haute qualité et six mois de données SFT, avec un contexte de 8K. Il se classe parmi les meilleurs dans les benchmarks de code automatisé et dans les évaluations humaines expertes dans cinq langues.",
"hunyuan-functioncall.description": "Le dernier modèle MoE FunctionCall de Hunyuan, entraîné sur des données d'appel d'outils de haute qualité, avec une fenêtre de contexte de 32K et des benchmarks de pointe dans plusieurs dimensions.",
"hunyuan-lite.description": "Mis à niveau vers une architecture MoE avec une fenêtre de contexte de 256K, surpassant de nombreux modèles open source dans les benchmarks NLP, code, mathématiques et industriels.",
"hunyuan-pro.description": "Modèle MoE-32K à un billion de paramètres avec longue fenêtre de contexte, en tête des benchmarks, excellent pour les instructions complexes, le raisonnement, les mathématiques avancées, les appels de fonctions, et optimisé pour la traduction multilingue, la finance, le droit et la médecine.",
"hunyuan-role.description": "Dernier modèle de jeu de rôle, officiellement affiné sur des ensembles de données de jeu de rôle, offrant de meilleures performances de base pour les scénarios immersifs.",
"hunyuan-standard-256K.description": "Utilise un routage amélioré pour atténuer le déséquilibre de charge et l'effondrement des experts. Atteint 99,9 % de réussite sur les tâches de type \"aiguille dans une botte de foin\" avec long contexte. MOE-256K étend encore la longueur et la qualité du contexte.",
"hunyuan-standard-vision.description": "Dernier modèle multimodal avec réponses multilingues et capacités équilibrées en chinois/anglais.",
"hunyuan-standard.description": "Utilise un routage amélioré pour atténuer le déséquilibre de charge et l'effondrement des experts. Atteint 99,9 % de réussite sur les tâches de type \"aiguille dans une botte de foin\" avec long contexte. MOE-32K offre une grande valeur tout en gérant des entrées longues.",
"hunyuan-t1-20250321.description": "Développe des compétences équilibrées en arts et en sciences, avec une forte capacité à capter l'information dans les textes longs. Prend en charge le raisonnement en mathématiques, logique, sciences et programmation à différents niveaux de difficulté.",
"hunyuan-t1-20250403.description": "Améliore la génération de code à l'échelle d'un projet et la qualité rédactionnelle, renforce la compréhension multi-tours des sujets et le suivi des instructions ToB, améliore la compréhension au niveau des mots et réduit les problèmes de sortie mixte simplifié/traditionnel et chinois/anglais.",
"hunyuan-t1-20250529.description": "Améliore l'écriture créative et la composition, renforce le codage frontend, le raisonnement mathématique et logique, et améliore le suivi des instructions.",
"hunyuan-t1-20250711.description": "Améliore considérablement les mathématiques complexes, la logique et le codage, renforce la stabilité des sorties et améliore la gestion des textes longs.",
"hunyuan-role.description": "Le dernier modèle de jeu de rôle Hunyuan, officiellement affiné avec des données de jeu de rôle, offrant des performances de base plus solides dans les scénarios de jeu de rôle.",
"hunyuan-standard-256K.description": "Utilise un routage amélioré pour atténuer l'équilibrage de charge et l'effondrement des experts. Les longues recherches textuelles \"aiguille dans une botte de foin\" atteignent 99,9 %. MOE-256K pousse encore plus loin en longueur et en qualité, élargissant considérablement la longueur des entrées.",
"hunyuan-standard.description": "Utilise un routage amélioré pour atténuer l'équilibrage de charge et l'effondrement des experts. Les longues recherches textuelles \"aiguille dans une botte de foin\" atteignent 99,9 %. MOE-32K offre une meilleure valeur tout en équilibrant qualité et prix pour les entrées longues.",
"hunyuan-t1-latest.description": "Améliore significativement le modèle à réflexion lente sur les mathématiques complexes, le raisonnement, le codage difficile, le suivi des instructions et la qualité de l'écriture créative.",
"hunyuan-t1-vision-20250619.description": "Dernier modèle de raisonnement multimodal t1-vision avec chaîne de pensée native longue, nettement amélioré par rapport à la version par défaut précédente.",
"hunyuan-t1-vision-20250916.description": "Dernier modèle de raisonnement profond t1-vision avec des améliorations majeures en VQA, ancrage visuel, OCR, graphiques, résolution de problèmes photographiés et création basée sur l'image, ainsi qu'une meilleure prise en charge de l'anglais et des langues peu dotées.",
"hunyuan-turbo-20241223.description": "Cette version améliore l'échelle des instructions pour une meilleure généralisation, renforce considérablement le raisonnement en mathématiques/code/logique, améliore la compréhension au niveau des mots et la qualité rédactionnelle.",
"hunyuan-turbo-latest.description": "Améliorations générales de l'expérience dans la compréhension NLP, l'écriture, le chat, les questions-réponses, la traduction et les domaines spécialisés ; réponses plus humaines, meilleure clarification des intentions ambiguës, meilleure analyse des mots, qualité créative accrue et conversations multi-tours renforcées.",
"hunyuan-turbo-vision.description": "Modèle phare vision-langage de nouvelle génération utilisant une nouvelle architecture MoE, avec des améliorations globales en reconnaissance, création de contenu, questions-réponses sur les connaissances et raisonnement analytique.",
"hunyuan-turbo.description": "Aperçu du prochain LLM de Hunyuan avec une nouvelle architecture MoE, offrant un raisonnement plus rapide et de meilleurs résultats que hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Unifie le style de résolution mathématique et renforce les questions-réponses mathématiques multi-tours. Le style rédactionnel est affiné pour réduire le ton artificiel et apporter plus de fluidité.",
"hunyuan-turbos-20250416.description": "Base de pré-entraînement améliorée pour une meilleure compréhension et exécution des instructions ; alignement renforcé pour les mathématiques, le code, la logique et les sciences ; amélioration de la qualité rédactionnelle, de la compréhension, de la précision des traductions et des questions-réponses sur les connaissances ; capacités dagent renforcées, notamment pour la compréhension multi-tours.",
"hunyuan-turbos-20250604.description": "Base de pré-entraînement mise à jour avec une meilleure rédaction et compréhension de lecture, des progrès significatifs en code et STEM, et une meilleure exécution dinstructions complexes.",
"hunyuan-turbos-20250926.description": "Amélioration de la qualité des données de pré-entraînement et de la stratégie de post-entraînement, renforçant les agents, les langues anglaise et à faibles ressources, lexécution dinstructions, le code et les capacités STEM.",
"hunyuan-turbos-latest.description": "Le dernier modèle phare Hunyuan TurboS avec un raisonnement renforcé et une expérience globale améliorée.",
"hunyuan-turbos-longtext-128k-20250325.description": "Excelle dans les tâches sur documents longs comme le résumé et les questions-réponses, tout en gérant la génération générale. Performant pour lanalyse et la génération de textes longs et complexes.",
"hunyuan-turbos-role-plus.description": "Dernier modèle de jeu de rôle, officiellement affiné sur des jeux de données dédiés, offrant de meilleures performances de base pour les scénarios de jeu de rôle.",
"hunyuan-turbos-vision-20250619.description": "Dernier modèle phare TurboS vision-langage avec des avancées majeures sur les tâches image-texte telles que la reconnaissance dentités, les questions-réponses sur les connaissances, la rédaction publicitaire et la résolution de problèmes à partir de photos.",
"hunyuan-turbos-vision.description": "Modèle phare vision-langage de nouvelle génération basé sur le dernier TurboS, axé sur la compréhension image-texte comme la reconnaissance dentités, les questions-réponses sur les connaissances, la rédaction publicitaire et la résolution de problèmes à partir de photos.",
"hunyuan-vision-1.5-instruct.description": "Modèle de génération de texte à partir dimage basé sur la fondation TurboS, avec des améliorations notables par rapport à la version précédente en reconnaissance dimage de base et en raisonnement visuel.",
"hunyuan-vision.description": "Dernier modèle multimodal prenant en charge les entrées image + texte pour générer du texte.",
"hunyuan-vision-1.5-instruct.description": "Un modèle image-texte à réflexion rapide basé sur la base textuelle TurboS, montrant des améliorations notables par rapport à la version précédente en reconnaissance d'image fondamentale et en raisonnement d'analyse d'image.",
"hunyuan-vision.description": "Le dernier modèle multimodal Hunyuan prenant en charge les entrées image + texte pour générer du texte.",
"image-01-live.description": "Modèle de génération dimage avec un haut niveau de détail, prenant en charge la génération texte-vers-image et des styles contrôlables prédéfinis.",
"image-01.description": "Nouveau modèle de génération dimage avec un haut niveau de détail, prenant en charge la génération texte-vers-image et image-vers-image.",
"imagen-4.0-fast-generate-001.description": "Version rapide de la 4e génération de modèles texte-vers-image Imagen.",
"imagen-4.0-generate-001.description": "Série de modèles texte-vers-image de 4e génération Imagen.",
"imagen-4.0-generate-preview-06-06.description": "Famille de modèles texte-vers-image de quatrième génération Imagen.",
"imagen-4.0-ultra-generate-001.description": "Version Ultra de la 4e génération de modèles texte-vers-image Imagen.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la 4e génération de modèles texte-vers-image Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small est idéal pour la génération, le débogage et la refactorisation de code avec une latence minimale.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 est le troisième modèle de larchitecture Ling 2.0 de léquipe Bailing dAnt Group. Cest un modèle MoE avec 100 milliards de paramètres totaux, dont seulement 6,1 milliards actifs par jeton (4,8 milliards hors embeddings). Malgré sa configuration légère, il égale ou dépasse les modèles denses de 40B et même certains MoE plus grands sur de nombreux benchmarks, explorant une efficacité élevée via larchitecture et la stratégie dentraînement.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 est un petit modèle MoE haute performance avec 16 milliards de paramètres totaux et seulement 1,4 milliard actif par jeton (789M hors embeddings), offrant une génération très rapide. Grâce à une conception MoE efficace et à des données dentraînement de haute qualité, il atteint des performances de premier plan comparables aux modèles denses de moins de 10B et aux MoE plus grands.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T est le modèle MoE à un billion de paramètres dinclusionAI, adapté aux tâches de raisonnement à grande échelle et à la recherche.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 est une variante du modèle Ring dinclusionAI pour les scénarios à haut débit, mettant laccent sur la vitesse et lefficacité des coûts.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 est le modèle MoE léger à haut débit dinclusionAI, conçu pour la concurrence.",
"intern-latest.description": "Par défaut, il pointe vers notre dernier modèle de la série Intern, actuellement défini sur intern-s1-pro.",
"intern-s1-mini.description": "Un modèle multimodal léger avec de solides capacités de raisonnement scientifique.",
"intern-s1-pro.description": "Nous avons lancé notre modèle de raisonnement multimodal open-source le plus avancé, actuellement le modèle de langage multimodal open-source le plus performant en termes de performance globale.",
"intern-s1.description": "Le modèle de raisonnement multimodal open-source démontre non seulement de solides capacités générales, mais atteint également des performances de pointe dans une large gamme de tâches scientifiques.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat est un modèle de chat open source basé sur larchitecture InternLM2. Ce modèle 7B se concentre sur la génération de dialogues en chinois et en anglais, avec un entraînement moderne pour des conversations fluides et intelligentes. Il convient à de nombreux scénarios de chat comme lassistance client ou les assistants personnels.",
"internlm2.5-latest.description": "Modèles hérités toujours maintenus avec dexcellentes performances stables après de nombreuses itérations. Disponibles en tailles 7B et 20B, ils prennent en charge un contexte de 1M et offrent un meilleur suivi des instructions et une utilisation renforcée des outils. Par défaut, la série InternLM2.5 la plus récente est utilisée (actuellement internlm2.5-20b-chat).",
"internlm3-latest.description": "Notre dernière série de modèles avec dexcellentes performances de raisonnement, en tête des modèles open source de sa catégorie. Par défaut, la série InternLM3 la plus récente est utilisée (actuellement internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO est un modèle préentraîné multimodal pour le raisonnement complexe image-texte.",
"internvl2.5-latest.description": "InternVL2.5 est toujours maintenu avec des performances solides et stables. Par défaut, la série InternVL2.5 la plus récente est utilisée (actuellement internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B est un modèle multimodal de taille moyenne, équilibrant performance et coût.",
"internvl3-1b.description": "InternVL3 1B est un modèle multimodal léger conçu pour les déploiements avec ressources limitées.",
"internvl3-38b.description": "InternVL3 38B est un grand modèle multimodal open source pour une compréhension image-texte de haute précision.",
"internvl3-latest.description": "Notre dernier modèle multimodal avec une meilleure compréhension image-texte et une capacité à traiter de longues séquences dimages, comparable aux meilleurs modèles propriétaires. Par défaut, la série InternVL la plus récente est utilisée (actuellement internvl3-78b).",
"internvl3.5-241b-a28b.description": "Notre nouveau modèle multimodal présente une compréhension améliorée des images et du texte ainsi que des capacités de compréhension d'images longues, atteignant des performances comparables aux modèles propriétaires de premier plan.",
"internvl3.5-latest.description": "Par défaut, il pointe vers le dernier modèle de la série InternVL3.5, actuellement défini sur internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG est un modèle de génération enrichie par la recherche dimages, conçu pour la recherche dimages, la récupération image-texte et la génération de contenu.",
"jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.",
"jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 est un modèle de langage efficace conçu spécifiquement pour le codage et les flux de travail dagents.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 est un modèle de langage de pointe, léger, optimisé pour le codage, les flux de travail dagents et le développement dapplications modernes, offrant des sorties plus claires et concises avec des temps de réponse plus rapides.",
"minimax/minimax-m2.description": "MiniMax-M2 est un modèle performant pour le codage et les tâches dagents dans de nombreux scénarios dingénierie.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 est un modèle MoE compact, rapide et économique, conçu pour des performances de codage et d'agent de premier ordre.",
"minimaxai/minimax-m2.description": "MiniMax-M2 est un modèle MoE compact, rapide et économique (230B au total, 10B actifs), conçu pour des performances de haut niveau en codage et agents tout en conservant une forte intelligence générale. Il excelle dans lédition multi-fichiers, les boucles code-exécution-correction, la validation de tests et les chaînes doutils complexes.",
"ministral-3b-latest.description": "Ministral 3B est le modèle edge haut de gamme de Mistral.",
"ministral-8b-latest.description": "Ministral 8B est un modèle edge très rentable de Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Le modèle kimi-k2-0905-preview prend en charge une fenêtre de contexte de 256K, avec un codage agentique renforcé, un code frontend plus soigné et pratique, et une meilleure compréhension du contexte.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo est une version rapide de Kimi K2 Thinking, réduisant considérablement la latence tout en conservant un raisonnement profond.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking est le modèle de raisonnement de Moonshot optimisé pour les tâches de réflexion approfondie, avec des capacités générales dagent.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 est le modèle Kimi le plus intelligent à ce jour, doté d'une architecture multimodale native.",
"moonshotai/kimi-k2.description": "Kimi K2 est un grand modèle MoE de Moonshot AI avec 1T de paramètres totaux et 32B actifs par passage, optimisé pour les capacités dagent, y compris lutilisation avancée doutils, le raisonnement et la synthèse de code.",
"morph/morph-v3-fast.description": "Morph propose un modèle spécialisé pour appliquer les modifications de code suggérées par des modèles avancés (par ex. Claude ou GPT-4o) à vos fichiers existants à une vitesse de plus de 4500 jetons/sec. Cest létape finale dun flux de travail de codage IA et il prend en charge 16k jetons en entrée/sortie.",
"morph/morph-v3-large.description": "Morph propose un modèle spécialisé pour appliquer les modifications de code suggérées par des modèles avancés (par ex. Claude ou GPT-4o) à vos fichiers existants à une vitesse de plus de 2500 jetons/sec. Cest létape finale dun flux de travail de codage IA et il prend en charge 16k jetons en entrée/sortie.",
"musesteamer-air-image.description": "musesteamer-air-image est un modèle de génération d'images développé par l'équipe de recherche de Baidu pour offrir un rapport qualité-prix exceptionnel. Il peut rapidement générer des images claires et cohérentes en action à partir des prompts des utilisateurs, transformant sans effort les descriptions en visuels.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B est une version mise à jour de Nous Hermes 2 avec les derniers jeux de données développés en interne.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B est un LLM personnalisé par NVIDIA pour améliorer lutilité. Il obtient dexcellents résultats sur Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant n°1 sur les trois benchmarks dalignement automatique au 1er octobre 2024. Il est entraîné à partir de Llama-3.1-70B-Instruct avec RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward et des invites HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modèle de langage distinctif offrant une précision et une efficacité exceptionnelles.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Selon la longueur du contexte, le sujet et la complexité, votre requête est dirigée vers Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-modéré) ou GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.",
"oswe-vscode-secondary.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle qui équilibre une haute efficacité computationnelle avec d'excellentes performances de raisonnement et d'agent.",
"perplexity/sonar-pro.description": "Produit phare de Perplexity avec ancrage dans la recherche, prenant en charge les requêtes avancées et les suivis.",
"perplexity/sonar-reasoning-pro.description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) avec recherche améliorée, incluant plusieurs requêtes par demande.",
"perplexity/sonar-reasoning.description": "Modèle axé sur le raisonnement, générant des chaînes de pensée (CoT) avec des explications détaillées basées sur la recherche.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Modèle de code Qwen.",
"qwen-coder-turbo.description": "Modèle de code Qwen.",
"qwen-flash.description": "Modèle Qwen le plus rapide et le plus économique, idéal pour les tâches simples.",
"qwen-image-edit-max.description": "Le modèle d'édition d'images Qwen prend en charge les entrées et sorties multi-images, permettant une édition précise de texte dans les images, l'ajout, la suppression ou le déplacement d'objets, la modification des actions des sujets, le transfert de style d'image et l'amélioration des détails visuels.",
"qwen-image-edit-plus.description": "Le modèle d'édition d'images Qwen prend en charge les entrées et sorties multi-images, permettant une édition précise de texte dans les images, l'ajout, la suppression ou le déplacement d'objets, la modification des actions des sujets, le transfert de style d'image et l'amélioration des détails visuels.",
"qwen-image-edit.description": "Qwen Image Edit est un modèle image-à-image qui modifie les images en fonction d'images d'entrée et d'invites textuelles, permettant des ajustements précis et des transformations créatives.",
"qwen-image-max.description": "Le modèle de génération d'images Qwen (série Max) offre un réalisme et une naturalité visuelle améliorés par rapport à la série Plus, réduisant efficacement les artefacts générés par l'IA et démontrant des performances exceptionnelles en apparence humaine, détails de texture et rendu de texte.",
"qwen-image-plus.description": "Il prend en charge une large gamme de styles artistiques et excelle particulièrement dans le rendu de textes complexes dans les images, permettant une conception intégrée de mise en page image-texte.",
"qwen-image.description": "Qwen-Image est un modèle général de génération d'images prenant en charge plusieurs styles artistiques et une forte capacité de rendu de texte complexe, notamment en chinois et en anglais. Il prend en charge les mises en page multi-lignes, les textes au niveau paragraphe et les détails fins pour des compositions texte-image complexes.",
"qwen-long.description": "Modèle Qwen ultra-large avec support de long contexte et de chat sur plusieurs documents.",
"qwen-math-plus-latest.description": "Qwen Math est un modèle linguistique spécialisé dans la résolution de problèmes mathématiques.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Modèle de code open source Qwen. Le dernier qwen3-coder-30b-a3b-instruct est basé sur Qwen3 et offre de solides capacités dagent de codage, dutilisation doutils et dinteraction avec lenvironnement pour la programmation autonome, avec dexcellentes performances en code et de bonnes capacités générales.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct est un modèle de code phare pour la programmation multilingue et la compréhension de code complexe.",
"qwen3-coder-flash.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités dagent de codage, dutilisation doutils et dinteraction avec lenvironnement pour la programmation autonome, avec dexcellentes performances en code et de bonnes capacités générales.",
"qwen3-coder-next.description": "Le prochain modèle Qwen coder optimisé pour la génération de code complexe multi-fichiers, le débogage et les flux de travail d'agent à haut débit. Conçu pour une forte intégration d'outils et des performances de raisonnement améliorées.",
"qwen3-coder-plus.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités dagent de codage, dutilisation doutils et dinteraction avec lenvironnement pour la programmation autonome, avec dexcellentes performances en code et de bonnes capacités générales.",
"qwen3-coder:480b.description": "Modèle haute performance dAlibaba pour les tâches dagent et de codage avec contexte long.",
"qwen3-max-2026-01-23.description": "Les modèles Qwen3 Max offrent des gains significatifs par rapport à la série 2.5 en capacités générales, compréhension du chinois/anglais, suivi d'instructions complexes, tâches subjectives ouvertes, compétences multilingues et utilisation doutils, avec moins dhallucinations. La dernière version qwen3-max améliore la programmation agentique et lutilisation doutils par rapport à qwen3-max-preview. Cette version atteint létat de lart et répond aux besoins dagents plus complexes.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking est un modèle multimodal de raisonnement en chaîne pour une analyse visuelle détaillée.",
"qwen3-vl-flash.description": "Qwen3 VL Flash : version légère et rapide de raisonnement pour les requêtes sensibles à la latence ou à fort volume.",
"qwen3-vl-plus.description": "Qwen VL est un modèle de génération de texte avec compréhension visuelle. Il peut effectuer de lOCR, résumer, raisonner, extraire des attributs de photos de produits ou résoudre des problèmes à partir dimages.",
"qwen3.5-397b-a17b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût inférieur. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, tout en offrant une meilleure efficacité et un coût inférieur. En termes de capacités multimodales, il montre des améliorations significatives par rapport à la série Qwen3 VL.",
"qwen3.description": "Qwen3 est le modèle de langage de nouvelle génération d'Alibaba, performant dans de nombreux cas dusage.",
"qwq-32b-preview.description": "QwQ est un modèle de recherche expérimental de Qwen axé sur lamélioration du raisonnement.",
"qwq-32b.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.",
"r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge la génération de texte en vidéo, d'image en vidéo (première image, première + dernière image), ainsi que la génération audio synchronisée avec les visuels.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des prompts complexes et une meilleure cohérence des références pour la création visuelle professionnelle.",
"solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.",
"solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.",
"solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Un moteur de recherche avancé avec ancrage de recherche pour les requêtes complexes et les suivis.",
"sonar-reasoning.description": "Un moteur de recherche avancé avec ancrage de recherche pour les requêtes complexes et les suivis.",
"sonar.description": "Un produit de recherche léger avec ancrage, plus rapide et moins coûteux que Sonar Pro.",
"spark-x.description": "Mise à jour X1.5 : (1) ajoute un mode de réflexion dynamique contrôlé par le champ `thinking` ; (2) longueur de contexte étendue avec 64K en entrée et 64K en sortie ; (3) prend en charge FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle qui équilibre une haute efficacité computationnelle avec d'excellentes performances de raisonnement et d'agent.",
"spark-x.description": "Aperçu des capacités X2 : 1. Introduit un ajustement dynamique du mode de raisonnement, contrôlé via le champ `thinking`. 2. Longueur de contexte étendue : 64K jetons d'entrée et 128K jetons de sortie. 3. Prend en charge la fonctionnalité Function Call.",
"stable-diffusion-3-medium.description": "Le dernier modèle texte-vers-image de Stability AI. Cette version améliore considérablement la qualité des images, la compréhension du texte et la diversité des styles, interprétant plus précisément les requêtes en langage naturel complexes.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applique la distillation par diffusion adversariale (ADD) à stable-diffusion-3.5-large pour une vitesse accrue.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large est un modèle texte-vers-image MMDiT de 800M paramètres avec une excellente qualité et un bon alignement des requêtes, prenant en charge des images de 1 mégapixel et fonctionnant efficacement sur du matériel grand public.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Prend en charge les interactions à long contexte pour des dialogues complexes.",
"step-2-mini.description": "Basé sur larchitecture dattention MFA de nouvelle génération, offrant des résultats comparables à Step-1 à un coût bien inférieur, avec un débit plus élevé et une latence réduite. Gère les tâches générales avec de solides capacités de codage.",
"step-2x-large.description": "Nouveau modèle dimage StepFun axé sur la génération dimages de haute qualité à partir de requêtes textuelles. Il offre des textures plus réalistes et un meilleur rendu du texte en chinois et en anglais.",
"step-3.5-flash.description": "Le modèle phare de raisonnement linguistique de Stepfun. Ce modèle offre des capacités de raisonnement de premier ordre ainsi qu'une exécution rapide et fiable. Il peut décomposer et planifier des tâches complexes, invoquer rapidement et de manière fiable des outils pour les exécuter, et excelle dans le raisonnement logique, les mathématiques, l'ingénierie logicielle, la recherche approfondie et d'autres tâches sophistiquées. La longueur du contexte est de 256K.",
"step-3.description": "Ce modèle possède une forte perception visuelle et un raisonnement complexe, gérant avec précision la compréhension interdomaines, lanalyse mathématique-visuelle croisée et une large gamme de tâches danalyse visuelle quotidienne.",
"step-r1-v-mini.description": "Modèle de raisonnement avec une forte compréhension dimage, capable de traiter des images et du texte, puis de générer du texte après un raisonnement approfondi. Il excelle en raisonnement visuel et offre des performances de haut niveau en mathématiques, codage et raisonnement textuel, avec une fenêtre de contexte de 100K.",
"stepfun-ai/step3.description": "Step3 est un modèle de raisonnement multimodal de pointe de StepFun, basé sur une architecture MoE avec 321B paramètres totaux et 38B actifs. Son design de bout en bout réduit les coûts de décodage tout en offrant un raisonnement vision-langage de haut niveau. Grâce aux conceptions MFA et AFD, il reste efficace sur les accélérateurs haut de gamme comme sur les plus modestes. Lentraînement préliminaire utilise plus de 20T de tokens texte et 4T de tokens image-texte dans de nombreuses langues. Il atteint des performances de premier plan sur les benchmarks ouverts en mathématiques, code et multimodalité.",
"taichu_llm.description": "Entraîné sur dénormes volumes de données de haute qualité, avec une meilleure compréhension du texte, création de contenu et réponses conversationnelles.",
"taichu_o1.description": "taichu_o1 est un modèle de raisonnement de nouvelle génération qui utilise linteraction multimodale et lapprentissage par renforcement pour reproduire une chaîne de pensée humaine. Il prend en charge la simulation de décisions complexes, expose les chemins de raisonnement tout en maintenant une grande précision, et convient parfaitement à lanalyse stratégique et à la réflexion approfondie.",
"taichu_vl.description": "Combine la compréhension dimages, le transfert de connaissances et lattribution logique, excellant dans les questions-réponses image-texte.",
"taichu4_vl_2b_nothinking.description": "La version sans réflexion du modèle Taichu4.0-VL 2B présente une utilisation réduite de la mémoire, un design léger, une vitesse de réponse rapide et de solides capacités de compréhension multimodale.",
"taichu4_vl_32b.description": "La version avec réflexion du modèle Taichu4.0-VL 32B est adaptée aux tâches complexes de compréhension et de raisonnement multimodal, démontrant des performances exceptionnelles en raisonnement mathématique multimodal, en capacités d'agent multimodal et en compréhension générale des images et visuels.",
"taichu4_vl_32b_nothinking.description": "La version sans réflexion du modèle Taichu4.0-VL 32B est conçue pour des scénarios complexes de compréhension image-texte et de questions-réponses sur les connaissances visuelles, excellant en légendage d'images, en questions-réponses visuelles, en compréhension vidéo et en tâches de localisation visuelle.",
"taichu4_vl_3b.description": "La version avec réflexion du modèle Taichu4.0-VL 3B exécute efficacement des tâches de compréhension et de raisonnement multimodal, avec des améliorations complètes en compréhension visuelle, localisation visuelle, reconnaissance OCR et capacités connexes.",
"taichu_llm.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.",
"taichu_llm_14b.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.",
"taichu_llm_2b.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.",
"taichu_o1.description": "taichu_o1 est un modèle de raisonnement de nouvelle génération qui atteint une chaîne de pensée semblable à celle des humains grâce à une interaction multimodale et à l'apprentissage par renforcement. Il prend en charge des simulations de prise de décision complexes et, tout en maintenant une sortie de haute précision, révèle des voies de raisonnement interprétables. Il est bien adapté à l'analyse stratégique, à la réflexion approfondie et à des scénarios similaires.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utilise un total de 80 milliards de paramètres, dont 13 milliards actifs, pour rivaliser avec des modèles plus grands. Il prend en charge un raisonnement hybride rapide/lent, une compréhension stable de longs textes, et se distingue dans les capacités dagent sur BFCL-v3 et τ-Bench. Les formats GQA et multi-quant permettent une inférence efficace.",
"tencent/Hunyuan-MT-7B.description": "Le modèle de traduction Hunyuan comprend Hunyuan-MT-7B et lensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B est un modèle de traduction léger de 7 milliards de paramètres prenant en charge 33 langues ainsi que 5 langues minoritaires chinoises. Il a obtenu 30 premières places sur 31 paires de langues lors du WMT25. Tencent Hunyuan utilise une chaîne dentraînement complète, du pré-entraînement à lajustement fin (SFT), en passant par lapprentissage par renforcement pour la traduction et les ensembles, atteignant des performances de pointe avec un déploiement efficace et simple.",
"text-embedding-3-large.description": "Le modèle dintégration le plus performant pour les tâches en anglais et en langues étrangères.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md est adapté aux tâches quotidiennes et à la génération dinterfaces utilisateur.",
"vercel/v0-1.0-md.description": "Accédez aux modèles derrière v0 pour générer, corriger et optimiser des applications web modernes avec un raisonnement spécifique aux frameworks et des connaissances à jour.",
"vercel/v0-1.5-md.description": "Accédez aux modèles derrière v0 pour générer, corriger et optimiser des applications web modernes avec un raisonnement spécifique aux frameworks et des connaissances à jour.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code est optimisé pour les besoins de programmation au niveau des entreprises. Basé sur les excellentes capacités d'Agent et de VLM de Seed 2.0, il renforce particulièrement les capacités de codage, non seulement en affichant des performances exceptionnelles en front-end, mais aussi en répondant aux besoins courants de codage multilingue des entreprises, ce qui le rend adapté à l'intégration dans divers outils de programmation IA.",
"volcengine/doubao-seed-2-0-lite.description": "Allie qualité de génération et vitesse de réponse, adapté comme modèle de production général.",
"volcengine/doubao-seed-2-0-mini.description": "Pointe vers la dernière version de doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Pointe vers la dernière version de doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code est le modèle LLM de ByteDance Volcano Engine optimisé pour la programmation agentique, performant sur les benchmarks de programmation et dagent avec un support de contexte de 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, offrant une génération rapide et une grande valeur.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, produisant des détails plus riches.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, offrant une génération rapide et une grande valeur.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, produisant des détails plus riches.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview prend en charge l'édition d'une seule image et la fusion multi-images.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I prend en charge la sélection flexible des dimensions d'image dans les limites de la zone totale de pixels et des contraintes de rapport d'aspect.",
"wan2.6-image.description": "Wanxiang 2.6 Image prend en charge l'édition d'images et la sortie de mise en page mixte image-texte.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I prend en charge la sélection flexible des dimensions d'image dans les limites de la zone totale de pixels et des contraintes de rapport d'aspect (identique à Wanxiang 2.5).",
"wanx-v1.description": "Modèle de base texte-vers-image. Correspond à Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Excelle dans les portraits texturés avec une vitesse modérée et un coût réduit. Correspond à Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Version entièrement mise à jour avec des détails dimage plus riches et une vitesse légèrement réduite. Correspond à Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast est le modèle à haut débit et faible coût de xAI (fenêtre de contexte de 2M), idéal pour les cas dusage à forte concurrence et à long contexte.",
"x-ai/grok-4.description": "Grok 4 est le modèle phare de xAI avec de solides capacités de raisonnement et multimodales.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 est le modèle rapide de xAI pour le code, avec une sortie lisible et adaptée aux ingénieurs.",
"x1.description": "Mises à jour X1.5 : (1) ajoute un mode de réflexion dynamique contrôlé par le champ `thinking` ; (2) longueur de contexte plus grande avec 64K en entrée et 64K en sortie ; (3) prend en charge FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision excelle dans les tâches visuelles, offrant des performances SOTA en raisonnement mathématique visuel (MathVista) et en questions-réponses sur documents (DocVQA). Il gère documents, graphiques, tableaux, captures décran et photos.",
"xai/grok-2.description": "Grok 2 est un modèle de pointe avec des performances de raisonnement, de discussion et de codage de haut niveau, surpassant Claude 3.5 Sonnet et GPT-4 Turbo sur LMSYS.",
"xai/grok-3-fast.description": "Le modèle phare de xAI excelle dans les cas dusage en entreprise comme lextraction de données, le codage et la synthèse, avec une expertise approfondie en finance, santé, droit et science. La variante rapide fonctionne sur une infrastructure plus rapide pour des réponses plus rapides à un coût par token plus élevé.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 est le modèle phare de Z.AI avec un raisonnement hybride optimisé pour les tâches dingénierie et à long contexte.",
"z-ai/glm-4.6.description": "GLM 4.6 est le modèle phare de Z.AI avec une longueur de contexte étendue et des capacités de codage renforcées.",
"z-ai/glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, offrant des capacités générales améliorées, des réponses plus naturelles et une expérience décriture plus immersive.",
"z-ai/glm5.description": "Un modèle puissant de raisonnement et agentique de Z.ai avec un total de 744B paramètres (40B activés), conçu pour l'ingénierie de systèmes complexes et les tâches à long terme.",
"z-ai/glm4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, amélioré pour les scénarios de codage agentique avec des capacités de codage renforcées.",
"z-ai/glm5.description": "GLM-5 est le nouveau modèle phare de Zhipu AI pour l'ingénierie des agents, atteignant des performances SOTA open-source en codage et capacités d'agent. Il égale Claude Opus 4.5 en performance.",
"z-image-turbo.description": "Z-Image est un modèle léger de génération de texte en image qui peut produire rapidement des images, prend en charge le rendu de texte en chinois et en anglais, et s'adapte de manière flexible à plusieurs résolutions et rapports d'aspect.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air est un modèle de base pour les applications dagents utilisant une architecture Mixture-of-Experts. Il est optimisé pour lutilisation doutils, la navigation web, lingénierie logicielle et le codage frontend, et sintègre avec des agents de code comme Claude Code et Roo Code. Il utilise un raisonnement hybride pour gérer à la fois les scénarios complexes et quotidiens.",
"zai-org/GLM-4.5.description": "GLM-4.5 est un modèle de base conçu pour les applications dagents utilisant une architecture Mixture-of-Experts. Il est profondément optimisé pour lutilisation doutils, la navigation web, lingénierie logicielle et le codage frontend, et sintègre avec des agents de code comme Claude Code et Roo Code. Il utilise un raisonnement hybride pour gérer à la fois les scénarios complexes et quotidiens.",
"zai-org/GLM-4.5V.description": "GLM-4.5V est le dernier VLM de Zhipu AI, basé sur le modèle texte phare GLM-4.5-Air (106B total, 12B actifs) avec une architecture MoE pour de hautes performances à moindre coût. Il suit la voie GLM-4.1V-Thinking et ajoute 3D-RoPE pour améliorer le raisonnement spatial 3D. Optimisé par pré-entraînement, SFT et RL, il gère images, vidéos et documents longs, et se classe parmi les meilleurs modèles open source sur 41 benchmarks multimodaux publics. Un mode Thinking permet déquilibrer vitesse et profondeur.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Mettre à jour le nœud",
"builtins.lobe-page-agent.apiName.wrapNodes": "Associer les nœuds",
"builtins.lobe-page-agent.title": "Page",
"builtins.lobe-skill-store.apiName.importFromMarket": "Importer depuis le Marché",
"builtins.lobe-skill-store.apiName.importSkill": "Importer une Compétence",
"builtins.lobe-skill-store.apiName.searchSkill": "Rechercher des Compétences",
"builtins.lobe-skill-store.title": "Boutique de Compétences",
"builtins.lobe-skills.apiName.execScript": "Exécuter le Script",
"builtins.lobe-skills.apiName.exportFile": "Exporter le Fichier",
"builtins.lobe-skills.apiName.importFromMarket": "Importer depuis le Marché",
"builtins.lobe-skills.apiName.importSkill": "Importer une Compétence",
"builtins.lobe-skills.apiName.readReference": "Lire la Référence",
"builtins.lobe-skills.apiName.runSkill": "Activer la Compétence",
"builtins.lobe-skills.apiName.searchSkill": "Rechercher des Compétences",
"builtins.lobe-skills.title": "Compétences",
"builtins.lobe-tools.apiName.activateTools": "Activer les Outils",
"builtins.lobe-user-memory.apiName.addContextMemory": "Ajouter une mémoire de contexte",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Ajouter une mémoire d'expérience",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Ajouter une mémoire d'identité",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Recherche Web",
"confirm": "Confirmer",
"debug.arguments": "Arguments",
"debug.error": "Journal des Erreurs",
"debug.function_call": "Appel de fonction",
"debug.intervention": "Intervention de compétence",
"debug.off": "Débogage désactivé",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Paramètres enregistrés",
"dev.tabs.manifest": "Manifeste",
"dev.tabs.meta": "Infos méta",
"dev.title.create": "Ajouter une compétence personnalisée",
"dev.title.edit": "Modifier une compétence personnalisée",
"dev.title.create": "Ajouter une Compétence MCP Personnalisée",
"dev.title.edit": "Modifier une Compétence MCP Personnalisée",
"dev.title.editCommunity": "Modifier la compétence communautaire",
"dev.title.skillDetails": "Détails de la compétence",
"dev.title.skillSettings": "Paramètres de la compétence",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud est un service cloud GenAI économique basé sur des modèles open source robustes.",
"spark.description": "iFLYTEK Spark propose une IA multilingue puissante dans divers domaines, favorisant linnovation dans le matériel intelligent, la santé, la finance et dautres secteurs.",
"stepfun.description": "Les modèles Stepfun offrent des capacités de raisonnement complexe et multimodal de pointe, avec une compréhension approfondie du contexte long et une orchestration autonome puissante de la recherche.",
"straico.description": "Straico simplifie l'intégration de l'IA en offrant un espace de travail unifié qui regroupe les meilleurs modèles génératifs d'IA pour le texte, l'image et l'audio, permettant aux marketeurs, entrepreneurs et passionnés d'accéder facilement à une variété d'outils d'IA.",
"taichu.description": "Un modèle multimodal de nouvelle génération développé par le CASIA et lInstitut dIA de Wuhan, prenant en charge les questions-réponses multi-tours, la rédaction, la génération dimages, la compréhension 3D et lanalyse de signaux avec une cognition et une créativité renforcées.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fournit des réponses aux questions dentreprise de bout en bout, avec des services modulaires comme lanalyse de documents, le découpage, les embeddings et la réécriture multi-tours pour créer des solutions IA personnalisées.",
"togetherai.description": "Together AI offre des performances de pointe avec des modèles innovants, une personnalisation étendue, une montée en charge rapide et un déploiement simplifié pour les besoins des entreprises.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Profil de l'agent",
"agentInfoDescription.value.unset": "Non défini",
"agentInfoDescription.value.untitled": "Agent sans titre",
"agentSkillDetail.addedAt": "Ajouté",
"agentSkillDetail.publishedAt": "Publié",
"agentSkillDetail.repository": "Dépôt GitHub",
"agentSkillDetail.skillContent": "Contenu de la compétence",
"agentSkillDetail.sourceUrl": "Source d'importation de la compétence",
"agentSkillDetail.updatedAt": "Mis à jour",
"agentSkillEdit.descriptionDesc": "Un bref résumé de ce que fait la compétence, aidant l'agent à comprendre quand l'utiliser",
"agentSkillEdit.fileReadonly": "Ce fichier est en lecture seule. Seuls la description et les instructions de la compétence peuvent être modifiées.",
"agentSkillEdit.instructions": "Instructions",
"agentSkillEdit.instructionsDesc": "Les instructions principales en Markdown qui définissent le comportement et le flux de travail de la compétence",
"agentSkillEdit.instructionsPlaceholder": "Saisissez les instructions de la compétence au format Markdown...",
"agentSkillEdit.nameDesc": "L'identifiant unique de cette compétence, non modifiable après la création",
"agentSkillEdit.saveSuccess": "Compétence mise à jour avec succès",
"agentSkillEdit.title": "Paramètres de la compétence",
"agentSkillItem.deleteConfirm.desc": "Êtes-vous sûr de vouloir supprimer la compétence d'agent \"{{name}}\" ? Cette action est irréversible.",
"agentSkillItem.deleteConfirm.title": "Supprimer la compétence d'agent",
"agentSkillModal.content": "Contenu de la compétence",
"agentSkillModal.contentPlaceholder": "Saisissez le contenu de la compétence au format Markdown...",
"agentSkillModal.description": "Description",
"agentSkillModal.descriptionPlaceholder": "Décrivez brièvement cette compétence",
"agentSkillModal.github.desc": "Importez des compétences directement depuis un dépôt GitHub public.",
"agentSkillModal.github.title": "Importer depuis GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/nomutilisateur/repo",
"agentSkillModal.importError": "Échec de l'importation : {{error}}",
"agentSkillModal.importSuccess": "Compétence d'agent importée avec succès",
"agentSkillModal.upload.desc": "Téléchargez un fichier local .zip ou .skill pour l'installer.",
"agentSkillModal.upload.dragText": "Glissez-déposez ou cliquez pour télécharger",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md contient le nom et la description de la compétence au format YAML",
"agentSkillModal.upload.requirementZip": "Fichier .zip ou .skill avec SKILL.md dans le répertoire racine",
"agentSkillModal.upload.requirements": "Exigences du fichier",
"agentSkillModal.upload.title": "Télécharger une compétence",
"agentSkillModal.upload.uploading": "Téléchargement en cours...",
"agentSkillModal.url.desc": "Importez une compétence en fournissant un lien direct vers un fichier SKILL.md.",
"agentSkillModal.url.title": "Importer depuis une URL",
"agentSkillModal.url.urlPlaceholder": "https://exemple.com/chemin/vers/SKILL.md",
"agentSkillTag": "Compétence d'agent",
"agentTab.chat": "Préférences de discussion",
"agentTab.meta": "Informations de l'agent",
"agentTab.modal": "Paramètres du modèle",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Modèle utilisé pour la traduction",
"systemAgent.translation.title": "Agent de traduction de messages",
"tab.about": "À propos",
"tab.addAgentSkill": "Ajouter une compétence d'agent",
"tab.addCustomMcp": "Ajouter une compétence MCP personnalisée",
"tab.addCustomMcp.desc": "Configurer manuellement un serveur MCP personnalisé",
"tab.addCustomSkill": "Ajouter une compétence personnalisée",
"tab.agent": "Service dagent",
"tab.all": "Tous",
@ -652,7 +691,13 @@
"tab.experiment": "Expérimental",
"tab.hotkey": "Raccourcis clavier",
"tab.image": "Service de génération dimages",
"tab.importFromGithub": "Importer depuis GitHub",
"tab.importFromGithub.desc": "Importer depuis un dépôt GitHub public",
"tab.importFromUrl": "Importer depuis une URL",
"tab.importFromUrl.desc": "Importer via un lien direct vers SKILL.md",
"tab.llm": "Modèle de langage",
"tab.manualFill": "Remplir manuellement",
"tab.manualFill.desc": "Configurer manuellement une compétence MCP personnalisée",
"tab.memory": "Mémoire",
"tab.profile": "Mon compte",
"tab.provider": "Fournisseur dIA",
@ -669,6 +714,8 @@
"tab.sync": "Synchronisation cloud",
"tab.systemTools": "Outils système",
"tab.tts": "Synthèse vocale",
"tab.uploadZip": "Télécharger un fichier Zip",
"tab.uploadZip.desc": "Téléchargez un fichier local .zip ou .skill",
"tab.usage": "Statistiques dutilisation",
"tools.add": "Ajouter une compétence",
"tools.builtins.groupName": "Fonctionnalités intégrées",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Metti una stella su GitHub",
"footer.title": "Ti piace il nostro prodotto?",
"fullscreen": "Modalità schermo intero",
"geminiImageChineseWarning.content": "Nano Banana potrebbe non generare immagini correttamente con l'uso del cinese. Si consiglia di utilizzare l'inglese per risultati migliori.",
"geminiImageChineseWarning.continueGenerate": "Continua a generare",
"geminiImageChineseWarning.continueSend": "Continua a inviare",
"geminiImageChineseWarning.doNotShowAgain": "Non mostrare più",
"geminiImageChineseWarning.title": "Avviso sull'input in cinese",
"historyRange": "Intervallo cronologia",
"home.suggestQuestions": "Prova questi esempi",
"import": "Importa",
@ -397,6 +392,7 @@
"tab.chat": "Chat",
"tab.community": "Comunità",
"tab.discover": "Scopri",
"tab.eval": "Laboratorio di Valutazione",
"tab.files": "File",
"tab.home": "Home",
"tab.knowledgeBase": "Libreria",

316
locales/it-IT/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Elimina Benchmark",
"benchmark.actions.delete.confirm": "Sei sicuro di voler eliminare questo benchmark? Anche i dataset correlati e i record di valutazione saranno eliminati.",
"benchmark.actions.edit": "Modifica Benchmark",
"benchmark.actions.export": "Esporta",
"benchmark.card.bestScore": "Migliore",
"benchmark.card.caseCount": "{{count}} casi",
"benchmark.card.datasetCount": "{{count}} dataset",
"benchmark.card.empty": "Nessuna valutazione ancora",
"benchmark.card.emptyHint": "Crea una nuova valutazione dalla pagina dei dettagli del benchmark",
"benchmark.card.importDataset": "Importa Dataset",
"benchmark.card.noDataset": "Nessun dataset ancora",
"benchmark.card.noDatasetHint": "Importa un dataset per iniziare la valutazione",
"benchmark.card.noRecentRuns": "Nessuna valutazione recente da mostrare",
"benchmark.card.recentRuns": "Valutazioni Recenti",
"benchmark.card.runCount": "{{count}} valutazioni",
"benchmark.card.startFirst": "Inizia la Prima Valutazione",
"benchmark.card.viewAll": "Visualizza tutti {{count}}",
"benchmark.create.confirm": "Crea",
"benchmark.create.description.label": "Descrizione",
"benchmark.create.description.placeholder": "Descrizione del benchmark (opzionale)",
"benchmark.create.error": "Creazione del benchmark fallita",
"benchmark.create.identifier.label": "Identificatore",
"benchmark.create.identifier.placeholder": "identificatore-benchmark",
"benchmark.create.identifierRequired": "Inserisci un identificatore",
"benchmark.create.name.label": "Nome",
"benchmark.create.name.placeholder": "Inserisci il nome del benchmark",
"benchmark.create.nameRequired": "Inserisci un nome per il benchmark",
"benchmark.create.success": "Benchmark creato con successo",
"benchmark.create.tags.label": "Tag",
"benchmark.create.tags.placeholder": "Aggiungi tag, separati da virgola o spazio",
"benchmark.create.title": "Crea Benchmark",
"benchmark.detail.backToOverview": "Torna alla Panoramica",
"benchmark.detail.datasetCount": "{{count}} dataset{{count, plural, one {} other {s}}} in questo benchmark",
"benchmark.detail.runCount": "{{count}} esecuzione di valutazione{{count, plural, one {} other {i}}} su questo benchmark",
"benchmark.detail.stats.addFirstDataset": "Clicca per aggiungere il primo dataset",
"benchmark.detail.stats.avgCost": "Costo Medio",
"benchmark.detail.stats.avgDuration": "Durata Media",
"benchmark.detail.stats.basedOnLastNRuns": "Basato sulle ultime {{count}} esecuzioni",
"benchmark.detail.stats.bestPerformance": "Migliore prestazione di {{agent}} con {{passRate}}% di successo",
"benchmark.detail.stats.bestScore": "Miglior Punteggio",
"benchmark.detail.stats.cases": "Casi",
"benchmark.detail.stats.dataScale": "Scala Dati",
"benchmark.detail.stats.datasets": "Dataset",
"benchmark.detail.stats.needSetup": "Configurazione Necessaria",
"benchmark.detail.stats.noEvalRecord": "Nessun record di valutazione ancora",
"benchmark.detail.stats.perRun": "/ Esecuzione",
"benchmark.detail.stats.runs": "Esecuzioni",
"benchmark.detail.stats.tags": "Tag",
"benchmark.detail.stats.topAgents": "Migliori Agenti",
"benchmark.detail.stats.totalCases": "Totale Casi",
"benchmark.detail.stats.waiting": "In attesa...",
"benchmark.detail.tabs.data": "Dati",
"benchmark.detail.tabs.datasets": "Dataset",
"benchmark.detail.tabs.runs": "Esecuzioni",
"benchmark.edit.confirm": "Salva",
"benchmark.edit.error": "Aggiornamento del benchmark fallito",
"benchmark.edit.success": "Benchmark aggiornato con successo",
"benchmark.edit.title": "Modifica Benchmark",
"benchmark.empty": "Nessun benchmark ancora. Creane uno per iniziare.",
"caseDetail.actual": "Output Effettivo",
"caseDetail.chatArea.title": "Conversazione",
"caseDetail.completionReason": "Stato",
"caseDetail.cost": "Costo",
"caseDetail.difficulty": "Difficoltà",
"caseDetail.duration": "Durata",
"caseDetail.expected": "Output Atteso",
"caseDetail.failureReason": "Motivo del Fallimento",
"caseDetail.input": "Input",
"caseDetail.judgeComment": "Commento del Giudice",
"caseDetail.resources": "Risorse",
"caseDetail.score": "Punteggio",
"caseDetail.section.runtime": "Runtime",
"caseDetail.section.scoring": "Dettagli Punteggio",
"caseDetail.section.testCase": "Caso di Test",
"caseDetail.steps": "Passaggi",
"caseDetail.threads.attempt": "Traiettoria #{{number}}",
"caseDetail.tokens": "Utilizzo Token",
"common.cancel": "Annulla",
"common.create": "Crea",
"common.delete": "Elimina",
"common.edit": "Modifica",
"common.later": "Più Tardi",
"common.next": "Avanti",
"common.update": "Aggiorna",
"dataset.actions.addDataset": "Aggiungi Dataset",
"dataset.actions.import": "Importa Dati",
"dataset.actions.importDataset": "Importa Dataset",
"dataset.create.description.label": "Descrizione",
"dataset.create.description.placeholder": "Descrizione del dataset (opzionale)",
"dataset.create.error": "Creazione del dataset fallita",
"dataset.create.identifier.label": "Identificatore",
"dataset.create.identifier.placeholder": "identificatore-dataset",
"dataset.create.identifierRequired": "Inserisci un identificatore",
"dataset.create.importNow": "Vuoi importare i dati ora?",
"dataset.create.name.label": "Nome Dataset",
"dataset.create.name.placeholder": "Inserisci il nome del dataset",
"dataset.create.nameRequired": "Inserisci un nome per il dataset",
"dataset.create.preset.label": "Preset Dataset",
"dataset.create.success": "Dataset creato con successo",
"dataset.create.successTitle": "Dataset Creato",
"dataset.create.title": "Crea Dataset",
"dataset.delete.confirm": "Sei sicuro di voler eliminare questo dataset? Tutti i casi di test in esso contenuti saranno eliminati.",
"dataset.delete.error": "Eliminazione del dataset fallita",
"dataset.delete.success": "Dataset eliminato con successo",
"dataset.detail.addRun": "Nuova Esecuzione",
"dataset.detail.backToBenchmark": "Torna al Benchmark",
"dataset.detail.caseCount": "{{count}} caso di test{{count, plural, one {} other {i}}}",
"dataset.detail.relatedRuns": "Esecuzioni Correlate ({{count}})",
"dataset.detail.testCases": "Casi di Test",
"dataset.detail.viewDetail": "Visualizza Dettagli",
"dataset.edit.error": "Aggiornamento del dataset fallito",
"dataset.edit.success": "Dataset aggiornato con successo",
"dataset.edit.title": "Modifica Dataset",
"dataset.empty": "Nessun dataset",
"dataset.empty.description": "Importa un dataset per iniziare a costruire questo benchmark",
"dataset.empty.title": "Nessun dataset ancora",
"dataset.evalMode.hint": "Modalità di valutazione predefinita per il dataset, può essere sovrascritta a livello di caso di test",
"dataset.import.category": "Categoria",
"dataset.import.categoryDesc": "Etichetta di classificazione per il raggruppamento",
"dataset.import.choices": "Scelte",
"dataset.import.choicesDesc": "Opzioni a scelta multipla",
"dataset.import.confirm": "Importa",
"dataset.import.error": "Importazione del dataset fallita",
"dataset.import.expected": "Risposta Attesa",
"dataset.import.expectedDelimiter": "Delimitatore Risposta",
"dataset.import.expectedDelimiter.desc": "Delimitatore risposta",
"dataset.import.expectedDelimiter.placeholder": "es. | o ,",
"dataset.import.expectedDesc": "Risposta corretta da confrontare",
"dataset.import.fieldMapping": "Mappatura Campi",
"dataset.import.fieldMapping.desc": "La colonna \"Input\" è obbligatoria",
"dataset.import.hideSkipped": "Nascondi colonne saltate",
"dataset.import.ignore": "Salta",
"dataset.import.ignoreDesc": "Non importare questa colonna",
"dataset.import.input": "Input",
"dataset.import.inputDesc": "Domanda o prompt inviato al modello",
"dataset.import.metadata": "Metadati",
"dataset.import.metadataDesc": "Informazioni extra, memorizzate così come sono",
"dataset.import.next": "Avanti",
"dataset.import.parseError": "Analisi del file fallita",
"dataset.import.parsing": "Analisi del file in corso...",
"dataset.import.prev": "Indietro",
"dataset.import.preview": "Anteprima Dati",
"dataset.import.preview.desc": "Conferma che la mappatura sia corretta, quindi importa.",
"dataset.import.preview.rows": "{{count}} righe totali",
"dataset.import.sortOrder": "Numero Elemento",
"dataset.import.sortOrderDesc": "ID domanda/elemento per riferimento",
"dataset.import.step.mapping": "Mappa Campi",
"dataset.import.step.preview": "Anteprima",
"dataset.import.step.upload": "Carica File",
"dataset.import.success": "{{count}} casi di test importati con successo",
"dataset.import.title": "Importa Dataset",
"dataset.import.upload.hint": "Supporta CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Clicca o trascina il file qui per caricarlo",
"dataset.import.uploading": "Caricamento in corso...",
"dataset.switchDataset": "Cambia Dataset",
"difficulty.easy": "Facile",
"difficulty.hard": "Difficile",
"difficulty.medium": "Medio",
"evalMode.contains": "Corrispondenza Contenuta",
"evalMode.contains.desc": "L'output deve contenere il testo atteso",
"evalMode.equals": "Corrispondenza Esatta",
"evalMode.equals.desc": "L'output deve essere esattamente uguale a quello atteso",
"evalMode.label": "Modalità di Valutazione",
"evalMode.llm-rubric": "Giudice LLM",
"evalMode.llm-rubric.desc": "Usa LLM per valutare la qualità dell'output",
"evalMode.placeholder": "Seleziona modalità di valutazione",
"evalMode.prompt.label": "Prompt Giudice",
"evalMode.prompt.placeholder": "Inserisci i criteri di valutazione o il prompt per il giudice LLM",
"evalMode.rubric": "Valutazione con Rubrica",
"evalMode.rubric.desc": "Valuta l'output utilizzando rubriche di benchmark con criteri ponderati",
"overview.createBenchmark": "Crea Benchmark",
"overview.importDataset": "Importa Dataset",
"overview.subtitle": "Valuta e confronta i tuoi agenti AI su diversi dataset",
"overview.title": "Laboratorio di Valutazione",
"run.actions.abort": "Interrompi",
"run.actions.abort.confirm": "Sei sicuro di voler interrompere questa valutazione?",
"run.actions.create": "Nuova Valutazione",
"run.actions.delete": "Elimina",
"run.actions.delete.confirm": "Sei sicuro di voler eliminare questa valutazione?",
"run.actions.edit": "Modifica",
"run.actions.retryCase": "Riprova",
"run.actions.retryErrors": "Riprova Errori",
"run.actions.retryErrors.confirm": "Questo rieseguirà tutti i casi di errore e timeout. I casi superati e falliti non saranno influenzati.",
"run.actions.run": "Esegui",
"run.actions.start": "Inizia",
"run.actions.start.confirm": "Sei sicuro di voler iniziare questa valutazione?",
"run.chart.duration": "Durata (s)",
"run.chart.error": "Errore",
"run.chart.fail": "Fallimento",
"run.chart.latencyDistribution": "Distribuzione della Latenza",
"run.chart.latencyTokenDistribution": "Latenza / Distribuzione Token",
"run.chart.pass": "Successo",
"run.chart.passFailError": "Successo / Fallimento / Errore",
"run.chart.tokens": "Token",
"run.config.agentId": "Agente",
"run.config.concurrency": "Concorrenza",
"run.config.judgeModel": "Modello Giudice",
"run.config.k": "Esecuzioni (K)",
"run.config.k.hint": "Esegui ogni caso di test {{k}} volte per metriche pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Passaggi Massimi",
"run.config.maxSteps.hint": "Ogni chiamata LLM o strumento da parte dell'agente conta come 1 passaggio",
"run.config.model": "Modello",
"run.config.temperature": "Temperatura",
"run.config.timeout": "Timeout",
"run.config.timeout.unit": "min",
"run.create.advanced": "Impostazioni Avanzate",
"run.create.agent": "Agente",
"run.create.agent.placeholder": "Seleziona un agente",
"run.create.agent.required": "Seleziona un agente",
"run.create.caseCount": "{{count}} casi",
"run.create.confirm": "Crea e Inizia",
"run.create.createOnly": "Crea",
"run.create.dataset": "Dataset",
"run.create.dataset.placeholder": "Seleziona un dataset",
"run.create.dataset.required": "Seleziona un dataset",
"run.create.name": "Nome Valutazione",
"run.create.name.placeholder": "Inserisci un nome per questa valutazione",
"run.create.name.required": "Inserisci un nome per la valutazione",
"run.create.name.useTimestamp": "Usa l'ora corrente come nome",
"run.create.openAgent": "Apri agente in una nuova finestra",
"run.create.title": "Nuova Valutazione",
"run.create.titleWithDataset": "Nuova Valutazione su \"{{dataset}}\"",
"run.detail.agent": "Agente",
"run.detail.agent.none": "Non specificato",
"run.detail.agent.unnamed": "Agente Senza Nome",
"run.detail.backToBenchmark": "Torna al Benchmark",
"run.detail.caseResults": "Dettagli Valutazione",
"run.detail.config": "Configurazione Valutazione",
"run.detail.configSnapshot": "Snapshot Configurazione",
"run.detail.dataset": "Dataset",
"run.detail.model": "Modello",
"run.detail.overview": "Panoramica",
"run.detail.progress": "Progresso",
"run.detail.progressCases": "casi",
"run.detail.report": "Riepilogo Valutazione",
"run.edit.error": "Aggiornamento della valutazione fallito",
"run.edit.success": "Valutazione aggiornata con successo",
"run.edit.title": "Modifica Valutazione",
"run.empty.description": "Inizia la tua prima esecuzione di valutazione su questo dataset",
"run.empty.descriptionBenchmark": "Inizia la tua prima esecuzione di valutazione su questo benchmark",
"run.empty.title": "Nessuna esecuzione ancora",
"run.filter.active": "Attivo",
"run.filter.empty": "Nessuna esecuzione corrisponde al filtro attuale.",
"run.idle.hint": "Clicca su Inizia per avviare la valutazione",
"run.metrics.avgScore": "Punteggio Medio",
"run.metrics.cost": "Costo",
"run.metrics.duration": "Durata",
"run.metrics.errorCases": "Errore",
"run.metrics.evaluated": "{{count}} valutati",
"run.metrics.passRate": "Tasso di Successo",
"run.metrics.perCase": "/ caso",
"run.metrics.tokens": "Token",
"run.metrics.totalDuration": "Cumulativo",
"run.pending.hint": "La valutazione è in coda, in attesa di iniziare...",
"run.running.hint": "La valutazione è in corso, i risultati appariranno a breve...",
"run.status.aborted": "Interrotto",
"run.status.completed": "Completato",
"run.status.error": "Errore Esecuzione",
"run.status.failed": "Fallito",
"run.status.idle": "Inattivo",
"run.status.pending": "In attesa",
"run.status.running": "In esecuzione",
"run.status.timeout": "Timeout",
"sidebar.benchmarks": "Benchmark",
"sidebar.dashboard": "Dashboard",
"sidebar.datasets": "Dataset",
"sidebar.runs": "Esecuzioni",
"table.columns.avgCost": "Costo Medio",
"table.columns.category": "Categoria",
"table.columns.cost": "Costo",
"table.columns.difficulty": "Difficoltà",
"table.columns.duration": "Durata",
"table.columns.evalMode": "Modalità di Valutazione",
"table.columns.expected": "Risposta Attesa",
"table.columns.input": "Input",
"table.columns.score": "Punteggio",
"table.columns.status": "Stato",
"table.columns.steps": "Passaggi",
"table.columns.tags": "Tag",
"table.columns.tokens": "Token",
"table.columns.totalCost": "Costo Totale",
"table.filter.all": "Tutti",
"table.filter.error": "Errore Esecuzione",
"table.filter.failed": "Fallito",
"table.filter.passed": "Superato",
"table.filter.running": "In esecuzione",
"table.search.placeholder": "Cerca casi...",
"table.total": "Totale {{count}}",
"testCase.actions.add": "Aggiungi Caso di Test",
"testCase.actions.import": "Importa Casi di Test",
"testCase.create.advanced": "Altre Opzioni",
"testCase.create.difficulty.label": "Difficoltà",
"testCase.create.error": "Aggiunta del caso di test fallita",
"testCase.create.expected.label": "Output Atteso",
"testCase.create.expected.placeholder": "Inserisci la risposta attesa",
"testCase.create.expected.required": "Inserisci l'output atteso",
"testCase.create.input.label": "Input",
"testCase.create.input.placeholder": "Inserisci l'input o la domanda del caso di test",
"testCase.create.success": "Caso di test aggiunto con successo",
"testCase.create.tags.label": "Tag",
"testCase.create.tags.placeholder": "Tag separati da virgola (opzionale)",
"testCase.create.title": "Aggiungi Caso di Test",
"testCase.delete.confirm": "Sei sicuro di voler eliminare questo caso di test?",
"testCase.delete.error": "Eliminazione del caso di test fallita",
"testCase.delete.success": "Caso di test eliminato",
"testCase.edit.error": "Aggiornamento del caso di test fallito",
"testCase.edit.success": "Caso di test aggiornato con successo",
"testCase.edit.title": "Modifica Caso di Test",
"testCase.empty.description": "Importa o aggiungi manualmente casi di test a questo dataset",
"testCase.empty.title": "Nessun caso di test ancora",
"testCase.preview.expected": "Atteso",
"testCase.preview.input": "Input",
"testCase.preview.title": "Anteprima Caso di Test",
"testCase.search.placeholder": "Cerca casi..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Ricerca Approfondita",
"starter.developing": "Prossimamente",
"starter.image": "Immagine",
"starter.nanoBanana2": "🍌 Nano Banana 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Scrivi"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Per la serie Gemini; controlla il budget di pensiero.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Per i modelli Gemini 3 Flash Preview; controlla la profondità del pensiero.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Per i modelli Gemini 3 Pro Preview; controlla la profondità del pensiero.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Per i modelli Gemini 3.1 Pro Preview; controlla la profondità di pensiero con livelli basso/medio/alto.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Per la serie Gemini; supporta il contesto tramite URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Seleziona i parametri estesi da abilitare",
"providerModels.item.modelConfig.extendParams.previewFallback": "Anteprima non disponibile",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo offre elevate capacità di calcolo e conversazione, con eccellente comprensione semantica ed efficienza generativa, ideale per aziende e sviluppatori.",
"360gpt2-o1.description": "360gpt2-o1 costruisce catene di pensiero tramite ricerca ad albero con meccanismo di riflessione e addestramento con RL, abilitando auto-riflessione e auto-correzione.",
"360gpt2-pro.description": "360GPT2 Pro è un modello NLP avanzato di 360 con eccellenti capacità di generazione e comprensione del testo, particolarmente adatto a compiti creativi, trasformazioni complesse e simulazioni di ruolo.",
"360zhinao2-o1.5.description": "360 Zhinao, il modello di ragionamento più potente, con le capacità più avanzate e supporto sia per l'uso di strumenti che per il ragionamento avanzato.",
"360zhinao2-o1.description": "360zhinao2-o1 costruisce catene di pensiero tramite ricerca ad albero con meccanismo di riflessione e addestramento con RL, abilitando auto-riflessione e auto-correzione.",
"360zhinao3-o1.5.description": "360 Zhinao, modello di ragionamento di nuova generazione.",
"4.0Ultra.description": "Spark Ultra è il modello più potente della serie Spark, migliora la comprensione e il riassunto del testo e potenzia la ricerca web. È una soluzione completa per aumentare la produttività sul lavoro e fornire risposte accurate, posizionandosi come prodotto intelligente leader.",
"AnimeSharp.description": "AnimeSharp (noto anche come \"4x-AnimeSharp\") è un modello open-source di super-risoluzione basato su ESRGAN di Kim2091, focalizzato sull'ingrandimento e la nitidezza delle immagini in stile anime. È stato rinominato da \"4x-TextSharpV1\" nel febbraio 2022, originariamente pensato anche per immagini testuali ma fortemente ottimizzato per contenuti anime.",
"Baichuan2-Turbo.description": "Utilizza l'augmentazione tramite ricerca per collegare il modello alla conoscenza di dominio e del web. Supporta caricamenti PDF/Word e input tramite URL per un recupero tempestivo e completo, con output professionali e accurati.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision è un modello multimodale all'avanguardia che offre prestazioni eccellenti nei principali benchmark di linguaggio, testo e visione. Questa versione da 8B è ottimizzata per bassa latenza e prestazioni elevate.",
"charglm-3.description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.",
"charglm-4.description": "CharGLM-4 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.",
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.",
"chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale. Combina una forte comprensione e generazione del linguaggio per casi d'uso su larga scala come assistenza clienti, educazione e supporto tecnico.",
"claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in diverse competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in numerosi benchmark.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) è un modello innovativo che offre una profonda comprensione linguistica e interazione.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.",
"deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza delle risposte per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni open-source degli agenti.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 è un nuovo modello di ragionamento ibrido di DeepSeek, che supporta modalità di pensiero e non-pensiero, offrendo un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano notevolmente l'uso degli strumenti da parte degli agenti e le prestazioni nei compiti. Supporta una finestra di contesto di 128k e fino a 64k token in output.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catene di pensiero, ideale per compiti che richiedono analisi approfondite.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce l'attenzione sparsa per migliorare l'efficienza di addestramento e inferenza su testi lunghi, a un costo inferiore rispetto a deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "Per compiti altamente complessi, il modello Speciale supera significativamente la versione standard, ma consuma un numero considerevolmente maggiore di token e comporta costi più elevati. Attualmente, DeepSeek-V3.2-Speciale è destinato esclusivamente alla ricerca, non supporta l'uso di strumenti e non è stato specificamente ottimizzato per conversazioni quotidiane o compiti di scrittura.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think è un modello completo di pensiero profondo con capacità potenziate di ragionamento a catena lunga.",
"deepseek-v3.2.description": "DeepSeek-V3.2 è il primo modello ibrido di ragionamento di DeepSeek che integra il pensiero nell'uso degli strumenti. Utilizza un'architettura efficiente per ridurre il calcolo, l'apprendimento per rinforzo su larga scala per potenziare le capacità e dati sintetici su larga scala per rafforzare la generalizzazione. La combinazione di questi tre elementi consente prestazioni paragonabili a GPT-5-High, con una lunghezza di output significativamente ridotta, diminuendo notevolmente il carico computazionale e i tempi di attesa per l'utente.",
"deepseek-v3.description": "DeepSeek-V3 è un potente modello MoE con 671 miliardi di parametri totali e 37 miliardi attivi per token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni. Supporta una finestra contestuale di 128k e fino a 16k token in output.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.",
"doubao-lite-128k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 128k.",
"doubao-lite-32k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
"doubao-lite-4k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 4k.",
"doubao-pro-256k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 256k.",
"doubao-pro-32k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash è un modello multimodale di ragionamento profondo ultra-rapido con TPOT fino a 10ms. Supporta testo e visione, supera il precedente modello lite nella comprensione del testo e si equipara ai modelli pro concorrenti nella visione. Supporta una finestra contestuale di 256k e fino a 16k token in output.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di ragionamento profondo con sforzo di ragionamento regolabile (Minimo, Basso, Medio, Alto), che offre un miglior rapporto qualità-prezzo ed è una scelta solida per compiti comuni, con una finestra contestuale fino a 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Il modello di immagini Doubao di ByteDance Seed supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Supporta l'editing di immagini guidato da testo, con dimensioni di output tra 512 e 1536 sul lato lungo.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.",
"doubao-vision-lite-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
"doubao-vision-pro-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 è l'ultimo modello multimodale di ByteDance, che integra capacità di generazione da testo a immagine, immagine a immagine e generazione di immagini in batch, incorporando anche conoscenze di senso comune e capacità di ragionamento. Rispetto alla versione precedente 4.0, offre una qualità di generazione significativamente migliorata, con una maggiore coerenza nell'editing e nella fusione di più immagini. Offre un controllo più preciso sui dettagli visivi, producendo testi e volti piccoli in modo più naturale, e raggiunge una disposizione e una colorazione più armoniose, migliorando l'estetica complessiva.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite è l'ultimo modello di generazione di immagini di ByteDance. Per la prima volta, integra capacità di recupero online, consentendo di incorporare informazioni web in tempo reale e migliorare la tempestività delle immagini generate. L'intelligenza del modello è stata inoltre aggiornata, consentendo un'interpretazione precisa di istruzioni complesse e contenuti visivi. Inoltre, offre una copertura globale della conoscenza migliorata, una maggiore coerenza di riferimento e una qualità di generazione superiore in scenari professionali, soddisfacendo meglio le esigenze di creazione visiva a livello aziendale.",
"emohaa.description": "Emohaa è un modello per la salute mentale con capacità di consulenza professionale per aiutare gli utenti a comprendere le problematiche emotive.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B è un modello open-source leggero per implementazioni locali e personalizzate.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking è un modello MoE (Mixture-of-Experts) post-addestrato con un totale di 21 miliardi di parametri e 3 miliardi di parametri attivi, offrendo una qualità e una profondità di ragionamento significativamente migliorate.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B è un modello open-source con un numero elevato di parametri e una maggiore capacità di comprensione e generazione.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B è il modello MoE ultra-large di Baidu ERNIE con eccellenti capacità di ragionamento.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview è un modello di anteprima con finestra contestuale da 8K per la valutazione di ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K è un modello leggero ad alte prestazioni per scenari sensibili a latenza e costi.",
"ernie-novel-8k.description": "ERNIE Novel 8K è progettato per romanzi lunghi e trame IP con narrazioni multi-personaggio.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K è un modello ad alto valore e alta concorrenza per servizi online su larga scala e applicazioni aziendali.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview è un modello di pensiero rapido con un contesto di 32K per ragionamenti complessi e chat multi-turno.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview è unanteprima del modello di pensiero per valutazioni e test.",
"ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Offre coerenza del soggetto migliorata, esecuzione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout per poster e design di loghi con rendering testo-immagine ad alta precisione.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sullediting di immagini, che supporta input di testo e immagini.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite è il modello più piccolo e conveniente di Google, progettato per luso su larga scala.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google con funzionalità complete.",
"gemini-2.5-flash-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash è il modello più conveniente di Google con funzionalità complete.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.",
"gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre una qualità d'immagine di livello professionale a velocità Flash con supporto per chat multimodale.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre una qualità d'immagine di livello professionale a velocità Flash con supporto per chat multimodale.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.",
"gemini-flash-latest.description": "Ultima versione di Gemini Flash",
"gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite",
"gemini-pro-latest.description": "Ultima versione di Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.",
"glm-4v-plus.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.",
"glm-4v.description": "GLM-4V offre una solida comprensione e capacità di ragionamento visivo su compiti basati su immagini.",
"glm-5.description": "Un modello di ragionamento e agentico avanzato di Z.ai con 744B parametri totali (40B attivi), progettato per l'ingegneria di sistemi complessi e compiti a lungo termine.",
"glm-5.description": "La serie GLM è un modello di ragionamento ibrido di Zhipu AI progettato per agenti, con modalità di pensiero e non-pensiero.",
"glm-z1-air.description": "Modello di ragionamento con elevate capacità inferenziali per compiti che richiedono deduzioni complesse.",
"glm-z1-airx.description": "Ragionamento ultra-rapido con alta qualità inferenziale.",
"glm-z1-flash.description": "La serie GLM-Z1 eccelle nel ragionamento complesso, con prestazioni elevate in logica, matematica e programmazione.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Siamo entusiasti di presentare Grok 4 Fast, il nostro ultimo progresso nei modelli di ragionamento a basso costo.",
"grok-4.description": "Il nostro modello di punta più recente e potente, eccellente in NLP, matematica e ragionamento—un tuttofare ideale.",
"grok-code-fast-1.description": "Siamo entusiasti di lanciare grok-code-fast-1, un modello di ragionamento veloce ed economico che eccelle nella programmazione agentica.",
"grok-imagine-image-pro.description": "Genera immagini da prompt testuali, modifica immagini esistenti con linguaggio naturale o affina iterativamente le immagini attraverso conversazioni multi-turno.",
"grok-imagine-image.description": "Genera immagini da prompt testuali, modifica immagini esistenti con linguaggio naturale o affina iterativamente le immagini attraverso conversazioni multi-turno.",
"groq/compound-mini.description": "Compound-mini è un sistema AI composito alimentato da modelli pubblici disponibili su GroqCloud, che utilizza strumenti in modo intelligente e selettivo per rispondere alle domande degli utenti.",
"groq/compound.description": "Compound è un sistema AI composito alimentato da più modelli pubblici disponibili su GroqCloud, che utilizza strumenti in modo intelligente e selettivo per rispondere alle domande degli utenti.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B è un modello linguistico creativo e intelligente ottenuto dalla fusione di più modelli di alto livello.",
"hunyuan-2.0-instruct-20251111.description": "Caratteristiche del rilascio: la base del modello è stata aggiornata da TurboS a **Hunyuan 2.0**, con miglioramenti complessivi delle capacità. Migliora significativamente il seguire istruzioni, la comprensione di testi multi-turno e lunghi, la creazione letteraria, l'accuratezza delle conoscenze, la codifica e le capacità di ragionamento.",
"hunyuan-2.0-thinking-20251109.description": "Caratteristiche del rilascio: la base del modello è stata aggiornata da TurboS a **Hunyuan 2.0**, con miglioramenti complessivi delle capacità. Migliora significativamente la capacità del modello di seguire istruzioni complesse, comprendere testi multi-turno e lunghi, gestire codice, operare come agente e svolgere compiti di ragionamento.",
"hunyuan-a13b.description": "Il primo modello di ragionamento ibrido di Hunyuan, aggiornato da hunyuan-standard-256K (80B totali, 13B attivi). Di default utilizza un pensiero lento e supporta il passaggio veloce/lento tramite parametri o prefisso /no_think. Le capacità complessive sono migliorate rispetto alla generazione precedente, in particolare in matematica, scienza, comprensione di testi lunghi e compiti agentici.",
"hunyuan-code.description": "Ultimo modello di generazione di codice addestrato con 200B di codice di alta qualità e sei mesi di SFT; contesto esteso a 8K. È ai vertici nei benchmark automatizzati per cinque linguaggi e nelle valutazioni umane su dieci criteri.",
"hunyuan-functioncall.description": "Ultimo modello MoE FunctionCall addestrato con dati di chiamata funzione di alta qualità, con una finestra di contesto di 32K e risultati di benchmark leader in più dimensioni.",
"hunyuan-large-longcontext.description": "Eccelle nei compiti su documenti lunghi come sintesi e QA, gestendo anche la generazione generale. Forte nell'analisi e generazione di testi lunghi e complessi.",
"hunyuan-large-vision.description": "Un modello linguistico-visivo addestrato da Hunyuan Large per la comprensione immagine-testo. Supporta input multi-immagine + testo a qualsiasi risoluzione e migliora la comprensione visiva multilingue.",
"hunyuan-large.description": "Hunyuan-large ha ~389B parametri totali e ~52B attivati, il più grande e potente modello MoE open-source in architettura Transformer.",
"hunyuan-lite-vision.description": "Ultimo modello multimodale da 7B con finestra di contesto da 32K, supporta chat multimodale cinese/inglese, riconoscimento oggetti, comprensione di tabelle e matematica multimodale, superando i pari da 7B in molti benchmark.",
"hunyuan-code.description": "L'ultimo modello di codice di Hunyuan addestrato su 200 miliardi di dati di codice di alta qualità più sei mesi di dati SFT, con un contesto di 8K. Si posiziona ai vertici nei benchmark di codice automatizzati e nelle valutazioni umane esperte in cinque lingue.",
"hunyuan-functioncall.description": "L'ultimo modello MoE FunctionCall di Hunyuan addestrato su dati di chiamata di strumenti di alta qualità, con una finestra di contesto di 32K e benchmark leader in tutte le dimensioni.",
"hunyuan-lite.description": "Aggiornato a un'architettura MoE con finestra di contesto da 256K, guida molti modelli open-source nei benchmark NLP, codice, matematica e industriali.",
"hunyuan-pro.description": "Modello MOE-32K a trilioni di parametri con contesto lungo, leader nei benchmark, forte in istruzioni complesse e ragionamento, matematica avanzata, chiamate funzione, e ottimizzato per traduzione multilingue, finanza, diritto e medicina.",
"hunyuan-role.description": "Ultimo modello per roleplay, ufficialmente ottimizzato su dataset di roleplay, con prestazioni di base più forti per scenari di interpretazione di ruoli.",
"hunyuan-standard-256K.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Raggiunge il 99,9% nel test 'ago nel pagliaio' su contesto lungo. MOE-256K espande ulteriormente la lunghezza e qualità del contesto.",
"hunyuan-standard-vision.description": "Ultimo modello multimodale con risposte multilingue e capacità bilanciate in cinese/inglese.",
"hunyuan-standard.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Raggiunge il 99,9% nel test 'ago nel pagliaio' su contesto lungo. MOE-32K offre grande valore nella gestione di input lunghi.",
"hunyuan-t1-20250321.description": "Costruisce capacità bilanciate tra discipline artistiche e STEM con forte cattura di informazioni da testi lunghi. Supporta risposte ragionate per problemi di matematica, logica, scienza e codice a vari livelli di difficoltà.",
"hunyuan-t1-20250403.description": "Migliora la generazione di codice a livello di progetto e la qualità della scrittura, rafforza la comprensione di argomenti multi-turno e il rispetto delle istruzioni ToB, migliora la comprensione a livello di parola e riduce i problemi di output misto tra cinese semplificato/tradizionale e cinese/inglese.",
"hunyuan-t1-20250529.description": "Migliora la scrittura creativa e la composizione, rafforza la programmazione frontend, la matematica e il ragionamento logico, e migliora il rispetto delle istruzioni.",
"hunyuan-t1-20250711.description": "Migliora notevolmente la matematica complessa, la logica e la programmazione, aumenta la stabilità dell'output e potenzia la capacità su testi lunghi.",
"hunyuan-role.description": "L'ultimo modello di roleplay di Hunyuan, ufficialmente ottimizzato con dati di roleplay, offre prestazioni di base più forti negli scenari di roleplay.",
"hunyuan-standard-256K.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Nei testi lunghi \"ago nel pagliaio\" raggiunge il 99,9%. MOE-256K spinge ulteriormente in lunghezza e qualità, espandendo notevolmente la lunghezza dell'input.",
"hunyuan-standard.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Nei testi lunghi \"ago nel pagliaio\" raggiunge il 99,9%. MOE-32K offre un miglior rapporto qualità-prezzo bilanciando qualità e prezzo per input di testi lunghi.",
"hunyuan-t1-latest.description": "Migliora significativamente il modello a pensiero lento su matematica complessa, ragionamento articolato, programmazione difficile, rispetto delle istruzioni e qualità della scrittura creativa.",
"hunyuan-t1-vision-20250619.description": "Ultimo modello multimodale t1-vision con ragionamento profondo e catena di pensiero nativa, notevolmente migliorato rispetto alla versione predefinita precedente.",
"hunyuan-t1-vision-20250916.description": "Ultimo modello t1-vision con importanti miglioramenti in VQA, grounding visivo, OCR, grafici, risoluzione di problemi fotografati e creazione basata su immagini, oltre a una maggiore competenza in inglese e lingue a bassa risorsa.",
"hunyuan-turbo-20241223.description": "Questa versione potenzia la scalabilità delle istruzioni per una migliore generalizzazione, migliora significativamente il ragionamento in matematica/codice/logica, rafforza la comprensione a livello di parola e migliora la qualità della scrittura.",
"hunyuan-turbo-latest.description": "Miglioramenti generali nell'esperienza su comprensione NLP, scrittura, chat, QA, traduzione e domini; risposte più umane, chiarimenti migliori su intenti ambigui, parsing delle parole migliorato, maggiore qualità creativa e interattività, e conversazioni multi-turno più forti.",
"hunyuan-turbo-vision.description": "Modello di punta linguistico-visivo di nuova generazione con nuova architettura MoE, con ampi miglioramenti in riconoscimento, creazione di contenuti, QA su conoscenze e ragionamento analitico.",
"hunyuan-turbo.description": "Anteprima del prossimo LLM di Hunyuan con nuova architettura MoE, che offre ragionamento più veloce e risultati migliori rispetto a hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Unifica lo stile di risoluzione dei problemi matematici e rafforza le domande e risposte matematiche multi-turno. Lo stile di scrittura è stato raffinato per ridurre il tono artificiale e migliorare la qualità.",
"hunyuan-turbos-20250416.description": "Base di pre-addestramento aggiornata per migliorare la comprensione e lesecuzione delle istruzioni; lallineamento migliora matematica, codice, logica e scienza; migliora la qualità della scrittura, la comprensione, laccuratezza della traduzione e le domande e risposte basate sulla conoscenza; potenzia le capacità degli agenti, in particolare nella comprensione multi-turno.",
"hunyuan-turbos-20250604.description": "Base di pre-addestramento aggiornata con miglioramenti nella scrittura e comprensione del testo, significativi progressi nel codice e nelle materie STEM, e migliore esecuzione di istruzioni complesse.",
"hunyuan-turbos-20250926.description": "Qualità dei dati di pre-addestramento e strategia di post-addestramento migliorate, con potenziamenti per agenti, lingue inglese e a bassa risorsa, esecuzione di istruzioni, codice e capacità STEM.",
"hunyuan-turbos-latest.description": "Il più recente modello di punta Hunyuan TurboS con ragionamento potenziato e unesperienza complessiva migliorata.",
"hunyuan-turbos-longtext-128k-20250325.description": "Eccelle nei compiti su documenti lunghi come riassunti e domande e risposte, gestendo anche generazione generale. Forte nellanalisi e generazione di testi lunghi per contenuti complessi e dettagliati.",
"hunyuan-turbos-role-plus.description": "Ultimo modello per roleplay, ufficialmente ottimizzato su dataset specifici, con prestazioni di base più solide per scenari di interpretazione di ruoli.",
"hunyuan-turbos-vision-20250619.description": "Ultimo modello di punta visione-linguaggio TurboS con grandi miglioramenti nei compiti immagine-testo come riconoscimento entità, domande e risposte basate sulla conoscenza, copywriting e risoluzione di problemi da foto.",
"hunyuan-turbos-vision.description": "Modello di punta visione-linguaggio di nuova generazione basato sullultimo TurboS, focalizzato su compiti di comprensione immagine-testo come riconoscimento entità, domande e risposte basate sulla conoscenza, copywriting e risoluzione di problemi da foto.",
"hunyuan-vision-1.5-instruct.description": "Modello di generazione testo da immagine basato su TurboS, con miglioramenti evidenti rispetto alla versione precedente in riconoscimento di base e ragionamento visivo.",
"hunyuan-vision.description": "Ultimo modello multimodale che supporta input immagine + testo per generare testo.",
"hunyuan-vision-1.5-instruct.description": "Un modello immagine-testo a pensiero rapido basato sulla base testuale TurboS, con miglioramenti significativi rispetto alla versione precedente nel riconoscimento fondamentale delle immagini e nel ragionamento analitico delle immagini.",
"hunyuan-vision.description": "L'ultimo modello multimodale di Hunyuan supporta input immagine + testo per generare testo.",
"image-01-live.description": "Modello di generazione immagini con dettagli raffinati, supporta testo-immagine e stili controllabili predefiniti.",
"image-01.description": "Nuovo modello di generazione immagini con dettagli raffinati, supporta testo-immagine e immagine-immagine.",
"imagen-4.0-fast-generate-001.description": "Versione Fast della serie di modelli di generazione immagini da testo di quarta generazione Imagen",
"imagen-4.0-generate-001.description": "Serie di modelli di generazione immagini da testo di quarta generazione Imagen",
"imagen-4.0-generate-preview-06-06.description": "Famiglia di modelli di generazione immagini da testo di quarta generazione Imagen.",
"imagen-4.0-ultra-generate-001.description": "Versione Ultra della serie di modelli di generazione immagini da testo di quarta generazione Imagen",
"imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra della quarta generazione di modelli di generazione immagini da testo Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small è ideale per la generazione di codice, il debug e il refactoring con una latenza minima.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 è il terzo modello dell'architettura Ling 2.0 del team Bailing di Ant Group. È un modello MoE con 100 miliardi di parametri totali, ma solo 6,1 miliardi attivi per token (4,8 miliardi esclusi gli embedding). Nonostante la configurazione leggera, eguaglia o supera modelli densi da 40 miliardi e MoE ancora più grandi in diversi benchmark, esplorando l'efficienza attraverso architettura e strategia di addestramento.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 è un piccolo LLM MoE ad alte prestazioni con 16 miliardi di parametri totali e solo 1,4 miliardi attivi per token (789 milioni esclusi gli embedding), offrendo una generazione molto rapida. Grazie a un design MoE efficiente e a un ampio dataset di addestramento di alta qualità, raggiunge prestazioni di livello superiore comparabili a modelli densi sotto i 10 miliardi e a MoE più grandi.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T è il modello MoE da un trilione di parametri di inclusionAI per il ragionamento, adatto a compiti di ricerca e ragionamento su larga scala.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 è una variante del modello Ring di inclusionAI per scenari ad alto throughput, con enfasi su velocità ed efficienza dei costi.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 è il modello MoE leggero ad alto throughput di inclusionAI, progettato per la concorrenza elevata.",
"intern-latest.description": "Per impostazione predefinita, punta al nostro ultimo modello della serie Intern rilasciato, attualmente impostato su intern-s1-pro.",
"intern-s1-mini.description": "Un modello multimodale leggero con forti capacità di ragionamento scientifico.",
"intern-s1-pro.description": "Abbiamo lanciato il nostro modello di ragionamento multimodale open-source più avanzato, attualmente il modello di linguaggio multimodale open-source con le migliori prestazioni complessive.",
"intern-s1.description": "Il modello di ragionamento multimodale open-source non solo dimostra forti capacità generali, ma raggiunge prestazioni all'avanguardia in una vasta gamma di compiti scientifici.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat è un modello di chat open-source basato sull'architettura InternLM2. Il modello da 7 miliardi è focalizzato sulla generazione di dialoghi con supporto per cinese e inglese, utilizzando tecniche di addestramento moderne per conversazioni fluide e intelligenti. È adatto a molti scenari di chat come assistenza clienti e assistenti personali.",
"internlm2.5-latest.description": "Modelli legacy ancora mantenuti con prestazioni eccellenti e stabili dopo numerose iterazioni. Disponibili nelle versioni da 7B e 20B, supportano contesti da 1M e una maggiore capacità di seguire istruzioni e utilizzare strumenti. Impostato di default sulla serie InternLM2.5 più recente (attualmente internlm2.5-20b-chat).",
"internlm3-latest.description": "La nostra serie di modelli più recente con prestazioni di ragionamento eccellenti, leader tra i modelli open-source della sua categoria. Impostato di default sulla serie InternLM3 più recente (attualmente internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO è un modello multimodale preaddestrato per il ragionamento complesso immagine-testo.",
"internvl2.5-latest.description": "InternVL2.5 è ancora mantenuto con prestazioni forti e stabili. Impostato di default sulla serie InternVL2.5 più recente (attualmente internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B è un modello multimodale di medie dimensioni che bilancia prestazioni e costi.",
"internvl3-1b.description": "InternVL3 1B è un modello multimodale leggero per distribuzioni con risorse limitate.",
"internvl3-38b.description": "InternVL3 38B è un grande modello multimodale open-source per una comprensione immagine-testo ad alta precisione.",
"internvl3-latest.description": "Il nostro modello multimodale più recente con una comprensione immagine-testo più avanzata e capacità di analisi di immagini in sequenza lunga, comparabile ai migliori modelli chiusi. Impostato di default sulla serie InternVL più recente (attualmente internvl3-78b).",
"internvl3.5-241b-a28b.description": "Il nostro nuovo modello multimodale presenta una comprensione migliorata di immagini e testi e capacità di comprensione di immagini a lunga sequenza, raggiungendo prestazioni paragonabili ai principali modelli closed-source.",
"internvl3.5-latest.description": "Per impostazione predefinita, punta al modello più recente della serie InternVL3.5, attualmente impostato su internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG è un modello di generazione aumentata dal recupero di immagini per la ricerca visiva, il recupero immagine-testo e la generazione di contenuti.",
"jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.",
"jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 è un modello linguistico di grandi dimensioni efficiente, costruito specificamente per la programmazione e i flussi di lavoro degli agenti.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 è un modello linguistico di grandi dimensioni all'avanguardia e leggero, ottimizzato per la programmazione, i flussi di lavoro proxy e lo sviluppo di applicazioni moderne, offrendo output più puliti e concisi e tempi di risposta percettiva più rapidi.",
"minimax/minimax-m2.description": "MiniMax-M2 è un modello ad alto valore che eccelle nella codifica e nei compiti per agenti in molti scenari ingegneristici.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 è un modello MoE compatto, veloce ed economico progettato per prestazioni di codifica e agenti di alto livello.",
"minimaxai/minimax-m2.description": "MiniMax-M2 è un modello MoE compatto, veloce ed economico (230B totali, 10B attivi) progettato per prestazioni di alto livello nella codifica e nei compiti per agenti, mantenendo una forte intelligenza generale. Eccelle in modifiche multi-file, cicli di esecuzione-correzione del codice, validazione dei test e catene di strumenti complesse.",
"ministral-3b-latest.description": "Ministral 3B è il modello edge di punta di Mistral.",
"ministral-8b-latest.description": "Ministral 8B è un modello edge altamente conveniente di Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Il modello kimi-k2-0905-preview supporta una finestra di contesto di 256k, con programmazione agentica più avanzata, codice frontend più rifinito e pratico, e una migliore comprensione del contesto.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo è una versione ad alta velocità di Kimi K2 Thinking, che riduce significativamente la latenza mantenendo un ragionamento profondo.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking è il modello di ragionamento di Moonshot ottimizzato per compiti di ragionamento profondo, con capacità agentiche generali.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 è il modello Kimi più intelligente fino ad oggi, con un'architettura multimodale nativa.",
"moonshotai/kimi-k2.description": "Kimi K2 è un grande modello MoE di Moonshot AI con 1T di parametri totali e 32B attivi per passaggio, ottimizzato per capacità agentiche tra cui uso avanzato di strumenti, ragionamento e sintesi di codice.",
"morph/morph-v3-fast.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 4500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.",
"morph/morph-v3-large.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 2500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.",
"musesteamer-air-image.description": "musesteamer-air-image è un modello di generazione di immagini sviluppato dal team di ricerca di Baidu per offrire un eccezionale rapporto qualità-prezzo. Può generare rapidamente immagini chiare e coerenti con le azioni basate sui prompt degli utenti, trasformando senza sforzo le descrizioni degli utenti in immagini.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2 con i più recenti dataset sviluppati internamente.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B è un LLM personalizzato da NVIDIA per migliorare l'utilità. Ottiene ottimi risultati su Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di auto-allineamento al 1° ottobre 2024. È addestrato da Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward e prompt HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modello linguistico distintivo che offre precisione ed efficienza eccezionali.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "In base alla lunghezza del contesto, all'argomento e alla complessità, la tua richiesta viene instradata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderato) o GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.",
"oswe-vscode-secondary.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 è un modello che bilancia alta efficienza computazionale con eccellenti prestazioni di ragionamento e agenti.",
"perplexity/sonar-pro.description": "Il prodotto di punta di Perplexity con ancoraggio alla ricerca, supporta query avanzate e follow-up.",
"perplexity/sonar-reasoning-pro.description": "Un modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) con ricerca migliorata, incluse più query per richiesta.",
"perplexity/sonar-reasoning.description": "Un modello focalizzato sul ragionamento che produce catene di pensiero (CoT) con spiegazioni dettagliate basate sulla ricerca.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Modello di programmazione Qwen.",
"qwen-coder-turbo.description": "Modello di programmazione Qwen.",
"qwen-flash.description": "Modello Qwen più veloce ed economico, ideale per compiti semplici.",
"qwen-image-edit-max.description": "Il modello di modifica delle immagini Qwen supporta input e output multi-immagine, consentendo modifiche precise del testo nelle immagini, aggiunta, rimozione o spostamento di oggetti, modifica delle azioni dei soggetti, trasferimento di stile delle immagini e dettagli visivi migliorati.",
"qwen-image-edit-plus.description": "Il modello di modifica delle immagini Qwen supporta input e output multi-immagine, consentendo modifiche precise del testo nelle immagini, aggiunta, rimozione o spostamento di oggetti, modifica delle azioni dei soggetti, trasferimento di stile delle immagini e dettagli visivi migliorati.",
"qwen-image-edit.description": "Qwen Image Edit è un modello immagine-a-immagine che modifica immagini in base a input visivi e prompt testuali, consentendo regolazioni precise e trasformazioni creative.",
"qwen-image-max.description": "Il modello di generazione di immagini Qwen (serie Max) offre un realismo e una naturalezza visiva migliorati rispetto alla serie Plus, riducendo efficacemente gli artefatti generati dall'IA e dimostrando prestazioni eccezionali nell'aspetto umano, nei dettagli delle texture e nel rendering del testo.",
"qwen-image-plus.description": "Supporta una vasta gamma di stili artistici ed è particolarmente abile nel rendere testi complessi all'interno delle immagini, consentendo un design integrato di layout immagine-testo.",
"qwen-image.description": "Qwen-Image è un modello generale di generazione di immagini che supporta più stili artistici e una forte resa di testi complessi, in particolare in cinese e inglese. Supporta layout su più righe, testo a livello di paragrafo e dettagli fini per layout immagine-testo complessi.",
"qwen-long.description": "Modello Qwen ultra-large con contesto esteso e chat su scenari multi-documento e lunghi.",
"qwen-math-plus-latest.description": "Qwen Math è un modello linguistico specializzato nella risoluzione di problemi matematici.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Modello di codice open-source Qwen. Lultimo qwen3-coder-30b-a3b-instruct si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con lambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct è un modello di punta per la programmazione multilingue e la comprensione di codice complesso.",
"qwen3-coder-flash.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con lambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
"qwen3-coder-next.description": "Il coder Qwen di nuova generazione ottimizzato per la generazione di codice complesso multi-file, il debugging e i flussi di lavoro ad alta produttività per agenti. Progettato per una forte integrazione degli strumenti e prestazioni di ragionamento migliorate.",
"qwen3-coder-plus.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con lambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.",
"qwen3-coder:480b.description": "Modello ad alte prestazioni di Alibaba per attività di agenti e programmazione, con supporto a contesti lunghi.",
"qwen3-max-2026-01-23.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, capacità multilingue e utilizzo di strumenti, con meno allucinazioni. Lultima versione migliora la programmazione agentica e luso di strumenti rispetto a qwen3-max-preview. Raggiunge lo stato dellarte in vari ambiti e si rivolge a esigenze agentiche più complesse.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking è un modello multimodale con catena di pensiero per ragionamento visivo dettagliato.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: versione leggera e ad alta velocità per richieste sensibili alla latenza o ad alto volume.",
"qwen3-vl-plus.description": "Qwen VL è un modello di generazione testuale con comprensione visiva. Può eseguire OCR, riassumere e ragionare, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi da immagini.",
"qwen3.5-397b-a17b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono paragonabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono paragonabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, mostra miglioramenti significativi rispetto alla serie Qwen3 VL.",
"qwen3.description": "Qwen3 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi duso.",
"qwq-32b-preview.description": "QwQ è un modello sperimentale di ricerca della famiglia Qwen, focalizzato sul miglioramento del ragionamento.",
"qwq-32b.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti complessi. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.",
"r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, da immagine a video (primo fotogramma, primo+ultimo fotogramma) e la generazione audio sincronizzata con i contenuti visivi.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta una generazione aumentata dal recupero web per informazioni in tempo reale, un'interpretazione migliorata di prompt complessi e una maggiore coerenza di riferimento per la creazione visiva professionale.",
"solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.",
"solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.",
"solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sullesecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta linglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Prodotto di ricerca avanzata con ancoraggio alla ricerca per query complesse e follow-up.",
"sonar-reasoning.description": "Prodotto di ricerca avanzata con ancoraggio alla ricerca per query complesse e follow-up.",
"sonar.description": "Prodotto leggero con ancoraggio alla ricerca, più veloce ed economico rispetto a Sonar Pro.",
"spark-x.description": "Aggiornamenti X1.5: (1) aggiunge modalità di pensiero dinamico controllata dal campo `thinking`; (2) lunghezza del contesto aumentata a 64K input e 64K output; (3) supporta FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 è un modello che bilancia alta efficienza computazionale con eccellenti prestazioni di ragionamento e agenti.",
"spark-x.description": "Panoramica delle capacità di X2: 1. Introduce l'adattamento dinamico della modalità di ragionamento, controllato tramite il campo `thinking`. 2. Lunghezza del contesto espansa: 64K token di input e 128K token di output. 3. Supporta la funzionalità Function Call.",
"stable-diffusion-3-medium.description": "L'ultimo modello text-to-image di Stability AI. Questa versione migliora significativamente la qualità delle immagini, la comprensione del testo e la diversità stilistica, interpretando con maggiore precisione prompt complessi in linguaggio naturale e generando immagini più accurate e varie.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applica la distillazione per diffusione avversaria (ADD) a stable-diffusion-3.5-large per una maggiore velocità.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large è un modello text-to-image MMDiT da 800M parametri con qualità eccellente e allineamento ai prompt, supporta immagini da 1 megapixel ed è efficiente su hardware consumer.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Supporta interazioni a contesto esteso per dialoghi complessi.",
"step-2-mini.description": "Basato sulla nuova architettura MFA attention proprietaria, offre risultati simili a Step-1 a costi molto inferiori, con throughput più elevato e latenza ridotta. Gestisce compiti generali con forti capacità di programmazione.",
"step-2x-large.description": "Modello di nuova generazione StepFun focalizzato sulla generazione di immagini, produce immagini di alta qualità da prompt testuali. Offre texture più realistiche e una resa testuale cinese/inglese più forte.",
"step-3.5-flash.description": "Il modello di ragionamento linguistico di punta di Stepfun. Questo modello offre capacità di ragionamento di alto livello insieme a un'esecuzione rapida e affidabile. Può scomporre e pianificare compiti complessi, invocare rapidamente e in modo affidabile strumenti per eseguirli ed eccellere nel ragionamento logico, matematica, ingegneria del software, ricerca approfondita e altri compiti sofisticati. La lunghezza del contesto è di 256K.",
"step-3.description": "Questo modello ha una forte percezione visiva e capacità di ragionamento complesso, gestendo con precisione la comprensione della conoscenza cross-domain, lanalisi matematica-visiva e una vasta gamma di compiti visivi quotidiani.",
"step-r1-v-mini.description": "Modello di ragionamento con forte comprensione delle immagini, in grado di elaborare immagini e testo e generare testo dopo un ragionamento profondo. Eccelle nel ragionamento visivo e offre prestazioni di alto livello in matematica, programmazione e ragionamento testuale, con una finestra di contesto da 100K.",
"stepfun-ai/step3.description": "Step3 è un modello all'avanguardia per il ragionamento multimodale di StepFun, basato su un'architettura MoE con 321 miliardi di parametri totali e 38 miliardi attivi. Il suo design end-to-end riduce i costi di decodifica offrendo al contempo un ragionamento visivo-linguistico di alto livello. Grazie al design MFA e AFD, mantiene l'efficienza sia su acceleratori di fascia alta che su quelli economici. Il pretraining utilizza oltre 20T di token testuali e 4T di token immagine-testo in molte lingue. Raggiunge prestazioni di punta tra i modelli open-source in matematica, codice e benchmark multimodali.",
"taichu_llm.description": "Addestrato su una grande quantità di dati di alta qualità, con una comprensione del testo più forte, creazione di contenuti e QA conversazionale.",
"taichu_o1.description": "taichu_o1 è un modello di ragionamento di nuova generazione che utilizza interazione multimodale e apprendimento per rinforzo per ottenere un pensiero simile a quello umano, supporta la simulazione di decisioni complesse ed espone i percorsi di ragionamento mantenendo un'elevata accuratezza, ideale per analisi strategiche e pensiero profondo.",
"taichu_vl.description": "Combina comprensione delle immagini, trasferimento di conoscenza e attribuzione logica, eccellendo nel QA immagine-testo.",
"taichu4_vl_2b_nothinking.description": "La versione No-Thinking del modello Taichu4.0-VL 2B presenta un utilizzo ridotto della memoria, un design leggero, una velocità di risposta rapida e forti capacità di comprensione multimodale.",
"taichu4_vl_32b.description": "La versione Thinking del modello Taichu4.0-VL 32B è adatta per compiti complessi di comprensione e ragionamento multimodale, dimostrando prestazioni eccezionali nel ragionamento matematico multimodale, nelle capacità di agente multimodale e nella comprensione generale di immagini e contenuti visivi.",
"taichu4_vl_32b_nothinking.description": "La versione No-Thinking del modello Taichu4.0-VL 32B è progettata per scenari complessi di comprensione immagine-testo e QA di conoscenze visive, eccellendo nella didascalia delle immagini, nel visual question answering, nella comprensione dei video e nei compiti di localizzazione visiva.",
"taichu4_vl_3b.description": "La versione Thinking del modello Taichu4.0-VL 3B esegue in modo efficiente compiti di comprensione e ragionamento multimodale, con aggiornamenti completi nella comprensione visiva, localizzazione visiva, riconoscimento OCR e capacità correlate.",
"taichu_llm.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.",
"taichu_llm_14b.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.",
"taichu_llm_2b.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.",
"taichu_o1.description": "taichu_o1 è un modello di ragionamento di nuova generazione che raggiunge una catena di pensiero simile a quella umana attraverso l'interazione multimodale e l'apprendimento per rinforzo. Supporta simulazioni di decisioni complesse e, mantenendo un output ad alta precisione, rivela percorsi di ragionamento interpretabili. È particolarmente adatto per analisi strategiche, pensiero profondo e scenari simili.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utilizza 80 miliardi di parametri totali con 13 miliardi attivi per eguagliare modelli più grandi. Supporta ragionamento ibrido veloce/lento, comprensione stabile di testi lunghi e capacità avanzate di agenti su BFCL-v3 e τ-Bench. I formati GQA e multi-quant consentono un'inferenza efficiente.",
"tencent/Hunyuan-MT-7B.description": "Il modello di traduzione Hunyuan include Hunyuan-MT-7B e l'ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B è un modello di traduzione leggero da 7B che supporta 33 lingue più 5 lingue minoritarie cinesi. Al WMT25 ha ottenuto 30 primi posti su 31 coppie linguistiche. Tencent Hunyuan utilizza un'intera pipeline di addestramento dal pretraining al SFT fino al RL per la traduzione e l'ensemble RL, raggiungendo prestazioni di punta nella sua categoria con implementazione efficiente e semplice.",
"text-embedding-3-large.description": "Il modello di embedding più potente per compiti in inglese e in altre lingue.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md è adatto a compiti quotidiani e alla generazione di interfacce utente.",
"vercel/v0-1.0-md.description": "Accedi ai modelli dietro v0 per generare, correggere e ottimizzare applicazioni web moderne con ragionamento specifico per framework e conoscenze aggiornate.",
"vercel/v0-1.5-md.description": "Accedi ai modelli dietro v0 per generare, correggere e ottimizzare applicazioni web moderne con ragionamento specifico per framework e conoscenze aggiornate.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code è ottimizzato per le esigenze di programmazione aziendale, basandosi sulle eccellenti capacità di Agent e VLM di Seed 2.0, con un particolare potenziamento delle capacità di codifica. Non solo eccelle nelle capacità front-end, ma è anche ottimizzato per le esigenze di codifica multilingue comuni nelle aziende, rendendolo adatto all'integrazione con vari strumenti di programmazione AI.",
"volcengine/doubao-seed-2-0-lite.description": "Bilancia qualità di generazione e velocità di risposta, adatto come modello di produzione generico.",
"volcengine/doubao-seed-2-0-mini.description": "Punta alla versione più recente di doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Punta alla versione più recente di doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code è il modello LLM di Volcano Engine di ByteDance ottimizzato per la programmazione agentica, con prestazioni elevate nei benchmark di programmazione e agenti e supporto per contesti fino a 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed è il modello più recente con miglioramenti in creatività, stabilità e realismo, offrendo generazione rapida e alto valore.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro è il modello più recente con miglioramenti in creatività, stabilità e realismo, producendo dettagli più ricchi.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash è l'ultimo modello con miglioramenti in creatività, stabilità e realismo, offrendo una generazione rapida e di alto valore.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus è l'ultimo modello con miglioramenti in creatività, stabilità e realismo, producendo dettagli più ricchi.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview supporta l'editing di immagini singole e la fusione di più immagini.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I supporta la selezione flessibile delle dimensioni delle immagini entro i limiti dell'area totale dei pixel e del rapporto d'aspetto.",
"wan2.6-image.description": "Wanxiang 2.6 Image supporta l'editing delle immagini e l'output di layout misti immagine-testo.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I supporta la selezione flessibile delle dimensioni delle immagini entro i limiti dell'area totale dei pixel e del rapporto d'aspetto (come Wanxiang 2.5).",
"wanx-v1.description": "Modello base da testo a immagine. Corrisponde a Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Eccelle nei ritratti con texture, con velocità moderata e costi ridotti. Corrisponde a Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Versione completamente aggiornata con immagini più dettagliate e velocità leggermente inferiore. Corrisponde a Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast è il modello ad alta capacità e basso costo di xAI (supporta una finestra di contesto da 2M), ideale per casi d'uso con alta concorrenza e contesti lunghi.",
"x-ai/grok-4.description": "Grok 4 è il modello di punta di xAI con forti capacità di ragionamento e multimodalità.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 è il modello veloce di xAI per la programmazione, con output leggibile e adatto all'ingegneria.",
"x1.description": "Aggiornamenti di X1.5: (1) aggiunge una modalità di pensiero dinamico controllata dal campo `thinking`; (2) lunghezza del contesto maggiore con 64K di input e 64K di output; (3) supporta FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision eccelle nei compiti visivi, offrendo prestazioni all'avanguardia nel ragionamento matematico visivo (MathVista) e nella QA su documenti (DocVQA). Gestisce documenti, grafici, tabelle, screenshot e foto.",
"xai/grok-2.description": "Grok 2 è un modello all'avanguardia con prestazioni eccellenti in ragionamento, chat, programmazione e classificato sopra Claude 3.5 Sonnet e GPT-4 Turbo su LMSYS.",
"xai/grok-3-fast.description": "Il modello di punta di xAI eccelle in casi d'uso aziendali come estrazione dati, programmazione e sintesi, con profonda conoscenza nei settori finanza, sanità, diritto e scienza. La variante veloce utilizza un'infrastruttura più rapida per risposte molto più veloci a un costo per token più elevato.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 è il modello di punta di Z.AI con ragionamento ibrido ottimizzato per compiti ingegneristici e contesti lunghi.",
"z-ai/glm-4.6.description": "GLM 4.6 è il modello di punta di Z.AI con contesto esteso e capacità di programmazione.",
"z-ai/glm-4.7.description": "GLM-4.7 è il più recente modello di punta di Zhipu, con capacità generali migliorate, risposte più naturali e un'esperienza di scrittura più coinvolgente.",
"z-ai/glm5.description": "Un modello di ragionamento e agentico avanzato di Z.ai con 744B parametri totali (40B attivi), progettato per l'ingegneria di sistemi complessi e compiti a lungo termine.",
"z-ai/glm4.7.description": "GLM-4.7 è l'ultimo modello di punta di Zhipu, migliorato per scenari di codifica agentica con capacità di codifica avanzate.",
"z-ai/glm5.description": "GLM-5 è il nuovo modello di base di punta di Zhipu AI per l'ingegneria degli agenti, raggiungendo prestazioni SOTA open-source in capacità di codifica e agenti. È paragonabile a Claude Opus 4.5 in termini di prestazioni.",
"z-image-turbo.description": "Z-Image è un modello leggero di generazione di immagini da testo che può produrre rapidamente immagini, supporta il rendering di testo in cinese e inglese e si adatta in modo flessibile a più risoluzioni e rapporti d'aspetto.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air è un modello base per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5.description": "GLM-4.5 è un modello base progettato per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.",
"zai-org/GLM-4.5V.description": "GLM-4.5V è il più recente VLM di Zhipu AI, basato sul modello testuale di punta GLM-4.5-Air (106B totali, 12B attivi) con architettura MoE per prestazioni elevate a costi ridotti. Segue il percorso GLM-4.1V-Thinking e aggiunge 3D-RoPE per migliorare il ragionamento spaziale 3D. Ottimizzato tramite pretraining, SFT e RL, gestisce immagini, video e documenti lunghi, classificandosi tra i migliori modelli open source su 41 benchmark multimodali pubblici. Una modalità Thinking consente di bilanciare velocità e profondità.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Aggiorna nodo",
"builtins.lobe-page-agent.apiName.wrapNodes": "Raggruppa nodi",
"builtins.lobe-page-agent.title": "Pagina",
"builtins.lobe-skill-store.apiName.importFromMarket": "Importa dal Mercato",
"builtins.lobe-skill-store.apiName.importSkill": "Importa Abilità",
"builtins.lobe-skill-store.apiName.searchSkill": "Cerca Abilità",
"builtins.lobe-skill-store.title": "Negozio di Abilità",
"builtins.lobe-skills.apiName.execScript": "Esegui Script",
"builtins.lobe-skills.apiName.exportFile": "Esporta File",
"builtins.lobe-skills.apiName.importFromMarket": "Importa dal Mercato",
"builtins.lobe-skills.apiName.importSkill": "Importa Abilità",
"builtins.lobe-skills.apiName.readReference": "Leggi Riferimento",
"builtins.lobe-skills.apiName.runSkill": "Attiva Abilità",
"builtins.lobe-skills.apiName.searchSkill": "Cerca Abilità",
"builtins.lobe-skills.title": "Abilità",
"builtins.lobe-tools.apiName.activateTools": "Attiva Strumenti",
"builtins.lobe-user-memory.apiName.addContextMemory": "Aggiungi memoria contestuale",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Aggiungi memoria esperienziale",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Aggiungi memoria identità",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Ricerca Web",
"confirm": "Conferma",
"debug.arguments": "Argomenti",
"debug.error": "Registro degli Errori",
"debug.function_call": "Chiamata funzione",
"debug.intervention": "Intervento Skill",
"debug.off": "Debug disattivato",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Impostazioni salvate",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Info meta",
"dev.title.create": "Aggiungi Skill personalizzata",
"dev.title.edit": "Modifica Skill personalizzata",
"dev.title.create": "Aggiungi Abilità MCP Personalizzata",
"dev.title.edit": "Modifica Abilità MCP Personalizzata",
"dev.title.editCommunity": "Modifica Abilità della Community",
"dev.title.skillDetails": "Dettagli Abilità",
"dev.title.skillSettings": "Impostazioni Abilità",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud è un servizio cloud GenAI economico basato su solidi modelli open-source.",
"spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.",
"stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.",
"straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.",
"taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.",
"togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Profilo Agente",
"agentInfoDescription.value.unset": "Non Impostato",
"agentInfoDescription.value.untitled": "Agente Senza Titolo",
"agentSkillDetail.addedAt": "Aggiunto",
"agentSkillDetail.publishedAt": "Pubblicato",
"agentSkillDetail.repository": "Repository GitHub",
"agentSkillDetail.skillContent": "Contenuto della Skill",
"agentSkillDetail.sourceUrl": "Fonte di Importazione della Skill",
"agentSkillDetail.updatedAt": "Aggiornato",
"agentSkillEdit.descriptionDesc": "Un breve riassunto di ciò che fa la skill, per aiutare l'agente a capire quando utilizzarla",
"agentSkillEdit.fileReadonly": "Questo file è di sola lettura. Solo la descrizione e le istruzioni della skill possono essere modificate.",
"agentSkillEdit.instructions": "Istruzioni",
"agentSkillEdit.instructionsDesc": "Le istruzioni principali in formato Markdown che definiscono il comportamento e il flusso di lavoro della skill",
"agentSkillEdit.instructionsPlaceholder": "Inserisci le istruzioni della skill in formato Markdown...",
"agentSkillEdit.nameDesc": "L'identificativo univoco per questa skill, non modificabile dopo la creazione",
"agentSkillEdit.saveSuccess": "Skill aggiornata con successo",
"agentSkillEdit.title": "Impostazioni della Skill",
"agentSkillItem.deleteConfirm.desc": "Sei sicuro di voler eliminare la skill dell'agente \"{{name}}\"? Questa azione non può essere annullata.",
"agentSkillItem.deleteConfirm.title": "Elimina Skill dell'Agente",
"agentSkillModal.content": "Contenuto della Skill",
"agentSkillModal.contentPlaceholder": "Inserisci il contenuto della skill in formato Markdown...",
"agentSkillModal.description": "Descrizione",
"agentSkillModal.descriptionPlaceholder": "Descrivi brevemente questa skill",
"agentSkillModal.github.desc": "Importa skill direttamente da un repository pubblico su GitHub.",
"agentSkillModal.github.title": "Importa da GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo",
"agentSkillModal.importError": "Importazione fallita: {{error}}",
"agentSkillModal.importSuccess": "Skill dell'Agente importata con successo",
"agentSkillModal.upload.desc": "Carica un file locale .zip o .skill per installare.",
"agentSkillModal.upload.dragText": "Trascina e rilascia o clicca per caricare",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md contiene il nome e la descrizione della skill in formato YAML",
"agentSkillModal.upload.requirementZip": "File .zip o .skill con SKILL.md nella directory principale",
"agentSkillModal.upload.requirements": "Requisiti del File",
"agentSkillModal.upload.title": "Carica Skill",
"agentSkillModal.upload.uploading": "Caricamento in corso...",
"agentSkillModal.url.desc": "Importa una skill fornendo un link diretto a un file SKILL.md.",
"agentSkillModal.url.title": "Importa da URL",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "Skill dell'Agente",
"agentTab.chat": "Preferenze Chat",
"agentTab.meta": "Informazioni Agente",
"agentTab.modal": "Impostazioni Modello",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Specifica il modello utilizzato per la traduzione",
"systemAgent.translation.title": "Agente Traduzione Messaggi",
"tab.about": "Informazioni",
"tab.addAgentSkill": "Aggiungi Skill dell'Agente",
"tab.addCustomMcp": "Aggiungi Skill MCP Personalizzata",
"tab.addCustomMcp.desc": "Configura manualmente un server MCP personalizzato",
"tab.addCustomSkill": "Aggiungi skill personalizzata",
"tab.agent": "Servizio Agente",
"tab.all": "Tutti",
@ -652,7 +691,13 @@
"tab.experiment": "Esperimenti",
"tab.hotkey": "Tasti Rapidi",
"tab.image": "Servizio Generazione Immagini",
"tab.importFromGithub": "Importa da GitHub",
"tab.importFromGithub.desc": "Importa da un repository pubblico su GitHub",
"tab.importFromUrl": "Importa da URL",
"tab.importFromUrl.desc": "Importa tramite un link diretto a SKILL.md",
"tab.llm": "Modello Linguistico",
"tab.manualFill": "Compila Manualmente",
"tab.manualFill.desc": "Configura manualmente una skill MCP personalizzata",
"tab.memory": "Memoria",
"tab.profile": "Il Mio Account",
"tab.provider": "Fornitore Servizi AI",
@ -669,6 +714,8 @@
"tab.sync": "Sincronizzazione Cloud",
"tab.systemTools": "Strumenti di Sistema",
"tab.tts": "Sintesi Vocale",
"tab.uploadZip": "Carica Zip",
"tab.uploadZip.desc": "Carica un file locale .zip o .skill",
"tab.usage": "Statistiche di Utilizzo",
"tools.add": "Aggiungi Competenza",
"tools.builtins.groupName": "Integrati",

View file

@ -256,11 +256,6 @@
"footer.star.title": "GitHub でスターを付ける",
"footer.title": "製品は気に入りましたか?",
"fullscreen": "全画面モード",
"geminiImageChineseWarning.content": "Nano Banana は中国語で画像生成を行うと失敗する可能性があります。より良い結果を得るには英語の使用をお勧めします",
"geminiImageChineseWarning.continueGenerate": "生成を続ける",
"geminiImageChineseWarning.continueSend": "送信を続ける",
"geminiImageChineseWarning.doNotShowAgain": "今後表示しない",
"geminiImageChineseWarning.title": "中国語入力のヒント",
"historyRange": "履歴範囲",
"home.suggestQuestions": "次の例をお試しください",
"import": "インポート",
@ -397,6 +392,7 @@
"tab.chat": "チャット",
"tab.community": "コミュニティ",
"tab.discover": "発見",
"tab.eval": "評価ラボ",
"tab.files": "ファイル",
"tab.home": "ホーム",
"tab.knowledgeBase": "ライブラリ",

316
locales/ja-JP/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "ベンチマークを削除",
"benchmark.actions.delete.confirm": "このベンチマークを削除してもよろしいですか?関連するデータセットと評価記録も削除されます。",
"benchmark.actions.edit": "ベンチマークを編集",
"benchmark.actions.export": "エクスポート",
"benchmark.card.bestScore": "最高",
"benchmark.card.caseCount": "{{count}} ケース",
"benchmark.card.datasetCount": "{{count}} データセット",
"benchmark.card.empty": "まだ評価がありません",
"benchmark.card.emptyHint": "ベンチマーク詳細ページから新しい評価を作成してください",
"benchmark.card.importDataset": "データセットをインポート",
"benchmark.card.noDataset": "まだデータセットがありません",
"benchmark.card.noDatasetHint": "データセットをインポートして評価を開始してください",
"benchmark.card.noRecentRuns": "表示する最近の評価がありません",
"benchmark.card.recentRuns": "最近の評価",
"benchmark.card.runCount": "{{count}} 評価",
"benchmark.card.startFirst": "最初の評価を開始",
"benchmark.card.viewAll": "すべて表示 ({{count}})",
"benchmark.create.confirm": "作成",
"benchmark.create.description.label": "説明",
"benchmark.create.description.placeholder": "ベンチマークの説明(任意)",
"benchmark.create.error": "ベンチマークの作成に失敗しました",
"benchmark.create.identifier.label": "識別子",
"benchmark.create.identifier.placeholder": "ベンチマーク識別子",
"benchmark.create.identifierRequired": "識別子を入力してください",
"benchmark.create.name.label": "名前",
"benchmark.create.name.placeholder": "ベンチマーク名を入力してください",
"benchmark.create.nameRequired": "ベンチマーク名を入力してください",
"benchmark.create.success": "ベンチマークが正常に作成されました",
"benchmark.create.tags.label": "タグ",
"benchmark.create.tags.placeholder": "タグを追加(カンマまたはスペースで区切る)",
"benchmark.create.title": "ベンチマークを作成",
"benchmark.detail.backToOverview": "概要に戻る",
"benchmark.detail.datasetCount": "このベンチマークには {{count}} データセットがあります",
"benchmark.detail.runCount": "このベンチマークには {{count}} 評価実行があります",
"benchmark.detail.stats.addFirstDataset": "最初のデータセットを追加するにはクリックしてください",
"benchmark.detail.stats.avgCost": "平均コスト",
"benchmark.detail.stats.avgDuration": "平均時間",
"benchmark.detail.stats.basedOnLastNRuns": "直近の {{count}} 実行に基づく",
"benchmark.detail.stats.bestPerformance": "{{agent}} による最高のパフォーマンス(合格率 {{passRate}}%",
"benchmark.detail.stats.bestScore": "最高スコア",
"benchmark.detail.stats.cases": "ケース",
"benchmark.detail.stats.dataScale": "データ規模",
"benchmark.detail.stats.datasets": "データセット",
"benchmark.detail.stats.needSetup": "セットアップが必要です",
"benchmark.detail.stats.noEvalRecord": "まだ評価記録がありません",
"benchmark.detail.stats.perRun": "/ 実行",
"benchmark.detail.stats.runs": "実行",
"benchmark.detail.stats.tags": "タグ",
"benchmark.detail.stats.topAgents": "トップエージェント",
"benchmark.detail.stats.totalCases": "合計ケース数",
"benchmark.detail.stats.waiting": "待機中...",
"benchmark.detail.tabs.data": "データ",
"benchmark.detail.tabs.datasets": "データセット",
"benchmark.detail.tabs.runs": "実行",
"benchmark.edit.confirm": "保存",
"benchmark.edit.error": "ベンチマークの更新に失敗しました",
"benchmark.edit.success": "ベンチマークが正常に更新されました",
"benchmark.edit.title": "ベンチマークを編集",
"benchmark.empty": "まだベンチマークがありません。作成して開始してください。",
"caseDetail.actual": "実際の出力",
"caseDetail.chatArea.title": "会話",
"caseDetail.completionReason": "ステータス",
"caseDetail.cost": "コスト",
"caseDetail.difficulty": "難易度",
"caseDetail.duration": "時間",
"caseDetail.expected": "期待される出力",
"caseDetail.failureReason": "失敗理由",
"caseDetail.input": "入力",
"caseDetail.judgeComment": "審査コメント",
"caseDetail.resources": "リソース",
"caseDetail.score": "スコア",
"caseDetail.section.runtime": "ランタイム",
"caseDetail.section.scoring": "スコアリング詳細",
"caseDetail.section.testCase": "テストケース",
"caseDetail.steps": "ステップ",
"caseDetail.threads.attempt": "試行 #{{number}}",
"caseDetail.tokens": "トークン使用量",
"common.cancel": "キャンセル",
"common.create": "作成",
"common.delete": "削除",
"common.edit": "編集",
"common.later": "後で",
"common.next": "次へ",
"common.update": "更新",
"dataset.actions.addDataset": "データセットを追加",
"dataset.actions.import": "データをインポート",
"dataset.actions.importDataset": "データセットをインポート",
"dataset.create.description.label": "説明",
"dataset.create.description.placeholder": "データセットの説明(任意)",
"dataset.create.error": "データセットの作成に失敗しました",
"dataset.create.identifier.label": "識別子",
"dataset.create.identifier.placeholder": "データセット識別子",
"dataset.create.identifierRequired": "識別子を入力してください",
"dataset.create.importNow": "今すぐデータをインポートしますか?",
"dataset.create.name.label": "データセット名",
"dataset.create.name.placeholder": "データセット名を入力してください",
"dataset.create.nameRequired": "データセット名を入力してください",
"dataset.create.preset.label": "データセットプリセット",
"dataset.create.success": "データセットが正常に作成されました",
"dataset.create.successTitle": "データセットが作成されました",
"dataset.create.title": "データセットを作成",
"dataset.delete.confirm": "このデータセットを削除してもよろしいですか?すべてのテストケースも削除されます。",
"dataset.delete.error": "データセットの削除に失敗しました",
"dataset.delete.success": "データセットが正常に削除されました",
"dataset.detail.addRun": "新しい実行",
"dataset.detail.backToBenchmark": "ベンチマークに戻る",
"dataset.detail.caseCount": "{{count}} テストケース",
"dataset.detail.relatedRuns": "関連する実行 ({{count}})",
"dataset.detail.testCases": "テストケース",
"dataset.detail.viewDetail": "詳細を表示",
"dataset.edit.error": "データセットの更新に失敗しました",
"dataset.edit.success": "データセットが正常に更新されました",
"dataset.edit.title": "データセットを編集",
"dataset.empty": "データセットがありません",
"dataset.empty.description": "データセットをインポートしてこのベンチマークを構築してください",
"dataset.empty.title": "まだデータセットがありません",
"dataset.evalMode.hint": "デフォルトの評価モード(テストケースレベルで上書き可能)",
"dataset.import.category": "カテゴリ",
"dataset.import.categoryDesc": "グループ化のための分類ラベル",
"dataset.import.choices": "選択肢",
"dataset.import.choicesDesc": "複数選択肢のオプション",
"dataset.import.confirm": "インポート",
"dataset.import.error": "データセットのインポートに失敗しました",
"dataset.import.expected": "期待される回答",
"dataset.import.expectedDelimiter": "回答区切り文字",
"dataset.import.expectedDelimiter.desc": "回答の区切り文字",
"dataset.import.expectedDelimiter.placeholder": "例: | または ,",
"dataset.import.expectedDesc": "比較する正解",
"dataset.import.fieldMapping": "フィールドマッピング",
"dataset.import.fieldMapping.desc": "「入力」列は必須です",
"dataset.import.hideSkipped": "スキップされた列を非表示",
"dataset.import.ignore": "スキップ",
"dataset.import.ignoreDesc": "この列をインポートしない",
"dataset.import.input": "入力",
"dataset.import.inputDesc": "モデルに送信される質問またはプロンプト",
"dataset.import.metadata": "メタデータ",
"dataset.import.metadataDesc": "追加情報(そのまま保存)",
"dataset.import.next": "次へ",
"dataset.import.parseError": "ファイルの解析に失敗しました",
"dataset.import.parsing": "ファイルを解析中...",
"dataset.import.prev": "前へ",
"dataset.import.preview": "データプレビュー",
"dataset.import.preview.desc": "マッピングが正しいことを確認してからインポートしてください。",
"dataset.import.preview.rows": "合計 {{count}} 行",
"dataset.import.sortOrder": "アイテム番号",
"dataset.import.sortOrderDesc": "参照用の質問/アイテムID",
"dataset.import.step.mapping": "フィールドをマッピング",
"dataset.import.step.preview": "プレビュー",
"dataset.import.step.upload": "ファイルをアップロード",
"dataset.import.success": "{{count}} テストケースが正常にインポートされました",
"dataset.import.title": "データセットをインポート",
"dataset.import.upload.hint": "CSV、XLSX、JSON、JSONL をサポート",
"dataset.import.upload.text": "クリックまたはファイルをドラッグしてアップロード",
"dataset.import.uploading": "アップロード中...",
"dataset.switchDataset": "データセットを切り替え",
"difficulty.easy": "簡単",
"difficulty.hard": "難しい",
"difficulty.medium": "中程度",
"evalMode.contains": "部分一致",
"evalMode.contains.desc": "出力に期待されるテキストが含まれている必要があります",
"evalMode.equals": "完全一致",
"evalMode.equals.desc": "出力が期待されるものと完全に一致する必要があります",
"evalMode.label": "評価モード",
"evalMode.llm-rubric": "LLM審査",
"evalMode.llm-rubric.desc": "LLMを使用して出力品質を評価",
"evalMode.placeholder": "評価モードを選択",
"evalMode.prompt.label": "審査プロンプト",
"evalMode.prompt.placeholder": "LLM審査用の評価基準またはプロンプトを入力",
"evalMode.rubric": "ルーブリックスコアリング",
"evalMode.rubric.desc": "重み付け基準を使用してベンチマークルーブリックで出力をスコアリング",
"overview.createBenchmark": "ベンチマークを作成",
"overview.importDataset": "データセットをインポート",
"overview.subtitle": "データセットを通じてAIエージェントをベンチマークおよび評価",
"overview.title": "評価ラボ",
"run.actions.abort": "中止",
"run.actions.abort.confirm": "この評価を中止してもよろしいですか?",
"run.actions.create": "新しい評価",
"run.actions.delete": "削除",
"run.actions.delete.confirm": "この評価を削除してもよろしいですか?",
"run.actions.edit": "編集",
"run.actions.retryCase": "再試行",
"run.actions.retryErrors": "エラーを再試行",
"run.actions.retryErrors.confirm": "これにより、すべてのエラーおよびタイムアウトケースが再実行されます。合格および失敗したケースには影響しません。",
"run.actions.run": "実行",
"run.actions.start": "開始",
"run.actions.start.confirm": "この評価を開始してもよろしいですか?",
"run.chart.duration": "時間 (秒)",
"run.chart.error": "エラー",
"run.chart.fail": "失敗",
"run.chart.latencyDistribution": "レイテンシ分布",
"run.chart.latencyTokenDistribution": "レイテンシ / トークン分布",
"run.chart.pass": "合格",
"run.chart.passFailError": "合格 / 失敗 / エラー",
"run.chart.tokens": "トークン",
"run.config.agentId": "エージェント",
"run.config.concurrency": "同時実行数",
"run.config.judgeModel": "審査モデル",
"run.config.k": "実行回数 (K)",
"run.config.k.hint": "各テストケースを {{k}} 回実行して pass@{{k}}/pass^{{k}} メトリクスを取得",
"run.config.maxSteps": "最大ステップ数",
"run.config.maxSteps.hint": "エージェントによる各LLM呼び出しまたはツール呼び出しが1ステップとカウントされます",
"run.config.model": "モデル",
"run.config.temperature": "温度",
"run.config.timeout": "タイムアウト",
"run.config.timeout.unit": "分",
"run.create.advanced": "詳細設定",
"run.create.agent": "エージェント",
"run.create.agent.placeholder": "エージェントを選択",
"run.create.agent.required": "エージェントを選択してください",
"run.create.caseCount": "{{count}} ケース",
"run.create.confirm": "作成して開始",
"run.create.createOnly": "作成のみ",
"run.create.dataset": "データセット",
"run.create.dataset.placeholder": "データセットを選択",
"run.create.dataset.required": "データセットを選択してください",
"run.create.name": "実行名",
"run.create.name.placeholder": "この実行の名前を入力",
"run.create.name.required": "実行名を入力してください",
"run.create.name.useTimestamp": "現在の時刻を名前として使用",
"run.create.openAgent": "新しいウィンドウでエージェントを開く",
"run.create.title": "新しい評価",
"run.create.titleWithDataset": "\"{{dataset}}\" の新しい評価",
"run.detail.agent": "エージェント",
"run.detail.agent.none": "指定なし",
"run.detail.agent.unnamed": "名前のないエージェント",
"run.detail.backToBenchmark": "ベンチマークに戻る",
"run.detail.caseResults": "評価詳細",
"run.detail.config": "評価設定",
"run.detail.configSnapshot": "設定スナップショット",
"run.detail.dataset": "データセット",
"run.detail.model": "モデル",
"run.detail.overview": "概要",
"run.detail.progress": "進行状況",
"run.detail.progressCases": "ケース",
"run.detail.report": "評価サマリー",
"run.edit.error": "評価の更新に失敗しました",
"run.edit.success": "評価が正常に更新されました",
"run.edit.title": "評価を編集",
"run.empty.description": "このデータセットで最初の評価実行を開始してください",
"run.empty.descriptionBenchmark": "このベンチマークで最初の評価実行を開始してください",
"run.empty.title": "まだ実行がありません",
"run.filter.active": "アクティブ",
"run.filter.empty": "現在のフィルターに一致する実行はありません。",
"run.idle.hint": "開始をクリックして評価を開始してください",
"run.metrics.avgScore": "平均スコア",
"run.metrics.cost": "コスト",
"run.metrics.duration": "時間",
"run.metrics.errorCases": "エラー",
"run.metrics.evaluated": "{{count}} 評価済み",
"run.metrics.passRate": "合格率",
"run.metrics.perCase": "/ ケース",
"run.metrics.tokens": "トークン",
"run.metrics.totalDuration": "累積",
"run.pending.hint": "評価がキューに入り、開始を待っています...",
"run.running.hint": "評価が実行中です。結果はまもなく表示されます...",
"run.status.aborted": "中止",
"run.status.completed": "完了",
"run.status.error": "実行エラー",
"run.status.failed": "失敗",
"run.status.idle": "アイドル",
"run.status.pending": "保留中",
"run.status.running": "実行中",
"run.status.timeout": "タイムアウト",
"sidebar.benchmarks": "ベンチマーク",
"sidebar.dashboard": "ダッシュボード",
"sidebar.datasets": "データセット",
"sidebar.runs": "実行",
"table.columns.avgCost": "平均コスト",
"table.columns.category": "カテゴリ",
"table.columns.cost": "コスト",
"table.columns.difficulty": "難易度",
"table.columns.duration": "時間",
"table.columns.evalMode": "評価モード",
"table.columns.expected": "期待される回答",
"table.columns.input": "入力",
"table.columns.score": "スコア",
"table.columns.status": "ステータス",
"table.columns.steps": "ステップ",
"table.columns.tags": "タグ",
"table.columns.tokens": "トークン",
"table.columns.totalCost": "総コスト",
"table.filter.all": "すべて",
"table.filter.error": "実行エラー",
"table.filter.failed": "失敗",
"table.filter.passed": "合格",
"table.filter.running": "実行中",
"table.search.placeholder": "ケースを検索...",
"table.total": "合計 {{count}}",
"testCase.actions.add": "テストケースを追加",
"testCase.actions.import": "テストケースをインポート",
"testCase.create.advanced": "詳細オプション",
"testCase.create.difficulty.label": "難易度",
"testCase.create.error": "テストケースの追加に失敗しました",
"testCase.create.expected.label": "期待される出力",
"testCase.create.expected.placeholder": "期待される回答を入力",
"testCase.create.expected.required": "期待される出力を入力してください",
"testCase.create.input.label": "入力",
"testCase.create.input.placeholder": "テストケースの入力または質問を入力",
"testCase.create.success": "テストケースが正常に追加されました",
"testCase.create.tags.label": "タグ",
"testCase.create.tags.placeholder": "カンマ区切りのタグ(任意)",
"testCase.create.title": "テストケースを追加",
"testCase.delete.confirm": "このテストケースを削除してもよろしいですか?",
"testCase.delete.error": "テストケースの削除に失敗しました",
"testCase.delete.success": "テストケースが削除されました",
"testCase.edit.error": "テストケースの更新に失敗しました",
"testCase.edit.success": "テストケースが正常に更新されました",
"testCase.edit.title": "テストケースを編集",
"testCase.empty.description": "このデータセットにテストケースをインポートまたは手動で追加してください",
"testCase.empty.title": "まだテストケースがありません",
"testCase.preview.expected": "期待される出力",
"testCase.preview.input": "入力",
"testCase.preview.title": "テストケースプレビュー",
"testCase.search.placeholder": "ケースを検索..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "リサーチ",
"starter.developing": "開発中",
"starter.image": "イラスト作成",
"starter.nanoBanana2": "🍌 ナバナナ2",
"starter.seedance": "シーダンス 2.0",
"starter.write": "執筆"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Geminiシリーズ向け思考に使う予算を制御します。",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Previewモデル向け思考の深さを制御します。",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Previewモデル向け思考の深さを制御します。",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Gemini 3.1 Proプレビューモデル用; 思考の深さを低/中/高レベルで制御します。",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Geminiシリーズ向けURLコンテキストの提供をサポートします。",
"providerModels.item.modelConfig.extendParams.placeholder": "有効にする拡張パラメータを選択",
"providerModels.item.modelConfig.extendParams.previewFallback": "プレビューを利用できません",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turboは、優れた意味理解と生成効率を備えた高性能な計算・対話能力を提供し、企業や開発者に最適です。",
"360gpt2-o1.description": "360gpt2-o1は、ツリー探索と内省メカニズム、強化学習を組み合わせて思考の連鎖を構築し、自己内省と自己修正を可能にします。",
"360gpt2-pro.description": "360GPT2 Proは、360が開発した高度なNLPモデルで、創造的なタスクにおいて優れたテキスト生成と理解を実現し、複雑な変換やロールプレイにも対応します。",
"360zhinao2-o1.5.description": "360智脑の最強推論モデル。最強の能力を備え、ツール呼び出しと高度な推論の両方をサポートします。",
"360zhinao2-o1.description": "360zhinao2-o1は、ツリー探索と内省メカニズム、強化学習を通じて思考の連鎖を構築し、自己内省と自己修正を可能にします。",
"360zhinao3-o1.5.description": "360智脳次世代推論モデル。",
"4.0Ultra.description": "Spark UltraはSparkシリーズで最も強力なモデルであり、テキスト理解と要約を強化し、ウェブ検索機能も向上。職場の生産性と正確な応答を高める包括的なソリューションとして、インテリジェント製品のリーダー的存在です。",
"AnimeSharp.description": "AnimeSharp別名「4x-AnimeSharp」は、Kim2091によるESRGANをベースにしたオープンソースの超解像モデルで、アニメスタイルの画像の拡大とシャープ化に特化しています。2022年2月に「4x-TextSharpV1」から改名され、当初はテキスト画像にも対応していましたが、アニメコンテンツ向けに最適化されています。",
"Baichuan2-Turbo.description": "検索拡張を活用して、モデルをドメイン知識やウェブ知識と接続。PDF/WordのアップロードやURL入力に対応し、タイムリーで包括的な情報取得と専門的で正確な出力を実現します。",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Visionは、最先端のマルチモーダルモデルで、言語、テキスト、ビジョンの主要ベンチマークで高い性能を発揮します。この8Bバージョンは低レイテンシと高性能を重視しています。",
"charglm-3.description": "CharGLM-3は、ロールプレイと感情的な対話を目的に設計されており、超長期のマルチターン記憶とパーソナライズされた会話をサポートします。",
"charglm-4.description": "CharGLM-4は、ロールプレイと感情的な対話を目的に設計されており、超長期のマルチターン記憶とパーソナライズされた会話をサポートします。",
"chatgpt-4o-latest.description": "ChatGPT-4oはリアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。",
"chatgpt-4o-latest.description": "ChatGPT-4oはリアルタイムで更新される動的モデルです。強力な言語理解と生成能力を組み合わせ、カスタマーサポート、教育、技術支援などの大規模なユースケースに対応します。",
"claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最も高速であり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat67Bは、深い言語理解と対話能力を提供する革新的なモデルです。",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。",
"deepseek-chat.description": "DeepSeek V3.2 は、日常的な質問応答やエージェントタスクにおいて、推論力と出力の長さのバランスを実現します。公開ベンチマークでは GPT-5 レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1は、DeepSeekの新しいハイブリッド推論モデルで、思考モードと非思考モードの両方をサポートし、DeepSeek-R1-0528よりも高い思考効率を実現します。事後学習の最適化により、エージェントツールの使用とタスク処理能力が大幅に向上。128kのコンテキストウィンドウと最大64kの出力トークンに対応します。",
"deepseek-v3.1:671b.description": "DeepSeek V3.1は、複雑な推論とChain-of-Thoughtに優れた次世代推論モデルで、深い分析を必要とするタスクに適しています。",
"deepseek-v3.2-exp.description": "deepseek-v3.2-expは、長文テキストの学習と推論効率を向上させるスパースアテンションを導入し、deepseek-v3.1よりも低価格で提供されます。",
"deepseek-v3.2-speciale.description": "高度に複雑なタスクにおいて、Specialeモデルは標準バージョンを大幅に上回る性能を発揮しますが、トークン消費が多く、コストが高くなります。現在、DeepSeek-V3.2-Specialeは研究用途のみに提供されており、ツール呼び出しをサポートせず、日常会話や執筆タスク向けに最適化されていません。",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Thinkは、長い思考の連鎖に対応した完全な深層思考モデルです。",
"deepseek-v3.2.description": "DeepSeek-V3.2は、DeepSeekが初めて開発したハイブリッド推論モデルで、思考をツールの使用に統合しています。効率的なアーキテクチャにより計算コストを削減し、大規模な強化学習で能力を強化、大量の合成タスクデータで汎化性能を高めています。これら3つの要素の組み合わせにより、GPT-5-Highに匹敵する性能を実現しながら、出力の長さを大幅に短縮し、計算負荷とユーザーの待機時間を大きく削減しています。",
"deepseek-v3.description": "DeepSeek-V3は、671Bの総パラメータとトークンごとに37Bがアクティブな強力なMoEモデルです。",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。128kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。",
"doubao-lite-128k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。128kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
"doubao-lite-32k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
"doubao-lite-4k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。4kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
"doubao-pro-256k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。256kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
"doubao-pro-32k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash は、TPOTが10msと非常に低い超高速マルチモーダル深層推論モデルです。テキストと画像の両方に対応し、テキスト理解では従来のliteモデルを上回り、視覚では競合のproモデルに匹敵します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite は、新しいマルチモーダル深層推論モデルで、推論の強度最小、低、中、高を調整可能です。一般的なタスクにおいて高いコストパフォーマンスを発揮し、最大256kのコンテキストウィンドウに対応します。",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed の Doubao 画像モデルは、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺512〜1536の範囲に対応します。",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。",
"doubao-vision-lite-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
"doubao-vision-pro-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。",
"doubao-seedream-4-5-251128.description": "Seedream 4.5はByteDanceの最新マルチモーダル画像モデルで、テキストから画像生成、画像間変換、バッチ画像生成機能を統合し、常識と推論能力を組み込んでいます。前バージョン4.0と比較して、生成品質が大幅に向上し、編集の一貫性や複数画像の融合が改善されています。視覚的な詳細の制御がより正確になり、小さなテキストや顔を自然に生成し、レイアウトや色彩の調和が向上し、全体的な美観が強化されています。",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-liteはByteDanceの最新画像生成モデルです。初めてオンライン検索機能を統合し、リアルタイムのウェブ情報を取り入れることで生成画像のタイムリー性を向上させています。モデルの知能もアップグレードされ、複雑な指示や視覚コンテンツを正確に解釈できるようになりました。また、専門的なシナリオでのグローバルな知識カバレッジ、一貫性、生成品質が向上し、企業レベルの視覚制作ニーズにより適合しています。",
"emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルで、ユーザーが感情的な問題を理解するのを支援します。",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B は、ローカルおよびカスタマイズ展開に適した軽量なオープンソースモデルです。",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinkingは、21Bパラメータと3Bアクティブパラメータを持つテキストMoEMixture-of-Expertsポストトレーニングモデルで、推論の質と深さが大幅に向上しています。",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B は、理解力と生成力を強化した大規模パラメータのオープンソースモデルです。",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B は、Baidu ERNIE による超大規模 MoE モデルであり、優れた推論能力を備えています。",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview は、ERNIE 4.5 の評価用に設計された 8K コンテキストプレビューモデルです。",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K は、レイテンシーとコストに敏感なシナリオに対応した軽量高性能モデルです。",
"ernie-novel-8k.description": "ERNIE Novel 8K は、複数キャラクターによる長編小説や IP プロットの生成に特化しています。",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K は、大規模なオンラインサービスや企業アプリケーション向けの高同時接続・高価値モデルです。",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Previewは、複雑な推論とマルチターンチャットに対応する高速思考モデルです。",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。",
"ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 は、ByteDance の Seed チームによって開発されたモデルで、複数画像の編集と合成に対応。被写体の一貫性、指示の正確な追従、空間的論理の理解、美的表現、ポスターレイアウトやロゴデザインなど、高精度なテキストと画像のレンダリングを実現します。",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は、ByteDance の Seed チームによって開発され、テキストと画像の入力に対応し、プロンプトから高品質かつ高い制御性を持つ画像生成を可能にします。",
"fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite のプレビューリリース2025年9月25日",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview は、Google によるフル機能を備えた最もコスト効率の高いモデルです。",
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash のプレビューリリース2025年9月25日",
"gemini-2.5-flash.description": "Gemini 2.5 Flash は、Google によるフル機能を備えた最もコスト効率の高いモデルです。",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro ImageNano Banana Proは、Google による画像生成モデルで、マルチモーダル対話にも対応しています。",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro ImageNano Banana Proは、Google による画像生成モデルであり、マルチモーダルチャットにも対応しています。",
"gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash ImageNano Banana 2は、フラッシュ速度でプロレベルの画像品質を提供し、マルチモーダルチャットをサポートします。",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash ImageNano Banana 2は、フラッシュ速度でプロレベルの画像品質を提供し、マルチモーダルチャットをサポートします。",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。",
"gemini-flash-latest.description": "Gemini Flash の最新リリース",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース",
"gemini-pro-latest.description": "Gemini Pro の最新リリース",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus は、動画や複数画像の理解に対応し、マルチモーダルタスクに適しています。",
"glm-4v-plus.description": "GLM-4V-Plus は、動画や複数画像の理解に対応し、マルチモーダルタスクに適しています。",
"glm-4v.description": "GLM-4V は、視覚タスクにおける画像理解と推論に優れた性能を発揮します。",
"glm-5.description": "Z.aiによる強力な推論とエージェントモデルで、744Bの総パラメータ40Bアクティブを備え、複雑なシステム工学と長期間のタスクに対応。",
"glm-5.description": "GLMシリーズは、Zhipu AIによるエージェント向けのハイブリッド推論モデルで、思考モードと非思考モードを備えています。",
"glm-z1-air.description": "深い推論が求められるタスクにおいて強力な推論能力を発揮するモデルです。",
"glm-z1-airx.description": "高品質な推論を超高速で実現します。",
"glm-z1-flash.description": "GLM-Z1 シリーズは、論理、数学、プログラミングにおいて優れた複雑推論能力を発揮します。",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Grok 4 Fast をリリースしました。コスト効率の高い推論モデルにおける最新の進展です。",
"grok-4.description": "最新かつ最強のフラッグシップモデルで、自然言語処理、数学、推論に優れたオールラウンダーです。",
"grok-code-fast-1.description": "grok-code-fast-1 をリリースできることを嬉しく思います。このモデルは、高速かつコスト効率に優れた推論モデルで、エージェント型コーディングにおいて卓越した性能を発揮します。",
"grok-imagine-image-pro.description": "テキストプロンプトから画像を生成し、自然言語で既存の画像を編集したり、マルチターン会話を通じて画像を反復的に改良します。",
"grok-imagine-image.description": "テキストプロンプトから画像を生成し、自然言語で既存の画像を編集したり、マルチターン会話を通じて画像を反復的に改良します。",
"groq/compound-mini.description": "Compound-mini は、GroqCloud 上でサポートされる公開モデルを活用した複合 AI システムで、ユーザーの質問に対してツールを知的かつ選択的に使用して応答します。",
"groq/compound.description": "Compound は、GroqCloud 上でサポートされる複数の公開モデルを活用した複合 AI システムで、ユーザーの質問に対してツールを知的かつ選択的に使用して応答します。",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B は、複数のトップモデルを統合して構築された創造的かつ知的な言語モデルです。",
"hunyuan-2.0-instruct-20251111.description": "リリース機能: モデルベースがTurboSから**Hunyuan 2.0**にアップグレードされ、能力が全面的に向上しました。指示追従、マルチターンおよび長文テキスト理解、文学創作、知識の正確性、コーディング、推論能力が大幅に強化されています。",
"hunyuan-2.0-thinking-20251109.description": "リリース機能: モデルベースがTurboSから**Hunyuan 2.0**にアップグレードされ、能力が全面的に向上しました。複雑な指示の追従、マルチターンおよび長文テキストの理解、コード処理、エージェントとしての操作、推論タスクの実行能力が大幅に強化されています。",
"hunyuan-a13b.description": "Hunyuan による初のハイブリッド推論モデルで、hunyuan-standard-256K総パラメータ数 80B、アクティブ 13Bからアップグレードされました。デフォルトでは遅い思考を行い、パラメータやプレフィックス /no_think により高速/低速の切り替えが可能です。前世代と比べて、特に数学、科学、長文理解、エージェントタスクにおいて全体的な能力が向上しています。",
"hunyuan-code.description": "200B の高品質コードと 6 か月の SFT によりトレーニングされた最新のコード生成モデルで、コンテキストは 8K に拡張されています。5 つの言語で自動ベンチマークのトップにランクインし、10 の評価基準で人間評価でも高評価を得ています。",
"hunyuan-functioncall.description": "高品質な関数呼び出しデータでトレーニングされた最新の MoE FunctionCall モデルで、32K のコンテキストウィンドウを備え、さまざまな次元でベンチマークのトップに立っています。",
"hunyuan-large-longcontext.description": "要約や質問応答などの長文ドキュメントタスクに優れており、一般的な生成タスクにも対応します。複雑で詳細なコンテンツに対する長文分析と生成に強みがあります。",
"hunyuan-large-vision.description": "Hunyuan Large をベースにトレーニングされた視覚と言語の統合モデルで、任意の解像度での複数画像+テキスト入力をサポートし、多言語の視覚理解を向上させます。",
"hunyuan-large.description": "Hunyuan-large は、総パラメータ数約 389B、アクティブ約 52B を持つ、Transformer アーキテクチャにおける最大かつ最強のオープン MoE モデルです。",
"hunyuan-lite-vision.description": "最新の 7B マルチモーダルモデルで、32K のコンテキストウィンドウを備え、中国語/英語のマルチモーダルチャット、物体認識、ドキュメント表理解、マルチモーダル数学に対応し、複数のベンチマークで 7B モデルを上回ります。",
"hunyuan-code.description": "Hunyuanの最新コードモデルは、200Bの高品質コードデータと6か月のSFTデータでトレーニングされ、8Kコンテキストを備えています。自動コードベンチマークおよび5つの言語における専門家の人間評価で上位にランクされています。",
"hunyuan-functioncall.description": "Hunyuanの最新MoE FunctionCallモデルは、高品質なツール呼び出しデータでトレーニングされ、32Kコンテキストウィンドウを備え、さまざまな次元でのベンチマークでリードしています。",
"hunyuan-lite.description": "MoE アーキテクチャにアップグレードされ、256K のコンテキストウィンドウを備え、NLP、コード、数学、業界ベンチマークにおいて多くのオープンモデルをリードしています。",
"hunyuan-pro.description": "1 兆パラメータの MOE-32K 長文コンテキストモデルで、ベンチマークをリードし、複雑な指示や推論、高度な数学、関数呼び出しに強く、多言語翻訳、金融、法律、医療分野に最適化されています。",
"hunyuan-role.description": "最新のロールプレイモデルで、ロールプレイ用データセットで公式にファインチューニングされ、ロールプレイシナリオにおけるベースライン性能が向上しています。",
"hunyuan-standard-256K.description": "改良されたルーティングにより、負荷分散とエキスパートの崩壊を軽減。長文コンテキストで 99.9% の needle-in-a-haystack を達成。MOE-256K によりコンテキスト長と品質がさらに向上。",
"hunyuan-standard-vision.description": "最新のマルチモーダルモデルで、多言語応答と中国語/英語のバランスの取れた能力を備えています。",
"hunyuan-standard.description": "改良されたルーティングにより、負荷分散とエキスパートの崩壊を軽減。長文コンテキストで 99.9% の needle-in-a-haystack を達成。MOE-32K により長文入力への対応と高い価値を提供します。",
"hunyuan-t1-20250321.description": "芸術とSTEMの能力をバランスよく育成し、長文情報の把握に優れています。数学、論理、科学、コードの問題に対して、難易度を問わず推論による回答をサポートします。",
"hunyuan-t1-20250403.description": "プロジェクトレベルのコード生成と文章品質を向上させ、複数ターンにわたるトピック理解とToB指示の遵守を強化。単語レベルの理解力を高め、簡体字/繁体字や中英混在出力の問題を軽減します。",
"hunyuan-t1-20250529.description": "創造的な文章作成能力を向上させ、フロントエンドのコーディング、数学、論理的推論を強化し、指示の遵守能力を高めます。",
"hunyuan-t1-20250711.description": "難解な数学、論理、コーディング能力を大幅に向上させ、出力の安定性を高め、長文処理能力を強化します。",
"hunyuan-role.description": "Hunyuanの最新ロールプレイモデルは、ロールプレイデータで正式にファインチューニングされ、ロールプレイシナリオでの基本性能が強化されています。",
"hunyuan-standard-256K.description": "改良されたルーティングを使用して負荷分散とエキスパート崩壊を軽減します。長文の「干し草の中の針」検索が99.9%に達します。MOE-256Kは長さと品質をさらに押し広げ、入力長を大幅に拡大します。",
"hunyuan-standard.description": "改良されたルーティングを使用して負荷分散とエキスパート崩壊を軽減します。長文の「干し草の中の針」検索が99.9%に達します。MOE-32Kは、長文入力の品質と価格のバランスを取りながら、より良い価値を提供します。",
"hunyuan-t1-latest.description": "難解な数学、複雑な推論、難易度の高いコーディング、指示の遵守、創造的な文章品質において、スローシンキングモデルの性能を大幅に向上させます。",
"hunyuan-t1-vision-20250619.description": "最新のt1-visionマルチモーダル深層推論モデルで、ネイティブな思考連鎖を備え、従来のデフォルトバージョンと比べて大幅に改善されています。",
"hunyuan-t1-vision-20250916.description": "最新のt1-vision深層推論モデルで、VQA、視覚的グラウンディング、OCR、チャート、写真問題の解決、画像ベースの創作において大幅な改善があり、英語および低リソース言語の対応力も強化されています。",
"hunyuan-turbo-20241223.description": "指示スケーリングを強化して汎化性能を向上させ、数学/コード/論理推論を大幅に改善。単語レベルの理解力と文章品質も向上しています。",
"hunyuan-turbo-latest.description": "NLP理解、文章生成、チャット、QA、翻訳、各種ドメインにおける全体的な体験を改善。人間らしい応答、曖昧な意図の明確化、単語解析の向上、創造性と対話性の強化、マルチターン会話の性能向上を実現します。",
"hunyuan-turbo-vision.description": "新しいMoEアーキテクチャを採用した次世代のビジョン・ランゲージフラッグシップモデルで、認識、コンテンツ生成、知識QA、分析的推論において広範な改善が施されています。",
"hunyuan-turbo.description": "Hunyuanの次世代LLMのプレビュー版で、新しいMoEアーキテクチャを採用し、hunyuan-proよりも高速な推論と強力な成果を提供します。",
"hunyuan-turbos-20250313.description": "数学の解答スタイルを統一し、マルチターンの数学QAを強化。文章スタイルを洗練し、AIらしさを抑えて自然な表現を実現します。",
"hunyuan-turbos-20250416.description": "事前学習ベースをアップグレードし、指示理解と遵守を改善。アライメントにより数学、コード、論理、科学の性能を強化。文章品質、読解力、翻訳精度、知識QAを向上させ、特にマルチターン理解においてエージェント能力を強化します。",
"hunyuan-turbos-20250604.description": "事前学習ベースをアップグレードし、文章生成と読解力を改善。コードとSTEM分野で大幅な性能向上を実現し、複雑な指示の遵守能力も強化されています。",
"hunyuan-turbos-20250926.description": "事前学習データの品質と後処理戦略を改善し、エージェント、英語/低リソース言語、指示遵守、コード、STEM能力を向上させます。",
"hunyuan-turbos-latest.description": "最新のHunyuan TurboSフラッグシップモデルで、より強力な推論能力と全体的な体験の向上を実現します。",
"hunyuan-turbos-longtext-128k-20250325.description": "要約やQAなどの長文ドキュメントタスクに優れ、一般的な生成にも対応。複雑で詳細な内容に対する長文分析と生成に強みを持ちます。",
"hunyuan-turbos-role-plus.description": "最新のロールプレイモデルで、ロールプレイ用データセットで正式にファインチューニングされ、ロールプレイシナリオにおけるベースライン性能が向上しています。",
"hunyuan-turbos-vision-20250619.description": "最新のTurboSビジョン・ランゲージフラッグシップモデルで、エンティティ認識、知識QA、コピーライティング、写真ベースの問題解決などの画像とテキストのタスクにおいて大幅な性能向上を実現します。",
"hunyuan-turbos-vision.description": "最新のTurboSをベースにした次世代ビジョン・ランゲージフラッグシップモデルで、エンティティ認識、知識QA、コピーライティング、写真ベースの問題解決などの画像とテキストの理解タスクに特化しています。",
"hunyuan-vision-1.5-instruct.description": "テキストTurboS基盤に基づく画像→テキストの高速思考モデルで、前バージョンと比べて画像の基本認識、画像分析・推論の各面で明確な性能向上を実現しています。",
"hunyuan-vision.description": "画像+テキスト入力に対応し、テキストを生成する最新のマルチモーダルモデルです。",
"hunyuan-vision-1.5-instruct.description": "TurboSテキストベースを基にした高速思考の画像からテキストへのモデルで、基本的な画像認識と画像分析推論において前バージョンより顕著な改善を示します。",
"hunyuan-vision.description": "Hunyuanの最新マルチモーダルモデルは、画像+テキスト入力をサポートし、テキストを生成します。",
"image-01-live.description": "細部まで表現可能な画像生成モデルで、テキストから画像生成およびスタイルの制御プリセットに対応しています。",
"image-01.description": "細部まで表現可能な新しい画像生成モデルで、テキストから画像、画像から画像の生成に対応しています。",
"imagen-4.0-fast-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズの高速版です。",
"imagen-4.0-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズです。",
"imagen-4.0-generate-preview-06-06.description": "Imagen第4世代テキスト→画像モデルファミリーです。",
"imagen-4.0-ultra-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズのUltraバージョンです。",
"imagen-4.0-ultra-generate-preview-06-06.description": "Imagen第4世代テキスト→画像モデルのUltraバリアントです。",
"inception/mercury-coder-small.description": "Mercury Coder Smallは、コード生成、デバッグ、リファクタリングに最適で、低遅延で動作します。",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0は、Ant GroupのBailingチームによるLing 2.0アーキテクチャの第3モデルです。MoE構造で、総パラメータ数は100B、トークンごとのアクティブパラメータは6.1B埋め込みを除くと4.8Bです。軽量構成ながら、40Bの密モデルやさらに大きなMoEモデルと同等以上の性能を複数のベンチマークで発揮し、アーキテクチャと学習戦略による高効率を追求しています。",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0は、16Bの総パラメータを持ち、トークンごとのアクティブパラメータは1.4B埋め込みを除くと789Mの高性能な小型MoE LLMです。高速生成が可能で、効率的なMoE設計と高品質な大規模学習データにより、10B未満の密モデルやより大きなMoEモデルに匹敵するトップクラスの性能を実現しています。",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T は、inclusionAI による 1 兆パラメータの MoE 推論モデルで、大規模な推論や研究タスクに適しています。",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 は、inclusionAI による Ring モデルのバリアントで、高スループット環境向けに速度とコスト効率を重視しています。",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 は、inclusionAI による高スループット軽量 MoE モデルで、並列処理に最適化されています。",
"intern-latest.description": "デフォルトでは、現在intern-s1-proに設定されている最新のInternシリーズモデルを指します。",
"intern-s1-mini.description": "科学的推論能力に優れた軽量マルチモーダル大規模モデル。",
"intern-s1-pro.description": "私たちは、最も高度なオープンソースのマルチモーダル推論モデルを発表しました。現在、全体的な性能においてトップのオープンソースマルチモーダル大規模言語モデルです。",
"intern-s1.description": "オープンソースのマルチモーダル推論モデルは、汎用能力が強力であるだけでなく、幅広い科学的タスクで最先端の性能を達成しています。",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat は、InternLM2 アーキテクチャに基づくオープンソースのチャットモデルです。7B モデルは中国語・英語の対話生成に特化しており、現代的なトレーニングにより流暢で知的な会話を実現します。カスタマーサポートやパーソナルアシスタントなど多様なチャットシナリオに適しています。",
"internlm2.5-latest.description": "多くの反復を経て安定した性能を維持するレガシーモデルです。7B および 20B のサイズがあり、1M コンテキストに対応し、指示追従やツール使用が強化されています。デフォルトでは最新の InternLM2.5 シリーズ(現在は internlm2.5-20b-chatを使用します。",
"internlm3-latest.description": "サイズ帯でトップクラスの推論性能を誇る最新モデルシリーズです。デフォルトでは最新の InternLM3 シリーズ(現在は internlm3-8b-instructを使用します。",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO は、複雑な画像と言語の推論に対応するマルチモーダル事前学習モデルです。",
"internvl2.5-latest.description": "InternVL2.5 は、安定した高性能を維持しており、デフォルトでは最新の InternVL2.5 シリーズ(現在は internvl2.5-78bを使用します。",
"internvl3-14b.description": "InternVL3 14B は、性能とコストのバランスに優れた中規模マルチモーダルモデルです。",
"internvl3-1b.description": "InternVL3 1B は、リソース制約のある環境向けの軽量マルチモーダルモデルです。",
"internvl3-38b.description": "InternVL3 38B は、高精度な画像と言語の理解に対応する大規模オープンソースマルチモーダルモデルです。",
"internvl3-latest.description": "最新のマルチモーダルモデルで、画像と言語の理解や長文画像の把握に優れ、トップクラスのクローズドモデルに匹敵します。デフォルトでは最新の InternVL シリーズ(現在は internvl3-78bを使用します。",
"internvl3.5-241b-a28b.description": "新たにリリースされたマルチモーダル大規模モデルは、画像とテキストの理解および長いシーケンスの画像理解能力を強化し、主要なクローズドソースモデルに匹敵する性能を達成しています。",
"internvl3.5-latest.description": "デフォルトでは、現在internvl3.5-241b-a28bに設定されているInternVL3.5シリーズの最新モデルを指します。",
"irag-1.0.description": "ERNIE iRAG は、画像検索、画像と言語の検索、コンテンツ生成に対応する画像検索拡張生成モデルです。",
"jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。",
"jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2は、コーディングやエージェントワークフローに特化して構築された高効率な大規模言語モデルです。",
"minimax/minimax-m2.1.description": "MiniMax-M2.1は、コーディング、プロキシワークフロー、現代的なアプリ開発に最適化された軽量かつ最先端の大規模言語モデルで、より簡潔で明瞭な出力と高速な応答を提供します。",
"minimax/minimax-m2.description": "MiniMax-M2 は、エンジニアリングシナリオにおけるコーディングとエージェントタスクに優れた高価値モデルです。",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1は、トップレベルのコーディングとエージェント性能のために構築されたコンパクトで高速、コスト効率の高いMoEモデルです。",
"minimaxai/minimax-m2.description": "MiniMax-M2 は、230B 総パラメータ中 10B アクティブのコンパクトで高速、コスト効率の高い MoE モデルで、マルチファイル編集、コード実行・修正ループ、テスト検証、複雑なツールチェーンに優れた性能を発揮します。",
"ministral-3b-latest.description": "Ministral 3Bは、Mistralの最上位エッジモデルです。",
"ministral-8b-latest.description": "Ministral 8Bは、Mistralによる高コストパフォーマンスのエッジモデルです。",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-previewモデルは、256Kのコンテキストウィンドウをサポートし、エージェント的なコーディング能力が強化され、実用的で洗練されたフロントエンドコードと優れたコンテキスト理解を提供します。",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turboは、Kimi K2 Thinkingの高速バージョンで、深い推論能力を維持しながらレイテンシを大幅に低減します。",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinkingは、Moonshotによる深い推論タスク向けに最適化された推論モデルで、汎用的なエージェント機能を備えています。",
"moonshotai/kimi-k2.5.description": "Kimi K2.5は、これまでで最もインテリジェントなKimiモデルで、ネイティブのマルチモーダルアーキテクチャを備えています。",
"moonshotai/kimi-k2.description": "Kimi K2は、Moonshot AIによる大規模MoEモデルで、総パラメータ1兆、1回のフォワードパスで32Bのアクティブパラメータを持ち、高度なツール使用、推論、コード合成などのエージェント機能に最適化されています。",
"morph/morph-v3-fast.description": "Morphは、ClaudeやGPT-4oなどの先端モデルが提案したコード変更を既存ファイルに適用するための専用モデルで、FAST 4500+トークン/秒の速度で動作します。AIコーディングワークフローの最終ステップとして、16Kの入出力トークンをサポートします。",
"morph/morph-v3-large.description": "Morphは、ClaudeやGPT-4oなどの先端モデルが提案したコード変更を既存ファイルに適用するための専用モデルで、FAST 2500+トークン/秒の速度で動作します。AIコーディングワークフローの最終ステップとして、16Kの入出力トークンをサポートします。",
"musesteamer-air-image.description": "musesteamer-air-imageは、Baiduの検索チームによって開発された画像生成モデルで、優れたコストパフォーマンスを提供します。ユーザーのプロンプトに基づいて、明確でアクション一貫性のある画像を迅速に生成し、ユーザーの説明を簡単にビジュアルに変換します。",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8Bは、Nous Hermes 2の最新版で、社内開発の最新データセットを使用しています。",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70Bは、NVIDIAがカスタマイズしたLLMで、応答の有用性を向上させるよう設計されています。Arena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchでトップの成績を収め、2024年10月1日時点で3つの自動アライメントベンチマークすべてで1位を獲得しています。Llama-3.1-70B-Instructをベースに、RLHFREINFORCE、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトでトレーニングされています。",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "高精度かつ高効率な言語モデルで、独自の特長を持ちます。",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "コンテキスト長、トピック、複雑さに応じて、Llama 3 70B Instruct、Claude 3.5 Sonnet自己モデレート、またはGPT-4oにルーティングされます。",
"oswe-vscode-prime.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。",
"oswe-vscode-secondary.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2は、高い計算効率と優れた推論およびエージェント性能のバランスを取ったモデルです。",
"perplexity/sonar-pro.description": "Perplexityの主力製品で、検索に基づいた高度なクエリやフォローアップに対応します。",
"perplexity/sonar-reasoning-pro.description": "強化された検索機能を備えた高度な推論特化モデル。1リクエストあたり複数の検索クエリを含むCoT思考の連鎖を出力します。",
"perplexity/sonar-reasoning.description": "詳細な検索に基づく説明を伴う思考の連鎖CoTを出力する推論特化モデルです。",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Qwenコードモデル。",
"qwen-coder-turbo.description": "Qwenコードモデル。",
"qwen-flash.description": "Qwenモデルの中で最速かつ最も低コスト。シンプルなタスクに最適です。",
"qwen-image-edit-max.description": "Qwen画像編集モデルは、複数画像の入力と出力をサポートし、画像内のテキスト編集、オブジェクトの追加、削除、移動、被写体のアクション変更、画像スタイルの転送、視覚的な詳細の強化を可能にします。",
"qwen-image-edit-plus.description": "Qwen画像編集モデルは、複数画像の入力と出力をサポートし、画像内のテキスト編集、オブジェクトの追加、削除、移動、被写体のアクション変更、画像スタイルの転送、視覚的な詳細の強化を可能にします。",
"qwen-image-edit.description": "Qwen Image Editは、入力画像とテキストプロンプトに基づいて画像を編集する画像変換モデルで、精密な調整や創造的な変換が可能です。",
"qwen-image-max.description": "Qwen画像生成モデルMaxシリーズは、Plusシリーズと比較してリアリズムと視覚的自然さを強化し、AI生成アーティファクトを効果的に削減します。人間の外見、テクスチャの詳細、テキストレンダリングにおいて優れた性能を示します。",
"qwen-image-plus.description": "幅広い芸術的スタイルをサポートし、特に画像内の複雑なテキストのレンダリングに優れ、統合された画像とテキストのレイアウトデザインを可能にします。",
"qwen-image.description": "Qwen-Imageは、複数のアートスタイルに対応し、複雑なテキスト描画特に中国語と英語に強い汎用画像生成モデルです。複数行レイアウト、段落レベルのテキスト、細部までの描写に対応します。",
"qwen-long.description": "超大規模なQwenモデルで、長文や複数文書にまたがるチャットに対応します。",
"qwen-math-plus-latest.description": "Qwen Mathは、数学問題の解決に特化した言語モデルです。",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Qwen3ベースのオープンソースコードモデル。最新のqwen3-coder-30b-a3b-instructは、優れたコード生成性能と汎用能力を備え、自律的なプログラミングのためのツール使用や環境との対話に対応します。",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instructは、多言語プログラミングと複雑なコード理解に対応するフラッグシップのコードモデルです。",
"qwen3-coder-flash.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。",
"qwen3-coder-next.description": "次世代Qwenコーダーは、複雑なマルチファイルコード生成、デバッグ、高スループットエージェントワークフローに最適化されています。強力なツール統合と推論性能の向上を目指して設計されています。",
"qwen3-coder-plus.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。",
"qwen3-coder:480b.description": "エージェントおよびコーディングタスク向けのAlibabaの高性能長文コンテキストモデルです。",
"qwen3-max-2026-01-23.description": "Qwen3 Maxモデルは、2.5シリーズに比べて汎用能力、中国語・英語理解、複雑な指示追従、主観的なオープンタスク、多言語対応、ツール利用において大幅な向上を実現し、幻覚の発生も抑制されています。最新のqwen3-maxは、qwen3-max-previewよりもエージェントプログラミングとツール利用が改善されており、分野別SOTAを達成し、より複雑なエージェントニーズに対応します。",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinkingは、詳細な視覚推論に対応するマルチモーダル思考モデルです。",
"qwen3-vl-flash.description": "Qwen3 VL Flash遅延に敏感または高トラフィックなリクエスト向けの軽量・高速推論モデルです。",
"qwen3-vl-plus.description": "Qwen VLは、視覚理解を備えたテキスト生成モデルです。OCRや要約、推論が可能で、商品画像から属性を抽出したり、画像から問題を解決したりできます。",
"qwen3.5-397b-a17b.description": "テキスト、画像、ビデオ入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を発揮し、効率が高くコストが低いです。マルチモーダル能力においては、Qwen3 VLシリーズよりも大幅に改善されています。",
"qwen3.5-plus.description": "Qwen3.5 Plusは、テキスト、画像、ビデオ入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を発揮し、効率が高くコストが低いです。マルチモーダル能力においては、Qwen3 VLシリーズよりも大幅に改善されています。",
"qwen3.description": "Qwen3は、Alibabaが開発した次世代の大規模言語モデルで、多様なユースケースにおいて高い性能を発揮します。",
"qwq-32b-preview.description": "QwQは、推論能力の向上に焦点を当てたQwenの実験的研究モデルです。",
"qwq-32b.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に複雑な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと並ぶ中規模の推論モデルです。",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。",
"r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro は、ByteDance によるモデルで、テキストから動画、画像から動画(最初のフレーム、最初+最後のフレーム)、および映像と同期した音声生成に対応します。",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-liteは、リアルタイム情報のためのウェブ検索強化生成を特徴とし、複雑なプロンプト解釈と専門的な視覚制作のための参照一貫性を向上させています。",
"solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。",
"solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。",
"solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "複雑なクエリやフォローアップに対応する検索基盤を備えた高度な検索製品です。",
"sonar-reasoning.description": "複雑なクエリやフォローアップに対応する検索基盤を備えた高度な検索製品です。",
"sonar.description": "Sonar Pro よりも高速かつ低コストな軽量検索基盤製品です。",
"spark-x.description": "X1.5 アップデート内容1`thinking` フィールドで制御可能な動的思考モードを追加264K 入力・64K 出力の大規模コンテキスト長に対応3FunctionCall をサポート。",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2は、高い計算効率と優れた推論およびエージェント性能のバランスを取ったモデルです。",
"spark-x.description": "X2機能概要: 1. `thinking`フィールドを介して推論モードの動的調整を導入。2. コンテキスト長の拡張: 64K入力トークンと128K出力トークン。3. Function Call機能をサポート。",
"stable-diffusion-3-medium.description": "Stability AI による最新のテキストから画像への変換モデルです。画像品質、テキスト理解、スタイルの多様性が大幅に向上し、複雑な自然言語プロンプトをより正確に解釈し、多様で精密な画像を生成します。",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo は、ADD敵対的拡散蒸留を stable-diffusion-3.5-large に適用し、高速化を実現しています。",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large は、800M パラメータの MMDiT テキスト画像変換モデルで、優れた品質とプロンプト整合性を持ち、1 メガピクセルの画像生成と一般的なハードウェアでの効率的な実行をサポートします。",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "複雑な対話に対応する大規模コンテキスト処理をサポートします。",
"step-2-mini.description": "次世代の社内開発 MFA アテンションアーキテクチャに基づき、Step-1 に近い性能を大幅に低コストで実現し、高スループットと低レイテンシを達成します。一般的なタスクに対応し、コーディング能力にも優れています。",
"step-2x-large.description": "StepFun による次世代画像生成モデルで、テキストプロンプトから高品質な画像を生成します。よりリアルな質感と強力な中英テキスト描画能力を備えています。",
"step-3.5-flash.description": "Stepfunのフラッグシップ言語推論モデル。このモデルは、トップクラスの推論能力と迅速かつ信頼性の高い実行を提供します。複雑なタスクを分解して計画し、それを実行するためのツールを迅速かつ確実に呼び出し、論理的推論、数学、ソフトウェアエンジニアリング、深い研究、その他の高度なタスクに優れています。コンテキスト長は256Kです。",
"step-3.description": "このモデルは優れた視覚認識と複雑な推論能力を持ち、分野横断的な知識理解、数学と視覚の複合分析、日常的な視覚分析タスクに正確に対応します。",
"step-r1-v-mini.description": "画像理解に優れた推論モデルで、画像とテキストを処理し、深い推論を経てテキストを生成します。視覚的推論に強く、数学、コーディング、テキスト推論において最高水準の性能を発揮し、100K のコンテキストウィンドウに対応します。",
"stepfun-ai/step3.description": "Step3 は、StepFun による最先端のマルチモーダル推論モデルで、MoE アーキテクチャに基づき、総パラメータ数 321B、アクティブパラメータ数 38B を備えています。エンドツーエンド設計によりデコードコストを最小化し、最高水準の視覚と言語の推論を実現します。MFA と AFD 設計により、ハイエンドからローエンドのアクセラレータまで効率的に動作します。事前学習には 20T 以上のテキストトークンと 4T の画像テキストトークンを多言語で使用し、数学、コード、マルチモーダルベンチマークでトップクラスのオープンモデル性能を達成しています。",
"taichu_llm.description": "大規模で高品質なデータに基づいて訓練され、テキスト理解、コンテンツ生成、会話型 QA において優れた性能を発揮します。",
"taichu_o1.description": "taichu_o1 は次世代の推論モデルで、マルチモーダル対話と強化学習を活用して人間のような思考の連鎖を実現し、複雑な意思決定のシミュレーションをサポートします。推論の過程を可視化しつつ、高精度な出力を維持し、戦略分析や深い思考に適しています。",
"taichu_vl.description": "画像理解、知識転移、論理的帰属を組み合わせ、画像とテキストの QA において優れた性能を発揮します。",
"taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2BモデルのNo-Thinkingバージョンは、メモリ使用量が少なく、軽量設計、高速応答速度、強力なマルチモーダル理解能力を特徴としています。",
"taichu4_vl_32b.description": "Taichu4.0-VL 32BモデルのThinkingバージョンは、複雑なマルチモーダル理解と推論タスクに適しており、マルチモーダル数学的推論、マルチモーダルエージェント能力、一般的な画像および視覚理解において優れた性能を示します。",
"taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32BモデルのNo-Thinkingバージョンは、複雑な画像とテキストの理解および視覚知識QAシナリオ向けに設計されており、画像キャプション、視覚的質問応答、ビデオ理解、視覚的ローカリゼーションタスクに優れています。",
"taichu4_vl_3b.description": "Taichu4.0-VL 3BモデルのThinkingバージョンは、マルチモーダル理解と推論タスクを効率的に実行し、視覚理解、視覚的ローカリゼーション、OCR認識、および関連能力において包括的なアップグレードを提供します。",
"taichu_llm.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。",
"taichu_llm_14b.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。",
"taichu_llm_2b.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。",
"taichu_o1.description": "taichu_o1は、マルチモーダルインタラクションと強化学習を通じて人間のような連鎖的思考を実現する次世代推論大規模モデルです。複雑な意思決定シミュレーションをサポートし、高精度な出力を維持しながら、解釈可能な推論経路を明らかにします。戦略分析、深い思考、類似のシナリオに適しています。",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct は、総パラメータ数 80B、アクティブパラメータ数 13B で大型モデルに匹敵する性能を発揮します。高速・低速のハイブリッド推論、安定した長文理解、BFCL-v3 や τ-Bench における先進的なエージェント能力を備えています。GQA とマルチ量子化形式により効率的な推論が可能です。",
"tencent/Hunyuan-MT-7B.description": "Hunyuan 翻訳モデルには Hunyuan-MT-7B とアンサンブルモデル Hunyuan-MT-Chimera が含まれます。Hunyuan-MT-7B は 7B の軽量翻訳モデルで、33 言語と中国の少数民族言語 5 言語に対応します。WMT25 では 31 言語ペア中 30 件で 1 位を獲得しました。Tencent Hunyuan は、事前学習から SFT、翻訳 RL、アンサンブル RL までの完全なトレーニングパイプラインを採用し、同規模で最高水準の性能と効率的なデプロイを実現しています。",
"text-embedding-3-large.description": "英語および非英語タスクにおいて最も高性能な埋め込みモデルです。",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "日常的なタスクやUI生成に適したモデルです。",
"vercel/v0-1.0-md.description": "v0の背後にあるモデルにアクセスし、最新のフレームワークに対応したWebアプリの生成、修正、最適化を行います。",
"vercel/v0-1.5-md.description": "v0の背後にあるモデルにアクセスし、最新のフレームワークに対応したWebアプリの生成、修正、最適化を行います。",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Codeは、企業向けプログラミングニーズに最適化されており、Seed 2.0の優れたエージェント、VLM能力を基に、特にコード能力を強化しています。フロントエンド能力が優れているだけでなく、企業で一般的な多言語コーディングニーズにも特別に最適化されており、さまざまなAIプログラミングツールへの接続に適しています。",
"volcengine/doubao-seed-2-0-lite.description": "生成品質と応答速度のバランスを取り、汎用生産モデルとして適しています。",
"volcengine/doubao-seed-2-0-mini.description": "doubao-seed-2-0-miniの最新版を指します。",
"volcengine/doubao-seed-2-0-pro.description": "doubao-seed-2-0-proの最新版を指します。",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Codeは、ByteDanceのVolcano EngineによるLLMで、エージェント型プログラミングに最適化されており、プログラミングおよびエージェントベンチマークで高い性能を発揮します。256Kのコンテキストに対応しています。",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speedは、創造性、安定性、リアリズムが向上した最新モデルで、高速生成と高い価値を提供します。",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Proは、創造性、安定性、リアリズムが向上した最新モデルで、より豊かなディテールを生成します。",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flashは、創造性、安定性、リアリズムの向上を伴う最新モデルで、高速生成と高い価値を提供します。",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plusは、創造性、安定性、リアリズムの向上を伴う最新モデルで、より豊かな詳細を生成します。",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Previewは、単一画像編集と複数画像の融合をサポートします。",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2Iは、総ピクセルエリアとアスペクト比の制約内で画像寸法の柔軟な選択をサポートします。",
"wan2.6-image.description": "Wanxiang 2.6 Imageは、画像編集と画像とテキストの混合レイアウト出力をサポートします。",
"wan2.6-t2i.description": "Wanxiang 2.6 T2Iは、総ピクセルエリアとアスペクト比の制約内で画像寸法の柔軟な選択をサポートしますWanxiang 2.5と同様)。",
"wanx-v1.description": "基本的なテキストから画像への変換モデル。Tongyi Wanxiang 1.0 Generalに対応。",
"wanx2.0-t2i-turbo.description": "中程度の速度と低コストで質感のあるポートレートに優れています。Tongyi Wanxiang 2.0 Speedに対応。",
"wanx2.1-t2i-plus.description": "画像のディテールがより豊かになった完全アップグレード版で、やや速度は遅めです。Tongyi Wanxiang 2.1 Proに対応。",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fastは、xAIによる高スループット・低コストモデルで、2Mのコンテキストウィンドウをサポートし、高並列性および長文コンテキストのユースケースに最適です。",
"x-ai/grok-4.description": "Grok 4は、xAIのフラッグシップ推論モデルで、強力な推論力とマルチモーダル対応を備えています。",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1は、xAIによる高速コードモデルで、読みやすくエンジニアに優しい出力を提供します。",
"x1.description": "X1.5の更新内容: (1) `thinking`フィールドで制御される動的思考モードを追加。 (2) 64K入力と64K出力のより大きなコンテキスト長。 (3) FunctionCallをサポート。",
"xai/grok-2-vision.description": "Grok 2 Visionは視覚タスクに優れ、MathVistaによる視覚的数学推論やDocVQAによる文書QAで最先端の性能を発揮します。文書、チャート、グラフ、スクリーンショット、写真を処理可能です。",
"xai/grok-2.description": "Grok 2は、最先端の推論力、優れたチャット、コーディング、推論性能を備えた先進モデルで、LMSYSにおいてClaude 3.5 SonnetやGPT-4 Turboを上回る評価を得ています。",
"xai/grok-3-fast.description": "xAIのフラッグシップモデルで、データ抽出、コーディング、要約などのエンタープライズ用途に優れ、金融、医療、法律、科学分野における深い専門知識を備えています。高速バリアントは高速インフラ上で動作し、より迅速な応答を提供しますトークン単価は高め。",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5は、エンジニアリングおよび長文コンテキストタスクに最適化されたZ.AIのフラッグシップモデルで、ハイブリッド推論を採用しています。",
"z-ai/glm-4.6.description": "GLM 4.6は、Z.AIのフラッグシップモデルで、コンテキスト長とコーディング能力が強化されています。",
"z-ai/glm-4.7.description": "GLM-4.7 は Zhipu による最新のフラッグシップモデルで、汎用能力の向上、より自然で簡潔な応答、没入感のある文章体験を提供します。",
"z-ai/glm5.description": "Z.aiによる強力な推論とエージェントモデルで、744Bの総パラメータ40Bアクティブを備え、複雑なシステム工学と長期間のタスクに対応。",
"z-ai/glm4.7.description": "GLM-4.7は、エージェントコーディングシナリオ向けに強化されたZhipuの最新フラッグシップモデルで、コーディング能力が向上しています。",
"z-ai/glm5.description": "GLM-5は、Zhipu AIの新しいフラッグシップ基盤モデルで、エージェントエンジニアリングにおいてオープンソースのSOTA性能を達成しています。Claude Opus 4.5に匹敵する性能を持っています。",
"z-image-turbo.description": "Z-Imageは軽量なテキストから画像生成モデルで、迅速に画像を生成し、中国語と英語のテキストレンダリングをサポートし、複数の解像度とアスペクト比に柔軟に適応します。",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Airは、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルです。ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに最適化されており、Claude CodeやRoo Codeなどのコードエージェントと統合可能です。ハイブリッド推論により、複雑な推論と日常的なシナリオの両方に対応します。",
"zai-org/GLM-4.5.description": "GLM-4.5は、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルで、ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに深く最適化されています。Claude CodeやRoo Codeなどのコードエージェントと統合可能で、ハイブリッド推論により複雑な推論と日常的なシナリオの両方に対応します。",
"zai-org/GLM-4.5V.description": "GLM-4.5Vは、GLM-4.5-AirをベースにしたZhipu AIの最新VLMで、106B総パラメータ12BアクティブのMoEアーキテクチャを採用し、低コストで高性能を実現しています。GLM-4.1V-Thinkingの系譜を継承し、3D-RoPEにより3D空間推論を強化。事前学習、SFT、RLを通じて最適化され、画像、動画、長文文書を処理可能。41の公開マルチモーダルベンチマークでトップクラスの評価を獲得。Thinkingモードの切り替えにより、速度と深さのバランスを調整可能です。",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "ノードを更新",
"builtins.lobe-page-agent.apiName.wrapNodes": "ノードをラップ",
"builtins.lobe-page-agent.title": "ドキュメント",
"builtins.lobe-skill-store.apiName.importFromMarket": "マーケットからインポート",
"builtins.lobe-skill-store.apiName.importSkill": "スキルをインポート",
"builtins.lobe-skill-store.apiName.searchSkill": "スキルを検索",
"builtins.lobe-skill-store.title": "スキルストア",
"builtins.lobe-skills.apiName.execScript": "スクリプトを実行",
"builtins.lobe-skills.apiName.exportFile": "ファイルをエクスポート",
"builtins.lobe-skills.apiName.importFromMarket": "マーケットからインポート",
"builtins.lobe-skills.apiName.importSkill": "スキルをインポート",
"builtins.lobe-skills.apiName.readReference": "リファレンスを読む",
"builtins.lobe-skills.apiName.runSkill": "スキルをアクティブ化",
"builtins.lobe-skills.apiName.searchSkill": "スキルを検索",
"builtins.lobe-skills.title": "スキル",
"builtins.lobe-tools.apiName.activateTools": "ツールをアクティブ化",
"builtins.lobe-user-memory.apiName.addContextMemory": "コンテキスト記憶を追加",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "経験記憶を追加",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "アイデンティティ記憶を追加",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "ウェブ検索",
"confirm": "確定",
"debug.arguments": "呼び出しパラメータ",
"debug.error": "エラーログ",
"debug.function_call": "関数呼び出し",
"debug.intervention": "スキル介入",
"debug.off": "デバッグをオフにする",
@ -321,8 +335,8 @@
"dev.saveSuccess": "スキル設定が正常に保存されました",
"dev.tabs.manifest": "機能記述リスト (Manifest)",
"dev.tabs.meta": "スキルメタ情報",
"dev.title.create": "カスタムスキルを追加",
"dev.title.edit": "カスタムスキルを編集",
"dev.title.create": "カスタムMCPスキルを追加",
"dev.title.edit": "カスタムMCPスキルを編集",
"dev.title.editCommunity": "コミュニティスキルを編集",
"dev.title.skillDetails": "スキルの詳細",
"dev.title.skillSettings": "スキル設定",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloudは、強力なオープンソースモデルを基盤とした、コスト効率の高い生成AIクラウドサービスです。",
"spark.description": "iFLYTEK Sparkは、スマートハードウェア、医療、金融などの分野で革新を可能にする、強力な多言語AIを提供します。",
"stepfun.description": "Stepfunのモデルは、マルチモーダル処理と複雑な推論に優れ、長文コンテキスト理解や自律的な検索オーケストレーションに対応します。",
"straico.description": "Straicoは、テキスト、画像、音声の生成AIモデルを統合したワークスペースを提供することで、AIの統合を簡素化します。これにより、マーケター、起業家、そして愛好家が多様なAIツールにシームレスにアクセスできるようになります。",
"taichu.description": "Taichuは、CASIAと武漢AI研究所が開発した次世代マルチモーダルモデルで、マルチターンQA、文章生成、画像生成、3D理解、信号解析などに対応し、認知力と創造性を強化しています。",
"tencentcloud.description": "LLM Knowledge Engine Atomic Powerは、企業や開発者向けに、文書解析、分割、埋め込み、多ターンリライトなどのモジュール型サービスを通じて、カスタムAIソリューションを構築できるエンドツーエンドの知識QAを提供します。",
"togetherai.description": "Together AIは、革新的なモデル、高度なカスタマイズ、迅速なスケーリング、シンプルな導入により、企業ニーズに応える高性能AIを提供します。",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "ロール設定",
"agentInfoDescription.value.unset": "未設定",
"agentInfoDescription.value.untitled": "無題のアシスタント",
"agentSkillDetail.addedAt": "追加日",
"agentSkillDetail.publishedAt": "公開日",
"agentSkillDetail.repository": "GitHubリポジトリ",
"agentSkillDetail.skillContent": "スキル内容",
"agentSkillDetail.sourceUrl": "スキルインポート元",
"agentSkillDetail.updatedAt": "更新日",
"agentSkillEdit.descriptionDesc": "スキルの概要を簡潔に説明し、エージェントが使用するタイミングを理解できるようにします",
"agentSkillEdit.fileReadonly": "このファイルは読み取り専用です。スキルの説明と指示のみ編集可能です。",
"agentSkillEdit.instructions": "指示",
"agentSkillEdit.instructionsDesc": "スキルの動作とワークフローを定義するMarkdown形式の基本指示",
"agentSkillEdit.instructionsPlaceholder": "Markdown形式でスキルの指示を入力してください...",
"agentSkillEdit.nameDesc": "このスキルの一意の識別子。作成後は編集できません。",
"agentSkillEdit.saveSuccess": "スキルが正常に更新されました",
"agentSkillEdit.title": "スキル設定",
"agentSkillItem.deleteConfirm.desc": "エージェントスキル「{{name}}」を削除してもよろしいですか?この操作は元に戻せません。",
"agentSkillItem.deleteConfirm.title": "エージェントスキルの削除",
"agentSkillModal.content": "スキル内容",
"agentSkillModal.contentPlaceholder": "Markdown形式でスキル内容を入力してください...",
"agentSkillModal.description": "説明",
"agentSkillModal.descriptionPlaceholder": "このスキルを簡潔に説明してください",
"agentSkillModal.github.desc": "公開GitHubリポジトリから直接スキルをインポートします。",
"agentSkillModal.github.title": "GitHubからインポート",
"agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo",
"agentSkillModal.importError": "インポートに失敗しました: {{error}}",
"agentSkillModal.importSuccess": "エージェントスキルが正常にインポートされました",
"agentSkillModal.upload.desc": "ローカルの.zipまたは.skillファイルをアップロードしてインストールします。",
"agentSkillModal.upload.dragText": "ドラッグ&ドロップまたはクリックしてアップロード",
"agentSkillModal.upload.requirementSkillMd": "SKILL.mdにはYAML形式でスキル名と説明が含まれています",
"agentSkillModal.upload.requirementZip": "SKILL.mdがルートディレクトリに含まれる.zipまたは.skillファイル",
"agentSkillModal.upload.requirements": "ファイル要件",
"agentSkillModal.upload.title": "スキルをアップロード",
"agentSkillModal.upload.uploading": "アップロード中...",
"agentSkillModal.url.desc": "SKILL.mdファイルへの直接リンクを提供してスキルをインポートします。",
"agentSkillModal.url.title": "URLからインポート",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "エージェントスキル",
"agentTab.chat": "チャット設定",
"agentTab.meta": "メタ情報",
"agentTab.modal": "モーダル設定",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "翻訳に使用するモデルを指定します",
"systemAgent.translation.title": "メッセージ内容翻訳アシスタント",
"tab.about": "について",
"tab.addAgentSkill": "エージェントスキルを追加",
"tab.addCustomMcp": "カスタムMCPスキルを追加",
"tab.addCustomMcp.desc": "カスタムMCPサーバーを手動で設定",
"tab.addCustomSkill": "カスタムスキルを追加",
"tab.agent": "デフォルトアシスタント",
"tab.all": "すべて",
@ -652,7 +691,13 @@
"tab.experiment": "実験",
"tab.hotkey": "ショートカットキー",
"tab.image": "画像生成サービス",
"tab.importFromGithub": "GitHubからインポート",
"tab.importFromGithub.desc": "公開GitHubリポジトリからインポート",
"tab.importFromUrl": "URLからインポート",
"tab.importFromUrl.desc": "SKILL.mdへの直接リンクを介してインポート",
"tab.llm": "言語モデル",
"tab.manualFill": "手動入力",
"tab.manualFill.desc": "カスタムMCPスキルを手動で設定",
"tab.memory": "記憶設定",
"tab.profile": "マイアカウント",
"tab.provider": "AIサービスプロバイダー",
@ -669,6 +714,8 @@
"tab.sync": "クラウド同期",
"tab.systemTools": "システムツール",
"tab.tts": "音声サービス",
"tab.uploadZip": "Zipをアップロード",
"tab.uploadZip.desc": "ローカルの.zipまたは.skillファイルをアップロード",
"tab.usage": "使用状況",
"tools.add": "スキルを統合",
"tools.builtins.groupName": "組み込み",

View file

@ -256,11 +256,6 @@
"footer.star.title": "GitHub에서 별표 추가",
"footer.title": "제품이 마음에 드시나요?",
"fullscreen": "전체 화면 모드",
"geminiImageChineseWarning.content": "Nano Banana는 중국어 입력 시 이미지 생성 실패 확률이 있습니다. 더 나은 결과를 위해 영어 사용을 권장합니다",
"geminiImageChineseWarning.continueGenerate": "계속 생성",
"geminiImageChineseWarning.continueSend": "계속 전송",
"geminiImageChineseWarning.doNotShowAgain": "다시 표시하지 않기",
"geminiImageChineseWarning.title": "중국어 입력 알림",
"historyRange": "기록 범위",
"home.suggestQuestions": "이런 예시를 시도해 보세요",
"import": "가져오기",
@ -397,6 +392,7 @@
"tab.chat": "채팅",
"tab.community": "커뮤니티",
"tab.discover": "탐색",
"tab.eval": "평가 연구소",
"tab.files": "파일",
"tab.home": "홈",
"tab.knowledgeBase": "자료실",

316
locales/ko-KR/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "벤치마크 삭제",
"benchmark.actions.delete.confirm": "이 벤치마크를 삭제하시겠습니까? 관련된 데이터셋과 평가 기록도 삭제됩니다.",
"benchmark.actions.edit": "벤치마크 편집",
"benchmark.actions.export": "내보내기",
"benchmark.card.bestScore": "최고 점수",
"benchmark.card.caseCount": "{{count}} 사례",
"benchmark.card.datasetCount": "{{count}} 데이터셋",
"benchmark.card.empty": "아직 평가가 없습니다",
"benchmark.card.emptyHint": "벤치마크 세부 페이지에서 새 평가를 생성하세요",
"benchmark.card.importDataset": "데이터셋 가져오기",
"benchmark.card.noDataset": "아직 데이터셋이 없습니다",
"benchmark.card.noDatasetHint": "평가를 시작하려면 데이터셋을 가져오세요",
"benchmark.card.noRecentRuns": "표시할 최근 평가가 없습니다",
"benchmark.card.recentRuns": "최근 평가",
"benchmark.card.runCount": "{{count}} 평가",
"benchmark.card.startFirst": "첫 평가 시작",
"benchmark.card.viewAll": "모두 보기 {{count}}",
"benchmark.create.confirm": "생성",
"benchmark.create.description.label": "설명",
"benchmark.create.description.placeholder": "벤치마크 설명 (선택 사항)",
"benchmark.create.error": "벤치마크 생성 실패",
"benchmark.create.identifier.label": "식별자",
"benchmark.create.identifier.placeholder": "벤치마크-식별자",
"benchmark.create.identifierRequired": "식별자를 입력하세요",
"benchmark.create.name.label": "이름",
"benchmark.create.name.placeholder": "벤치마크 이름 입력",
"benchmark.create.nameRequired": "벤치마크 이름을 입력하세요",
"benchmark.create.success": "벤치마크가 성공적으로 생성되었습니다",
"benchmark.create.tags.label": "태그",
"benchmark.create.tags.placeholder": "태그 추가, 쉼표 또는 공백으로 구분",
"benchmark.create.title": "벤치마크 생성",
"benchmark.detail.backToOverview": "개요로 돌아가기",
"benchmark.detail.datasetCount": "이 벤치마크에 {{count}} 데이터셋",
"benchmark.detail.runCount": "이 벤치마크에서 {{count}} 평가 실행",
"benchmark.detail.stats.addFirstDataset": "첫 데이터셋 추가를 클릭하세요",
"benchmark.detail.stats.avgCost": "평균 비용",
"benchmark.detail.stats.avgDuration": "평균 지속 시간",
"benchmark.detail.stats.basedOnLastNRuns": "최근 {{count}} 실행 기준",
"benchmark.detail.stats.bestPerformance": "{{agent}}가 {{passRate}}% 통과율로 최고의 성과를 기록했습니다",
"benchmark.detail.stats.bestScore": "최고 점수",
"benchmark.detail.stats.cases": "사례",
"benchmark.detail.stats.dataScale": "데이터 규모",
"benchmark.detail.stats.datasets": "데이터셋",
"benchmark.detail.stats.needSetup": "설정 필요",
"benchmark.detail.stats.noEvalRecord": "아직 평가 기록이 없습니다",
"benchmark.detail.stats.perRun": "/ 실행",
"benchmark.detail.stats.runs": "실행",
"benchmark.detail.stats.tags": "태그",
"benchmark.detail.stats.topAgents": "최고 에이전트",
"benchmark.detail.stats.totalCases": "총 사례",
"benchmark.detail.stats.waiting": "대기 중...",
"benchmark.detail.tabs.data": "데이터",
"benchmark.detail.tabs.datasets": "데이터셋",
"benchmark.detail.tabs.runs": "실행",
"benchmark.edit.confirm": "저장",
"benchmark.edit.error": "벤치마크 업데이트 실패",
"benchmark.edit.success": "벤치마크가 성공적으로 업데이트되었습니다",
"benchmark.edit.title": "벤치마크 편집",
"benchmark.empty": "아직 벤치마크가 없습니다. 시작하려면 하나를 생성하세요.",
"caseDetail.actual": "실제 출력",
"caseDetail.chatArea.title": "대화",
"caseDetail.completionReason": "상태",
"caseDetail.cost": "비용",
"caseDetail.difficulty": "난이도",
"caseDetail.duration": "지속 시간",
"caseDetail.expected": "예상 출력",
"caseDetail.failureReason": "실패 이유",
"caseDetail.input": "입력",
"caseDetail.judgeComment": "심사 의견",
"caseDetail.resources": "자원",
"caseDetail.score": "점수",
"caseDetail.section.runtime": "실행 시간",
"caseDetail.section.scoring": "점수 세부 정보",
"caseDetail.section.testCase": "테스트 사례",
"caseDetail.steps": "단계",
"caseDetail.threads.attempt": "경로 #{{number}}",
"caseDetail.tokens": "토큰 사용량",
"common.cancel": "취소",
"common.create": "생성",
"common.delete": "삭제",
"common.edit": "편집",
"common.later": "나중에",
"common.next": "다음",
"common.update": "업데이트",
"dataset.actions.addDataset": "데이터셋 추가",
"dataset.actions.import": "데이터 가져오기",
"dataset.actions.importDataset": "데이터셋 가져오기",
"dataset.create.description.label": "설명",
"dataset.create.description.placeholder": "데이터셋 설명 (선택 사항)",
"dataset.create.error": "데이터셋 생성 실패",
"dataset.create.identifier.label": "식별자",
"dataset.create.identifier.placeholder": "데이터셋-식별자",
"dataset.create.identifierRequired": "식별자를 입력하세요",
"dataset.create.importNow": "지금 데이터를 가져오시겠습니까?",
"dataset.create.name.label": "데이터셋 이름",
"dataset.create.name.placeholder": "데이터셋 이름 입력",
"dataset.create.nameRequired": "데이터셋 이름을 입력하세요",
"dataset.create.preset.label": "데이터셋 프리셋",
"dataset.create.success": "데이터셋이 성공적으로 생성되었습니다",
"dataset.create.successTitle": "데이터셋 생성됨",
"dataset.create.title": "데이터셋 생성",
"dataset.delete.confirm": "이 데이터셋을 삭제하시겠습니까? 포함된 모든 테스트 사례도 삭제됩니다.",
"dataset.delete.error": "데이터셋 삭제 실패",
"dataset.delete.success": "데이터셋이 성공적으로 삭제되었습니다",
"dataset.detail.addRun": "새 실행",
"dataset.detail.backToBenchmark": "벤치마크로 돌아가기",
"dataset.detail.caseCount": "{{count}} 테스트 사례",
"dataset.detail.relatedRuns": "관련 실행 ({{count}})",
"dataset.detail.testCases": "테스트 사례",
"dataset.detail.viewDetail": "세부 정보 보기",
"dataset.edit.error": "데이터셋 업데이트 실패",
"dataset.edit.success": "데이터셋이 성공적으로 업데이트되었습니다",
"dataset.edit.title": "데이터셋 편집",
"dataset.empty": "데이터셋 없음",
"dataset.empty.description": "이 벤치마크를 구축하려면 데이터셋을 가져오세요",
"dataset.empty.title": "아직 데이터셋이 없습니다",
"dataset.evalMode.hint": "데이터셋의 기본 평가 모드로, 테스트 사례 수준에서 재정의할 수 있습니다",
"dataset.import.category": "카테고리",
"dataset.import.categoryDesc": "그룹화를 위한 분류 레이블",
"dataset.import.choices": "선택지",
"dataset.import.choicesDesc": "다중 선택 옵션",
"dataset.import.confirm": "가져오기",
"dataset.import.error": "데이터셋 가져오기 실패",
"dataset.import.expected": "예상 답변",
"dataset.import.expectedDelimiter": "답변 구분자",
"dataset.import.expectedDelimiter.desc": "답변 구분자",
"dataset.import.expectedDelimiter.placeholder": "예: | 또는 ,",
"dataset.import.expectedDesc": "비교할 정답",
"dataset.import.fieldMapping": "필드 매핑",
"dataset.import.fieldMapping.desc": "\"입력\" 열은 필수입니다",
"dataset.import.hideSkipped": "건너뛴 열 숨기기",
"dataset.import.ignore": "건너뛰기",
"dataset.import.ignoreDesc": "이 열을 가져오지 않음",
"dataset.import.input": "입력",
"dataset.import.inputDesc": "모델에 보낼 질문 또는 프롬프트",
"dataset.import.metadata": "메타데이터",
"dataset.import.metadataDesc": "추가 정보, 그대로 저장됨",
"dataset.import.next": "다음",
"dataset.import.parseError": "파일 구문 분석 실패",
"dataset.import.parsing": "파일 구문 분석 중...",
"dataset.import.prev": "이전",
"dataset.import.preview": "데이터 미리보기",
"dataset.import.preview.desc": "매핑이 올바른지 확인한 후 가져오세요.",
"dataset.import.preview.rows": "총 {{count}} 행",
"dataset.import.sortOrder": "항목 번호",
"dataset.import.sortOrderDesc": "참조용 질문/항목 ID",
"dataset.import.step.mapping": "필드 매핑",
"dataset.import.step.preview": "미리보기",
"dataset.import.step.upload": "파일 업로드",
"dataset.import.success": "{{count}} 테스트 사례가 성공적으로 가져왔습니다",
"dataset.import.title": "데이터셋 가져오기",
"dataset.import.upload.hint": "CSV, XLSX, JSON, JSONL 지원",
"dataset.import.upload.text": "업로드하려면 파일을 클릭하거나 드래그하세요",
"dataset.import.uploading": "업로드 중...",
"dataset.switchDataset": "데이터셋 전환",
"difficulty.easy": "쉬움",
"difficulty.hard": "어려움",
"difficulty.medium": "보통",
"evalMode.contains": "포함 일치",
"evalMode.contains.desc": "출력에 예상 텍스트가 포함되어야 합니다",
"evalMode.equals": "정확히 일치",
"evalMode.equals.desc": "출력이 예상과 정확히 동일해야 합니다",
"evalMode.label": "평가 모드",
"evalMode.llm-rubric": "LLM 심사",
"evalMode.llm-rubric.desc": "LLM을 사용하여 출력 품질 평가",
"evalMode.placeholder": "평가 모드 선택",
"evalMode.prompt.label": "심사 프롬프트",
"evalMode.prompt.placeholder": "LLM 심사를 위한 평가 기준 또는 프롬프트 입력",
"evalMode.rubric": "루브릭 점수",
"evalMode.rubric.desc": "가중 기준이 있는 벤치마크 루브릭으로 출력 점수 매기기",
"overview.createBenchmark": "벤치마크 생성",
"overview.importDataset": "데이터셋 가져오기",
"overview.subtitle": "데이터셋 전반에 걸쳐 AI 에이전트를 벤치마크하고 평가하세요",
"overview.title": "평가 연구소",
"run.actions.abort": "중단",
"run.actions.abort.confirm": "이 평가를 중단하시겠습니까?",
"run.actions.create": "새 평가",
"run.actions.delete": "삭제",
"run.actions.delete.confirm": "이 평가를 삭제하시겠습니까?",
"run.actions.edit": "편집",
"run.actions.retryCase": "재시도",
"run.actions.retryErrors": "오류 재시도",
"run.actions.retryErrors.confirm": "이 작업은 모든 오류 및 시간 초과 사례를 다시 실행합니다. 통과 및 실패 사례는 영향을 받지 않습니다.",
"run.actions.run": "실행",
"run.actions.start": "시작",
"run.actions.start.confirm": "이 평가를 시작하시겠습니까?",
"run.chart.duration": "지속 시간 (초)",
"run.chart.error": "오류",
"run.chart.fail": "실패",
"run.chart.latencyDistribution": "지연 분포",
"run.chart.latencyTokenDistribution": "지연 / 토큰 분포",
"run.chart.pass": "통과",
"run.chart.passFailError": "통과 / 실패 / 오류",
"run.chart.tokens": "토큰",
"run.config.agentId": "에이전트",
"run.config.concurrency": "동시성",
"run.config.judgeModel": "심사 모델",
"run.config.k": "실행 횟수 (K)",
"run.config.k.hint": "각 테스트 사례를 {{k}}번 실행하여 pass@{{k}}/pass^{{k}} 메트릭 계산",
"run.config.maxSteps": "최대 단계",
"run.config.maxSteps.hint": "에이전트의 각 LLM 호출 또는 도구 호출은 1단계로 계산됩니다",
"run.config.model": "모델",
"run.config.temperature": "온도",
"run.config.timeout": "시간 초과",
"run.config.timeout.unit": "분",
"run.create.advanced": "고급 설정",
"run.create.agent": "에이전트",
"run.create.agent.placeholder": "에이전트를 선택하세요",
"run.create.agent.required": "에이전트를 선택하세요",
"run.create.caseCount": "{{count}} 사례",
"run.create.confirm": "생성 및 시작",
"run.create.createOnly": "생성",
"run.create.dataset": "데이터셋",
"run.create.dataset.placeholder": "데이터셋을 선택하세요",
"run.create.dataset.required": "데이터셋을 선택하세요",
"run.create.name": "실행 이름",
"run.create.name.placeholder": "이 실행의 이름을 입력하세요",
"run.create.name.required": "실행 이름을 입력하세요",
"run.create.name.useTimestamp": "현재 시간을 이름으로 사용",
"run.create.openAgent": "새 창에서 에이전트 열기",
"run.create.title": "새 평가",
"run.create.titleWithDataset": "\"{{dataset}}\"에서 새 평가",
"run.detail.agent": "에이전트",
"run.detail.agent.none": "지정되지 않음",
"run.detail.agent.unnamed": "이름 없는 에이전트",
"run.detail.backToBenchmark": "벤치마크로 돌아가기",
"run.detail.caseResults": "평가 세부 정보",
"run.detail.config": "평가 구성",
"run.detail.configSnapshot": "구성 스냅샷",
"run.detail.dataset": "데이터셋",
"run.detail.model": "모델",
"run.detail.overview": "개요",
"run.detail.progress": "진행 상황",
"run.detail.progressCases": "사례",
"run.detail.report": "평가 요약",
"run.edit.error": "평가 업데이트 실패",
"run.edit.success": "평가가 성공적으로 업데이트되었습니다",
"run.edit.title": "평가 편집",
"run.empty.description": "이 데이터셋에서 첫 평가 실행을 시작하세요",
"run.empty.descriptionBenchmark": "이 벤치마크에서 첫 평가 실행을 시작하세요",
"run.empty.title": "아직 실행이 없습니다",
"run.filter.active": "활성",
"run.filter.empty": "현재 필터와 일치하는 실행이 없습니다.",
"run.idle.hint": "시작을 클릭하여 평가를 시작하세요",
"run.metrics.avgScore": "평균 점수",
"run.metrics.cost": "비용",
"run.metrics.duration": "지속 시간",
"run.metrics.errorCases": "오류",
"run.metrics.evaluated": "{{count}} 평가됨",
"run.metrics.passRate": "통과율",
"run.metrics.perCase": "/ 사례",
"run.metrics.tokens": "토큰",
"run.metrics.totalDuration": "누적",
"run.pending.hint": "평가가 대기 중이며, 시작을 기다리고 있습니다...",
"run.running.hint": "평가가 실행 중이며, 결과가 곧 표시됩니다...",
"run.status.aborted": "중단됨",
"run.status.completed": "완료됨",
"run.status.error": "실행 오류",
"run.status.failed": "실패",
"run.status.idle": "대기 중",
"run.status.pending": "대기 중",
"run.status.running": "실행 중",
"run.status.timeout": "시간 초과",
"sidebar.benchmarks": "벤치마크",
"sidebar.dashboard": "대시보드",
"sidebar.datasets": "데이터셋",
"sidebar.runs": "실행",
"table.columns.avgCost": "평균 비용",
"table.columns.category": "카테고리",
"table.columns.cost": "비용",
"table.columns.difficulty": "난이도",
"table.columns.duration": "지속 시간",
"table.columns.evalMode": "평가 모드",
"table.columns.expected": "예상 답변",
"table.columns.input": "입력",
"table.columns.score": "점수",
"table.columns.status": "상태",
"table.columns.steps": "단계",
"table.columns.tags": "태그",
"table.columns.tokens": "토큰",
"table.columns.totalCost": "총 비용",
"table.filter.all": "모두",
"table.filter.error": "실행 오류",
"table.filter.failed": "실패",
"table.filter.passed": "통과",
"table.filter.running": "실행 중",
"table.search.placeholder": "사례 검색...",
"table.total": "총 {{count}}",
"testCase.actions.add": "테스트 사례 추가",
"testCase.actions.import": "테스트 사례 가져오기",
"testCase.create.advanced": "추가 옵션",
"testCase.create.difficulty.label": "난이도",
"testCase.create.error": "테스트 사례 추가 실패",
"testCase.create.expected.label": "예상 출력",
"testCase.create.expected.placeholder": "예상 답변 입력",
"testCase.create.expected.required": "예상 출력을 입력하세요",
"testCase.create.input.label": "입력",
"testCase.create.input.placeholder": "테스트 사례 입력 또는 질문 입력",
"testCase.create.success": "테스트 사례가 성공적으로 추가되었습니다",
"testCase.create.tags.label": "태그",
"testCase.create.tags.placeholder": "쉼표로 구분된 태그 (선택 사항)",
"testCase.create.title": "테스트 사례 추가",
"testCase.delete.confirm": "이 테스트 사례를 삭제하시겠습니까?",
"testCase.delete.error": "테스트 사례 삭제 실패",
"testCase.delete.success": "테스트 사례가 삭제되었습니다",
"testCase.edit.error": "테스트 사례 업데이트 실패",
"testCase.edit.success": "테스트 사례가 성공적으로 업데이트되었습니다",
"testCase.edit.title": "테스트 사례 편집",
"testCase.empty.description": "이 데이터셋에 테스트 사례를 가져오거나 수동으로 추가하세요",
"testCase.empty.title": "아직 테스트 사례가 없습니다",
"testCase.preview.expected": "예상",
"testCase.preview.input": "입력",
"testCase.preview.title": "테스트 사례 미리보기",
"testCase.search.placeholder": "사례 검색..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "심층 연구",
"starter.developing": "개발 중",
"starter.image": "그림 그리기",
"starter.nanoBanana2": "🍌 나노 바나나 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "글쓰기"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini 시리즈용; 사고 예산을 제어합니다.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Preview 모델용; 사고의 깊이를 제어합니다.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Preview 모델용; 사고의 깊이를 제어합니다.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Gemini 3.1 Pro Preview 모델용; 낮음/중간/높음 수준으로 사고 깊이를 조절합니다.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini 시리즈용; URL 컨텍스트 제공을 지원합니다.",
"providerModels.item.modelConfig.extendParams.placeholder": "활성화할 확장 매개변수를 선택하세요",
"providerModels.item.modelConfig.extendParams.previewFallback": "미리보기를 사용할 수 없습니다",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo는 뛰어난 의미 이해 및 생성 효율성을 바탕으로 강력한 연산 및 대화 기능을 제공하며, 기업 및 개발자에게 이상적인 선택입니다.",
"360gpt2-o1.description": "360gpt2-o1은 트리 탐색 기반의 사고 사슬(chain-of-thought)을 구축하고 반성(reflection) 메커니즘과 강화학습을 통해 자기 반성과 자기 수정이 가능한 모델입니다.",
"360gpt2-pro.description": "360GPT2 Pro는 창의적 작업에 특히 강한 고급 NLP 모델로, 복잡한 변환 및 역할극을 처리하며 뛰어난 텍스트 생성 및 이해 능력을 갖추고 있습니다.",
"360zhinao2-o1.5.description": "360 Zhinao의 가장 강력한 추론 모델로, 최고의 성능을 자랑하며 도구 호출과 고급 추론을 지원합니다.",
"360zhinao2-o1.description": "360zhinao2-o1은 트리 탐색 기반의 사고 사슬을 구축하고 반성 메커니즘과 강화학습을 통해 자기 반성과 자기 수정이 가능한 모델입니다.",
"360zhinao3-o1.5.description": "360 Zhinao 차세대 추론 모델입니다.",
"4.0Ultra.description": "Spark Ultra는 Spark 시리즈 중 가장 강력한 모델로, 텍스트 이해 및 요약 능력을 향상시키고 웹 검색 기능을 업그레이드하였습니다. 업무 생산성과 정확한 응답을 높이는 종합 솔루션으로, 지능형 제품의 선두주자로 자리매김하고 있습니다.",
"AnimeSharp.description": "AnimeSharp(구 \"4x-AnimeSharp\")는 Kim2091이 개발한 ESRGAN 기반의 오픈소스 초해상도 모델로, 애니메이션 스타일 이미지의 확대 및 선명화에 중점을 둡니다. 원래는 텍스트 이미지에도 사용되었으나, 2022년 2월부터 애니메이션 콘텐츠에 최적화되어 이름이 변경되었습니다.",
"Baichuan2-Turbo.description": "검색 보강(Search Augmentation)을 통해 모델을 도메인 및 웹 지식과 연결하며, PDF/Word 업로드 및 URL 입력을 지원하여 시의적절하고 전문적이며 정확한 결과를 제공합니다.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision은 언어, 텍스트, 비전 벤치마크에서 강력한 성능을 보이는 최첨단 멀티모달 모델입니다. 이 8B 버전은 낮은 지연 시간과 강력한 성능에 중점을 둡니다.",
"charglm-3.description": "CharGLM-3는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.",
"charglm-4.description": "CharGLM-4는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.",
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.",
"chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 강력한 언어 이해와 생성 능력을 결합하여 고객 지원, 교육, 기술 지원과 같은 대규모 사용 사례에 적합합니다.",
"claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B)은 심층 언어 이해와 상호작용을 제공하는 혁신적인 모델입니다.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.",
"deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 이룹니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1은 DeepSeek의 새로운 하이브리드 추론 모델로, 사고 및 비사고 모드를 모두 지원하며 DeepSeek-R1-0528보다 높은 사고 효율을 제공합니다. 사후 학습 최적화를 통해 에이전트 도구 사용 및 작업 성능이 크게 향상되었으며, 128k 문맥 창과 최대 64k 출력 토큰을 지원합니다.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp는 희소 어텐션을 도입하여 장문 텍스트의 학습 및 추론 효율을 향상시키며, deepseek-v3.1보다 저렴한 비용으로 제공됩니다.",
"deepseek-v3.2-speciale.description": "매우 복잡한 작업에서 Speciale 모델은 표준 버전보다 훨씬 뛰어난 성능을 발휘하지만, 상당히 많은 토큰을 소비하며 비용이 높습니다. 현재 DeepSeek-V3.2-Speciale는 연구용으로만 사용되며, 도구 호출을 지원하지 않으며 일상적인 대화나 작성 작업에 최적화되지 않았습니다.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think는 더욱 강력한 장기 연쇄 추론을 지원하는 완전한 심층 사고 모델입니다.",
"deepseek-v3.2.description": "DeepSeek-V3.2는 DeepSeek의 첫 번째 하이브리드 추론 모델로, 사고 과정을 도구 사용에 통합합니다. 효율적인 아키텍처로 연산을 절감하고, 대규모 강화 학습으로 능력을 향상시키며, 대규모 합성 작업 데이터를 통해 일반화 능력을 강화합니다. 이 세 가지 요소의 결합으로 GPT-5-High에 필적하는 성능을 달성하면서 출력 길이를 크게 줄여 연산 부담과 사용자 대기 시간을 현저히 감소시킵니다.",
"deepseek-v3.description": "DeepSeek-V3는 총 671B 파라미터 중 토큰당 37B가 활성화되는 강력한 MoE 모델입니다.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다. 128k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.",
"doubao-lite-128k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 128k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
"doubao-lite-32k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
"doubao-lite-4k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 4k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
"doubao-pro-256k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 256k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
"doubao-pro-32k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash는 TPOT가 10ms에 불과한 초고속 멀티모달 심층 추론 모델입니다. 텍스트와 비전을 모두 지원하며, 텍스트 이해는 이전 lite 모델을 능가하고, 비전 성능은 경쟁 pro 모델과 동등합니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite는 추론 강도를 조절할 수 있는 새로운 멀티모달 심층 추론 모델로, 일반 작업에 적합한 뛰어난 가성비를 제공합니다. 최대 256k 컨텍스트 윈도우를 지원합니다.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed의 Doubao 이미지 모델은 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 기반 이미지 편집을 지원하며, 출력 크기는 긴 변 기준 512~1536 사이입니다.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.",
"doubao-vision-lite-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.",
"doubao-vision-pro-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5는 ByteDance의 최신 멀티모달 이미지 모델로, 텍스트-이미지, 이미지-이미지, 배치 이미지 생성 기능을 통합하며 상식과 추론 능력을 포함합니다. 이전 4.0 버전에 비해 생성 품질이 크게 향상되었으며, 편집 일관성과 다중 이미지 융합이 개선되었습니다. 시각적 세부 사항에 대한 더 정밀한 제어를 제공하며, 작은 텍스트와 작은 얼굴을 더 자연스럽게 생성하고 레이아웃과 색상이 더 조화롭게 되어 전체적인 미학을 향상시킵니다.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite는 ByteDance의 최신 이미지 생성 모델로, 처음으로 온라인 검색 기능을 통합하여 실시간 웹 정보를 포함하고 생성된 이미지의 시의성을 향상시킵니다. 모델의 지능도 업그레이드되어 복잡한 지시와 시각적 콘텐츠를 정확히 해석할 수 있습니다. 또한 전문적인 시나리오에서 글로벌 지식 범위, 참조 일관성, 생성 품질이 개선되어 기업 수준의 시각적 창작 요구를 더 잘 충족시킵니다.",
"emohaa.description": "Emohaa는 전문 상담 능력을 갖춘 정신 건강 모델로, 사용자가 감정 문제를 이해하도록 돕습니다.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B는 로컬 및 맞춤형 배포를 위한 오픈소스 경량 모델입니다.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking은 총 21B 파라미터와 3B 활성 파라미터를 가진 텍스트 MoE(Mixture-of-Experts) 후속 학습 모델로, 추론 품질과 깊이가 크게 향상되었습니다.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B는 더 강력한 이해 및 생성 능력을 갖춘 오픈소스 대규모 파라미터 모델입니다.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B는 Baidu ERNIE의 초대형 MoE 모델로, 뛰어난 추론 능력을 자랑합니다.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview는 ERNIE 4.5의 8K 컨텍스트 프리뷰 모델로, 평가용으로 사용됩니다.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K는 지연 시간과 비용에 민감한 시나리오에 적합한 고성능 경량 모델입니다.",
"ernie-novel-8k.description": "ERNIE Novel 8K는 다수의 캐릭터가 등장하는 장편 소설 및 IP 스토리 창작을 위해 설계되었습니다.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K는 대규모 온라인 서비스 및 기업용 애플리케이션을 위한 고동시성, 고가치 모델입니다.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview는 복잡한 추론과 다중 턴 대화를 위한 빠른 사고 모델입니다.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.",
"fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed 팀이 개발한 Seedream 4.5는 다중 이미지 편집 및 합성을 지원하며, 피사체 일관성 향상, 정밀한 지시 수행, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인 등 고정밀 텍스트-이미지 렌더링 기능을 갖추고 있습니다.",
"fal-ai/bytedance/seedream/v4.description": "ByteDance Seed가 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.",
"fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite의 2025년 9월 25일자 프리뷰 릴리스입니다.",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
"gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.",
"gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.",
"gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로급 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로급 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.",
"gemini-flash-latest.description": "Gemini Flash 최신 버전",
"gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전",
"gemini-pro-latest.description": "Gemini Pro 최신 버전",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.",
"glm-4v-plus.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.",
"glm-4v.description": "GLM-4V는 시각 작업 전반에 걸쳐 강력한 이미지 이해 및 추론 능력을 제공합니다.",
"glm-5.description": "Z.ai에서 개발한 강력한 추론 및 에이전트 모델로, 744B 총 파라미터(40B 활성)를 갖추고 복잡한 시스템 엔지니어링과 장기 작업을 위해 설계되었습니다.",
"glm-5.description": "GLM 시리즈는 Zhipu AI의 하이브리드 추론 모델로, 사고 및 비사고 모드를 제공합니다.",
"glm-z1-air.description": "깊은 추론이 필요한 작업에 적합한 강력한 추론 모델입니다.",
"glm-z1-airx.description": "고품질 추론을 제공하는 초고속 추론 모델입니다.",
"glm-z1-flash.description": "GLM-Z1 시리즈는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Grok 4 Fast는 비용 효율적인 추론 모델 분야에서의 최신 성과로, 출시를 기쁘게 생각합니다.",
"grok-4.description": "최신이자 가장 강력한 플래그십 모델로, 자연어 처리, 수학, 추론에서 뛰어난 성능을 발휘하는 이상적인 범용 모델입니다.",
"grok-code-fast-1.description": "에이전트 기반 코딩에 특화된 빠르고 비용 효율적인 추론 모델 grok-code-fast-1을 출시하게 되어 기쁩니다.",
"grok-imagine-image-pro.description": "텍스트 프롬프트에서 이미지를 생성하거나 자연어로 기존 이미지를 편집하거나 다중 턴 대화를 통해 이미지를 반복적으로 개선합니다.",
"grok-imagine-image.description": "텍스트 프롬프트에서 이미지를 생성하거나 자연어로 기존 이미지를 편집하거나 다중 턴 대화를 통해 이미지를 반복적으로 개선합니다.",
"groq/compound-mini.description": "Compound-mini는 GroqCloud에서 지원하는 공개 모델 기반의 복합 AI 시스템으로, 사용자 질문에 지능적으로 도구를 선택해 응답합니다.",
"groq/compound.description": "Compound는 GroqCloud에서 지원하는 여러 공개 모델 기반의 복합 AI 시스템으로, 사용자 질문에 지능적으로 도구를 선택해 응답합니다.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B는 여러 최상위 모델을 결합한 창의적이고 지능적인 언어 모델입니다.",
"hunyuan-2.0-instruct-20251111.description": "릴리스 특징: 모델 기반이 TurboS에서 **Hunyuan 2.0**으로 업그레이드되어 전반적인 기능이 향상되었습니다. 지시 따르기, 다중 턴 및 장문 텍스트 이해, 문학 창작, 지식 정확성, 코딩 및 추론 능력이 크게 강화되었습니다.",
"hunyuan-2.0-thinking-20251109.description": "릴리스 특징: 모델 기반이 TurboS에서 **Hunyuan 2.0**으로 업그레이드되어 전반적인 기능이 향상되었습니다. 복잡한 지시를 따르는 능력, 다중 턴 및 장문 텍스트 이해, 코드 처리, 에이전트 역할 수행 및 추론 작업 수행 능력이 크게 강화되었습니다.",
"hunyuan-a13b.description": "Hunyuan의 첫 하이브리드 추론 모델로, hunyuan-standard-256K에서 업그레이드되었습니다 (총 80B, 활성 13B). 기본적으로 느린 사고를 사용하며, 매개변수 또는 /no_think 접두어로 빠른/느린 전환이 가능합니다. 수학, 과학, 장문 이해, 에이전트 작업에서 전 세대보다 전반적인 성능이 향상되었습니다.",
"hunyuan-code.description": "200B 고품질 코드와 6개월간의 SFT로 학습된 최신 코드 생성 모델로, 8K 컨텍스트를 지원합니다. 5개 언어의 자동 벤치마크와 10개 기준의 인간 평가에서 상위권을 기록했습니다.",
"hunyuan-functioncall.description": "고품질 함수 호출 데이터를 기반으로 학습된 최신 MoE FunctionCall 모델로, 32K 컨텍스트 윈도우를 지원하며 다양한 기준에서 선도적인 벤치마크 결과를 보입니다.",
"hunyuan-large-longcontext.description": "요약 및 질의응답과 같은 장문 문서 작업에 뛰어나며, 일반적인 생성 작업도 처리할 수 있습니다. 복잡하고 세부적인 콘텐츠에 대한 장문 분석 및 생성 능력이 우수합니다.",
"hunyuan-large-vision.description": "Hunyuan Large로부터 학습된 비전-언어 모델로, 이미지-텍스트 이해를 지원합니다. 해상도에 관계없이 다중 이미지 + 텍스트 입력을 지원하며, 다국어 시각 이해 능력이 향상되었습니다.",
"hunyuan-large.description": "Hunyuan-large는 총 약 389B 파라미터 중 약 52B가 활성화된, Transformer 아키텍처 기반의 가장 크고 강력한 오픈 MoE 모델입니다.",
"hunyuan-lite-vision.description": "32K 컨텍스트 윈도우를 지원하는 최신 7B 멀티모달 모델로, 중영 멀티모달 대화, 객체 인식, 문서 표 이해, 멀티모달 수학을 지원하며, 여러 벤치마크에서 7B 동급 모델을 능가합니다.",
"hunyuan-code.description": "Hunyuan의 최신 코드 모델은 200B 고품질 코드 데이터와 6개월간의 SFT 데이터를 기반으로 학습되었으며, 8K 컨텍스트를 제공합니다. 자동화된 코드 벤치마크와 5개 언어에 걸친 전문가 인간 평가에서 상위권에 위치합니다.",
"hunyuan-functioncall.description": "Hunyuan의 최신 MoE FunctionCall 모델은 고품질 도구 호출 데이터를 기반으로 학습되었으며, 32K 컨텍스트 윈도우와 다양한 차원에서 선도적인 벤치마크를 제공합니다.",
"hunyuan-lite.description": "MoE 아키텍처로 업그레이드되었으며, 256K 컨텍스트 윈도우를 지원합니다. NLP, 코드, 수학, 산업 벤치마크에서 많은 오픈 모델을 선도합니다.",
"hunyuan-pro.description": "수조 개 파라미터를 가진 MOE-32K 장문 컨텍스트 모델로, 복잡한 지시 및 추론, 고급 수학, 함수 호출에 강하며, 다국어 번역, 금융, 법률, 의료 분야에 최적화되어 있습니다.",
"hunyuan-role.description": "역할극 데이터셋으로 공식 파인튜닝된 최신 역할극 모델로, 역할극 시나리오에서 더 강력한 기본 성능을 제공합니다.",
"hunyuan-standard-256K.description": "로드 밸런싱 및 전문가 붕괴 문제를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 컨텍스트에서 99.9%의 바늘 찾기 정확도를 달성합니다. MOE-256K는 컨텍스트 길이와 품질을 더욱 확장합니다.",
"hunyuan-standard-vision.description": "다국어 응답과 중영 균형 능력을 갖춘 최신 멀티모달 모델입니다.",
"hunyuan-standard.description": "로드 밸런싱 및 전문가 붕괴 문제를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 컨텍스트에서 99.9%의 바늘 찾기 정확도를 달성합니다. MOE-32K는 장문 입력을 처리하면서도 높은 가치를 제공합니다.",
"hunyuan-t1-20250321.description": "예술과 STEM 능력을 균형 있게 구축하며, 장문 정보 포착 능력이 뛰어납니다. 수학, 논리, 과학, 코드 문제에 대한 추론형 응답을 지원합니다.",
"hunyuan-t1-20250403.description": "프로젝트 수준의 코드 생성 및 글쓰기 품질을 향상시키고, 다중 턴 주제 이해 및 ToB 지시 따르기 능력을 강화하며, 단어 수준 이해를 개선하고 간체/번체 및 중영 혼합 출력 문제를 줄입니다.",
"hunyuan-t1-20250529.description": "창의적 글쓰기 및 작문 능력을 향상시키고, 프론트엔드 코딩, 수학, 논리 추론 능력을 강화하며, 지시 따르기 능력을 개선합니다.",
"hunyuan-t1-20250711.description": "고난도 수학, 논리, 코딩 능력을 대폭 향상시키고, 출력 안정성과 장문 처리 능력을 강화합니다.",
"hunyuan-role.description": "Hunyuan의 최신 역할 수행 모델은 역할 수행 데이터를 공식적으로 미세 조정하여 역할 수행 시나리오에서 더 강력한 기본 성능을 제공합니다.",
"hunyuan-standard-256K.description": "로드 밸런싱 및 전문가 붕괴를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 텍스트 \"건초 더미 속 바늘\"은 99.9%에 도달합니다. MOE-256K는 길이와 품질을 더욱 확장하여 입력 길이를 크게 늘립니다.",
"hunyuan-standard.description": "로드 밸런싱 및 전문가 붕괴를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 텍스트 \"건초 더미 속 바늘\"은 99.9%에 도달합니다. MOE-32K는 품질과 가격의 균형을 유지하면서 장문 텍스트 입력에 더 나은 가치를 제공합니다.",
"hunyuan-t1-latest.description": "고난도 수학, 복잡한 추론, 어려운 코딩, 지시 따르기, 창의적 글쓰기 품질에서 느린 사고 모델의 성능을 크게 향상시켰습니다.",
"hunyuan-t1-vision-20250619.description": "기본 버전 대비 크게 향상된 최신 t1-vision 멀티모달 심층 추론 모델로, 네이티브 체인 오브 쏘트를 지원합니다.",
"hunyuan-t1-vision-20250916.description": "VQA, 시각적 정렬, OCR, 차트, 사진 기반 문제 해결, 이미지 기반 창작에서 큰 개선을 이룬 최신 t1-vision 심층 추론 모델로, 영어 및 저자원 언어 지원도 강화되었습니다.",
"hunyuan-turbo-20241223.description": "지시 확장 능력을 향상시켜 일반화 성능을 높이고, 수학/코드/논리 추론 능력을 대폭 개선하며, 단어 수준 이해 및 글쓰기 품질을 향상시킵니다.",
"hunyuan-turbo-latest.description": "NLP 이해, 글쓰기, 대화, 질의응답, 번역, 도메인 전반에서 전반적인 경험이 향상되었으며, 더 인간적인 응답, 모호한 의도에 대한 명확한 설명, 단어 분석 개선, 창의성 및 상호작용성 향상, 다중 턴 대화 능력 강화가 이루어졌습니다.",
"hunyuan-turbo-vision.description": "새로운 MoE 아키텍처를 기반으로 한 차세대 비전-언어 플래그십 모델로, 인식, 콘텐츠 생성, 지식 질의응답, 분석적 추론에서 전반적인 성능이 향상되었습니다.",
"hunyuan-turbo.description": "Hunyuan의 차세대 LLM 프리뷰 버전으로, 새로운 MoE 아키텍처를 기반으로 하여 hunyuan-pro보다 빠른 추론과 더 강력한 결과를 제공합니다.",
"hunyuan-turbos-20250313.description": "수학 문제 해결 스타일을 통합하고 다중 턴 수학 QA를 강화합니다. 글쓰기 스타일을 다듬어 AI 같은 어투를 줄이고 표현을 세련되게 합니다.",
"hunyuan-turbos-20250416.description": "사전 학습 기반을 업그레이드하여 지시 이해 및 수행 능력을 향상시켰습니다. 정렬 개선을 통해 수학, 코드, 논리, 과학 능력을 강화하고, 글쓰기 품질, 이해력, 번역 정확도, 지식 QA를 개선했습니다. 특히 다중 턴 이해에서 에이전트 능력을 강화했습니다.",
"hunyuan-turbos-20250604.description": "사전 학습 기반을 업그레이드하여 글쓰기 및 독해 능력을 향상시켰으며, 코드 및 STEM 분야에서 큰 성과를 보이고 복잡한 지시 수행 능력을 개선했습니다.",
"hunyuan-turbos-20250926.description": "사전 학습 데이터 품질과 후속 학습 전략을 개선하여 에이전트, 영어/저자원 언어, 지시 수행, 코드 및 STEM 능력을 향상시켰습니다.",
"hunyuan-turbos-latest.description": "최신 Hunyuan TurboS 플래그십 모델로, 더 강력한 추론 능력과 전반적인 향상된 사용자 경험을 제공합니다.",
"hunyuan-turbos-longtext-128k-20250325.description": "요약 및 QA와 같은 장문 문서 작업에 뛰어나며, 일반적인 생성 작업도 처리할 수 있습니다. 복잡하고 세부적인 콘텐츠에 대한 장문 분석 및 생성에 강합니다.",
"hunyuan-turbos-role-plus.description": "최신 롤플레잉 모델로, 롤플레잉 데이터셋에 공식적으로 파인튜닝되어 롤플레잉 시나리오에서 더 강력한 기본 성능을 제공합니다.",
"hunyuan-turbos-vision-20250619.description": "최신 TurboS 비전-언어 플래그십 모델로, 엔터티 인식, 지식 QA, 카피라이팅, 사진 기반 문제 해결 등 이미지-텍스트 작업에서 큰 성능 향상을 보입니다.",
"hunyuan-turbos-vision.description": "최신 TurboS 기반 차세대 비전-언어 플래그십 모델로, 엔터티 인식, 지식 QA, 카피라이팅, 사진 기반 문제 해결 등 이미지-텍스트 이해 작업에 중점을 둡니다.",
"hunyuan-vision-1.5-instruct.description": "텍스트 기반 TurboS 모델을 기반으로 한 이미지-텍스트 사고 모델로, 이전 버전에 비해 이미지 기본 인식, 이미지 분석 및 추론 등에서 눈에 띄는 성능 향상을 보입니다.",
"hunyuan-vision.description": "이미지 + 텍스트 입력을 지원하여 텍스트를 생성하는 최신 멀티모달 모델입니다.",
"hunyuan-vision-1.5-instruct.description": "TurboS 텍스트 기반으로 구축된 빠른 사고 이미지-텍스트 모델로, 이전 버전에 비해 기본 이미지 인식 및 이미지 분석 추론에서 눈에 띄는 개선을 보여줍니다.",
"hunyuan-vision.description": "Hunyuan 최신 멀티모달 모델은 이미지 + 텍스트 입력을 지원하여 텍스트를 생성합니다.",
"image-01-live.description": "세밀한 디테일을 지원하는 이미지 생성 모델로, 텍스트-이미지 변환과 스타일 프리셋 제어를 지원합니다.",
"image-01.description": "세밀한 디테일을 지원하는 새로운 이미지 생성 모델로, 텍스트-이미지 및 이미지-이미지 변환을 지원합니다.",
"imagen-4.0-fast-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈의 빠른 버전입니다.",
"imagen-4.0-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈입니다.",
"imagen-4.0-generate-preview-06-06.description": "Imagen 4세대 텍스트-이미지 모델 제품군입니다.",
"imagen-4.0-ultra-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈의 Ultra 버전입니다.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Imagen 4세대 텍스트-이미지 모델의 Ultra 변형입니다.",
"inception/mercury-coder-small.description": "Mercury Coder Small은 코드 생성, 디버깅, 리팩토링에 적합하며 지연 시간이 매우 짧습니다.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0은 Ant Group의 Bailing 팀이 개발한 Ling 2.0 아키텍처 기반의 세 번째 모델입니다. 총 100B 파라미터 중 토큰당 6.1B만 활성화되는 MoE 모델로, 경량 구성에도 불구하고 40B 밀집 모델 및 더 큰 MoE 모델을 능가하거나 동등한 성능을 보입니다. 아키텍처와 학습 전략을 통해 고효율을 추구합니다.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0은 총 16B 파라미터 중 토큰당 1.4B만 활성화되는 고성능 경량 MoE LLM으로, 매우 빠른 생성 속도를 제공합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터를 통해 10B 이하 밀집 모델 및 더 큰 MoE 모델과 동등한 성능을 달성합니다.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T는 inclusionAI의 1조 파라미터 MoE 추론 모델로, 대규모 추론 및 연구 작업에 적합합니다.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0은 inclusionAI의 고처리량 시나리오용 Ring 모델 변형으로, 속도와 비용 효율성에 중점을 둡니다.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0은 inclusionAI의 고처리량 경량 MoE 모델로, 동시성에 최적화되어 있습니다.",
"intern-latest.description": "기본적으로 최신 Intern 시리즈 모델을 가리키며, 현재 intern-s1-pro로 설정되어 있습니다.",
"intern-s1-mini.description": "과학적 추론 능력이 강한 경량 멀티모달 대형 모델입니다.",
"intern-s1-pro.description": "가장 진보된 오픈소스 멀티모달 추론 모델을 출시했으며, 현재 전반적인 성능 면에서 최고의 오픈소스 멀티모달 대형 언어 모델입니다.",
"intern-s1.description": "오픈소스 멀티모달 추론 모델은 강력한 범용 능력을 보여줄 뿐만 아니라 다양한 과학적 작업에서 최첨단 성능을 달성합니다.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat은 InternLM2 아키텍처 기반의 오픈소스 대화 모델입니다. 7B 모델은 중·영문 대화 생성을 중점으로 하며, 현대적 학습을 통해 유창하고 지능적인 대화를 제공합니다. 고객 지원, 개인 비서 등 다양한 대화 시나리오에 적합합니다.",
"internlm2.5-latest.description": "여전히 유지 관리되는 레거시 모델로, 여러 차례 반복을 거쳐 안정적이고 우수한 성능을 제공합니다. 7B 및 20B 크기로 제공되며, 1M 컨텍스트 지원, 지시 수행 및 도구 사용 능력이 강화되었습니다. 기본값은 최신 InternLM2.5 시리즈(현재 internlm2.5-20b-chat)입니다.",
"internlm3-latest.description": "최신 모델 시리즈로, 뛰어난 추론 성능을 제공하며 해당 크기 클래스에서 오픈 모델 중 선도적인 성능을 보입니다. 기본값은 최신 InternLM3 시리즈(현재 internlm3-8b-instruct)입니다.",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO는 복잡한 이미지-텍스트 추론을 위한 멀티모달 사전학습 모델입니다.",
"internvl2.5-latest.description": "InternVL2.5는 여전히 유지 관리되며 강력하고 안정적인 성능을 제공합니다. 기본값은 최신 InternVL2.5 시리즈(현재 internvl2.5-78b)입니다.",
"internvl3-14b.description": "InternVL3 14B는 성능과 비용의 균형을 맞춘 중간 크기의 멀티모달 모델입니다.",
"internvl3-1b.description": "InternVL3 1B는 자원이 제한된 배포 환경을 위한 경량 멀티모달 모델입니다.",
"internvl3-38b.description": "InternVL3 38B는 고정확도 이미지-텍스트 이해를 위한 대형 오픈소스 멀티모달 모델입니다.",
"internvl3-latest.description": "최신 멀티모달 모델로, 이미지-텍스트 이해 및 장문 이미지 이해 능력이 강화되어 상위 폐쇄형 모델과 견줄 수 있습니다. 기본값은 최신 InternVL 시리즈(현재 internvl3-78b)입니다.",
"internvl3.5-241b-a28b.description": "새로 출시된 멀티모달 대형 모델은 이미지와 텍스트 이해 및 장문 이미지 이해 능력이 강화되어, 선도적인 비공개 모델과 비교할 만한 성능을 달성합니다.",
"internvl3.5-latest.description": "기본적으로 InternVL3.5 시리즈의 최신 모델을 가리키며, 현재 internvl3.5-241b-a28b로 설정되어 있습니다.",
"irag-1.0.description": "ERNIE iRAG는 이미지 검색, 이미지-텍스트 검색, 콘텐츠 생성을 위한 이미지 검색 기반 생성 모델입니다.",
"jamba-large.description": "복잡한 기업용 작업을 위해 설계된 가장 강력하고 고급화된 모델로, 탁월한 성능을 제공합니다.",
"jamba-mini.description": "동급 모델 중 가장 효율적인 모델로, 속도와 품질의 균형을 유지하면서도 경량화된 구조를 갖추고 있습니다.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2는 코딩 및 에이전트 워크플로우에 특화된 효율적인 대형 언어 모델입니다.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1은 코딩, 프록시 워크플로우, 최신 애플리케이션 개발에 최적화된 경량 고성능 대형 언어 모델로, 더 간결하고 깔끔한 출력과 빠른 반응 속도를 제공합니다.",
"minimax/minimax-m2.description": "MiniMax-M2는 다양한 엔지니어링 시나리오에서 코딩 및 에이전트 작업에 뛰어난 고가치 모델입니다.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1은 최상급 코딩 및 에이전트 성능을 위해 설계된 컴팩트하고 빠르며 비용 효율적인 MoE 모델입니다.",
"minimaxai/minimax-m2.description": "MiniMax-M2는 컴팩트하고 빠르며 비용 효율적인 MoE 모델(총 230B, 활성 10B)로, 다중 파일 편집, 코드 실행-수정 루프, 테스트 검증, 복잡한 툴체인에서 뛰어난 성능을 발휘하며 강력한 일반 지능을 유지합니다.",
"ministral-3b-latest.description": "Ministral 3B는 Mistral의 최고급 엣지 모델입니다.",
"ministral-8b-latest.description": "Ministral 8B는 Mistral의 매우 비용 효율적인 엣지 모델입니다.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 모델은 256K 컨텍스트 윈도우를 지원하며, 향상된 Agentic Coding, 더 정제되고 실용적인 프론트엔드 코드, 뛰어난 컨텍스트 이해력을 제공합니다.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo는 Kimi K2 Thinking의 고속 버전으로, 지연 시간을 크게 줄이면서도 깊은 추론 능력을 유지합니다.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking은 Moonshot의 추론 모델로, 깊은 추론 작업에 최적화되어 있으며 일반적인 에이전트 기능을 지원합니다.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5는 지금까지 가장 지능적인 Kimi 모델로, 네이티브 멀티모달 아키텍처를 특징으로 합니다.",
"moonshotai/kimi-k2.description": "Kimi K2는 Moonshot AI의 대형 MoE 모델로, 총 1조 파라미터 중 320억이 활성화되며, 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.",
"morph/morph-v3-fast.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경을 기존 파일에 적용하는 특화 모델로, 초당 4,500+ 토큰의 속도를 자랑합니다. AI 코딩 워크플로우의 마지막 단계로, 16K 입력/출력을 지원합니다.",
"morph/morph-v3-large.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경 사항을 기존 파일에 빠르게 적용할 수 있도록 특화된 모델입니다. 초당 2500개 이상의 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계로 16K 입력/출력 토큰을 지원합니다.",
"musesteamer-air-image.description": "musesteamer-air-image는 Baidu의 검색 팀이 개발한 이미지 생성 모델로, 뛰어난 비용 대비 성능을 제공합니다. 사용자 프롬프트를 기반으로 명확하고 동작 일관성이 있는 이미지를 빠르게 생성하며, 사용자 설명을 시각적으로 쉽게 변환합니다.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 최신 버전으로, 내부에서 개발한 최신 데이터셋을 기반으로 업데이트되었습니다.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B는 NVIDIA가 사용자 응답의 유용성을 향상시키기 위해 맞춤 제작한 LLM입니다. Arena Hard, AlpacaEval 2 LC, GPT-4-Turbo MT-Bench에서 모두 1위를 기록하며, 2024년 10월 1일 기준 자동 정렬 벤치마크에서 최고의 성능을 보입니다. 이 모델은 Llama-3.1-70B-Instruct를 기반으로 RLHF(REINFORCE), Llama-3.1-Nemotron-70B-Reward, HelpSteer2-Preference 프롬프트를 활용해 학습되었습니다.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "탁월한 정확도와 효율성을 제공하는 독창적인 언어 모델입니다.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.",
"oswe-vscode-prime.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.",
"oswe-vscode-secondary.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2는 높은 계산 효율성과 뛰어난 추론 및 에이전트 성능 간의 균형을 이루는 모델입니다.",
"perplexity/sonar-pro.description": "Perplexity의 플래그십 제품으로, 검색 기반 응답을 지원하며 고급 질의 및 후속 질문에 대응합니다.",
"perplexity/sonar-reasoning-pro.description": "향상된 검색 기능과 함께 CoT 출력을 제공하는 고급 추론 중심 모델로, 요청당 다중 검색 질의를 포함합니다.",
"perplexity/sonar-reasoning.description": "세부적인 검색 기반 설명과 함께 사고의 흐름(CoT)을 출력하는 추론 중심 모델입니다.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Qwen 코드 모델입니다.",
"qwen-coder-turbo.description": "Qwen 코드 모델입니다.",
"qwen-flash.description": "가장 빠르고 비용 효율적인 Qwen 모델로, 간단한 작업에 이상적입니다.",
"qwen-image-edit-max.description": "Qwen 이미지 편집 모델은 다중 이미지 입력 및 다중 이미지 출력을 지원하며, 이미지 내 텍스트 편집, 객체 추가, 제거 또는 재배치, 주제 동작 수정, 이미지 스타일 전환 및 시각적 세부 사항 향상을 가능하게 합니다.",
"qwen-image-edit-plus.description": "Qwen 이미지 편집 모델은 다중 이미지 입력 및 다중 이미지 출력을 지원하며, 이미지 내 텍스트 편집, 객체 추가, 제거 또는 재배치, 주제 동작 수정, 이미지 스타일 전환 및 시각적 세부 사항 향상을 가능하게 합니다.",
"qwen-image-edit.description": "Qwen Image Edit는 이미지와 텍스트 프롬프트를 기반으로 이미지를 편집하는 이미지-투-이미지 모델로, 정밀한 조정과 창의적 변형이 가능합니다.",
"qwen-image-max.description": "Qwen 이미지 생성 모델(Max 시리즈)은 Plus 시리즈에 비해 사실성과 시각적 자연스러움이 향상되었으며, AI 생성 아티팩트를 효과적으로 줄이고 인간 외모, 텍스처 세부 사항 및 텍스트 렌더링에서 뛰어난 성능을 보여줍니다.",
"qwen-image-plus.description": "다양한 예술적 스타일을 지원하며, 특히 이미지 내 복잡한 텍스트 렌더링에 능숙하여 통합된 이미지-텍스트 레이아웃 디자인을 가능하게 합니다.",
"qwen-image.description": "Qwen-Image는 다양한 예술 스타일을 지원하고 복잡한 텍스트 렌더링에 강한 범용 이미지 생성 모델입니다. 특히 중국어와 영어에 강하며, 다중 행 레이아웃, 문단 수준 텍스트, 복잡한 텍스트-이미지 레이아웃의 세부 표현을 지원합니다.",
"qwen-long.description": "초대형 Qwen 모델로, 긴 문맥과 다문서 시나리오에서의 대화를 지원합니다.",
"qwen-math-plus-latest.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "오픈소스 Qwen 코드 모델입니다. 최신 qwen3-coder-30b-a3b-instruct는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct는 다국어 프로그래밍과 복잡한 코드 이해를 위한 플래그십 코드 모델입니다.",
"qwen3-coder-flash.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder-next.description": "다중 파일 코드 생성, 디버깅 및 고속 에이전트 워크플로우에 최적화된 차세대 Qwen 코더입니다. 강력한 도구 통합과 향상된 추론 성능을 제공합니다.",
"qwen3-coder-plus.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.",
"qwen3-coder:480b.description": "Alibaba의 고성능 장문 컨텍스트 모델로, 에이전트 및 코딩 작업에 적합합니다.",
"qwen3-max-2026-01-23.description": "Qwen3 Max 모델은 2.5 시리즈 대비 일반 능력, 중영어 이해, 복잡한 지시 따르기, 주관적 개방형 작업, 다국어 능력, 도구 사용에서 큰 향상을 이루었으며, 환각 현상이 줄었습니다. 최신 qwen3-max는 qwen3-max-preview보다 에이전트 프로그래밍 및 도구 사용이 향상되었으며, 복잡한 에이전트 요구를 충족하는 분야 최고 성능을 달성했습니다.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking은 정밀한 시각 추론을 위한 멀티모달 연쇄 사고 모델입니다.",
"qwen3-vl-flash.description": "Qwen3 VL Flash는 지연 민감 또는 대량 요청에 적합한 경량 고속 추론 버전입니다.",
"qwen3-vl-plus.description": "Qwen VL은 시각 이해 기능을 갖춘 텍스트 생성 모델입니다. OCR 수행은 물론, 제품 사진에서 속성 추출이나 이미지 기반 문제 해결 등 요약 및 추론도 가능합니다.",
"qwen3.5-397b-a17b.description": "텍스트, 이미지 및 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 비교 가능한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 보여줍니다.",
"qwen3.5-plus.description": "Qwen3.5 Plus는 텍스트, 이미지 및 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 비교 가능한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 보여줍니다.",
"qwen3.description": "Qwen3는 Alibaba의 차세대 대형 언어 모델로, 다양한 활용 사례에서 강력한 성능을 발휘합니다.",
"qwq-32b-preview.description": "QwQ는 향상된 추론 능력에 중점을 둔 Qwen의 실험적 연구 모델입니다.",
"qwq-32b.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 복잡한 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.",
"r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.",
"seedance-1-5-pro-251215.description": "ByteDance의 Seedance 1.5 Pro는 텍스트-영상, 이미지-영상(첫 프레임, 첫+마지막 프레임), 시각과 동기화된 오디오 생성을 지원합니다.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite는 BytePlus가 개발한 모델로, 실시간 정보 제공을 위한 웹 검색 증강 생성 기능을 특징으로 하며, 복잡한 프롬프트 해석과 전문적인 시각적 창작을 위한 참조 일관성을 개선합니다.",
"solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.",
"solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.",
"solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "복잡한 질의와 후속 질문을 위한 검색 기반 고급 검색 제품입니다.",
"sonar-reasoning.description": "복잡한 질의와 후속 질문을 위한 검색 기반 고급 검색 제품입니다.",
"sonar.description": "Sonar Pro보다 빠르고 저렴한 경량 검색 기반 제품입니다.",
"spark-x.description": "X1.5 업데이트: (1) `thinking` 필드로 제어되는 동적 사고 모드 추가; (2) 64K 입력 및 64K 출력의 확장된 컨텍스트 길이; (3) FunctionCall 지원.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2는 높은 계산 효율성과 뛰어난 추론 및 에이전트 성능 간의 균형을 이루는 모델입니다.",
"spark-x.description": "X2 기능 개요: 1. `thinking` 필드를 통해 추론 모드의 동적 조정을 도입합니다. 2. 컨텍스트 길이 확장: 64K 입력 토큰 및 128K 출력 토큰. 3. Function Call 기능을 지원합니다.",
"stable-diffusion-3-medium.description": "Stability AI의 최신 텍스트-이미지 모델입니다. 이미지 품질, 텍스트 이해, 스타일 다양성이 크게 향상되었으며, 복잡한 자연어 프롬프트를 더 정확하게 해석하고 정밀하고 다양한 이미지를 생성합니다.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo는 stable-diffusion-3.5-large에 적대적 확산 증류(ADD)를 적용하여 속도를 향상시킨 버전입니다.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large는 800M 파라미터의 MMDiT 텍스트-이미지 모델로, 우수한 품질과 프롬프트 정렬을 제공하며, 1메가픽셀 이미지를 지원하고 소비자 하드웨어에서 효율적으로 실행됩니다.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "복잡한 대화를 위한 대용량 문맥 상호작용을 지원합니다.",
"step-2-mini.description": "차세대 자체 개발 MFA 어텐션 아키텍처 기반으로, Step-1 수준의 결과를 훨씬 낮은 비용으로 제공하며, 처리량과 지연 시간도 개선되었습니다. 일반 작업과 강력한 코딩 능력을 처리합니다.",
"step-2x-large.description": "StepFun의 차세대 이미지 생성 모델로, 텍스트 프롬프트로부터 고품질 이미지를 생성합니다. 더 사실적인 질감과 강력한 중영문 텍스트 렌더링을 제공합니다.",
"step-3.5-flash.description": "Stepfun의 플래그십 언어 추론 모델입니다. 이 모델은 최고 수준의 추론 능력과 빠르고 신뢰할 수 있는 실행을 제공합니다. 복잡한 작업을 분해하고 계획하며, 도구를 빠르고 신뢰성 있게 호출하여 수행하며, 논리적 추론, 수학, 소프트웨어 엔지니어링, 심층 연구 및 기타 정교한 작업에서 뛰어난 성능을 발휘합니다. 컨텍스트 길이는 256K입니다.",
"step-3.description": "강력한 시각 인식과 복잡한 추론 능력을 갖춘 모델로, 도메인 간 지식 이해, 수학-시각 교차 분석, 다양한 일상 시각 분석 작업을 정확하게 처리합니다.",
"step-r1-v-mini.description": "이미지와 텍스트를 처리한 후 깊은 추론을 통해 텍스트를 생성하는 강력한 이미지 이해 추론 모델입니다. 시각 추론에 뛰어나며, 수학, 코딩, 텍스트 추론에서 최고 수준의 성능을 발휘하며, 100K 문맥 창을 지원합니다.",
"stepfun-ai/step3.description": "Step3는 StepFun의 최첨단 멀티모달 추론 모델로, 총 321B, 활성 38B 파라미터의 MoE 아키텍처 기반입니다. 종단 간 설계로 디코딩 비용을 최소화하면서 최고 수준의 비전-언어 추론을 제공합니다. MFA 및 AFD 설계를 통해 고급 및 저사양 가속기 모두에서 효율적입니다. 사전학습은 20T+ 텍스트 토큰과 4T 이미지-텍스트 토큰을 다국어로 사용하며, 수학, 코드, 멀티모달 벤치마크에서 최고 수준의 오픈모델 성능을 달성합니다.",
"taichu_llm.description": "대규모 고품질 데이터로 학습되어 텍스트 이해, 콘텐츠 생성, 대화형 질의응답 능력이 향상되었습니다.",
"taichu_o1.description": "taichu_o1은 멀티모달 상호작용과 강화학습을 통해 인간과 유사한 연쇄적 사고를 구현하는 차세대 추론 모델로, 복잡한 의사결정 시뮬레이션을 지원하며, 높은 정확도를 유지하면서 추론 경로를 노출합니다. 전략 분석 및 심층 사고에 적합합니다.",
"taichu_vl.description": "이미지 이해, 지식 전이, 논리 귀속을 결합하여 이미지-텍스트 질의응답에서 뛰어난 성능을 발휘합니다.",
"taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2B 모델의 No-Thinking 버전은 메모리 사용량이 적고, 경량 설계, 빠른 응답 속도, 강력한 멀티모달 이해 능력을 특징으로 합니다.",
"taichu4_vl_32b.description": "Taichu4.0-VL 32B 모델의 Thinking 버전은 복잡한 멀티모달 이해 및 추론 작업에 적합하며, 멀티모달 수학적 추론, 멀티모달 에이전트 능력, 일반 이미지 및 시각적 이해에서 뛰어난 성능을 보여줍니다.",
"taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32B 모델의 No-Thinking 버전은 복잡한 이미지-텍스트 이해 및 시각적 지식 QA 시나리오에 적합하며, 이미지 캡션 생성, 시각적 질문 응답, 비디오 이해 및 시각적 위치 지정 작업에서 뛰어난 성능을 발휘합니다.",
"taichu4_vl_3b.description": "Taichu4.0-VL 3B 모델의 Thinking 버전은 멀티모달 이해 및 추론 작업을 효율적으로 수행하며, 시각적 이해, 시각적 위치 지정, OCR 인식 및 관련 기능에서 포괄적인 업그레이드를 제공합니다.",
"taichu_llm.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.",
"taichu_llm_14b.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.",
"taichu_llm_2b.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.",
"taichu_o1.description": "taichu_o1은 멀티모달 상호작용과 강화 학습을 통해 인간과 유사한 사고 과정을 구현하는 차세대 추론 대형 모델입니다. 복잡한 의사결정 시뮬레이션을 지원하며, 높은 정확도를 유지하면서 해석 가능한 추론 경로를 제공합니다. 전략 분석, 심층 사고 및 유사한 시나리오에 적합합니다.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct는 총 80B, 활성 13B 파라미터로 더 큰 모델과 유사한 성능을 제공합니다. 빠른/느린 하이브리드 추론, 안정적인 장문 이해, BFCL-v3 및 τ-Bench에서 선도적인 에이전트 능력을 지원합니다. GQA 및 다중 양자화 형식을 통해 효율적인 추론이 가능합니다.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan 번역 모델은 Hunyuan-MT-7B와 앙상블 모델 Hunyuan-MT-Chimera로 구성됩니다. Hunyuan-MT-7B는 33개 언어와 5개 중국 소수민족 언어를 지원하는 7B 경량 번역 모델로, WMT25에서 31개 언어쌍 중 30개에서 1위를 차지했습니다. 텐센트 Hunyuan은 사전학습부터 SFT, 번역 RL, 앙상블 RL까지 전체 학습 파이프라인을 사용하여 효율적이고 배포가 쉬운 최고 성능을 달성했습니다.",
"text-embedding-3-large.description": "영어 및 비영어 작업에 가장 강력한 임베딩 모델입니다.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "일상 작업 및 UI 생성에 적합합니다.",
"vercel/v0-1.0-md.description": "v0의 기반 모델에 접근하여 최신 웹 앱을 프레임워크별 추론과 최신 지식으로 생성, 수정, 최적화할 수 있습니다.",
"vercel/v0-1.5-md.description": "v0의 모델에 접근하여 최신 지식과 프레임워크별 추론을 바탕으로 현대적인 웹 앱을 생성, 수정, 최적화할 수 있습니다.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code는 기업 수준의 프로그래밍 요구를 위해 최적화되었으며, Seed 2.0의 뛰어난 에이전트 및 VLM 능력을 기반으로 코드 능력을 특별히 강화했습니다. 프론트엔드 능력이 뛰어나며, 기업에서 흔히 사용하는 다국어 코딩 요구를 특별히 최적화하여 다양한 AI 코딩 도구에 적합합니다.",
"volcengine/doubao-seed-2-0-lite.description": "생성 품질과 응답 속도를 균형 있게 제공하며, 일반적인 생산 수준 모델로 적합합니다.",
"volcengine/doubao-seed-2-0-mini.description": "doubao-seed-2-0-mini 최신 버전을 가리킵니다.",
"volcengine/doubao-seed-2-0-pro.description": "doubao-seed-2-0-pro 최신 버전을 가리킵니다.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code는 바이트댄스 화산 엔진의 LLM으로, 에이전트 프로그래밍에 최적화되어 있으며, 256K 컨텍스트 지원과 함께 프로그래밍 및 에이전트 벤치마크에서 뛰어난 성능을 발휘합니다.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed는 창의성, 안정성, 사실감이 향상된 최신 모델로, 빠른 생성 속도와 높은 가치를 제공합니다.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro는 창의성, 안정성, 사실감이 향상된 최신 모델로, 더욱 풍부한 디테일을 생성합니다.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash는 창의성, 안정성 및 사실성에서 업그레이드된 최신 모델로, 빠른 생성과 높은 가치를 제공합니다.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus는 창의성, 안정성 및 사실성에서 업그레이드된 최신 모델로, 더 풍부한 세부 사항을 제공합니다.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview는 단일 이미지 편집 및 다중 이미지 융합을 지원합니다.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I는 총 픽셀 영역 및 종횡비 제한 내에서 이미지 크기를 유연하게 선택할 수 있도록 지원합니다.",
"wan2.6-image.description": "Wanxiang 2.6 Image는 이미지 편집 및 혼합 이미지-텍스트 레이아웃 출력을 지원합니다.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I는 총 픽셀 영역 및 종횡비 제한 내에서 이미지 크기를 유연하게 선택할 수 있도록 지원합니다(Wanxiang 2.5와 동일).",
"wanx-v1.description": "기본 텍스트-투-이미지 모델로, Tongyi Wanxiang 1.0 General에 해당합니다.",
"wanx2.0-t2i-turbo.description": "텍스처가 풍부한 인물화에 강하며, 속도는 중간 수준이고 비용은 낮습니다. Tongyi Wanxiang 2.0 Speed에 해당합니다.",
"wanx2.1-t2i-plus.description": "이미지 디테일이 더욱 풍부해진 완전 업그레이드 버전으로, 속도는 다소 느립니다. Tongyi Wanxiang 2.1 Pro에 해당합니다.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast는 xAI의 고처리량, 저비용 모델로, 2M 컨텍스트 윈도우를 지원하며, 동시성 높은 환경과 장문 컨텍스트에 이상적입니다.",
"x-ai/grok-4.description": "Grok 4는 xAI의 대표 추론 모델로, 강력한 추론 능력과 멀티모달 기능을 갖추고 있습니다.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1은 xAI의 빠른 코드 모델로, 가독성이 높고 엔지니어 친화적인 출력을 제공합니다.",
"x1.description": "X1.5 업데이트: (1) `thinking` 필드를 통해 동적 사고 모드를 추가합니다; (2) 더 큰 컨텍스트 길이로 64K 입력 및 64K 출력 지원; (3) FunctionCall을 지원합니다.",
"xai/grok-2-vision.description": "Grok 2 Vision은 시각적 작업에 뛰어나며, 시각 수학 추론(MathVista)과 문서 QA(DocVQA)에서 최고 성능을 발휘합니다. 문서, 차트, 그래프, 스크린샷, 사진을 처리할 수 있습니다.",
"xai/grok-2.description": "Grok 2는 최첨단 추론, 강력한 대화, 코딩 성능을 갖춘 프런티어 모델로, LMSYS에서 Claude 3.5 Sonnet 및 GPT-4 Turbo보다 높은 순위를 기록했습니다.",
"xai/grok-3-fast.description": "xAI의 대표 모델로, 데이터 추출, 코딩, 요약 등 기업용 사례에 뛰어나며, 금융, 의료, 법률, 과학 분야에 대한 깊은 전문 지식을 갖추고 있습니다. 빠른 변형은 더 빠른 응답을 위해 고속 인프라에서 실행되며, 토큰당 비용은 더 높습니다.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5는 Z.AI의 대표 모델로, 하이브리드 추론이 가능하며, 엔지니어링 및 장문 컨텍스트 작업에 최적화되어 있습니다.",
"z-ai/glm-4.6.description": "GLM 4.6은 Z.AI의 대표 모델로, 확장된 컨텍스트 길이와 향상된 코딩 기능을 제공합니다.",
"z-ai/glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 일반 능력 향상, 더 자연스럽고 간결한 응답, 몰입감 있는 글쓰기 경험을 제공합니다.",
"z-ai/glm5.description": "Z.ai에서 개발한 강력한 추론 및 에이전트 모델로, 744B 총 파라미터(40B 활성)를 갖추고 복잡한 시스템 엔지니어링과 장기 작업을 위해 설계되었습니다.",
"z-ai/glm4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오에서 향상된 코딩 능력을 제공합니다.",
"z-ai/glm5.description": "GLM-5는 Zhipu AI의 새로운 플래그십 기반 모델로, 에이전트 엔지니어링에서 오픈소스 SOTA 성능을 달성하며 코딩 및 에이전트 능력에서 Claude Opus 4.5와 동등한 성능을 제공합니다.",
"z-image-turbo.description": "Z-Image는 경량 텍스트-이미지 생성 모델로, 이미지를 빠르게 생성하며 중국어와 영어 텍스트 렌더링을 지원하고 다양한 해상도와 종횡비에 유연하게 적응합니다.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5.description": "GLM-4.5는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 깊이 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.",
"zai-org/GLM-4.5V.description": "GLM-4.5V는 GLM-4.5-Air 기반의 최신 VLM으로, 106B 총 파라미터(12B 활성)를 갖춘 MoE 아키텍처를 사용하여 낮은 비용으로 강력한 성능을 제공합니다. GLM-4.1V-Thinking 경로를 따르며, 3D-RoPE를 추가하여 3D 공간 추론을 향상시켰습니다. 사전학습, SFT, RL을 통해 최적화되었으며, 이미지, 비디오, 장문 문서를 처리할 수 있습니다. 41개 공개 멀티모달 벤치마크에서 오픈 모델 중 최고 순위를 기록했습니다. Thinking 모드 전환 기능을 통해 속도와 깊이를 조절할 수 있습니다.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "노드 업데이트",
"builtins.lobe-page-agent.apiName.wrapNodes": "노드 감싸기",
"builtins.lobe-page-agent.title": "문서",
"builtins.lobe-skill-store.apiName.importFromMarket": "마켓에서 가져오기",
"builtins.lobe-skill-store.apiName.importSkill": "스킬 가져오기",
"builtins.lobe-skill-store.apiName.searchSkill": "스킬 검색",
"builtins.lobe-skill-store.title": "스킬 스토어",
"builtins.lobe-skills.apiName.execScript": "스크립트 실행",
"builtins.lobe-skills.apiName.exportFile": "파일 내보내기",
"builtins.lobe-skills.apiName.importFromMarket": "마켓에서 가져오기",
"builtins.lobe-skills.apiName.importSkill": "스킬 가져오기",
"builtins.lobe-skills.apiName.readReference": "참조 읽기",
"builtins.lobe-skills.apiName.runSkill": "스킬 활성화",
"builtins.lobe-skills.apiName.searchSkill": "스킬 검색",
"builtins.lobe-skills.title": "스킬",
"builtins.lobe-tools.apiName.activateTools": "도구 활성화",
"builtins.lobe-user-memory.apiName.addContextMemory": "상황 기억 추가",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "경험 기억 추가",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "신원 기억 추가",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "인터넷 검색",
"confirm": "확인",
"debug.arguments": "호출 인자",
"debug.error": "오류 로그",
"debug.function_call": "함수 호출",
"debug.intervention": "기능 개입",
"debug.off": "디버그 끄기",
@ -321,8 +335,8 @@
"dev.saveSuccess": "기능 설정이 성공적으로 저장되었습니다",
"dev.tabs.manifest": "기능 설명 파일 (Manifest)",
"dev.tabs.meta": "기능 메타 정보",
"dev.title.create": "사용자 정의 기능 추가",
"dev.title.edit": "사용자 정의 기능 편집",
"dev.title.create": "사용자 정의 MCP 스킬 추가",
"dev.title.edit": "사용자 정의 MCP 스킬 편집",
"dev.title.editCommunity": "커뮤니티 스킬 편집",
"dev.title.skillDetails": "스킬 세부정보",
"dev.title.skillSettings": "스킬 설정",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud는 강력한 오픈소스 기반 모델을 바탕으로 구축된 비용 효율적인 생성형 AI 클라우드 서비스입니다.",
"spark.description": "iFLYTEK Spark는 다양한 분야에서 강력한 다국어 AI를 제공하여 스마트 하드웨어, 헬스케어, 금융 등에서 혁신을 가능하게 합니다.",
"stepfun.description": "Stepfun 모델은 멀티모달 및 복잡한 추론 능력, 장문 문맥 이해, 강력한 자율 검색 조정 기능을 제공합니다.",
"straico.description": "Straico는 최고의 텍스트, 이미지 및 오디오 생성 AI 모델을 하나로 통합한 통합 작업 공간을 제공하여 마케터, 기업가 및 열정적인 사용자들이 다양한 AI 도구에 원활하게 접근할 수 있도록 지원합니다.",
"taichu.description": "Taichu는 CASIA와 우한 인공지능연구원이 공동 개발한 차세대 멀티모달 모델로, 다중 회차 QA, 작문, 이미지 생성, 3D 이해, 신호 분석 등에서 뛰어난 인지력과 창의성을 발휘합니다.",
"tencentcloud.description": "LLM 지식 엔진 Atomic Power는 문서 파싱, 청킹, 임베딩, 다중 회차 재작성 등 모듈형 서비스를 통해 기업과 개발자를 위한 맞춤형 AI 솔루션을 제공합니다.",
"togetherai.description": "Together AI는 혁신적인 모델, 폭넓은 커스터마이징, 빠른 확장성, 간편한 배포를 통해 기업의 요구에 맞는 최고의 성능을 제공합니다.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "역할 설정",
"agentInfoDescription.value.unset": "설정되지 않음",
"agentInfoDescription.value.untitled": "제목 없는 도우미",
"agentSkillDetail.addedAt": "추가됨",
"agentSkillDetail.publishedAt": "게시됨",
"agentSkillDetail.repository": "GitHub 저장소",
"agentSkillDetail.skillContent": "스킬 내용",
"agentSkillDetail.sourceUrl": "스킬 가져오기 소스",
"agentSkillDetail.updatedAt": "업데이트됨",
"agentSkillEdit.descriptionDesc": "스킬이 수행하는 작업에 대한 간략한 요약으로, 에이전트가 언제 사용할지 이해하는 데 도움을 줍니다",
"agentSkillEdit.fileReadonly": "이 파일은 읽기 전용입니다. 스킬 설명과 지침만 편집할 수 있습니다.",
"agentSkillEdit.instructions": "지침",
"agentSkillEdit.instructionsDesc": "스킬의 동작과 워크플로를 정의하는 Markdown 형식의 핵심 지침",
"agentSkillEdit.instructionsPlaceholder": "Markdown 형식으로 스킬 지침을 입력하세요...",
"agentSkillEdit.nameDesc": "이 스킬의 고유 식별자이며, 생성 후에는 편집할 수 없습니다",
"agentSkillEdit.saveSuccess": "스킬이 성공적으로 업데이트되었습니다",
"agentSkillEdit.title": "스킬 설정",
"agentSkillItem.deleteConfirm.desc": "에이전트 스킬 \"{{name}}\"을(를) 삭제하시겠습니까? 이 작업은 되돌릴 수 없습니다.",
"agentSkillItem.deleteConfirm.title": "에이전트 스킬 삭제",
"agentSkillModal.content": "스킬 내용",
"agentSkillModal.contentPlaceholder": "Markdown 형식으로 스킬 내용을 입력하세요...",
"agentSkillModal.description": "설명",
"agentSkillModal.descriptionPlaceholder": "이 스킬에 대해 간략히 설명하세요",
"agentSkillModal.github.desc": "공개 GitHub 저장소에서 스킬을 직접 가져옵니다.",
"agentSkillModal.github.title": "GitHub에서 가져오기",
"agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo",
"agentSkillModal.importError": "가져오기 실패: {{error}}",
"agentSkillModal.importSuccess": "에이전트 스킬이 성공적으로 가져와졌습니다",
"agentSkillModal.upload.desc": "로컬 .zip 또는 .skill 파일을 업로드하여 설치합니다.",
"agentSkillModal.upload.dragText": "드래그 앤 드롭하거나 클릭하여 업로드하세요",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md는 YAML 형식으로 스킬 이름과 설명을 포함해야 합니다",
"agentSkillModal.upload.requirementZip": "SKILL.md가 루트 디렉토리에 포함된 .zip 또는 .skill 파일",
"agentSkillModal.upload.requirements": "파일 요구사항",
"agentSkillModal.upload.title": "스킬 업로드",
"agentSkillModal.upload.uploading": "업로드 중...",
"agentSkillModal.url.desc": "SKILL.md 파일의 직접 링크를 제공하여 스킬을 가져옵니다.",
"agentSkillModal.url.title": "URL에서 가져오기",
"agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md",
"agentSkillTag": "에이전트 스킬",
"agentTab.chat": "채팅 환경설정",
"agentTab.meta": "도우미 정보",
"agentTab.modal": "모델 설정",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "번역에 사용되는 모델 지정",
"systemAgent.translation.title": "메시지 내용 번역 도우미",
"tab.about": "소개",
"tab.addAgentSkill": "에이전트 스킬 추가",
"tab.addCustomMcp": "사용자 정의 MCP 스킬 추가",
"tab.addCustomMcp.desc": "사용자 정의 MCP 서버를 수동으로 구성합니다",
"tab.addCustomSkill": "사용자 정의 스킬 추가",
"tab.agent": "기본 도우미",
"tab.all": "전체",
@ -652,7 +691,13 @@
"tab.experiment": "실험",
"tab.hotkey": "단축키",
"tab.image": "그림 서비스",
"tab.importFromGithub": "GitHub에서 가져오기",
"tab.importFromGithub.desc": "공개 GitHub 저장소에서 가져오기",
"tab.importFromUrl": "URL에서 가져오기",
"tab.importFromUrl.desc": "SKILL.md의 직접 링크를 통해 가져오기",
"tab.llm": "언어 모델",
"tab.manualFill": "수동 입력",
"tab.manualFill.desc": "사용자 정의 MCP 스킬을 수동으로 구성합니다",
"tab.memory": "기억 설정",
"tab.profile": "내 계정",
"tab.provider": "AI 서비스 제공자",
@ -669,6 +714,8 @@
"tab.sync": "클라우드 동기화",
"tab.systemTools": "시스템 도구",
"tab.tts": "음성 서비스",
"tab.uploadZip": "Zip 업로드",
"tab.uploadZip.desc": "로컬 .zip 또는 .skill 파일 업로드",
"tab.usage": "사용량 통계",
"tools.add": "기능 통합",
"tools.builtins.groupName": "내장",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Geef ons een ster op GitHub",
"footer.title": "Tevreden over ons product?",
"fullscreen": "Volledig scherm",
"geminiImageChineseWarning.content": "Nano Banana kan soms geen afbeeldingen genereren bij gebruik van Chinees. Gebruik bij voorkeur Engels voor betere resultaten.",
"geminiImageChineseWarning.continueGenerate": "Doorgaan met genereren",
"geminiImageChineseWarning.continueSend": "Doorgaan met verzenden",
"geminiImageChineseWarning.doNotShowAgain": "Niet meer tonen",
"geminiImageChineseWarning.title": "Opmerking bij Chinese invoer",
"historyRange": "Geschiedenisbereik",
"home.suggestQuestions": "Probeer deze voorbeelden",
"import": "Importeren",
@ -397,6 +392,7 @@
"tab.chat": "Chat",
"tab.community": "Community",
"tab.discover": "Ontdekken",
"tab.eval": "Evaluatie Lab",
"tab.files": "Bestanden",
"tab.home": "Home",
"tab.knowledgeBase": "Bibliotheek",

316
locales/nl-NL/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Benchmark verwijderen",
"benchmark.actions.delete.confirm": "Weet u zeker dat u deze benchmark wilt verwijderen? Gerelateerde datasets en evaluatierecords worden ook verwijderd.",
"benchmark.actions.edit": "Benchmark bewerken",
"benchmark.actions.export": "Exporteren",
"benchmark.card.bestScore": "Beste",
"benchmark.card.caseCount": "{{count}} gevallen",
"benchmark.card.datasetCount": "{{count}} datasets",
"benchmark.card.empty": "Nog geen evaluaties",
"benchmark.card.emptyHint": "Maak een nieuwe evaluatie aan vanaf de benchmarkdetailpagina",
"benchmark.card.importDataset": "Dataset importeren",
"benchmark.card.noDataset": "Nog geen datasets",
"benchmark.card.noDatasetHint": "Importeer een dataset om te beginnen met evalueren",
"benchmark.card.noRecentRuns": "Geen recente evaluaties om weer te geven",
"benchmark.card.recentRuns": "Recente evaluaties",
"benchmark.card.runCount": "{{count}} evaluaties",
"benchmark.card.startFirst": "Start eerste evaluatie",
"benchmark.card.viewAll": "Bekijk alle {{count}}",
"benchmark.create.confirm": "Aanmaken",
"benchmark.create.description.label": "Beschrijving",
"benchmark.create.description.placeholder": "Benchmarkbeschrijving (optioneel)",
"benchmark.create.error": "Benchmark aanmaken mislukt",
"benchmark.create.identifier.label": "Identificatie",
"benchmark.create.identifier.placeholder": "benchmark-identificatie",
"benchmark.create.identifierRequired": "Voer een identificatie in",
"benchmark.create.name.label": "Naam",
"benchmark.create.name.placeholder": "Voer benchmarknaam in",
"benchmark.create.nameRequired": "Voer een benchmarknaam in",
"benchmark.create.success": "Benchmark succesvol aangemaakt",
"benchmark.create.tags.label": "Tags",
"benchmark.create.tags.placeholder": "Voeg tags toe, gescheiden door komma of spatie",
"benchmark.create.title": "Benchmark aanmaken",
"benchmark.detail.backToOverview": "Terug naar overzicht",
"benchmark.detail.datasetCount": "{{count}} dataset{{count, plural, one {} other {s}}} in deze benchmark",
"benchmark.detail.runCount": "{{count}} evaluatierun{{count, plural, one {} other {s}}} op deze benchmark",
"benchmark.detail.stats.addFirstDataset": "Klik om de eerste dataset toe te voegen",
"benchmark.detail.stats.avgCost": "Gemiddelde kosten",
"benchmark.detail.stats.avgDuration": "Gemiddelde duur",
"benchmark.detail.stats.basedOnLastNRuns": "Gebaseerd op de laatste {{count}} runs",
"benchmark.detail.stats.bestPerformance": "Beste prestatie door {{agent}} met {{passRate}}% slaagpercentage",
"benchmark.detail.stats.bestScore": "Beste score",
"benchmark.detail.stats.cases": "Gevallen",
"benchmark.detail.stats.dataScale": "Dataschaal",
"benchmark.detail.stats.datasets": "Datasets",
"benchmark.detail.stats.needSetup": "Instelling vereist",
"benchmark.detail.stats.noEvalRecord": "Nog geen evaluatierecords",
"benchmark.detail.stats.perRun": "/ Run",
"benchmark.detail.stats.runs": "Runs",
"benchmark.detail.stats.tags": "Tags",
"benchmark.detail.stats.topAgents": "Topagenten",
"benchmark.detail.stats.totalCases": "Totaal aantal gevallen",
"benchmark.detail.stats.waiting": "Wachten...",
"benchmark.detail.tabs.data": "Data",
"benchmark.detail.tabs.datasets": "Datasets",
"benchmark.detail.tabs.runs": "Runs",
"benchmark.edit.confirm": "Opslaan",
"benchmark.edit.error": "Benchmark bijwerken mislukt",
"benchmark.edit.success": "Benchmark succesvol bijgewerkt",
"benchmark.edit.title": "Benchmark bewerken",
"benchmark.empty": "Nog geen benchmarks. Maak er een aan om te beginnen.",
"caseDetail.actual": "Werkelijke output",
"caseDetail.chatArea.title": "Gesprek",
"caseDetail.completionReason": "Status",
"caseDetail.cost": "Kosten",
"caseDetail.difficulty": "Moeilijkheidsgraad",
"caseDetail.duration": "Duur",
"caseDetail.expected": "Verwachte output",
"caseDetail.failureReason": "Reden van mislukking",
"caseDetail.input": "Invoer",
"caseDetail.judgeComment": "Opmerking van de beoordelaar",
"caseDetail.resources": "Bronnen",
"caseDetail.score": "Score",
"caseDetail.section.runtime": "Runtime",
"caseDetail.section.scoring": "Scoregegevens",
"caseDetail.section.testCase": "Testgeval",
"caseDetail.steps": "Stappen",
"caseDetail.threads.attempt": "Traject #{{number}}",
"caseDetail.tokens": "Tokengebruik",
"common.cancel": "Annuleren",
"common.create": "Aanmaken",
"common.delete": "Verwijderen",
"common.edit": "Bewerken",
"common.later": "Later",
"common.next": "Volgende",
"common.update": "Bijwerken",
"dataset.actions.addDataset": "Dataset toevoegen",
"dataset.actions.import": "Data importeren",
"dataset.actions.importDataset": "Dataset importeren",
"dataset.create.description.label": "Beschrijving",
"dataset.create.description.placeholder": "Datasetbeschrijving (optioneel)",
"dataset.create.error": "Dataset aanmaken mislukt",
"dataset.create.identifier.label": "Identificatie",
"dataset.create.identifier.placeholder": "dataset-identificatie",
"dataset.create.identifierRequired": "Voer een identificatie in",
"dataset.create.importNow": "Wilt u nu data importeren?",
"dataset.create.name.label": "Datasetnaam",
"dataset.create.name.placeholder": "Voer datasetnaam in",
"dataset.create.nameRequired": "Voer een datasetnaam in",
"dataset.create.preset.label": "Datasetpreset",
"dataset.create.success": "Dataset succesvol aangemaakt",
"dataset.create.successTitle": "Dataset aangemaakt",
"dataset.create.title": "Dataset aanmaken",
"dataset.delete.confirm": "Weet u zeker dat u deze dataset wilt verwijderen? Alle testgevallen erin worden ook verwijderd.",
"dataset.delete.error": "Dataset verwijderen mislukt",
"dataset.delete.success": "Dataset succesvol verwijderd",
"dataset.detail.addRun": "Nieuwe run",
"dataset.detail.backToBenchmark": "Terug naar benchmark",
"dataset.detail.caseCount": "{{count}} testgeval{{count, plural, one {} other {len}}}",
"dataset.detail.relatedRuns": "Gerelateerde runs ({{count}})",
"dataset.detail.testCases": "Testgevallen",
"dataset.detail.viewDetail": "Details bekijken",
"dataset.edit.error": "Dataset bijwerken mislukt",
"dataset.edit.success": "Dataset succesvol bijgewerkt",
"dataset.edit.title": "Dataset bewerken",
"dataset.empty": "Geen datasets",
"dataset.empty.description": "Importeer een dataset om te beginnen met het bouwen van deze benchmark",
"dataset.empty.title": "Nog geen datasets",
"dataset.evalMode.hint": "Standaard evaluatiemodus voor de dataset, kan worden overschreven op testgevalniveau",
"dataset.import.category": "Categorie",
"dataset.import.categoryDesc": "Classificatielabel voor groepering",
"dataset.import.choices": "Keuzes",
"dataset.import.choicesDesc": "Opties voor meerkeuze",
"dataset.import.confirm": "Importeren",
"dataset.import.error": "Dataset importeren mislukt",
"dataset.import.expected": "Verwacht antwoord",
"dataset.import.expectedDelimiter": "Antwoordscheidingsteken",
"dataset.import.expectedDelimiter.desc": "Scheidingsteken voor antwoorden",
"dataset.import.expectedDelimiter.placeholder": "bijv. | of ,",
"dataset.import.expectedDesc": "Correct antwoord om mee te vergelijken",
"dataset.import.fieldMapping": "Veldtoewijzing",
"dataset.import.fieldMapping.desc": "\"Invoer\"-kolom is vereist",
"dataset.import.hideSkipped": "Overgeslagen kolommen verbergen",
"dataset.import.ignore": "Overslaan",
"dataset.import.ignoreDesc": "Deze kolom niet importeren",
"dataset.import.input": "Invoer",
"dataset.import.inputDesc": "Vraag of prompt die naar het model wordt gestuurd",
"dataset.import.metadata": "Metadata",
"dataset.import.metadataDesc": "Extra informatie, opgeslagen zoals het is",
"dataset.import.next": "Volgende",
"dataset.import.parseError": "Bestand parseren mislukt",
"dataset.import.parsing": "Bestand aan het parseren...",
"dataset.import.prev": "Vorige",
"dataset.import.preview": "Datavoorbeeld",
"dataset.import.preview.desc": "Bevestig dat de toewijzing correct is en importeer dan.",
"dataset.import.preview.rows": "{{count}} rijen totaal",
"dataset.import.sortOrder": "Itemnummer",
"dataset.import.sortOrderDesc": "Vraag-/item-ID ter referentie",
"dataset.import.step.mapping": "Velden toewijzen",
"dataset.import.step.preview": "Voorbeeld",
"dataset.import.step.upload": "Bestand uploaden",
"dataset.import.success": "Succesvol {{count}} testgevallen geïmporteerd",
"dataset.import.title": "Dataset importeren",
"dataset.import.upload.hint": "Ondersteunt CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Klik of sleep bestand hier om te uploaden",
"dataset.import.uploading": "Bezig met uploaden...",
"dataset.switchDataset": "Dataset wisselen",
"difficulty.easy": "Makkelijk",
"difficulty.hard": "Moeilijk",
"difficulty.medium": "Gemiddeld",
"evalMode.contains": "Bevat match",
"evalMode.contains.desc": "Output moet de verwachte tekst bevatten",
"evalMode.equals": "Exacte match",
"evalMode.equals.desc": "Output moet exact hetzelfde zijn als verwacht",
"evalMode.label": "Evaluatiemodus",
"evalMode.llm-rubric": "LLM-beoordelaar",
"evalMode.llm-rubric.desc": "Gebruik LLM om de outputkwaliteit te evalueren",
"evalMode.placeholder": "Selecteer evaluatiemodus",
"evalMode.prompt.label": "Beoordelingsprompt",
"evalMode.prompt.placeholder": "Voer de evaluatiecriteria of prompt in voor LLM-beoordelaar",
"evalMode.rubric": "Rubriekenscore",
"evalMode.rubric.desc": "Score output met behulp van benchmarkrubrieken met gewogen criteria",
"overview.createBenchmark": "Benchmark aanmaken",
"overview.importDataset": "Dataset importeren",
"overview.subtitle": "Benchmark en evalueer uw AI-agenten over datasets",
"overview.title": "Evaluatielab",
"run.actions.abort": "Afbreken",
"run.actions.abort.confirm": "Weet u zeker dat u deze evaluatie wilt afbreken?",
"run.actions.create": "Nieuwe evaluatie",
"run.actions.delete": "Verwijderen",
"run.actions.delete.confirm": "Weet u zeker dat u deze evaluatie wilt verwijderen?",
"run.actions.edit": "Bewerken",
"run.actions.retryCase": "Opnieuw proberen",
"run.actions.retryErrors": "Fouten opnieuw proberen",
"run.actions.retryErrors.confirm": "Dit zal alle fout- en time-outgevallen opnieuw uitvoeren. Geslaagde en mislukte gevallen worden niet beïnvloed.",
"run.actions.run": "Uitvoeren",
"run.actions.start": "Starten",
"run.actions.start.confirm": "Weet u zeker dat u deze evaluatie wilt starten?",
"run.chart.duration": "Duur (s)",
"run.chart.error": "Fout",
"run.chart.fail": "Mislukt",
"run.chart.latencyDistribution": "Latentieverdeling",
"run.chart.latencyTokenDistribution": "Latentie / Tokenverdeling",
"run.chart.pass": "Geslaagd",
"run.chart.passFailError": "Geslaagd / Mislukt / Fout",
"run.chart.tokens": "Tokens",
"run.config.agentId": "Agent",
"run.config.concurrency": "Gelijktijdigheid",
"run.config.judgeModel": "Beoordelingsmodel",
"run.config.k": "Uitvoeringen (K)",
"run.config.k.hint": "Voer elk testgeval {{k}} keer uit voor pass@{{k}}/pass^{{k}}-statistieken",
"run.config.maxSteps": "Maximale stappen",
"run.config.maxSteps.hint": "Elke LLM-oproep of tooloproep door de agent telt als 1 stap",
"run.config.model": "Model",
"run.config.temperature": "Temperatuur",
"run.config.timeout": "Time-out",
"run.config.timeout.unit": "min",
"run.create.advanced": "Geavanceerde instellingen",
"run.create.agent": "Agent",
"run.create.agent.placeholder": "Selecteer een agent",
"run.create.agent.required": "Selecteer een agent",
"run.create.caseCount": "{{count}} gevallen",
"run.create.confirm": "Aanmaken & Starten",
"run.create.createOnly": "Alleen aanmaken",
"run.create.dataset": "Dataset",
"run.create.dataset.placeholder": "Selecteer een dataset",
"run.create.dataset.required": "Selecteer een dataset",
"run.create.name": "Runnaam",
"run.create.name.placeholder": "Voer een naam in voor deze run",
"run.create.name.required": "Voer een runnaam in",
"run.create.name.useTimestamp": "Gebruik huidige tijd als naam",
"run.create.openAgent": "Open agent in nieuw venster",
"run.create.title": "Nieuwe evaluatie",
"run.create.titleWithDataset": "Nieuwe evaluatie op \"{{dataset}}\"",
"run.detail.agent": "Agent",
"run.detail.agent.none": "Niet gespecificeerd",
"run.detail.agent.unnamed": "Naamloze agent",
"run.detail.backToBenchmark": "Terug naar benchmark",
"run.detail.caseResults": "Evaluatiedetails",
"run.detail.config": "Evaluatieconfiguratie",
"run.detail.configSnapshot": "Configuratiesnapshot",
"run.detail.dataset": "Dataset",
"run.detail.model": "Model",
"run.detail.overview": "Overzicht",
"run.detail.progress": "Voortgang",
"run.detail.progressCases": "gevallen",
"run.detail.report": "Evaluatiesamenvatting",
"run.edit.error": "Evaluatie bijwerken mislukt",
"run.edit.success": "Evaluatie succesvol bijgewerkt",
"run.edit.title": "Evaluatie bewerken",
"run.empty.description": "Start uw eerste evaluatierun op deze dataset",
"run.empty.descriptionBenchmark": "Start uw eerste evaluatierun op deze benchmark",
"run.empty.title": "Nog geen runs",
"run.filter.active": "Actief",
"run.filter.empty": "Geen runs komen overeen met het huidige filter.",
"run.idle.hint": "Klik op Start om de evaluatie te beginnen",
"run.metrics.avgScore": "Gemiddelde score",
"run.metrics.cost": "Kosten",
"run.metrics.duration": "Duur",
"run.metrics.errorCases": "Fout",
"run.metrics.evaluated": "{{count}} geëvalueerd",
"run.metrics.passRate": "Slaagpercentage",
"run.metrics.perCase": "/ geval",
"run.metrics.tokens": "Tokens",
"run.metrics.totalDuration": "Cumulatief",
"run.pending.hint": "Evaluatie staat in de wachtrij, wachtend om te starten...",
"run.running.hint": "Evaluatie wordt uitgevoerd, resultaten verschijnen binnenkort...",
"run.status.aborted": "Afgebroken",
"run.status.completed": "Voltooid",
"run.status.error": "Runfout",
"run.status.failed": "Mislukt",
"run.status.idle": "Inactief",
"run.status.pending": "In behandeling",
"run.status.running": "Bezig",
"run.status.timeout": "Time-out",
"sidebar.benchmarks": "Benchmarks",
"sidebar.dashboard": "Dashboard",
"sidebar.datasets": "Datasets",
"sidebar.runs": "Runs",
"table.columns.avgCost": "Gemiddelde kosten",
"table.columns.category": "Categorie",
"table.columns.cost": "Kosten",
"table.columns.difficulty": "Moeilijkheidsgraad",
"table.columns.duration": "Duur",
"table.columns.evalMode": "Evaluatiemodus",
"table.columns.expected": "Verwacht antwoord",
"table.columns.input": "Invoer",
"table.columns.score": "Score",
"table.columns.status": "Status",
"table.columns.steps": "Stappen",
"table.columns.tags": "Tags",
"table.columns.tokens": "Tokens",
"table.columns.totalCost": "Totale kosten",
"table.filter.all": "Alle",
"table.filter.error": "Runfout",
"table.filter.failed": "Mislukt",
"table.filter.passed": "Geslaagd",
"table.filter.running": "Bezig",
"table.search.placeholder": "Zoek gevallen...",
"table.total": "Totaal {{count}}",
"testCase.actions.add": "Testgeval toevoegen",
"testCase.actions.import": "Testgevallen importeren",
"testCase.create.advanced": "Meer opties",
"testCase.create.difficulty.label": "Moeilijkheidsgraad",
"testCase.create.error": "Testgeval toevoegen mislukt",
"testCase.create.expected.label": "Verwachte output",
"testCase.create.expected.placeholder": "Voer het verwachte antwoord in",
"testCase.create.expected.required": "Voer de verwachte output in",
"testCase.create.input.label": "Invoer",
"testCase.create.input.placeholder": "Voer de invoer of vraag van het testgeval in",
"testCase.create.success": "Testgeval succesvol toegevoegd",
"testCase.create.tags.label": "Tags",
"testCase.create.tags.placeholder": "Tags gescheiden door komma (optioneel)",
"testCase.create.title": "Testgeval toevoegen",
"testCase.delete.confirm": "Weet u zeker dat u dit testgeval wilt verwijderen?",
"testCase.delete.error": "Testgeval verwijderen mislukt",
"testCase.delete.success": "Testgeval verwijderd",
"testCase.edit.error": "Testgeval bijwerken mislukt",
"testCase.edit.success": "Testgeval succesvol bijgewerkt",
"testCase.edit.title": "Testgeval bewerken",
"testCase.empty.description": "Importeer of voeg handmatig testgevallen toe aan deze dataset",
"testCase.empty.title": "Nog geen testgevallen",
"testCase.preview.expected": "Verwacht",
"testCase.preview.input": "Invoer",
"testCase.preview.title": "Voorbeeld testgeval",
"testCase.search.placeholder": "Zoek gevallen..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Diepgaand onderzoek",
"starter.developing": "Binnenkort beschikbaar",
"starter.image": "Afbeelding",
"starter.nanoBanana2": "🍌 Nano Banaan 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Schrijven"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Voor Gemini-serie; regelt het denkbudget.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Voor Gemini 3 Flash Preview-modellen; regelt de diepgang van het denken.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Voor Gemini 3 Pro Preview-modellen; regelt de diepgang van het denken.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Voor Gemini 3.1 Pro Preview-modellen; regelt de denkdiepte met lage/middelmatige/hoge niveaus.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Voor Gemini-serie; ondersteunt het aanleveren van URL-context.",
"providerModels.item.modelConfig.extendParams.placeholder": "Selecteer uit te schakelen uitgebreide parameters",
"providerModels.item.modelConfig.extendParams.previewFallback": "Voorbeeld niet beschikbaar",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo biedt krachtige reken- en chatmogelijkheden met uitstekende semantische interpretatie en generatie-efficiëntie, ideaal voor bedrijven en ontwikkelaars.",
"360gpt2-o1.description": "360gpt2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.",
"360gpt2-pro.description": "360GPT2 Pro is een geavanceerd NLP-model van 360 met uitstekende tekstgeneratie en -begrip, vooral geschikt voor creatieve taken, complexe transformaties en rollenspel.",
"360zhinao2-o1.5.description": "360 Zhinao's krachtigste redeneermodel, met de sterkste capaciteiten en ondersteuning voor zowel toolgebruik als geavanceerd redeneren.",
"360zhinao2-o1.description": "360zhinao2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.",
"360zhinao3-o1.5.description": "360 Zhinao Next-Generation Redeneermodel.",
"4.0Ultra.description": "Spark Ultra is het krachtigste model in de Spark-serie. Het verbetert tekstbegrip en samenvatting, en optimaliseert webzoekopdrachten. Het is een allesomvattende oplossing voor hogere productiviteit op de werkvloer en nauwkeurige antwoorden, en positioneert zich als een toonaangevend intelligent product.",
"AnimeSharp.description": "AnimeSharp (ook bekend als \"4x-AnimeSharp\") is een open-source superresolutiemodel gebaseerd op ESRGAN van Kim2091, gericht op het opschalen en verscherpen van anime-afbeeldingen. In februari 2022 hernoemd van \"4x-TextSharpV1\", oorspronkelijk ook bedoeld voor tekstafbeeldingen, maar sterk geoptimaliseerd voor anime-inhoud.",
"Baichuan2-Turbo.description": "Maakt gebruik van zoekverrijking om het model te verbinden met domein- en webkennis. Ondersteunt het uploaden van PDF/Word-bestanden en URL-invoer voor tijdige, uitgebreide informatieopvraging en professionele, nauwkeurige output.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Deze 8B-versie is geoptimaliseerd voor lage latentie en sterke prestaties.",
"charglm-3.description": "CharGLM-3 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.",
"charglm-4.description": "CharGLM-4 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.",
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in real-time wordt bijgewerkt. Het combineert sterke taalbegrip- en generatiecapaciteiten voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.",
"claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige topversie Claude 3 Opus op veel benchmarks.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.",
"deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 is een nieuw hybride redeneermodel van DeepSeek, dat zowel denk- als niet-denkmodi ondersteunt en een hogere denkefficiëntie biedt dan DeepSeek-R1-0528. Optimalisaties na training verbeteren het gebruik van agenttools en de prestaties bij agenttaken aanzienlijk. Het ondersteunt een contextvenster van 128k en tot 64k outputtokens.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 is een next-gen redeneermodel met verbeterde complexe redenering en gedachtegang, geschikt voor taken die diepgaande analyse vereisen.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduceert sparse attention om de efficiëntie van training en inferentie op lange teksten te verbeteren, tegen een lagere prijs dan deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "Bij zeer complexe taken presteert het Speciale model aanzienlijk beter dan de standaardversie, maar het verbruikt aanzienlijk meer tokens en brengt hogere kosten met zich mee. Momenteel is DeepSeek-V3.2-Speciale alleen bedoeld voor onderzoeksgebruik, ondersteunt het geen toolgebruik en is het niet specifiek geoptimaliseerd voor dagelijkse gesprekken of schrijftaken.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think is een volledig diepdenkend model met sterker langketen-redeneervermogen.",
"deepseek-v3.2.description": "DeepSeek-V3.2 is het eerste hybride redeneermodel van DeepSeek dat denken integreert in het gebruik van tools. Het maakt gebruik van een efficiënte architectuur om rekenkracht te besparen, grootschalige reinforcement learning om capaciteiten te verbeteren, en synthetische taakdata op grote schaal om generalisatie te versterken. Deze combinatie levert prestaties vergelijkbaar met GPT-5-High, met aanzienlijk kortere outputlengte, wat de rekentijd en wachttijd voor gebruikers sterk vermindert.",
"deepseek-v3.description": "DeepSeek-V3 is een krachtig MoE-model met in totaal 671B parameters en 37B actief per token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging. Het ondersteunt een contextvenster van 128k en tot 16k outputtokens.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.",
"doubao-lite-128k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 128k.",
"doubao-lite-32k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
"doubao-lite-4k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 4k.",
"doubao-pro-256k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 256k.",
"doubao-pro-32k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is een ultrasnel multimodaal diep redeneermodel met een TPOT van slechts 10ms. Het ondersteunt zowel tekst als visuele input, overtreft het vorige lite-model in tekstbegrip en evenaart concurrerende pro-modellen in visuele prestaties. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is een nieuw multimodaal diep redeneermodel met instelbare redeneerinspanning (Minimaal, Laag, Gemiddeld, Hoog), biedt betere waarde en is een sterke keuze voor algemene taken, met een contextvenster tot 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Het Doubao-beeldmodel van ByteDance Seed ondersteunt tekst- en afbeeldingsinvoer met zeer controleerbare, hoogwaardige beeldgeneratie. Het ondersteunt tekstgestuurde beeldbewerking, met uitvoerformaten tussen 512 en 1536 aan de lange zijde.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.",
"doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
"doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 is het nieuwste multimodale beeldmodel van ByteDance, dat tekst-naar-beeld, beeld-naar-beeld en batchbeeldgeneratiecapaciteiten integreert, terwijl het gezond verstand en redeneervermogen bevat. Vergeleken met de vorige 4.0-versie levert het aanzienlijk verbeterde generatiekwaliteit, met betere bewerkingsconsistentie en multi-beeldfusie. Het biedt meer precieze controle over visuele details, produceert kleine teksten en gezichten natuurlijker, en bereikt een harmonieuzere lay-out en kleur, wat de algehele esthetiek verbetert.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite is het nieuwste beeldgeneratiemodel van ByteDance. Voor het eerst integreert het online zoekmogelijkheden, waardoor het real-time webinformatie kan opnemen en de actualiteit van gegenereerde beelden kan verbeteren. De intelligentie van het model is ook geüpgraded, waardoor het complexe instructies en visuele inhoud nauwkeurig kan interpreteren. Bovendien biedt het verbeterde wereldwijde kennisdekking, referentieconsistentie en generatiekwaliteit in professionele scenario's, waardoor het beter voldoet aan visuele creatiebehoeften op ondernemingsniveau.",
"emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is een lichtgewicht open-source model voor lokale en aangepaste implementatie.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking is een tekst MoE (Mixture-of-Experts) post-getraind model met in totaal 21B parameters en 3B actieve parameters, wat aanzienlijk verbeterde redeneerkwaliteit en diepte biedt.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is een open-source model met veel parameters en verbeterde begrips- en generatiecapaciteiten.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is het ultra-grote MoE-model van Baidu ERNIE met uitstekende redeneercapaciteiten.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is een previewmodel met 8K context voor het evalueren van ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is een lichtgewicht model met hoge prestaties voor scenario's met lage latentie en kosten.",
"ernie-novel-8k.description": "ERNIE Novel 8K is ontworpen voor lange romans en IP-verhalen met meerdere personages.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is een model met hoge gelijktijdigheid en hoge waarde voor grootschalige online diensten en zakelijke toepassingen.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview is een snel denkend model met 32K context voor complexe redeneringen en meerstapsgesprekken.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.",
"ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde onderwerpconsistentie, nauwkeurige opvolging van instructies, ruimtelijk inzicht, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor zeer controleerbare en hoogwaardige beeldgeneratie op basis van prompts.",
"fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash-Lite.",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview is het meest voordelige model van Google met volledige functionaliteit.",
"gemini-2.5-flash-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash.",
"gemini-2.5-flash.description": "Gemini 2.5 Flash is het meest voordelige model van Google met volledige functionaliteit.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's beeldgeneratiemodel en ondersteunt ook multimodale chat.",
"gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.",
"gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.",
"gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.",
"gemini-pro-latest.description": "Nieuwste versie van Gemini Pro.",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus begrijpt videos en meerdere afbeeldingen en is geschikt voor multimodale taken.",
"glm-4v-plus.description": "GLM-4V-Plus begrijpt videos en meerdere afbeeldingen en is geschikt voor multimodale taken.",
"glm-4v.description": "GLM-4V biedt krachtig beeldbegrip en redenering voor visuele taken.",
"glm-5.description": "Een sterk redeneer- en agent-gebaseerd model van Z.ai met in totaal 744B parameters (40B actief), ontworpen voor complexe systeemengineering en langetermijntaken.",
"glm-5.description": "De GLM-serie is een hybride redeneermodel van Zhipu AI, gebouwd voor agents, met denk- en niet-denkmodi.",
"glm-z1-air.description": "Redeneermodel met sterke inferentiecapaciteiten voor taken die diepgaand redeneren vereisen.",
"glm-z1-airx.description": "Ultrasnelle redenering met hoge kwaliteit van inferentie.",
"glm-z1-flash.description": "De GLM-Z1-serie biedt krachtige complexe redenering en blinkt uit in logica, wiskunde en programmeren.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "We zijn verheugd Grok 4 Fast uit te brengen, onze nieuwste vooruitgang in kosteneffectieve redeneermodellen.",
"grok-4.description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitblinkend in NLP, wiskunde en redenering—een ideale allrounder.",
"grok-code-fast-1.description": "We zijn verheugd om grok-code-fast-1 te lanceren, een snel en kosteneffectief redeneermodel dat uitblinkt in agentmatig programmeren.",
"grok-imagine-image-pro.description": "Genereer beelden vanuit tekstprompts, bewerk bestaande beelden met natuurlijke taal, of verfijn beelden iteratief via meerstapsgesprekken.",
"grok-imagine-image.description": "Genereer beelden vanuit tekstprompts, bewerk bestaande beelden met natuurlijke taal, of verfijn beelden iteratief via meerstapsgesprekken.",
"groq/compound-mini.description": "Compound-mini is een samengesteld AI-systeem dat gebruikmaakt van openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.",
"groq/compound.description": "Compound is een samengesteld AI-systeem dat gebruikmaakt van meerdere openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B is een creatief en intelligent taalmodel dat is samengesteld uit meerdere topmodellen.",
"hunyuan-2.0-instruct-20251111.description": "Releasekenmerken: Het model is geüpgraded van TurboS naar **Hunyuan 2.0**, wat resulteert in uitgebreide capaciteitsverbeteringen. Het verbetert aanzienlijk het volgen van instructies, meerstaps- en langetekstbegrip, literaire creatie, kennisnauwkeurigheid, codering en redeneervermogen.",
"hunyuan-2.0-thinking-20251109.description": "Releasekenmerken: Het model is geüpgraded van TurboS naar **Hunyuan 2.0**, wat resulteert in uitgebreide capaciteitsverbeteringen. Het verbetert aanzienlijk het vermogen van het model om complexe instructies te volgen, meerstaps- en langetekstbegrip te begrijpen, code te verwerken, als agent te opereren en redeneertaken uit te voeren.",
"hunyuan-a13b.description": "Het eerste hybride redeneermodel van Hunyuan, een upgrade van hun hunyuan-standard-256K (80B totaal, 13B actief). Standaard ingesteld op langzaam denken, met ondersteuning voor snel/langzaam schakelen via parameters of prefix /no_think. De algehele capaciteit is verbeterd ten opzichte van de vorige generatie, vooral in wiskunde, wetenschap, langetekstbegrip en agenttaken.",
"hunyuan-code.description": "Het nieuwste codegeneratiemodel, getraind met 200 miljard hoogwaardige codevoorbeelden en zes maanden SFT; context uitgebreid tot 8K. Het scoort hoog in geautomatiseerde benchmarks voor vijf programmeertalen en in menselijke evaluaties op tien criteria.",
"hunyuan-functioncall.description": "Het nieuwste MoE FunctionCall-model, getraind met hoogwaardige functieaanroepdata, met een contextvenster van 32K en toonaangevende benchmarkresultaten op meerdere dimensies.",
"hunyuan-large-longcontext.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.",
"hunyuan-large-vision.description": "Een visueel-taalkundig model getraind vanuit Hunyuan Large voor beeld-tekstbegrip. Ondersteunt invoer van meerdere afbeeldingen + tekst in elke resolutie en verbetert meertalig visueel begrip.",
"hunyuan-large.description": "Hunyuan-large heeft ~389 miljard totale parameters en ~52 miljard actieve, het grootste en krachtigste open MoE-model in een Transformer-architectuur.",
"hunyuan-lite-vision.description": "Het nieuwste 7B multimodale model met een contextvenster van 32K, ondersteunt Chinees/Engels multimodaal chatten, objectherkenning, documenttabelbegrip en multimodale wiskunde, en presteert beter dan andere 7B-modellen op meerdere benchmarks.",
"hunyuan-code.description": "Hunyuan's nieuwste codemodel, getraind op 200B hoogwaardige codegegevens plus zes maanden SFT-gegevens, met 8K context. Het scoort bijna bovenaan in geautomatiseerde codebenchmarks en in deskundige menselijke evaluaties in vijf talen.",
"hunyuan-functioncall.description": "Hunyuan's nieuwste MoE FunctionCall-model, getraind op hoogwaardige toolgebruikgegevens, met een 32K contextvenster en toonaangevende benchmarks over verschillende dimensies.",
"hunyuan-lite.description": "Geüpgraded naar een MoE-architectuur met een contextvenster van 256K, en overtreft veel open modellen op het gebied van NLP, code, wiskunde en industriële benchmarks.",
"hunyuan-pro.description": "Een MoE-model met biljoenen parameters en een contextvenster van 32K, toonaangevend in benchmarks, sterk in complexe instructies en redenering, geavanceerde wiskunde, functieaanroepen, en geoptimaliseerd voor meertalige vertaling, financiën, recht en medische domeinen.",
"hunyuan-role.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.",
"hunyuan-standard-256K.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-256K breidt contextlengte en kwaliteit verder uit.",
"hunyuan-standard-vision.description": "Het nieuwste multimodale model met meertalige antwoorden en gebalanceerde Chinese/Engelse vaardigheden.",
"hunyuan-standard.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-32K biedt sterke prestaties bij lange invoer.",
"hunyuan-t1-20250321.description": "Combineert evenwichtige artistieke en bètavaardigheden met sterk langetekstinformatiebegrip. Ondersteunt redenerende antwoorden voor wiskunde-, logica-, wetenschap- en programmeerproblemen op verschillende niveaus.",
"hunyuan-t1-20250403.description": "Verbetert projectmatige codegeneratie en schrijfkwaliteit, versterkt begrip van meerstapsgesprekken en ToB-instructies, verbetert woordbegrip en vermindert problemen met gemengde vereenvoudigde/traditionele en Chinese/Engelse output.",
"hunyuan-t1-20250529.description": "Verbetert creatief schrijven en compositie, versterkt frontend-programmeren, wiskunde en logische redenering, en verbetert het opvolgen van instructies.",
"hunyuan-t1-20250711.description": "Verbetert aanzienlijk de prestaties bij moeilijke wiskunde, logica en programmeren, verhoogt de outputstabiliteit en versterkt langetekstcapaciteiten.",
"hunyuan-role.description": "Hunyuan's nieuwste rollenspelmodel, officieel fijn afgestemd met rollenspelgegevens, levert sterkere basisprestaties in rollenspelscenario's.",
"hunyuan-standard-256K.description": "Maakt gebruik van verbeterde routering om load balancing en expertinstorting te verminderen. Langetekst 'speld in een hooiberg' bereikt 99,9%. MOE-256K gaat verder in lengte en kwaliteit, waardoor de invoerlengte aanzienlijk wordt uitgebreid.",
"hunyuan-standard.description": "Maakt gebruik van verbeterde routering om load balancing en expertinstorting te verminderen. Langetekst 'speld in een hooiberg' bereikt 99,9%. MOE-32K biedt betere waarde terwijl kwaliteit en prijs voor langetekstinvoer in balans worden gehouden.",
"hunyuan-t1-latest.description": "Verbetert het langzaam-denkende model aanzienlijk op het gebied van moeilijke wiskunde, complexe redenering, uitdagende codeertaken, instructieopvolging en creatieve schrijfkwaliteit.",
"hunyuan-t1-vision-20250619.description": "Het nieuwste t1-vision multimodale diep-redeneermodel met native keten-van-gedachten, aanzienlijk verbeterd ten opzichte van de vorige standaardversie.",
"hunyuan-t1-vision-20250916.description": "Het nieuwste t1-vision diep-redeneermodel met grote verbeteringen in VQA, visuele verankering, OCR, grafieken, het oplossen van gefotografeerde problemen en beeldgebaseerde creatie, plus sterkere prestaties in Engels en talen met weinig middelen.",
"hunyuan-turbo-20241223.description": "Deze versie verbetert de schaalbaarheid van instructies voor betere generalisatie, verhoogt de prestaties in wiskunde/code/logica, verbetert woordbegrip en verhoogt de schrijfkwaliteit.",
"hunyuan-turbo-latest.description": "Algemene verbeteringen in NLP-begrip, schrijven, chatten, vraag-antwoord, vertaling en domeinspecifieke toepassingen; menselijkere reacties, betere verduidelijking van onduidelijke intenties, verbeterde woordanalyse, hogere creatieve kwaliteit en interactiviteit, en sterkere meerstapsgesprekken.",
"hunyuan-turbo-vision.description": "Volgende generatie visueel-taalkundig vlaggenschip met een nieuwe MoE-architectuur, met brede verbeteringen in herkenning, contentcreatie, kennisvraag-antwoord en analytisch redeneren.",
"hunyuan-turbo.description": "Voorvertoning van Hunyuans volgende generatie LLM met een nieuwe MoE-architectuur, levert snellere redenering en sterkere resultaten dan hun hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Vereenvoudigt de stijl van wiskundige oplossingen en versterkt meerstaps wiskundige vraag-antwoord. De schrijfstijl is verfijnd om een minder AI-achtig karakter te hebben en meer gepolijst te zijn.",
"hunyuan-turbos-20250416.description": "Geüpgradede pretrainingbasis voor beter begrip en opvolging van instructies; afstemming verbetert wiskunde, code, logica en wetenschap; verhoogt schrijfkwaliteit, begrip, vertaalnauwkeurigheid en kennisvraag-antwoord; versterkt agentvaardigheden, vooral bij meerstapsbegrip.",
"hunyuan-turbos-20250604.description": "Geüpgradede pretrainingbasis met verbeterd schrijven en leesbegrip, aanzienlijke vooruitgang in code en STEM, en beter opvolgen van complexe instructies.",
"hunyuan-turbos-20250926.description": "Verbeterde kwaliteit van pretrainingdata en post-trainingsstrategie, met verbeteringen in agenten, Engels/talen met weinig middelen, instructieopvolging, code en STEM-vaardigheden.",
"hunyuan-turbos-latest.description": "Het nieuwste Hunyuan TurboS vlaggenschipmodel met sterkere redenering en een betere algehele ervaring.",
"hunyuan-turbos-longtext-128k-20250325.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.",
"hunyuan-turbos-role-plus.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.",
"hunyuan-turbos-vision-20250619.description": "Het nieuwste TurboS visueel-taalkundig vlaggenschip met grote verbeteringen in beeld-teksttaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.",
"hunyuan-turbos-vision.description": "Een visueel-taalkundig vlaggenschip van de volgende generatie gebaseerd op de nieuwste TurboS, gericht op beeld-tekstbegriptaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.",
"hunyuan-vision-1.5-instruct.description": "Een snel denkend model dat tekst genereert op basis van afbeeldingen, gebouwd op het TurboS-platform. Vergeleken met de vorige versie zijn de prestaties op het gebied van beeldherkenning en visuele redenatie aanzienlijk verbeterd.",
"hunyuan-vision.description": "Het nieuwste multimodale model dat tekst genereert op basis van gecombineerde beeld- en tekstinvoer.",
"hunyuan-vision-1.5-instruct.description": "Een snel denkend beeld-naar-tekstmodel gebouwd op de TurboS-tekstbasis, met opmerkelijke verbeteringen ten opzichte van de vorige versie in fundamentele beeldherkenning en beeldanalyse-redenering.",
"hunyuan-vision.description": "Hunyuan's nieuwste multimodale model dat beeld + tekstinvoer ondersteunt om tekst te genereren.",
"image-01-live.description": "Een beeldgeneratiemodel met fijne details, dat tekst-naar-beeld en aanpasbare stijlpresets ondersteunt.",
"image-01.description": "Een nieuw beeldgeneratiemodel met fijne details, dat zowel tekst-naar-beeld als beeld-naar-beeld ondersteunt.",
"imagen-4.0-fast-generate-001.description": "Snelle versie van de vierde generatie Imagen tekst-naar-beeld modelserie.",
"imagen-4.0-generate-001.description": "Vierde generatie Imagen tekst-naar-beeld modelserie.",
"imagen-4.0-generate-preview-06-06.description": "De vierde generatie tekst-naar-beeld modellen van Imagen.",
"imagen-4.0-ultra-generate-001.description": "Ultra-versie van de vierde generatie Imagen tekst-naar-beeld modelserie.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Ultra-variant van de vierde generatie tekst-naar-beeld modellen van Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small is ideaal voor codegeneratie, foutopsporing en herstructurering met minimale vertraging.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 is het derde model in de Ling 2.0-architectuur van het Bailing-team van Ant Group. Het is een MoE-model met 100 miljard parameters, waarvan slechts 6,1 miljard actief per token (4,8 miljard exclusief embedding). Ondanks de lichte configuratie presteert het gelijk aan of beter dan dichte modellen van 40 miljard en grotere MoE-modellen op meerdere benchmarks, dankzij een efficiënte architectuur en trainingsstrategie.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 is een klein, krachtig MoE LLM met 16 miljard parameters en slechts 1,4 miljard actief per token (789 miljoen exclusief embedding), wat zorgt voor zeer snelle generatie. Dankzij een efficiënte MoE-architectuur en hoogwaardige trainingsdata levert het topprestaties die vergelijkbaar zijn met dichte modellen onder 10 miljard en grotere MoE-modellen.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T is inclusionAIs triljoen-parameter MoE redeneermodel, geschikt voor grootschalige redeneer- en onderzoekstaken.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 is een variant van het Ring-model van inclusionAI voor scenarios met hoge doorvoer, met nadruk op snelheid en kostenefficiëntie.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 is inclusionAIs lichte MoE-model met hoge doorvoer, ontworpen voor gelijktijdige toepassingen.",
"intern-latest.description": "Standaard verwijst het naar ons nieuwste vrijgegeven Intern-seriemodel, momenteel ingesteld op intern-s1-pro.",
"intern-s1-mini.description": "Een lichtgewicht multimodaal groot model met sterke wetenschappelijke redeneercapaciteiten.",
"intern-s1-pro.description": "We hebben ons meest geavanceerde open-source multimodale redeneermodel gelanceerd, momenteel het best presterende open-source multimodale grote taalmodel qua algehele prestaties.",
"intern-s1.description": "Het open-source multimodale redeneermodel toont niet alleen sterke algemene capaciteiten, maar behaalt ook state-of-the-art prestaties over een breed scala aan wetenschappelijke taken.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat is een open-source chatmodel gebaseerd op de InternLM2-architectuur. Het 7B-model richt zich op dialooggeneratie met ondersteuning voor Chinees en Engels, en maakt gebruik van moderne trainingstechnieken voor vloeiende en intelligente gesprekken. Geschikt voor toepassingen zoals klantenservice en persoonlijke assistenten.",
"internlm2.5-latest.description": "Legacy-modellen die nog steeds worden onderhouden met uitstekende, stabiele prestaties na vele iteraties. Beschikbaar in 7B- en 20B-varianten, met ondersteuning voor 1M context en verbeterde instructieopvolging en toolgebruik. Standaard ingesteld op de nieuwste InternLM2.5-serie (momenteel internlm2.5-20b-chat).",
"internlm3-latest.description": "Onze nieuwste modelserie met uitstekende redeneercapaciteiten, toonaangevend onder open modellen in zijn klasse. Standaard ingesteld op de nieuwste InternLM3-serie (momenteel internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO is een multimodaal voorgetraind model voor complexe beeld-tekst redenatie.",
"internvl2.5-latest.description": "InternVL2.5 wordt nog steeds onderhouden met sterke, stabiele prestaties. Standaard ingesteld op de nieuwste InternVL2.5-serie (momenteel internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B is een middelgroot multimodaal model dat prestaties en kosten in balans houdt.",
"internvl3-1b.description": "InternVL3 1B is een lichtgewicht multimodaal model voor implementatie in omgevingen met beperkte middelen.",
"internvl3-38b.description": "InternVL3 38B is een groot open-source multimodaal model voor nauwkeurige beeld-tekst interpretatie.",
"internvl3-latest.description": "Ons nieuwste multimodale model met verbeterd begrip van beeld-tekst en lange sequenties, vergelijkbaar met toonaangevende gesloten modellen. Standaard ingesteld op de nieuwste InternVL-serie (momenteel internvl3-78b).",
"internvl3.5-241b-a28b.description": "Ons nieuw vrijgegeven multimodale grote model biedt verbeterd beeld-en-tekstbegrip en langesequentiebeeldbegrip, met prestaties vergelijkbaar met toonaangevende gesloten-source modellen.",
"internvl3.5-latest.description": "Standaard verwijst het naar het nieuwste model in de InternVL3.5-serie, momenteel ingesteld op internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG is een model voor beeldopzoeking-ondersteunde generatie, geschikt voor beeldzoekopdrachten, beeld-tekstopzoeking en contentcreatie.",
"jamba-large.description": "Ons krachtigste en meest geavanceerde model, ontworpen voor complexe zakelijke taken met uitstekende prestaties.",
"jamba-mini.description": "Het meest efficiënte model in zijn klasse, met een optimale balans tussen snelheid en kwaliteit en een kleinere omvang.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 is een efficiënt groot taalmodel dat speciaal is ontwikkeld voor programmeer- en agentworkflows.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 is een lichtgewicht, geavanceerd groot taalmodel geoptimaliseerd voor programmeren, proxyworkflows en moderne applicatieontwikkeling, met schonere, beknoptere output en snellere reactietijden.",
"minimax/minimax-m2.description": "MiniMax-M2 is een waardevol model dat uitblinkt in programmeer- en agenttaken voor veel technische scenarios.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 is een compact, snel, kosteneffectief MoE-model gebouwd voor topprestaties in codering en agentgebruik.",
"minimaxai/minimax-m2.description": "MiniMax-M2 is een compact, snel en kosteneffectief MoE-model (230B totaal, 10B actief) gebouwd voor topprestaties in programmeren en agenttaken, met behoud van sterke algemene intelligentie. Het blinkt uit in bewerkingen over meerdere bestanden, code-uitvoerings- en correctielussen, testvalidatie en complexe toolchains.",
"ministral-3b-latest.description": "Ministral 3B is het topmodel voor edge-toepassingen van Mistral.",
"ministral-8b-latest.description": "Ministral 8B is een zeer kosteneffectief edge-model van Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Het kimi-k2-0905-preview model ondersteunt een contextvenster van 256k, met sterkere agentmatige codering, meer verfijnde en praktische frontend-code en beter contextbegrip.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo is een snelle versie van Kimi K2 Thinking, met aanzienlijk lagere latentie terwijl diepe redenering behouden blijft.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking is Moonshots redeneermodel, geoptimaliseerd voor diepgaande redeneertaken, met algemene agentcapaciteiten.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 is het meest intelligente Kimi-model tot nu toe, met een native multimodale architectuur.",
"moonshotai/kimi-k2.description": "Kimi K2 is een groot MoE-model van Moonshot AI met 1T totale parameters en 32B actief per forward pass, geoptimaliseerd voor agentcapaciteiten zoals geavanceerd toolgebruik, redenering en codesynthese.",
"morph/morph-v3-fast.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 4500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.",
"morph/morph-v3-large.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 2500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.",
"musesteamer-air-image.description": "musesteamer-air-image is een beeldgeneratiemodel ontwikkeld door het zoekteam van Baidu om uitzonderlijke kosten-prestatieverhoudingen te leveren. Het kan snel duidelijke, actie-consistente beelden genereren op basis van gebruikersprompts, waardoor gebruikersbeschrijvingen moeiteloos in visuals worden omgezet.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B is een bijgewerkte versie van Nous Hermes 2 met de nieuwste intern ontwikkelde datasets.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B is een door NVIDIA aangepast LLM om behulpzaamheid te verbeteren. Het presteert sterk op Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat op 1 in alle drie auto-alignment benchmarks per 1 oktober 2024. Het is getraind vanuit Llama-3.1-70B-Instruct met behulp van RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Een onderscheidend taalmodel dat uitzonderlijke nauwkeurigheid en efficiëntie levert.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Op basis van contextlengte, onderwerp en complexiteit wordt je verzoek doorgestuurd naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelf-gemodereerd) of GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.",
"oswe-vscode-secondary.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 is een model dat een balans vindt tussen hoge rekenefficiëntie en uitstekende redeneer- en agentprestaties.",
"perplexity/sonar-pro.description": "Het vlaggenschipproduct van Perplexity met zoekverankering, ondersteuning voor geavanceerde vragen en vervolginteracties.",
"perplexity/sonar-reasoning-pro.description": "Een geavanceerd redeneermodel dat keten-van-gedachten (CoT) genereert met verbeterde zoekfunctionaliteit, inclusief meerdere zoekopdrachten per verzoek.",
"perplexity/sonar-reasoning.description": "Een redeneermodel dat keten-van-gedachten (CoT) genereert met gedetailleerde, op zoek gebaseerde uitleg.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Qwen codeermodel.",
"qwen-coder-turbo.description": "Qwen codeermodel.",
"qwen-flash.description": "Snelste en goedkoopste Qwen-model, ideaal voor eenvoudige taken.",
"qwen-image-edit-max.description": "Qwen Image Editing Model ondersteunt multi-beeldinvoer en multi-beelduitvoer, waardoor nauwkeurige in-beeld tekstbewerking, objecttoevoeging, verwijdering of verplaatsing, wijziging van onderwerpacties, beeldstijltransfers en verbeterde visuele details mogelijk zijn.",
"qwen-image-edit-plus.description": "Qwen Image Editing Model ondersteunt multi-beeldinvoer en multi-beelduitvoer, waardoor nauwkeurige in-beeld tekstbewerking, objecttoevoeging, verwijdering of verplaatsing, wijziging van onderwerpacties, beeldstijltransfers en verbeterde visuele details mogelijk zijn.",
"qwen-image-edit.description": "Qwen Image Edit is een beeld-naar-beeldmodel dat afbeeldingen bewerkt op basis van invoerafbeeldingen en tekstprompts, voor nauwkeurige aanpassingen en creatieve transformaties.",
"qwen-image-max.description": "Qwen Image Generation Model (Max-serie) levert verbeterde realisme en visuele natuurlijkheid in vergelijking met de Plus-serie, vermindert effectief AI-gegenereerde artefacten en toont uitstekende prestaties in menselijke verschijning, textuurdetails en tekstrendering.",
"qwen-image-plus.description": "Het ondersteunt een breed scala aan artistieke stijlen en is bijzonder bedreven in het weergeven van complexe tekst binnen beelden, waardoor geïntegreerd beeld-tekst lay-outontwerp mogelijk is.",
"qwen-image.description": "Qwen-Image is een algemeen beeldgeneratiemodel dat meerdere kunststijlen ondersteunt en complexe tekstweergave aankan, vooral in het Chinees en Engels. Het ondersteunt meerregelige lay-outs, tekst op alinea-niveau en fijne details voor complexe tekst-beeldcombinaties.",
"qwen-long.description": "Ultragroot Qwen-model met lange context en chatmogelijkheden over lange en meerdere documenten.",
"qwen-math-plus-latest.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Open-source Qwen-codeermodel. De nieuwste qwen3-coder-30b-a3b-instruct is gebaseerd op Qwen3 en levert sterke codeeragentmogelijkheden, toolgebruik en omgevingsinteractie voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is een toonaangevend codeermodel voor meertalige programmering en complexe codebegrip.",
"qwen3-coder-flash.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder-next.description": "Next-gen Qwen coder geoptimaliseerd voor complexe multi-bestandscodegeneratie, debugging en workflows met hoge doorvoer voor agents. Ontworpen voor sterke toolintegratie en verbeterde redeneerprestaties.",
"qwen3-coder-plus.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.",
"qwen3-coder:480b.description": "Alibabas krachtige model met lange context voor agent- en programmeertaken.",
"qwen3-max-2026-01-23.description": "Qwen3 Max-modellen leveren grote verbeteringen ten opzichte van de 2.5-serie in algemene vaardigheden, Chinees/Engels begrip, complexe instructieopvolging, subjectieve open taken, meertalige vaardigheden en toolgebruik, met minder hallucinaties. De nieuwste qwen3-max verbetert agentisch programmeren en toolgebruik ten opzichte van qwen3-max-preview. Deze release bereikt SOTA-niveau en richt zich op complexere agentbehoeften.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is een multimodaal keten-van-gedachten model voor gedetailleerde visuele redenering.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: lichtgewicht, snelle redeneerversie voor latency-gevoelige of grootschalige verzoeken.",
"qwen3-vl-plus.description": "Qwen VL is een tekstgeneratiemodel met visueel begrip. Het kan OCR uitvoeren en ook samenvatten en redeneren, zoals het extraheren van kenmerken uit productfotos of het oplossen van problemen op basis van afbeeldingen.",
"qwen3.5-397b-a17b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten levert het significante verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.5-plus.description": "Qwen3.5 Plus ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, terwijl het betere efficiëntie en lagere kosten biedt. Qua multimodale capaciteiten toont het significante verbeteringen ten opzichte van de Qwen3 VL-serie.",
"qwen3.description": "Qwen3 is Alibabas volgende generatie groot taalmodel met sterke prestaties in diverse toepassingen.",
"qwq-32b-preview.description": "QwQ is een experimenteel onderzoeksmodel van Qwen gericht op verbeterde redenering.",
"qwq-32b.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQs denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.",
"r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame) en audiogeneratie gesynchroniseerd met visuele elementen.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-gebaseerde generatie voor real-time informatie, verbeterde interpretatie van complexe prompts en verbeterde referentieconsistentie voor professionele visuele creatie.",
"solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.",
"solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.",
"solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.",
"sonar-reasoning.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.",
"sonar.description": "Een lichtgewicht zoekproduct met verankering, sneller en goedkoper dan Sonar Pro.",
"spark-x.description": "X1.5-updates: (1) voegt dynamische denkmodus toe via het veld `thinking`; (2) grotere contextlengte met 64K invoer en 64K uitvoer; (3) ondersteunt FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 is een model dat een balans vindt tussen hoge rekenefficiëntie en uitstekende redeneer- en agentprestaties.",
"spark-x.description": "X2 Capaciteitenoverzicht: 1. Introduceert dynamische aanpassing van redeneermodus, gecontroleerd via het `thinking` veld. 2. Uitgebreide contextlengte: 64K invoertokens en 128K uitvoertokens. 3. Ondersteunt Function Call-functionaliteit.",
"stable-diffusion-3-medium.description": "Het nieuwste tekst-naar-beeldmodel van Stability AI. Deze versie verbetert de beeldkwaliteit, tekstbegrip en stijlvariatie aanzienlijk, interpreteert complexe natuurlijke taal nauwkeuriger en genereert preciezere, gevarieerdere beelden.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo past adversarial diffusion distillation (ADD) toe op stable-diffusion-3.5-large voor hogere snelheid.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is een 800M-parameter MMDiT tekst-naar-beeldmodel met uitstekende kwaliteit en prompt-afstemming, ondersteunt 1-megapixel beelden en draait efficiënt op consumentenhardware.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Ondersteunt interacties met grote context voor complexe dialogen.",
"step-2-mini.description": "Gebouwd op de volgende generatie interne MFA-attentiearchitectuur, levert Step-1-achtige resultaten tegen veel lagere kosten met hogere doorvoer en snellere latency. Behandelt algemene taken met sterke codeercapaciteit.",
"step-2x-large.description": "Een nieuwe generatie StepFun-beeldmodel gericht op beeldgeneratie, produceert beelden van hoge kwaliteit op basis van tekstprompts. Levert realistischere texturen en sterkere Chinese/Engelse tekstrendering.",
"step-3.5-flash.description": "Het vlaggenschip taalredeneermodel van Stepfun. Dit model levert topniveau redeneercapaciteiten samen met snelle en betrouwbare uitvoering. Het kan complexe taken ontleden en plannen, snel en betrouwbaar tools oproepen om ze uit te voeren, en uitblinken in logisch redeneren, wiskunde, software-engineering, diepgaand onderzoek en andere geavanceerde taken. De contextlengte is 256K.",
"step-3.description": "Dit model beschikt over sterke visuele waarneming en complexe redeneercapaciteiten, en verwerkt nauwkeurig domeinoverstijgend begrip, wiskundig-visuele analyses en een breed scala aan alledaagse visuele taken.",
"step-r1-v-mini.description": "Een redeneermodel met sterke beeldbegripcapaciteiten dat afbeeldingen en tekst verwerkt en vervolgens tekst genereert na diepgaande redenering. Het blinkt uit in visueel redeneren en levert topprestaties in wiskunde, programmeren en tekstuele redenering, met een contextvenster van 100K.",
"stepfun-ai/step3.description": "Step3 is een geavanceerd multimodaal redeneermodel van StepFun, gebouwd op een MoE-architectuur met 321B totale en 38B actieve parameters. Het end-to-end ontwerp minimaliseert de decodeerkosten en levert topklasse visueel-taalkundige redenering. Dankzij MFA- en AFD-ontwerp blijft het efficiënt op zowel krachtige als eenvoudige accelerators. De pretraining gebruikt meer dan 20T teksttokens en 4T beeld-teksttokens in meerdere talen. Het behaalt toonaangevende prestaties op benchmarks voor wiskunde, code en multimodaliteit.",
"taichu_llm.description": "Getraind op enorme hoeveelheden hoogwaardige data, met sterk verbeterd tekstbegrip, contentcreatie en conversatiegerichte vraagbeantwoording.",
"taichu_o1.description": "taichu_o1 is een next-gen redeneermodel dat multimodale interactie en reinforcement learning gebruikt om mensachtige redeneerketens te bereiken. Het ondersteunt complexe beslissingssimulaties en toont redeneerpaden terwijl het nauwkeurige output levert, ideaal voor strategische analyses en diepgaand denken.",
"taichu_vl.description": "Combineert beeldbegrip, kennisoverdracht en logische toewijzing, en blinkt uit in beeld-tekst vraagbeantwoording.",
"taichu4_vl_2b_nothinking.description": "De No-Thinking versie van het Taichu4.0-VL 2B-model kenmerkt zich door lager geheugengebruik, een lichtgewicht ontwerp, snelle reactiesnelheid en sterke multimodale begripsmogelijkheden.",
"taichu4_vl_32b.description": "De Thinking versie van het Taichu4.0-VL 32B-model is geschikt voor complexe multimodale begrip- en redeneertaken, en toont uitstekende prestaties in multimodale wiskundige redenering, multimodale agentcapaciteiten en algemeen beeld- en visueel begrip.",
"taichu4_vl_32b_nothinking.description": "De No-Thinking versie van het Taichu4.0-VL 32B-model is ontworpen voor complexe beeld-en-tekstbegrip- en visuele kennis-QA-scenario's, en blinkt uit in beeldonderschriften, visuele vraagbeantwoording, videobegrip en visuele lokalisatietaken.",
"taichu4_vl_3b.description": "De Thinking versie van het Taichu4.0-VL 3B-model voert efficiënt multimodale begrip- en redeneertaken uit, met uitgebreide upgrades in visueel begrip, visuele lokalisatie, OCR-herkenning en gerelateerde capaciteiten.",
"taichu_llm.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.",
"taichu_llm_14b.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.",
"taichu_llm_2b.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.",
"taichu_o1.description": "taichu_o1 is een next-generation redeneermodel dat mensachtige keten-van-denken bereikt via multimodale interactie en versterkend leren. Het ondersteunt complexe besluitvormingssimulaties en, terwijl het een hoge precisie-output behoudt, onthult het interpreteerbare redeneerpaden. Het is goed geschikt voor strategieanalyse, diep nadenken en soortgelijke scenario's.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct gebruikt 80B totale parameters met 13B actieve om te concurreren met grotere modellen. Het ondersteunt snelle/langzame hybride redenering, stabiel begrip van lange teksten en toonaangevende agentprestaties op BFCL-v3 en τ-Bench. GQA- en multi-quant-formaten maken efficiënte inferentie mogelijk.",
"tencent/Hunyuan-MT-7B.description": "Hunyuan Translation Model omvat Hunyuan-MT-7B en het ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B is een lichtgewicht vertaalmodel van 7B dat 33 talen en 5 Chinese minderheidstalen ondersteunt. In WMT25 behaalde het 30 eerste plaatsen in 31 taalkoppels. Tencent Hunyuan gebruikt een volledige trainingspipeline van pretraining tot SFT, vertaal-RL en ensemble-RL, en levert toonaangevende prestaties met efficiënte en eenvoudige implementatie.",
"text-embedding-3-large.description": "Het krachtigste embeddingmodel voor taken in het Engels en andere talen.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md is geschikt voor alledaagse taken en UI-generatie.",
"vercel/v0-1.0-md.description": "Toegang tot de modellen achter v0 om moderne webapps te genereren, verbeteren en optimaliseren met framework-specifieke redenering en actuele kennis.",
"vercel/v0-1.5-md.description": "Toegang tot de modellen achter v0 om moderne webapps te genereren, verbeteren en optimaliseren met framework-specifieke redenering en actuele kennis.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code is geoptimaliseerd voor bedrijfsgerichte programmeerbehoeften. Op basis van de uitstekende Agent- en VLM-capaciteiten van Seed 2.0 is de codecapaciteit speciaal verbeterd. Het presteert niet alleen uitstekend in frontend-capaciteiten, maar is ook speciaal geoptimaliseerd voor veelvoorkomende meertalige codeerbehoeften van bedrijven, en is geschikt voor integratie in diverse AI-programmeertools.",
"volcengine/doubao-seed-2-0-lite.description": "Combineert generatiekwaliteit en reactiesnelheid, geschikt als algemeen productiemodel.",
"volcengine/doubao-seed-2-0-mini.description": "Verwijst naar de nieuwste versie van doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Verwijst naar de nieuwste versie van doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code is het LLM van ByteDance Volcano Engine, geoptimaliseerd voor agentisch programmeren, met sterke prestaties op programmeer- en agentbenchmarks en ondersteuning voor 256K context.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en levert snelle generatie en hoge waarde.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en produceert rijkere details.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en levert snelle generatie en hoge waarde.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en produceert rijkere details.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview ondersteunt bewerking van enkele beelden en fusie van meerdere beelden.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I ondersteunt flexibele selectie van beeldafmetingen binnen totale pixelgebied- en beeldverhoudingsbeperkingen.",
"wan2.6-image.description": "Wanxiang 2.6 Image ondersteunt beeldbewerking en gemengde beeld-tekst lay-outuitvoer.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I ondersteunt flexibele selectie van beeldafmetingen binnen totale pixelgebied- en beeldverhoudingsbeperkingen (hetzelfde als Wanxiang 2.5).",
"wanx-v1.description": "Basis tekst-naar-beeldmodel. Komt overeen met Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Blinkt uit in getextureerde portretten met gemiddelde snelheid en lagere kosten. Komt overeen met Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Volledig geüpgraded model met rijkere beeldkwaliteit en iets tragere snelheid. Komt overeen met Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4.1 Fast is xAIs model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), ideaal voor toepassingen met hoge gelijktijdigheid en lange contexten.",
"x-ai/grok-4.description": "Grok 4 is xAI's toonaangevende model voor redenering met sterke multimodale capaciteiten.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 is xAI's snelle codemodel met leesbare, gebruiksvriendelijke output voor engineers.",
"x1.description": "X1.5 updates: (1) voegt dynamische denkmodus toe, gecontroleerd door het `thinking` veld; (2) grotere contextlengte met 64K invoer en 64K uitvoer; (3) ondersteunt FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision blinkt uit in visuele taken en levert SOTA-prestaties op visuele wiskundige redenering (MathVista) en documentvragen (DocVQA). Het verwerkt documenten, grafieken, diagrammen, schermafbeeldingen en foto's.",
"xai/grok-2.description": "Grok 2 is een geavanceerd model met state-of-the-art redenering, sterke chat-, codeer- en redeneercapaciteiten, en scoort hoger dan Claude 3.5 Sonnet en GPT-4 Turbo op LMSYS.",
"xai/grok-3-fast.description": "xAIs vlaggenschipmodel blinkt uit in zakelijke toepassingen zoals data-extractie, codering en samenvatting, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap. De snelle variant draait op snellere infrastructuur voor veel snellere reacties tegen hogere kosten per token.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 is Z.AIs vlaggenschipmodel met hybride redenering, geoptimaliseerd voor engineering- en lang-contexttaken.",
"z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's vlaggenschipmodel met uitgebreide contextlengte en codeercapaciteiten.",
"z-ai/glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu, met verbeterde algemene capaciteiten, eenvoudigere en natuurlijkere antwoorden, en een meeslepende schrijfervaring.",
"z-ai/glm5.description": "Een sterk redeneer- en agent-gebaseerd model van Z.ai met in totaal 744B parameters (40B actief), ontworpen voor complexe systeemengineering en langetermijntaken.",
"z-ai/glm4.7.description": "GLM-4.7 is Zhipu's nieuwste vlaggenschipmodel, verbeterd voor Agentic Coding-scenario's met verbeterde codeercapaciteiten.",
"z-ai/glm5.description": "GLM-5 is Zhipu AI's nieuwe vlaggenschipfundamentmodel voor agent-engineering, dat open-source SOTA-prestaties behaalt in codering en agentcapaciteiten. Het evenaart Claude Opus 4.5 in prestaties.",
"z-image-turbo.description": "Z-Image is een lichtgewicht tekst-naar-beeldgeneratiemodel dat snel beelden kan produceren, zowel Chinese als Engelse tekstrendering ondersteunt, en flexibel kan worden aangepast aan meerdere resoluties en beeldverhoudingen.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is een basismodel voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenarios aan te kunnen.",
"zai-org/GLM-4.5.description": "GLM-4.5 is een basismodel gebouwd voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is diepgaand geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenarios aan te kunnen.",
"zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AIs nieuwste VLM, gebaseerd op het GLM-4.5-Air vlaggenschiptekstmodel (106B totaal, 12B actief) met een MoE-architectuur voor sterke prestaties tegen lagere kosten. Het volgt het GLM-4.1V-Thinking pad en voegt 3D-RoPE toe voor verbeterde 3D-ruimtelijke redenering. Geoptimaliseerd via pretraining, SFT en RL, verwerkt het beelden, videos en lange documenten en scoort het hoog op 41 openbare multimodale benchmarks. Een Thinking-modus schakelaar laat gebruikers kiezen tussen snelheid en diepgang.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Knooppunt bijwerken",
"builtins.lobe-page-agent.apiName.wrapNodes": "Knooppunten inpakken",
"builtins.lobe-page-agent.title": "Pagina",
"builtins.lobe-skill-store.apiName.importFromMarket": "Importeren uit de Markt",
"builtins.lobe-skill-store.apiName.importSkill": "Vaardigheid Importeren",
"builtins.lobe-skill-store.apiName.searchSkill": "Vaardigheden Zoeken",
"builtins.lobe-skill-store.title": "Vaardighedenwinkel",
"builtins.lobe-skills.apiName.execScript": "Script Uitvoeren",
"builtins.lobe-skills.apiName.exportFile": "Bestand Exporteren",
"builtins.lobe-skills.apiName.importFromMarket": "Importeren uit de Markt",
"builtins.lobe-skills.apiName.importSkill": "Vaardigheid Importeren",
"builtins.lobe-skills.apiName.readReference": "Referentie Lezen",
"builtins.lobe-skills.apiName.runSkill": "Vaardigheid Activeren",
"builtins.lobe-skills.apiName.searchSkill": "Vaardigheden Zoeken",
"builtins.lobe-skills.title": "Vaardigheden",
"builtins.lobe-tools.apiName.activateTools": "Hulpmiddelen Activeren",
"builtins.lobe-user-memory.apiName.addContextMemory": "Contextgeheugen toevoegen",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Ervaringsgeheugen toevoegen",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Identiteitsgeheugen toevoegen",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Webzoekopdracht",
"confirm": "Bevestigen",
"debug.arguments": "Argumenten",
"debug.error": "Foutenlogboek",
"debug.function_call": "Functieaanroep",
"debug.intervention": "Skill-interventie",
"debug.off": "Debug uit",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Instellingen opgeslagen",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Metainfo",
"dev.title.create": "Aangepaste Skill toevoegen",
"dev.title.edit": "Aangepaste Skill bewerken",
"dev.title.create": "Aangepaste MCP Vaardigheid Toevoegen",
"dev.title.edit": "Aangepaste MCP Vaardigheid Bewerken",
"dev.title.editCommunity": "Community-vaardigheid bewerken",
"dev.title.skillDetails": "Vaardigheidsdetails",
"dev.title.skillSettings": "Vaardigheidsinstellingen",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud is een kosteneffectieve GenAI-cloudservice gebaseerd op sterke open-source basismodellen.",
"spark.description": "iFLYTEK Spark biedt krachtige meertalige AI over verschillende domeinen, en maakt innovaties mogelijk in slimme hardware, gezondheidszorg, financiën en andere sectoren.",
"stepfun.description": "Stepfun-modellen bieden toonaangevende multimodale en complexe redeneercapaciteiten, met begrip van lange contexten en krachtige autonome zoekcoördinatie.",
"straico.description": "Straico vereenvoudigt AI-integratie door een uniforme werkruimte te bieden die de beste tekst-, beeld- en audiogeneratieve AI-modellen samenbrengt, waardoor marketeers, ondernemers en enthousiastelingen naadloze toegang krijgen tot diverse AI-tools.",
"taichu.description": "Een next-gen multimodaal model van CASIA en het Wuhan Institute of AI, met ondersteuning voor meerstaps Q&A, schrijven, beeldgeneratie, 3D-begrip en signaalanalyse, met verbeterde cognitie en creativiteit.",
"tencentcloud.description": "LLM Knowledge Engine Atomic Power biedt end-to-end kennis-Q&A voor bedrijven en ontwikkelaars, met modulaire diensten zoals documentanalyse, chunking, embeddings en meerstaps herschrijving voor het samenstellen van aangepaste AI-oplossingen.",
"togetherai.description": "Together AI levert toonaangevende prestaties met innovatieve modellen, brede aanpasbaarheid, snelle schaalbaarheid en eenvoudige implementatie voor zakelijke behoeften.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Agentprofiel",
"agentInfoDescription.value.unset": "Niet ingesteld",
"agentInfoDescription.value.untitled": "Naamloze agent",
"agentSkillDetail.addedAt": "Toegevoegd",
"agentSkillDetail.publishedAt": "Gepubliceerd",
"agentSkillDetail.repository": "GitHub-repository",
"agentSkillDetail.skillContent": "Vaardigheidsinhoud",
"agentSkillDetail.sourceUrl": "Bron van vaardigheidsimport",
"agentSkillDetail.updatedAt": "Bijgewerkt",
"agentSkillEdit.descriptionDesc": "Een korte samenvatting van wat de vaardigheid doet, zodat de agent begrijpt wanneer deze te gebruiken",
"agentSkillEdit.fileReadonly": "Dit bestand is alleen-lezen. Alleen de beschrijving en instructies van de vaardigheid kunnen worden bewerkt.",
"agentSkillEdit.instructions": "Instructies",
"agentSkillEdit.instructionsDesc": "De kerninstructies in Markdown die het gedrag en de workflow van de vaardigheid definiëren",
"agentSkillEdit.instructionsPlaceholder": "Voer de vaardigheidsinstructies in Markdown-formaat in...",
"agentSkillEdit.nameDesc": "De unieke identificatie voor deze vaardigheid, niet bewerkbaar na aanmaak",
"agentSkillEdit.saveSuccess": "Vaardigheid succesvol bijgewerkt",
"agentSkillEdit.title": "Vaardigheidsinstellingen",
"agentSkillItem.deleteConfirm.desc": "Weet u zeker dat u de agentvaardigheid \"{{name}}\" wilt verwijderen? Deze actie kan niet ongedaan worden gemaakt.",
"agentSkillItem.deleteConfirm.title": "Agentvaardigheid Verwijderen",
"agentSkillModal.content": "Vaardigheidsinhoud",
"agentSkillModal.contentPlaceholder": "Voer vaardigheidsinhoud in Markdown-formaat in...",
"agentSkillModal.description": "Beschrijving",
"agentSkillModal.descriptionPlaceholder": "Beschrijf deze vaardigheid kort",
"agentSkillModal.github.desc": "Importeer vaardigheden direct vanuit een openbare GitHub-repository.",
"agentSkillModal.github.title": "Importeren vanuit GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/gebruikersnaam/repo",
"agentSkillModal.importError": "Importeren mislukt: {{error}}",
"agentSkillModal.importSuccess": "Agentvaardigheid succesvol geïmporteerd",
"agentSkillModal.upload.desc": "Upload een lokaal .zip- of .skill-bestand om te installeren.",
"agentSkillModal.upload.dragText": "Sleep en zet neer of klik om te uploaden",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md bevat vaardigheidsnaam en beschrijving in YAML-formaat",
"agentSkillModal.upload.requirementZip": ".zip- of .skill-bestand met SKILL.md in de hoofdmap",
"agentSkillModal.upload.requirements": "Bestandsvereisten",
"agentSkillModal.upload.title": "Vaardigheid Uploaden",
"agentSkillModal.upload.uploading": "Bezig met uploaden...",
"agentSkillModal.url.desc": "Importeer een vaardigheid door een directe link naar een SKILL.md-bestand op te geven.",
"agentSkillModal.url.title": "Importeren via URL",
"agentSkillModal.url.urlPlaceholder": "https://voorbeeld.com/pad/naar/SKILL.md",
"agentSkillTag": "Agentvaardigheid",
"agentTab.chat": "Chatvoorkeuren",
"agentTab.meta": "Agentinformatie",
"agentTab.modal": "Modelinstellingen",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Specificeer het model dat wordt gebruikt voor vertaling",
"systemAgent.translation.title": "Berichtvertalingsagent",
"tab.about": "Over",
"tab.addAgentSkill": "Agentvaardigheid Toevoegen",
"tab.addCustomMcp": "Aangepaste MCP-vaardigheid Toevoegen",
"tab.addCustomMcp.desc": "Handmatig een aangepaste MCP-server configureren",
"tab.addCustomSkill": "Aangepaste skill toevoegen",
"tab.agent": "Agentservice",
"tab.all": "Alles",
@ -652,7 +691,13 @@
"tab.experiment": "Experiment",
"tab.hotkey": "Sneltoetsen",
"tab.image": "Afbeeldingengeneratie",
"tab.importFromGithub": "Importeren vanuit GitHub",
"tab.importFromGithub.desc": "Importeren vanuit een openbare GitHub-repository",
"tab.importFromUrl": "Importeren via URL",
"tab.importFromUrl.desc": "Importeren via een directe link naar SKILL.md",
"tab.llm": "Taalmodel",
"tab.manualFill": "Handmatig Invullen",
"tab.manualFill.desc": "Handmatig een aangepaste MCP-vaardigheid configureren",
"tab.memory": "Geheugen",
"tab.profile": "Mijn Account",
"tab.provider": "AI-dienstverlener",
@ -669,6 +714,8 @@
"tab.sync": "Cloudsynchronisatie",
"tab.systemTools": "Systeemhulpmiddelen",
"tab.tts": "Tekst-naar-Spraak",
"tab.uploadZip": "Zip Uploaden",
"tab.uploadZip.desc": "Upload een lokaal .zip- of .skill-bestand",
"tab.usage": "Gebruiksstatistieken",
"tools.add": "Vaardigheid Toevoegen",
"tools.builtins.groupName": "Ingebouwd",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Oceń nas na GitHubie",
"footer.title": "Podoba Ci się nasz produkt?",
"fullscreen": "Tryb pełnoekranowy",
"geminiImageChineseWarning.content": "Nano Banana może czasami nie generować obrazów przy użyciu języka chińskiego. Zalecamy użycie języka angielskiego dla lepszych rezultatów.",
"geminiImageChineseWarning.continueGenerate": "Kontynuuj generowanie",
"geminiImageChineseWarning.continueSend": "Kontynuuj wysyłanie",
"geminiImageChineseWarning.doNotShowAgain": "Nie pokazuj ponownie",
"geminiImageChineseWarning.title": "Uwaga dotycząca języka chińskiego",
"historyRange": "Zakres historii",
"home.suggestQuestions": "Wypróbuj te przykłady",
"import": "Importuj",
@ -397,6 +392,7 @@
"tab.chat": "Czat",
"tab.community": "Społeczność",
"tab.discover": "Odkrywaj",
"tab.eval": "Laboratorium Ewaluacji",
"tab.files": "Pliki",
"tab.home": "Strona główna",
"tab.knowledgeBase": "Biblioteka",

316
locales/pl-PL/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Usuń Benchmark",
"benchmark.actions.delete.confirm": "Czy na pewno chcesz usunąć ten benchmark? Powiązane zestawy danych i rekordy oceny również zostaną usunięte.",
"benchmark.actions.edit": "Edytuj Benchmark",
"benchmark.actions.export": "Eksportuj",
"benchmark.card.bestScore": "Najlepszy",
"benchmark.card.caseCount": "{{count}} przypadków",
"benchmark.card.datasetCount": "{{count}} zestawów danych",
"benchmark.card.empty": "Brak ocen",
"benchmark.card.emptyHint": "Utwórz nową ocenę na stronie szczegółów benchmarku",
"benchmark.card.importDataset": "Importuj Zestaw Danych",
"benchmark.card.noDataset": "Brak zestawów danych",
"benchmark.card.noDatasetHint": "Zaimportuj zestaw danych, aby rozpocząć ocenianie",
"benchmark.card.noRecentRuns": "Brak ostatnich ocen do wyświetlenia",
"benchmark.card.recentRuns": "Ostatnie Oceny",
"benchmark.card.runCount": "{{count}} ocen",
"benchmark.card.startFirst": "Rozpocznij Pierwszą Ocenę",
"benchmark.card.viewAll": "Zobacz wszystkie {{count}}",
"benchmark.create.confirm": "Utwórz",
"benchmark.create.description.label": "Opis",
"benchmark.create.description.placeholder": "Opis benchmarku (opcjonalnie)",
"benchmark.create.error": "Nie udało się utworzyć benchmarku",
"benchmark.create.identifier.label": "Identyfikator",
"benchmark.create.identifier.placeholder": "identyfikator-benchmarku",
"benchmark.create.identifierRequired": "Wprowadź identyfikator",
"benchmark.create.name.label": "Nazwa",
"benchmark.create.name.placeholder": "Wprowadź nazwę benchmarku",
"benchmark.create.nameRequired": "Wprowadź nazwę benchmarku",
"benchmark.create.success": "Benchmark został pomyślnie utworzony",
"benchmark.create.tags.label": "Tagi",
"benchmark.create.tags.placeholder": "Dodaj tagi, oddzielone przecinkiem lub spacją",
"benchmark.create.title": "Utwórz Benchmark",
"benchmark.detail.backToOverview": "Powrót do Przeglądu",
"benchmark.detail.datasetCount": "{{count}} zestaw{{count, plural, one {} other {ów}}} danych w tym benchmarku",
"benchmark.detail.runCount": "{{count}} uruchomienie{{count, plural, one {} other {ń}}} oceny w tym benchmarku",
"benchmark.detail.stats.addFirstDataset": "Kliknij, aby dodać pierwszy zestaw danych",
"benchmark.detail.stats.avgCost": "Średni Koszt",
"benchmark.detail.stats.avgDuration": "Średni Czas Trwania",
"benchmark.detail.stats.basedOnLastNRuns": "Na podstawie ostatnich {{count}} uruchomień",
"benchmark.detail.stats.bestPerformance": "Najlepsza wydajność przez {{agent}} z {{passRate}}% wskaźnikiem sukcesu",
"benchmark.detail.stats.bestScore": "Najlepszy Wynik",
"benchmark.detail.stats.cases": "Przypadki",
"benchmark.detail.stats.dataScale": "Skala Danych",
"benchmark.detail.stats.datasets": "Zestawy Danych",
"benchmark.detail.stats.needSetup": "Wymagane Ustawienia",
"benchmark.detail.stats.noEvalRecord": "Brak rekordów oceny",
"benchmark.detail.stats.perRun": "/ Uruchomienie",
"benchmark.detail.stats.runs": "Uruchomienia",
"benchmark.detail.stats.tags": "Tagi",
"benchmark.detail.stats.topAgents": "Najlepsi Agenci",
"benchmark.detail.stats.totalCases": "Łączna Liczba Przypadków",
"benchmark.detail.stats.waiting": "Oczekiwanie...",
"benchmark.detail.tabs.data": "Dane",
"benchmark.detail.tabs.datasets": "Zestawy Danych",
"benchmark.detail.tabs.runs": "Uruchomienia",
"benchmark.edit.confirm": "Zapisz",
"benchmark.edit.error": "Nie udało się zaktualizować benchmarku",
"benchmark.edit.success": "Benchmark został pomyślnie zaktualizowany",
"benchmark.edit.title": "Edytuj Benchmark",
"benchmark.empty": "Brak benchmarków. Utwórz jeden, aby rozpocząć.",
"caseDetail.actual": "Rzeczywisty Wynik",
"caseDetail.chatArea.title": "Rozmowa",
"caseDetail.completionReason": "Status",
"caseDetail.cost": "Koszt",
"caseDetail.difficulty": "Trudność",
"caseDetail.duration": "Czas Trwania",
"caseDetail.expected": "Oczekiwany Wynik",
"caseDetail.failureReason": "Powód Niepowodzenia",
"caseDetail.input": "Wejście",
"caseDetail.judgeComment": "Komentarz Sędziego",
"caseDetail.resources": "Zasoby",
"caseDetail.score": "Wynik",
"caseDetail.section.runtime": "Czas Wykonania",
"caseDetail.section.scoring": "Szczegóły Punktacji",
"caseDetail.section.testCase": "Przypadek Testowy",
"caseDetail.steps": "Kroki",
"caseDetail.threads.attempt": "Próba #{{number}}",
"caseDetail.tokens": "Użycie Tokenów",
"common.cancel": "Anuluj",
"common.create": "Utwórz",
"common.delete": "Usuń",
"common.edit": "Edytuj",
"common.later": "Później",
"common.next": "Dalej",
"common.update": "Aktualizuj",
"dataset.actions.addDataset": "Dodaj Zestaw Danych",
"dataset.actions.import": "Importuj Dane",
"dataset.actions.importDataset": "Importuj Zestaw Danych",
"dataset.create.description.label": "Opis",
"dataset.create.description.placeholder": "Opis zestawu danych (opcjonalnie)",
"dataset.create.error": "Nie udało się utworzyć zestawu danych",
"dataset.create.identifier.label": "Identyfikator",
"dataset.create.identifier.placeholder": "identyfikator-zestawu-danych",
"dataset.create.identifierRequired": "Wprowadź identyfikator",
"dataset.create.importNow": "Czy chcesz teraz zaimportować dane?",
"dataset.create.name.label": "Nazwa Zestawu Danych",
"dataset.create.name.placeholder": "Wprowadź nazwę zestawu danych",
"dataset.create.nameRequired": "Wprowadź nazwę zestawu danych",
"dataset.create.preset.label": "Predefiniowany Zestaw Danych",
"dataset.create.success": "Zestaw danych został pomyślnie utworzony",
"dataset.create.successTitle": "Zestaw Danych Utworzony",
"dataset.create.title": "Utwórz Zestaw Danych",
"dataset.delete.confirm": "Czy na pewno chcesz usunąć ten zestaw danych? Wszystkie przypadki testowe w nim zawarte również zostaną usunięte.",
"dataset.delete.error": "Nie udało się usunąć zestawu danych",
"dataset.delete.success": "Zestaw danych został pomyślnie usunięty",
"dataset.detail.addRun": "Nowe Uruchomienie",
"dataset.detail.backToBenchmark": "Powrót do Benchmarku",
"dataset.detail.caseCount": "{{count}} przypadek testowy{{count, plural, one {} other {ów}}}",
"dataset.detail.relatedRuns": "Powiązane Uruchomienia ({{count}})",
"dataset.detail.testCases": "Przypadki Testowe",
"dataset.detail.viewDetail": "Zobacz Szczegóły",
"dataset.edit.error": "Nie udało się zaktualizować zestawu danych",
"dataset.edit.success": "Zestaw danych został pomyślnie zaktualizowany",
"dataset.edit.title": "Edytuj Zestaw Danych",
"dataset.empty": "Brak zestawów danych",
"dataset.empty.description": "Zaimportuj zestaw danych, aby rozpocząć budowanie tego benchmarku",
"dataset.empty.title": "Brak zestawów danych",
"dataset.evalMode.hint": "Domyślny tryb oceny dla zestawu danych, można go nadpisać na poziomie przypadku testowego",
"dataset.import.category": "Kategoria",
"dataset.import.categoryDesc": "Etykieta klasyfikacji do grupowania",
"dataset.import.choices": "Opcje",
"dataset.import.choicesDesc": "Opcje wielokrotnego wyboru",
"dataset.import.confirm": "Importuj",
"dataset.import.error": "Nie udało się zaimportować zestawu danych",
"dataset.import.expected": "Oczekiwana Odpowiedź",
"dataset.import.expectedDelimiter": "Separator Odpowiedzi",
"dataset.import.expectedDelimiter.desc": "Separator odpowiedzi",
"dataset.import.expectedDelimiter.placeholder": "np. | lub ,",
"dataset.import.expectedDesc": "Poprawna odpowiedź do porównania",
"dataset.import.fieldMapping": "Mapowanie Pól",
"dataset.import.fieldMapping.desc": "Kolumna \"Wejście\" jest wymagana",
"dataset.import.hideSkipped": "Ukryj pominięte kolumny",
"dataset.import.ignore": "Pomiń",
"dataset.import.ignoreDesc": "Nie importuj tej kolumny",
"dataset.import.input": "Wejście",
"dataset.import.inputDesc": "Pytanie lub polecenie wysłane do modelu",
"dataset.import.metadata": "Metadane",
"dataset.import.metadataDesc": "Dodatkowe informacje, przechowywane w oryginalnej formie",
"dataset.import.next": "Dalej",
"dataset.import.parseError": "Nie udało się przetworzyć pliku",
"dataset.import.parsing": "Przetwarzanie pliku...",
"dataset.import.prev": "Wstecz",
"dataset.import.preview": "Podgląd Danych",
"dataset.import.preview.desc": "Potwierdź poprawność mapowania, a następnie zaimportuj.",
"dataset.import.preview.rows": "Łącznie {{count}} wierszy",
"dataset.import.sortOrder": "Numer Elementu",
"dataset.import.sortOrderDesc": "ID pytania/elementu do odniesienia",
"dataset.import.step.mapping": "Mapuj Pola",
"dataset.import.step.preview": "Podgląd",
"dataset.import.step.upload": "Prześlij Plik",
"dataset.import.success": "Pomyślnie zaimportowano {{count}} przypadków testowych",
"dataset.import.title": "Importuj Zestaw Danych",
"dataset.import.upload.hint": "Obsługuje formaty CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Kliknij lub przeciągnij plik tutaj, aby przesłać",
"dataset.import.uploading": "Przesyłanie...",
"dataset.switchDataset": "Zmień Zestaw Danych",
"difficulty.easy": "Łatwy",
"difficulty.hard": "Trudny",
"difficulty.medium": "Średni",
"evalMode.contains": "Zawiera Dopasowanie",
"evalMode.contains.desc": "Wynik musi zawierać oczekiwany tekst",
"evalMode.equals": "Dokładne Dopasowanie",
"evalMode.equals.desc": "Wynik musi być dokładnie taki sam jak oczekiwany",
"evalMode.label": "Tryb Oceny",
"evalMode.llm-rubric": "Sędzia LLM",
"evalMode.llm-rubric.desc": "Użyj LLM do oceny jakości wyniku",
"evalMode.placeholder": "Wybierz tryb oceny",
"evalMode.prompt.label": "Kryteria Oceny",
"evalMode.prompt.placeholder": "Wprowadź kryteria oceny lub polecenie dla sędziego LLM",
"evalMode.rubric": "Punktacja Rubrykowa",
"evalMode.rubric.desc": "Oceń wynik za pomocą rubryk benchmarku z ważonymi kryteriami",
"overview.createBenchmark": "Utwórz Benchmark",
"overview.importDataset": "Importuj Zestaw Danych",
"overview.subtitle": "Benchmarkuj i oceniaj swoich agentów AI na zestawach danych",
"overview.title": "Laboratorium Oceny",
"run.actions.abort": "Przerwij",
"run.actions.abort.confirm": "Czy na pewno chcesz przerwać tę ocenę?",
"run.actions.create": "Nowa Ocena",
"run.actions.delete": "Usuń",
"run.actions.delete.confirm": "Czy na pewno chcesz usunąć tę ocenę?",
"run.actions.edit": "Edytuj",
"run.actions.retryCase": "Ponów Przypadek",
"run.actions.retryErrors": "Ponów Błędy",
"run.actions.retryErrors.confirm": "To ponownie uruchomi wszystkie przypadki błędów i przekroczeń czasu. Przypadki zaliczone i niezaliczone nie zostaną zmienione.",
"run.actions.run": "Uruchom",
"run.actions.start": "Rozpocznij",
"run.actions.start.confirm": "Czy na pewno chcesz rozpocząć tę ocenę?",
"run.chart.duration": "Czas Trwania (s)",
"run.chart.error": "Błąd",
"run.chart.fail": "Niepowodzenie",
"run.chart.latencyDistribution": "Rozkład Opóźnień",
"run.chart.latencyTokenDistribution": "Opóźnienie / Rozkład Tokenów",
"run.chart.pass": "Sukces",
"run.chart.passFailError": "Sukces / Niepowodzenie / Błąd",
"run.chart.tokens": "Tokeny",
"run.config.agentId": "Agent",
"run.config.concurrency": "Równoczesność",
"run.config.judgeModel": "Model Sędziego",
"run.config.k": "Wykonania (K)",
"run.config.k.hint": "Uruchom każdy przypadek testowy {{k}} razy dla metryk pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Maks. Kroki",
"run.config.maxSteps.hint": "Każde wywołanie LLM lub narzędzia przez agenta liczy się jako 1 krok",
"run.config.model": "Model",
"run.config.temperature": "Temperatura",
"run.config.timeout": "Limit Czasu",
"run.config.timeout.unit": "min",
"run.create.advanced": "Zaawansowane Ustawienia",
"run.create.agent": "Agent",
"run.create.agent.placeholder": "Wybierz agenta",
"run.create.agent.required": "Wybierz agenta",
"run.create.caseCount": "{{count}} przypadków",
"run.create.confirm": "Utwórz i Rozpocznij",
"run.create.createOnly": "Utwórz",
"run.create.dataset": "Zestaw Danych",
"run.create.dataset.placeholder": "Wybierz zestaw danych",
"run.create.dataset.required": "Wybierz zestaw danych",
"run.create.name": "Nazwa Uruchomienia",
"run.create.name.placeholder": "Wprowadź nazwę dla tego uruchomienia",
"run.create.name.required": "Wprowadź nazwę uruchomienia",
"run.create.name.useTimestamp": "Użyj bieżącego czasu jako nazwy",
"run.create.openAgent": "Otwórz agenta w nowym oknie",
"run.create.title": "Nowa Ocena",
"run.create.titleWithDataset": "Nowa Ocena na \"{{dataset}}\"",
"run.detail.agent": "Agent",
"run.detail.agent.none": "Nie określono",
"run.detail.agent.unnamed": "Agent Bez Nazwy",
"run.detail.backToBenchmark": "Powrót do Benchmarku",
"run.detail.caseResults": "Szczegóły Oceny",
"run.detail.config": "Konfiguracja Oceny",
"run.detail.configSnapshot": "Migawka Konfiguracji",
"run.detail.dataset": "Zestaw Danych",
"run.detail.model": "Model",
"run.detail.overview": "Przegląd",
"run.detail.progress": "Postęp",
"run.detail.progressCases": "przypadków",
"run.detail.report": "Podsumowanie Oceny",
"run.edit.error": "Nie udało się zaktualizować oceny",
"run.edit.success": "Ocena została pomyślnie zaktualizowana",
"run.edit.title": "Edytuj Ocenę",
"run.empty.description": "Rozpocznij pierwsze uruchomienie oceny na tym zestawie danych",
"run.empty.descriptionBenchmark": "Rozpocznij pierwsze uruchomienie oceny na tym benchmarku",
"run.empty.title": "Brak uruchomień",
"run.filter.active": "Aktywne",
"run.filter.empty": "Brak uruchomień pasujących do bieżącego filtra.",
"run.idle.hint": "Kliknij Rozpocznij, aby rozpocząć ocenę",
"run.metrics.avgScore": "Średni Wynik",
"run.metrics.cost": "Koszt",
"run.metrics.duration": "Czas Trwania",
"run.metrics.errorCases": "Błąd",
"run.metrics.evaluated": "{{count}} ocenione",
"run.metrics.passRate": "Wskaźnik Sukcesu",
"run.metrics.perCase": "/ przypadek",
"run.metrics.tokens": "Tokeny",
"run.metrics.totalDuration": "Łączny Czas",
"run.pending.hint": "Ocena jest w kolejce, oczekuje na rozpoczęcie...",
"run.running.hint": "Ocena trwa, wyniki pojawią się wkrótce...",
"run.status.aborted": "Przerwane",
"run.status.completed": "Zakończone",
"run.status.error": "Błąd Uruchomienia",
"run.status.failed": "Niepowodzenie",
"run.status.idle": "Bezczynne",
"run.status.pending": "Oczekujące",
"run.status.running": "Uruchomione",
"run.status.timeout": "Przekroczono Limit Czasu",
"sidebar.benchmarks": "Benchmarki",
"sidebar.dashboard": "Pulpit",
"sidebar.datasets": "Zestawy Danych",
"sidebar.runs": "Uruchomienia",
"table.columns.avgCost": "Średni Koszt",
"table.columns.category": "Kategoria",
"table.columns.cost": "Koszt",
"table.columns.difficulty": "Trudność",
"table.columns.duration": "Czas Trwania",
"table.columns.evalMode": "Tryb Oceny",
"table.columns.expected": "Oczekiwana Odpowiedź",
"table.columns.input": "Wejście",
"table.columns.score": "Wynik",
"table.columns.status": "Status",
"table.columns.steps": "Kroki",
"table.columns.tags": "Tagi",
"table.columns.tokens": "Tokeny",
"table.columns.totalCost": "Całkowity Koszt",
"table.filter.all": "Wszystkie",
"table.filter.error": "Błąd Uruchomienia",
"table.filter.failed": "Niepowodzenie",
"table.filter.passed": "Sukces",
"table.filter.running": "Uruchomione",
"table.search.placeholder": "Szukaj przypadków...",
"table.total": "Łącznie {{count}}",
"testCase.actions.add": "Dodaj Przypadek Testowy",
"testCase.actions.import": "Importuj Przypadki Testowe",
"testCase.create.advanced": "Więcej Opcji",
"testCase.create.difficulty.label": "Trudność",
"testCase.create.error": "Nie udało się dodać przypadku testowego",
"testCase.create.expected.label": "Oczekiwany Wynik",
"testCase.create.expected.placeholder": "Wprowadź oczekiwaną odpowiedź",
"testCase.create.expected.required": "Wprowadź oczekiwany wynik",
"testCase.create.input.label": "Wejście",
"testCase.create.input.placeholder": "Wprowadź dane wejściowe lub pytanie dla przypadku testowego",
"testCase.create.success": "Przypadek testowy został pomyślnie dodany",
"testCase.create.tags.label": "Tagi",
"testCase.create.tags.placeholder": "Tagi oddzielone przecinkami (opcjonalnie)",
"testCase.create.title": "Dodaj Przypadek Testowy",
"testCase.delete.confirm": "Czy na pewno chcesz usunąć ten przypadek testowy?",
"testCase.delete.error": "Nie udało się usunąć przypadku testowego",
"testCase.delete.success": "Przypadek testowy został usunięty",
"testCase.edit.error": "Nie udało się zaktualizować przypadku testowego",
"testCase.edit.success": "Przypadek testowy został pomyślnie zaktualizowany",
"testCase.edit.title": "Edytuj Przypadek Testowy",
"testCase.empty.description": "Zaimportuj lub ręcznie dodaj przypadki testowe do tego zestawu danych",
"testCase.empty.title": "Brak przypadków testowych",
"testCase.preview.expected": "Oczekiwany",
"testCase.preview.input": "Wejście",
"testCase.preview.title": "Podgląd Przypadku Testowego",
"testCase.search.placeholder": "Szukaj przypadków..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Dogłębne badania",
"starter.developing": "Wkrótce dostępne",
"starter.image": "Obraz",
"starter.nanoBanana2": "🍌 Nano Banan 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Pisz"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dla serii Gemini; kontroluje budżet na myślenie.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dla modeli Gemini 3 Flash Preview; kontroluje głębokość myślenia.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dla modeli Gemini 3 Pro Preview; kontroluje głębokość myślenia.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Dla modeli Gemini 3.1 Pro Preview; kontroluje głębokość myślenia na poziomach niskim/średnim/wysokim.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dla serii Gemini; umożliwia podanie kontekstu w postaci adresu URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Wybierz parametry rozszerzone do włączenia",
"providerModels.item.modelConfig.extendParams.previewFallback": "Podgląd niedostępny",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "360GPT Turbo oferuje wysoką wydajność obliczeniową i zdolności konwersacyjne, z doskonałym rozumieniem semantycznym i efektywnością generowania — idealny dla firm i deweloperów.",
"360gpt2-o1.description": "360gpt2-o1 buduje łańcuch rozumowania poprzez przeszukiwanie drzewa z mechanizmem refleksji i treningiem RL, umożliwiając samorefleksję i autokorektę.",
"360gpt2-pro.description": "360GPT2 Pro to zaawansowany model NLP od 360, wyróżniający się w generowaniu i rozumieniu tekstu, szczególnie w zadaniach kreatywnych, transformacjach i odgrywaniu ról.",
"360zhinao2-o1.5.description": "360 Zhinao to najpotężniejszy model rozumowania, charakteryzujący się najsilniejszymi możliwościami i obsługujący zarówno wywoływanie narzędzi, jak i zaawansowane rozumowanie.",
"360zhinao2-o1.description": "360zhinao2-o1 buduje łańcuch rozumowania poprzez przeszukiwanie drzewa z mechanizmem refleksji i treningiem RL, umożliwiając samorefleksję i autokorektę.",
"360zhinao3-o1.5.description": "360 Zhinao to model rozumowania nowej generacji.",
"4.0Ultra.description": "Spark Ultra to najpotężniejszy model z serii Spark, ulepszający rozumienie tekstu i podsumowywanie oraz wzbogacający wyszukiwanie internetowe. Stanowi kompleksowe rozwiązanie zwiększające produktywność w pracy i precyzję odpowiedzi, pozycjonując się jako wiodący produkt inteligentny.",
"AnimeSharp.description": "AnimeSharp (znany również jako „4x-AnimeSharp”) to otwartoźródłowy model super-rozdzielczości oparty na ESRGAN autorstwa Kim2091, skoncentrowany na skalowaniu i wyostrzaniu obrazów w stylu anime. W lutym 2022 roku zmieniono jego nazwę z „4x-TextSharpV1”; pierwotnie służył również do obrazów tekstowych, ale został silnie zoptymalizowany pod kątem treści anime.",
"Baichuan2-Turbo.description": "Wykorzystuje rozszerzenie wyszukiwania do połączenia modelu z wiedzą dziedzinową i internetową. Obsługuje przesyłanie plików PDF/Word oraz wprowadzanie adresów URL w celu szybkiego i kompleksowego pozyskiwania informacji oraz generowania profesjonalnych i precyzyjnych odpowiedzi.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Wersja 8B została zoptymalizowana pod kątem niskich opóźnień i wysokiej wydajności.",
"charglm-3.description": "CharGLM-3 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
"charglm-4.description": "CharGLM-4 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.",
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
"chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym. Łączy silne zrozumienie języka i generowanie, co czyni go idealnym do zastosowań na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.",
"claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.",
"deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 to model rozumowania nowej generacji z ulepszonymi zdolnościami do rozwiązywania złożonych problemów i myślenia łańcuchowego.",
"deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.",
"deepseek-chat.description": "DeepSeek V3.2 łączy rozumowanie i długość odpowiedzi, idealny do codziennych zadań QA i agentów. Osiąga poziom GPT-5 w publicznych benchmarkach i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.",
"deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 to nowy hybrydowy model rozumowania od DeepSeek, obsługujący tryby myślenia i bezmyślenia, oferujący wyższą efektywność rozumowania niż DeepSeek-R1-0528. Optymalizacje po etapie trenowania znacznie poprawiają wykorzystanie narzędzi i wydajność zadań agentowych. Obsługuje okno kontekstowe 128k i do 64k tokenów wyjściowych.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 to model nowej generacji do złożonego rozumowania i łańcuchów myślowych, odpowiedni do zadań wymagających głębokiej analizy.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp wprowadza rzadką uwagę (sparse attention), poprawiając efektywność trenowania i wnioskowania na długich tekstach przy niższej cenie niż deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "W przypadku bardzo złożonych zadań model Speciale znacznie przewyższa standardową wersję, ale zużywa znacznie więcej tokenów i generuje wyższe koszty. Obecnie DeepSeek-V3.2-Speciale jest przeznaczony wyłącznie do celów badawczych, nie obsługuje wywoływania narzędzi i nie został specjalnie zoptymalizowany do codziennych rozmów lub zadań pisarskich.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think to pełny model głębokiego rozumowania z silniejszymi zdolnościami do długich łańcuchów myślowych.",
"deepseek-v3.2.description": "DeepSeek-V3.2 to pierwszy hybrydowy model rozumowania od DeepSeek, który integruje myślenie z wykorzystaniem narzędzi. Wykorzystuje wydajną architekturę w celu oszczędności obliczeń, uczenie przez wzmocnienie na dużą skalę do zwiększenia możliwości oraz syntetyczne dane zadań do wzmocnienia uogólniania. Połączenie tych trzech elementów zapewnia wydajność porównywalną z GPT-5-High, przy znacznie krótszych odpowiedziach, co znacząco zmniejsza obciążenie obliczeniowe i czas oczekiwania użytkownika.",
"deepseek-v3.description": "DeepSeek-V3 to potężny model MoE z 671 miliardami parametrów ogółem i 37 miliardami aktywnymi na token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji. Obsługuje kontekst 128k i do 16k tokenów wyjściowych.",
"doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
"doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.",
"doubao-lite-128k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 128k.",
"doubao-lite-32k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
"doubao-lite-4k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 4k.",
"doubao-pro-256k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 256k.",
"doubao-pro-32k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.",
"doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego rozumowania z TPOT na poziomie 10 ms. Obsługuje tekst i obraz, przewyższa poprzedni model lite w rozumieniu tekstu i dorównuje konkurencyjnym modelom pro w wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.",
"doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite to nowy multimodalny model głębokiego rozumowania z regulowanym wysiłkiem rozumowania (Minimalny, Niski, Średni, Wysoki), oferujący lepszą wartość i silny wybór do typowych zadań, z kontekstem do 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "Model obrazowy Doubao z ByteDance Seed obsługuje wejścia tekstowe i obrazowe z wysoką kontrolą i jakością generowania obrazów. Obsługuje edycję obrazów kierowaną tekstem, z rozmiarami wyjściowymi od 512 do 1536 po dłuższym boku.",
"doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
"doubao-seedream-4-0-250828.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.",
"doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
"doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 to najnowszy multimodalny model obrazu ByteDance, integrujący funkcje tekst-do-obrazu, obraz-do-obrazu i generowanie obrazów w partiach, jednocześnie uwzględniając zdrowy rozsądek i zdolności rozumowania. W porównaniu do poprzedniej wersji 4.0 oferuje znacznie lepszą jakość generowania, lepszą spójność edycji i fuzję wielu obrazów. Zapewnia bardziej precyzyjną kontrolę nad szczegółami wizualnymi, naturalnie generując małe teksty i twarze, a także osiąga bardziej harmonijny układ i kolorystykę, poprawiając estetykę ogólną.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite to najnowszy model generowania obrazów ByteDance. Po raz pierwszy integruje funkcje wyszukiwania online, co pozwala na uwzględnienie informacji w czasie rzeczywistym i poprawę aktualności generowanych obrazów. Inteligencja modelu została również ulepszona, umożliwiając precyzyjną interpretację złożonych instrukcji i treści wizualnych. Dodatkowo oferuje lepsze pokrycie globalnej wiedzy, spójność odniesień i jakość generowania w profesjonalnych scenariuszach, lepiej spełniając potrzeby wizualnej kreacji na poziomie przedsiębiorstw.",
"emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B to lekki model open-source przeznaczony do lokalnego i dostosowanego wdrażania.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking to tekstowy model MoE (Mixture-of-Experts) z 21 miliardami parametrów, z czego 3 miliardy są aktywne, oferujący znacznie lepszą jakość i głębię rozumowania.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B to model open-source o dużej liczbie parametrów, oferujący lepsze zrozumienie i generowanie treści.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B to ultraduży model MoE od Baidu ERNIE, wyróżniający się doskonałym rozumowaniem.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview to model podglądowy z kontekstem 8K, służący do oceny możliwości ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K to lekki model wysokiej wydajności do scenariuszy wrażliwych na opóźnienia i koszty.",
"ernie-novel-8k.description": "ERNIE Novel 8K został stworzony do długich powieści i fabuł IP z narracją wielopostaciową.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K to model o wysokiej równoczesności i dużej wartości do usług online na dużą skalę i aplikacji korporacyjnych.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview to szybki model rozumowania z kontekstem 32K, przeznaczony do złożonego rozumowania i wieloetapowych rozmów.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.",
"ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.",
"ernie-x1.1.description": "ERNIE X1.1 to model rozumowania w wersji podglądowej do oceny i testowania.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed ByteDance, obsługuje edycję i kompozycję wielu obrazów. Oferuje lepszą spójność tematyczną, precyzyjne wykonywanie poleceń, rozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją renderowania tekstu i obrazu.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, opracowany przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do generowania wysokiej jakości obrazów z dużą kontrolą nad wynikiem.",
"fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google z pełnymi możliwościami.",
"gemini-2.5-flash-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash to najbardziej opłacalny model Google z pełnymi możliwościami.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również czat multimodalny.",
"gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro w błyskawicznym tempie, wspierając multimodalne rozmowy.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro w błyskawicznym tempie, wspierając multimodalne rozmowy.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview ulepsza Gemini 3 Pro, oferując lepsze zdolności rozumowania i wsparcie dla średniego poziomu myślenia.",
"gemini-flash-latest.description": "Najnowsza wersja Gemini Flash",
"gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite",
"gemini-pro-latest.description": "Najnowsza wersja Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.",
"glm-4v-plus.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.",
"glm-4v.description": "GLM-4V zapewnia zaawansowane rozumienie obrazów i wnioskowanie w zadaniach wizualnych.",
"glm-5.description": "Silny model rozumowania i agentowy od Z.ai z 744B całkowitymi parametrami (40B aktywnych), zaprojektowany do inżynierii złożonych systemów i zadań o długim horyzoncie czasowym.",
"glm-5.description": "Seria GLM to hybrydowy model rozumowania od Zhipu AI, zaprojektowany dla agentów, z trybami myślenia i bez myślenia.",
"glm-z1-air.description": "Model wnioskowania o wysokiej zdolności do głębokiej analizy i dedukcji.",
"glm-z1-airx.description": "Ultraszybkie wnioskowanie przy zachowaniu wysokiej jakości rozumowania.",
"glm-z1-flash.description": "Seria GLM-Z1 oferuje zaawansowane wnioskowanie z naciskiem na logikę, matematykę i programowanie.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Z radością prezentujemy Grok 4 Fast — nasz najnowszy postęp w dziedzinie modeli rozumowania o wysokiej opłacalności.",
"grok-4.description": "Nasz najnowszy i najmocniejszy model flagowy, doskonały w NLP, matematyce i rozumowaniu — idealny model uniwersalny.",
"grok-code-fast-1.description": "Z radością ogłaszamy premierę grok-code-fast-1 — szybkiego i opłacalnego modelu rozumowania, który doskonale radzi sobie z programowaniem agentowym.",
"grok-imagine-image-pro.description": "Generuj obrazy na podstawie tekstowych wskazówek, edytuj istniejące obrazy za pomocą naturalnego języka lub iteracyjnie udoskonalaj obrazy w trakcie wieloetapowych rozmów.",
"grok-imagine-image.description": "Generuj obrazy na podstawie tekstowych wskazówek, edytuj istniejące obrazy za pomocą naturalnego języka lub iteracyjnie udoskonalaj obrazy w trakcie wieloetapowych rozmów.",
"groq/compound-mini.description": "Compound-mini to złożony system AI oparty na publicznie dostępnych modelach wspieranych przez GroqCloud, inteligentnie i selektywnie wykorzystujący narzędzia do odpowiadania na zapytania użytkowników.",
"groq/compound.description": "Compound to złożony system AI oparty na wielu publicznie dostępnych modelach wspieranych przez GroqCloud, inteligentnie i selektywnie wykorzystujący narzędzia do odpowiadania na zapytania użytkowników.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B to kreatywny, inteligentny model językowy połączony z wielu czołowych modeli.",
"hunyuan-2.0-instruct-20251111.description": "Funkcje wydania: Podstawa modelu została zaktualizowana z TurboS do **Hunyuan 2.0**, co skutkuje kompleksowymi ulepszeniami możliwości. Znacząco poprawia zdolność do podążania za instrukcjami, zrozumienia wieloetapowych i długich tekstów, tworzenia literackiego, dokładności wiedzy, kodowania i zdolności rozumowania.",
"hunyuan-2.0-thinking-20251109.description": "Funkcje wydania: Podstawa modelu została zaktualizowana z TurboS do **Hunyuan 2.0**, co skutkuje kompleksowymi ulepszeniami możliwości. Znacząco poprawia zdolność modelu do podążania za złożonymi instrukcjami, zrozumienia wieloetapowych i długich tekstów, obsługi kodu, działania jako agent i wykonywania zadań rozumowania.",
"hunyuan-a13b.description": "Pierwszy model hybrydowego rozumowania od Hunyuan, ulepszony względem hunyuan-standard-256K (łącznie 80B, 13B aktywnych). Domyślnie działa w trybie wolnego myślenia i obsługuje przełączanie między trybem szybkim i wolnym za pomocą parametrów lub prefiksu /no_think. Ogólne możliwości zostały poprawione względem poprzedniej generacji, szczególnie w matematyce, naukach ścisłych, rozumieniu długich tekstów i zadaniach agentowych.",
"hunyuan-code.description": "Najnowszy model generowania kodu, wytrenowany na 200 miliardach wysokiej jakości kodu i sześciu miesiącach SFT; kontekst rozszerzony do 8K. Osiąga najwyższe wyniki w automatycznych testach dla pięciu języków programowania oraz w ocenach ludzkich według dziesięciu kryteriów.",
"hunyuan-functioncall.description": "Najnowszy model MoE FunctionCall, wytrenowany na wysokiej jakości danych wywołań funkcji, z oknem kontekstu 32K i czołowymi wynikami w wielu wymiarach.",
"hunyuan-large-longcontext.description": "Wyróżnia się w zadaniach związanych z długimi dokumentami, takich jak streszczanie i QA, a także radzi sobie z ogólną generacją. Silny w analizie i generowaniu długich tekstów o złożonej, szczegółowej treści.",
"hunyuan-large-vision.description": "Model językowo-wizualny wytrenowany na bazie Hunyuan Large do rozumienia obrazu i tekstu. Obsługuje wejścia z wielu obrazów i tekstu w dowolnej rozdzielczości oraz poprawia wielojęzyczne rozumienie wizualne.",
"hunyuan-large.description": "Hunyuan-large ma ~389 miliardów parametrów ogółem i ~52 miliardy aktywnych, co czyni go największym i najsilniejszym otwartym modelem MoE w architekturze Transformer.",
"hunyuan-lite-vision.description": "Najnowszy multimodalny model 7B z oknem kontekstu 32K, obsługujący czat multimodalny w języku chińskim i angielskim, rozpoznawanie obiektów, rozumienie tabel w dokumentach i multimodalną matematykę, przewyższający inne modele 7B w wielu testach.",
"hunyuan-code.description": "Najnowszy model kodowania Hunyuan, wytrenowany na 200 miliardach wysokiej jakości danych kodu oraz sześciu miesiącach danych SFT, z kontekstem 8K. Osiąga czołowe wyniki w automatycznych benchmarkach kodowania i w ocenach ekspertów w pięciu językach.",
"hunyuan-functioncall.description": "Najnowszy model MoE FunctionCall Hunyuan, wytrenowany na wysokiej jakości danych wywoływania narzędzi, z oknem kontekstowym 32K i wiodącymi wynikami w różnych wymiarach.",
"hunyuan-lite.description": "Ulepszony do architektury MoE z oknem kontekstu 256K, przewyższa wiele otwartych modeli w dziedzinach NLP, kodowania, matematyki i benchmarków branżowych.",
"hunyuan-pro.description": "Model MOE-32K z bilionem parametrów i długim kontekstem, lider w testach, silny w złożonych instrukcjach i rozumowaniu, zaawansowanej matematyce, wywoływaniu funkcji i zoptymalizowany pod kątem tłumaczeń wielojęzycznych, finansów, prawa i medycyny.",
"hunyuan-role.description": "Najnowszy model do odgrywania ról, oficjalnie dostrojony na zbiorach danych do odgrywania ról, zapewniający lepszą wydajność bazową w takich scenariuszach.",
"hunyuan-standard-256K.description": "Wykorzystuje ulepszone trasowanie w celu ograniczenia przeciążenia i zapadania się ekspertów. Osiąga 99,9% skuteczności w zadaniu „igła w stogu siana” przy długim kontekście. MOE-256K dodatkowo rozszerza długość i jakość kontekstu.",
"hunyuan-standard-vision.description": "Najnowszy model multimodalny z wielojęzycznymi odpowiedziami i zrównoważonymi zdolnościami w języku chińskim i angielskim.",
"hunyuan-standard.description": "Wykorzystuje ulepszone trasowanie w celu ograniczenia przeciążenia i zapadania się ekspertów. Osiąga 99,9% skuteczności w zadaniu „igła w stogu siana” przy długim kontekście. MOE-32K oferuje dużą wartość przy obsłudze długich danych wejściowych.",
"hunyuan-t1-20250321.description": "Rozwija zrównoważone kompetencje humanistyczne i STEM, z silnym uchwyceniem informacji w długich tekstach. Wspiera rozumowanie w odpowiedziach z matematyki, logiki, nauk ścisłych i programowania na różnych poziomach trudności.",
"hunyuan-t1-20250403.description": "Ulepsza generowanie kodu na poziomie projektu i jakość pisania, wzmacnia zrozumienie tematów w wielu turach oraz przestrzeganie instrukcji B2B, poprawia rozumienie na poziomie słów i redukuje problemy z mieszaniem uproszczonego/tradycyjnego chińskiego oraz chińsko-angielskiego wyjścia.",
"hunyuan-t1-20250529.description": "Poprawia kreatywne pisanie i kompozycję, wzmacnia programowanie frontendowe, rozumowanie matematyczne i logiczne oraz zwiększa skuteczność wykonywania instrukcji.",
"hunyuan-t1-20250711.description": "Znacząco poprawia rozwiązywanie trudnych zadań matematycznych, logicznych i programistycznych, zwiększa stabilność wyników i wzmacnia zdolność przetwarzania długich tekstów.",
"hunyuan-role.description": "Najnowszy model odgrywania ról Hunyuan, oficjalnie dostrojony na podstawie danych odgrywania ról, oferujący lepszą wydajność w scenariuszach odgrywania ról.",
"hunyuan-standard-256K.description": "Wykorzystuje ulepszone trasowanie, aby złagodzić problemy z równoważeniem obciążenia i zapadaniem się ekspertów. Długie teksty \"igła w stogu siana\" osiągają 99,9%. MOE-256K jeszcze bardziej zwiększa długość i jakość wejść.",
"hunyuan-standard.description": "Wykorzystuje ulepszone trasowanie, aby złagodzić problemy z równoważeniem obciążenia i zapadaniem się ekspertów. Długie teksty \"igła w stogu siana\" osiągają 99,9%. MOE-32K oferuje lepszą wartość, równoważąc jakość i cenę dla długich tekstów.",
"hunyuan-t1-latest.description": "Znacząco ulepsza model wolnego myślenia w zakresie trudnej matematyki, złożonego rozumowania, skomplikowanego kodowania, wykonywania instrukcji i jakości kreatywnego pisania.",
"hunyuan-t1-vision-20250619.description": "Najnowszy multimodalny model głębokiego rozumowania t1-vision z natywnym długim łańcuchem myślowym, znacznie ulepszony względem poprzedniej wersji domyślnej.",
"hunyuan-t1-vision-20250916.description": "Najnowszy model głębokiego rozumowania t1-vision z dużymi ulepszeniami w zakresie VQA, lokalizacji wizualnej, OCR, wykresów, rozwiązywania sfotografowanych problemów i tworzenia treści na podstawie obrazów, a także silniejszym wsparciem dla języka angielskiego i języków niskozasobowych.",
"hunyuan-turbo-20241223.description": "Ta wersja zwiększa skalowalność instrukcji dla lepszej uogólnialności, znacząco poprawia rozumowanie matematyczne/kodowe/logiczne, wzmacnia rozumienie na poziomie słów i poprawia jakość pisania.",
"hunyuan-turbo-latest.description": "Ogólne ulepszenia doświadczenia w zakresie rozumienia NLP, pisania, czatu, QA, tłumaczenia i dziedzin; bardziej ludzkie odpowiedzi, lepsze wyjaśnianie niejednoznacznych intencji, ulepszone przetwarzanie słów, wyższa jakość kreatywna i interaktywność oraz silniejsze rozmowy wielotur.",
"hunyuan-turbo-vision.description": "Flagowy model nowej generacji łączący wizję i język, oparty na nowej architekturze MoE, z szerokimi ulepszeniami w rozpoznawaniu, tworzeniu treści, QA wiedzy i analitycznym rozumowaniu.",
"hunyuan-turbo.description": "Podgląd nowej generacji LLM Hunyuan z nową architekturą MoE, oferujący szybsze rozumowanie i lepsze wyniki niż hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Ujednolica styl rozwiązywania zadań matematycznych i wzmacnia QA matematyczne w wielu turach. Styl pisania został udoskonalony, aby zmniejszyć ton AI i dodać elegancji.",
"hunyuan-turbos-20250416.description": "Zaktualizowana baza pretreningowa poprawiająca zrozumienie i wykonywanie instrukcji; dostosowanie wzmacnia matematykę, kod, logikę i nauki ścisłe; poprawia jakość pisania, rozumienie, dokładność tłumaczeń i QA wiedzy; wzmacnia zdolności agentów, szczególnie w zrozumieniu wielotur.",
"hunyuan-turbos-20250604.description": "Zaktualizowana baza pretreningowa z ulepszoną jakością pisania i rozumienia tekstu, znaczącymi postępami w kodzie i STEM oraz lepszym wykonywaniem złożonych instrukcji.",
"hunyuan-turbos-20250926.description": "Ulepszona jakość danych pretreningowych i strategia potreningowa, poprawiająca działanie agentów, język angielski/języki niskozasobowe, wykonywanie instrukcji, kod i możliwości STEM.",
"hunyuan-turbos-latest.description": "Najnowszy flagowy model Hunyuan TurboS z silniejszym rozumowaniem i lepszym ogólnym doświadczeniem.",
"hunyuan-turbos-longtext-128k-20250325.description": "Wyróżnia się w zadaniach związanych z długimi dokumentami, takich jak streszczanie i QA, a także radzi sobie z ogólną generacją. Silny w analizie i generowaniu długich tekstów o złożonej, szczegółowej treści.",
"hunyuan-turbos-role-plus.description": "Najnowszy model do odgrywania ról, oficjalnie dostrojony na zbiorach danych do odgrywania ról, zapewniający lepszą wydajność bazową w scenariuszach odgrywania ról.",
"hunyuan-turbos-vision-20250619.description": "Najnowszy flagowy model TurboS łączący wizję i język z dużymi postępami w zadaniach obraz-tekst, takich jak rozpoznawanie encji, QA wiedzy, copywriting i rozwiązywanie problemów na podstawie zdjęć.",
"hunyuan-turbos-vision.description": "Flagowy model nowej generacji łączący wizję i język, oparty na najnowszym TurboS, skoncentrowany na zadaniach rozumienia obraz-tekst, takich jak rozpoznawanie encji, QA wiedzy, copywriting i rozwiązywanie problemów na podstawie zdjęć.",
"hunyuan-vision-1.5-instruct.description": "Model szybkiego myślenia generujący tekst na podstawie obrazu, oparty na bazie tekstowej TurboS, z wyraźnymi ulepszeniami w zakresie podstawowego rozpoznawania obrazu i analitycznego rozumowania wizualnego w porównaniu z poprzednią wersją.",
"hunyuan-vision.description": "Najnowszy model multimodalny obsługujący wejście obraz + tekst do generowania tekstu.",
"hunyuan-vision-1.5-instruct.description": "Szybki model rozumowania obraz-do-tekst oparty na bazie tekstowej TurboS, wykazujący znaczące ulepszenia w podstawowym rozpoznawaniu obrazów i analizie rozumowania obrazowego w porównaniu do poprzedniej wersji.",
"hunyuan-vision.description": "Najnowszy multimodalny model Hunyuan obsługujący wejścia obraz + tekst do generowania tekstu.",
"image-01-live.description": "Model generowania obrazów z drobnymi szczegółami, obsługujący konwersję tekstu na obraz i kontrolowane style.",
"image-01.description": "Nowy model generowania obrazów z drobnymi szczegółami, obsługujący konwersję tekstu na obraz i obraz na obraz.",
"imagen-4.0-fast-generate-001.description": "Szybka wersja czwartej generacji modeli tekst-na-obraz Imagen",
"imagen-4.0-generate-001.description": "Czwarta generacja modeli tekst-na-obraz Imagen",
"imagen-4.0-generate-preview-06-06.description": "Rodzina modeli tekst-na-obraz czwartej generacji Imagen.",
"imagen-4.0-ultra-generate-001.description": "Wersja Ultra czwartej generacji modeli tekst-na-obraz Imagen",
"imagen-4.0-ultra-generate-preview-06-06.description": "Wariant Ultra czwartej generacji modeli tekst-na-obraz Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small to idealne rozwiązanie do generowania kodu, debugowania i refaktoryzacji przy minimalnych opóźnieniach.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 to trzeci model architektury Ling 2.0 od zespołu Bailing firmy Ant Group. Jest to model MoE z łączną liczbą 100 miliardów parametrów, z których tylko 6,1 miliarda jest aktywnych na token (4,8 miliarda bez osadzania). Pomimo lekkiej konfiguracji dorównuje lub przewyższa modele gęste 40B i większe modele MoE w wielu testach, eksplorując wysoką wydajność dzięki architekturze i strategii treningowej.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 to mały, wydajny model MoE LLM z 16 miliardami parametrów i tylko 1,4 miliarda aktywnych na token (789 milionów bez osadzania), zapewniający bardzo szybkie generowanie. Dzięki wydajnej konstrukcji MoE i dużym, wysokiej jakości danym treningowym osiąga wydajność porównywalną z modelami gęstymi poniżej 10B i większymi modelami MoE.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T to model MoE firmy inclusionAI z bilionem parametrów, przeznaczony do zadań badawczych i rozumowania na dużą skalę.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 to wariant modelu Ring firmy inclusionAI, zaprojektowany do scenariuszy o wysokiej przepustowości, z naciskiem na szybkość i efektywność kosztową.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 to lekki model MoE firmy inclusionAI o wysokiej przepustowości, stworzony z myślą o równoczesnym przetwarzaniu.",
"intern-latest.description": "Domyślnie wskazuje na nasz najnowszy wydany model z serii Intern, obecnie ustawiony na intern-s1-pro.",
"intern-s1-mini.description": "Lekki multimodalny duży model o silnych zdolnościach rozumowania naukowego.",
"intern-s1-pro.description": "Wprowadziliśmy nasz najbardziej zaawansowany otwartoźródłowy multimodalny model rozumowania, obecnie najlepiej oceniany otwartoźródłowy duży model językowy pod względem ogólnej wydajności.",
"intern-s1.description": "Otwartoźródłowy multimodalny model rozumowania, który nie tylko wykazuje silne zdolności ogólnego przeznaczenia, ale także osiąga najlepsze wyniki w szerokim zakresie zadań naukowych.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat to otwartoźródłowy model konwersacyjny oparty na architekturze InternLM2. Model 7B koncentruje się na generowaniu dialogów w języku chińskim i angielskim, wykorzystując nowoczesne techniki treningowe do płynnych i inteligentnych rozmów. Nadaje się do wielu scenariuszy, takich jak obsługa klienta czy asystenci osobowi.",
"internlm2.5-latest.description": "Modele starszej generacji, nadal utrzymywane i oferujące doskonałą, stabilną wydajność po wielu iteracjach. Dostępne w wersjach 7B i 20B, obsługujące kontekst 1M, z lepszym podążaniem za instrukcjami i obsługą narzędzi. Domyślnie wybierany jest najnowszy model z serii InternLM2.5 (obecnie internlm2.5-20b-chat).",
"internlm3-latest.description": "Nasza najnowsza seria modeli z doskonałą wydajnością w zakresie rozumowania, przewodząca wśród otwartych modeli w swojej klasie rozmiarowej. Domyślnie wybierany jest najnowszy model z serii InternLM3 (obecnie internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO to multimodalny model wstępnie wytrenowany do złożonego rozumowania obraz-tekst.",
"internvl2.5-latest.description": "InternVL2.5 nadal utrzymuje silną i stabilną wydajność. Domyślnie wybierany jest najnowszy model z serii InternVL2.5 (obecnie internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B to multimodalny model średniej wielkości, łączący wydajność i efektywność kosztową.",
"internvl3-1b.description": "InternVL3 1B to lekki model multimodalny przeznaczony do wdrożeń w środowiskach o ograniczonych zasobach.",
"internvl3-38b.description": "InternVL3 38B to duży, otwartoźródłowy model multimodalny do precyzyjnego rozumienia obrazów i tekstu.",
"internvl3-latest.description": "Nasz najnowszy model multimodalny z ulepszonym rozumieniem obraz-tekst i długosekwencyjną analizą obrazów, porównywalny z najlepszymi zamkniętymi modelami. Domyślnie wybierany jest najnowszy model z serii InternVL (obecnie internvl3-78b).",
"internvl3.5-241b-a28b.description": "Nasz nowo wydany multimodalny duży model charakteryzuje się ulepszonym zrozumieniem obrazu i tekstu oraz zdolnościami do rozumienia długich sekwencji obrazów, osiągając wyniki porównywalne z wiodącymi zamkniętymi modelami.",
"internvl3.5-latest.description": "Domyślnie wskazuje na najnowszy model z serii InternVL3.5, obecnie ustawiony na internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG to model generatywny wspomagany wyszukiwaniem obrazów, przeznaczony do wyszukiwania obrazów, wyszukiwania obraz-tekst i generowania treści.",
"jamba-large.description": "Nasz najbardziej zaawansowany model, zaprojektowany do złożonych zadań korporacyjnych, oferujący wyjątkową wydajność.",
"jamba-mini.description": "Najbardziej efektywny model w swojej klasie, łączący szybkość i jakość przy mniejszym zużyciu zasobów.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 to wydajny duży model językowy zaprojektowany specjalnie do programowania i przepływów pracy agentów.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 to lekki, nowoczesny duży model językowy zoptymalizowany do programowania, przepływów proxy i nowoczesnego rozwoju aplikacji, oferujący czystsze, bardziej zwięzłe wyniki i szybszy czas reakcji.",
"minimax/minimax-m2.description": "MiniMax-M2 to model o wysokiej wartości, który doskonale sprawdza się w zadaniach programistycznych i agentowych w wielu scenariuszach inżynieryjnych.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 to kompaktowy, szybki i opłacalny model MoE zaprojektowany do najwyższej klasy kodowania i wydajności agentów.",
"minimaxai/minimax-m2.description": "MiniMax-M2 to kompaktowy, szybki i opłacalny model MoE (230B ogółem, 10B aktywnych), zaprojektowany z myślą o najwyższej wydajności w programowaniu i zadaniach agentowych, przy zachowaniu silnej inteligencji ogólnej. Doskonale radzi sobie z edycją wielu plików, pętlami uruchamiania i poprawiania kodu, walidacją testów i złożonymi łańcuchami narzędzi.",
"ministral-3b-latest.description": "Ministral 3B to flagowy model edge firmy Mistral.",
"ministral-8b-latest.description": "Ministral 8B to bardzo opłacalny model edge od Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "Model kimi-k2-0905-preview obsługuje okno kontekstu 256K, z silniejszym kodowaniem agentowym, bardziej dopracowanym i praktycznym kodem frontendowym oraz lepszym rozumieniem kontekstu.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo to szybka wersja Kimi K2 Thinking, znacznie zmniejszająca opóźnienia przy zachowaniu głębokiego rozumowania.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking to model rozumowania Moonshot zoptymalizowany do zadań wymagających głębokiego rozumowania, z ogólnymi możliwościami agentowymi.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 to najbardziej inteligentny model Kimi do tej pory, charakteryzujący się natywną architekturą multimodalną.",
"moonshotai/kimi-k2.description": "Kimi K2 to duży model MoE od Moonshot AI z 1T łącznych parametrów i 32B aktywnych na przebieg, zoptymalizowany pod kątem możliwości agentowych, w tym zaawansowanego użycia narzędzi, rozumowania i syntezy kodu.",
"morph/morph-v3-fast.description": "Morph to wyspecjalizowany model do stosowania zmian w kodzie sugerowanych przez czołowe modele (np. Claude lub GPT-4o) w istniejących plikach z prędkością 4500+ tokenów/sek. To końcowy etap w przepływie pracy AI w kodowaniu i obsługuje 16k tokenów wejścia/wyjścia.",
"morph/morph-v3-large.description": "Morph to wyspecjalizowany model do stosowania zmian w kodzie sugerowanych przez czołowe modele (np. Claude lub GPT-4o) w istniejących plikach z prędkością 2500+ tokenów/sek. To końcowy etap w przepływie pracy AI w kodowaniu i obsługuje 16k tokenów wejścia/wyjścia.",
"musesteamer-air-image.description": "musesteamer-air-image to model generowania obrazów opracowany przez zespół wyszukiwania Baidu, oferujący wyjątkowy stosunek kosztów do wydajności. Szybko generuje wyraźne, spójne obrazy na podstawie wskazówek użytkownika, łatwo przekształcając opisy użytkownika w wizualizacje.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B to zaktualizowana wersja Nous Hermes 2 z najnowszymi wewnętrznie opracowanymi zbiorami danych.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA model LLM poprawiający pomocność. Osiąga najwyższe wyniki w Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując 1. miejsce we wszystkich trzech testach auto-alignment na dzień 1 października 2024. Trening oparty na Llama-3.1-70B-Instruct z użyciem RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference prompts.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Wyjątkowy model językowy zapewniający doskonałą dokładność i wydajność.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "W zależności od długości kontekstu, tematu i złożoności, Twoje zapytanie jest kierowane do Llama 3 70B Instruct, Claude 3.5 Sonnet (z samomoderacją) lub GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini to model w wersji zapoznawczej zoptymalizowany do zadań związanych z programowaniem.",
"oswe-vscode-secondary.description": "Raptor mini to model w wersji zapoznawczej zoptymalizowany do zadań związanych z programowaniem.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 to model, który równoważy wysoką wydajność obliczeniową z doskonałymi zdolnościami rozumowania i wydajnością agentów.",
"perplexity/sonar-pro.description": "Flagowy produkt Perplexity z ugruntowaniem w wyszukiwarce, obsługujący zaawansowane zapytania i kontynuacje.",
"perplexity/sonar-reasoning-pro.description": "Zaawansowany model skoncentrowany na rozumowaniu, generujący łańcuchy myślowe (CoT) z rozszerzonymi wynikami wyszukiwania, w tym wieloma zapytaniami na żądanie.",
"perplexity/sonar-reasoning.description": "Model skoncentrowany na rozumowaniu, generujący łańcuchy myślowe (CoT) z dokładnymi, opartymi na wyszukiwaniu wyjaśnieniami.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Model kodowania Qwen.",
"qwen-coder-turbo.description": "Model kodowania Qwen.",
"qwen-flash.description": "Najszybszy i najtańszy model Qwen, idealny do prostych zadań.",
"qwen-image-edit-max.description": "Model edycji obrazów Qwen obsługuje wejścia wieloobrazowe i wyjścia wieloobrazowe, umożliwiając precyzyjną edycję tekstu w obrazie, dodawanie, usuwanie lub przenoszenie obiektów, modyfikację działań podmiotu, transfer stylu obrazu i ulepszone szczegóły wizualne.",
"qwen-image-edit-plus.description": "Model edycji obrazów Qwen obsługuje wejścia wieloobrazowe i wyjścia wieloobrazowe, umożliwiając precyzyjną edycję tekstu w obrazie, dodawanie, usuwanie lub przenoszenie obiektów, modyfikację działań podmiotu, transfer stylu obrazu i ulepszone szczegóły wizualne.",
"qwen-image-edit.description": "Qwen Image Edit to model obraz-do-obrazu, który edytuje obrazy na podstawie wejściowych obrazów i tekstowych poleceń, umożliwiając precyzyjne korekty i twórcze przekształcenia.",
"qwen-image-max.description": "Model generowania obrazów Qwen (seria Max) oferuje większy realizm i naturalność wizualną w porównaniu z serią Plus, skutecznie redukując artefakty generowane przez AI i wykazując doskonałą wydajność w zakresie wyglądu ludzi, szczegółów tekstur i renderowania tekstu.",
"qwen-image-plus.description": "Obsługuje szeroką gamę stylów artystycznych i jest szczególnie biegły w renderowaniu złożonego tekstu w obrazach, umożliwiając zintegrowany projekt układu obraz-tekst.",
"qwen-image.description": "Qwen-Image to ogólny model generowania obrazów, obsługujący wiele stylów artystycznych i zaawansowane renderowanie złożonego tekstu, szczególnie w języku chińskim i angielskim. Obsługuje układy wieloliniowe, tekst na poziomie akapitu i drobne szczegóły w złożonych układach tekst-obraz.",
"qwen-long.description": "Ultraduży model Qwen z długim kontekstem i możliwością prowadzenia rozmów obejmujących wiele dokumentów.",
"qwen-math-plus-latest.description": "Qwen Math to model językowy wyspecjalizowany w rozwiązywaniu problemów matematycznych.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Otwartoźródłowy model kodujący Qwen. Najnowszy qwen3-coder-30b-a3b-instruct oparty jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct to flagowy model kodujący do programowania wielojęzycznego i złożonego rozumienia kodu.",
"qwen3-coder-flash.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.",
"qwen3-coder-next.description": "Następna generacja kodera Qwen zoptymalizowana pod kątem złożonego generowania kodu wieloplikowego, debugowania i wysokowydajnych przepływów pracy agentów. Zaprojektowana z myślą o silnej integracji narzędzi i ulepszonej wydajności rozumowania.",
"qwen3-coder-plus.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.",
"qwen3-coder:480b.description": "Wysokowydajny model Alibaba do zadań agenta i kodowania z długim kontekstem.",
"qwen3-max-2026-01-23.description": "Modele Qwen3 Max oferują znaczne ulepszenia względem serii 2.5 w zakresie ogólnych zdolności, rozumienia języka chińskiego i angielskiego, realizacji złożonych instrukcji, zadań subiektywnych i otwartych, wielojęzyczności oraz korzystania z narzędzi, przy mniejszej liczbie halucynacji. Najnowszy qwen3-max poprawia programowanie agentowe i użycie narzędzi względem wersji qwen3-max-preview. Wydanie to osiąga poziom SOTA i odpowiada na bardziej złożone potrzeby agentów.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking to multimodalny model łańcucha myśli do szczegółowego rozumowania wizualnego.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: lekka, szybka wersja rozumująca do zadań wrażliwych na opóźnienia lub o dużym wolumenie.",
"qwen3-vl-plus.description": "Qwen VL to model generowania tekstu z rozumieniem wizji. Potrafi wykonywać OCR, podsumowywać i rozumować, np. wyodrębniać atrybuty ze zdjęć produktów lub rozwiązywać problemy na podstawie obrazów.",
"qwen3.5-397b-a17b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W przypadku zadań tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych oferuje znaczące ulepszenia w porównaniu z serią Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus obsługuje wejścia tekstowe, obrazowe i wideo. W przypadku zadań tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych oferuje znaczące ulepszenia w porównaniu z serią Qwen3 VL.",
"qwen3.description": "Qwen3 to nowej generacji duży model językowy Alibaba o wysokiej wydajności w różnych zastosowaniach.",
"qwq-32b-preview.description": "QwQ to eksperymentalny model badawczy z serii Qwen, skoncentrowany na ulepszonym rozumowaniu.",
"qwq-32b.description": "QwQ to model rozumowania z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, oferuje zaawansowane myślenie i rozumowanie, co znacząco poprawia wydajność w zadaniach złożonych. QwQ-32B to model średniej wielkości, konkurujący z czołowymi modelami rozumowania, takimi jak DeepSeek-R1 i o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Model rozumowania średniej wielkości z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, zdolności myślenia i rozumowania QwQ znacząco poprawiają wydajność w trudnych zadaniach.",
"r1-1776.description": "R1-1776 to wariant modelu DeepSeek R1 po dodatkowym treningu, zaprojektowany do dostarczania nieocenzurowanych, bezstronnych informacji faktograficznych.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro od ByteDance obsługuje generowanie wideo z tekstu, obrazu (pierwsza klatka, pierwsza + ostatnia klatka) oraz dźwięku zsynchronizowanego z obrazem.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite od BytePlus oferuje generowanie wspomagane wyszukiwaniem w sieci w czasie rzeczywistym, ulepszoną interpretację złożonych wskazówek i lepszą spójność odniesień dla profesjonalnej kreacji wizualnej.",
"solar-mini-ja.description": "Solar Mini (Ja) rozszerza Solar Mini o nacisk na język japoński, zachowując jednocześnie wydajność w języku angielskim i koreańskim.",
"solar-mini.description": "Solar Mini to kompaktowy model LLM, który przewyższa GPT-3.5, oferując silne możliwości wielojęzyczne w języku angielskim i koreańskim oraz efektywne działanie przy małych zasobach.",
"solar-pro.description": "Solar Pro to inteligentny model LLM od Upstage, skoncentrowany na wykonywaniu instrukcji na pojedynczym GPU, z wynikami IFEval powyżej 80. Obecnie obsługuje język angielski; pełna wersja z rozszerzonym wsparciem językowym i dłuższym kontekstem planowana jest na listopad 2024.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Zaawansowany produkt wyszukiwania z ugruntowaniem w wynikach, przeznaczony do złożonych zapytań i kontynuacji.",
"sonar-reasoning.description": "Zaawansowany produkt wyszukiwania z ugruntowaniem w wynikach, przeznaczony do złożonych zapytań i kontynuacji.",
"sonar.description": "Lekki produkt wyszukiwania z ugruntowaniem, szybszy i tańszy niż Sonar Pro.",
"spark-x.description": "Aktualizacja X1.5: (1) dodaje dynamiczny tryb myślenia sterowany polem `thinking`; (2) większa długość kontekstu 64K wejścia i 64K wyjścia; (3) obsługuje FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 to model, który równoważy wysoką wydajność obliczeniową z doskonałymi zdolnościami rozumowania i wydajnością agentów.",
"spark-x.description": "Przegląd możliwości X2: 1. Wprowadza dynamiczne dostosowanie trybu rozumowania, kontrolowane za pomocą pola `thinking`. 2. Rozszerzona długość kontekstu: 64K tokenów wejściowych i 128K tokenów wyjściowych. 3. Obsługuje funkcjonalność Function Call.",
"stable-diffusion-3-medium.description": "Najnowszy model tekst-na-obraz od Stability AI. Ta wersja znacząco poprawia jakość obrazu, rozumienie tekstu i różnorodność stylów, dokładniej interpretując złożone polecenia językowe i generując precyzyjne, zróżnicowane obrazy.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo wykorzystuje Adversarial Diffusion Distillation (ADD) do przyspieszenia działania modelu stable-diffusion-3.5-large.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large to model tekst-na-obraz MMDiT z 800M parametrów, oferujący doskonałą jakość i zgodność z poleceniami, obsługujący obrazy 1-megapikselowe i wydajne działanie na sprzęcie konsumenckim.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Obsługuje interakcje z dużym kontekstem dla złożonych dialogów.",
"step-2-mini.description": "Zbudowany na nowej architekturze MFA attention, oferuje wyniki podobne do Step-1 przy znacznie niższych kosztach, wyższej przepustowości i szybszym czasie odpowiedzi. Obsługuje zadania ogólne z silnymi zdolnościami kodowania.",
"step-2x-large.description": "Nowej generacji model obrazowy StepFun skoncentrowany na generowaniu obrazów, tworzący wysokiej jakości obrazy z promptów tekstowych. Oferuje bardziej realistyczne tekstury i lepsze renderowanie tekstu chińskiego/angielskiego.",
"step-3.5-flash.description": "Flagowy model rozumowania językowego od Stepfun. Model ten oferuje najwyższej klasy zdolności rozumowania wraz z szybkim i niezawodnym wykonaniem. Potrafi rozkładać i planować złożone zadania, szybko i niezawodnie wywoływać narzędzia do ich realizacji oraz wyróżnia się w logicznym rozumowaniu, matematyce, inżynierii oprogramowania, głębokich badaniach i innych zaawansowanych zadaniach. Długość kontekstu wynosi 256K.",
"step-3.description": "Model o silnej percepcji wizualnej i złożonym rozumowaniu, dokładnie radzący sobie z rozumieniem wiedzy międzydziedzinowej, analizą matematyczno-wizualną i szerokim zakresem codziennych zadań wizualnych.",
"step-r1-v-mini.description": "Model rozumowania z silnym rozumieniem obrazów, przetwarza obrazy i tekst, a następnie generuje tekst po głębokim rozumowaniu. Doskonale radzi sobie z rozumowaniem wizualnym i osiąga najwyższy poziom w matematyce, kodowaniu i rozumowaniu tekstowym, z oknem kontekstu 100K.",
"stepfun-ai/step3.description": "Step3 to nowoczesny model rozumowania multimodalnego od StepFun, oparty na architekturze MoE z 321 miliardami parametrów ogółem i 38 miliardami aktywnych. Jego kompleksowa konstrukcja minimalizuje koszty dekodowania, zapewniając jednocześnie najwyższy poziom rozumienia wizualno-językowego. Dzięki projektowi MFA i AFD pozostaje wydajny zarówno na flagowych, jak i budżetowych akceleratorach. Wstępne trenowanie obejmuje ponad 20 bilionów tokenów tekstowych i 4 biliony tokenów obraz-tekst w wielu językach. Osiąga czołowe wyniki wśród otwartych modeli w zadaniach matematycznych, kodowaniu i benchmarkach multimodalnych.",
"taichu_llm.description": "Trenowany na ogromnych zbiorach wysokiej jakości danych, oferuje lepsze rozumienie tekstu, tworzenie treści i konwersacyjne pytania i odpowiedzi.",
"taichu_o1.description": "taichu_o1 to nowej generacji model rozumowania, który wykorzystuje interakcję multimodalną i uczenie przez wzmacnianie do osiągnięcia ludzkiego łańcucha myślowego. Obsługuje symulację złożonych decyzji, ujawnia ścieżki rozumowania przy zachowaniu wysokiej dokładności wyników, idealny do analizy strategicznej i głębokiego myślenia.",
"taichu_vl.description": "Łączy rozumienie obrazu, transfer wiedzy i logiczną atrybucję, wyróżniając się w zadaniach pytanie-odpowiedź obraz-tekst.",
"taichu4_vl_2b_nothinking.description": "Wersja bez myślenia modelu Taichu4.0-VL 2B charakteryzuje się niższym zużyciem pamięci, lekką konstrukcją, szybkim czasem reakcji i silnymi zdolnościami rozumienia multimodalnego.",
"taichu4_vl_32b.description": "Wersja myśląca modelu Taichu4.0-VL 32B jest odpowiednia do złożonych zadań rozumienia i rozumowania multimodalnego, wykazując doskonałą wydajność w multimodalnym rozumowaniu matematycznym, zdolnościach agenta multimodalnego oraz ogólnym rozumieniu obrazów i wizualizacji.",
"taichu4_vl_32b_nothinking.description": "Wersja bez myślenia modelu Taichu4.0-VL 32B została zaprojektowana do złożonych scenariuszy rozumienia obrazów i tekstów oraz wizualnych pytań i odpowiedzi, wyróżniając się w opisywaniu obrazów, wizualnych pytaniach i odpowiedziach, rozumieniu wideo oraz zadaniach lokalizacji wizualnej.",
"taichu4_vl_3b.description": "Wersja myśląca modelu Taichu4.0-VL 3B efektywnie wykonuje zadania rozumienia i rozumowania multimodalnego, z kompleksowymi ulepszeniami w zakresie rozumienia wizualnego, lokalizacji wizualnej, rozpoznawania OCR i powiązanych zdolności.",
"taichu_llm.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.",
"taichu_llm_14b.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.",
"taichu_llm_2b.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.",
"taichu_o1.description": "taichu_o1 to model rozumowania nowej generacji, który osiąga ludzkie myślenie łańcuchowe poprzez interakcję multimodalną i uczenie się przez wzmocnienie. Obsługuje symulacje złożonego podejmowania decyzji i, zachowując wysoką precyzję wyników, ujawnia interpretowalne ścieżki rozumowania. Jest dobrze dostosowany do analizy strategii, głębokiego myślenia i podobnych scenariuszy.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct wykorzystuje 80 miliardów parametrów całkowitych, z czego 13 miliardów aktywnych, aby dorównać większym modelom. Obsługuje hybrydowe rozumowanie szybkie/wolne, stabilne rozumienie długich tekstów i wiodące możliwości agenta w BFCL-v3 i τ-Bench. GQA i formaty wielokrotnej kwantyzacji umożliwiają wydajne wnioskowanie.",
"tencent/Hunyuan-MT-7B.description": "Model tłumaczeniowy Hunyuan obejmuje Hunyuan-MT-7B oraz zespół Hunyuan-MT-Chimera. Hunyuan-MT-7B to lekki model tłumaczeniowy o 7 miliardach parametrów, obsługujący 33 języki oraz 5 języków mniejszości chińskich. W WMT25 zdobył 30 pierwszych miejsc w 31 parach językowych. Tencent Hunyuan wykorzystuje pełny cykl treningowy od pretreningu przez SFT po RL tłumaczeniowe i zespołowe, osiągając wiodącą wydajność przy łatwym wdrożeniu.",
"text-embedding-3-large.description": "Najbardziej zaawansowany model osadzania tekstu dla zadań w języku angielskim i innych.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md jest odpowiedni do codziennych zadań i generowania interfejsów użytkownika.",
"vercel/v0-1.0-md.description": "Uzyskaj dostęp do modeli stojących za v0, aby generować, naprawiać i optymalizować nowoczesne aplikacje webowe z rozumowaniem specyficznym dla frameworków i aktualną wiedzą.",
"vercel/v0-1.5-md.description": "Uzyskaj dostęp do modeli stojących za v0, aby generować, naprawiać i optymalizować nowoczesne aplikacje webowe z rozumowaniem specyficznym dla frameworków i aktualną wiedzą.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code został zoptymalizowany pod kątem potrzeb programowania na poziomie przedsiębiorstw, wzmacniając zdolności kodowania na bazie doskonałych możliwości agenta i VLM Seed 2.0. Model ten wyróżnia się zarówno w programowaniu front-end, jak i w obsłudze wielojęzycznych potrzeb kodowania typowych dla przedsiębiorstw, co czyni go odpowiednim do integracji z różnymi narzędziami AI do programowania.",
"volcengine/doubao-seed-2-0-lite.description": "Łączy jakość generowania z szybkością odpowiedzi, odpowiedni jako uniwersalny model produkcyjny.",
"volcengine/doubao-seed-2-0-mini.description": "Wskazuje na najnowszą wersję doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Wskazuje na najnowszą wersję doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code to model LLM od ByteDance Volcano Engine zoptymalizowany do programowania agentowego, osiągający wysokie wyniki w benchmarkach programistycznych i agentowych z obsługą kontekstu 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, oferujący szybkie generowanie i wysoką wartość.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, generujący bogatsze detale.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, oferujący szybkie generowanie i wysoką wartość.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, generujący bogatsze szczegóły.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview obsługuje edycję pojedynczego obrazu i fuzję wielu obrazów.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I obsługuje elastyczny wybór wymiarów obrazu w ramach ograniczeń całkowitej powierzchni pikseli i proporcji.",
"wan2.6-image.description": "Wanxiang 2.6 Image obsługuje edycję obrazów i mieszane wyjścia układu obraz-tekst.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I obsługuje elastyczny wybór wymiarów obrazu w ramach ograniczeń całkowitej powierzchni pikseli i proporcji (tak samo jak Wanxiang 2.5).",
"wanx-v1.description": "Bazowy model tekst-na-obraz. Odpowiada Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Wyróżnia się w portretach z teksturą przy umiarkowanej szybkości i niższym koszcie. Odpowiada Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "W pełni zaktualizowana wersja z bogatszymi detalami obrazu i nieco wolniejszą szybkością. Odpowiada Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast to model xAI o wysokiej przepustowości i niskim koszcie (obsługuje kontekst do 2M tokenów), idealny do zastosowań wymagających dużej równoczesności i długiego kontekstu.",
"x-ai/grok-4.description": "Grok 4 to flagowy model rozumowania xAI z zaawansowanymi możliwościami rozumowania i obsługą danych multimodalnych.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 to szybki model kodowania od xAI, generujący czytelny i przyjazny dla inżynierów kod.",
"x1.description": "Aktualizacje X1.5: (1) dodaje dynamiczny tryb myślenia kontrolowany za pomocą pola `thinking`; (2) większa długość kontekstu z 64K wejściami i 64K wyjściami; (3) obsługuje funkcjonalność FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision wyróżnia się w zadaniach wizualnych, osiągając najwyższe wyniki w rozumowaniu matematycznym na obrazach (MathVista) i pytaniach do dokumentów (DocVQA). Obsługuje dokumenty, wykresy, grafy, zrzuty ekranu i zdjęcia.",
"xai/grok-2.description": "Grok 2 to zaawansowany model z najnowocześniejszym rozumowaniem, silnymi możliwościami konwersacyjnymi i kodowaniem, przewyższający Claude 3.5 Sonnet i GPT-4 Turbo w rankingu LMSYS.",
"xai/grok-3-fast.description": "Flagowy model xAI doskonale sprawdza się w zastosowaniach biznesowych, takich jak ekstrakcja danych, kodowanie i podsumowywanie, z głęboką wiedzą dziedzinową w finansach, opiece zdrowotnej, prawie i nauce. Wersja szybka działa na szybszej infrastrukturze, oferując znacznie szybsze odpowiedzi przy wyższym koszcie za token.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 to flagowy model Z.AI z hybrydowym rozumowaniem, zoptymalizowany do zadań inżynieryjnych i pracy z długim kontekstem.",
"z-ai/glm-4.6.description": "GLM 4.6 to flagowy model Z.AI z rozszerzoną długością kontekstu i zaawansowanymi możliwościami kodowania.",
"z-ai/glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, oferujący ulepszone ogólne możliwości, prostsze i bardziej naturalne odpowiedzi oraz bardziej wciągające doświadczenie pisarskie.",
"z-ai/glm5.description": "Silny model rozumowania i agentowy od Z.ai z 744B całkowitymi parametrami (40B aktywnych), zaprojektowany do inżynierii złożonych systemów i zadań o długim horyzoncie czasowym.",
"z-ai/glm4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, ulepszony pod kątem scenariuszy kodowania agentów z poprawionymi zdolnościami kodowania.",
"z-ai/glm5.description": "GLM-5 to nowy flagowy model bazowy Zhipu AI do inżynierii agentów, osiągający otwartoźródłową wydajność SOTA w kodowaniu i zdolnościach agentów. Dorównuje wydajnością Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image to lekki model generowania obrazów z tekstu, który może szybko tworzyć obrazy, obsługuje renderowanie tekstu w języku chińskim i angielskim oraz elastycznie dostosowuje się do różnych rozdzielczości i proporcji.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air to bazowy model dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.",
"zai-org/GLM-4.5.description": "GLM-4.5 to bazowy model stworzony dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Głęboko zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.",
"zai-org/GLM-4.5V.description": "GLM-4.5V to najnowszy VLM Zhipu AI, oparty na flagowym modelu tekstowym GLM-4.5-Air (106B parametrów ogółem, 12B aktywnych) z architekturą MoE zapewniającą wysoką wydajność przy niższych kosztach. Podąża ścieżką GLM-4.1V-Thinking i dodaje 3D-RoPE dla lepszego rozumienia przestrzeni 3D. Zoptymalizowany poprzez pretrening, SFT i RL, obsługuje obrazy, wideo i długie dokumenty, zajmując czołowe miejsca wśród otwartych modeli w 41 publicznych benchmarkach multimodalnych. Przełącznik trybu Thinking pozwala użytkownikom balansować między szybkością a głębokością analizy.",

View file

@ -170,6 +170,19 @@
"builtins.lobe-page-agent.apiName.updateNode": "Zaktualizuj węzeł",
"builtins.lobe-page-agent.apiName.wrapNodes": "Zawiń węzły",
"builtins.lobe-page-agent.title": "Strona",
"builtins.lobe-skill-store.apiName.importFromMarket": "Importuj z Rynku",
"builtins.lobe-skill-store.apiName.importSkill": "Importuj Umiejętność",
"builtins.lobe-skill-store.apiName.searchSkill": "Wyszukaj Umiejętności",
"builtins.lobe-skill-store.title": "Sklep z Umiejętnościami",
"builtins.lobe-skills.apiName.execScript": "Uruchom Skrypt",
"builtins.lobe-skills.apiName.exportFile": "Eksportuj Plik",
"builtins.lobe-skills.apiName.importFromMarket": "Importuj z Rynku",
"builtins.lobe-skills.apiName.importSkill": "Importuj Umiejętność",
"builtins.lobe-skills.apiName.readReference": "Przeczytaj Odniesienie",
"builtins.lobe-skills.apiName.runSkill": "Aktywuj Umiejętność",
"builtins.lobe-skills.apiName.searchSkill": "Wyszukaj Umiejętności",
"builtins.lobe-skills.title": "Umiejętności",
"builtins.lobe-tools.apiName.activateTools": "Aktywuj Narzędzia",
"builtins.lobe-user-memory.apiName.addContextMemory": "Dodaj pamięć kontekstu",
"builtins.lobe-user-memory.apiName.addExperienceMemory": "Dodaj pamięć doświadczenia",
"builtins.lobe-user-memory.apiName.addIdentityMemory": "Dodaj pamięć tożsamości",
@ -189,6 +202,7 @@
"builtins.lobe-web-browsing.title": "Wyszukiwanie w Sieci",
"confirm": "Potwierdź",
"debug.arguments": "Argumenty",
"debug.error": "Dziennik błędów",
"debug.function_call": "Wywołanie funkcji",
"debug.intervention": "Interwencja umiejętności",
"debug.off": "Debugowanie wyłączone",
@ -321,8 +335,8 @@
"dev.saveSuccess": "Ustawienia zapisane",
"dev.tabs.manifest": "Manifest",
"dev.tabs.meta": "Informacje meta",
"dev.title.create": "Dodaj niestandardową umiejętność",
"dev.title.edit": "Edytuj niestandardową umiejętność",
"dev.title.create": "Dodaj Niestandardową Umiejętność MCP",
"dev.title.edit": "Edytuj Niestandardową Umiejętność MCP",
"dev.title.editCommunity": "Edytuj umiejętność społeczności",
"dev.title.skillDetails": "Szczegóły umiejętności",
"dev.title.skillSettings": "Ustawienia umiejętności",

View file

@ -54,6 +54,7 @@
"siliconcloud.description": "SiliconCloud to opłacalna usługa chmurowa GenAI oparta na solidnych otwartych modelach.",
"spark.description": "iFLYTEK Spark oferuje potężną wielojęzyczną AI w różnych dziedzinach, umożliwiając innowacje w inteligentnym sprzęcie, opiece zdrowotnej, finansach i innych branżach.",
"stepfun.description": "Modele Stepfun oferują wiodące możliwości multimodalne i złożonego rozumowania, z rozumieniem długiego kontekstu i potężną autonomiczną orkiestracją wyszukiwania.",
"straico.description": "Straico upraszcza integrację AI, oferując zintegrowane środowisko pracy, które łączy najlepsze modele generatywne AI do tekstu, obrazów i dźwięku, umożliwiając marketerom, przedsiębiorcom i entuzjastom łatwy dostęp do różnorodnych narzędzi AI.",
"taichu.description": "Model multimodalny nowej generacji od CASIA i Instytutu AI w Wuhan, obsługujący wieloetapowe pytania i odpowiedzi, pisanie, generowanie obrazów, rozumienie 3D i analizę sygnałów z większą kognicją i kreatywnością.",
"tencentcloud.description": "Silnik wiedzy LLM Atomic Power zapewnia kompleksowe pytania i odpowiedzi dla przedsiębiorstw i deweloperów, z modułowymi usługami, takimi jak analiza dokumentów, dzielenie, osadzanie i wieloetapowe przekształcanie, umożliwiając tworzenie niestandardowych rozwiązań AI.",
"togetherai.description": "Together AI oferuje wiodącą wydajność dzięki innowacyjnym modelom, szerokim możliwościom dostosowania, szybkiemu skalowaniu i prostemu wdrażaniu dla potrzeb przedsiębiorstw.",

View file

@ -129,6 +129,42 @@
"agentInfoDescription.role.title": "Profil agenta",
"agentInfoDescription.value.unset": "Nieustawione",
"agentInfoDescription.value.untitled": "Agent bez tytułu",
"agentSkillDetail.addedAt": "Dodano",
"agentSkillDetail.publishedAt": "Opublikowano",
"agentSkillDetail.repository": "Repozytorium GitHub",
"agentSkillDetail.skillContent": "Treść umiejętności",
"agentSkillDetail.sourceUrl": "Źródło importu umiejętności",
"agentSkillDetail.updatedAt": "Zaktualizowano",
"agentSkillEdit.descriptionDesc": "Krótki opis tego, co robi umiejętność, pomagający agentowi zrozumieć, kiedy jej używać",
"agentSkillEdit.fileReadonly": "Ten plik jest tylko do odczytu. Można edytować jedynie opis umiejętności i instrukcje.",
"agentSkillEdit.instructions": "Instrukcje",
"agentSkillEdit.instructionsDesc": "Główne instrukcje w formacie Markdown definiujące zachowanie i przepływ pracy umiejętności",
"agentSkillEdit.instructionsPlaceholder": "Wprowadź instrukcje umiejętności w formacie Markdown...",
"agentSkillEdit.nameDesc": "Unikalny identyfikator tej umiejętności, nieedytowalny po utworzeniu",
"agentSkillEdit.saveSuccess": "Umiejętność zaktualizowana pomyślnie",
"agentSkillEdit.title": "Ustawienia umiejętności",
"agentSkillItem.deleteConfirm.desc": "Czy na pewno chcesz usunąć umiejętność agenta \"{{name}}\"? Tej operacji nie można cofnąć.",
"agentSkillItem.deleteConfirm.title": "Usuń umiejętność agenta",
"agentSkillModal.content": "Treść umiejętności",
"agentSkillModal.contentPlaceholder": "Wprowadź treść umiejętności w formacie Markdown...",
"agentSkillModal.description": "Opis",
"agentSkillModal.descriptionPlaceholder": "Krótko opisz tę umiejętność",
"agentSkillModal.github.desc": "Importuj umiejętności bezpośrednio z publicznego repozytorium GitHub.",
"agentSkillModal.github.title": "Importuj z GitHub",
"agentSkillModal.github.urlPlaceholder": "https://github.com/użytkownik/repozytorium",
"agentSkillModal.importError": "Import nie powiódł się: {{error}}",
"agentSkillModal.importSuccess": "Umiejętność agenta zaimportowana pomyślnie",
"agentSkillModal.upload.desc": "Prześlij lokalny plik .zip lub .skill, aby zainstalować.",
"agentSkillModal.upload.dragText": "Przeciągnij i upuść lub kliknij, aby przesłać",
"agentSkillModal.upload.requirementSkillMd": "SKILL.md zawiera nazwę i opis umiejętności w formacie YAML",
"agentSkillModal.upload.requirementZip": "Plik .zip lub .skill z SKILL.md w katalogu głównym",
"agentSkillModal.upload.requirements": "Wymagania dotyczące pliku",
"agentSkillModal.upload.title": "Prześlij umiejętność",
"agentSkillModal.upload.uploading": "Przesyłanie...",
"agentSkillModal.url.desc": "Importuj umiejętność, podając bezpośredni link do pliku SKILL.md.",
"agentSkillModal.url.title": "Importuj z URL",
"agentSkillModal.url.urlPlaceholder": "https://example.com/sciezka/do/SKILL.md",
"agentSkillTag": "Umiejętność agenta",
"agentTab.chat": "Preferencje czatu",
"agentTab.meta": "Informacje o agencie",
"agentTab.modal": "Ustawienia modelu",
@ -643,6 +679,9 @@
"systemAgent.translation.modelDesc": "Określ model używany do tłumaczenia",
"systemAgent.translation.title": "Agent tłumaczenia wiadomości",
"tab.about": "O aplikacji",
"tab.addAgentSkill": "Dodaj umiejętność agenta",
"tab.addCustomMcp": "Dodaj niestandardową umiejętność MCP",
"tab.addCustomMcp.desc": "Ręcznie skonfiguruj niestandardowy serwer MCP",
"tab.addCustomSkill": "Dodaj własną umiejętność",
"tab.agent": "Usługa agenta",
"tab.all": "Wszystkie",
@ -652,7 +691,13 @@
"tab.experiment": "Eksperyment",
"tab.hotkey": "Skróty klawiszowe",
"tab.image": "Usługa generowania obrazów",
"tab.importFromGithub": "Importuj z GitHub",
"tab.importFromGithub.desc": "Importuj z publicznego repozytorium GitHub",
"tab.importFromUrl": "Importuj z URL",
"tab.importFromUrl.desc": "Importuj za pomocą bezpośredniego linku do SKILL.md",
"tab.llm": "Model językowy",
"tab.manualFill": "Wypełnij ręcznie",
"tab.manualFill.desc": "Ręcznie skonfiguruj niestandardową umiejętność MCP",
"tab.memory": "Pamięć",
"tab.profile": "Moje konto",
"tab.provider": "Dostawca usług AI",
@ -669,6 +714,8 @@
"tab.sync": "Synchronizacja w chmurze",
"tab.systemTools": "Narzędzia systemowe",
"tab.tts": "Synteza mowy",
"tab.uploadZip": "Prześlij plik Zip",
"tab.uploadZip.desc": "Prześlij lokalny plik .zip lub .skill",
"tab.usage": "Statystyki użycia",
"tools.add": "Dodaj umiejętność",
"tools.builtins.groupName": "Wbudowane",

View file

@ -256,11 +256,6 @@
"footer.star.title": "Dê uma estrela no GitHub",
"footer.title": "Gosta do nosso produto?",
"fullscreen": "Modo Tela Cheia",
"geminiImageChineseWarning.content": "O Nano Banana pode, ocasionalmente, falhar ao gerar imagens ao usar o idioma chinês. Recomenda-se utilizar o inglês para melhores resultados.",
"geminiImageChineseWarning.continueGenerate": "Continuar Gerando",
"geminiImageChineseWarning.continueSend": "Continuar Enviando",
"geminiImageChineseWarning.doNotShowAgain": "Não Mostrar Novamente",
"geminiImageChineseWarning.title": "Aviso sobre Entrada em Chinês",
"historyRange": "Período do Histórico",
"home.suggestQuestions": "Experimente estes exemplos",
"import": "Importar",
@ -397,6 +392,7 @@
"tab.chat": "Chat",
"tab.community": "Comunidade",
"tab.discover": "Descobrir",
"tab.eval": "Laboratório de Avaliação",
"tab.files": "Arquivos",
"tab.home": "Início",
"tab.knowledgeBase": "Biblioteca",

316
locales/pt-BR/eval.json Normal file
View file

@ -0,0 +1,316 @@
{
"benchmark.actions.delete": "Excluir Benchmark",
"benchmark.actions.delete.confirm": "Tem certeza de que deseja excluir este benchmark? Conjuntos de dados relacionados e registros de avaliação também serão excluídos.",
"benchmark.actions.edit": "Editar Benchmark",
"benchmark.actions.export": "Exportar",
"benchmark.card.bestScore": "Melhor",
"benchmark.card.caseCount": "{{count}} casos",
"benchmark.card.datasetCount": "{{count}} conjuntos de dados",
"benchmark.card.empty": "Ainda não há avaliações",
"benchmark.card.emptyHint": "Crie uma nova avaliação na página de detalhes do benchmark",
"benchmark.card.importDataset": "Importar Conjunto de Dados",
"benchmark.card.noDataset": "Ainda não há conjuntos de dados",
"benchmark.card.noDatasetHint": "Importe um conjunto de dados para começar a avaliar",
"benchmark.card.noRecentRuns": "Nenhuma avaliação recente para exibir",
"benchmark.card.recentRuns": "Avaliações Recentes",
"benchmark.card.runCount": "{{count}} avaliações",
"benchmark.card.startFirst": "Iniciar Primeira Avaliação",
"benchmark.card.viewAll": "Ver todos {{count}}",
"benchmark.create.confirm": "Criar",
"benchmark.create.description.label": "Descrição",
"benchmark.create.description.placeholder": "Descrição do benchmark (opcional)",
"benchmark.create.error": "Falha ao criar benchmark",
"benchmark.create.identifier.label": "Identificador",
"benchmark.create.identifier.placeholder": "identificador-do-benchmark",
"benchmark.create.identifierRequired": "Por favor, insira um identificador",
"benchmark.create.name.label": "Nome",
"benchmark.create.name.placeholder": "Insira o nome do benchmark",
"benchmark.create.nameRequired": "Por favor, insira um nome para o benchmark",
"benchmark.create.success": "Benchmark criado com sucesso",
"benchmark.create.tags.label": "Tags",
"benchmark.create.tags.placeholder": "Adicione tags, separe por vírgula ou espaço",
"benchmark.create.title": "Criar Benchmark",
"benchmark.detail.backToOverview": "Voltar para Visão Geral",
"benchmark.detail.datasetCount": "{{count}} conjunto{{count, plural, one {} other {s}}} de dados neste benchmark",
"benchmark.detail.runCount": "{{count}} execução{{count, plural, one {} other {ões}}} de avaliação neste benchmark",
"benchmark.detail.stats.addFirstDataset": "Clique para adicionar o primeiro conjunto de dados",
"benchmark.detail.stats.avgCost": "Custo Médio",
"benchmark.detail.stats.avgDuration": "Duração Média",
"benchmark.detail.stats.basedOnLastNRuns": "Baseado nas últimas {{count}} execuções",
"benchmark.detail.stats.bestPerformance": "Melhor desempenho por {{agent}} com taxa de aprovação de {{passRate}}%",
"benchmark.detail.stats.bestScore": "Melhor Pontuação",
"benchmark.detail.stats.cases": "Casos",
"benchmark.detail.stats.dataScale": "Escala de Dados",
"benchmark.detail.stats.datasets": "Conjuntos de Dados",
"benchmark.detail.stats.needSetup": "Configuração Necessária",
"benchmark.detail.stats.noEvalRecord": "Ainda não há registros de avaliação",
"benchmark.detail.stats.perRun": "/ Execução",
"benchmark.detail.stats.runs": "Execuções",
"benchmark.detail.stats.tags": "Tags",
"benchmark.detail.stats.topAgents": "Melhores Agentes",
"benchmark.detail.stats.totalCases": "Total de Casos",
"benchmark.detail.stats.waiting": "Aguardando...",
"benchmark.detail.tabs.data": "Dados",
"benchmark.detail.tabs.datasets": "Conjuntos de Dados",
"benchmark.detail.tabs.runs": "Execuções",
"benchmark.edit.confirm": "Salvar",
"benchmark.edit.error": "Falha ao atualizar benchmark",
"benchmark.edit.success": "Benchmark atualizado com sucesso",
"benchmark.edit.title": "Editar Benchmark",
"benchmark.empty": "Ainda não há benchmarks. Crie um para começar.",
"caseDetail.actual": "Saída Atual",
"caseDetail.chatArea.title": "Conversa",
"caseDetail.completionReason": "Status",
"caseDetail.cost": "Custo",
"caseDetail.difficulty": "Dificuldade",
"caseDetail.duration": "Duração",
"caseDetail.expected": "Saída Esperada",
"caseDetail.failureReason": "Motivo da Falha",
"caseDetail.input": "Entrada",
"caseDetail.judgeComment": "Comentário do Juiz",
"caseDetail.resources": "Recursos",
"caseDetail.score": "Pontuação",
"caseDetail.section.runtime": "Tempo de Execução",
"caseDetail.section.scoring": "Detalhes da Pontuação",
"caseDetail.section.testCase": "Caso de Teste",
"caseDetail.steps": "Passos",
"caseDetail.threads.attempt": "Trajetória #{{number}}",
"caseDetail.tokens": "Uso de Tokens",
"common.cancel": "Cancelar",
"common.create": "Criar",
"common.delete": "Excluir",
"common.edit": "Editar",
"common.later": "Depois",
"common.next": "Próximo",
"common.update": "Atualizar",
"dataset.actions.addDataset": "Adicionar Conjunto de Dados",
"dataset.actions.import": "Importar Dados",
"dataset.actions.importDataset": "Importar Conjunto de Dados",
"dataset.create.description.label": "Descrição",
"dataset.create.description.placeholder": "Descrição do conjunto de dados (opcional)",
"dataset.create.error": "Falha ao criar conjunto de dados",
"dataset.create.identifier.label": "Identificador",
"dataset.create.identifier.placeholder": "identificador-do-conjunto-de-dados",
"dataset.create.identifierRequired": "Por favor, insira um identificador",
"dataset.create.importNow": "Gostaria de importar dados agora?",
"dataset.create.name.label": "Nome do Conjunto de Dados",
"dataset.create.name.placeholder": "Insira o nome do conjunto de dados",
"dataset.create.nameRequired": "Por favor, insira um nome para o conjunto de dados",
"dataset.create.preset.label": "Predefinição do Conjunto de Dados",
"dataset.create.success": "Conjunto de dados criado com sucesso",
"dataset.create.successTitle": "Conjunto de Dados Criado",
"dataset.create.title": "Criar Conjunto de Dados",
"dataset.delete.confirm": "Tem certeza de que deseja excluir este conjunto de dados? Todos os casos de teste nele também serão excluídos.",
"dataset.delete.error": "Falha ao excluir conjunto de dados",
"dataset.delete.success": "Conjunto de dados excluído com sucesso",
"dataset.detail.addRun": "Nova Execução",
"dataset.detail.backToBenchmark": "Voltar para Benchmark",
"dataset.detail.caseCount": "{{count}} caso de teste{{count, plural, one {} other {s}}}",
"dataset.detail.relatedRuns": "Execuções Relacionadas ({{count}})",
"dataset.detail.testCases": "Casos de Teste",
"dataset.detail.viewDetail": "Ver Detalhes",
"dataset.edit.error": "Falha ao atualizar conjunto de dados",
"dataset.edit.success": "Conjunto de dados atualizado com sucesso",
"dataset.edit.title": "Editar Conjunto de Dados",
"dataset.empty": "Sem conjuntos de dados",
"dataset.empty.description": "Importe um conjunto de dados para começar a construir este benchmark",
"dataset.empty.title": "Ainda não há conjuntos de dados",
"dataset.evalMode.hint": "Modo de avaliação padrão para o conjunto de dados, pode ser substituído no nível do caso de teste",
"dataset.import.category": "Categoria",
"dataset.import.categoryDesc": "Rótulo de classificação para agrupamento",
"dataset.import.choices": "Opções",
"dataset.import.choicesDesc": "Opções de múltipla escolha",
"dataset.import.confirm": "Importar",
"dataset.import.error": "Falha ao importar conjunto de dados",
"dataset.import.expected": "Resposta Esperada",
"dataset.import.expectedDelimiter": "Delimitador de Resposta",
"dataset.import.expectedDelimiter.desc": "Delimitador de resposta",
"dataset.import.expectedDelimiter.placeholder": "ex.: | ou ,",
"dataset.import.expectedDesc": "Resposta correta para comparar",
"dataset.import.fieldMapping": "Mapeamento de Campos",
"dataset.import.fieldMapping.desc": "A coluna \"Entrada\" é obrigatória",
"dataset.import.hideSkipped": "Ocultar colunas ignoradas",
"dataset.import.ignore": "Ignorar",
"dataset.import.ignoreDesc": "Não importar esta coluna",
"dataset.import.input": "Entrada",
"dataset.import.inputDesc": "Pergunta ou prompt enviado ao modelo",
"dataset.import.metadata": "Metadados",
"dataset.import.metadataDesc": "Informações extras, armazenadas como estão",
"dataset.import.next": "Próximo",
"dataset.import.parseError": "Falha ao analisar arquivo",
"dataset.import.parsing": "Analisando arquivo...",
"dataset.import.prev": "Anterior",
"dataset.import.preview": "Pré-visualização de Dados",
"dataset.import.preview.desc": "Confirme se o mapeamento está correto e, em seguida, importe.",
"dataset.import.preview.rows": "{{count}} linhas no total",
"dataset.import.sortOrder": "Número do Item",
"dataset.import.sortOrderDesc": "ID da pergunta/item para referência",
"dataset.import.step.mapping": "Mapear Campos",
"dataset.import.step.preview": "Pré-visualizar",
"dataset.import.step.upload": "Carregar Arquivo",
"dataset.import.success": "{{count}} casos de teste importados com sucesso",
"dataset.import.title": "Importar Conjunto de Dados",
"dataset.import.upload.hint": "Suporta CSV, XLSX, JSON, JSONL",
"dataset.import.upload.text": "Clique ou arraste o arquivo aqui para carregar",
"dataset.import.uploading": "Carregando...",
"dataset.switchDataset": "Trocar Conjunto de Dados",
"difficulty.easy": "Fácil",
"difficulty.hard": "Difícil",
"difficulty.medium": "Médio",
"evalMode.contains": "Correspondência Contém",
"evalMode.contains.desc": "A saída deve conter o texto esperado",
"evalMode.equals": "Correspondência Exata",
"evalMode.equals.desc": "A saída deve ser exatamente igual ao esperado",
"evalMode.label": "Modo de Avaliação",
"evalMode.llm-rubric": "Juiz LLM",
"evalMode.llm-rubric.desc": "Use LLM para avaliar a qualidade da saída",
"evalMode.placeholder": "Selecione o modo de avaliação",
"evalMode.prompt.label": "Prompt do Juiz",
"evalMode.prompt.placeholder": "Insira os critérios de avaliação ou prompt para o juiz LLM",
"evalMode.rubric": "Pontuação por Rubrica",
"evalMode.rubric.desc": "Pontue a saída usando rubricas de benchmark com critérios ponderados",
"overview.createBenchmark": "Criar Benchmark",
"overview.importDataset": "Importar Conjunto de Dados",
"overview.subtitle": "Avalie e compare seus agentes de IA em diferentes conjuntos de dados",
"overview.title": "Laboratório de Avaliação",
"run.actions.abort": "Abortar",
"run.actions.abort.confirm": "Tem certeza de que deseja abortar esta avaliação?",
"run.actions.create": "Nova Avaliação",
"run.actions.delete": "Excluir",
"run.actions.delete.confirm": "Tem certeza de que deseja excluir esta avaliação?",
"run.actions.edit": "Editar",
"run.actions.retryCase": "Tentar Novamente",
"run.actions.retryErrors": "Tentar Erros Novamente",
"run.actions.retryErrors.confirm": "Isso irá reexecutar todos os casos de erro e timeout. Casos aprovados e falhados não serão afetados.",
"run.actions.run": "Executar",
"run.actions.start": "Iniciar",
"run.actions.start.confirm": "Tem certeza de que deseja iniciar esta avaliação?",
"run.chart.duration": "Duração (s)",
"run.chart.error": "Erro",
"run.chart.fail": "Falha",
"run.chart.latencyDistribution": "Distribuição de Latência",
"run.chart.latencyTokenDistribution": "Latência / Distribuição de Tokens",
"run.chart.pass": "Aprovado",
"run.chart.passFailError": "Aprovado / Falha / Erro",
"run.chart.tokens": "Tokens",
"run.config.agentId": "Agente",
"run.config.concurrency": "Concorrência",
"run.config.judgeModel": "Modelo do Juiz",
"run.config.k": "Execuções (K)",
"run.config.k.hint": "Execute cada caso de teste {{k}} vezes para métricas pass@{{k}}/pass^{{k}}",
"run.config.maxSteps": "Máximo de Passos",
"run.config.maxSteps.hint": "Cada chamada LLM ou ferramenta pelo agente conta como 1 passo",
"run.config.model": "Modelo",
"run.config.temperature": "Temperatura",
"run.config.timeout": "Timeout",
"run.config.timeout.unit": "min",
"run.create.advanced": "Configurações Avançadas",
"run.create.agent": "Agente",
"run.create.agent.placeholder": "Selecione um agente",
"run.create.agent.required": "Por favor, selecione um agente",
"run.create.caseCount": "{{count}} casos",
"run.create.confirm": "Criar e Iniciar",
"run.create.createOnly": "Criar",
"run.create.dataset": "Conjunto de Dados",
"run.create.dataset.placeholder": "Selecione um conjunto de dados",
"run.create.dataset.required": "Por favor, selecione um conjunto de dados",
"run.create.name": "Nome da Execução",
"run.create.name.placeholder": "Insira um nome para esta execução",
"run.create.name.required": "Por favor, insira um nome para a execução",
"run.create.name.useTimestamp": "Usar horário atual como nome",
"run.create.openAgent": "Abrir agente em nova janela",
"run.create.title": "Nova Avaliação",
"run.create.titleWithDataset": "Nova Avaliação em \"{{dataset}}\"",
"run.detail.agent": "Agente",
"run.detail.agent.none": "Não especificado",
"run.detail.agent.unnamed": "Agente Sem Nome",
"run.detail.backToBenchmark": "Voltar para Benchmark",
"run.detail.caseResults": "Detalhes da Avaliação",
"run.detail.config": "Configuração da Avaliação",
"run.detail.configSnapshot": "Instantâneo da Configuração",
"run.detail.dataset": "Conjunto de Dados",
"run.detail.model": "Modelo",
"run.detail.overview": "Visão Geral",
"run.detail.progress": "Progresso",
"run.detail.progressCases": "casos",
"run.detail.report": "Resumo da Avaliação",
"run.edit.error": "Falha ao atualizar avaliação",
"run.edit.success": "Avaliação atualizada com sucesso",
"run.edit.title": "Editar Avaliação",
"run.empty.description": "Inicie sua primeira execução de avaliação neste conjunto de dados",
"run.empty.descriptionBenchmark": "Inicie sua primeira execução de avaliação neste benchmark",
"run.empty.title": "Ainda não há execuções",
"run.filter.active": "Ativo",
"run.filter.empty": "Nenhuma execução corresponde ao filtro atual.",
"run.idle.hint": "Clique em Iniciar para começar a avaliação",
"run.metrics.avgScore": "Pontuação Média",
"run.metrics.cost": "Custo",
"run.metrics.duration": "Duração",
"run.metrics.errorCases": "Erro",
"run.metrics.evaluated": "{{count}} avaliados",
"run.metrics.passRate": "Taxa de Aprovação",
"run.metrics.perCase": "/ caso",
"run.metrics.tokens": "Tokens",
"run.metrics.totalDuration": "Cumulativo",
"run.pending.hint": "Avaliação está na fila, aguardando para começar...",
"run.running.hint": "Avaliação está em execução, os resultados aparecerão em breve...",
"run.status.aborted": "Abortado",
"run.status.completed": "Concluído",
"run.status.error": "Erro na Execução",
"run.status.failed": "Falhou",
"run.status.idle": "Inativo",
"run.status.pending": "Pendente",
"run.status.running": "Executando",
"run.status.timeout": "Timeout",
"sidebar.benchmarks": "Benchmarks",
"sidebar.dashboard": "Painel",
"sidebar.datasets": "Conjuntos de Dados",
"sidebar.runs": "Execuções",
"table.columns.avgCost": "Custo Médio",
"table.columns.category": "Categoria",
"table.columns.cost": "Custo",
"table.columns.difficulty": "Dificuldade",
"table.columns.duration": "Duração",
"table.columns.evalMode": "Modo de Avaliação",
"table.columns.expected": "Resposta Esperada",
"table.columns.input": "Entrada",
"table.columns.score": "Pontuação",
"table.columns.status": "Status",
"table.columns.steps": "Passos",
"table.columns.tags": "Tags",
"table.columns.tokens": "Tokens",
"table.columns.totalCost": "Custo Total",
"table.filter.all": "Todos",
"table.filter.error": "Erro na Execução",
"table.filter.failed": "Falhou",
"table.filter.passed": "Aprovado",
"table.filter.running": "Executando",
"table.search.placeholder": "Pesquisar casos...",
"table.total": "Total {{count}}",
"testCase.actions.add": "Adicionar Caso de Teste",
"testCase.actions.import": "Importar Casos de Teste",
"testCase.create.advanced": "Mais Opções",
"testCase.create.difficulty.label": "Dificuldade",
"testCase.create.error": "Falha ao adicionar caso de teste",
"testCase.create.expected.label": "Saída Esperada",
"testCase.create.expected.placeholder": "Insira a resposta esperada",
"testCase.create.expected.required": "Por favor, insira a saída esperada",
"testCase.create.input.label": "Entrada",
"testCase.create.input.placeholder": "Insira a entrada ou pergunta do caso de teste",
"testCase.create.success": "Caso de teste adicionado com sucesso",
"testCase.create.tags.label": "Tags",
"testCase.create.tags.placeholder": "Tags separadas por vírgula (opcional)",
"testCase.create.title": "Adicionar Caso de Teste",
"testCase.delete.confirm": "Tem certeza de que deseja excluir este caso de teste?",
"testCase.delete.error": "Falha ao excluir caso de teste",
"testCase.delete.success": "Caso de teste excluído",
"testCase.edit.error": "Falha ao atualizar caso de teste",
"testCase.edit.success": "Caso de teste atualizado com sucesso",
"testCase.edit.title": "Editar Caso de Teste",
"testCase.empty.description": "Importe ou adicione manualmente casos de teste a este conjunto de dados",
"testCase.empty.title": "Ainda não há casos de teste",
"testCase.preview.expected": "Esperado",
"testCase.preview.input": "Entrada",
"testCase.preview.title": "Pré-visualização do Caso de Teste",
"testCase.search.placeholder": "Pesquisar casos..."
}

View file

@ -10,6 +10,7 @@
"starter.deepResearch": "Pesquisa Aprofundada",
"starter.developing": "Em breve",
"starter.image": "Imagem",
"starter.nanoBanana2": "🍌 Nano Banana 2",
"starter.seedance": "Seedance 2.0",
"starter.write": "Escrever"
}

View file

@ -232,6 +232,7 @@
"providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para a série Gemini; controla o orçamento de pensamento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla a profundidade do pensamento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla a profundidade do pensamento.",
"providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Para modelos Gemini 3.1 Pro Preview; controla a profundidade de pensamento com níveis baixo/médio/alto.",
"providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para a série Gemini; permite fornecer contexto via URL.",
"providerModels.item.modelConfig.extendParams.placeholder": "Selecione os parâmetros estendidos a serem ativados",
"providerModels.item.modelConfig.extendParams.previewFallback": "Pré-visualização indisponível",

View file

@ -8,7 +8,9 @@
"360gpt-turbo.description": "O 360GPT Turbo oferece forte capacidade de computação e chat com excelente compreensão semântica e eficiência de geração, ideal para empresas e desenvolvedores.",
"360gpt2-o1.description": "O 360gpt2-o1 constrói cadeias de raciocínio por meio de busca em árvore com mecanismo de reflexão e treinamento por reforço, permitindo autorreflexão e autocorreção.",
"360gpt2-pro.description": "O 360GPT2 Pro é um modelo avançado de PLN da 360 com excelente geração e compreensão de texto, especialmente para tarefas criativas, transformações complexas e simulações de papéis.",
"360zhinao2-o1.5.description": "360 Zhinao, o modelo de raciocínio mais poderoso, com as capacidades mais avançadas, suportando tanto chamadas de ferramentas quanto raciocínio avançado.",
"360zhinao2-o1.description": "O 360zhinao2-o1 constrói cadeias de raciocínio por meio de busca em árvore com mecanismo de reflexão e treinamento por reforço, permitindo autorreflexão e autocorreção.",
"360zhinao3-o1.5.description": "360 Zhinao, modelo de raciocínio de próxima geração.",
"4.0Ultra.description": "O Spark Ultra é o modelo mais poderoso da série Spark, aprimorando a compreensão e a sumarização de texto, além de melhorar a busca na web. É uma solução completa para aumentar a produtividade no trabalho e fornecer respostas precisas, posicionando-se como um produto inteligente de destaque.",
"AnimeSharp.description": "AnimeSharp (também conhecido como \"4x-AnimeSharp\") é um modelo open-source de super-resolução baseado no ESRGAN de Kim2091, focado em ampliar e aprimorar imagens no estilo anime. Foi renomeado de \"4x-TextSharpV1\" em fevereiro de 2022, originalmente também voltado para imagens de texto, mas fortemente otimizado para conteúdo de anime.",
"Baichuan2-Turbo.description": "Utiliza aumento por busca para conectar o modelo ao conhecimento de domínio e da web. Suporta upload de arquivos PDF/Word e entrada de URLs para recuperação abrangente e atualizada, com saídas profissionais e precisas.",
@ -276,7 +278,7 @@
"c4ai-aya-vision-8b.description": "Aya Vision é um modelo multimodal de última geração com forte desempenho em benchmarks de linguagem, texto e visão. Esta versão de 8B foca em baixa latência e desempenho robusto.",
"charglm-3.description": "CharGLM-3 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.",
"charglm-4.description": "CharGLM-4 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.",
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.",
"chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real. Combina forte compreensão e geração de linguagem para casos de uso em larga escala, como suporte ao cliente, educação e assistência técnica.",
"claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.",
"claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo modelo principal Claude 3 Opus em muitos benchmarks.",
@ -368,6 +370,7 @@
"deepseek-ai/deepseek-llm-67b-chat.description": "O DeepSeek LLM Chat (67B) é um modelo inovador que oferece compreensão profunda da linguagem e interação.",
"deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.",
"deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo de raciocínio de próxima geração com capacidades mais fortes de raciocínio complexo e cadeia de pensamento.",
"deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.",
"deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis comparáveis ao GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.",
"deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.",
@ -401,6 +404,7 @@
"deepseek-v3.1.description": "DeepSeek-V3.1 é um novo modelo híbrido de raciocínio da DeepSeek, que suporta modos com e sem raciocínio, oferecendo maior eficiência de pensamento em comparação ao DeepSeek-R1-0528. Otimizações pós-treinamento melhoram significativamente o uso de ferramentas por agentes e o desempenho em tarefas. Suporta uma janela de contexto de 128k e até 64k tokens de saída.",
"deepseek-v3.1:671b.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com melhorias em raciocínio complexo e cadeia de pensamento, ideal para tarefas que exigem análise profunda.",
"deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduz atenção esparsa para melhorar a eficiência de treinamento e inferência em textos longos, com custo inferior ao deepseek-v3.1.",
"deepseek-v3.2-speciale.description": "Em tarefas altamente complexas, o modelo Speciale supera significativamente a versão padrão, mas consome consideravelmente mais tokens e gera custos mais altos. Atualmente, o DeepSeek-V3.2-Speciale é destinado apenas para uso em pesquisa, não suporta chamadas de ferramentas e não foi especificamente otimizado para conversas ou tarefas de escrita do dia a dia.",
"deepseek-v3.2-think.description": "DeepSeek V3.2 Think é um modelo completo de raciocínio profundo com raciocínio em cadeias longas mais robusto.",
"deepseek-v3.2.description": "DeepSeek-V3.2 é o primeiro modelo de raciocínio híbrido da DeepSeek que integra pensamento ao uso de ferramentas. Utiliza uma arquitetura eficiente para economizar computação, aprendizado por reforço em larga escala para ampliar capacidades e dados sintéticos em grande escala para fortalecer a generalização. A combinação desses três elementos atinge desempenho comparável ao GPT-5-High, com comprimento de saída significativamente reduzido, diminuindo notavelmente a sobrecarga computacional e o tempo de espera do usuário.",
"deepseek-v3.description": "DeepSeek-V3 é um poderoso modelo MoE com 671 bilhões de parâmetros totais e 37 bilhões ativos por token.",
@ -439,10 +443,7 @@
"doubao-1.5-vision-lite.description": "O Doubao-1.5-vision-lite é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções. Suporta uma janela de contexto de 128k e até 16k tokens de saída.",
"doubao-1.5-vision-pro-32k.description": "O Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
"doubao-1.5-vision-pro.description": "O Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.",
"doubao-lite-128k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 128k.",
"doubao-lite-32k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
"doubao-lite-4k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 4k.",
"doubao-pro-256k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com excelentes resultados em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 256k.",
"doubao-pro-32k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com excelentes resultados em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 32k.",
"doubao-seed-1.6-flash.description": "O Doubao-Seed-1.6-flash é um modelo multimodal de raciocínio profundo ultrarrápido com TPOT de até 10ms. Suporta entrada de texto e imagem, supera o modelo lite anterior em compreensão de texto e se equipara aos modelos pro concorrentes em visão. Suporta janela de contexto de 256k e até 16k tokens de saída.",
"doubao-seed-1.6-lite.description": "O Doubao-Seed-1.6-lite é um novo modelo multimodal de raciocínio profundo com esforço de raciocínio ajustável (Mínimo, Baixo, Médio, Alto), oferecendo melhor custo-benefício e sendo uma escolha sólida para tarefas comuns, com janela de contexto de até 256k.",
@ -458,10 +459,11 @@
"doubao-seededit-3-0-i2i-250628.description": "O modelo de imagem Doubao da ByteDance Seed suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Suporta edição de imagem guiada por texto, com tamanhos de saída entre 512 e 1536 no lado mais longo.",
"doubao-seedream-3-0-t2i-250415.description": "O Seedream 3.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
"doubao-seedream-4-0-250828.description": "O Seedream 4.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.",
"doubao-vision-lite-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
"doubao-vision-pro-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.",
"doubao-seedream-4-5-251128.description": "Seedream 4.5 é o mais recente modelo multimodal de imagem da ByteDance, integrando capacidades de texto-para-imagem, imagem-para-imagem e geração de imagens em lote, enquanto incorpora senso comum e habilidades de raciocínio. Comparado à versão anterior 4.0, oferece qualidade de geração significativamente melhorada, com maior consistência de edição e fusão de múltiplas imagens. Oferece controle mais preciso sobre detalhes visuais, produzindo texto pequeno e rostos pequenos de forma mais natural, além de alcançar layouts e cores mais harmoniosos, melhorando a estética geral.",
"doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite é o mais recente modelo de geração de imagens da ByteDance. Pela primeira vez, integra capacidades de recuperação online, permitindo incorporar informações da web em tempo real e melhorar a atualidade das imagens geradas. A inteligência do modelo também foi aprimorada, permitindo interpretação precisa de instruções complexas e conteúdo visual. Além disso, oferece melhor cobertura de conhecimento global, consistência de referência e qualidade de geração em cenários profissionais, atendendo melhor às necessidades de criação visual em nível empresarial.",
"emohaa.description": "O Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.",
"ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.",
"ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking é um modelo MoE (Mixture-of-Experts) de texto pós-treinado com um total de 21 bilhões de parâmetros e 3 bilhões de parâmetros ativos, oferecendo qualidade e profundidade de raciocínio significativamente aprimoradas.",
"ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros, com melhor compreensão e geração.",
"ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE, com excelente capacidade de raciocínio.",
"ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com contexto de 8K para avaliação do ERNIE 4.5.",
@ -484,8 +486,10 @@
"ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K é um modelo leve de alto desempenho para cenários sensíveis à latência e ao custo.",
"ernie-novel-8k.description": "ERNIE Novel 8K é projetado para romances longos e enredos de IP com narrativas de múltiplos personagens.",
"ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K é um modelo de alto valor e alta concorrência para serviços online em larga escala e aplicativos corporativos.",
"ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview é um modelo de pensamento rápido com 32K de contexto para raciocínio complexo e conversas de múltiplas interações.",
"ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.",
"ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.",
"ernie-x1.1.description": "ERNIE X1.1 é um modelo de pensamento em pré-visualização para avaliação e testes.",
"fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, oferece edição e composição com múltiplas imagens. Apresenta consistência aprimorada de elementos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôsteres e design de logotipos com renderização texto-imagem de alta precisão.",
"fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.",
"fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.",
@ -535,7 +539,6 @@
"gemini-2.5-flash-lite-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash-Lite",
"gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite é o menor e mais econômico modelo do Google, projetado para uso em larga escala.",
"gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, com capacidades completas.",
"gemini-2.5-flash-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash",
"gemini-2.5-flash.description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, com capacidades completas.",
"gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
"gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.",
@ -545,6 +548,9 @@
"gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.",
"gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também oferece suporte a chat multimodal.",
"gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.",
"gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível profissional com velocidade Flash e suporte a chat multimodal.",
"gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível profissional com velocidade Flash e suporte a chat multimodal.",
"gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview melhora o Gemini 3 Pro com capacidades de raciocínio aprimoradas e adiciona suporte a nível médio de pensamento.",
"gemini-flash-latest.description": "Última versão do Gemini Flash",
"gemini-flash-lite-latest.description": "Última versão do Gemini Flash-Lite",
"gemini-pro-latest.description": "Última versão do Gemini Pro",
@ -583,7 +589,7 @@
"glm-4v-plus-0111.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
"glm-4v-plus.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.",
"glm-4v.description": "GLM-4V oferece forte compreensão e raciocínio visual em diversas tarefas visuais.",
"glm-5.description": "Um modelo forte de raciocínio e agentivo da Z.ai com 744B de parâmetros totais (40B ativos), projetado para engenharia de sistemas complexos e tarefas de longo prazo.",
"glm-5.description": "A série GLM é um modelo híbrido de raciocínio da Zhipu AI projetado para agentes, com modos de pensamento e não-pensamento.",
"glm-z1-air.description": "Modelo de raciocínio com forte capacidade de inferência para tarefas que exigem dedução profunda.",
"glm-z1-airx.description": "Raciocínio ultrarrápido com alta qualidade de inferência.",
"glm-z1-flash.description": "A série GLM-Z1 oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.",
@ -696,51 +702,32 @@
"grok-4-fast-reasoning.description": "Estamos entusiasmados em lançar o Grok 4 Fast, nosso mais recente avanço em modelos de raciocínio com ótimo custo-benefício.",
"grok-4.description": "Nosso modelo principal mais recente e poderoso, excelente em PLN, matemática e raciocínio — um modelo versátil ideal.",
"grok-code-fast-1.description": "Estamos entusiasmados em lançar o grok-code-fast-1, um modelo de raciocínio rápido e econômico que se destaca em codificação com agentes.",
"grok-imagine-image-pro.description": "Gere imagens a partir de prompts de texto, edite imagens existentes com linguagem natural ou refine imagens iterativamente por meio de conversas de múltiplas interações.",
"grok-imagine-image.description": "Gere imagens a partir de prompts de texto, edite imagens existentes com linguagem natural ou refine imagens iterativamente por meio de conversas de múltiplas interações.",
"groq/compound-mini.description": "Compound-mini é um sistema de IA composto alimentado por modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
"groq/compound.description": "Compound é um sistema de IA composto alimentado por múltiplos modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.",
"gryphe/mythomax-l2-13b.description": "MythoMax L2 13B é um modelo de linguagem criativo e inteligente, fundido a partir de diversos modelos de ponta.",
"hunyuan-2.0-instruct-20251111.description": "Recursos de lançamento: A base do modelo foi atualizada de TurboS para **Hunyuan 2.0**, resultando em melhorias abrangentes de capacidade. Melhora significativamente o seguimento de instruções, compreensão de texto de múltiplas interações e longo formato, criação literária, precisão de conhecimento, codificação e habilidades de raciocínio.",
"hunyuan-2.0-thinking-20251109.description": "Recursos de lançamento: A base do modelo foi atualizada de TurboS para **Hunyuan 2.0**, resultando em melhorias abrangentes de capacidade. Melhora significativamente a capacidade do modelo de seguir instruções complexas, compreender texto de múltiplas interações e longo formato, lidar com código, operar como um agente e realizar tarefas de raciocínio.",
"hunyuan-a13b.description": "O primeiro modelo de raciocínio híbrido da Hunyuan, atualizado a partir do hunyuan-standard-256K (80B no total, 13B ativos). Opera por padrão em modo de pensamento lento e permite alternância entre rápido/lento via parâmetros ou prefixo /no_think. A capacidade geral foi aprimorada em relação à geração anterior, especialmente em matemática, ciências, compreensão de textos longos e tarefas de agentes.",
"hunyuan-code.description": "Modelo mais recente de geração de código, treinado com 200B de código de alta qualidade e seis meses de SFT; contexto expandido para 8K. Classificado entre os melhores em benchmarks automatizados para cinco linguagens e em avaliações humanas em dez critérios.",
"hunyuan-functioncall.description": "Modelo FunctionCall MoE mais recente, treinado com dados de chamadas de função de alta qualidade, com janela de contexto de 32K e resultados líderes em benchmarks em diversas dimensões.",
"hunyuan-large-longcontext.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.",
"hunyuan-large-vision.description": "Modelo de linguagem e visão treinado a partir do Hunyuan Large para compreensão de imagem e texto. Suporta entrada de múltiplas imagens + texto em qualquer resolução e melhora a compreensão visual multilíngue.",
"hunyuan-large.description": "O hunyuan-large possui ~389B de parâmetros totais e ~52B ativados, sendo o maior e mais poderoso modelo MoE aberto com arquitetura Transformer.",
"hunyuan-lite-vision.description": "Modelo multimodal mais recente de 7B com janela de contexto de 32K, compatível com chat multimodal em chinês/inglês, reconhecimento de objetos, compreensão de tabelas em documentos e matemática multimodal, superando outros modelos de 7B em vários benchmarks.",
"hunyuan-code.description": "O mais recente modelo de código Hunyuan treinado com 200 bilhões de dados de código de alta qualidade e seis meses de dados SFT, com contexto de 8K. Classifica-se próximo ao topo em benchmarks automatizados de código e em avaliações humanas especializadas em cinco idiomas.",
"hunyuan-functioncall.description": "O mais recente modelo MoE FunctionCall da Hunyuan treinado com dados de chamadas de ferramentas de alta qualidade, com uma janela de contexto de 32K e benchmarks líderes em várias dimensões.",
"hunyuan-lite.description": "Atualizado para uma arquitetura MoE com janela de contexto de 256K, liderando muitos modelos abertos em benchmarks de NLP, código, matemática e indústria.",
"hunyuan-pro.description": "Modelo MoE com trilhões de parâmetros e contexto longo de 32K, líder em benchmarks, excelente em instruções complexas e raciocínio, matemática avançada, chamadas de função e otimizado para tradução multilíngue, finanças, direito e medicina.",
"hunyuan-role.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.",
"hunyuan-standard-256K.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-256K expande ainda mais o comprimento e a qualidade do contexto.",
"hunyuan-standard-vision.description": "Modelo multimodal mais recente com respostas multilíngues e equilíbrio entre habilidades em chinês e inglês.",
"hunyuan-standard.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-32K oferece ótimo custo-benefício ao lidar com entradas extensas.",
"hunyuan-t1-20250321.description": "Desenvolve capacidades equilibradas em artes e STEM com forte captura de informações em textos longos. Suporta respostas com raciocínio para problemas de matemática, lógica, ciência e programação em diversos níveis de dificuldade.",
"hunyuan-t1-20250403.description": "Melhora a geração de código em nível de projeto e a qualidade da escrita, fortalece a compreensão de tópicos em múltiplas interações e o seguimento de instruções ToB, aprimora a compreensão lexical e reduz problemas de mistura entre chinês simplificado/tradicional e chinês/inglês.",
"hunyuan-t1-20250529.description": "Aprimora a escrita criativa e composição, fortalece a programação frontend, raciocínio matemático e lógico, e melhora o seguimento de instruções.",
"hunyuan-t1-20250711.description": "Melhora significativamente matemática avançada, lógica e programação, aumenta a estabilidade das respostas e aprimora a capacidade com textos longos.",
"hunyuan-role.description": "O mais recente modelo de interpretação de papéis da Hunyuan, ajustado oficialmente com dados de interpretação de papéis, oferecendo desempenho base mais forte em cenários de interpretação.",
"hunyuan-standard-256K.description": "Usa roteamento aprimorado para mitigar o balanceamento de carga e o colapso de especialistas. Texto longo \"agulha no palheiro\" atinge 99,9%. MOE-256K avança ainda mais em comprimento e qualidade, expandindo significativamente o comprimento de entrada.",
"hunyuan-standard.description": "Usa roteamento aprimorado para mitigar o balanceamento de carga e o colapso de especialistas. Texto longo \"agulha no palheiro\" atinge 99,9%. MOE-32K oferece melhor valor enquanto equilibra qualidade e preço para entradas de texto longo.",
"hunyuan-t1-latest.description": "Melhora significativamente o modelo de pensamento lento em matemática avançada, raciocínio complexo, programação difícil, seguimento de instruções e qualidade da escrita criativa.",
"hunyuan-t1-vision-20250619.description": "Modelo multimodal de raciocínio profundo t1-vision mais recente com cadeia de pensamento nativa longa, significativamente melhorado em relação à versão padrão anterior.",
"hunyuan-t1-vision-20250916.description": "Modelo de raciocínio profundo t1-vision mais recente com grandes avanços em VQA, ancoragem visual, OCR, gráficos, resolução de problemas fotografados e criação baseada em imagem, além de melhor desempenho em inglês e idiomas de poucos recursos.",
"hunyuan-turbo-20241223.description": "Esta versão amplia a escalabilidade de instruções para melhor generalização, melhora significativamente o raciocínio em matemática/código/lógica, aprimora a compreensão lexical e eleva a qualidade da escrita.",
"hunyuan-turbo-latest.description": "Melhorias gerais na experiência em compreensão de NLP, escrita, chat, perguntas e respostas, tradução e domínios; respostas mais humanas, melhor esclarecimento de intenções ambíguas, análise lexical aprimorada, maior criatividade e interatividade, e conversas multi-turno mais robustas.",
"hunyuan-turbo-vision.description": "Modelo de linguagem e visão de próxima geração com nova arquitetura MoE, com amplas melhorias em reconhecimento, criação de conteúdo, perguntas e respostas baseadas em conhecimento e raciocínio analítico.",
"hunyuan-turbo.description": "Prévia do LLM de próxima geração da Hunyuan com nova arquitetura MoE, oferecendo raciocínio mais rápido e resultados superiores ao hunyuan-pro.",
"hunyuan-turbos-20250313.description": "Unifica o estilo de resolução de problemas matemáticos e fortalece perguntas e respostas matemáticas em múltiplas interações. O estilo de escrita foi refinado para reduzir o tom artificial e adicionar sofisticação.",
"hunyuan-turbos-20250416.description": "Base de pré-treinamento atualizada para melhorar a compreensão e seguimento de instruções; alinhamento aprimora matemática, código, lógica e ciência; melhora a qualidade da escrita, compreensão, precisão de tradução e perguntas e respostas baseadas em conhecimento; fortalece habilidades de agente, especialmente em múltiplas interações.",
"hunyuan-turbos-20250604.description": "Base de pré-treinamento atualizada com melhorias na escrita e compreensão de leitura, avanços significativos em código e STEM, e melhor seguimento de instruções complexas.",
"hunyuan-turbos-20250926.description": "Melhoria na qualidade dos dados de pré-treinamento e estratégia de pós-treinamento, aprimorando agentes, idiomas de poucos recursos/inglês, seguimento de instruções, código e capacidades STEM.",
"hunyuan-turbos-latest.description": "O mais recente modelo principal Hunyuan TurboS com raciocínio mais forte e melhor experiência geral.",
"hunyuan-turbos-longtext-128k-20250325.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.",
"hunyuan-turbos-role-plus.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.",
"hunyuan-turbos-vision-20250619.description": "Modelo principal TurboS de linguagem e visão mais recente com grandes avanços em tarefas imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.",
"hunyuan-turbos-vision.description": "Modelo principal de linguagem e visão de próxima geração baseado no mais recente TurboS, focado em tarefas de compreensão imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.",
"hunyuan-vision-1.5-instruct.description": "Modelo de pensamento rápido para geração de texto a partir de imagem baseado no TurboS textual. Em comparação com a versão anterior, apresenta melhorias significativas em reconhecimento básico de imagem e raciocínio analítico visual.",
"hunyuan-vision.description": "Modelo multimodal mais recente com suporte a entrada de imagem + texto para geração de texto.",
"hunyuan-vision-1.5-instruct.description": "Um modelo de imagem-para-texto de pensamento rápido baseado na base de texto TurboS, mostrando melhorias notáveis em relação à versão anterior no reconhecimento fundamental de imagens e raciocínio de análise de imagens.",
"hunyuan-vision.description": "O mais recente modelo multimodal da Hunyuan que suporta entradas de imagem + texto para gerar texto.",
"image-01-live.description": "Modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e estilos controláveis.",
"image-01.description": "Novo modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e de imagem para imagem.",
"imagen-4.0-fast-generate-001.description": "Versão rápida da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
"imagen-4.0-generate-001.description": "Série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
"imagen-4.0-generate-preview-06-06.description": "Família de modelos de geração de imagem a partir de texto da quarta geração Imagen.",
"imagen-4.0-ultra-generate-001.description": "Versão Ultra da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.",
"imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra da quarta geração de modelos de geração de imagem a partir de texto Imagen.",
"inception/mercury-coder-small.description": "Mercury Coder Small é ideal para geração de código, depuração e refatoração com latência mínima.",
"inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 é o terceiro modelo da arquitetura Ling 2.0 da equipe Bailing do Ant Group. É um modelo MoE com 100 bilhões de parâmetros totais, mas apenas 6,1 bilhões ativos por token (4,8 bilhões sem embeddings). Apesar de sua configuração leve, iguala ou supera modelos densos de 40B e MoEs maiores em diversos benchmarks, explorando alta eficiência por meio de arquitetura e estratégia de treinamento.",
"inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 é um LLM MoE pequeno e de alto desempenho com 16 bilhões de parâmetros totais e apenas 1,4 bilhão ativo por token (789 milhões sem embeddings), oferecendo geração muito rápida. Com design MoE eficiente e grandes volumes de dados de treinamento de alta qualidade, atinge desempenho de ponta comparável a modelos densos abaixo de 10B e MoEs maiores.",
@ -752,15 +739,17 @@
"inclusionai/ring-1t.description": "Ring-1T é o modelo MoE de raciocínio com um trilhão de parâmetros da inclusionAI, adequado para tarefas de raciocínio em larga escala e pesquisa.",
"inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 é uma variante do modelo Ring da inclusionAI para cenários de alto rendimento, com foco em velocidade e eficiência de custo.",
"inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 é o modelo MoE leve e de alto rendimento da inclusionAI, projetado para alta concorrência.",
"intern-latest.description": "Por padrão, aponta para o modelo mais recente da série Intern, atualmente definido como intern-s1-pro.",
"intern-s1-mini.description": "Um modelo multimodal leve com fortes capacidades de raciocínio científico.",
"intern-s1-pro.description": "Lançamos nosso modelo de raciocínio multimodal mais avançado de código aberto, atualmente o modelo de linguagem multimodal de código aberto com melhor desempenho geral.",
"intern-s1.description": "O modelo de raciocínio multimodal de código aberto não apenas demonstra fortes capacidades de uso geral, mas também alcança desempenho de ponta em uma ampla gama de tarefas científicas.",
"internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat é um modelo de chat de código aberto baseado na arquitetura InternLM2. O modelo de 7B é focado em geração de diálogos com suporte a chinês e inglês, utilizando treinamento moderno para conversas fluentes e inteligentes. É adequado para diversos cenários de chat, como atendimento ao cliente e assistentes pessoais.",
"internlm2.5-latest.description": "Modelos legados ainda mantidos com desempenho excelente e estável após várias iterações. Disponíveis nos tamanhos 7B e 20B, com suporte a contexto de 1 milhão e melhor seguimento de instruções e uso de ferramentas. Padrão para a série InternLM2.5 mais recente (atualmente internlm2.5-20b-chat).",
"internlm3-latest.description": "Nossa série de modelos mais recente com excelente desempenho em raciocínio, liderando entre os modelos abertos de seu porte. Padrão para a série InternLM3 mais recente (atualmente internlm3-8b-instruct).",
"internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO é um modelo multimodal pré-treinado para raciocínio complexo entre imagem e texto.",
"internvl2.5-latest.description": "InternVL2.5 continua sendo mantido com desempenho forte e estável. Padrão para a série InternVL2.5 mais recente (atualmente internvl2.5-78b).",
"internvl3-14b.description": "InternVL3 14B é um modelo multimodal de porte médio que equilibra desempenho e custo.",
"internvl3-1b.description": "InternVL3 1B é um modelo multimodal leve para implantação com recursos limitados.",
"internvl3-38b.description": "InternVL3 38B é um modelo multimodal de código aberto de grande porte para compreensão precisa de imagem e texto.",
"internvl3-latest.description": "Nosso modelo multimodal mais recente com compreensão aprimorada de imagem e texto e capacidade de lidar com sequências longas de imagens, comparável aos principais modelos fechados. Padrão para a série InternVL mais recente (atualmente internvl3-78b).",
"internvl3.5-241b-a28b.description": "Nosso modelo multimodal recém-lançado apresenta compreensão aprimorada de imagem e texto e capacidades de compreensão de imagens de sequência longa, alcançando desempenho comparável aos principais modelos de código fechado.",
"internvl3.5-latest.description": "Por padrão, aponta para o modelo mais recente da série InternVL3.5, atualmente definido como internvl3.5-241b-a28b.",
"irag-1.0.description": "ERNIE iRAG é um modelo de geração aumentada por recuperação de imagens para busca de imagens, recuperação imagem-texto e geração de conteúdo.",
"jamba-large.description": "Nosso modelo mais poderoso e avançado, projetado para tarefas empresariais complexas com desempenho excepcional.",
"jamba-mini.description": "O modelo mais eficiente de sua categoria, equilibrando velocidade e qualidade com baixo consumo de recursos.",
@ -890,6 +879,7 @@
"minimax-m2.description": "MiniMax M2 é um modelo de linguagem grande e eficiente, construído especificamente para fluxos de trabalho de programação e agentes.",
"minimax/minimax-m2.1.description": "MiniMax-M2.1 é um modelo de linguagem grande, leve e de ponta, otimizado para programação, fluxos de trabalho com agentes e desenvolvimento moderno de aplicações, oferecendo saídas mais limpas, concisas e com tempos de resposta mais rápidos.",
"minimax/minimax-m2.description": "MiniMax-M2 é um modelo de alto valor que se destaca em tarefas de programação e agentes em diversos cenários de engenharia.",
"minimaxai/minimax-m2.1.description": "MiniMax-M2.1 é um modelo MoE compacto, rápido e econômico, projetado para desempenho de codificação e agentes de alto nível.",
"minimaxai/minimax-m2.description": "MiniMax-M2 é um modelo MoE compacto, rápido e econômico (230B total, 10B ativos), construído para desempenho de ponta em programação e agentes, mantendo forte inteligência geral. Ele se destaca em edições de múltiplos arquivos, ciclos de execução e correção de código, validação de testes e cadeias de ferramentas complexas.",
"ministral-3b-latest.description": "Ministral 3B é o modelo de ponta da Mistral para uso em borda.",
"ministral-8b-latest.description": "Ministral 8B é um modelo de borda altamente econômico da Mistral.",
@ -944,9 +934,11 @@
"moonshotai/kimi-k2-instruct-0905.description": "O modelo kimi-k2-0905-preview oferece uma janela de contexto de 256k, com codificação mais autônoma, código frontend mais refinado e prático, e melhor compreensão de contexto.",
"moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo é a versão de alta velocidade do Kimi K2 Thinking, reduzindo significativamente a latência sem perder profundidade de raciocínio.",
"moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking é o modelo de raciocínio da Moonshot otimizado para tarefas de raciocínio profundo, com capacidades gerais de agente.",
"moonshotai/kimi-k2.5.description": "Kimi K2.5 é o modelo Kimi mais inteligente até hoje, com arquitetura multimodal nativa.",
"moonshotai/kimi-k2.description": "Kimi K2 é um modelo MoE de grande porte da Moonshot AI com 1 trilhão de parâmetros totais e 32 bilhões ativos por passagem, otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código.",
"morph/morph-v3-fast.description": "Morph oferece um modelo especializado para aplicar alterações de código sugeridas por modelos de ponta (como Claude ou GPT-4o) aos seus arquivos existentes a uma velocidade de 4500+ tokens/seg. É a etapa final em um fluxo de trabalho de codificação com IA e suporta 16k tokens de entrada/saída.",
"morph/morph-v3-large.description": "Morph oferece um modelo especializado para aplicar alterações de código sugeridas por modelos de ponta (como Claude ou GPT-4o) aos seus arquivos existentes a uma velocidade de 2500+ tokens/seg. É a etapa final em um fluxo de trabalho de codificação com IA e suporta 16k tokens de entrada/saída.",
"musesteamer-air-image.description": "musesteamer-air-image é um modelo de geração de imagens desenvolvido pela equipe de busca da Baidu para oferecer desempenho excepcional em custo-benefício. Ele pode gerar rapidamente imagens claras e coerentes com ações com base em prompts do usuário, transformando descrições em visuais sem esforço.",
"nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B é uma versão atualizada do Nous Hermes 2 com os mais recentes conjuntos de dados desenvolvidos internamente.",
"nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B é um LLM personalizado da NVIDIA para melhorar a utilidade. Apresenta desempenho superior nos benchmarks Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o 1º lugar em todos os três benchmarks de autoalinhamento em 1º de outubro de 2024. Treinado a partir do Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward e prompts HelpSteer2-Preference.",
"nvidia/llama-3.1-nemotron-51b-instruct.description": "Modelo de linguagem distinto com precisão e eficiência excepcionais.",
@ -1006,6 +998,7 @@
"openrouter/auto.description": "Com base no comprimento do contexto, tópico e complexidade, sua solicitação é roteada para Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) ou GPT-4o.",
"oswe-vscode-prime.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.",
"oswe-vscode-secondary.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.",
"paratera/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo que equilibra alta eficiência computacional com excelente desempenho de raciocínio e agentes.",
"perplexity/sonar-pro.description": "Produto principal da Perplexity com base em busca, oferecendo suporte a consultas avançadas e seguimentos.",
"perplexity/sonar-reasoning-pro.description": "Modelo avançado com foco em raciocínio que gera cadeia de pensamento (CoT) com busca aprimorada, incluindo múltiplas consultas por solicitação.",
"perplexity/sonar-reasoning.description": "Modelo com foco em raciocínio que gera cadeia de pensamento (CoT) com explicações detalhadas baseadas em busca.",
@ -1039,7 +1032,11 @@
"qwen-coder-turbo-latest.description": "Modelo de código Qwen.",
"qwen-coder-turbo.description": "Modelo de código Qwen.",
"qwen-flash.description": "Modelo Qwen mais rápido e de menor custo, ideal para tarefas simples.",
"qwen-image-edit-max.description": "O Modelo de Edição de Imagens Qwen suporta entrada e saída de múltiplas imagens, permitindo edição precisa de texto em imagens, adição, remoção ou realocação de objetos, modificação de ações de sujeitos, transferência de estilo de imagem e detalhes visuais aprimorados.",
"qwen-image-edit-plus.description": "O Modelo de Edição de Imagens Qwen suporta entrada e saída de múltiplas imagens, permitindo edição precisa de texto em imagens, adição, remoção ou realocação de objetos, modificação de ações de sujeitos, transferência de estilo de imagem e detalhes visuais aprimorados.",
"qwen-image-edit.description": "Qwen Image Edit é um modelo de imagem para imagem que edita imagens com base em imagens de entrada e comandos de texto, permitindo ajustes precisos e transformações criativas.",
"qwen-image-max.description": "O Modelo de Geração de Imagens Qwen (série Max) oferece maior realismo e naturalidade visual em comparação com a série Plus, reduzindo efetivamente artefatos gerados por IA e demonstrando desempenho excepcional em aparência humana, detalhes de textura e renderização de texto.",
"qwen-image-plus.description": "Suporta uma ampla gama de estilos artísticos e é particularmente proficiente em renderizar texto complexo dentro de imagens, permitindo design integrado de layout imagem-texto.",
"qwen-image.description": "Qwen-Image é um modelo geral de geração de imagens que suporta múltiplos estilos artísticos e renderização complexa de texto, especialmente em chinês e inglês. Suporta layouts em várias linhas, texto em nível de parágrafo e detalhes refinados para composições complexas de texto e imagem.",
"qwen-long.description": "Modelo Qwen ultra-grande com contexto longo e suporte a chat em cenários com múltiplos documentos.",
"qwen-math-plus-latest.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.",
@ -1123,6 +1120,7 @@
"qwen3-coder-30b-a3b-instruct.description": "Modelo de código Qwen de código aberto. O qwen3-coder-30b-a3b-instruct mais recente é baseado no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
"qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct é um modelo de código de ponta para programação multilíngue e compreensão de código complexa.",
"qwen3-coder-flash.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
"qwen3-coder-next.description": "Próxima geração do codificador Qwen otimizado para geração de código complexo em múltiplos arquivos, depuração e fluxos de trabalho de agentes de alta produtividade. Projetado para forte integração de ferramentas e desempenho de raciocínio aprimorado.",
"qwen3-coder-plus.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.",
"qwen3-coder:480b.description": "Modelo de alto desempenho da Alibaba com suporte a contexto longo para tarefas de agente e codificação.",
"qwen3-max-2026-01-23.description": "Os modelos Qwen3 Max apresentam grandes avanços em relação à série 2.5 em capacidade geral, compreensão de chinês/inglês, seguimento de instruções complexas, tarefas subjetivas abertas, habilidade multilíngue e uso de ferramentas, com menos alucinações. A versão mais recente do qwen3-max melhora a programação agente e o uso de ferramentas em relação ao qwen3-max-preview. Este lançamento atinge o SOTA da área e atende a necessidades mais complexas de agentes.",
@ -1141,6 +1139,8 @@
"qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking é um modelo multimodal com raciocínio em cadeia para raciocínio visual detalhado.",
"qwen3-vl-flash.description": "Qwen3 VL Flash: versão leve e de raciocínio rápido para solicitações com baixa latência ou alto volume.",
"qwen3-vl-plus.description": "Qwen VL é um modelo de geração de texto com compreensão visual. Pode realizar OCR, além de resumir e raciocinar, como extrair atributos de fotos de produtos ou resolver problemas a partir de imagens.",
"qwen3.5-397b-a17b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas apenas de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, oferece melhorias significativas em relação à série Qwen3 VL.",
"qwen3.5-plus.description": "Qwen3.5 Plus suporta entradas de texto, imagem e vídeo. Para tarefas apenas de texto, seu desempenho é comparável ao Qwen3 Max, enquanto oferece melhor eficiência e menor custo. Em termos de capacidades multimodais, apresenta melhorias significativas em relação à série Qwen3 VL.",
"qwen3.description": "Qwen3 é o modelo de linguagem de próxima geração da Alibaba com desempenho robusto em diversos casos de uso.",
"qwq-32b-preview.description": "QwQ é um modelo de pesquisa experimental da Qwen focado em raciocínio aprimorado.",
"qwq-32b.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece raciocínio e pensamento que aumentam significativamente o desempenho em tarefas complexas. O QwQ-32B é um modelo de raciocínio de porte médio que rivaliza com os principais modelos como DeepSeek-R1 e o1-mini.",
@ -1149,6 +1149,7 @@
"qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.",
"r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.",
"seedance-1-5-pro-251215.description": "Seedance 1.5 Pro da ByteDance oferece suporte à geração de vídeo a partir de texto, imagem para vídeo (primeiro quadro, primeiro+último quadro) e geração de áudio sincronizado com os visuais.",
"seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite da BytePlus apresenta geração aumentada por recuperação na web para informações em tempo real, interpretação aprimorada de prompts complexos e consistência de referência melhorada para criação visual profissional.",
"solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.",
"solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.",
"solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.",
@ -1157,7 +1158,8 @@
"sonar-reasoning-pro.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.",
"sonar-reasoning.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.",
"sonar.description": "Produto leve com fundamentação de busca, mais rápido e barato que o Sonar Pro.",
"spark-x.description": "Atualizações do X1.5: (1) adiciona modo de pensamento dinâmico controlado pelo campo `thinking`; (2) comprimento de contexto maior com entrada de 64K e saída de 64K; (3) suporte a FunctionCall.",
"sophnet/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo que equilibra alta eficiência computacional com excelente desempenho de raciocínio e agentes.",
"spark-x.description": "Visão geral das capacidades do X2: 1. Introduz ajuste dinâmico do modo de raciocínio, controlado pelo campo `thinking`. 2. Comprimento de contexto expandido: 64K tokens de entrada e 128K tokens de saída. 3. Suporta funcionalidade Function Call.",
"stable-diffusion-3-medium.description": "O mais recente modelo de texto para imagem da Stability AI. Esta versão melhora significativamente a qualidade da imagem, compreensão de texto e diversidade de estilo, interpretando comandos em linguagem natural complexa com mais precisão e gerando imagens mais precisas e diversas.",
"stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica difusão adversarial destilada (ADD) ao stable-diffusion-3.5-large para maior velocidade.",
"stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large é um modelo MMDiT de texto para imagem com 800 milhões de parâmetros, oferecendo excelente qualidade e alinhamento com prompts, suportando imagens de 1 megapixel e execução eficiente em hardwares de consumo.",
@ -1180,12 +1182,18 @@
"step-2-16k.description": "Suporta interações com contexto amplo para diálogos complexos.",
"step-2-mini.description": "Baseado na arquitetura de atenção MFA de próxima geração, oferece resultados semelhantes ao Step-1 com custo muito menor, maior rendimento e menor latência. Lida com tarefas gerais com forte capacidade de programação.",
"step-2x-large.description": "Modelo de imagem StepFun de nova geração focado em geração de imagens, produzindo imagens de alta qualidade a partir de prompts de texto. Oferece texturas mais realistas e melhor renderização de texto em chinês/inglês.",
"step-3.5-flash.description": "O modelo de raciocínio linguístico carro-chefe da Stepfun. Este modelo oferece capacidades de raciocínio de alto nível junto com execução rápida e confiável. Ele pode decompor e planejar tarefas complexas, invocar ferramentas rapidamente e de forma confiável para realizá-las, e se destacar em raciocínio lógico, matemática, engenharia de software, pesquisa profunda e outras tarefas sofisticadas. O comprimento do contexto é de 256K.",
"step-3.description": "Este modelo possui forte percepção visual e raciocínio complexo, lidando com precisão com compreensão de conhecimento entre domínios, análise cruzada de matemática e visão, e uma ampla gama de tarefas visuais do cotidiano.",
"step-r1-v-mini.description": "Modelo de raciocínio com forte compreensão de imagem que pode processar imagens e textos, gerando texto após raciocínio profundo. Destaca-se em raciocínio visual e oferece desempenho de ponta em matemática, programação e raciocínio textual, com janela de contexto de 100K.",
"stepfun-ai/step3.description": "Step3 é um modelo de raciocínio multimodal de ponta da StepFun, baseado em arquitetura MoE com 321B de parâmetros totais e 38B ativos. Seu design de ponta a ponta minimiza o custo de decodificação enquanto entrega raciocínio visão-linguagem de alto nível. Com design MFA e AFD, mantém eficiência tanto em aceleradores topo de linha quanto de entrada. Pré-treinado com mais de 20T de tokens de texto e 4T de tokens imagem-texto em vários idiomas. Alcança desempenho líder entre modelos abertos em benchmarks de matemática, código e multimodalidade.",
"taichu_llm.description": "Treinado com dados massivos de alta qualidade, com melhor compreensão de texto, criação de conteúdo e perguntas e respostas conversacionais.",
"taichu_o1.description": "taichu_o1 é um modelo de raciocínio de próxima geração que utiliza interação multimodal e aprendizado por reforço para alcançar raciocínio em cadeia semelhante ao humano, suportando simulação de decisões complexas e expondo caminhos de raciocínio com alta precisão, ideal para análise estratégica e pensamento profundo.",
"taichu_vl.description": "Combina compreensão de imagem, transferência de conhecimento e atribuição lógica, destacando-se em perguntas e respostas imagem-texto.",
"taichu4_vl_2b_nothinking.description": "A versão Sem Pensamento do modelo Taichu4.0-VL 2B apresenta menor uso de memória, design leve, velocidade de resposta rápida e fortes capacidades de compreensão multimodal.",
"taichu4_vl_32b.description": "A versão Pensante do modelo Taichu4.0-VL 32B é adequada para tarefas complexas de compreensão e raciocínio multimodal, demonstrando desempenho excepcional em raciocínio matemático multimodal, capacidades de agentes multimodais e compreensão geral de imagens e visuais.",
"taichu4_vl_32b_nothinking.description": "A versão Sem Pensamento do modelo Taichu4.0-VL 32B é projetada para cenários complexos de compreensão de imagem e texto e perguntas e respostas de conhecimento visual, destacando-se em legendagem de imagens, perguntas e respostas visuais, compreensão de vídeos e tarefas de localização visual.",
"taichu4_vl_3b.description": "A versão Pensante do modelo Taichu4.0-VL 3B executa eficientemente tarefas de compreensão e raciocínio multimodal, com atualizações abrangentes em compreensão visual, localização visual, reconhecimento OCR e capacidades relacionadas.",
"taichu_llm.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.",
"taichu_llm_14b.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.",
"taichu_llm_2b.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.",
"taichu_o1.description": "taichu_o1 é um modelo de raciocínio de próxima geração que alcança uma cadeia de pensamento semelhante à humana por meio de interação multimodal e aprendizado por reforço. Suporta simulações de tomada de decisão complexas e, enquanto mantém saídas de alta precisão, revela caminhos de raciocínio interpretáveis. É bem adequado para análise estratégica, pensamento profundo e cenários semelhantes.",
"tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B de parâmetros totais com 13B ativos para igualar modelos maiores. Suporta raciocínio híbrido rápido/lento, compreensão estável de textos longos e desempenho líder em agentes nos benchmarks BFCL-v3 e τ-Bench. Formatos GQA e multi-quant permitem inferência eficiente.",
"tencent/Hunyuan-MT-7B.description": "O Modelo de Tradução Hunyuan inclui o Hunyuan-MT-7B e o conjunto Hunyuan-MT-Chimera. O Hunyuan-MT-7B é um modelo leve de tradução com 7B de parâmetros, suportando 33 idiomas e 5 línguas minoritárias chinesas. No WMT25, obteve 30 primeiros lugares em 31 pares de idiomas. A Hunyuan da Tencent utiliza um pipeline completo de pré-treinamento, SFT, RL de tradução e RL em conjunto, alcançando desempenho líder em seu porte com implantação eficiente e fácil.",
"text-embedding-3-large.description": "O modelo de embedding mais avançado para tarefas em inglês e outros idiomas.",
@ -1212,9 +1220,17 @@
"v0-1.5-md.description": "v0-1.5-md é adequado para tarefas cotidianas e geração de interfaces.",
"vercel/v0-1.0-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.",
"vercel/v0-1.5-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.",
"volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code é otimizado para necessidades de programação em nível empresarial, com base nas excelentes capacidades de Agente e VLM do Seed 2.0, especialmente aprimorado para habilidades de código. Não apenas se destaca em capacidades de front-end, mas também foi otimizado para as necessidades comuns de codificação multilíngue em empresas, sendo adequado para integração com várias ferramentas de programação de IA.",
"volcengine/doubao-seed-2-0-lite.description": "Equilibra qualidade de geração e velocidade de resposta, adequado como modelo de produção geral.",
"volcengine/doubao-seed-2-0-mini.description": "Aponta para a versão mais recente do doubao-seed-2-0-mini.",
"volcengine/doubao-seed-2-0-pro.description": "Aponta para a versão mais recente do doubao-seed-2-0-pro.",
"volcengine/doubao-seed-code.description": "Doubao-Seed-Code é o LLM da Volcano Engine da ByteDance otimizado para programação agente, com forte desempenho em benchmarks de programação e agentes, com suporte a contexto de 256K.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, oferecendo geração rápida e alto valor.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, produzindo detalhes mais ricos.",
"wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, oferecendo geração rápida e alto valor.",
"wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, produzindo detalhes mais ricos.",
"wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview suporta edição de imagem única e fusão de múltiplas imagens.",
"wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I suporta seleção flexível de dimensões de imagem dentro de limites de área total de pixels e proporções de aspecto.",
"wan2.6-image.description": "Wanxiang 2.6 Image suporta edição de imagens e saída de layout misto imagem-texto.",
"wan2.6-t2i.description": "Wanxiang 2.6 T2I suporta seleção flexível de dimensões de imagem dentro de limites de área total de pixels e proporções de aspecto (igual ao Wanxiang 2.5).",
"wanx-v1.description": "Modelo base de texto para imagem. Corresponde ao Tongyi Wanxiang 1.0 General.",
"wanx2.0-t2i-turbo.description": "Excelente em retratos texturizados com velocidade moderada e menor custo. Corresponde ao Tongyi Wanxiang 2.0 Speed.",
"wanx2.1-t2i-plus.description": "Versão totalmente atualizada com mais detalhes de imagem e velocidade ligeiramente menor. Corresponde ao Tongyi Wanxiang 2.1 Pro.",
@ -1228,6 +1244,7 @@
"x-ai/grok-4.1-fast.description": "Grok 4 Fast é o modelo de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M), ideal para casos de uso com alta concorrência e contexto longo.",
"x-ai/grok-4.description": "Grok 4 é o modelo de raciocínio de ponta da xAI com forte capacidade de raciocínio e multimodalidade.",
"x-ai/grok-code-fast-1.description": "Grok Code Fast 1 é o modelo de código rápido da xAI com saída legível e amigável para engenharia.",
"x1.description": "Atualizações do X1.5: (1) adiciona modo de pensamento dinâmico controlado pelo campo `thinking`; (2) maior comprimento de contexto com 64K de entrada e 64K de saída; (3) suporta FunctionCall.",
"xai/grok-2-vision.description": "Grok 2 Vision se destaca em tarefas visuais, oferecendo desempenho de ponta em raciocínio visual matemático (MathVista) e perguntas e respostas em documentos (DocVQA). Lida com documentos, gráficos, tabelas, capturas de tela e fotos.",
"xai/grok-2.description": "Grok 2 é um modelo de fronteira com raciocínio de ponta, forte desempenho em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4 Turbo no LMSYS.",
"xai/grok-3-fast.description": "Modelo de ponta da xAI que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com profundo conhecimento em finanças, saúde, direito e ciência. A variante rápida roda em infraestrutura mais ágil para respostas muito mais rápidas com maior custo por token.",
@ -1251,7 +1268,9 @@
"z-ai/glm-4.5.description": "GLM 4.5 é o modelo de ponta da Z.AI com raciocínio híbrido otimizado para engenharia e tarefas com contexto longo.",
"z-ai/glm-4.6.description": "GLM 4.6 é o modelo de ponta da Z.AI com comprimento de contexto estendido e capacidade de codificação.",
"z-ai/glm-4.7.description": "GLM-4.7 é o mais novo modelo de ponta da Zhipu, oferecendo capacidades gerais aprimoradas, respostas mais simples e naturais, e uma experiência de escrita mais imersiva.",
"z-ai/glm5.description": "Um modelo forte de raciocínio e agentivo da Z.ai com 744B de parâmetros totais (40B ativos), projetado para engenharia de sistemas complexos e tarefas de longo prazo.",
"z-ai/glm4.7.description": "GLM-4.7 é o mais recente modelo carro-chefe da Zhipu, aprimorado para cenários de Codificação Agente com capacidades de codificação melhoradas.",
"z-ai/glm5.description": "GLM-5 é o novo modelo base carro-chefe da Zhipu AI para engenharia de agentes, alcançando desempenho SOTA de código aberto em capacidades de codificação e agentes. Ele iguala o desempenho do Claude Opus 4.5.",
"z-image-turbo.description": "Z-Image é um modelo leve de geração de texto-para-imagem que pode produzir rapidamente imagens, suporta renderização de texto em chinês e inglês e se adapta de forma flexível a múltiplas resoluções e proporções de aspecto.",
"zai-org/GLM-4.5-Air.description": "GLM-4.5-Air é um modelo base para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. Ele é otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar tanto com cenários complexos quanto com situações do dia a dia.",
"zai-org/GLM-4.5.description": "GLM-4.5 é um modelo base desenvolvido para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. É profundamente otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar com raciocínios complexos e situações cotidianas.",
"zai-org/GLM-4.5V.description": "GLM-4.5V é o mais recente VLM da Zhipu AI, baseado no modelo de texto principal GLM-4.5-Air (106B no total, 12B ativos), com uma arquitetura MoE que oferece alto desempenho a um custo reduzido. Segue a linha de desenvolvimento do GLM-4.1V-Thinking e adiciona 3D-RoPE para melhorar o raciocínio espacial em 3D. Otimizado por meio de pré-treinamento, SFT e RL, lida com imagens, vídeos e documentos longos, e está entre os melhores modelos abertos em 41 benchmarks multimodais públicos. Um modo de alternância de raciocínio permite ao usuário equilibrar velocidade e profundidade.",

Some files were not shown because too many files have changed in this diff Show more