diff --git a/eslint-suppressions.json b/eslint-suppressions.json index 25dd55b89d..bd218c7a9b 100644 --- a/eslint-suppressions.json +++ b/eslint-suppressions.json @@ -795,14 +795,6 @@ "count": 1 } }, - "src/store/image/slices/generationConfig/initialState.ts": { - "sort-keys-fix/sort-keys-fix": { - "count": 1 - }, - "typescript-sort-keys/interface": { - "count": 1 - } - }, "src/store/library/slices/content/action.ts": { "no-unused-private-class-members": { "count": 2 diff --git a/locales/ar/common.json b/locales/ar/common.json index 78554bf729..1888b10e31 100644 --- a/locales/ar/common.json +++ b/locales/ar/common.json @@ -256,11 +256,6 @@ "footer.star.title": "قيّمنا على GitHub", "footer.title": "هل أعجبك منتجنا؟", "fullscreen": "وضع ملء الشاشة", - "geminiImageChineseWarning.content": "قد يفشل Nano Banana أحيانًا في إنشاء الصور عند استخدام اللغة الصينية. يُنصح باستخدام اللغة الإنجليزية للحصول على نتائج أفضل.", - "geminiImageChineseWarning.continueGenerate": "متابعة التوليد", - "geminiImageChineseWarning.continueSend": "متابعة الإرسال", - "geminiImageChineseWarning.doNotShowAgain": "عدم الإظهار مرة أخرى", - "geminiImageChineseWarning.title": "تنبيه إدخال باللغة الصينية", "historyRange": "نطاق السجل", "home.suggestQuestions": "جرّب هذه الأمثلة", "import": "استيراد", @@ -397,6 +392,7 @@ "tab.chat": "الدردشة", "tab.community": "المجتمع", "tab.discover": "اكتشف", + "tab.eval": "مختبر التقييم", "tab.files": "الملفات", "tab.home": "الرئيسية", "tab.knowledgeBase": "المكتبة", diff --git a/locales/ar/eval.json b/locales/ar/eval.json new file mode 100644 index 0000000000..ef043ee3ab --- /dev/null +++ b/locales/ar/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "حذف المعيار", + "benchmark.actions.delete.confirm": "هل أنت متأكد أنك تريد حذف هذا المعيار؟ سيتم أيضًا حذف مجموعات البيانات وسجلات التقييم المرتبطة.", + "benchmark.actions.edit": "تعديل المعيار", + "benchmark.actions.export": "تصدير", + "benchmark.card.bestScore": "الأفضل", + "benchmark.card.caseCount": "{{count}} حالات", + "benchmark.card.datasetCount": "{{count}} مجموعات بيانات", + "benchmark.card.empty": "لا توجد تقييمات بعد", + "benchmark.card.emptyHint": "قم بإنشاء تقييم جديد من صفحة تفاصيل المعيار", + "benchmark.card.importDataset": "استيراد مجموعة بيانات", + "benchmark.card.noDataset": "لا توجد مجموعات بيانات بعد", + "benchmark.card.noDatasetHint": "قم باستيراد مجموعة بيانات لبدء التقييم", + "benchmark.card.noRecentRuns": "لا توجد تقييمات حديثة للعرض", + "benchmark.card.recentRuns": "التقييمات الحديثة", + "benchmark.card.runCount": "{{count}} تقييمات", + "benchmark.card.startFirst": "ابدأ التقييم الأول", + "benchmark.card.viewAll": "عرض الكل {{count}}", + "benchmark.create.confirm": "إنشاء", + "benchmark.create.description.label": "الوصف", + "benchmark.create.description.placeholder": "وصف المعيار (اختياري)", + "benchmark.create.error": "فشل في إنشاء المعيار", + "benchmark.create.identifier.label": "المعرف", + "benchmark.create.identifier.placeholder": "معرف-المعيار", + "benchmark.create.identifierRequired": "يرجى إدخال معرف", + "benchmark.create.name.label": "الاسم", + "benchmark.create.name.placeholder": "أدخل اسم المعيار", + "benchmark.create.nameRequired": "يرجى إدخال اسم المعيار", + "benchmark.create.success": "تم إنشاء المعيار بنجاح", + "benchmark.create.tags.label": "العلامات", + "benchmark.create.tags.placeholder": "أضف علامات، افصلها بفاصلة أو مسافة", + "benchmark.create.title": "إنشاء معيار", + "benchmark.detail.backToOverview": "العودة إلى النظرة العامة", + "benchmark.detail.datasetCount": "{{count}} مجموعة بيانات{{count, plural, one {} other {s}}} في هذا المعيار", + "benchmark.detail.runCount": "{{count}} تشغيل تقييم{{count, plural, one {} other {s}}} على هذا المعيار", + "benchmark.detail.stats.addFirstDataset": "انقر لإضافة أول مجموعة بيانات", + "benchmark.detail.stats.avgCost": "متوسط التكلفة", + "benchmark.detail.stats.avgDuration": "متوسط المدة", + "benchmark.detail.stats.basedOnLastNRuns": "بناءً على آخر {{count}} تشغيلات", + "benchmark.detail.stats.bestPerformance": "أفضل أداء بواسطة {{agent}} بمعدل نجاح {{passRate}}%", + "benchmark.detail.stats.bestScore": "أفضل نتيجة", + "benchmark.detail.stats.cases": "الحالات", + "benchmark.detail.stats.dataScale": "حجم البيانات", + "benchmark.detail.stats.datasets": "مجموعات البيانات", + "benchmark.detail.stats.needSetup": "الإعداد مطلوب", + "benchmark.detail.stats.noEvalRecord": "لا توجد سجلات تقييم بعد", + "benchmark.detail.stats.perRun": "/ تشغيل", + "benchmark.detail.stats.runs": "التشغيلات", + "benchmark.detail.stats.tags": "العلامات", + "benchmark.detail.stats.topAgents": "أفضل الوكلاء", + "benchmark.detail.stats.totalCases": "إجمالي الحالات", + "benchmark.detail.stats.waiting": "انتظار...", + "benchmark.detail.tabs.data": "البيانات", + "benchmark.detail.tabs.datasets": "مجموعات البيانات", + "benchmark.detail.tabs.runs": "التشغيلات", + "benchmark.edit.confirm": "حفظ", + "benchmark.edit.error": "فشل في تحديث المعيار", + "benchmark.edit.success": "تم تحديث المعيار بنجاح", + "benchmark.edit.title": "تعديل المعيار", + "benchmark.empty": "لا توجد معايير بعد. قم بإنشاء واحد للبدء.", + "caseDetail.actual": "الإخراج الفعلي", + "caseDetail.chatArea.title": "المحادثة", + "caseDetail.completionReason": "الحالة", + "caseDetail.cost": "التكلفة", + "caseDetail.difficulty": "الصعوبة", + "caseDetail.duration": "المدة", + "caseDetail.expected": "الإخراج المتوقع", + "caseDetail.failureReason": "سبب الفشل", + "caseDetail.input": "الإدخال", + "caseDetail.judgeComment": "تعليق القاضي", + "caseDetail.resources": "الموارد", + "caseDetail.score": "النتيجة", + "caseDetail.section.runtime": "وقت التشغيل", + "caseDetail.section.scoring": "تفاصيل التقييم", + "caseDetail.section.testCase": "حالة الاختبار", + "caseDetail.steps": "الخطوات", + "caseDetail.threads.attempt": "المحاولة #{{number}}", + "caseDetail.tokens": "استخدام الرموز", + "common.cancel": "إلغاء", + "common.create": "إنشاء", + "common.delete": "حذف", + "common.edit": "تعديل", + "common.later": "لاحقًا", + "common.next": "التالي", + "common.update": "تحديث", + "dataset.actions.addDataset": "إضافة مجموعة بيانات", + "dataset.actions.import": "استيراد البيانات", + "dataset.actions.importDataset": "استيراد مجموعة بيانات", + "dataset.create.description.label": "الوصف", + "dataset.create.description.placeholder": "وصف مجموعة البيانات (اختياري)", + "dataset.create.error": "فشل في إنشاء مجموعة البيانات", + "dataset.create.identifier.label": "المعرف", + "dataset.create.identifier.placeholder": "معرف-مجموعة-البيانات", + "dataset.create.identifierRequired": "يرجى إدخال معرف", + "dataset.create.importNow": "هل ترغب في استيراد البيانات الآن؟", + "dataset.create.name.label": "اسم مجموعة البيانات", + "dataset.create.name.placeholder": "أدخل اسم مجموعة البيانات", + "dataset.create.nameRequired": "يرجى إدخال اسم مجموعة البيانات", + "dataset.create.preset.label": "الإعداد المسبق لمجموعة البيانات", + "dataset.create.success": "تم إنشاء مجموعة البيانات بنجاح", + "dataset.create.successTitle": "تم إنشاء مجموعة البيانات", + "dataset.create.title": "إنشاء مجموعة بيانات", + "dataset.delete.confirm": "هل أنت متأكد أنك تريد حذف هذه المجموعة؟ سيتم أيضًا حذف جميع حالات الاختبار الموجودة بها.", + "dataset.delete.error": "فشل في حذف مجموعة البيانات", + "dataset.delete.success": "تم حذف مجموعة البيانات بنجاح", + "dataset.detail.addRun": "تشغيل جديد", + "dataset.detail.backToBenchmark": "العودة إلى المعيار", + "dataset.detail.caseCount": "{{count}} حالة اختبار{{count, plural, one {} other {s}}}", + "dataset.detail.relatedRuns": "التشغيلات المرتبطة ({{count}})", + "dataset.detail.testCases": "حالات الاختبار", + "dataset.detail.viewDetail": "عرض التفاصيل", + "dataset.edit.error": "فشل في تحديث مجموعة البيانات", + "dataset.edit.success": "تم تحديث مجموعة البيانات بنجاح", + "dataset.edit.title": "تعديل مجموعة البيانات", + "dataset.empty": "لا توجد مجموعات بيانات", + "dataset.empty.description": "قم باستيراد مجموعة بيانات لبدء بناء هذا المعيار", + "dataset.empty.title": "لا توجد مجموعات بيانات بعد", + "dataset.evalMode.hint": "وضع التقييم الافتراضي لمجموعة البيانات، يمكن تجاوزه على مستوى حالة الاختبار", + "dataset.import.category": "الفئة", + "dataset.import.categoryDesc": "تسمية التصنيف للتجميع", + "dataset.import.choices": "الخيارات", + "dataset.import.choicesDesc": "خيارات متعددة للاختيار", + "dataset.import.confirm": "استيراد", + "dataset.import.error": "فشل في استيراد مجموعة البيانات", + "dataset.import.expected": "الإجابة المتوقعة", + "dataset.import.expectedDelimiter": "فاصل الإجابة", + "dataset.import.expectedDelimiter.desc": "فاصل الإجابة", + "dataset.import.expectedDelimiter.placeholder": "مثل | أو ,", + "dataset.import.expectedDesc": "الإجابة الصحيحة للمقارنة", + "dataset.import.fieldMapping": "تعيين الحقول", + "dataset.import.fieldMapping.desc": "عمود \"الإدخال\" مطلوب", + "dataset.import.hideSkipped": "إخفاء الأعمدة المتخطاة", + "dataset.import.ignore": "تخطي", + "dataset.import.ignoreDesc": "لا تقم باستيراد هذا العمود", + "dataset.import.input": "الإدخال", + "dataset.import.inputDesc": "السؤال أو الطلب المرسل إلى النموذج", + "dataset.import.metadata": "البيانات الوصفية", + "dataset.import.metadataDesc": "معلومات إضافية، يتم تخزينها كما هي", + "dataset.import.next": "التالي", + "dataset.import.parseError": "فشل في تحليل الملف", + "dataset.import.parsing": "جارٍ تحليل الملف...", + "dataset.import.prev": "السابق", + "dataset.import.preview": "معاينة البيانات", + "dataset.import.preview.desc": "تأكد من صحة التعيين، ثم قم بالاستيراد.", + "dataset.import.preview.rows": "إجمالي {{count}} صفوف", + "dataset.import.sortOrder": "رقم العنصر", + "dataset.import.sortOrderDesc": "معرف السؤال/العنصر للمرجعية", + "dataset.import.step.mapping": "تعيين الحقول", + "dataset.import.step.preview": "معاينة", + "dataset.import.step.upload": "رفع الملف", + "dataset.import.success": "تم استيراد {{count}} حالة اختبار بنجاح", + "dataset.import.title": "استيراد مجموعة بيانات", + "dataset.import.upload.hint": "يدعم CSV، XLSX، JSON، JSONL", + "dataset.import.upload.text": "انقر أو اسحب الملف هنا للرفع", + "dataset.import.uploading": "جارٍ الرفع...", + "dataset.switchDataset": "تبديل مجموعة البيانات", + "difficulty.easy": "سهل", + "difficulty.hard": "صعب", + "difficulty.medium": "متوسط", + "evalMode.contains": "مطابقة تحتوي", + "evalMode.contains.desc": "يجب أن يحتوي الإخراج على النص المتوقع", + "evalMode.equals": "مطابقة تامة", + "evalMode.equals.desc": "يجب أن يكون الإخراج مطابقًا تمامًا لما هو متوقع", + "evalMode.label": "وضع التقييم", + "evalMode.llm-rubric": "تقييم LLM", + "evalMode.llm-rubric.desc": "استخدام LLM لتقييم جودة الإخراج", + "evalMode.placeholder": "اختر وضع التقييم", + "evalMode.prompt.label": "طلب القاضي", + "evalMode.prompt.placeholder": "أدخل معايير التقييم أو الطلب لقاضي LLM", + "evalMode.rubric": "تقييم بالمعايير", + "evalMode.rubric.desc": "تقييم الإخراج باستخدام معايير المعيار مع معايير مرجحة", + "overview.createBenchmark": "إنشاء معيار", + "overview.importDataset": "استيراد مجموعة بيانات", + "overview.subtitle": "قيّم وكلاء الذكاء الاصطناعي عبر مجموعات البيانات", + "overview.title": "مختبر التقييم", + "run.actions.abort": "إلغاء", + "run.actions.abort.confirm": "هل أنت متأكد أنك تريد إلغاء هذا التقييم؟", + "run.actions.create": "تقييم جديد", + "run.actions.delete": "حذف", + "run.actions.delete.confirm": "هل أنت متأكد أنك تريد حذف هذا التقييم؟", + "run.actions.edit": "تعديل", + "run.actions.retryCase": "إعادة المحاولة", + "run.actions.retryErrors": "إعادة المحاولة للأخطاء", + "run.actions.retryErrors.confirm": "سيتم إعادة تشغيل جميع الحالات التي تحتوي على أخطاء أو انتهاء المهلة. لن تتأثر الحالات التي نجحت أو فشلت.", + "run.actions.run": "تشغيل", + "run.actions.start": "ابدأ", + "run.actions.start.confirm": "هل أنت متأكد أنك تريد بدء هذا التقييم؟", + "run.chart.duration": "المدة (ثانية)", + "run.chart.error": "خطأ", + "run.chart.fail": "فشل", + "run.chart.latencyDistribution": "توزيع التأخير", + "run.chart.latencyTokenDistribution": "توزيع التأخير / الرموز", + "run.chart.pass": "نجاح", + "run.chart.passFailError": "نجاح / فشل / خطأ", + "run.chart.tokens": "الرموز", + "run.config.agentId": "الوكيل", + "run.config.concurrency": "التزامن", + "run.config.judgeModel": "نموذج القاضي", + "run.config.k": "التنفيذات (K)", + "run.config.k.hint": "قم بتشغيل كل حالة اختبار {{k}} مرات للحصول على مقاييس pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "الحد الأقصى للخطوات", + "run.config.maxSteps.hint": "كل استدعاء LLM أو استدعاء أداة بواسطة الوكيل يُعتبر خطوة واحدة", + "run.config.model": "النموذج", + "run.config.temperature": "درجة الحرارة", + "run.config.timeout": "انتهاء المهلة", + "run.config.timeout.unit": "دقيقة", + "run.create.advanced": "إعدادات متقدمة", + "run.create.agent": "الوكيل", + "run.create.agent.placeholder": "اختر وكيلًا", + "run.create.agent.required": "يرجى اختيار وكيل", + "run.create.caseCount": "{{count}} حالات", + "run.create.confirm": "إنشاء وبدء", + "run.create.createOnly": "إنشاء فقط", + "run.create.dataset": "مجموعة البيانات", + "run.create.dataset.placeholder": "اختر مجموعة بيانات", + "run.create.dataset.required": "يرجى اختيار مجموعة بيانات", + "run.create.name": "اسم التشغيل", + "run.create.name.placeholder": "أدخل اسمًا لهذا التشغيل", + "run.create.name.required": "يرجى إدخال اسم التشغيل", + "run.create.name.useTimestamp": "استخدام الوقت الحالي كاسم", + "run.create.openAgent": "فتح الوكيل في نافذة جديدة", + "run.create.title": "تقييم جديد", + "run.create.titleWithDataset": "تقييم جديد على \"{{dataset}}\"", + "run.detail.agent": "الوكيل", + "run.detail.agent.none": "غير محدد", + "run.detail.agent.unnamed": "وكيل غير مسمى", + "run.detail.backToBenchmark": "العودة إلى المعيار", + "run.detail.caseResults": "تفاصيل التقييم", + "run.detail.config": "إعدادات التقييم", + "run.detail.configSnapshot": "لقطة الإعدادات", + "run.detail.dataset": "مجموعة البيانات", + "run.detail.model": "النموذج", + "run.detail.overview": "نظرة عامة", + "run.detail.progress": "التقدم", + "run.detail.progressCases": "الحالات", + "run.detail.report": "ملخص التقييم", + "run.edit.error": "فشل في تحديث التقييم", + "run.edit.success": "تم تحديث التقييم بنجاح", + "run.edit.title": "تعديل التقييم", + "run.empty.description": "ابدأ أول تشغيل تقييم على هذه المجموعة", + "run.empty.descriptionBenchmark": "ابدأ أول تشغيل تقييم على هذا المعيار", + "run.empty.title": "لا توجد تشغيلات بعد", + "run.filter.active": "نشط", + "run.filter.empty": "لا توجد تشغيلات تطابق الفلتر الحالي.", + "run.idle.hint": "انقر على ابدأ لبدء التقييم", + "run.metrics.avgScore": "متوسط النتيجة", + "run.metrics.cost": "التكلفة", + "run.metrics.duration": "المدة", + "run.metrics.errorCases": "خطأ", + "run.metrics.evaluated": "{{count}} تم تقييمها", + "run.metrics.passRate": "معدل النجاح", + "run.metrics.perCase": "/ حالة", + "run.metrics.tokens": "الرموز", + "run.metrics.totalDuration": "إجمالي", + "run.pending.hint": "التقييم في قائمة الانتظار، في انتظار البدء...", + "run.running.hint": "التقييم قيد التشغيل، ستظهر النتائج قريبًا...", + "run.status.aborted": "تم الإلغاء", + "run.status.completed": "مكتمل", + "run.status.error": "خطأ في التشغيل", + "run.status.failed": "فشل", + "run.status.idle": "خامل", + "run.status.pending": "قيد الانتظار", + "run.status.running": "قيد التشغيل", + "run.status.timeout": "انتهاء المهلة", + "sidebar.benchmarks": "المعايير", + "sidebar.dashboard": "لوحة التحكم", + "sidebar.datasets": "مجموعات البيانات", + "sidebar.runs": "التشغيلات", + "table.columns.avgCost": "متوسط التكلفة", + "table.columns.category": "الفئة", + "table.columns.cost": "التكلفة", + "table.columns.difficulty": "الصعوبة", + "table.columns.duration": "المدة", + "table.columns.evalMode": "وضع التقييم", + "table.columns.expected": "الإجابة المتوقعة", + "table.columns.input": "الإدخال", + "table.columns.score": "النتيجة", + "table.columns.status": "الحالة", + "table.columns.steps": "الخطوات", + "table.columns.tags": "العلامات", + "table.columns.tokens": "الرموز", + "table.columns.totalCost": "إجمالي التكلفة", + "table.filter.all": "الكل", + "table.filter.error": "خطأ في التشغيل", + "table.filter.failed": "فشل", + "table.filter.passed": "نجح", + "table.filter.running": "قيد التشغيل", + "table.search.placeholder": "ابحث عن الحالات...", + "table.total": "الإجمالي {{count}}", + "testCase.actions.add": "إضافة حالة اختبار", + "testCase.actions.import": "استيراد حالات الاختبار", + "testCase.create.advanced": "خيارات إضافية", + "testCase.create.difficulty.label": "الصعوبة", + "testCase.create.error": "فشل في إضافة حالة الاختبار", + "testCase.create.expected.label": "الإخراج المتوقع", + "testCase.create.expected.placeholder": "أدخل الإجابة المتوقعة", + "testCase.create.expected.required": "يرجى إدخال الإخراج المتوقع", + "testCase.create.input.label": "الإدخال", + "testCase.create.input.placeholder": "أدخل إدخال حالة الاختبار أو السؤال", + "testCase.create.success": "تمت إضافة حالة الاختبار بنجاح", + "testCase.create.tags.label": "العلامات", + "testCase.create.tags.placeholder": "علامات مفصولة بفاصلة (اختياري)", + "testCase.create.title": "إضافة حالة اختبار", + "testCase.delete.confirm": "هل أنت متأكد أنك تريد حذف حالة الاختبار هذه؟", + "testCase.delete.error": "فشل في حذف حالة الاختبار", + "testCase.delete.success": "تم حذف حالة الاختبار", + "testCase.edit.error": "فشل في تحديث حالة الاختبار", + "testCase.edit.success": "تم تحديث حالة الاختبار بنجاح", + "testCase.edit.title": "تعديل حالة الاختبار", + "testCase.empty.description": "قم باستيراد أو إضافة حالات اختبار يدويًا إلى هذه المجموعة", + "testCase.empty.title": "لا توجد حالات اختبار بعد", + "testCase.preview.expected": "المتوقع", + "testCase.preview.input": "الإدخال", + "testCase.preview.title": "معاينة حالة الاختبار", + "testCase.search.placeholder": "ابحث عن الحالات..." +} diff --git a/locales/ar/home.json b/locales/ar/home.json index 221e47aed9..bb25f2e7bf 100644 --- a/locales/ar/home.json +++ b/locales/ar/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "بحث معمق", "starter.developing": "قريبًا", "starter.image": "صورة", + "starter.nanoBanana2": "🍌 نانو موزة 2", "starter.seedance": "سيدانس 2.0", "starter.write": "كتابة" } diff --git a/locales/ar/modelProvider.json b/locales/ar/modelProvider.json index 0ff51e375c..a3d190a1f2 100644 --- a/locales/ar/modelProvider.json +++ b/locales/ar/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "لسلسلة Gemini؛ يتحكم في ميزانية التفكير.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "لنماذج المعاينة السريعة من Gemini 3 Flash؛ يتحكم في عمق التفكير.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "لنماذج المعاينة الاحترافية من Gemini 3 Pro؛ يتحكم في عمق التفكير.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "لنماذج Gemini 3.1 Pro Preview؛ يتحكم في عمق التفكير بمستويات منخفضة/متوسطة/عالية.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "لسلسلة Gemini؛ يدعم توفير سياق من خلال عنوان URL.", "providerModels.item.modelConfig.extendParams.placeholder": "اختر المعلمات الموسعة لتفعيلها", "providerModels.item.modelConfig.extendParams.previewFallback": "المعاينة غير متوفرة", diff --git a/locales/ar/models.json b/locales/ar/models.json index fda1421811..67c6246f3f 100644 --- a/locales/ar/models.json +++ b/locales/ar/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo يقدم أداءً قويًا في الحوسبة والدردشة مع فهم دلالي ممتاز وكفاءة عالية في التوليد، مما يجعله مثاليًا للمؤسسات والمطورين.", "360gpt2-o1.description": "360gpt2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.", "360gpt2-pro.description": "360GPT2 Pro هو نموذج متقدم لمعالجة اللغة الطبيعية من 360 يتميز بتوليد وفهم نصوص ممتاز، خاصة في المهام الإبداعية، ويعالج التحولات المعقدة ولعب الأدوار.", + "360zhinao2-o1.5.description": "360 Zhinao أقوى نموذج استدلال، يتميز بأقوى القدرات ويدعم استدعاء الأدوات والاستدلال المتقدم.", "360zhinao2-o1.description": "360zhinao2-o1 يبني سلسلة التفكير من خلال البحث الشجري وآلية الانعكاس والتدريب بالتعلم المعزز، مما يمكنه من التفكير الذاتي وتصحيح الأخطاء.", + "360zhinao3-o1.5.description": "360 Zhinao نموذج الاستدلال من الجيل التالي.", "4.0Ultra.description": "Spark Ultra هو أقوى نموذج في سلسلة Spark، يعزز فهم النصوص وتلخيصها، ويطور البحث عبر الإنترنت. يُعد حلاً شاملاً لزيادة الإنتاجية في بيئة العمل وتقديم إجابات دقيقة، مما يجعله منتجًا ذكيًا رائدًا.", "AnimeSharp.description": "AnimeSharp (المعروف أيضًا باسم \"4x-AnimeSharp\") هو نموذج مفتوح المصدر لتحسين دقة الصور يعتمد على ESRGAN من Kim2091، يركز على تكبير وتحسين صور الأنمي. تم تغيير اسمه من \"4x-TextSharpV1\" في فبراير 2022، وكان مخصصًا أيضًا لصور النصوص ولكنه أصبح محسنًا بشكل كبير لمحتوى الأنمي.", "Baichuan2-Turbo.description": "يستخدم تعزيز البحث لربط النموذج بالمعرفة المتخصصة ومعرفة الويب. يدعم تحميل ملفات PDF/Word وإدخال الروابط لاسترجاع شامل وفي الوقت المناسب، مع مخرجات دقيقة واحترافية.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision هو نموذج متعدد الوسائط متقدم يقدم أداءً قويًا في اختبارات اللغة والنصوص والرؤية. يركز إصدار 8B على تقليل التأخير مع الحفاظ على أداء قوي.", "charglm-3.description": "CharGLM-3 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.", "charglm-4.description": "CharGLM-4 مصمم للمحادثات التمثيلية والدعم العاطفي، ويدعم ذاكرة طويلة متعددة الأدوار وحوارات مخصصة.", - "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي، يجمع بين الفهم العميق والقدرة على التوليد لتلبية احتياجات الاستخدام الواسعة مثل دعم العملاء والتعليم والدعم الفني.", + "chatgpt-4o-latest.description": "ChatGPT-4o هو نموذج ديناميكي يتم تحديثه في الوقت الفعلي. يجمع بين فهم اللغة القوي وتوليدها للاستخدامات واسعة النطاق مثل دعم العملاء والتعليم والمساعدة التقنية.", "claude-2.0.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.", "claude-2.1.description": "Claude 2 يقدم تحسينات رئيسية للمؤسسات، بما في ذلك سياق 200 ألف رمز، تقليل الهلوسة، دعم التعليمات النظامية، وميزة جديدة: استدعاء الأدوات.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku هو أسرع نموذج من الجيل الجديد من Anthropic، يتميز بتحسينات في المهارات ويتفوق على النموذج الرائد السابق Claude 3 Opus في العديد من المعايير.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) هو نموذج مبتكر يوفر فهمًا عميقًا للغة وتفاعلًا ذكيًا.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 هو نموذج تفكير من الجيل التالي يتمتع بقدرات أقوى في التفكير المعقد وسلسلة التفكير لمهام التحليل العميق.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج استدلال من الجيل التالي يتميز بقدرات استدلال معقدة وسلسلة التفكير.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 هو نموذج رؤية-لغة MoE يعتمد على DeepSeekMoE-27B مع تنشيط متفرق، ويحقق أداءً قويًا باستخدام 4.5 مليار معلمة نشطة فقط. يتميز في الأسئلة البصرية، وOCR، وفهم المستندات/الجداول/المخططات، والتأريض البصري.", "deepseek-chat.description": "DeepSeek V3.2 يوازن بين الاستدلال وطول المخرجات لمهام الأسئلة والأجوبة اليومية وتطبيقات الوكلاء. يحقق نتائج تضاهي GPT-5 في المعايير العامة، وهو الأول في دمج التفكير مع استخدام الأدوات، مما يجعله رائدًا في تقييمات الوكلاء مفتوحة المصدر.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B هو نموذج لغة برمجية تم تدريبه على 2 تريليون رمز (87٪ كود، 13٪ نص صيني/إنجليزي). يقدم نافذة سياق 16K ومهام الإكمال في المنتصف، ويوفر إكمال كود على مستوى المشاريع وملء مقاطع الكود.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 هو نموذج استدلال هجين جديد من DeepSeek، يدعم أوضاع التفكير وغير التفكير، ويوفر كفاءة تفكير أعلى من DeepSeek-R1-0528. التحسينات بعد التدريب تعزز بشكل كبير استخدام أدوات الوكلاء وأداء المهام. يدعم نافذة سياق 128k وما يصل إلى 64k من الرموز الناتجة.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 هو نموذج استدلال من الجيل التالي مع تحسينات في الاستدلال المعقد وسلسلة الأفكار، مناسب للمهام التي تتطلب تحليلاً عميقًا.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp يقدم انتباهاً متفرقاً لتحسين كفاءة التدريب والاستدلال على النصوص الطويلة، بسعر أقل من deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "في المهام شديدة التعقيد، يتفوق نموذج Speciale بشكل كبير على النسخة القياسية، ولكنه يستهلك عددًا كبيرًا من الرموز ويتكبد تكاليف أعلى. حاليًا، يتم استخدام DeepSeek-V3.2-Speciale للأبحاث فقط، ولا يدعم استدعاء الأدوات، ولم يتم تحسينه بشكل خاص للمحادثات اليومية أو مهام الكتابة.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think هو نموذج تفكير عميق كامل يتميز باستدلال طويل السلسلة أقوى.", "deepseek-v3.2.description": "DeepSeek-V3.2 هو أول نموذج استدلال هجين من DeepSeek يدمج التفكير في استخدام الأدوات. يستخدم بنية فعالة لتقليل الحسابات، وتعلم تقوية واسع النطاق لتعزيز القدرات، وبيانات مهام تركيبية ضخمة لتعزيز التعميم. يجمع بين هذه العناصر الثلاثة لتحقيق أداء مماثل لـ GPT-5-High، مع تقليل كبير في طول المخرجات، مما يقلل من عبء الحوسبة وأوقات انتظار المستخدمين.", "deepseek-v3.description": "DeepSeek-V3 هو نموذج MoE قوي بإجمالي 671 مليار معلمة و37 مليار معلمة نشطة لكل رمز.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات. يدعم نافذة سياق بحجم 128k وما يصل إلى 16k من الرموز الناتجة.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro هو نموذج متعدد الوسائط مطور يدعم الصور بأي دقة ونسب أبعاد متطرفة، مما يعزز الاستدلال البصري، والتعرف على المستندات، وفهم التفاصيل، واتباع التعليمات.", - "doubao-lite-128k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 128k.", "doubao-lite-32k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.", - "doubao-lite-4k.description": "استجابة فائقة السرعة مع قيمة أفضل، توفر خيارات أكثر مرونة عبر السيناريوهات. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 4k.", - "doubao-pro-256k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 256k.", "doubao-pro-32k.description": "أفضل نموذج رائد للأداء في المهام المعقدة، مع نتائج قوية في الأسئلة المرجعية، والتلخيص، والإبداع، وتصنيف النصوص، والمحاكاة. يدعم الاستدلال والتخصيص الدقيق مع نافذة سياق بحجم 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash هو نموذج استدلال عميق متعدد الوسائط فائق السرعة بزمن معالجة منخفض يصل إلى 10 مللي ثانية. يدعم النصوص والرؤية، ويتفوق على النموذج الخفيف السابق في فهم النصوص، ويضاهي النماذج الاحترافية المنافسة في الرؤية. يدعم نافذة سياق بحجم 256k وما يصل إلى 16k من الرموز الناتجة.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite هو نموذج استدلال عميق متعدد الوسائط جديد مع جهد استدلال قابل للتعديل (أدنى، منخفض، متوسط، عالٍ)، يوفر قيمة أفضل وخيارًا قويًا للمهام الشائعة، مع نافذة سياق تصل إلى 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "نموذج الصور Doubao من ByteDance Seed يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يدعم تحرير الصور الموجه بالنص، مع أحجام إخراج تتراوح بين 512 و1536 على الجانب الطويل.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 هو نموذج توليد صور من ByteDance Seed، يدعم إدخال النصوص والصور مع توليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة. يُولّد الصور من التعليمات النصية.", - "doubao-vision-lite-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.", - "doubao-vision-pro-32k.description": "Doubao-vision هو نموذج متعدد الوسائط من Doubao يتمتع بفهم قوي للصور واستدلال دقيق واتباع دقيق للتعليمات. يؤدي بشكل جيد في مهام استخراج النصوص من الصور والاستدلال القائم على الصور، مما يتيح سيناريوهات أسئلة وأجوبة بصرية أكثر تعقيدًا واتساعًا.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 هو أحدث نموذج متعدد الوسائط من ByteDance، يدمج قدرات تحويل النص إلى صورة، والصورة إلى صورة، وتوليد الصور بالجملة، مع دمج الفهم العام وقدرات الاستدلال. مقارنة بالإصدار السابق 4.0، يقدم جودة توليد محسّنة بشكل كبير، مع تحسين تناسق التحرير ودمج الصور المتعددة. يوفر تحكمًا أكثر دقة في التفاصيل البصرية، مما يجعل النصوص الصغيرة والوجوه الصغيرة أكثر طبيعية، ويحقق تخطيطًا وألوانًا أكثر انسجامًا، مما يعزز الجماليات العامة.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite هو أحدث نموذج لتوليد الصور من ByteDance. لأول مرة، يدمج قدرات الاسترجاع عبر الإنترنت، مما يسمح له بتضمين معلومات الويب في الوقت الفعلي وتعزيز حداثة الصور المولدة. كما تم ترقية ذكاء النموذج، مما يمكنه من تفسير التعليمات المعقدة والمحتوى البصري بدقة. بالإضافة إلى ذلك، يقدم تغطية محسّنة للمعرفة العالمية، وتناسقًا مرجعيًا، وجودة توليد في السيناريوهات المهنية، مما يلبي بشكل أفضل احتياجات الإبداع البصري على مستوى المؤسسات.", "emohaa.description": "Emohaa هو نموذج للصحة النفسية يتمتع بقدرات استشارية احترافية لمساعدة المستخدمين على فهم المشكلات العاطفية.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B هو نموذج مفتوح المصدر وخفيف الوزن، مصمم للنشر المحلي والمخصص.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking هو نموذج نصي MoE (مزيج من الخبراء) مدرب بعديًا مع إجمالي 21 مليار معلمة و3 مليارات معلمة نشطة، يقدم جودة وعمق استدلال محسّنة بشكل كبير.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B هو نموذج مفتوح المصدر ذو عدد كبير من المعلمات، يتميز بفهم وتوليد أقوى.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B هو نموذج MoE فائق الحجم من Baidu ERNIE يتمتع بقدرات استدلال ممتازة.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview هو نموذج معاينة بسياق 8K لتقييم أداء ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K هو نموذج خفيف الوزن وعالي الأداء للسيناريوهات الحساسة للتكلفة والزمن.", "ernie-novel-8k.description": "ERNIE Novel 8K مصمم خصيصًا للروايات الطويلة وحبكات IP مع سرد متعدد الشخصيات.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K هو نموذج عالي التوازي وعالي القيمة للخدمات عبر الإنترنت واسعة النطاق وتطبيقات المؤسسات.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview هو نموذج تفكير سريع مع سياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K هو نموذج تفكير سريع بسياق 32K للاستدلال المعقد والدردشة متعددة الأدوار.", "ernie-x1.1-preview.description": "معاينة ERNIE X1.1 هو نموذج تفكير مخصص للتقييم والاختبار.", + "ernie-x1.1.description": "ERNIE X1.1 هو نموذج تفكير تجريبي للتقييم والاختبار.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، من تطوير فريق Seed في ByteDance، يدعم تحرير الصور المتعددة وتركيبها. يتميز بثبات أكبر في العناصر، ودقة في تنفيذ التعليمات، وفهم للمنطق المكاني، وتعبير جمالي، وتصميم الملصقات والشعارات مع عرض دقيق للنصوص والصور.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، من تطوير فريق Seed في ByteDance، يدعم إدخال النصوص والصور لتوليد صور عالية الجودة وقابلة للتحكم بدرجة كبيرة من خلال الأوامر.", "fal-ai/flux-kontext/dev.description": "نموذج FLUX.1 يركز على تحرير الصور، ويدعم إدخال النصوص والصور.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite هو أصغر نموذج من Google وأفضلها من حيث القيمة، مصمم للاستخدام واسع النطاق.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.", - "gemini-2.5-flash-preview-09-2025.description": "إصدار معاينة (25 سبتمبر 2025) من Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash هو أفضل نموذج من Google من حيث القيمة مع قدرات كاملة.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview هو أكثر نماذج Google تقدمًا في الاستدلال، قادر على تحليل الشيفرات والرياضيات ومشاكل العلوم، وتحليل مجموعات البيانات الكبيرة وقواعد الشيفرة والمستندات ضمن سياق طويل.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم المحادثة متعددة الوسائط.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) هو نموذج توليد الصور من Google ويدعم أيضًا المحادثة متعددة الوسائط.", "gemini-3-pro-preview.description": "Gemini 3 Pro هو أقوى نموذج من Google للوكيل الذكي والبرمجة الإبداعية، يقدم تفاعلاً أعمق وصورًا أغنى مع استدلال متقدم.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) يقدم جودة صور احترافية بسرعة فائقة مع دعم الدردشة متعددة الوسائط.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview يحسن من Gemini 3 Pro مع قدرات استدلال محسّنة ويضيف دعم مستوى التفكير المتوسط.", "gemini-flash-latest.description": "أحدث إصدار من Gemini Flash", "gemini-flash-lite-latest.description": "أحدث إصدار من Gemini Flash-Lite", "gemini-pro-latest.description": "أحدث إصدار من Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.", "glm-4v-plus.description": "GLM-4V-Plus يفهم الفيديو والصور المتعددة، مما يجعله مناسبًا للمهام متعددة الوسائط.", "glm-4v.description": "GLM-4V يقدم فهمًا قويًا للصور واستدلالًا عبر المهام البصرية.", - "glm-5.description": "نموذج قوي للتفكير والوكالة من Z.ai مع 744B إجمالي المعلمات (40B نشطة)، مصمم لهندسة الأنظمة المعقدة والمهام طويلة الأمد.", + "glm-5.description": "سلسلة GLM هي نموذج استدلال هجين من Zhipu AI مصمم للوكلاء، مع أوضاع تفكير وغير تفكير.", "glm-z1-air.description": "نموذج استدلال يتمتع بقدرات استنتاج قوية للمهام التي تتطلب استدلالًا عميقًا.", "glm-z1-airx.description": "استدلال فائق السرعة مع جودة استدلال عالية.", "glm-z1-flash.description": "سلسلة GLM-Z1 تقدم استدلالًا معقدًا قويًا، وتتفوق في المنطق، الرياضيات، والبرمجة.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "يسعدنا إطلاق Grok 4 Fast، أحدث تقدم في نماذج الاستدلال منخفضة التكلفة.", "grok-4.description": "أحدث وأقوى نموذج رائد لدينا، يتفوق في معالجة اللغة الطبيعية والرياضيات والاستدلال — مثالي كأداة شاملة.", "grok-code-fast-1.description": "يسعدنا إطلاق grok-code-fast-1، نموذج استدلال سريع وفعال من حيث التكلفة يتفوق في البرمجة التلقائية.", + "grok-imagine-image-pro.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.", + "grok-imagine-image.description": "إنشاء صور من مطالبات نصية، تحرير الصور الموجودة باستخدام اللغة الطبيعية، أو تحسين الصور بشكل تكراري من خلال محادثات متعددة الأدوار.", "groq/compound-mini.description": "Compound-mini هو نظام ذكاء اصطناعي مركب مدعوم بنماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.", "groq/compound.description": "Compound هو نظام ذكاء اصطناعي مركب مدعوم بعدة نماذج متاحة علنًا على GroqCloud، يستخدم الأدوات بذكاء وانتقائية للإجابة على استفسارات المستخدمين.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B هو نموذج لغوي إبداعي وذكي مدمج من عدة نماذج رائدة.", + "hunyuan-2.0-instruct-20251111.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير اتباع التعليمات، وفهم النصوص متعددة الأدوار والطويلة، والإبداع الأدبي، ودقة المعرفة، والبرمجة، وقدرات الاستدلال.", + "hunyuan-2.0-thinking-20251109.description": "ميزات الإصدار: تم ترقية قاعدة النموذج من TurboS إلى **Hunyuan 2.0**، مما أدى إلى تحسينات شاملة في القدرات. يعزز بشكل كبير قدرة النموذج على اتباع التعليمات المعقدة، وفهم النصوص متعددة الأدوار والطويلة، ومعالجة الأكواد، والعمل كوكيل، وأداء مهام الاستدلال.", "hunyuan-a13b.description": "أول نموذج تفكير هجين من Hunyuan، مطور من hunyuan-standard-256K (بإجمالي 80 مليار، 13 مليار نشطة). يعتمد بشكل افتراضي على التفكير البطيء ويدعم التبديل بين التفكير السريع والبطيء عبر المعلمات أو بإضافة /no_think. تم تحسين القدرات العامة مقارنة بالجيل السابق، خاصة في الرياضيات والعلوم وفهم النصوص الطويلة والمهام المعتمدة على الوكلاء.", - "hunyuan-code.description": "أحدث نموذج لتوليد الشيفرات تم تدريبه على 200 مليار من الشيفرات عالية الجودة وعلى مدار ستة أشهر من التدريب الدقيق؛ تم توسيع السياق إلى 8 آلاف. يحتل المراتب الأولى في المعايير الآلية لخمس لغات وفي التقييمات البشرية عبر عشرة معايير.", - "hunyuan-functioncall.description": "أحدث نموذج MoE لوظائف الاستدعاء، تم تدريبه على بيانات عالية الجودة، ويتميز بإطار سياق 32 ألف وكفاءة رائدة في المعايير المختلفة.", - "hunyuan-large-longcontext.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.", - "hunyuan-large-vision.description": "نموذج رؤية-لغة مدرب من Hunyuan Large لفهم الصور والنصوص. يدعم إدخال صور متعددة + نص بأي دقة، ويعزز الفهم البصري متعدد اللغات.", - "hunyuan-large.description": "يحتوي Hunyuan-large على ~389 مليار معلمة إجمالية و~52 مليار نشطة، وهو أكبر وأقوى نموذج MoE مفتوح في بنية Transformer.", - "hunyuan-lite-vision.description": "أحدث نموذج متعدد الوسائط بحجم 7 مليار مع إطار سياق 32 ألف، يدعم الدردشة متعددة الوسائط بالصينية/الإنجليزية، والتعرف على الكائنات، وفهم جداول المستندات، والرياضيات متعددة الوسائط، ويتفوق على نظرائه من نفس الحجم في العديد من المعايير.", + "hunyuan-code.description": "أحدث نموذج برمجي من Hunyuan مدرب على 200 مليار بيانات أكواد عالية الجودة بالإضافة إلى ستة أشهر من بيانات SFT، مع سياق 8K. يحتل مرتبة قريبة من القمة في معايير البرمجة الآلية وفي تقييمات الخبراء البشريين عبر خمس لغات.", + "hunyuan-functioncall.description": "أحدث نموذج MoE FunctionCall من Hunyuan مدرب على بيانات استدعاء الأدوات عالية الجودة، مع نافذة سياق 32K ومعايير رائدة عبر الأبعاد.", "hunyuan-lite.description": "تمت ترقيته إلى بنية MoE مع إطار سياق 256 ألف، ويتفوق على العديد من النماذج المفتوحة في مجالات معالجة اللغة الطبيعية، الشيفرة، الرياضيات، والمعايير الصناعية.", "hunyuan-pro.description": "نموذج طويل السياق MoE-32K بعدد تريليون معلمة، يتصدر المعايير، قوي في التعليمات المعقدة والتفكير، الرياضيات المتقدمة، استدعاء الوظائف، ومُحسّن للترجمة متعددة اللغات، والمالية، والقانون، والمجالات الطبية.", - "hunyuan-role.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.", - "hunyuan-standard-256K.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوسع MOE-256K طول السياق وجودته.", - "hunyuan-standard-vision.description": "أحدث نموذج متعدد الوسائط مع استجابات متعددة اللغات وقدرة متوازنة بين الصينية والإنجليزية.", - "hunyuan-standard.description": "يستخدم توجيهاً محسناً لتقليل اختلال التوازن في التحميل وانهيار الخبراء. يحقق دقة 99.9% في اختبار الإبرة في كومة القش ضمن سياق طويل. يوفر MOE-32K قيمة قوية أثناء التعامل مع مدخلات طويلة.", - "hunyuan-t1-20250321.description": "يبني توازناً بين الفنون والعلوم، مع قدرة قوية على التقاط المعلومات من النصوص الطويلة. يدعم الإجابات المنطقية لمشاكل الرياضيات والمنطق والعلوم والشيفرة بمستويات صعوبة مختلفة.", - "hunyuan-t1-20250403.description": "يحسن توليد الشيفرات على مستوى المشاريع وجودة الكتابة، ويعزز فهم المواضيع متعددة الأدوار واتباع التعليمات الموجهة للأعمال، ويحسن فهم الكلمات ويقلل من مشكلات الخلط بين الصينية المبسطة/التقليدية والإنجليزية.", - "hunyuan-t1-20250529.description": "يعزز الكتابة الإبداعية والتأليف، ويقوي البرمجة الأمامية، والرياضيات، والتفكير المنطقي، ويحسن اتباع التعليمات.", - "hunyuan-t1-20250711.description": "يحسن بشكل كبير أداء الرياضيات الصعبة، والمنطق، والبرمجة، ويعزز استقرار المخرجات، ويقوي القدرة على التعامل مع النصوص الطويلة.", + "hunyuan-role.description": "أحدث نموذج لعب الأدوار من Hunyuan، تم تحسينه رسميًا ببيانات لعب الأدوار، مما يقدم أداءً أساسيًا أقوى في سيناريوهات لعب الأدوار.", + "hunyuan-standard-256K.description": "يستخدم توجيهًا محسّنًا لتخفيف توازن التحميل وانهيار الخبراء. يصل النص الطويل \"الإبرة في كومة القش\" إلى 99.9%. MOE-256K يدفع أكثر في الطول والجودة، مما يوسع بشكل كبير طول الإدخال.", + "hunyuan-standard.description": "يستخدم توجيهًا محسّنًا لتخفيف توازن التحميل وانهيار الخبراء. يصل النص الطويل \"الإبرة في كومة القش\" إلى 99.9%. MOE-32K يقدم قيمة أفضل مع تحقيق توازن بين الجودة والسعر لإدخالات النص الطويل.", "hunyuan-t1-latest.description": "يحسن بشكل ملحوظ نموذج التفكير البطيء في الرياضيات الصعبة، والتفكير المعقد، والبرمجة المعقدة، واتباع التعليمات، وجودة الكتابة الإبداعية.", - "hunyuan-t1-vision-20250619.description": "أحدث نموذج t1-vision متعدد الوسائط للتفكير العميق بسلسلة تفكير أصلية طويلة، محسّن بشكل كبير عن النسخة الافتراضية السابقة.", "hunyuan-t1-vision-20250916.description": "أحدث نموذج t1-vision للتفكير العميق مع تحسينات كبيرة في VQA، التثبيت البصري، التعرف البصري على الحروف، الرسوم البيانية، حل المشكلات المصورة، والإبداع المعتمد على الصور، بالإضافة إلى دعم أقوى للإنجليزية واللغات منخفضة الموارد.", - "hunyuan-turbo-20241223.description": "يعزز توسيع التعليمات لتحسين التعميم، ويحسن بشكل كبير التفكير في الرياضيات/الشيفرة/المنطق، ويعزز فهم الكلمات، ويحسن جودة الكتابة.", - "hunyuan-turbo-latest.description": "تحسينات عامة في تجربة المستخدم عبر فهم اللغة الطبيعية، الكتابة، الدردشة، الأسئلة والأجوبة، الترجمة، والمجالات المتخصصة؛ استجابات أكثر إنسانية، توضيح أفضل للنوايا الغامضة، تحليل كلمات محسن، جودة إبداعية وتفاعلية أعلى، ومحادثات متعددة الأدوار أقوى.", - "hunyuan-turbo-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة باستخدام بنية MoE جديدة، مع تحسينات واسعة في التعرف، إنشاء المحتوى، الأسئلة المعرفية، والتفكير التحليلي.", "hunyuan-turbo.description": "نموذج الجيل التالي من Hunyuan LLM بمعمارية MoE جديدة، يوفر تفكيراً أسرع ونتائج أقوى من hunyuan-pro.", - "hunyuan-turbos-20250313.description": "يوحد أسلوب حل المسائل الرياضية ويقوي الأسئلة والأجوبة متعددة الأدوار في الرياضيات. تم تحسين أسلوب الكتابة لتقليل الطابع الآلي وإضفاء لمسة احترافية.", - "hunyuan-turbos-20250416.description": "تمت ترقية قاعدة التدريب المسبق لتحسين فهم التعليمات واتباعها؛ يعزز المحاذاة أداء الرياضيات، الشيفرة، المنطق، والعلوم؛ يحسن جودة الكتابة، الفهم، دقة الترجمة، والأسئلة المعرفية؛ يقوي قدرات الوكلاء، خاصة في الفهم متعدد الأدوار.", - "hunyuan-turbos-20250604.description": "تمت ترقية قاعدة التدريب المسبق مع تحسينات في الكتابة وفهم القراءة، مكاسب كبيرة في الشيفرة والعلوم، وتحسين في اتباع التعليمات المعقدة.", - "hunyuan-turbos-20250926.description": "تحسين جودة بيانات التدريب المسبق واستراتيجية ما بعد التدريب، مما يعزز أداء الوكلاء، اللغات الإنجليزية/منخفضة الموارد، اتباع التعليمات، الشيفرة، والقدرات العلمية.", "hunyuan-turbos-latest.description": "أحدث نموذج رائد من Hunyuan TurboS مع تفكير أقوى وتجربة شاملة أفضل.", - "hunyuan-turbos-longtext-128k-20250325.description": "يتفوق في مهام المستندات الطويلة مثل التلخيص والأسئلة والأجوبة، كما يدعم التوليد العام. يتميز بتحليل وتوليد نصوص طويلة ومعقدة ومفصلة.", - "hunyuan-turbos-role-plus.description": "أحدث نموذج لتقمص الأدوار، تم تدريبه بدقة على مجموعات بيانات خاصة بتقمص الأدوار، ويقدم أداءً أساسياً أقوى في سيناريوهات التقمص.", - "hunyuan-turbos-vision-20250619.description": "أحدث نموذج TurboS رائد للرؤية واللغة مع تحسينات كبيرة في مهام الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.", - "hunyuan-turbos-vision.description": "نموذج رائد من الجيل التالي للرؤية واللغة مبني على أحدث إصدار من TurboS، يركز على مهام فهم الصور والنصوص مثل التعرف على الكيانات، الأسئلة المعرفية، كتابة النصوص، وحل المشكلات المصورة.", - "hunyuan-vision-1.5-instruct.description": "نموذج تفكير سريع لتحويل الصور إلى نصوص مبني على قاعدة TurboS النصية، مع تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور والتحليل البصري المنطقي.", - "hunyuan-vision.description": "أحدث نموذج متعدد الوسائط يدعم إدخال الصور + النصوص لتوليد نصوص.", + "hunyuan-vision-1.5-instruct.description": "نموذج سريع التفكير لتحويل الصور إلى نص مبني على قاعدة النص TurboS، يظهر تحسينات ملحوظة مقارنة بالإصدار السابق في التعرف الأساسي على الصور واستدلال تحليل الصور.", + "hunyuan-vision.description": "أحدث نموذج متعدد الوسائط من Hunyuan يدعم إدخالات الصور + النصوص لتوليد النصوص.", "image-01-live.description": "نموذج توليد صور بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة وأنماط قابلة للتحكم.", "image-01.description": "نموذج توليد صور جديد بتفاصيل دقيقة، يدعم التحويل من نص إلى صورة ومن صورة إلى صورة.", "imagen-4.0-fast-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة السريعة", "imagen-4.0-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة", - "imagen-4.0-generate-preview-06-06.description": "عائلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة.", "imagen-4.0-ultra-generate-001.description": "سلسلة نماذج Imagen الجيل الرابع لتحويل النص إلى صورة - النسخة الفائقة", - "imagen-4.0-ultra-generate-preview-06-06.description": "متغير Ultra من الجيل الرابع لعائلة نماذج Imagen لتحويل النص إلى صورة.", "inception/mercury-coder-small.description": "Mercury Coder Small مثالي لتوليد الشيفرة، تصحيح الأخطاء، وإعادة الهيكلة بزمن استجابة منخفض.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 هو النموذج الثالث من معمارية Ling 2.0 من فريق Bailing في Ant Group. هو نموذج MoE يحتوي على 100 مليار معلمة إجمالية و6.1 مليار نشطة لكل رمز (4.8 مليار بدون تضمين). رغم تكوينه الخفيف، يتفوق أو يضاهي نماذج كثيفة بحجم 40 مليار وحتى نماذج MoE أكبر في العديد من الاختبارات، مستكشفًا الكفاءة العالية من خلال المعمارية واستراتيجية التدريب.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 هو نموذج MoE صغير عالي الأداء يحتوي على 16 مليار معلمة إجمالية و1.4 مليار نشطة لكل رمز (789 مليون بدون تضمين)، ويقدم توليدًا سريعًا جدًا. بفضل تصميم MoE الفعال وبيانات التدريب عالية الجودة، يحقق أداءً من الدرجة الأولى مماثلًا للنماذج الكثيفة تحت 10 مليار ونماذج MoE الأكبر.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T هو نموذج MoE للاستدلال من inclusionAI يحتوي على تريليون معلمة، مناسب لمهام الاستدلال واسعة النطاق والبحث.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 هو متغير من نموذج Ring من inclusionAI مخصص لسيناريوهات الإنتاجية العالية، يركز على السرعة وكفاءة التكلفة.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 هو نموذج MoE خفيف الوزن عالي الإنتاجية من inclusionAI، مصمم للتزامن العالي.", + "intern-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة Intern، حاليًا محدد على intern-s1-pro.", + "intern-s1-mini.description": "نموذج كبير متعدد الوسائط خفيف الوزن يتميز بقدرات استدلال علمية قوية.", + "intern-s1-pro.description": "لقد أطلقنا نموذج الاستدلال متعدد الوسائط الأكثر تقدمًا مفتوح المصدر، حاليًا النموذج الكبير متعدد الوسائط مفتوح المصدر الأفضل أداءً من حيث الأداء العام.", + "intern-s1.description": "نموذج الاستدلال متعدد الوسائط مفتوح المصدر لا يظهر فقط قدرات عامة قوية ولكنه يحقق أداءً متقدمًا عبر مجموعة واسعة من المهام العلمية.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat هو نموذج محادثة مفتوح المصدر مبني على بنية InternLM2. يركز نموذج 7B على توليد الحوارات ويدعم اللغتين الصينية والإنجليزية، ويستخدم تدريبًا حديثًا لتقديم محادثات ذكية وسلسة. مناسب لسيناريوهات متعددة مثل دعم العملاء والمساعدين الشخصيين.", - "internlm2.5-latest.description": "نماذج قديمة لا تزال مدعومة وتتميز بأداء ممتاز ومستقر بعد عدة تحديثات. متوفرة بحجم 7B و20B، وتدعم سياقًا يصل إلى 1M، مع تحسينات في تنفيذ التعليمات واستخدام الأدوات. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternLM2.5 (حاليًا internlm2.5-20b-chat).", - "internlm3-latest.description": "أحدث سلسلة نماذج لدينا بأداء استدلال ممتاز، تتصدر النماذج المفتوحة في فئتها الحجمية. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternLM3 (حاليًا internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO هو نموذج مدرب مسبقًا متعدد الوسائط للاستدلال المعقد بين الصور والنصوص.", - "internvl2.5-latest.description": "InternVL2.5 لا يزال مدعومًا ويتميز بأداء قوي ومستقر. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternVL2.5 (حاليًا internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B هو نموذج متعدد الوسائط متوسط الحجم يوازن بين الأداء والتكلفة.", "internvl3-1b.description": "InternVL3 1B هو نموذج متعدد الوسائط خفيف الوزن مناسب للنشر في بيئات محدودة الموارد.", "internvl3-38b.description": "InternVL3 38B هو نموذج مفتوح المصدر كبير متعدد الوسائط لفهم دقيق بين الصور والنصوص.", - "internvl3-latest.description": "أحدث نموذج متعدد الوسائط لدينا يتميز بفهم أقوى بين الصور والنصوص وقدرة على استيعاب تسلسلات صور طويلة، ويقارن بأفضل النماذج المغلقة. يتم التوجيه افتراضيًا إلى أحدث سلسلة InternVL (حاليًا internvl3-78b).", + "internvl3.5-241b-a28b.description": "نموذجنا الكبير متعدد الوسائط الجديد يتميز بفهم محسّن للنصوص والصور وقدرات فهم الصور طويلة التسلسل، مما يحقق أداءً مشابهًا للنماذج المغلقة المصدر الرائدة.", + "internvl3.5-latest.description": "بشكل افتراضي، يشير إلى أحدث نموذج في سلسلة InternVL3.5، حاليًا محدد على internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG هو نموذج توليد معزز باسترجاع الصور، يدعم البحث عن الصور، واسترجاع الصور والنصوص، وتوليد المحتوى.", "jamba-large.description": "أقوى وأحدث نماذجنا، مصمم للمهام المؤسسية المعقدة بأداء متميز.", "jamba-mini.description": "أكثر النماذج كفاءة في فئته، يوازن بين السرعة والجودة مع استهلاك منخفض للموارد.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 هو نموذج لغوي كبير وفعّال صُمم خصيصًا للبرمجة وسير عمل الوكلاء.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج لغوي كبير وخفيف الوزن ومتطور، مُحسّن للبرمجة وسير عمل الوكلاء وتطوير التطبيقات الحديثة، ويقدم مخرجات أنظف وأكثر إيجازًا واستجابة أسرع.", "minimax/minimax-m2.description": "MiniMax-M2 هو نموذج عالي القيمة يتميز في مهام البرمجة والوكلاء في العديد من سيناريوهات الهندسة.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 هو نموذج MoE صغير وسريع وفعال من حيث التكلفة مصمم لأداء البرمجة والوكلاء من الدرجة الأولى.", "minimaxai/minimax-m2.description": "MiniMax-M2 هو نموذج MoE مدمج وسريع وفعّال من حيث التكلفة (230 مليار إجمالي، 10 مليارات نشطة) صُمم لتحقيق أداء رفيع المستوى في البرمجة ومهام الوكلاء مع الحفاظ على ذكاء عام قوي. يتميز بتحرير ملفات متعددة، وتشغيل الكود وتصحيحه، والتحقق من الاختبارات، وسلاسل أدوات معقدة.", "ministral-3b-latest.description": "Ministral 3B هو النموذج الرائد من Mistral للأجهزة الطرفية.", "ministral-8b-latest.description": "Ministral 8B هو نموذج فعال من حيث التكلفة من Mistral للأجهزة الطرفية.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "نموذج kimi-k2-0905-preview يدعم نافذة سياق بحجم 256K، مع برمجة وكيلة أقوى، وشيفرة أمامية أكثر صقلًا وعملية، وفهم أفضل للسياق.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo هو إصدار عالي السرعة من Kimi K2 Thinking، يقلل بشكل كبير من زمن الاستجابة مع الحفاظ على عمق التفكير.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking هو نموذج التفكير من Moonshot، مُحسّن لمهام التفكير العميق، مع قدرات عامة كوكلاء.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 هو النموذج الأكثر ذكاءً من Kimi حتى الآن، يتميز بهندسة متعددة الوسائط أصلية.", "moonshotai/kimi-k2.description": "Kimi K2 هو نموذج MoE كبير من Moonshot AI يحتوي على تريليون معلمة إجمالية و32 مليار معلمة نشطة لكل تمرير أمامي، مُحسّن لقدرات الوكلاء بما في ذلك استخدام الأدوات المتقدمة، والتفكير، وتوليد الشيفرة.", "morph/morph-v3-fast.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 4500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.", "morph/morph-v3-large.description": "Morph يقدم نموذجًا متخصصًا لتطبيق تغييرات الشيفرة المقترحة من نماذج متقدمة (مثل Claude أو GPT-4o) على ملفاتك الحالية بسرعة تزيد عن 2500 رمز/ثانية. يُعد الخطوة الأخيرة في سير عمل البرمجة بالذكاء الاصطناعي ويدعم 16k من رموز الإدخال/الإخراج.", + "musesteamer-air-image.description": "musesteamer-air-image هو نموذج لتوليد الصور تم تطويره بواسطة فريق البحث في Baidu لتقديم أداء استثنائي من حيث التكلفة. يمكنه بسرعة توليد صور واضحة ومتسقة الحركة بناءً على مطالبات المستخدم، مما يحول أوصاف المستخدم بسهولة إلى صور.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B هو إصدار محدث من Nous Hermes 2 باستخدام أحدث مجموعات البيانات المطورة داخليًا.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B هو نموذج LLM مخصص من NVIDIA لتحسين الفائدة. يحقق أداءً قويًا في Arena Hard وAlpacaEval 2 LC وGPT-4-Turbo MT-Bench، ويحتل المرتبة الأولى في جميع معايير المحاذاة التلقائية الثلاثة حتى 1 أكتوبر 2024. تم تدريبه من Llama-3.1-70B-Instruct باستخدام RLHF (REINFORCE)، وLlama-3.1-Nemotron-70B-Reward، ومطالبات HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "نموذج لغوي مميز يقدم دقة وكفاءة استثنائية.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "استنادًا إلى طول السياق والموضوع والتعقيد، يتم توجيه طلبك إلى Llama 3 70B Instruct أو Claude 3.5 Sonnet (بمراقبة ذاتية) أو GPT-4o.", "oswe-vscode-prime.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.", "oswe-vscode-secondary.description": "Raptor mini هو نموذج تجريبي محسن لمهام البرمجة.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.", "perplexity/sonar-pro.description": "المنتج الرائد من Perplexity مع دعم البحث، يدعم الاستفسارات المتقدمة والمتابعة.", "perplexity/sonar-reasoning-pro.description": "نموذج متقدم يركز على التفكير، ينتج سلسلة تفكير (CoT) مع بحث محسّن، بما في ذلك استعلامات بحث متعددة لكل طلب.", "perplexity/sonar-reasoning.description": "نموذج يركز على التفكير، ينتج سلسلة تفكير (CoT) مع شروحات مفصلة مدعومة بالبحث.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "نموذج Qwen للبرمجة.", "qwen-coder-turbo.description": "نموذج Qwen للبرمجة.", "qwen-flash.description": "أسرع وأقل نماذج Qwen تكلفة، مثالي للمهام البسيطة.", + "qwen-image-edit-max.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.", + "qwen-image-edit-plus.description": "نموذج تحرير الصور Qwen يدعم إدخال صور متعددة وإخراج صور متعددة، مما يمكن من تحرير النصوص داخل الصور بدقة، وإضافة أو إزالة أو نقل الكائنات، وتعديل حركة الموضوع، ونقل أنماط الصور، وتحسين التفاصيل البصرية.", "qwen-image-edit.description": "Qwen Image Edit هو نموذج تحويل صورة إلى صورة يقوم بتحرير الصور بناءً على صور الإدخال والتعليمات النصية، مما يتيح تعديلات دقيقة وتحولات إبداعية.", + "qwen-image-max.description": "نموذج توليد الصور Qwen (سلسلة Max) يقدم واقعية محسّنة وطبيعية بصرية مقارنة بسلسلة Plus، مما يقلل بشكل فعال من العيوب الناتجة عن الذكاء الاصطناعي، ويظهر أداءً رائعًا في مظهر الإنسان، تفاصيل القوام، وتقديم النصوص.", + "qwen-image-plus.description": "يدعم مجموعة واسعة من الأنماط الفنية ويتميز بشكل خاص في تقديم النصوص المعقدة داخل الصور، مما يمكن من تصميم تخطيط متكامل للنصوص والصور.", "qwen-image.description": "Qwen-Image هو نموذج عام لتوليد الصور يدعم أنماط فنية متعددة وعرض نصوص معقدة، خاصة باللغتين الصينية والإنجليزية. يدعم تخطيطات متعددة الأسطر، نصوص على مستوى الفقرة، وتفاصيل دقيقة لتخطيطات النصوص والصور المعقدة.", "qwen-long.description": "نموذج Qwen فائق الحجم يدعم السياقات الطويلة والدردشة عبر سيناريوهات متعددة الوثائق.", "qwen-math-plus-latest.description": "Qwen Math هو نموذج لغوي متخصص في حل المسائل الرياضية.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "نموذج Qwen مفتوح المصدر للبرمجة. الإصدار الأحدث qwen3-coder-30b-a3b-instruct مبني على Qwen3 ويقدم قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct هو نموذج برمجة رائد مخصص للبرمجة متعددة اللغات وفهم الكود المعقد.", "qwen3-coder-flash.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.", + "qwen3-coder-next.description": "الجيل التالي من Qwen coder محسن لتوليد الأكواد المعقدة متعددة الملفات، وتصحيح الأخطاء، وسير العمل عالي الإنتاجية للوكلاء. مصمم لتكامل الأدوات القوي وتحسين أداء الاستدلال.", "qwen3-coder-plus.description": "نموذج Qwen للبرمجة. سلسلة Qwen3-Coder الأحدث مبنية على Qwen3 وتوفر قدرات قوية كوكلاء برمجة، واستخدام الأدوات، والتفاعل مع البيئة للبرمجة الذاتية، مع أداء ممتاز في البرمجة وقدرات عامة قوية.", "qwen3-coder:480b.description": "نموذج عالي الأداء من Alibaba لمعالجة المهام المتعلقة بالوكلاء والبرمجة مع دعم لسياقات طويلة.", "qwen3-max-2026-01-23.description": "نماذج Qwen3 Max تحقق تقدمًا كبيرًا مقارنة بسلسلة 2.5 في القدرات العامة، وفهم الصينية/الإنجليزية، واتباع التعليمات المعقدة، والمهام المفتوحة الذاتية، والقدرة متعددة اللغات، واستخدام الأدوات، مع تقليل الهلوسة. الإصدار الأحدث qwen3-max يحسن البرمجة الوكيلة واستخدام الأدوات مقارنة بـ qwen3-max-preview. هذا الإصدار يحقق أداءً رائدًا في المجال ويستهدف احتياجات الوكلاء المعقدة.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking هو نموذج تفكير متعدد الوسائط مخصص للاستدلال البصري التفصيلي.", "qwen3-vl-flash.description": "Qwen3 VL Flash: إصدار خفيف وسريع للاستدلال مخصص للطلبات الحساسة للزمن أو ذات الحجم الكبير.", "qwen3-vl-plus.description": "Qwen VL هو نموذج توليد نصوص مع فهم بصري. يمكنه تنفيذ OCR، والتلخيص، والاستدلال، مثل استخراج السمات من صور المنتجات أو حل المشكلات من الصور.", + "qwen3.5-397b-a17b.description": "يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يقدم تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus يدعم إدخالات النصوص والصور والفيديو. بالنسبة للمهام النصية فقط، أداؤه مشابه لـ Qwen3 Max، مع تقديم كفاءة أعلى وتكلفة أقل. في القدرات متعددة الوسائط، يظهر تحسينات كبيرة مقارنة بسلسلة Qwen3 VL.", "qwen3.description": "Qwen3 هو نموذج اللغة الكبير من الجيل التالي من Alibaba، يتميز بأداء قوي في مجموعة متنوعة من الاستخدامات.", "qwq-32b-preview.description": "QwQ هو نموذج بحث تجريبي من Qwen يركز على تحسين الاستدلال.", "qwq-32b.description": "QwQ هو نموذج استدلال من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، يقدم تفكيراً واستدلالاً يعزز الأداء بشكل كبير، خاصة في المشكلات المعقدة. QwQ-32B هو نموذج متوسط الحجم ينافس أفضل نماذج الاستدلال مثل DeepSeek-R1 و o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "نموذج استدلال متوسط الحجم من عائلة Qwen. مقارنة بالنماذج المضبوطة على التعليمات، تعزز قدرات التفكير والاستدلال في QwQ الأداء بشكل كبير، خاصة في المشكلات الصعبة.", "r1-1776.description": "R1-1776 هو إصدار ما بعد التدريب من DeepSeek R1 مصمم لتقديم معلومات واقعية غير خاضعة للرقابة أو التحيز.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro من ByteDance يدعم تحويل النصوص إلى فيديو، والصور إلى فيديو (الإطار الأول، أو الإطار الأول والأخير)، وتوليد الصوت المتزامن مع العناصر البصرية.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite من BytePlus يتميز بتوليد معزز بالاسترجاع عبر الويب للحصول على معلومات في الوقت الفعلي، وتفسير محسّن للمطالبات المعقدة، وتناسق مرجعي محسّن للإبداع البصري المهني.", "solar-mini-ja.description": "Solar Mini (Ja) يوسع Solar Mini مع تركيز على اللغة اليابانية مع الحفاظ على الأداء القوي والكفاءة في الإنجليزية والكورية.", "solar-mini.description": "Solar Mini هو نموذج لغة مدمج يتفوق على GPT-3.5، يتميز بقدرات متعددة اللغات قوية تدعم الإنجليزية والكورية، ويقدم حلاً فعالاً بصمة صغيرة.", "solar-pro.description": "Solar Pro هو نموذج لغة عالي الذكاء من Upstage، يركز على اتباع التعليمات باستخدام وحدة معالجة رسومات واحدة، مع درجات IFEval تتجاوز 80. حالياً يدعم اللغة الإنجليزية؛ وكان من المقرر إصدار النسخة الكاملة في نوفمبر 2024 مع دعم لغات موسع وسياق أطول.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.", "sonar-reasoning.description": "منتج بحث متقدم يعتمد على البحث الموجه لفهم الاستفسارات المعقدة والمتابعة.", "sonar.description": "منتج بحث خفيف الوزن يعتمد على البحث الموجه، أسرع وأقل تكلفة من Sonar Pro.", - "spark-x.description": "تحديثات X1.5: (1) إضافة وضع التفكير الديناميكي يتم التحكم به عبر الحقل `thinking`؛ (2) طول سياق أكبر مع 64K إدخال و64K إخراج؛ (3) دعم FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 هو نموذج يوازن بين الكفاءة الحسابية العالية وأداء الاستدلال والوكيل الممتاز.", + "spark-x.description": "نظرة عامة على قدرات X2: 1. يقدم تعديل ديناميكي لوضع الاستدلال، يتم التحكم فيه عبر الحقل `thinking`. 2. طول سياق موسع: 64K رموز إدخال و128K رموز إخراج. 3. يدعم وظيفة استدعاء الأدوات.", "stable-diffusion-3-medium.description": "أحدث نموذج تحويل النص إلى صورة من Stability AI. هذا الإصدار يحسن جودة الصور، وفهم النص، وتنوع الأساليب بشكل كبير، ويفسر التعليمات الطبيعية المعقدة بدقة أكبر وينتج صورًا أكثر دقة وتنوعًا.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo يستخدم تقنيات تقطير الانتشار العدائي (ADD) لتسريع stable-diffusion-3.5-large.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large هو نموذج تحويل نص إلى صورة بسعة 800 مليون معلمة، يتميز بجودة عالية وتوافق ممتاز مع التعليمات، ويدعم صورًا بدقة 1 ميغابيكسل وتشغيلًا فعالًا على الأجهزة الاستهلاكية.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "يدعم التفاعلات ذات السياق الكبير للمحادثات المعقدة.", "step-2-mini.description": "مبني على بنية MFA الجديدة، يقدم نتائج مماثلة لـ Step-1 بتكلفة أقل، مع إنتاجية أعلى وزمن استجابة أسرع. يتعامل مع المهام العامة بقدرة قوية على البرمجة.", "step-2x-large.description": "نموذج صور من الجيل الجديد من StepFun يركز على توليد الصور، وينتج صورًا عالية الجودة من التعليمات النصية. يتميز بواقعية أكبر في الملمس وقدرة أقوى على عرض النصوص الصينية/الإنجليزية.", + "step-3.5-flash.description": "نموذج الاستدلال اللغوي الرائد من Stepfun. يقدم هذا النموذج قدرات استدلال من الدرجة الأولى مع تنفيذ سريع وموثوق. يمكنه تفكيك وتخطيط المهام المعقدة، استدعاء الأدوات بسرعة وموثوقية لتنفيذها، والتفوق في الاستدلال المنطقي، الرياضيات، هندسة البرمجيات، البحث العميق، وغيرها من المهام المتقدمة. طول السياق هو 256K.", "step-3.description": "يتمتع هذا النموذج بإدراك بصري قوي واستدلال معقد، ويتعامل بدقة مع فهم المعرفة عبر المجالات، وتحليل الرياضيات والرؤية، ومجموعة واسعة من مهام التحليل البصري اليومية.", "step-r1-v-mini.description": "نموذج استدلال يتمتع بفهم قوي للصور، يمكنه معالجة الصور والنصوص، ثم توليد نص بعد استدلال عميق. يتفوق في الاستدلال البصري ويقدم أداءً رائدًا في الرياضيات والبرمجة والاستدلال النصي، مع نافذة سياق تصل إلى 100 ألف.", "stepfun-ai/step3.description": "Step3 هو نموذج استدلال متعدد الوسائط متقدم من StepFun، مبني على بنية MoE بسعة إجمالية 321B و38B نشطة. تصميمه الشامل يقلل من تكلفة فك التشفير مع تقديم استدلال رؤية-لغة من الدرجة الأولى. بفضل تصميم MFA وAFD، يظل فعالًا على المسرعات القوية والضعيفة. تم تدريبه مسبقًا على أكثر من 20 تريليون رمز نصي و4 تريليون رمز صورة-نص بعدة لغات. يحقق أداءً رائدًا في النماذج المفتوحة في اختبارات الرياضيات والبرمجة ومتعددة الوسائط.", - "taichu_llm.description": "مدرب على بيانات ضخمة عالية الجودة، يتمتع بفهم نصي أقوى، وقدرات على إنشاء المحتوى، وإجابات محادثية دقيقة.", - "taichu_o1.description": "taichu_o1 هو نموذج استدلال من الجيل الجديد يستخدم التفاعل متعدد الوسائط والتعلم المعزز لتحقيق تسلسل تفكير شبيه بالبشر، يدعم محاكاة القرارات المعقدة، ويعرض مسارات التفكير مع الحفاظ على دقة عالية، مناسب لتحليل الاستراتيجيات والتفكير العميق.", - "taichu_vl.description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويتفوق في أسئلة الصور والنصوص.", + "taichu4_vl_2b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 2B يتميز باستخدام ذاكرة أقل، تصميم خفيف الوزن، سرعة استجابة سريعة، وقدرات فهم متعددة الوسائط قوية.", + "taichu4_vl_32b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 32B مناسب لمهام الفهم والاستدلال متعددة الوسائط المعقدة، ويظهر أداءً رائعًا في الاستدلال الرياضي متعدد الوسائط، قدرات الوكيل متعدد الوسائط، والفهم العام للصور والبصريات.", + "taichu4_vl_32b_nothinking.description": "الإصدار بدون التفكير من نموذج Taichu4.0-VL 32B مصمم لفهم النصوص والصور المعقدة وسيناريوهات الإجابة على الأسئلة المعرفية البصرية، ويتفوق في وصف الصور، الإجابة على الأسئلة البصرية، فهم الفيديو، ومهام تحديد المواقع البصرية.", + "taichu4_vl_3b.description": "الإصدار التفكير من نموذج Taichu4.0-VL 3B يؤدي بكفاءة مهام الفهم والاستدلال متعددة الوسائط، مع تحسينات شاملة في الفهم البصري، تحديد المواقع البصرية، التعرف على النصوص البصرية (OCR)، والقدرات ذات الصلة.", + "taichu_llm.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.", + "taichu_llm_14b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.", + "taichu_llm_2b.description": "نموذج اللغة الكبير Zidong Taichu هو نموذج توليد نصوص عالي الأداء تم تطويره باستخدام تقنيات محلية بالكامل. من خلال ضغط هيكلي لنموذج أساسي بمئة مليار معلمة وتحسينات خاصة بالمهام، يعزز بشكل كبير فهم النصوص المعقدة وقدرات الاستدلال المعرفي. يتفوق في سيناريوهات مثل تحليل الوثائق الطويلة، استخراج المعلومات عبر اللغات، والتوليد المقيد بالمعرفة.", + "taichu_o1.description": "taichu_o1 هو نموذج كبير للاستدلال من الجيل التالي يحقق سلسلة التفكير البشرية من خلال التفاعل متعدد الوسائط والتعلم المعزز. يدعم محاكاة اتخاذ القرارات المعقدة، ومع الحفاظ على دقة عالية للإخراج، يكشف عن مسارات استدلال قابلة للتفسير. يناسب تحليل الاستراتيجيات، التفكير العميق، والسيناريوهات المشابهة.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct يستخدم 80 مليار معلمة إجمالية مع 13 مليار نشطة لمضاهاة النماذج الأكبر. يدعم الاستدلال الهجين السريع/البطيء، وفهم النصوص الطويلة بثبات، وقدرات وكيل رائدة على BFCL-v3 وτ-Bench. تدعم تنسيقات GQA والتكميم المتعدد الاستدلال بكفاءة.", "tencent/Hunyuan-MT-7B.description": "نموذج الترجمة Hunyuan يشمل Hunyuan-MT-7B وHunyuan-MT-Chimera. Hunyuan-MT-7B هو نموذج ترجمة خفيف بسعة 7B يدعم 33 لغة بالإضافة إلى 5 لغات صينية محلية. حصل على المركز الأول في 30 من أصل 31 زوج لغوي في WMT25. يستخدم Hunyuan من Tencent سلسلة تدريب كاملة من التدريب المسبق إلى SFT إلى الترجمة بالتعلم المعزز، محققًا أداءً رائدًا بحجمه وسهولة في النشر.", "text-embedding-3-large.description": "أقوى نموذج تضمين للمهام باللغة الإنجليزية وغير الإنجليزية.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md مناسب للمهام اليومية وتوليد واجهات المستخدم.", "vercel/v0-1.0-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.", "vercel/v0-1.5-md.description": "الوصول إلى النماذج التي تقف خلف v0 لتوليد، وتصحيح، وتحسين تطبيقات الويب الحديثة باستخدام استدلال خاص بالأطر ومعرفة محدثة.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code مُحسن لتلبية احتياجات البرمجة على مستوى المؤسسات، بناءً على قدرات Agent وVLM الممتازة في Seed 2.0، مع تعزيز خاص لقدرات البرمجة، ليس فقط في الأداء الأمامي ولكن أيضًا لتلبية احتياجات البرمجة متعددة اللغات الشائعة في المؤسسات، مما يجعله مناسبًا للاستخدام مع أدوات البرمجة بالذكاء الاصطناعي.", + "volcengine/doubao-seed-2-0-lite.description": "يجمع بين جودة التوليد وسرعة الاستجابة، مناسب كنموذج إنتاج عام.", + "volcengine/doubao-seed-2-0-mini.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "يشير إلى أحدث إصدار من doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code هو نموذج لغة كبير من محرك ByteDance Volcano، مُحسّن للبرمجة الذاتية، ويؤدي أداءً قويًا في اختبارات البرمجة والوكلاء مع دعم سياق يصل إلى 256 ألف.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed هو أحدث نموذج يتميز بتحسينات في الإبداع، والثبات، والواقعية، ويوفر توليدًا سريعًا وقيمة عالية.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro هو أحدث نموذج يتميز بتحسينات في الإبداع، والثبات، والواقعية، ويُنتج تفاصيل أغنى.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، يقدم توليدًا سريعًا وقيمة عالية.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus هو أحدث نموذج مع تحسينات في الإبداع، الاستقرار، والواقعية، ينتج تفاصيل أكثر ثراءً.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview يدعم تحرير الصور الفردية ودمج الصور المتعددة.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع.", + "wan2.6-image.description": "Wanxiang 2.6 Image يدعم تحرير الصور وإخراج تخطيط مختلط للنصوص والصور.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I يدعم اختيارًا مرنًا لأبعاد الصور ضمن قيود إجمالي مساحة البكسل ونسبة العرض إلى الارتفاع (مثل Wanxiang 2.5).", "wanx-v1.description": "نموذج تحويل النص إلى صورة الأساسي. يُقابل Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "يتفوّق في الصور الشخصية الملمّسة بسرعة معتدلة وتكلفة منخفضة. يُقابل Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "إصدار مطوّر بالكامل مع تفاصيل صور أغنى وسرعة أبطأ قليلاً. يُقابل Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4.1 Fast هو نموذج عالي الإنتاجية ومنخفض التكلفة من xAI (يدعم نافذة سياق 2 مليون)، مثالي لحالات الاستخدام ذات التزامن العالي والسياق الطويل.", "x-ai/grok-4.description": "Grok 4 هو النموذج الرائد من xAI بقدرات استدلال قوية ودعم متعدد الوسائط.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 هو نموذج سريع للبرمجة من xAI بإخراج قابل للقراءة ومناسب للهندسة.", + "x1.description": "تحديثات X1.5: (1) يضيف وضع التفكير الديناميكي الذي يتم التحكم فيه عبر الحقل `thinking`; (2) طول سياق أكبر مع 64K إدخال و64K إخراج; (3) يدعم وظيفة استدعاء الأدوات.", "xai/grok-2-vision.description": "Grok 2 Vision يتفوّق في المهام البصرية، ويقدّم أداءً رائدًا في استدلال الرياضيات البصرية (MathVista) وأسئلة المستندات (DocVQA). يتعامل مع المستندات، والمخططات، والرسوم البيانية، ولقطات الشاشة، والصور.", "xai/grok-2.description": "Grok 2 هو نموذج متقدم بأداء رائد في الاستدلال، والدردشة، والبرمجة، ويتفوّق على Claude 3.5 Sonnet وGPT-4 Turbo في تصنيفات LMSYS.", "xai/grok-3-fast.description": "نموذج xAI الرائد يتفوّق في حالات الاستخدام المؤسسية مثل استخراج البيانات، والبرمجة، والتلخيص، مع معرفة عميقة في مجالات مثل المالية، والرعاية الصحية، والقانون، والعلوم. الإصدار السريع يعمل على بنية تحتية أسرع لتقديم استجابات أسرع بتكلفة أعلى لكل رمز.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 هو النموذج الرائد من Z.AI باستدلال هجين مُحسّن للهندسة والمهام طويلة السياق.", "z-ai/glm-4.6.description": "GLM 4.6 هو النموذج الرائد من Z.AI مع طول سياق ممتد وقدرات برمجية متقدمة.", "z-ai/glm-4.7.description": "GLM-4.7 هو النموذج الرائد الأحدث من Zhipu، يقدم قدرات عامة محسَّنة، وردودًا أبسط وأكثر طبيعية، وتجربة كتابة أكثر تفاعلية.", - "z-ai/glm5.description": "نموذج قوي للتفكير والوكالة من Z.ai مع 744B إجمالي المعلمات (40B نشطة)، مصمم لهندسة الأنظمة المعقدة والمهام طويلة الأمد.", + "z-ai/glm4.7.description": "GLM-4.7 هو أحدث نموذج رئيسي من Zhipu، محسّن لسيناريوهات البرمجة الوكيلية مع تحسين قدرات البرمجة.", + "z-ai/glm5.description": "GLM-5 هو النموذج الأساسي الجديد من Zhipu AI للهندسة الوكيلة، يحقق أداءً مفتوح المصدر SOTA في البرمجة وقدرات الوكلاء. يتطابق مع أداء Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image هو نموذج خفيف الوزن لتحويل النصوص إلى صور يمكنه بسرعة إنتاج الصور، يدعم تقديم النصوص باللغتين الصينية والإنجليزية، ويتكيف بمرونة مع دقة متعددة ونسب عرض إلى ارتفاع.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.", "zai-org/GLM-4.5.description": "GLM-4.5 هو نموذج أساسي لتطبيقات الوكلاء يستخدم بنية Mixture-of-Experts. مُحسّن بعمق لاستخدام الأدوات، وتصفح الويب، والهندسة البرمجية، وبرمجة الواجهات، ويتكامل مع وكلاء البرمجة مثل Claude Code وRoo Code. يستخدم استدلالًا هجينًا للتعامل مع السيناريوهات المعقدة واليومية.", "zai-org/GLM-4.5V.description": "GLM-4.5V هو أحدث نموذج رؤية من Zhipu AI، مبني على نموذج النص الرائد GLM-4.5-Air (إجمالي 106 مليار، 12 مليار نشط) باستخدام بنية MoE لأداء قوي بتكلفة أقل. يتبع مسار GLM-4.1V-Thinking ويضيف 3D-RoPE لتحسين الاستدلال المكاني ثلاثي الأبعاد. مُحسّن من خلال التدريب المسبق، والتعلم الخاضع للإشراف، والتعلم المعزز، ويتعامل مع الصور، والفيديو، والمستندات الطويلة، ويتصدر النماذج المفتوحة في 41 معيارًا متعدد الوسائط. يتيح وضع التفكير للمستخدمين التوازن بين السرعة والعمق.", diff --git a/locales/ar/plugin.json b/locales/ar/plugin.json index bd19e6a99d..942de3db51 100644 --- a/locales/ar/plugin.json +++ b/locales/ar/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "تحديث العقدة", "builtins.lobe-page-agent.apiName.wrapNodes": "تغليف العقد", "builtins.lobe-page-agent.title": "الصفحة", + "builtins.lobe-skill-store.apiName.importFromMarket": "استيراد من السوق", + "builtins.lobe-skill-store.apiName.importSkill": "استيراد المهارة", + "builtins.lobe-skill-store.apiName.searchSkill": "البحث عن المهارات", + "builtins.lobe-skill-store.title": "متجر المهارات", + "builtins.lobe-skills.apiName.execScript": "تشغيل البرنامج النصي", + "builtins.lobe-skills.apiName.exportFile": "تصدير الملف", + "builtins.lobe-skills.apiName.importFromMarket": "استيراد من السوق", + "builtins.lobe-skills.apiName.importSkill": "استيراد المهارة", + "builtins.lobe-skills.apiName.readReference": "قراءة المرجع", + "builtins.lobe-skills.apiName.runSkill": "تفعيل المهارة", + "builtins.lobe-skills.apiName.searchSkill": "البحث عن المهارات", + "builtins.lobe-skills.title": "المهارات", + "builtins.lobe-tools.apiName.activateTools": "تفعيل الأدوات", "builtins.lobe-user-memory.apiName.addContextMemory": "إضافة ذاكرة السياق", "builtins.lobe-user-memory.apiName.addExperienceMemory": "إضافة ذاكرة الخبرة", "builtins.lobe-user-memory.apiName.addIdentityMemory": "إضافة ذاكرة الهوية", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "بحث الويب", "confirm": "تأكيد", "debug.arguments": "المعلمات", + "debug.error": "سجل الأخطاء", "debug.function_call": "استدعاء الدالة", "debug.intervention": "تدخل المهارة", "debug.off": "إيقاف التصحيح", @@ -321,8 +335,8 @@ "dev.saveSuccess": "تم حفظ الإعدادات", "dev.tabs.manifest": "البيان", "dev.tabs.meta": "معلومات التعريف", - "dev.title.create": "إضافة مهارة مخصصة", - "dev.title.edit": "تعديل مهارة مخصصة", + "dev.title.create": "إضافة مهارة MCP مخصصة", + "dev.title.edit": "تعديل مهارة MCP مخصصة", "dev.title.editCommunity": "تعديل مهارة المجتمع", "dev.title.skillDetails": "تفاصيل المهارة", "dev.title.skillSettings": "إعدادات المهارة", diff --git a/locales/ar/providers.json b/locales/ar/providers.json index dbb378ec2c..c52e5f2d91 100644 --- a/locales/ar/providers.json +++ b/locales/ar/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud هي خدمة سحابية للذكاء الاصطناعي التوليدي فعالة من حيث التكلفة، مبنية على نماذج مفتوحة المصدر قوية.", "spark.description": "يوفر iFLYTEK Spark ذكاءً اصطناعيًا متعدد اللغات قويًا عبر مجالات متعددة، مما يمكّن من الابتكار في الأجهزة الذكية والرعاية الصحية والتمويل وغيرها.", "stepfun.description": "تقدم نماذج Stepfun قدرات رائدة في التعدد الوسائطي والتفكير المعقد، مع فهم طويل للسياق وتنظيم بحث مستقل قوي.", + "straico.description": "يُبسط Straico دمج الذكاء الاصطناعي من خلال توفير مساحة عمل موحدة تجمع بين أفضل نماذج الذكاء الاصطناعي التوليدية للنصوص والصور والصوت، مما يمكّن المسوقين ورواد الأعمال والهواة من الوصول السلس إلى أدوات الذكاء الاصطناعي المتنوعة.", "taichu.description": "Taichu هو نموذج متعدد الوسائط من الجيل التالي من CASIA ومعهد ووهان للذكاء الاصطناعي، يدعم الأسئلة والأجوبة متعددة الجولات، والكتابة، وتوليد الصور، وفهم الأبعاد الثلاثية، وتحليل الإشارات بقدرات إدراكية وإبداعية متقدمة.", "tencentcloud.description": "توفر Tencent Cloud محرك معرفة قائم على النماذج اللغوية الكبيرة يقدم إجابات معرفية شاملة للمؤسسات والمطورين، مع خدمات معيارية مثل تحليل المستندات، والتقسيم، والتضمين، وإعادة الصياغة متعددة الجولات لبناء حلول ذكاء اصطناعي مخصصة.", "togetherai.description": "توفر Together AI أداءً رائدًا من خلال نماذج مبتكرة، وتخصيص واسع، وتوسع سريع، ونشر بسيط لتلبية احتياجات المؤسسات.", diff --git a/locales/ar/setting.json b/locales/ar/setting.json index d72dae5036..e68fde422c 100644 --- a/locales/ar/setting.json +++ b/locales/ar/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "ملف تعريف الوكيل", "agentInfoDescription.value.unset": "غير محدد", "agentInfoDescription.value.untitled": "وكيل بدون عنوان", + "agentSkillDetail.addedAt": "تمت الإضافة", + "agentSkillDetail.publishedAt": "تم النشر", + "agentSkillDetail.repository": "مستودع GitHub", + "agentSkillDetail.skillContent": "محتوى المهارة", + "agentSkillDetail.sourceUrl": "مصدر استيراد المهارة", + "agentSkillDetail.updatedAt": "تم التحديث", + "agentSkillEdit.descriptionDesc": "ملخص موجز لما تفعله المهارة، يساعد الوكيل على فهم متى يستخدمها", + "agentSkillEdit.fileReadonly": "هذا الملف للقراءة فقط. يمكن تعديل وصف المهارة والتعليمات فقط.", + "agentSkillEdit.instructions": "التعليمات", + "agentSkillEdit.instructionsDesc": "التعليمات الأساسية بصيغة Markdown التي تحدد سلوك المهارة وسير العمل", + "agentSkillEdit.instructionsPlaceholder": "أدخل تعليمات المهارة بصيغة Markdown...", + "agentSkillEdit.nameDesc": "المعرف الفريد لهذه المهارة، غير قابل للتعديل بعد الإنشاء", + "agentSkillEdit.saveSuccess": "تم تحديث المهارة بنجاح", + "agentSkillEdit.title": "إعدادات المهارة", + "agentSkillItem.deleteConfirm.desc": "هل أنت متأكد أنك تريد حذف مهارة الوكيل \"{{name}}\"؟ لا يمكن التراجع عن هذا الإجراء.", + "agentSkillItem.deleteConfirm.title": "حذف مهارة الوكيل", + "agentSkillModal.content": "محتوى المهارة", + "agentSkillModal.contentPlaceholder": "أدخل محتوى المهارة بصيغة Markdown...", + "agentSkillModal.description": "الوصف", + "agentSkillModal.descriptionPlaceholder": "قم بوصف هذه المهارة بشكل موجز", + "agentSkillModal.github.desc": "استيراد المهارات مباشرة من مستودع GitHub عام.", + "agentSkillModal.github.title": "استيراد من GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "فشل الاستيراد: {{error}}", + "agentSkillModal.importSuccess": "تم استيراد مهارة الوكيل بنجاح", + "agentSkillModal.upload.desc": "قم برفع ملف .zip أو .skill محلي للتثبيت.", + "agentSkillModal.upload.dragText": "اسحب وأفلت أو انقر للرفع", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md يحتوي على اسم المهارة ووصفها بصيغة YAML", + "agentSkillModal.upload.requirementZip": "ملف .zip أو .skill يحتوي على SKILL.md في الدليل الرئيسي", + "agentSkillModal.upload.requirements": "متطلبات الملف", + "agentSkillModal.upload.title": "رفع المهارة", + "agentSkillModal.upload.uploading": "جارٍ الرفع...", + "agentSkillModal.url.desc": "استيراد مهارة عن طريق توفير رابط مباشر إلى ملف SKILL.md.", + "agentSkillModal.url.title": "استيراد من رابط", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "مهارة الوكيل", "agentTab.chat": "تفضيلات المحادثة", "agentTab.meta": "معلومات الوكيل", "agentTab.modal": "إعدادات النموذج", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "تحديد النموذج المستخدم للترجمة", "systemAgent.translation.title": "وكيل ترجمة الرسائل", "tab.about": "حول", + "tab.addAgentSkill": "إضافة مهارة الوكيل", + "tab.addCustomMcp": "إضافة مهارة MCP مخصصة", + "tab.addCustomMcp.desc": "تكوين خادم MCP مخصص يدويًا", "tab.addCustomSkill": "إضافة مهارة مخصصة", "tab.agent": "خدمة الوكيل", "tab.all": "الكل", @@ -652,7 +691,13 @@ "tab.experiment": "تجريبي", "tab.hotkey": "اختصارات لوحة المفاتيح", "tab.image": "خدمة توليد الصور", + "tab.importFromGithub": "استيراد من GitHub", + "tab.importFromGithub.desc": "استيراد من مستودع GitHub عام", + "tab.importFromUrl": "استيراد من رابط", + "tab.importFromUrl.desc": "استيراد عبر رابط مباشر إلى SKILL.md", "tab.llm": "نموذج اللغة", + "tab.manualFill": "التعبئة اليدوية", + "tab.manualFill.desc": "تكوين مهارة MCP مخصصة يدويًا", "tab.memory": "الذاكرة", "tab.profile": "حسابي", "tab.provider": "مزود خدمة الذكاء الاصطناعي", @@ -669,6 +714,8 @@ "tab.sync": "مزامنة السحابة", "tab.systemTools": "أدوات النظام", "tab.tts": "تحويل النص إلى كلام", + "tab.uploadZip": "رفع ملف مضغوط", + "tab.uploadZip.desc": "رفع ملف .zip أو .skill محلي", "tab.usage": "إحصائيات الاستخدام", "tools.add": "إضافة مهارة", "tools.builtins.groupName": "المهارات المدمجة", diff --git a/locales/bg-BG/common.json b/locales/bg-BG/common.json index e504e79879..d58126043e 100644 --- a/locales/bg-BG/common.json +++ b/locales/bg-BG/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Дайте ни звезда в GitHub", "footer.title": "Харесвате ли нашия продукт?", "fullscreen": "Цял екран", - "geminiImageChineseWarning.content": "Nano Banana понякога може да не успее да генерира изображения при използване на китайски език. Препоръчваме използването на английски за по-добри резултати.", - "geminiImageChineseWarning.continueGenerate": "Продължи с генерирането", - "geminiImageChineseWarning.continueSend": "Продължи с изпращането", - "geminiImageChineseWarning.doNotShowAgain": "Не показвай повече", - "geminiImageChineseWarning.title": "Известие за въвеждане на китайски език", "historyRange": "Обхват на историята", "home.suggestQuestions": "Опитайте с тези примери", "import": "Импортирай", @@ -397,6 +392,7 @@ "tab.chat": "Чат", "tab.community": "Общност", "tab.discover": "Открий", + "tab.eval": "Оценителна лаборатория", "tab.files": "Файлове", "tab.home": "Начало", "tab.knowledgeBase": "Библиотека", diff --git a/locales/bg-BG/eval.json b/locales/bg-BG/eval.json new file mode 100644 index 0000000000..685e3f86c3 --- /dev/null +++ b/locales/bg-BG/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Изтриване на бенчмарк", + "benchmark.actions.delete.confirm": "Сигурни ли сте, че искате да изтриете този бенчмарк? Свързаните набори от данни и записи за оценка също ще бъдат изтрити.", + "benchmark.actions.edit": "Редактиране на бенчмарк", + "benchmark.actions.export": "Експортиране", + "benchmark.card.bestScore": "Най-добър", + "benchmark.card.caseCount": "{{count}} случая", + "benchmark.card.datasetCount": "{{count}} набора от данни", + "benchmark.card.empty": "Все още няма оценки", + "benchmark.card.emptyHint": "Създайте нова оценка от страницата с подробности за бенчмарка", + "benchmark.card.importDataset": "Импортиране на набор от данни", + "benchmark.card.noDataset": "Все още няма набори от данни", + "benchmark.card.noDatasetHint": "Импортирайте набор от данни, за да започнете оценяването", + "benchmark.card.noRecentRuns": "Няма скорошни оценки за показване", + "benchmark.card.recentRuns": "Скорошни оценки", + "benchmark.card.runCount": "{{count}} оценки", + "benchmark.card.startFirst": "Започнете първата оценка", + "benchmark.card.viewAll": "Вижте всички {{count}}", + "benchmark.create.confirm": "Създаване", + "benchmark.create.description.label": "Описание", + "benchmark.create.description.placeholder": "Описание на бенчмарка (по избор)", + "benchmark.create.error": "Неуспешно създаване на бенчмарк", + "benchmark.create.identifier.label": "Идентификатор", + "benchmark.create.identifier.placeholder": "идентификатор-на-бенчмарк", + "benchmark.create.identifierRequired": "Моля, въведете идентификатор", + "benchmark.create.name.label": "Име", + "benchmark.create.name.placeholder": "Въведете име на бенчмарк", + "benchmark.create.nameRequired": "Моля, въведете име на бенчмарк", + "benchmark.create.success": "Бенчмаркът е успешно създаден", + "benchmark.create.tags.label": "Етикети", + "benchmark.create.tags.placeholder": "Добавете етикети, разделени със запетая или интервал", + "benchmark.create.title": "Създаване на бенчмарк", + "benchmark.detail.backToOverview": "Обратно към прегледа", + "benchmark.detail.datasetCount": "{{count}} набор{{count, plural, one {} other {а}}} от данни в този бенчмарк", + "benchmark.detail.runCount": "{{count}} оценка{{count, plural, one {} other {и}}} на този бенчмарк", + "benchmark.detail.stats.addFirstDataset": "Кликнете, за да добавите първия набор от данни", + "benchmark.detail.stats.avgCost": "Средна цена", + "benchmark.detail.stats.avgDuration": "Средна продължителност", + "benchmark.detail.stats.basedOnLastNRuns": "Въз основа на последните {{count}} оценки", + "benchmark.detail.stats.bestPerformance": "Най-добро представяне от {{agent}} с {{passRate}}% успеваемост", + "benchmark.detail.stats.bestScore": "Най-добър резултат", + "benchmark.detail.stats.cases": "Случаи", + "benchmark.detail.stats.dataScale": "Мащаб на данните", + "benchmark.detail.stats.datasets": "Набори от данни", + "benchmark.detail.stats.needSetup": "Необходима настройка", + "benchmark.detail.stats.noEvalRecord": "Все още няма записи за оценка", + "benchmark.detail.stats.perRun": "/ Оценка", + "benchmark.detail.stats.runs": "Оценки", + "benchmark.detail.stats.tags": "Етикети", + "benchmark.detail.stats.topAgents": "Топ агенти", + "benchmark.detail.stats.totalCases": "Общо случаи", + "benchmark.detail.stats.waiting": "Изчакване...", + "benchmark.detail.tabs.data": "Данни", + "benchmark.detail.tabs.datasets": "Набори от данни", + "benchmark.detail.tabs.runs": "Оценки", + "benchmark.edit.confirm": "Запазване", + "benchmark.edit.error": "Неуспешно обновяване на бенчмарк", + "benchmark.edit.success": "Бенчмаркът е успешно обновен", + "benchmark.edit.title": "Редактиране на бенчмарк", + "benchmark.empty": "Все още няма бенчмаркове. Създайте един, за да започнете.", + "caseDetail.actual": "Действителен изход", + "caseDetail.chatArea.title": "Разговор", + "caseDetail.completionReason": "Статус", + "caseDetail.cost": "Цена", + "caseDetail.difficulty": "Трудност", + "caseDetail.duration": "Продължителност", + "caseDetail.expected": "Очакван изход", + "caseDetail.failureReason": "Причина за неуспех", + "caseDetail.input": "Вход", + "caseDetail.judgeComment": "Коментар на съдията", + "caseDetail.resources": "Ресурси", + "caseDetail.score": "Резултат", + "caseDetail.section.runtime": "Време за изпълнение", + "caseDetail.section.scoring": "Детайли за оценяване", + "caseDetail.section.testCase": "Тестов случай", + "caseDetail.steps": "Стъпки", + "caseDetail.threads.attempt": "Траектория #{{number}}", + "caseDetail.tokens": "Използване на токени", + "common.cancel": "Отказ", + "common.create": "Създаване", + "common.delete": "Изтриване", + "common.edit": "Редактиране", + "common.later": "По-късно", + "common.next": "Напред", + "common.update": "Обновяване", + "dataset.actions.addDataset": "Добавяне на набор от данни", + "dataset.actions.import": "Импортиране на данни", + "dataset.actions.importDataset": "Импортиране на набор от данни", + "dataset.create.description.label": "Описание", + "dataset.create.description.placeholder": "Описание на набора от данни (по избор)", + "dataset.create.error": "Неуспешно създаване на набор от данни", + "dataset.create.identifier.label": "Идентификатор", + "dataset.create.identifier.placeholder": "идентификатор-на-набор-от-данни", + "dataset.create.identifierRequired": "Моля, въведете идентификатор", + "dataset.create.importNow": "Искате ли да импортирате данни сега?", + "dataset.create.name.label": "Име на набора от данни", + "dataset.create.name.placeholder": "Въведете име на набора от данни", + "dataset.create.nameRequired": "Моля, въведете име на набора от данни", + "dataset.create.preset.label": "Предварителна настройка на набора от данни", + "dataset.create.success": "Наборът от данни е успешно създаден", + "dataset.create.successTitle": "Наборът от данни е създаден", + "dataset.create.title": "Създаване на набор от данни", + "dataset.delete.confirm": "Сигурни ли сте, че искате да изтриете този набор от данни? Всички тестови случаи в него също ще бъдат изтрити.", + "dataset.delete.error": "Неуспешно изтриване на набор от данни", + "dataset.delete.success": "Наборът от данни е успешно изтрит", + "dataset.detail.addRun": "Нова оценка", + "dataset.detail.backToBenchmark": "Обратно към бенчмарк", + "dataset.detail.caseCount": "{{count}} тестов случай{{count, plural, one {} other {и}}}", + "dataset.detail.relatedRuns": "Свързани оценки ({{count}})", + "dataset.detail.testCases": "Тестови случаи", + "dataset.detail.viewDetail": "Вижте детайли", + "dataset.edit.error": "Неуспешно обновяване на набор от данни", + "dataset.edit.success": "Наборът от данни е успешно обновен", + "dataset.edit.title": "Редактиране на набор от данни", + "dataset.empty": "Няма набори от данни", + "dataset.empty.description": "Импортирайте набор от данни, за да започнете изграждането на този бенчмарк", + "dataset.empty.title": "Все още няма набори от данни", + "dataset.evalMode.hint": "Стандартен режим на оценка за набора от данни, може да бъде променен на ниво тестов случай", + "dataset.import.category": "Категория", + "dataset.import.categoryDesc": "Класификационен етикет за групиране", + "dataset.import.choices": "Опции", + "dataset.import.choicesDesc": "Опции за избор", + "dataset.import.confirm": "Импортиране", + "dataset.import.error": "Неуспешно импортиране на набор от данни", + "dataset.import.expected": "Очакван отговор", + "dataset.import.expectedDelimiter": "Разделител за отговор", + "dataset.import.expectedDelimiter.desc": "Разделител за отговор", + "dataset.import.expectedDelimiter.placeholder": "напр. | или ,", + "dataset.import.expectedDesc": "Правилен отговор за сравнение", + "dataset.import.fieldMapping": "Съответствие на полета", + "dataset.import.fieldMapping.desc": "Колоната \"Вход\" е задължителна", + "dataset.import.hideSkipped": "Скриване на пропуснатите колони", + "dataset.import.ignore": "Пропускане", + "dataset.import.ignoreDesc": "Не импортирайте тази колона", + "dataset.import.input": "Вход", + "dataset.import.inputDesc": "Въпрос или подканване, изпратено към модела", + "dataset.import.metadata": "Метаданни", + "dataset.import.metadataDesc": "Допълнителна информация, съхранявана както е", + "dataset.import.next": "Напред", + "dataset.import.parseError": "Неуспешно анализиране на файла", + "dataset.import.parsing": "Анализиране на файла...", + "dataset.import.prev": "Назад", + "dataset.import.preview": "Преглед на данни", + "dataset.import.preview.desc": "Потвърдете, че съответствието е правилно, след това импортирайте.", + "dataset.import.preview.rows": "Общо {{count}} реда", + "dataset.import.sortOrder": "Номер на елемент", + "dataset.import.sortOrderDesc": "Идентификатор на въпрос/елемент за справка", + "dataset.import.step.mapping": "Съответствие на полета", + "dataset.import.step.preview": "Преглед", + "dataset.import.step.upload": "Качване на файл", + "dataset.import.success": "Успешно импортирани {{count}} тестови случаи", + "dataset.import.title": "Импортиране на набор от данни", + "dataset.import.upload.hint": "Поддържа CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Кликнете или плъзнете файл тук, за да го качите", + "dataset.import.uploading": "Качване...", + "dataset.switchDataset": "Смяна на набор от данни", + "difficulty.easy": "Лесно", + "difficulty.hard": "Трудно", + "difficulty.medium": "Средно", + "evalMode.contains": "Съвпадение по съдържание", + "evalMode.contains.desc": "Изходът трябва да съдържа очаквания текст", + "evalMode.equals": "Точно съвпадение", + "evalMode.equals.desc": "Изходът трябва да бъде точно същият като очаквания", + "evalMode.label": "Режим на оценка", + "evalMode.llm-rubric": "LLM съдия", + "evalMode.llm-rubric.desc": "Използвайте LLM за оценка на качеството на изхода", + "evalMode.placeholder": "Изберете режим на оценка", + "evalMode.prompt.label": "Подканващ текст за съдията", + "evalMode.prompt.placeholder": "Въведете критериите за оценка или подканващ текст за LLM съдия", + "evalMode.rubric": "Оценяване по критерии", + "evalMode.rubric.desc": "Оценете изхода, използвайки критерии с теглови оценки", + "overview.createBenchmark": "Създаване на бенчмарк", + "overview.importDataset": "Импортиране на набор от данни", + "overview.subtitle": "Оценявайте вашите AI агенти чрез набори от данни", + "overview.title": "Лаборатория за оценка", + "run.actions.abort": "Прекратяване", + "run.actions.abort.confirm": "Сигурни ли сте, че искате да прекратите тази оценка?", + "run.actions.create": "Нова оценка", + "run.actions.delete": "Изтриване", + "run.actions.delete.confirm": "Сигурни ли сте, че искате да изтриете тази оценка?", + "run.actions.edit": "Редактиране", + "run.actions.retryCase": "Повторен опит", + "run.actions.retryErrors": "Повторен опит за грешки", + "run.actions.retryErrors.confirm": "Това ще преизпълни всички случаи с грешки и изтичане на времето. Успешните и неуспешните случаи няма да бъдат засегнати.", + "run.actions.run": "Изпълнение", + "run.actions.start": "Старт", + "run.actions.start.confirm": "Сигурни ли сте, че искате да започнете тази оценка?", + "run.chart.duration": "Продължителност (секунди)", + "run.chart.error": "Грешка", + "run.chart.fail": "Неуспех", + "run.chart.latencyDistribution": "Разпределение на латентността", + "run.chart.latencyTokenDistribution": "Латентност / Разпределение на токени", + "run.chart.pass": "Успех", + "run.chart.passFailError": "Успех / Неуспех / Грешка", + "run.chart.tokens": "Токени", + "run.config.agentId": "Агент", + "run.config.concurrency": "Едновременност", + "run.config.judgeModel": "Модел на съдията", + "run.config.k": "Изпълнения (K)", + "run.config.k.hint": "Изпълнете всеки тестов случай {{k}} пъти за метрики pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Максимален брой стъпки", + "run.config.maxSteps.hint": "Всяко извикване на LLM или инструмент от агента се брои като 1 стъпка", + "run.config.model": "Модел", + "run.config.temperature": "Температура", + "run.config.timeout": "Изтичане на времето", + "run.config.timeout.unit": "мин", + "run.create.advanced": "Разширени настройки", + "run.create.agent": "Агент", + "run.create.agent.placeholder": "Изберете агент", + "run.create.agent.required": "Моля, изберете агент", + "run.create.caseCount": "{{count}} случая", + "run.create.confirm": "Създаване и старт", + "run.create.createOnly": "Само създаване", + "run.create.dataset": "Набор от данни", + "run.create.dataset.placeholder": "Изберете набор от данни", + "run.create.dataset.required": "Моля, изберете набор от данни", + "run.create.name": "Име на оценката", + "run.create.name.placeholder": "Въведете име за тази оценка", + "run.create.name.required": "Моля, въведете име на оценката", + "run.create.name.useTimestamp": "Използвайте текущото време като име", + "run.create.openAgent": "Отворете агента в нов прозорец", + "run.create.title": "Нова оценка", + "run.create.titleWithDataset": "Нова оценка на \"{{dataset}}\"", + "run.detail.agent": "Агент", + "run.detail.agent.none": "Не е посочен", + "run.detail.agent.unnamed": "Безименен агент", + "run.detail.backToBenchmark": "Обратно към бенчмарк", + "run.detail.caseResults": "Детайли за оценка", + "run.detail.config": "Конфигурация на оценката", + "run.detail.configSnapshot": "Снимка на конфигурацията", + "run.detail.dataset": "Набор от данни", + "run.detail.model": "Модел", + "run.detail.overview": "Преглед", + "run.detail.progress": "Прогрес", + "run.detail.progressCases": "случаи", + "run.detail.report": "Обобщение на оценката", + "run.edit.error": "Неуспешно обновяване на оценката", + "run.edit.success": "Оценката е успешно обновена", + "run.edit.title": "Редактиране на оценка", + "run.empty.description": "Започнете първата си оценка на този набор от данни", + "run.empty.descriptionBenchmark": "Започнете първата си оценка на този бенчмарк", + "run.empty.title": "Все още няма оценки", + "run.filter.active": "Активни", + "run.filter.empty": "Няма оценки, които съответстват на текущия филтър.", + "run.idle.hint": "Кликнете върху Старт, за да започнете оценката", + "run.metrics.avgScore": "Среден резултат", + "run.metrics.cost": "Цена", + "run.metrics.duration": "Продължителност", + "run.metrics.errorCases": "Грешка", + "run.metrics.evaluated": "{{count}} оценени", + "run.metrics.passRate": "Успеваемост", + "run.metrics.perCase": "/ случай", + "run.metrics.tokens": "Токени", + "run.metrics.totalDuration": "Кумулативно", + "run.pending.hint": "Оценката е в опашката, изчаква да започне...", + "run.running.hint": "Оценката се изпълнява, резултатите ще се появят скоро...", + "run.status.aborted": "Прекратена", + "run.status.completed": "Завършена", + "run.status.error": "Грешка в оценката", + "run.status.failed": "Неуспешна", + "run.status.idle": "Неактивна", + "run.status.pending": "В очакване", + "run.status.running": "Изпълнява се", + "run.status.timeout": "Изтичане на времето", + "sidebar.benchmarks": "Бенчмаркове", + "sidebar.dashboard": "Табло", + "sidebar.datasets": "Набори от данни", + "sidebar.runs": "Оценки", + "table.columns.avgCost": "Средна цена", + "table.columns.category": "Категория", + "table.columns.cost": "Цена", + "table.columns.difficulty": "Трудност", + "table.columns.duration": "Продължителност", + "table.columns.evalMode": "Режим на оценка", + "table.columns.expected": "Очакван отговор", + "table.columns.input": "Вход", + "table.columns.score": "Резултат", + "table.columns.status": "Статус", + "table.columns.steps": "Стъпки", + "table.columns.tags": "Етикети", + "table.columns.tokens": "Токени", + "table.columns.totalCost": "Обща цена", + "table.filter.all": "Всички", + "table.filter.error": "Грешка в оценката", + "table.filter.failed": "Неуспешни", + "table.filter.passed": "Успешни", + "table.filter.running": "Изпълняващи се", + "table.search.placeholder": "Търсене на случаи...", + "table.total": "Общо {{count}}", + "testCase.actions.add": "Добавяне на тестов случай", + "testCase.actions.import": "Импортиране на тестови случаи", + "testCase.create.advanced": "Още опции", + "testCase.create.difficulty.label": "Трудност", + "testCase.create.error": "Неуспешно добавяне на тестов случай", + "testCase.create.expected.label": "Очакван изход", + "testCase.create.expected.placeholder": "Въведете очаквания отговор", + "testCase.create.expected.required": "Моля, въведете очаквания изход", + "testCase.create.input.label": "Вход", + "testCase.create.input.placeholder": "Въведете входа или въпроса за тестовия случай", + "testCase.create.success": "Тестовият случай е успешно добавен", + "testCase.create.tags.label": "Етикети", + "testCase.create.tags.placeholder": "Етикети, разделени със запетая (по избор)", + "testCase.create.title": "Добавяне на тестов случай", + "testCase.delete.confirm": "Сигурни ли сте, че искате да изтриете този тестов случай?", + "testCase.delete.error": "Неуспешно изтриване на тестов случай", + "testCase.delete.success": "Тестовият случай е изтрит", + "testCase.edit.error": "Неуспешно обновяване на тестов случай", + "testCase.edit.success": "Тестовият случай е успешно обновен", + "testCase.edit.title": "Редактиране на тестов случай", + "testCase.empty.description": "Импортирайте или ръчно добавете тестови случаи към този набор от данни", + "testCase.empty.title": "Все още няма тестови случаи", + "testCase.preview.expected": "Очакван", + "testCase.preview.input": "Вход", + "testCase.preview.title": "Преглед на тестов случай", + "testCase.search.placeholder": "Търсене на случаи..." +} diff --git a/locales/bg-BG/home.json b/locales/bg-BG/home.json index 9e9e5992be..691ea9d734 100644 --- a/locales/bg-BG/home.json +++ b/locales/bg-BG/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Задълбочено проучване", "starter.developing": "Очаквайте скоро", "starter.image": "Изображение", + "starter.nanoBanana2": "🍌 Нано Банан 2", "starter.seedance": "Seedance 2.0", "starter.write": "Писане" } diff --git a/locales/bg-BG/modelProvider.json b/locales/bg-BG/modelProvider.json index 5b4d7a440e..941335062f 100644 --- a/locales/bg-BG/modelProvider.json +++ b/locales/bg-BG/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "За серията Gemini; контролира бюджета за мислене.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "За моделите Gemini 3 Flash Preview; контролира дълбочината на мислене.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "За моделите Gemini 3 Pro Preview; контролира дълбочината на мислене.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "За моделите Gemini 3.1 Pro Preview; контролира дълбочината на мислене с ниско/средно/високо ниво.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "За серията Gemini; поддържа предоставяне на контекст чрез URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Изберете разширени параметри за активиране", "providerModels.item.modelConfig.extendParams.previewFallback": "Прегледът не е наличен", diff --git a/locales/bg-BG/models.json b/locales/bg-BG/models.json index 958b6e9987..65081abd62 100644 --- a/locales/bg-BG/models.json +++ b/locales/bg-BG/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo предлага мощни изчислителни и диалогови възможности с отлично семантично разбиране и ефективност на генериране, идеален за предприятия и разработчици.", "360gpt2-o1.description": "360gpt2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.", "360gpt2-pro.description": "360GPT2 Pro е усъвършенстван NLP модел от 360 с отлични възможности за генериране и разбиране на текст, особено при творчески задачи, справяйки се със сложни трансформации и ролеви игри.", + "360zhinao2-o1.5.description": "360 Zhinao най-мощният модел за разсъждение, с най-силни способности, поддържащ както използване на инструменти, така и напреднало разсъждение.", "360zhinao2-o1.description": "360zhinao2-o1 изгражда верига на мисълта чрез дървовидно търсене с механизъм за рефлексия и обучение чрез подсилване, позволявайки саморефлексия и самокорекция.", + "360zhinao3-o1.5.description": "360 Zhinao модел за разсъждение от следващо поколение.", "4.0Ultra.description": "Spark Ultra е най-мощният модел от серията Spark, подобряващ разбирането и обобщаването на текст, както и уеб търсенето. Това е цялостно решение за повишаване на продуктивността на работното място и точността на отговорите, позиционирайки го като водещ интелигентен продукт.", "AnimeSharp.description": "AnimeSharp (известен още като \"4x-AnimeSharp\") е отворен модел за супер-резолюция, базиран на ESRGAN от Kim2091, фокусиран върху увеличаване и изостряне на изображения в аниме стил. Преименуван е от \"4x-TextSharpV1\" през февруари 2022 г., първоначално предназначен и за текстови изображения, но силно оптимизиран за аниме съдържание.", "Baichuan2-Turbo.description": "Използва разширение чрез търсене, за да свърже модела с домейн и уеб знания. Поддържа качване на PDF/Word файлове и въвеждане на URL адреси за навременно, цялостно извличане и професионални, точни резултати.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision е авангарден мултимодален модел, който се представя отлично в ключови езикови, текстови и визуални тестове. Тази версия с 8 милиарда параметри е фокусирана върху ниска латентност и силна производителност.", "charglm-3.description": "CharGLM-3 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.", "charglm-4.description": "CharGLM-4 е създаден за ролеви игри и емоционално общуване, поддържа ултра-дълга многозавойна памет и персонализиран диалог.", - "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време, комбиниращ силно разбиране и генериране за мащабни приложения като клиентска поддръжка, образование и техническа помощ.", + "chatgpt-4o-latest.description": "ChatGPT-4o е динамичен модел, актуализиран в реално време. Той комбинира силно разбиране на езика и генериране за мащабни случаи на употреба като клиентска поддръжка, образование и техническа помощ.", "claude-2.0.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.", "claude-2.1.description": "Claude 2 предлага ключови подобрения за предприятия, включително водещ контекст от 200 000 токена, намалени халюцинации, системни подканвания и нова тестова функция: използване на инструменти.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku е най-бързият модел от ново поколение на Anthropic, с подобрени умения и превъзхождащ предишния водещ модел Claude 3 Opus в много бенчмаркове.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) е иновативен модел, предлагащ дълбоко езиково разбиране и интеракция.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с по-силни способности за сложни разсъждения и верига от мисли за задълбочени аналитични задачи.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 е модел за разсъждение от следващо поколение с по-силни способности за сложни разсъждения и верига на мисълта.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 е MoE модел за визия и език, базиран на DeepSeekMoE-27B със слаба активация, постигайки висока производителност с едва 4.5 милиарда активни параметъра. Отличава се в визуални въпроси и отговори, OCR, разбиране на документи/таблици/графики и визуално привързване.", "deepseek-chat.description": "DeepSeek V3.2 балансира разсъждението и дължината на отговорите за ежедневни въпроси и задачи на агенти. Публичните бенчмаркове достигат нивата на GPT-5, а това е първият модел, който интегрира мислене в използването на инструменти, водещ в оценките на отворен код за агенти.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B е езиков модел за програмиране, обучен върху 2 трилиона токени (87% код, 13% китайски/английски текст). Въвежда 16K контекстен прозорец и задачи за попълване в средата, осигурявайки допълване на код на ниво проект и попълване на фрагменти.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 е нов хибриден модел за разсъждение от DeepSeek, поддържащ както мислещ, така и немислещ режим и предлагащ по-висока ефективност на мисленето от DeepSeek-R1-0528. Оптимизациите след обучение значително подобряват използването на инструменти от агенти и изпълнението на задачи. Поддържа 128k контекстен прозорец и до 64k изходни токена.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 е модел за разсъждение от ново поколение с подобрени способности за сложни разсъждения и верига от мисли, подходящ за задачи, изискващи задълбочен анализ.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp въвежда разредено внимание за подобряване на ефективността при обучение и извеждане върху дълги текстове, на по-ниска цена от deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "При силно сложни задачи, моделът Speciale значително превъзхожда стандартната версия, но консумира значително повече токени и води до по-високи разходи. В момента DeepSeek-V3.2-Speciale е предназначен само за изследователска употреба, не поддържа използване на инструменти и не е специално оптимизиран за ежедневни разговори или задачи за писане.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think е пълен модел за дълбоко мислене с по-силно дълговерижно разсъждение.", "deepseek-v3.2.description": "DeepSeek-V3.2 е първият хибриден модел за логическо мислене от DeepSeek, който интегрира мисленето в използването на инструменти. Използва ефективна архитектура за намаляване на изчислителните ресурси, мащабно обучение с подсилване за повишаване на способностите и синтетични задачи в голям мащаб за по-добра обобщаемост. Комбинацията от тези три елемента постига производителност, сравнима с GPT-5-High, със значително по-кратки изходни текстове, което намалява изчислителното натоварване и времето за изчакване на потребителя.", "deepseek-v3.description": "DeepSeek-V3 е мощен MoE модел с общо 671 милиарда параметъра и 37 милиарда активни на токен.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции. Поддържа контекстен прозорец от 128k и до 16k изходни токена.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro е подобрен мултимодален модел, който поддържа изображения с всякаква резолюция и екстремни съотношения, подобрявайки визуалното разсъждение, разпознаването на документи, разбиране на детайли и следване на инструкции.", - "doubao-lite-128k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 128k.", "doubao-lite-32k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.", - "doubao-lite-4k.description": "Изключително бърз отговор с по-добра стойност, предлагащ по-гъвкави възможности в различни сценарии. Поддържа разсъждение и фина настройка с контекстен прозорец от 4k.", - "doubao-pro-256k.description": "Най-добре представящият се флагмански модел за сложни задачи, с отлични резултати в справочни въпроси, обобщение, създаване, класификация на текст и ролеви игри. Поддържа разсъждение и фина настройка с контекстен прозорец от 256k.", "doubao-pro-32k.description": "Най-добре представящият се флагмански модел за сложни задачи, с отлични резултати в справочни въпроси, обобщение, създаване, класификация на текст и ролеви игри. Поддържа разсъждение и фина настройка с контекстен прозорец от 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash е изключително бърз мултимодален дълбок разсъждаващ модел с TPOT до 10ms. Поддържа текст и визия, надминава предишния lite модел в разбиране на текст и съответства на конкурентни pro модели във визия. Поддържа контекстен прозорец от 256k и до 16k изходни токена.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite е нов мултимодален дълбок разсъждаващ модел с регулируемо усилие на разсъждение (Минимално, Ниско, Средно, Високо), осигуряващ по-добра стойност и силен избор за обичайни задачи, с контекстен прозорец до 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Моделът за изображения на Doubao от ByteDance Seed поддържа вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Поддържа редактиране на изображения, водено от текст, с размери на изхода между 512 и 1536 по дългата страна.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 е модел за генериране на изображения от ByteDance Seed, поддържащ вход от текст и изображения с високо контролируемо, висококачествено генериране на изображения. Генерира изображения от текстови подсказки.", - "doubao-vision-lite-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.", - "doubao-vision-pro-32k.description": "Doubao-vision е мултимодален модел от Doubao със силно разбиране и разсъждение върху изображения, както и точно следване на инструкции. Представя се добре при извличане на текст от изображения и задачи за разсъждение, базирани на изображения, позволявайки по-сложни и широки визуални сценарии с въпроси и отговори.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 е най-новият мултимодален модел за изображения на ByteDance, интегриращ текст-към-изображение, изображение-към-изображение и групово генериране на изображения, като включва обща логика и способности за разсъждение. В сравнение с предишната версия 4.0, той предлага значително подобрено качество на генериране, с по-добра консистентност при редактиране и мулти-изображение сливане. Осигурява по-прецизен контрол върху визуалните детайли, като произвежда малък текст и малки лица по-естествено, и постига по-хармонично оформление и цветове, подобрявайки цялостната естетика.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite е най-новият модел за генериране на изображения на ByteDance. За първи път интегрира възможности за онлайн извличане, позволявайки му да включва информация в реално време от уеб и да подобрява актуалността на генерираните изображения. Интелигентността на модела също е подобрена, позволявайки прецизно интерпретиране на сложни инструкции и визуално съдържание. Освен това предлага подобрено глобално покритие на знания, консистентност на референциите и качество на генериране в професионални сценарии, по-добре отговаряйки на нуждите за визуално създаване на корпоративно ниво.", "emohaa.description": "Emohaa е модел за психично здраве с професионални консултантски способности, който помага на потребителите да разберат емоционални проблеми.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B е лек модел с отворен код за локално и персонализирано внедряване.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking е текстов MoE (смес от експерти) пост-трениран модел с общо 21B параметри и 3B активни параметри, предлагащ значително подобрено качество и дълбочина на разсъждения.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B е модел с отворен код с голям брой параметри и по-силни способности за разбиране и генериране.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B е ултра-голям MoE модел на Baidu ERNIE с отлични способности за разсъждение.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview е модел за предварителен преглед с 8K контекст за оценка на ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K е лек високопроизводителен модел за сценарии, чувствителни към латентност и разходи.", "ernie-novel-8k.description": "ERNIE Novel 8K е създаден за дълги романи и IP сюжети с многоперсонажни наративи.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K е модел с висока едновременност и висока стойност за мащабни онлайн услуги и корпоративни приложения.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview е бърз мисловен модел с 32K контекст за сложни разсъждения и многократни разговори.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K е бърз мислещ модел с 32K контекст за сложни разсъждения и многозавойни разговори.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview е предварителен модел за мислене, предназначен за оценка и тестване.", + "ernie-x1.1.description": "ERNIE X1.1 е мисловен модел за предварителен преглед за оценка и тестване.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработен от екипа Seed на ByteDance, поддържа редактиране и композиране на множество изображения. Отличава се с подобрена последователност на обектите, точно следване на инструкции, разбиране на пространствена логика, естетическо изразяване, оформление на постери и дизайн на лога с високопрецизно визуално-текстово рендиране.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработен от ByteDance Seed, поддържа текстови и визуални входове за висококачествено и силно контролируемо генериране на изображения от подсказки.", "fal-ai/flux-kontext/dev.description": "FLUX.1 модел, фокусиран върху редактиране на изображения, поддържащ вход от текст и изображения.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite е най-малкият и най-изгоден модел на Google, проектиран за мащабна употреба.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview е най-изгодният модел на Google с пълни възможности.", - "gemini-2.5-flash-preview-09-2025.description": "Предварителна версия (25 септември 2025 г.) на Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash е най-изгодният модел на Google с пълни възможности.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview е най-усъвършенстваният модел за разсъждение на Google, способен да разсъждава върху код, математика и STEM проблеми и да анализира големи набори от данни, кодови бази и документи с дълъг контекст.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)е модел на Google за генериране на изображения, който също така поддържа мултимодален диалог.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) е моделът на Google за генериране на изображения и поддържа мултимодален чат.", "gemini-3-pro-preview.description": "Gemini 3 Pro е най-мощният агентен и „vibe-coding“ модел на Google, който предлага по-богати визуализации и по-дълбоко взаимодействие, базирано на съвременно логическо мислене.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) предоставя професионално качество на изображенията с Flash скорост и поддръжка на мултимодални разговори.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) предоставя професионално качество на изображенията с Flash скорост и поддръжка на мултимодални разговори.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview подобрява Gemini 3 Pro с усъвършенствани способности за разсъждение и добавя поддръжка за средно ниво на мислене.", "gemini-flash-latest.description": "Най-новата версия на Gemini Flash", "gemini-flash-lite-latest.description": "Най-новата версия на Gemini Flash-Lite", "gemini-pro-latest.description": "Най-новата версия на Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.", "glm-4v-plus.description": "GLM-4V-Plus разбира видео и множество изображения, подходящ за мултимодални задачи.", "glm-4v.description": "GLM-4V осигурява силно разбиране на изображения и логическо мислене в различни визуални задачи.", - "glm-5.description": "Силен модел за разсъждение и агентски задачи от Z.ai с общо 744B параметри (40B активни), създаден за сложни системни инженерни задачи и дългосрочни задачи.", + "glm-5.description": "Серията GLM е хибриден модел за разсъждение от Zhipu AI, създаден за агенти, с режими на мислене и без мислене.", "glm-z1-air.description": "Модел за логическо мислене със силни способности за дълбоко разсъждение при сложни задачи.", "glm-z1-airx.description": "Ултра-бързо логическо мислене с високо качество на разсъжденията.", "glm-z1-flash.description": "Серията GLM-Z1 осигурява силно логическо мислене при сложни задачи, отличавайки се в логика, математика и програмиране.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "С гордост представяме Grok 4 Fast – нашият най-нов напредък в икономичните логически модели.", "grok-4.description": "Нашият най-нов и най-мощен водещ модел, който се отличава в обработка на естествен език, математика и логика – идеален универсален модел.", "grok-code-fast-1.description": "С гордост представяме grok-code-fast-1 – бърз и икономичен логически модел, който се отличава в агентско програмиране.", + "grok-imagine-image-pro.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.", + "grok-imagine-image.description": "Генерирайте изображения от текстови подсказки, редактирайте съществуващи изображения с естествен език или итеративно усъвършенствайте изображения чрез многократни разговори.", "groq/compound-mini.description": "Compound-mini е композитна AI система, задвижвана от публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.", "groq/compound.description": "Compound е композитна AI система, задвижвана от множество публично достъпни модели, поддържани в GroqCloud, която интелигентно и селективно използва инструменти за отговаряне на потребителски запитвания.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B е креативен и интелигентен езиков модел, създаден чрез обединяване на няколко водещи модела.", + "hunyuan-2.0-instruct-20251111.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява следването на инструкции, многократното и дългосрочно разбиране на текст, литературното създаване, точността на знанията, кодирането и способностите за разсъждение.", + "hunyuan-2.0-thinking-20251109.description": "Характеристики на изданието: Основата на модела е надградена от TurboS до **Hunyuan 2.0**, водеща до цялостни подобрения на способностите. Значително подобрява способността на модела да следва сложни инструкции, да разбира многократен и дългосрочен текст, да обработва код, да функционира като агент и да изпълнява задачи за разсъждение.", "hunyuan-a13b.description": "Първият хибриден логически модел на Hunyuan, надграден от hunyuan-standard-256K (общо 80B, 13B активни). По подразбиране използва бавно мислене и поддържа превключване между бързо/бавно чрез параметри или префикс /no_think. Общите възможности са подобрени спрямо предишното поколение, особено в математика, наука, разбиране на дълги текстове и агентски задачи.", - "hunyuan-code.description": "Най-новият модел за генериране на код, обучен с 200B висококачествен код и шест месеца SFT; контекстът е разширен до 8K. Води в автоматизирани тестове за пет езика и в човешки оценки по десет критерия.", - "hunyuan-functioncall.description": "Най-новият MoE модел FunctionCall, обучен с висококачествени данни за извикване на функции, с прозорец на контекста от 32K и водещи резултати в бенчмаркове по различни измерения.", - "hunyuan-large-longcontext.description": "Отличава се при задачи с дълги документи като обобщаване и въпроси/отговори, като същевременно се справя с общо генериране. Силен в анализ и генериране на дълги текстове със сложно и детайлно съдържание.", - "hunyuan-large-vision.description": "Модел за разбиране на изображения и текст, обучен от Hunyuan Large. Поддържа вход от множество изображения + текст при всякаква резолюция и подобрява многоезичното визуално разбиране.", - "hunyuan-large.description": "Hunyuan-large има ~389B общи параметри и ~52B активни – най-големият и най-мощен отворен MoE модел с трансформър архитектура.", - "hunyuan-lite-vision.description": "Най-новият 7B мултимодален модел с прозорец на контекста от 32K, поддържащ китайско/английски мултимодален чат, разпознаване на обекти, разбиране на таблици в документи и мултимодална математика, превъзхождащ други 7B модели в множество бенчмаркове.", + "hunyuan-code.description": "Най-новият кодов модел на Hunyuan, обучен върху 200B висококачествени кодови данни плюс шест месеца SFT данни, с 8K контекст. Той се нарежда близо до върха в автоматизирани кодови бенчмаркове и в експертни човешки оценки в пет езика.", + "hunyuan-functioncall.description": "Най-новият MoE FunctionCall модел на Hunyuan, обучен върху висококачествени данни за използване на инструменти, с прозорец за контекст от 32K и водещи бенчмаркове в различни измерения.", "hunyuan-lite.description": "Надграден до MoE архитектура с прозорец на контекста от 256K, водещ много отворени модели в NLP, програмиране, математика и индустриални бенчмаркове.", "hunyuan-pro.description": "MoE модел с трилион параметри и 32K контекст, водещ в бенчмаркове, силен при сложни инструкции и логика, напреднала математика, извикване на функции и оптимизиран за многоезичен превод, финанси, право и медицина.", - "hunyuan-role.description": "Най-новият модел за ролеви игри, официално фино настроен върху ролеви датасети, осигуряващ по-силна базова производителност за ролеви сценарии.", - "hunyuan-standard-256K.description": "Използва подобрено маршрутизиране за намаляване на натоварването и срив на експерти. Постига 99.9% точност при търсене на игла в купа сено в дълъг контекст. MOE-256K допълнително разширява дължината и качеството на контекста.", - "hunyuan-standard-vision.description": "Най-новият мултимодален модел с многоезични отговори и балансирани способности на китайски и английски.", - "hunyuan-standard.description": "Използва подобрено маршрутизиране за намаляване на натоварването и срив на експерти. Постига 99.9% точност при търсене на игла в купа сено в дълъг контекст. MOE-32K предлага силна стойност при работа с дълги входове.", - "hunyuan-t1-20250321.description": "Изгражда балансирани способности в изкуства и STEM с добро улавяне на информация от дълги текстове. Поддържа логически отговори за задачи по математика, логика, наука и програмиране на различни нива на трудност.", - "hunyuan-t1-20250403.description": "Подобрява генерирането на код на ниво проекти и качеството на писане, засилва разбирането на теми в многоходови разговори и следване на инструкции, подобрява разбиране на думи и намалява смесването на опростен/традиционен китайски и китайски/английски изход.", - "hunyuan-t1-20250529.description": "Подобрява креативното писане и композиция, засилва фронтенд програмиране, математика и логическо мислене, и подобрява следването на инструкции.", - "hunyuan-t1-20250711.description": "Значително подобрява трудна математика, логика и програмиране, повишава стабилността на изхода и засилва способностите за работа с дълги текстове.", + "hunyuan-role.description": "Най-новият модел за ролеви игри на Hunyuan, официално фино настроен с данни за ролеви игри, предоставящ по-силна основна производителност в сценарии за ролеви игри.", + "hunyuan-standard-256K.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Дългият текст \"игла в купа сено\" достига 99.9%. MOE-256K разширява дължината и качеството, значително увеличавайки дължината на входа.", + "hunyuan-standard.description": "Използва подобрено маршрутизиране за смекчаване на балансирането на натоварването и колапса на експертите. Дългият текст \"игла в купа сено\" достига 99.9%. MOE-32K предлага по-добра стойност, като балансира качество и цена за дълги текстови входове.", "hunyuan-t1-latest.description": "Значително подобрява модела с бавно мислене при трудна математика, сложна логика, трудни задачи по програмиране, следване на инструкции и качество на креативното писане.", - "hunyuan-t1-vision-20250619.description": "Най-новият мултимодален модел t1-vision с дълбоко логическо мислене и вградена верига на мисълта, значително подобрен спрямо предишната версия по подразбиране.", "hunyuan-t1-vision-20250916.description": "Най-новият модел t1-vision с дълбоко логическо мислене и големи подобрения във VQA, визуално привързване, OCR, диаграми, решаване на заснети задачи и създаване на съдържание от изображения, както и по-силна поддръжка на английски и езици с ограничени ресурси.", - "hunyuan-turbo-20241223.description": "Тази версия подобрява мащабирането на инструкции за по-добра генерализация, значително подобрява логическото мислене в математика/код/логика, засилва разбирането на думи и повишава качеството на писане.", - "hunyuan-turbo-latest.description": "Общи подобрения в NLP разбирането, писането, чата, въпросите и отговорите, превода и специализираните области; по-човешки отговори, по-добро изясняване на неясни намерения, подобрен синтактичен анализ, по-високо творческо качество и интерактивност, както и по-силни многозавойни разговори.", - "hunyuan-turbo-vision.description": "Флагмански модел от ново поколение за визия и език с нова MoE архитектура, с широки подобрения в разпознаването, създаването на съдържание, въпроси и отговори по знания и аналитично мислене.", "hunyuan-turbo.description": "Преглед на следващото поколение LLM на Hunyuan с нова MoE архитектура, осигуряваща по-бързо разсъждение и по-силни резултати от hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Унифицира стила на решаване на математически задачи и засилва многозавойните въпроси и отговори в математиката. Стилът на писане е усъвършенстван, за да намали изкуствения тон и да добави изтънченост.", - "hunyuan-turbos-20250416.description": "Подобрен базов модел за предварително обучение за по-добро разбиране и следване на инструкции; подобрено съгласуване в математика, код, логика и наука; подобрено качество на писане, разбиране, точност на превода и въпроси и отговори по знания; засилени способности на агентите, особено при многозавойно разбиране.", - "hunyuan-turbos-20250604.description": "Подобрен базов модел за предварително обучение с по-добро писане и четене с разбиране, значителни подобрения в кода и STEM, както и по-добро следване на сложни инструкции.", - "hunyuan-turbos-20250926.description": "Подобрено качество на предварителните данни и стратегията за последващо обучение, подобряваща агентите, английския език/езиците с ограничени ресурси, следването на инструкции, кода и STEM възможностите.", "hunyuan-turbos-latest.description": "Най-новият флагмански модел Hunyuan TurboS с по-силно разсъждение и по-добро цялостно изживяване.", - "hunyuan-turbos-longtext-128k-20250325.description": "Изключителен при задачи с дълги документи като обобщение и въпроси и отговори, като същевременно се справя с общо генериране. Силен при анализ и генериране на дълги текстове за сложни и детайлни съдържания.", - "hunyuan-turbos-role-plus.description": "Най-новият модел за ролеви игри, официално фино настроен върху ролеви набори от данни, осигуряващ по-силна базова производителност за ролеви сценарии.", - "hunyuan-turbos-vision-20250619.description": "Най-новият флагмански модел TurboS за визия и език с големи подобрения при задачи с изображения и текст като разпознаване на обекти, въпроси и отговори по знания, копирайтинг и решаване на задачи по снимки.", - "hunyuan-turbos-vision.description": "Флагмански модел от ново поколение за визия и език, базиран на най-новия TurboS, фокусиран върху задачи с разбиране на изображения и текст като разпознаване на обекти, въпроси и отговори по знания, копирайтинг и решаване на задачи по снимки.", - "hunyuan-vision-1.5-instruct.description": "Модел за бързо мислене, генериращ текст от изображения, базиран на текстовия TurboS. В сравнение с предишната версия, има значителни подобрения в основното разпознаване и анализ на изображения.", - "hunyuan-vision.description": "Най-новият мултимодален модел, поддържащ вход от изображения и текст за генериране на текст.", + "hunyuan-vision-1.5-instruct.description": "Бърз мисловен модел за изображения-към-текст, базиран на текстовата основа TurboS, показващ значителни подобрения спрямо предишната версия в основно разпознаване на изображения и анализ на разсъждения.", + "hunyuan-vision.description": "Най-новият мултимодален модел на Hunyuan, поддържащ входове за изображения + текст за генериране на текст.", "image-01-live.description": "Модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и контролируеми стилови настройки.", "image-01.description": "Нов модел за генериране на изображения с фини детайли, поддържащ преобразуване от текст към изображение и от изображение към изображение.", "imagen-4.0-fast-generate-001.description": "Бързата версия от четвъртото поколение модели Imagen за преобразуване от текст към изображение.", "imagen-4.0-generate-001.description": "Четвърто поколение модели Imagen за преобразуване от текст към изображение.", - "imagen-4.0-generate-preview-06-06.description": "Семейство модели от четвърто поколение Imagen за преобразуване от текст към изображение.", "imagen-4.0-ultra-generate-001.description": "Ultra версията от четвъртото поколение модели Imagen за преобразуване от текст към изображение.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Ultra вариант от четвъртото поколение модели Imagen за преобразуване от текст към изображение.", "inception/mercury-coder-small.description": "Mercury Coder Small е идеален за генериране на код, отстраняване на грешки и рефакториране с минимално закъснение.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 е третият модел от архитектурата Ling 2.0, разработен от екипа Bailing на Ant Group. Това е MoE модел със 100 милиарда общи параметри, от които само 6.1 милиарда са активни на токен (4.8 милиарда без вграждане). Въпреки леката си конфигурация, той съперничи или надминава плътни модели с 40 милиарда параметри и дори по-големи MoE модели в множество бенчмаркове, като постига висока ефективност чрез архитектура и стратегия на обучение.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 е малък, високоефективен MoE LLM с 16 милиарда общи параметри и само 1.4 милиарда активни на токен (789 милиона без вграждане), осигуряващ изключително бързо генериране. Благодарение на ефективния MoE дизайн и голям обем висококачествени обучителни данни, той постига водеща производителност, сравнима с плътни модели под 10 милиарда и по-големи MoE модели.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T е MoE модел на inclusionAI с трилион параметри, предназначен за мащабни задачи по разсъждение и научни изследвания.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 е вариант на модела Ring от inclusionAI за сценарии с висока пропускателна способност, с акцент върху скоростта и ефективността на разходите.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 е лек MoE модел на inclusionAI с висока пропускателна способност, създаден за едновременна работа.", + "intern-latest.description": "По подразбиране сочи към най-новия модел от серията Intern, в момента настроен на intern-s1-pro.", + "intern-s1-mini.description": "Лек мултимодален голям модел със силни научни способности за разсъждение.", + "intern-s1-pro.description": "Пуснахме най-напредналия ни отворен мултимодален модел за разсъждение, в момента най-добре представящият се отворен мултимодален голям езиков модел по отношение на общата производителност.", + "intern-s1.description": "Отвореният мултимодален модел за разсъждение не само демонстрира силни общи способности, но и постига най-добри резултати в широк спектър от научни задачи.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat е отворен модел за чат, базиран на архитектурата InternLM2. Моделът с 7B параметри е фокусиран върху генериране на диалог с поддръжка на китайски/английски, използвайки съвременно обучение за плавен и интелигентен разговор. Подходящ е за различни сценарии като клиентска поддръжка и лични асистенти.", - "internlm2.5-latest.description": "Наследени модели, които все още се поддържат с отлична и стабилна производителност след множество итерации. Предлагат се във варианти 7B и 20B, поддържат 1M контекст и по-силно следване на инструкции и използване на инструменти. По подразбиране използва последната серия InternLM2.5 (в момента internlm2.5-20b-chat).", - "internlm3-latest.description": "Нашата най-нова серия модели с отлична производителност при разсъждение, водеща сред отворените модели в своя клас. По подразбиране използва последната серия InternLM3 (в момента internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO е мултимодален предварително обучен модел за комплексно визуално-текстово разсъждение.", - "internvl2.5-latest.description": "InternVL2.5 все още се поддържа с висока и стабилна производителност. По подразбиране използва последната серия InternVL2.5 (в момента internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B е среден по размер мултимодален модел, балансиращ между производителност и разходи.", "internvl3-1b.description": "InternVL3 1B е лек мултимодален модел за внедряване при ограничени ресурси.", "internvl3-38b.description": "InternVL3 38B е голям отворен мултимодален модел за високоточна визуално-текстова интерпретация.", - "internvl3-latest.description": "Нашият най-нов мултимодален модел с по-силно визуално-текстово разбиране и разбиране на дълги визуални последователности, сравним с водещите затворени модели. По подразбиране използва последната серия InternVL (в момента internvl3-78b).", + "internvl3.5-241b-a28b.description": "Нашият новоиздаден мултимодален голям модел предлага подобрено разбиране на изображения и текст и способности за дългосрочно разбиране на изображения, постигайки производителност, сравнима с водещите затворени модели.", + "internvl3.5-latest.description": "По подразбиране сочи към най-новия модел от серията InternVL3.5, в момента настроен на internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG е модел за генериране, подсилен с извличане на изображения, предназначен за търсене на изображения, визуално-текстово извличане и създаване на съдържание.", "jamba-large.description": "Нашият най-мощен и напреднал модел, създаден за комплексни корпоративни задачи с изключителна производителност.", "jamba-mini.description": "Най-ефективният модел в своя клас, балансиращ скорост и качество с малък отпечатък.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 е ефективен голям езиков модел, създаден специално за програмиране и агентни работни потоци.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 е лек, авангарден голям езиков модел, оптимизиран за програмиране, агентни работни потоци и съвременно разработване на приложения, осигуряващ по-чист, по-кратък изход и по-бърза реакция.", "minimax/minimax-m2.description": "MiniMax-M2 е високостойностен модел, който се отличава в програмиране и агентни задачи в множество инженерни сценарии.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 е компактен, бърз, икономичен MoE модел, създаден за топ-клас кодиране и производителност на агенти.", "minimaxai/minimax-m2.description": "MiniMax-M2 е компактен, бърз и икономичен MoE модел (230B общо, 10B активни), създаден за първокласно програмиране и агентна производителност, като същевременно запазва силна обща интелигентност. Отличава се при редакции на множество файлове, цикли код-изпълнение-корекция, валидиране на тестове и сложни инструментални вериги.", "ministral-3b-latest.description": "Ministral 3B е водещият edge модел на Mistral.", "ministral-8b-latest.description": "Ministral 8B е високоефективен edge модел от Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Моделът kimi-k2-0905-preview поддържа 256K контекстен прозорец, с по-силно агентно програмиране, по-изпипан и практичен фронтенд код и по-добро разбиране на контекста.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo е високоскоростна версия на Kimi K2 Thinking, значително намаляваща латентността, като запазва дълбокото разсъждение.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking е модел за разсъждение на Moonshot, оптимизиран за задачи, изискващи дълбоко мислене, с общи агентни способности.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 е най-интелигентният модел Kimi досега, с вградена мултимодална архитектура.", "moonshotai/kimi-k2.description": "Kimi K2 е голям MoE модел от Moonshot AI с 1T общи параметри и 32B активни при всяко преминаване, оптимизиран за агентни способности, включително напреднало използване на инструменти, разсъждение и синтез на код.", "morph/morph-v3-fast.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 4500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.", "morph/morph-v3-large.description": "Morph предоставя специализиран модел за прилагане на промени в кода, предложени от водещи модели (напр. Claude или GPT-4o), към съществуващите ви файлове със скорост над 2500 токена/сек. Това е последната стъпка в AI работния процес за програмиране и поддържа 16k входни/изходни токена.", + "musesteamer-air-image.description": "musesteamer-air-image е модел за генериране на изображения, разработен от екипа за търсене на Baidu, за да предостави изключителна стойност за разходите. Той може бързо да генерира ясни, съгласувани с действия изображения въз основа на потребителски подсказки, превръщайки описанията на потребителите лесно във визуализации.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B е обновена версия на Nous Hermes 2 с най-новите вътрешно разработени набори от данни.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B е персонализиран LLM от NVIDIA, създаден за подобряване на полезността. Представя се отлично в Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, заемайки първо място и в трите автоматични бенчмарка към 1 октомври 2024 г. Обучен е от Llama-3.1-70B-Instruct с помощта на RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference подсказки.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Отличителен езиков модел, предлагащ изключителна точност и ефективност.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Въз основа на дължината на контекста, темата и сложността, заявката ви се насочва към Llama 3 70B Instruct, Claude 3.5 Sonnet (със самомодерация) или GPT-4o.", "oswe-vscode-prime.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.", "oswe-vscode-secondary.description": "Raptor mini е предварителен модел, оптимизиран за задачи, свързани с програмиране.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.", "perplexity/sonar-pro.description": "Водещият продукт на Perplexity с търсене в реално време, поддържащ сложни заявки и последващи въпроси.", "perplexity/sonar-reasoning-pro.description": "Разширен модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подобрено търсене, включително множество заявки на заявка.", "perplexity/sonar-reasoning.description": "Модел, фокусиран върху разсъждение, който генерира chain-of-thought (CoT) с подробни обяснения, базирани на търсене.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Модел за програмиране от серията Qwen.", "qwen-coder-turbo.description": "Модел за програмиране от серията Qwen.", "qwen-flash.description": "Най-бързият и най-евтин модел от Qwen, идеален за прости задачи.", + "qwen-image-edit-max.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.", + "qwen-image-edit-plus.description": "Моделът за редактиране на изображения Qwen поддържа входове за множество изображения и изходи за множество изображения, позволявайки прецизно редактиране на текст в изображения, добавяне, премахване или преместване на обекти, модификация на действия на субекти, трансфер на стил на изображения и подобрени визуални детайли.", "qwen-image-edit.description": "Qwen Image Edit е модел за редактиране на изображения, който променя изображения въз основа на входни изображения и текстови подсказки, позволявайки прецизни корекции и творчески трансформации.", + "qwen-image-max.description": "Моделът за генериране на изображения Qwen (серия Max) предоставя подобрена реалистичност и визуална естественост в сравнение със серията Plus, ефективно намалявайки артефактите, генерирани от AI, и демонстрирайки изключителна производителност в човешки външен вид, текстурни детайли и рендиране на текст.", + "qwen-image-plus.description": "Поддържа широк спектър от художествени стилове и е особено умел в рендирането на сложен текст в изображения, позволявайки интегриран дизайн на оформление на изображения и текст.", "qwen-image.description": "Qwen-Image е универсален модел за генериране на изображения, поддържащ множество художествени стилове и силно рендиране на сложен текст, особено на китайски и английски. Поддържа многострочни оформления, текст на ниво абзац и фини детайли за сложни текстово-визуални оформления.", "qwen-long.description": "Изключително голям модел от Qwen с дълъг контекст и чат в сценарии с дълги и многодокументни взаимодействия.", "qwen-math-plus-latest.description": "Qwen Math е езиков модел, специализиран в решаване на математически задачи.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Модел за програмиране Qwen с отворен код. Най-новият qwen3-coder-30b-a3b-instruct е базиран на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct е водещ модел за програмиране с поддръжка на много езици и разбиране на сложен код.", "qwen3-coder-flash.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.", + "qwen3-coder-next.description": "Следващо поколение Qwen кодер, оптимизиран за сложна многокодова генерация, дебъгване и високопроизводителни работни потоци на агенти. Създаден за силна интеграция на инструменти и подобрена производителност на разсъждения.", "qwen3-coder-plus.description": "Модел за програмиране Qwen. Най-новата серия Qwen3-Coder е базирана на Qwen3 и предлага силни способности за програмиране чрез агенти, използване на инструменти и взаимодействие със среди за автономно програмиране, с отлично представяне при код и стабилни общи възможности.", "qwen3-coder:480b.description": "Високопроизводителен модел на Alibaba с дълъг контекст за задачи с агенти и програмиране.", "qwen3-max-2026-01-23.description": "Моделите Qwen3 Max предлагат значителни подобрения спрямо серията 2.5 в общите способности, разбиране на китайски/английски, следване на сложни инструкции, субективни отворени задачи, многоезичност и използване на инструменти, с по-малко халюцинации. Най-новият qwen3-max подобрява агентското програмиране и използването на инструменти спрямо qwen3-max-preview. Това издание достига върхови резултати в областта и е насочено към по-сложни нужди на агентите.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking е мултимоделен модел с верига на мисълта за детайлна визуална аргументация.", "qwen3-vl-flash.description": "Qwen3 VL Flash: лек, високоскоростен модел за аргументация, подходящ за заявки с ниска латентност или голям обем.", "qwen3-vl-plus.description": "Qwen VL е модел за генериране на текст с разбиране на визуално съдържание. Може да извършва OCR, както и обобщаване и логическа обработка, например извличане на атрибути от продуктови снимки или решаване на задачи от изображения.", + "qwen3.5-397b-a17b.description": "Поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, предлагайки по-висока ефективност и по-ниска цена. В мултимодалните способности той предоставя значителни подобрения спрямо серията Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus поддържа текст, изображения и видео входове. За задачи само с текст, производителността му е сравнима с Qwen3 Max, докато предлага по-добра ефективност и по-ниска цена. В мултимодалните способности той показва значителни подобрения спрямо серията Qwen3 VL.", "qwen3.description": "Qwen3 е следващото поколение голям езиков модел на Alibaba с висока ефективност в разнообразни приложения.", "qwq-32b-preview.description": "QwQ е експериментален изследователски модел от Qwen, фокусиран върху подобрена аргументация.", "qwq-32b.description": "QwQ е модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, предлага мисловни и логически способности, които значително подобряват ефективността при сложни задачи. QwQ-32B е среден по размер модел, съперничещ на водещи модели като DeepSeek-R1 и o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Среден по размер модел за аргументация от семейството на Qwen. В сравнение със стандартните модели, обучени с инструкции, мисловните и логическите способности на QwQ значително подобряват ефективността при трудни задачи.", "r1-1776.description": "R1-1776 е дообучен вариант на DeepSeek R1, създаден да предоставя неконфронтирана, обективна и фактическа информация.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддържа генериране на видео от текст, от изображение към видео (първи кадър, първи+последен кадър) и синхронизирано с визуалното съдържание аудио.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus предлага генериране, обогатено с уеб извличане за информация в реално време, подобрена интерпретация на сложни подсказки и подобрена консистентност на референциите за професионално визуално създаване.", "solar-mini-ja.description": "Solar Mini (Ja) разширява Solar Mini с фокус върху японски език, като запазва ефективността и силната производителност на английски и корейски.", "solar-mini.description": "Solar Mini е компактен LLM, който превъзхожда GPT-3.5, с мощни многоезични възможности, поддържащ английски и корейски, и предлага ефективно решение с малък отпечатък.", "solar-pro.description": "Solar Pro е интелигентен LLM от Upstage, фокусиран върху следване на инструкции на един GPU, с IFEval резултати над 80. Понастоящем поддържа английски; пълното издание е планирано за ноември 2024 с разширена езикова поддръжка и по-дълъг контекст.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.", "sonar-reasoning.description": "Разширен продукт за търсене с обосновани резултати за сложни заявки и последващи въпроси.", "sonar.description": "Лек продукт с обосновано търсене, по-бърз и по-евтин от Sonar Pro.", - "spark-x.description": "Актуализация X1.5: (1) добавя динамичен мисловен режим, контролиран чрез полето `thinking`; (2) по-голяма дължина на контекста с 64K вход и 64K изход; (3) поддържа FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 е модел, който балансира висока изчислителна ефективност и отлична производителност за разсъждение и агенти.", + "spark-x.description": "Преглед на възможностите на X2: 1. Въвежда динамично регулиране на режима на разсъждение, контролирано чрез полето `thinking`. 2. Разширена дължина на контекста: 64K входни токени и 128K изходни токени. 3. Поддържа функционалност за извикване на функции.", "stable-diffusion-3-medium.description": "Най-новият модел за преобразуване на текст в изображение от Stability AI. Тази версия значително подобрява качеството на изображенията, разбирането на текст и стиловото разнообразие, като по-точно интерпретира сложни естественоезикови заявки и генерира по-прецизни и разнообразни изображения.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo използва adversarial diffusion distillation (ADD) върху stable-diffusion-3.5-large за по-висока скорост.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large е текст-към-изображение модел MMDiT с 800 милиона параметъра, предлагащ отлично качество и съответствие с подадените инструкции, поддържащ изображения с резолюция 1 мегапиксел и ефективна работа на потребителски хардуер.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Поддържа взаимодействия с голям контекст за сложни диалози.", "step-2-mini.description": "Изграден върху следващото поколение вътрешна архитектура MFA attention, предоставяйки резултати, подобни на Step-1, при значително по-ниска цена, с по-висока пропускателна способност и по-бърза латентност. Обработва общи задачи със силни способности за програмиране.", "step-2x-large.description": "Модел от ново поколение StepFun за генериране на изображения, създаващ висококачествени изображения от текстови подканва. Осигурява по-реалистична текстура и по-добро визуализиране на китайски/английски текст.", + "step-3.5-flash.description": "Флагманският модел за езиково разсъждение от Stepfun. Този модел предоставя топ способности за разсъждение заедно с бързо и надеждно изпълнение. Може да разлага и планира сложни задачи, бързо и надеждно да извиква инструменти за тяхното изпълнение и да превъзхожда в логическо разсъждение, математика, софтуерно инженерство, дълбоки изследвания и други сложни задачи. Дължината на контекста е 256K.", "step-3.description": "Този модел притежава силно визуално възприятие и сложна логика, точно обработва междудомейново знание, анализ между математика и визия и широк спектър от ежедневни визуални задачи.", "step-r1-v-mini.description": "Модел за логическо разсъждение със силно визуално разбиране, който може да обработва изображения и текст, след което да генерира текст след дълбоко разсъждение. Отличава се във визуално разсъждение и предоставя водещи резултати в математика, програмиране и текстово разсъждение, с контекстен прозорец от 100K.", "stepfun-ai/step3.description": "Step3 е авангарден мултимодален модел за разсъждение от StepFun, изграден върху MoE архитектура с общо 321B и 38B активни параметъра. Дизайнът от край до край минимизира разходите за декодиране, като същевременно осигурява водещо разсъждение между визия и език. С MFA и AFD дизайн, остава ефективен както на флагмански, така и на нискобюджетни ускорители. Предобучен с над 20T текстови токени и 4T токени от изображения и текст на множество езици. Постига водеща производителност сред отворените модели в математика, код и мултимодални бенчмаркове.", - "taichu_llm.description": "Обучен върху масивни висококачествени данни, с по-силно разбиране на текст, създаване на съдържание и разговорно въпроси-отговори.", - "taichu_o1.description": "taichu_o1 е модел от ново поколение за разсъждение, използващ мултимодално взаимодействие и обучение чрез подсилване за постигане на човешкоподобна верига на мисълта, поддържащ симулация на сложни решения и разкриващ логически пътища, като същевременно поддържа висока точност – подходящ за стратегически анализ и дълбоко мислене.", - "taichu_vl.description": "Комбинира визуално разбиране, трансфер на знания и логическа атрибуция, отличавайки се в задачи с въпроси и отговори между изображения и текст.", + "taichu4_vl_2b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 2B се отличава с по-ниска употреба на памет, лек дизайн, бърза скорост на отговор и силни способности за мултимодално разбиране.", + "taichu4_vl_32b.description": "Версията с мислене на модела Taichu4.0-VL 32B е подходяща за сложни задачи за мултимодално разбиране и разсъждение, демонстрирайки изключителна производителност в мултимодално математическо разсъждение, мултимодални способности на агенти и общо разбиране на изображения и визуализации.", + "taichu4_vl_32b_nothinking.description": "Версията без мислене на модела Taichu4.0-VL 32B е предназначена за сложни сценарии за разбиране на изображения и текст и визуални въпроси и отговори, превъзхождайки в описания на изображения, визуални въпроси и отговори, разбиране на видео и задачи за визуална локализация.", + "taichu4_vl_3b.description": "Версията с мислене на модела Taichu4.0-VL 3B ефективно изпълнява задачи за мултимодално разбиране и разсъждение, с цялостни подобрения в визуалното разбиране, визуалната локализация, OCR разпознаването и свързаните способности.", + "taichu_llm.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.", + "taichu_llm_14b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.", + "taichu_llm_2b.description": "Големият езиков модел Zidong Taichu е високопроизводителен модел за генериране на текст, разработен с напълно местни технологии. Чрез структурирана компресия на базов модел с сто милиарда параметри и оптимизация за специфични задачи, той значително подобрява сложното разбиране на текст и способностите за разсъждение върху знания. Превъзхожда в сценарии като анализ на дълги документи, извличане на информация между езици и генериране, ограничено от знания.", + "taichu_o1.description": "taichu_o1 е модел за разсъждение от следващо поколение, който постига човешка верига на мисълта чрез мултимодално взаимодействие и обучение чрез подсилване. Поддържа сложни симулации за вземане на решения и, докато поддържа високопрецизен изход, разкрива интерпретируеми пътища на разсъждение. Подходящ е за анализ на стратегии, дълбоко мислене и подобни сценарии.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct използва общо 80B параметъра с 13B активни, за да съответства на по-големи модели. Поддържа хибридно бързо/бавнопотоцово разсъждение, стабилно разбиране на дълги текстове и водещи способности на агенти в BFCL-v3 и τ-Bench. GQA и мулти-квантови формати позволяват ефективно извеждане.", "tencent/Hunyuan-MT-7B.description": "Моделът за превод Hunyuan включва Hunyuan-MT-7B и ансамбъла Hunyuan-MT-Chimera. Hunyuan-MT-7B е лек модел с 7B параметъра, поддържащ 33 езика плюс 5 китайски малцинствени езика. В WMT25 заема първо място в 30 от 31 езикови двойки. Tencent Hunyuan използва пълен тренировъчен процес от предобучение до SFT, превод чрез RL и ансамблово RL, постигайки водеща производителност за своя размер с ефективно и лесно внедряване.", "text-embedding-3-large.description": "Най-способният модел за вграждане за задачи на английски и други езици.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md е подходящ за ежедневни задачи и генериране на потребителски интерфейси.", "vercel/v0-1.0-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.", "vercel/v0-1.5-md.description": "Достъп до моделите зад v0 за генериране, корекция и оптимизация на съвременни уеб приложения с логика, специфична за рамката, и актуални знания.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code е оптимизиран за корпоративни нужди за програмиране, като се основава на отличните способности на Seed 2.0 за агенти и VLM, специално подобрявайки кодовите способности. Не само че предната част се представя изключително добре, но и е специално оптимизиран за често срещани многоезични кодови нужди на предприятията, подходящ за интеграция с различни AI инструменти за програмиране.", + "volcengine/doubao-seed-2-0-lite.description": "Съчетава качество на генериране и скорост на отговор, подходящ за общи производствени модели.", + "volcengine/doubao-seed-2-0-mini.description": "Насочва към най-новата версия на doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Насочва към най-новата версия на doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code е LLM на ByteDance Volcano Engine, оптимизиран за агентно програмиране, с висока ефективност в програмиране и агентни бенчмаркове и поддръжка на контекст от 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed е най-новият модел с подобрения в креативността, стабилността и реализъма, осигуряващ бързо генериране и висока стойност.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro е най-новият модел с подобрения в креативността, стабилността и реализъма, създаващ по-богати детайли.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash е най-новият модел с подобрения в креативността, стабилността и реализма, предоставящ бързо генериране и висока стойност.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus е най-новият модел с подобрения в креативността, стабилността и реализма, произвеждащ по-богати детайли.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview поддържа редактиране на единични изображения и сливане на множество изображения.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението.", + "wan2.6-image.description": "Wanxiang 2.6 Image поддържа редактиране на изображения и смесен изход на оформление на изображения и текст.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I поддържа гъвкав избор на размери на изображения в рамките на общата площ на пикселите и ограниченията на съотношението (същото като Wanxiang 2.5).", "wanx-v1.description": "Базов модел за преобразуване на текст в изображение. Съответства на Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Изключителен при текстурирани портрети с умерена скорост и по-ниска цена. Съответства на Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Изцяло обновена версия с по-богати детайли в изображенията и леко по-бавна скорост. Съответства на Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast е високопроизводителен, нискобюджетен модел на xAI (поддържа 2M контекст), идеален за случаи с висока едновременност и дълъг контекст.", "x-ai/grok-4.description": "Grok 4 е водещ логически модел на xAI с мощни логически и мултимодални възможности.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 е бърз кодов модел на xAI с четим и удобен за инженеринг изход.", + "x1.description": "Актуализации на X1.5: (1) добавя динамичен режим на мислене, контролиран чрез полето `thinking`; (2) по-голяма дължина на контекста с 64K вход и 64K изход; (3) поддържа FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision се отличава във визуални задачи, постигайки водещи резултати във визуална математическа логика (MathVista) и въпроси и отговори по документи (DocVQA). Обработва документи, диаграми, графики, екранни снимки и снимки.", "xai/grok-2.description": "Grok 2 е авангарден модел с водеща логика, силен чат, кодиране и логическа ефективност, надминаващ Claude 3.5 Sonnet и GPT-4 Turbo в LMSYS.", "xai/grok-3-fast.description": "Водещият модел на xAI се отличава в корпоративни приложения като извличане на данни, кодиране и обобщаване, с дълбоки познания в области като финанси, здравеопазване, право и наука. Бързият вариант работи върху по-бърза инфраструктура за значително по-бързи отговори при по-висока цена на токен.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 е флагманският модел на Z.AI с хибридно разсъждение, оптимизиран за инженерни и задачи с дълъг контекст.", "z-ai/glm-4.6.description": "GLM 4.6 е флагманският модел на Z.AI с разширен контекст и подобрени възможности за програмиране.", "z-ai/glm-4.7.description": "GLM-4.7 е най-новият водещ модел на Zhipu, предлагащ подобрени общи възможности, по-прости и естествени отговори и по-завладяващо писмено изживяване.", - "z-ai/glm5.description": "Силен модел за разсъждение и агентски задачи от Z.ai с общо 744B параметри (40B активни), създаден за сложни системни инженерни задачи и дългосрочни задачи.", + "z-ai/glm4.7.description": "GLM-4.7 е най-новият флагмански модел на Zhipu, подобрен за сценарии на агентно кодиране с усъвършенствани кодови способности.", + "z-ai/glm5.description": "GLM-5 е новият флагмански основен модел на Zhipu AI за инженеринг на агенти, постигайки отворен източник SOTA производителност в кодиране и способности на агенти. Сравнява се с Claude Opus 4.5 по производителност.", + "z-image-turbo.description": "Z-Image е лек модел за генериране на изображения от текст, който може бързо да произвежда изображения, поддържа както китайско, така и английско рендиране на текст и гъвкаво се адаптира към множество резолюции и съотношения.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air е базов модел за агентни приложения с архитектура Mixture-of-Experts. Оптимизиран е за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.", "zai-org/GLM-4.5.description": "GLM-4.5 е базов модел, създаден за агентни приложения с архитектура Mixture-of-Experts. Дълбоко оптимизиран за използване на инструменти, уеб браузване, софтуерно инженерство и фронтенд програмиране, и се интегрира с кодови агенти като Claude Code и Roo Code. Използва хибридно разсъждение за справяне както със сложни, така и с ежедневни задачи.", "zai-org/GLM-4.5V.description": "GLM-4.5V е най-новият визуален езиков модел (VLM) на Zhipu AI, изграден върху флагманския текстов модел GLM-4.5-Air (106B общо, 12B активни) с MoE архитектура за висока производителност при по-ниска цена. Следва пътя на GLM-4.1V-Thinking и добавя 3D-RoPE за подобрено пространствено разсъждение в 3D. Оптимизиран чрез предварително обучение, SFT и RL, обработва изображения, видео и дълги документи и е сред водещите отворени модели в 41 публични мултимодални бенчмарка. Режимът Thinking позволява на потребителите да балансират между скорост и дълбочина.", diff --git a/locales/bg-BG/plugin.json b/locales/bg-BG/plugin.json index ac16ba5665..22901272cc 100644 --- a/locales/bg-BG/plugin.json +++ b/locales/bg-BG/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Актуализиране на възел", "builtins.lobe-page-agent.apiName.wrapNodes": "Обвиване на възли", "builtins.lobe-page-agent.title": "Страница", + "builtins.lobe-skill-store.apiName.importFromMarket": "Импортиране от пазара", + "builtins.lobe-skill-store.apiName.importSkill": "Импортиране на умение", + "builtins.lobe-skill-store.apiName.searchSkill": "Търсене на умения", + "builtins.lobe-skill-store.title": "Магазин за умения", + "builtins.lobe-skills.apiName.execScript": "Изпълнение на скрипт", + "builtins.lobe-skills.apiName.exportFile": "Експортиране на файл", + "builtins.lobe-skills.apiName.importFromMarket": "Импортиране от пазара", + "builtins.lobe-skills.apiName.importSkill": "Импортиране на умение", + "builtins.lobe-skills.apiName.readReference": "Прочитане на справка", + "builtins.lobe-skills.apiName.runSkill": "Активиране на умение", + "builtins.lobe-skills.apiName.searchSkill": "Търсене на умения", + "builtins.lobe-skills.title": "Умения", + "builtins.lobe-tools.apiName.activateTools": "Активиране на инструменти", "builtins.lobe-user-memory.apiName.addContextMemory": "Добавяне на контекстна памет", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Добавяне на памет за опит", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Добавяне на памет за идентичност", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Уеб търсене", "confirm": "Потвърди", "debug.arguments": "Аргументи", + "debug.error": "Дневник на грешки", "debug.function_call": "Извикване на функция", "debug.intervention": "Интервенция на умение", "debug.off": "Отстраняване на грешки изключено", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Настройките са запазени", "dev.tabs.manifest": "Манифест", "dev.tabs.meta": "Мета информация", - "dev.title.create": "Добави персонализирано умение", - "dev.title.edit": "Редактирай персонализирано умение", + "dev.title.create": "Добавяне на персонализирано MCP умение", + "dev.title.edit": "Редактиране на персонализирано MCP умение", "dev.title.editCommunity": "Редактиране на умение на общността", "dev.title.skillDetails": "Детайли за умението", "dev.title.skillSettings": "Настройки на умението", diff --git a/locales/bg-BG/providers.json b/locales/bg-BG/providers.json index 9b420e078a..cace34f0fa 100644 --- a/locales/bg-BG/providers.json +++ b/locales/bg-BG/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud е икономична GenAI облачна услуга, изградена върху стабилни open-source базови модели.", "spark.description": "iFLYTEK Spark предоставя мощен многоезичен AI в различни области, позволявайки иновации в умния хардуер, здравеопазването, финансите и други вертикали.", "stepfun.description": "Моделите на Stepfun предлагат водещи мултимодални и сложни разсъждателни възможности, с разбиране на дълъг контекст и мощна автономна координация на търсене.", + "straico.description": "Straico опростява интеграцията на изкуствения интелект, като предоставя унифицирано работно пространство, което обединява водещи модели за генериране на текст, изображения и аудио, давайки възможност на маркетолози, предприемачи и ентусиасти за лесен достъп до разнообразни AI инструменти.", "taichu.description": "Модел от ново поколение от CASIA и Института по AI в Ухан, поддържащ многократни въпроси и отговори, писане, генериране на изображения, 3D разбиране и анализ на сигнали с по-силна когниция и креативност.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power предоставя цялостни решения за въпроси и отговори за предприятия и разработчици, с модулни услуги като анализ на документи, сегментиране, вграждания и многократна пренаписка за изграждане на персонализирани AI решения.", "togetherai.description": "Together AI предлага водеща производителност с иновативни модели, широка персонализация, бързо мащабиране и лесно внедряване за нуждите на предприятията.", diff --git a/locales/bg-BG/setting.json b/locales/bg-BG/setting.json index a96e77602b..6f516da850 100644 --- a/locales/bg-BG/setting.json +++ b/locales/bg-BG/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Профил на агента", "agentInfoDescription.value.unset": "Не е зададено", "agentInfoDescription.value.untitled": "Агент без заглавие", + "agentSkillDetail.addedAt": "Добавено", + "agentSkillDetail.publishedAt": "Публикувано", + "agentSkillDetail.repository": "GitHub хранилище", + "agentSkillDetail.skillContent": "Съдържание на умението", + "agentSkillDetail.sourceUrl": "Източник на импортиране на умението", + "agentSkillDetail.updatedAt": "Актуализирано", + "agentSkillEdit.descriptionDesc": "Кратко обобщение на това, което прави умението, помагащо на агента да разбере кога да го използва", + "agentSkillEdit.fileReadonly": "Този файл е само за четене. Могат да се редактират само описанието и инструкциите на умението.", + "agentSkillEdit.instructions": "Инструкции", + "agentSkillEdit.instructionsDesc": "Основните инструкции в Markdown, които определят поведението и работния процес на умението", + "agentSkillEdit.instructionsPlaceholder": "Въведете инструкциите за умението във формат Markdown...", + "agentSkillEdit.nameDesc": "Уникалният идентификатор за това умение, не може да се редактира след създаване", + "agentSkillEdit.saveSuccess": "Умението е успешно актуализирано", + "agentSkillEdit.title": "Настройки на умението", + "agentSkillItem.deleteConfirm.desc": "Сигурни ли сте, че искате да изтриете умението на агента \"{{name}}\"? Това действие не може да бъде отменено.", + "agentSkillItem.deleteConfirm.title": "Изтриване на умение на агент", + "agentSkillModal.content": "Съдържание на умението", + "agentSkillModal.contentPlaceholder": "Въведете съдържанието на умението във формат Markdown...", + "agentSkillModal.description": "Описание", + "agentSkillModal.descriptionPlaceholder": "Кратко опишете това умение", + "agentSkillModal.github.desc": "Импортирайте умения директно от публично GitHub хранилище.", + "agentSkillModal.github.title": "Импортиране от GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/потребител/хранилище", + "agentSkillModal.importError": "Импортирането не бе успешно: {{error}}", + "agentSkillModal.importSuccess": "Умението на агента е успешно импортирано", + "agentSkillModal.upload.desc": "Качете локален .zip или .skill файл за инсталиране.", + "agentSkillModal.upload.dragText": "Плъзнете и пуснете или кликнете, за да качите", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md съдържа име и описание на умението във формат YAML", + "agentSkillModal.upload.requirementZip": ".zip или .skill файл със SKILL.md в основната директория", + "agentSkillModal.upload.requirements": "Изисквания за файла", + "agentSkillModal.upload.title": "Качване на умение", + "agentSkillModal.upload.uploading": "Качване...", + "agentSkillModal.url.desc": "Импортирайте умение, като предоставите директен линк към SKILL.md файл.", + "agentSkillModal.url.title": "Импортиране от URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/път/до/SKILL.md", + "agentSkillTag": "Умение на агент", "agentTab.chat": "Предпочитания за чат", "agentTab.meta": "Информация за агента", "agentTab.modal": "Настройки на модела", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Посочете модел за превод", "systemAgent.translation.title": "Агент за превод на съобщения", "tab.about": "Относно", + "tab.addAgentSkill": "Добавяне на умение на агент", + "tab.addCustomMcp": "Добавяне на персонализирано MCP умение", + "tab.addCustomMcp.desc": "Ръчно конфигуриране на персонализиран MCP сървър", "tab.addCustomSkill": "Добавяне на персонализирано умение", "tab.agent": "Услуга за агент", "tab.all": "Всички", @@ -652,7 +691,13 @@ "tab.experiment": "Експеримент", "tab.hotkey": "Клавишни комбинации", "tab.image": "Услуга за генериране на изображения", + "tab.importFromGithub": "Импортиране от GitHub", + "tab.importFromGithub.desc": "Импортиране от публично GitHub хранилище", + "tab.importFromUrl": "Импортиране от URL", + "tab.importFromUrl.desc": "Импортиране чрез директен линк към SKILL.md", "tab.llm": "Езиков модел", + "tab.manualFill": "Ръчно попълване", + "tab.manualFill.desc": "Ръчно конфигуриране на персонализирано MCP умение", "tab.memory": "Памет", "tab.profile": "Моят акаунт", "tab.provider": "Доставчик на AI услуги", @@ -669,6 +714,8 @@ "tab.sync": "Облачна синхронизация", "tab.systemTools": "Системни инструменти", "tab.tts": "Текст в реч", + "tab.uploadZip": "Качване на Zip", + "tab.uploadZip.desc": "Качване на локален .zip или .skill файл", "tab.usage": "Статистика на използване", "tools.add": "Добави умение", "tools.builtins.groupName": "Вградени", diff --git a/locales/de-DE/common.json b/locales/de-DE/common.json index 9500fee6c6..e4335faa94 100644 --- a/locales/de-DE/common.json +++ b/locales/de-DE/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Geben Sie uns einen Stern auf GitHub", "footer.title": "Gefällt Ihnen unser Produkt?", "fullscreen": "Vollbildmodus", - "geminiImageChineseWarning.content": "Nano Banana kann gelegentlich keine Bilder generieren, wenn Chinesisch verwendet wird. Für bessere Ergebnisse wird empfohlen, Englisch zu verwenden.", - "geminiImageChineseWarning.continueGenerate": "Weiter generieren", - "geminiImageChineseWarning.continueSend": "Weiter senden", - "geminiImageChineseWarning.doNotShowAgain": "Nicht mehr anzeigen", - "geminiImageChineseWarning.title": "Hinweis zur chinesischen Eingabe", "historyRange": "Verlaufsspanne", "home.suggestQuestions": "Probieren Sie diese Beispiele aus", "import": "Importieren", @@ -397,6 +392,7 @@ "tab.chat": "Chat", "tab.community": "Community", "tab.discover": "Entdecken", + "tab.eval": "Bewertungslabor", "tab.files": "Dateien", "tab.home": "Startseite", "tab.knowledgeBase": "Bibliothek", diff --git a/locales/de-DE/eval.json b/locales/de-DE/eval.json new file mode 100644 index 0000000000..6258c51f81 --- /dev/null +++ b/locales/de-DE/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Benchmark löschen", + "benchmark.actions.delete.confirm": "Sind Sie sicher, dass Sie diesen Benchmark löschen möchten? Verknüpfte Datensätze und Bewertungsaufzeichnungen werden ebenfalls gelöscht.", + "benchmark.actions.edit": "Benchmark bearbeiten", + "benchmark.actions.export": "Exportieren", + "benchmark.card.bestScore": "Beste", + "benchmark.card.caseCount": "{{count}} Fälle", + "benchmark.card.datasetCount": "{{count}} Datensätze", + "benchmark.card.empty": "Noch keine Bewertungen", + "benchmark.card.emptyHint": "Erstellen Sie eine neue Bewertung auf der Benchmark-Detailseite", + "benchmark.card.importDataset": "Datensatz importieren", + "benchmark.card.noDataset": "Noch keine Datensätze", + "benchmark.card.noDatasetHint": "Importieren Sie einen Datensatz, um mit der Bewertung zu beginnen", + "benchmark.card.noRecentRuns": "Keine aktuellen Bewertungen anzuzeigen", + "benchmark.card.recentRuns": "Aktuelle Bewertungen", + "benchmark.card.runCount": "{{count}} Bewertungen", + "benchmark.card.startFirst": "Erste Bewertung starten", + "benchmark.card.viewAll": "Alle {{count}} anzeigen", + "benchmark.create.confirm": "Erstellen", + "benchmark.create.description.label": "Beschreibung", + "benchmark.create.description.placeholder": "Benchmark-Beschreibung (optional)", + "benchmark.create.error": "Benchmark konnte nicht erstellt werden", + "benchmark.create.identifier.label": "Kennung", + "benchmark.create.identifier.placeholder": "benchmark-kennung", + "benchmark.create.identifierRequired": "Bitte geben Sie eine Kennung ein", + "benchmark.create.name.label": "Name", + "benchmark.create.name.placeholder": "Benchmark-Namen eingeben", + "benchmark.create.nameRequired": "Bitte geben Sie einen Benchmark-Namen ein", + "benchmark.create.success": "Benchmark erfolgreich erstellt", + "benchmark.create.tags.label": "Tags", + "benchmark.create.tags.placeholder": "Tags hinzufügen, getrennt durch Komma oder Leerzeichen", + "benchmark.create.title": "Benchmark erstellen", + "benchmark.detail.backToOverview": "Zurück zur Übersicht", + "benchmark.detail.datasetCount": "{{count}} Datensatz{{count, plural, one {} other {e}}} in diesem Benchmark", + "benchmark.detail.runCount": "{{count}} Bewertungsdurchlauf{{count, plural, one {} other {e}}} auf diesem Benchmark", + "benchmark.detail.stats.addFirstDataset": "Klicken, um den ersten Datensatz hinzuzufügen", + "benchmark.detail.stats.avgCost": "Durchschn. Kosten", + "benchmark.detail.stats.avgDuration": "Durchschn. Dauer", + "benchmark.detail.stats.basedOnLastNRuns": "Basierend auf den letzten {{count}} Durchläufen", + "benchmark.detail.stats.bestPerformance": "Beste Leistung von {{agent}} mit {{passRate}}% Erfolgsquote", + "benchmark.detail.stats.bestScore": "Beste Punktzahl", + "benchmark.detail.stats.cases": "Fälle", + "benchmark.detail.stats.dataScale": "Datenumfang", + "benchmark.detail.stats.datasets": "Datensätze", + "benchmark.detail.stats.needSetup": "Einrichtung erforderlich", + "benchmark.detail.stats.noEvalRecord": "Noch keine Bewertungsaufzeichnungen", + "benchmark.detail.stats.perRun": "/ Durchlauf", + "benchmark.detail.stats.runs": "Durchläufe", + "benchmark.detail.stats.tags": "Tags", + "benchmark.detail.stats.topAgents": "Top-Agenten", + "benchmark.detail.stats.totalCases": "Gesamtanzahl der Fälle", + "benchmark.detail.stats.waiting": "Warten...", + "benchmark.detail.tabs.data": "Daten", + "benchmark.detail.tabs.datasets": "Datensätze", + "benchmark.detail.tabs.runs": "Durchläufe", + "benchmark.edit.confirm": "Speichern", + "benchmark.edit.error": "Benchmark konnte nicht aktualisiert werden", + "benchmark.edit.success": "Benchmark erfolgreich aktualisiert", + "benchmark.edit.title": "Benchmark bearbeiten", + "benchmark.empty": "Noch keine Benchmarks. Erstellen Sie einen, um zu beginnen.", + "caseDetail.actual": "Tatsächliche Ausgabe", + "caseDetail.chatArea.title": "Konversation", + "caseDetail.completionReason": "Status", + "caseDetail.cost": "Kosten", + "caseDetail.difficulty": "Schwierigkeit", + "caseDetail.duration": "Dauer", + "caseDetail.expected": "Erwartete Ausgabe", + "caseDetail.failureReason": "Fehlergrund", + "caseDetail.input": "Eingabe", + "caseDetail.judgeComment": "Kommentar des Richters", + "caseDetail.resources": "Ressourcen", + "caseDetail.score": "Punktzahl", + "caseDetail.section.runtime": "Laufzeit", + "caseDetail.section.scoring": "Bewertungsdetails", + "caseDetail.section.testCase": "Testfall", + "caseDetail.steps": "Schritte", + "caseDetail.threads.attempt": "Verlauf #{{number}}", + "caseDetail.tokens": "Token-Nutzung", + "common.cancel": "Abbrechen", + "common.create": "Erstellen", + "common.delete": "Löschen", + "common.edit": "Bearbeiten", + "common.later": "Später", + "common.next": "Weiter", + "common.update": "Aktualisieren", + "dataset.actions.addDataset": "Datensatz hinzufügen", + "dataset.actions.import": "Daten importieren", + "dataset.actions.importDataset": "Datensatz importieren", + "dataset.create.description.label": "Beschreibung", + "dataset.create.description.placeholder": "Datensatzbeschreibung (optional)", + "dataset.create.error": "Datensatz konnte nicht erstellt werden", + "dataset.create.identifier.label": "Kennung", + "dataset.create.identifier.placeholder": "datensatz-kennung", + "dataset.create.identifierRequired": "Bitte geben Sie eine Kennung ein", + "dataset.create.importNow": "Möchten Sie jetzt Daten importieren?", + "dataset.create.name.label": "Datensatzname", + "dataset.create.name.placeholder": "Datensatznamen eingeben", + "dataset.create.nameRequired": "Bitte geben Sie einen Datensatznamen ein", + "dataset.create.preset.label": "Datensatz-Voreinstellung", + "dataset.create.success": "Datensatz erfolgreich erstellt", + "dataset.create.successTitle": "Datensatz erstellt", + "dataset.create.title": "Datensatz erstellen", + "dataset.delete.confirm": "Sind Sie sicher, dass Sie diesen Datensatz löschen möchten? Alle darin enthaltenen Testfälle werden ebenfalls gelöscht.", + "dataset.delete.error": "Datensatz konnte nicht gelöscht werden", + "dataset.delete.success": "Datensatz erfolgreich gelöscht", + "dataset.detail.addRun": "Neuer Durchlauf", + "dataset.detail.backToBenchmark": "Zurück zum Benchmark", + "dataset.detail.caseCount": "{{count}} Testfall{{count, plural, one {} other {e}}}", + "dataset.detail.relatedRuns": "Verknüpfte Durchläufe ({{count}})", + "dataset.detail.testCases": "Testfälle", + "dataset.detail.viewDetail": "Details anzeigen", + "dataset.edit.error": "Datensatz konnte nicht aktualisiert werden", + "dataset.edit.success": "Datensatz erfolgreich aktualisiert", + "dataset.edit.title": "Datensatz bearbeiten", + "dataset.empty": "Keine Datensätze", + "dataset.empty.description": "Importieren Sie einen Datensatz, um diesen Benchmark zu erstellen", + "dataset.empty.title": "Noch keine Datensätze", + "dataset.evalMode.hint": "Standard-Bewertungsmodus für den Datensatz, kann auf Testfall-Ebene überschrieben werden", + "dataset.import.category": "Kategorie", + "dataset.import.categoryDesc": "Klassifikationslabel zur Gruppierung", + "dataset.import.choices": "Auswahlmöglichkeiten", + "dataset.import.choicesDesc": "Optionen für Mehrfachauswahl", + "dataset.import.confirm": "Importieren", + "dataset.import.error": "Datensatz konnte nicht importiert werden", + "dataset.import.expected": "Erwartete Antwort", + "dataset.import.expectedDelimiter": "Antwort-Trennzeichen", + "dataset.import.expectedDelimiter.desc": "Antwort-Trennzeichen", + "dataset.import.expectedDelimiter.placeholder": "z. B. | oder ,", + "dataset.import.expectedDesc": "Korrekte Antwort zum Vergleich", + "dataset.import.fieldMapping": "Feldzuordnung", + "dataset.import.fieldMapping.desc": "\"Eingabe\"-Spalte ist erforderlich", + "dataset.import.hideSkipped": "Übersprungene Spalten ausblenden", + "dataset.import.ignore": "Überspringen", + "dataset.import.ignoreDesc": "Diese Spalte nicht importieren", + "dataset.import.input": "Eingabe", + "dataset.import.inputDesc": "Frage oder Eingabeaufforderung an das Modell", + "dataset.import.metadata": "Metadaten", + "dataset.import.metadataDesc": "Zusätzliche Informationen, werden unverändert gespeichert", + "dataset.import.next": "Weiter", + "dataset.import.parseError": "Datei konnte nicht analysiert werden", + "dataset.import.parsing": "Datei wird analysiert...", + "dataset.import.prev": "Zurück", + "dataset.import.preview": "Datenvorschau", + "dataset.import.preview.desc": "Bestätigen Sie, dass die Zuordnung korrekt ist, und importieren Sie dann.", + "dataset.import.preview.rows": "{{count}} Zeilen insgesamt", + "dataset.import.sortOrder": "Artikelnummer", + "dataset.import.sortOrderDesc": "Frage-/Artikel-ID zur Referenz", + "dataset.import.step.mapping": "Felder zuordnen", + "dataset.import.step.preview": "Vorschau", + "dataset.import.step.upload": "Datei hochladen", + "dataset.import.success": "{{count}} Testfälle erfolgreich importiert", + "dataset.import.title": "Datensatz importieren", + "dataset.import.upload.hint": "Unterstützt CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Klicken oder Datei hierher ziehen, um hochzuladen", + "dataset.import.uploading": "Hochladen...", + "dataset.switchDataset": "Datensatz wechseln", + "difficulty.easy": "Einfach", + "difficulty.hard": "Schwierig", + "difficulty.medium": "Mittel", + "evalMode.contains": "Enthält Übereinstimmung", + "evalMode.contains.desc": "Ausgabe muss den erwarteten Text enthalten", + "evalMode.equals": "Exakte Übereinstimmung", + "evalMode.equals.desc": "Ausgabe muss genau mit der erwarteten übereinstimmen", + "evalMode.label": "Bewertungsmodus", + "evalMode.llm-rubric": "LLM-Richter", + "evalMode.llm-rubric.desc": "Verwenden Sie LLM, um die Ausgabequalität zu bewerten", + "evalMode.placeholder": "Bewertungsmodus auswählen", + "evalMode.prompt.label": "Richter-Aufforderung", + "evalMode.prompt.placeholder": "Geben Sie die Bewertungskriterien oder die Aufforderung für den LLM-Richter ein", + "evalMode.rubric": "Rubrik-Bewertung", + "evalMode.rubric.desc": "Bewerten Sie die Ausgabe mit Benchmark-Rubriken und gewichteten Kriterien", + "overview.createBenchmark": "Benchmark erstellen", + "overview.importDataset": "Datensatz importieren", + "overview.subtitle": "Bewerten und vergleichen Sie Ihre KI-Agenten über Datensätze hinweg", + "overview.title": "Bewertungslabor", + "run.actions.abort": "Abbrechen", + "run.actions.abort.confirm": "Sind Sie sicher, dass Sie diese Bewertung abbrechen möchten?", + "run.actions.create": "Neue Bewertung", + "run.actions.delete": "Löschen", + "run.actions.delete.confirm": "Sind Sie sicher, dass Sie diese Bewertung löschen möchten?", + "run.actions.edit": "Bearbeiten", + "run.actions.retryCase": "Erneut versuchen", + "run.actions.retryErrors": "Fehler erneut versuchen", + "run.actions.retryErrors.confirm": "Dies wird alle Fehler- und Timeout-Fälle erneut ausführen. Bestanden und fehlgeschlagene Fälle bleiben unberührt.", + "run.actions.run": "Ausführen", + "run.actions.start": "Starten", + "run.actions.start.confirm": "Sind Sie sicher, dass Sie diese Bewertung starten möchten?", + "run.chart.duration": "Dauer (s)", + "run.chart.error": "Fehler", + "run.chart.fail": "Fehlgeschlagen", + "run.chart.latencyDistribution": "Latenzverteilung", + "run.chart.latencyTokenDistribution": "Latenz / Token-Verteilung", + "run.chart.pass": "Bestanden", + "run.chart.passFailError": "Bestanden / Fehlgeschlagen / Fehler", + "run.chart.tokens": "Tokens", + "run.config.agentId": "Agent", + "run.config.concurrency": "Parallelität", + "run.config.judgeModel": "Richter-Modell", + "run.config.k": "Ausführungen (K)", + "run.config.k.hint": "Führen Sie jeden Testfall {{k}} Mal für pass@{{k}}/pass^{{k}}-Metriken aus", + "run.config.maxSteps": "Maximale Schritte", + "run.config.maxSteps.hint": "Jeder LLM-Aufruf oder Werkzeugaufruf durch den Agenten zählt als 1 Schritt", + "run.config.model": "Modell", + "run.config.temperature": "Temperatur", + "run.config.timeout": "Timeout", + "run.config.timeout.unit": "min", + "run.create.advanced": "Erweiterte Einstellungen", + "run.create.agent": "Agent", + "run.create.agent.placeholder": "Agent auswählen", + "run.create.agent.required": "Bitte wählen Sie einen Agenten aus", + "run.create.caseCount": "{{count}} Fälle", + "run.create.confirm": "Erstellen & Starten", + "run.create.createOnly": "Erstellen", + "run.create.dataset": "Datensatz", + "run.create.dataset.placeholder": "Datensatz auswählen", + "run.create.dataset.required": "Bitte wählen Sie einen Datensatz aus", + "run.create.name": "Bewertungsname", + "run.create.name.placeholder": "Geben Sie einen Namen für diese Bewertung ein", + "run.create.name.required": "Bitte geben Sie einen Bewertungsnamen ein", + "run.create.name.useTimestamp": "Aktuelle Zeit als Namen verwenden", + "run.create.openAgent": "Agent in neuem Fenster öffnen", + "run.create.title": "Neue Bewertung", + "run.create.titleWithDataset": "Neue Bewertung für \"{{dataset}}\"", + "run.detail.agent": "Agent", + "run.detail.agent.none": "Nicht angegeben", + "run.detail.agent.unnamed": "Unbenannter Agent", + "run.detail.backToBenchmark": "Zurück zum Benchmark", + "run.detail.caseResults": "Bewertungsdetails", + "run.detail.config": "Bewertungskonfiguration", + "run.detail.configSnapshot": "Konfigurations-Snapshot", + "run.detail.dataset": "Datensatz", + "run.detail.model": "Modell", + "run.detail.overview": "Übersicht", + "run.detail.progress": "Fortschritt", + "run.detail.progressCases": "Fälle", + "run.detail.report": "Bewertungszusammenfassung", + "run.edit.error": "Bewertung konnte nicht aktualisiert werden", + "run.edit.success": "Bewertung erfolgreich aktualisiert", + "run.edit.title": "Bewertung bearbeiten", + "run.empty.description": "Starten Sie Ihren ersten Bewertungsdurchlauf für diesen Datensatz", + "run.empty.descriptionBenchmark": "Starten Sie Ihren ersten Bewertungsdurchlauf für diesen Benchmark", + "run.empty.title": "Noch keine Durchläufe", + "run.filter.active": "Aktiv", + "run.filter.empty": "Keine Durchläufe entsprechen dem aktuellen Filter.", + "run.idle.hint": "Klicken Sie auf Start, um die Bewertung zu beginnen", + "run.metrics.avgScore": "Durchschn. Punktzahl", + "run.metrics.cost": "Kosten", + "run.metrics.duration": "Dauer", + "run.metrics.errorCases": "Fehler", + "run.metrics.evaluated": "{{count}} bewertet", + "run.metrics.passRate": "Erfolgsquote", + "run.metrics.perCase": "/ Fall", + "run.metrics.tokens": "Tokens", + "run.metrics.totalDuration": "Kumulativ", + "run.pending.hint": "Bewertung ist in der Warteschlange und wartet auf den Start...", + "run.running.hint": "Bewertung läuft, Ergebnisse werden in Kürze angezeigt...", + "run.status.aborted": "Abgebrochen", + "run.status.completed": "Abgeschlossen", + "run.status.error": "Bewertungsfehler", + "run.status.failed": "Fehlgeschlagen", + "run.status.idle": "Inaktiv", + "run.status.pending": "Ausstehend", + "run.status.running": "Läuft", + "run.status.timeout": "Zeitüberschreitung", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Dashboard", + "sidebar.datasets": "Datensätze", + "sidebar.runs": "Durchläufe", + "table.columns.avgCost": "Durchschn. Kosten", + "table.columns.category": "Kategorie", + "table.columns.cost": "Kosten", + "table.columns.difficulty": "Schwierigkeit", + "table.columns.duration": "Dauer", + "table.columns.evalMode": "Bewertungsmodus", + "table.columns.expected": "Erwartete Antwort", + "table.columns.input": "Eingabe", + "table.columns.score": "Punktzahl", + "table.columns.status": "Status", + "table.columns.steps": "Schritte", + "table.columns.tags": "Tags", + "table.columns.tokens": "Tokens", + "table.columns.totalCost": "Gesamtkosten", + "table.filter.all": "Alle", + "table.filter.error": "Bewertungsfehler", + "table.filter.failed": "Fehlgeschlagen", + "table.filter.passed": "Bestanden", + "table.filter.running": "Läuft", + "table.search.placeholder": "Fälle suchen...", + "table.total": "Insgesamt {{count}}", + "testCase.actions.add": "Testfall hinzufügen", + "testCase.actions.import": "Testfälle importieren", + "testCase.create.advanced": "Weitere Optionen", + "testCase.create.difficulty.label": "Schwierigkeit", + "testCase.create.error": "Testfall konnte nicht hinzugefügt werden", + "testCase.create.expected.label": "Erwartete Ausgabe", + "testCase.create.expected.placeholder": "Geben Sie die erwartete Antwort ein", + "testCase.create.expected.required": "Bitte geben Sie die erwartete Ausgabe ein", + "testCase.create.input.label": "Eingabe", + "testCase.create.input.placeholder": "Geben Sie die Eingabe oder Frage für den Testfall ein", + "testCase.create.success": "Testfall erfolgreich hinzugefügt", + "testCase.create.tags.label": "Tags", + "testCase.create.tags.placeholder": "Kommagetrennte Tags (optional)", + "testCase.create.title": "Testfall hinzufügen", + "testCase.delete.confirm": "Sind Sie sicher, dass Sie diesen Testfall löschen möchten?", + "testCase.delete.error": "Testfall konnte nicht gelöscht werden", + "testCase.delete.success": "Testfall gelöscht", + "testCase.edit.error": "Testfall konnte nicht aktualisiert werden", + "testCase.edit.success": "Testfall erfolgreich aktualisiert", + "testCase.edit.title": "Testfall bearbeiten", + "testCase.empty.description": "Importieren oder fügen Sie manuell Testfälle zu diesem Datensatz hinzu", + "testCase.empty.title": "Noch keine Testfälle", + "testCase.preview.expected": "Erwartet", + "testCase.preview.input": "Eingabe", + "testCase.preview.title": "Testfall-Vorschau", + "testCase.search.placeholder": "Fälle suchen..." +} diff --git a/locales/de-DE/home.json b/locales/de-DE/home.json index c52aa715b4..0c30d0b0d1 100644 --- a/locales/de-DE/home.json +++ b/locales/de-DE/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Tiefgehende Recherche", "starter.developing": "Demnächst verfügbar", "starter.image": "Bild", + "starter.nanoBanana2": "🍌 Nano-Banane 2", "starter.seedance": "Seedance 2.0", "starter.write": "Schreiben" } diff --git a/locales/de-DE/modelProvider.json b/locales/de-DE/modelProvider.json index ad37ffb2b6..231b4b01f3 100644 --- a/locales/de-DE/modelProvider.json +++ b/locales/de-DE/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Für die Gemini-Serie; steuert das Denkbudget.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Für Gemini 3 Flash Preview-Modelle; steuert die Denktiefe.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Für Gemini 3 Pro Preview-Modelle; steuert die Denktiefe.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Für Gemini 3.1 Pro Vorschau-Modelle; steuert die Denktiefe mit niedrigen/mittleren/hohen Stufen.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Für die Gemini-Serie; unterstützt die Bereitstellung von URL-Kontext.", "providerModels.item.modelConfig.extendParams.placeholder": "Wählen Sie zu aktivierende erweiterte Parameter", "providerModels.item.modelConfig.extendParams.previewFallback": "Vorschau nicht verfügbar", diff --git a/locales/de-DE/models.json b/locales/de-DE/models.json index 0751cf6542..f3ccb23cf1 100644 --- a/locales/de-DE/models.json +++ b/locales/de-DE/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo bietet starke Rechen- und Chatfähigkeiten mit exzellentem semantischen Verständnis und effizienter Textgenerierung – ideal für Unternehmen und Entwickler.", "360gpt2-o1.description": "360gpt2-o1 entwickelt Gedankengänge durch Baumsuche mit Reflexionsmechanismus und RL-Training, was Selbstreflexion und Selbstkorrektur ermöglicht.", "360gpt2-pro.description": "360GPT2 Pro ist ein fortschrittliches NLP-Modell von 360 mit herausragender Textgenerierung und -verarbeitung, besonders für kreative Aufgaben. Es bewältigt komplexe Transformationen und Rollenspiele.", + "360zhinao2-o1.5.description": "360 Zhinao ist das leistungsstärkste Modell für logisches Denken, mit den stärksten Fähigkeiten und Unterstützung für Werkzeugaufrufe sowie fortgeschrittenes logisches Denken.", "360zhinao2-o1.description": "360zhinao2-o1 entwickelt Gedankengänge durch Baumsuche mit Reflexionsmechanismus und RL-Training, was Selbstreflexion und Selbstkorrektur ermöglicht.", + "360zhinao3-o1.5.description": "360 Zhinao Next-Generation-Modell für logisches Denken.", "4.0Ultra.description": "Spark Ultra ist das leistungsstärkste Modell der Spark-Serie. Es verbessert das Textverständnis und die Zusammenfassung und optimiert die Websuche. Als umfassende Lösung steigert es die Produktivität am Arbeitsplatz und liefert präzise Antworten – ein führendes intelligentes Produkt.", "AnimeSharp.description": "AnimeSharp (auch bekannt als „4x-AnimeSharp“) ist ein quelloffenes Super-Resolution-Modell basierend auf ESRGAN von Kim2091. Es ist auf das Hochskalieren und Schärfen von Anime-Bildern spezialisiert. Im Februar 2022 wurde es von „4x-TextSharpV1“ umbenannt, ursprünglich auch für Textbilder gedacht, aber stark für Anime-Inhalte optimiert.", "Baichuan2-Turbo.description": "Verwendet Sucherweiterung, um das Modell mit domänenspezifischem und Webwissen zu verbinden. Unterstützt PDF-/Word-Uploads und URL-Eingaben für zeitnahe, umfassende Recherche und professionelle, präzise Ausgaben.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision ist ein hochmodernes multimodales Modell mit starker Leistung in Sprach-, Text- und Bildbenchmarks. Diese 8B-Version ist auf geringe Latenz und starke Leistung ausgelegt.", "charglm-3.description": "CharGLM-3 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.", "charglm-4.description": "CharGLM-4 wurde für Rollenspiele und emotionale Begleitung entwickelt. Es unterstützt extrem lange Dialogverläufe und personalisierte Gespräche.", - "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell mit Echtzeit-Updates, das starkes Verständnis und Textgenerierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technischen Support kombiniert.", + "chatgpt-4o-latest.description": "ChatGPT-4o ist ein dynamisches Modell, das in Echtzeit aktualisiert wird. Es kombiniert starkes Sprachverständnis und -generierung für großflächige Anwendungsfälle wie Kundensupport, Bildung und technische Unterstützung.", "claude-2.0.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.", "claude-2.1.description": "Claude 2 bietet wichtige Verbesserungen für Unternehmen, darunter einen führenden Kontext von 200.000 Token, reduzierte Halluzinationen, System-Prompts und ein neues Test-Feature: Tool-Nutzung.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku ist das schnellste Next-Gen-Modell von Anthropic und verbessert sich in zahlreichen Fähigkeiten. Es übertrifft das bisherige Flaggschiff Claude 3 Opus in vielen Benchmarks.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) ist ein innovatives Modell mit tiefem Sprachverständnis und Interaktionsfähigkeit.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 ist ein Next-Gen-Denkmodell mit stärkerem komplexem Denken und Chain-of-Thought für tiefgreifende Analyseaufgaben.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Next-Gen-Modell für logisches Denken mit stärkeren Fähigkeiten für komplexes Denken und Kettenlogik.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 ist ein MoE Vision-Language-Modell auf Basis von DeepSeekMoE-27B mit sparsamer Aktivierung. Es erreicht starke Leistung mit nur 4,5B aktiven Parametern und überzeugt bei visuellen QA-Aufgaben, OCR, Dokument-/Tabellen-/Diagrammverständnis und visueller Verankerung.", "deepseek-chat.description": "DeepSeek V3.2 bietet ein ausgewogenes Verhältnis zwischen logischem Denken und Ausgabelänge für tägliche Frage-Antwort- und Agentenaufgaben. Öffentliche Benchmarks erreichen GPT-5-Niveau. Es ist das erste Modell, das Denken in die Werkzeugnutzung integriert und führend in Open-Source-Agentenbewertungen.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B ist ein Code-Sprachmodell, trainiert auf 2 B Tokens (87 % Code, 13 % chinesisch/englischer Text). Es bietet ein 16K-Kontextfenster und Fill-in-the-Middle-Aufgaben für projektweite Codevervollständigung und Snippet-Ergänzung.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 ist ein neues hybrides Schlussfolgerungsmodell von DeepSeek, das sowohl Denk- als auch Nicht-Denk-Modi unterstützt und eine höhere Denkeffizienz als DeepSeek-R1-0528 bietet. Optimierungen nach dem Training verbessern die Nutzung von Agenten-Tools und die Leistung bei Agentenaufgaben erheblich. Es unterstützt ein Kontextfenster von 128k und bis zu 64k Ausgabetokens.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 ist ein Modell der nächsten Generation für komplexe Schlussfolgerungen und Gedankengänge, ideal für Aufgaben mit tiefgehender Analyse.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp führt Sparse Attention ein, um die Effizienz beim Training und bei der Inferenz bei langen Texten zu verbessern – zu einem günstigeren Preis als deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Bei hochkomplexen Aufgaben übertrifft das Speciale-Modell die Standardversion deutlich, verbraucht jedoch erheblich mehr Tokens und verursacht höhere Kosten. Derzeit ist DeepSeek-V3.2-Speciale nur für Forschungszwecke vorgesehen, unterstützt keine Werkzeugaufrufe und wurde nicht speziell für alltägliche Konversations- oder Schreibaufgaben optimiert.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think ist ein vollwertiges Denkmodell mit stärkerer langkettiger Argumentation.", "deepseek-v3.2.description": "DeepSeek-V3.2 ist das erste hybride Reasoning-Modell von DeepSeek, das Denkprozesse in die Werkzeugnutzung integriert. Es verwendet eine effiziente Architektur zur Reduzierung des Rechenaufwands, groß angelegte Verstärkungslernen zur Leistungssteigerung und synthetische Aufgabendaten zur besseren Generalisierung. Diese Kombination ermöglicht eine Leistung vergleichbar mit GPT-5-High bei deutlich kürzeren Ausgaben, was Rechenkosten und Wartezeiten für Nutzer erheblich reduziert.", "deepseek-v3.description": "DeepSeek-V3 ist ein leistungsstarkes MoE-Modell mit insgesamt 671 Milliarden Parametern und 37 Milliarden aktiven Parametern pro Token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen. Unterstützt ein Kontextfenster von 128k und bis zu 16k Ausgabetokens.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro ist ein verbessertes multimodales Modell, das Bilder in jeder Auflösung und extremen Seitenverhältnissen unterstützt. Es verbessert visuelles Denken, Dokumentenerkennung, Detailverständnis und Befolgen von Anweisungen.", - "doubao-lite-128k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 128k.", "doubao-lite-32k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.", - "doubao-lite-4k.description": "Ultraschnelle Reaktion mit besserem Preis-Leistungs-Verhältnis und flexiblen Einsatzmöglichkeiten. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 4k.", - "doubao-pro-256k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Texten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 256k.", "doubao-pro-32k.description": "Das leistungsstärkste Flaggschiffmodell für komplexe Aufgaben mit starken Ergebnissen in referenzbasierten Fragen, Zusammenfassungen, kreativen Texten, Textklassifikation und Rollenspielen. Unterstützt logisches Denken und Feinabstimmung mit einem Kontextfenster von 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash ist ein ultraschnelles multimodales Modell für tiefes logisches Denken mit einer TPOT von nur 10 ms. Es unterstützt Text- und Bildverarbeitung, übertrifft das vorherige Lite-Modell im Textverständnis und erreicht die Leistung konkurrierender Pro-Modelle im visuellen Bereich. Unterstützt ein Kontextfenster von 256k und bis zu 16k Ausgabetokens.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite ist ein neues multimodales Modell für tiefes logisches Denken mit einstellbarem Denkaufwand (Minimal, Niedrig, Mittel, Hoch). Es bietet ein besseres Preis-Leistungs-Verhältnis und ist eine starke Wahl für allgemeine Aufgaben. Unterstützt ein Kontextfenster von bis zu 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Das Doubao-Bildmodell von ByteDance Seed unterstützt Text- und Bildeingaben mit hochgradig kontrollierbarer, hochwertiger Bildgenerierung. Es unterstützt textgesteuerte Bildbearbeitung mit Ausgabengrößen zwischen 512 und 1536 auf der langen Seite.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 ist ein Bildgenerierungsmodell von ByteDance Seed, das Text- und Bildeingaben unterstützt und eine hochgradig kontrollierbare, hochwertige Bildgenerierung ermöglicht. Es erzeugt Bilder aus Texteingaben.", - "doubao-vision-lite-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.", - "doubao-vision-pro-32k.description": "Doubao-vision ist ein multimodales Modell von Doubao mit starkem Bildverständnis und logischem Denken sowie präziser Befolgung von Anweisungen. Es überzeugt bei Bild-Text-Extraktion und bildbasierten Denkaufgaben und ermöglicht komplexere und umfassendere visuelle Frage-Antwort-Szenarien.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 ist das neueste multimodale Bildmodell von ByteDance, das Text-zu-Bild, Bild-zu-Bild und Batch-Bilderzeugung integriert und dabei Allgemeinwissen und logisches Denken einbezieht. Im Vergleich zur vorherigen Version 4.0 bietet es eine deutlich verbesserte Generierungsqualität, bessere Konsistenz bei der Bearbeitung und Multi-Bild-Fusion. Es ermöglicht eine präzisere Kontrolle über visuelle Details, erzeugt kleine Texte und kleine Gesichter natürlicher und erreicht harmonischere Layouts und Farben, wodurch die Gesamtästhetik verbessert wird.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite ist das neueste Bildgenerierungsmodell von ByteDance. Erstmals integriert es Online-Retrieval-Funktionen, die es ermöglichen, Echtzeit-Webinformationen einzubeziehen und die Aktualität der generierten Bilder zu verbessern. Die Intelligenz des Modells wurde ebenfalls aufgerüstet, um komplexe Anweisungen und visuelle Inhalte präzise zu interpretieren. Darüber hinaus bietet es eine verbesserte globale Wissensabdeckung, Konsistenz bei Referenzen und Generierungsqualität in professionellen Szenarien, um den visuellen Erstellungsbedarf auf Unternehmensebene besser zu erfüllen.", "emohaa.description": "Emohaa ist ein Modell für psychische Gesundheit mit professionellen Beratungsfähigkeiten, das Nutzern hilft, emotionale Probleme zu verstehen.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B ist ein quelloffenes, leichtgewichtiges Modell für lokale und individuell angepasste Bereitstellungen.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking ist ein Text-MoE (Mixture-of-Experts)-Modell mit insgesamt 21 Milliarden Parametern und 3 Milliarden aktiven Parametern, das eine deutlich verbesserte Qualität und Tiefe des logischen Denkens bietet.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B ist ein quelloffenes Modell mit vielen Parametern und bietet eine verbesserte Fähigkeit zum Verstehen und Generieren.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B ist das ultra-große MoE-Modell von Baidu ERNIE mit herausragender Fähigkeit zum logischen Schlussfolgern.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview ist ein Vorschau-Modell mit 8K Kontextlänge zur Bewertung von ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K ist ein leichtgewichtiges Hochleistungsmodell für latenz- und kostensensitive Anwendungen.", "ernie-novel-8k.description": "ERNIE Novel 8K ist für Langform-Romane und IP-Plots mit mehreren Charakteren konzipiert.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K ist ein hochgradig skalierbares Modell für großflächige Online-Dienste und Unternehmensanwendungen.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview ist ein schnelles Denkmodell mit 32K Kontext für komplexes logisches Denken und mehrstufige Chats.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K ist ein schnelles Denkmodell mit 32K Kontext für komplexe Schlussfolgerungen und mehrstufige Gespräche.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview ist ein Vorschau-Modell mit Denkfähigkeit zur Bewertung und zum Testen.", + "ernie-x1.1.description": "ERNIE X1.1 ist ein Vorschau-Denkmodell für Evaluierung und Tests.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, entwickelt vom Seed-Team bei ByteDance, unterstützt Multi-Image-Bearbeitung und -Komposition. Es bietet verbesserte Subjektkonsistenz, präzise Befolgung von Anweisungen, Verständnis räumlicher Logik, ästhetischen Ausdruck, Poster-Layout und Logo-Design mit hochpräziser Text-Bild-Darstellung.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, entwickelt von ByteDance Seed, unterstützt Text- und Bildeingaben für eine hochgradig steuerbare, qualitativ hochwertige Bildgenerierung aus Prompts.", "fal-ai/flux-kontext/dev.description": "FLUX.1-Modell mit Fokus auf Bildbearbeitung, unterstützt Text- und Bildeingaben.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite ist Googles kleinstes und kosteneffizientestes Modell für großflächige Nutzung.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.", - "gemini-2.5-flash-preview-09-2025.description": "Vorschauversion (25. September 2025) von Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash ist Googles kosteneffizientestes Modell mit vollem Funktionsumfang.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview ist Googles fortschrittlichstes Reasoning-Modell, das über Code, Mathematik und MINT-Probleme nachdenken und große Datensätze, Codebasen und Dokumente mit langem Kontext analysieren kann.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Bildgenerierungsmodell mit Unterstützung für multimodale Dialoge.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) ist Googles Modell zur Bildgenerierung und unterstützt auch multimodale Konversationen.", "gemini-3-pro-preview.description": "Gemini 3 Pro ist Googles leistungsstärkstes Agenten- und Vibe-Coding-Modell. Es bietet reichhaltigere visuelle Inhalte und tiefere Interaktionen auf Basis modernster logischer Fähigkeiten.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Bildqualität auf Pro-Niveau mit Flash-Geschwindigkeit und unterstützt multimodale Chats.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) liefert Bildqualität auf Pro-Niveau mit Flash-Geschwindigkeit und unterstützt multimodale Chats.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbessert Gemini 3 Pro mit erweiterten Fähigkeiten für logisches Denken und unterstützt mittleres Denklevel.", "gemini-flash-latest.description": "Neueste Version von Gemini Flash", "gemini-flash-lite-latest.description": "Neueste Version von Gemini Flash-Lite", "gemini-pro-latest.description": "Neueste Version von Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.", "glm-4v-plus.description": "GLM-4V-Plus versteht Videos und mehrere Bilder und eignet sich für multimodale Aufgaben.", "glm-4v.description": "GLM-4V bietet starkes Bildverständnis und logisches Denken für visuelle Aufgaben.", - "glm-5.description": "Ein starkes Modell für Schlussfolgerungen und agentische Aufgaben von Z.ai mit insgesamt 744B Parametern (40B aktiv), entwickelt für komplexe Systemtechnik und langfristige Aufgaben.", + "glm-5.description": "Die GLM-Serie ist ein hybrides Modell für logisches Denken von Zhipu AI, das sowohl Denk- als auch Nicht-Denk-Modi bietet.", "glm-z1-air.description": "Ein Modell mit starker Argumentationsfähigkeit für Aufgaben, die tiefes Schlussfolgern erfordern.", "glm-z1-airx.description": "Ultraschnelles Schlussfolgern bei gleichzeitig hoher Denkqualität.", "glm-z1-flash.description": "Die GLM-Z1-Serie bietet starke Fähigkeiten im komplexen logischen Denken, insbesondere in Logik, Mathematik und Programmierung.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Wir freuen uns, Grok 4 Fast vorzustellen – unser neuester Fortschritt bei kosteneffizienten Denkmodellen.", "grok-4.description": "Unser neuestes und leistungsstärkstes Flaggschiffmodell, das in NLP, Mathematik und logischem Denken herausragt – ein idealer Allrounder.", "grok-code-fast-1.description": "Wir freuen uns, grok-code-fast-1 vorzustellen – ein schnelles und kosteneffizientes Denkmodell, das sich besonders für agentenbasiertes Programmieren eignet.", + "grok-imagine-image-pro.description": "Erstellen Sie Bilder aus Textvorgaben, bearbeiten Sie bestehende Bilder mit natürlicher Sprache oder verfeinern Sie Bilder iterativ durch mehrstufige Gespräche.", + "grok-imagine-image.description": "Erstellen Sie Bilder aus Textvorgaben, bearbeiten Sie bestehende Bilder mit natürlicher Sprache oder verfeinern Sie Bilder iterativ durch mehrstufige Gespräche.", "groq/compound-mini.description": "Compound-mini ist ein zusammengesetztes KI-System, das auf öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.", "groq/compound.description": "Compound ist ein zusammengesetztes KI-System, das auf mehreren öffentlich verfügbaren Modellen basiert und auf GroqCloud unterstützt wird. Es nutzt intelligent und selektiv Tools zur Beantwortung von Nutzeranfragen.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B ist ein kreatives, intelligentes Sprachmodell, das aus mehreren Spitzenmodellen zusammengeführt wurde.", + "hunyuan-2.0-instruct-20251111.description": "Release-Features: Die Modellbasis wurde von TurboS auf **Hunyuan 2.0** aufgerüstet, was umfassende Verbesserungen der Fähigkeiten mit sich bringt. Es verbessert signifikant die Befolgung von Anweisungen, das Verständnis von mehrstufigen und langen Texten, literarische Kreation, Wissensgenauigkeit, Codierung und logisches Denken.", + "hunyuan-2.0-thinking-20251109.description": "Release-Features: Die Modellbasis wurde von TurboS auf **Hunyuan 2.0** aufgerüstet, was umfassende Verbesserungen der Fähigkeiten mit sich bringt. Es verbessert signifikant die Fähigkeit des Modells, komplexe Anweisungen zu befolgen, mehrstufige und lange Texte zu verstehen, Code zu verarbeiten, als Agent zu agieren und logische Denkaufgaben auszuführen.", "hunyuan-a13b.description": "Das erste hybride Denkmodell von Hunyuan, aufgerüstet von hunyuan-standard-256K (80B gesamt, 13B aktiv). Standardmäßig im langsamen Denkmodus, unterstützt Umschaltung zwischen schnell/langsam über Parameter oder Präfix /no_think. Insgesamt verbesserte Fähigkeiten gegenüber der vorherigen Generation, insbesondere in Mathematik, Wissenschaft, Langtextverständnis und Agentenaufgaben.", - "hunyuan-code.description": "Neuestes Codegenerierungsmodell, trainiert mit 200B hochwertigem Code und sechs Monaten SFT; Kontext erweitert auf 8K. Führend in automatisierten Benchmarks für fünf Programmiersprachen und in menschlichen Bewertungen nach zehn Kriterien.", - "hunyuan-functioncall.description": "Neuestes MoE FunctionCall-Modell, trainiert mit hochwertigen Funktionsaufrufdaten, mit 32K Kontextfenster und führenden Benchmark-Ergebnissen in mehreren Dimensionen.", - "hunyuan-large-longcontext.description": "Hervorragend bei Langdokumentaufgaben wie Zusammenfassungen und Fragenbeantwortung, bewältigt aber auch allgemeine Generierung. Starke Analyse und Generierung von langen, komplexen Inhalten.", - "hunyuan-large-vision.description": "Ein visuell-sprachliches Modell, trainiert auf Basis von Hunyuan Large für Bild-Text-Verständnis. Unterstützt Multi-Bild- + Texteingaben in beliebiger Auflösung und verbessert das mehrsprachige visuelle Verständnis.", - "hunyuan-large.description": "Hunyuan-large verfügt über ~389B Gesamtparameter und ~52B aktive – das größte und leistungsstärkste offene MoE-Modell in einer Transformer-Architektur.", - "hunyuan-lite-vision.description": "Neuestes 7B multimodales Modell mit 32K Kontextfenster, unterstützt chinesisch/englischen multimodalen Chat, Objekterkennung, Dokumenttabellenverständnis und multimodale Mathematik, übertrifft 7B-Konkurrenzmodelle in mehreren Benchmarks.", + "hunyuan-code.description": "Das neueste Code-Modell von Hunyuan, trainiert mit 200 Milliarden hochwertigen Code-Daten plus sechs Monaten SFT-Daten, mit 8K Kontext. Es rangiert nahe der Spitze in automatisierten Code-Benchmarks und in Expertenbewertungen über fünf Sprachen hinweg.", + "hunyuan-functioncall.description": "Das neueste MoE FunctionCall-Modell von Hunyuan, trainiert mit hochwertigen Werkzeugaufruf-Daten, mit einem 32K Kontextfenster und führenden Benchmarks über verschiedene Dimensionen.", "hunyuan-lite.description": "Aufgerüstet auf eine MoE-Architektur mit 256K Kontextfenster, führend gegenüber vielen offenen Modellen in NLP, Code, Mathematik und Branchenbenchmarks.", "hunyuan-pro.description": "MoE-Modell mit Billionenparametern und 32K Kontext, führend in Benchmarks, stark bei komplexen Anweisungen und logischem Denken, fortgeschrittener Mathematik, Funktionsaufrufen und optimiert für mehrsprachige Übersetzung, Finanzen, Recht und Medizin.", - "hunyuan-role.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.", - "hunyuan-standard-256K.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-256K erweitert Kontextlänge und -qualität weiter.", - "hunyuan-standard-vision.description": "Neuestes multimodales Modell mit mehrsprachigen Antworten und ausgewogener chinesisch/englischer Fähigkeit.", - "hunyuan-standard.description": "Verwendet verbessertes Routing zur Minderung von Lastverteilung und Expertenkollaps. Erreicht 99,9 % Trefferquote bei Nadel-im-Heuhaufen-Aufgaben im langen Kontext. MOE-32K bietet starken Mehrwert bei der Verarbeitung langer Eingaben.", - "hunyuan-t1-20250321.description": "Vereint künstlerische und MINT-Fähigkeiten mit starkem Langtextverständnis. Unterstützt logische Antworten für Mathematik-, Logik-, Wissenschafts- und Programmierprobleme auf verschiedenen Schwierigkeitsstufen.", - "hunyuan-t1-20250403.description": "Verbessert die Codegenerierung auf Projektebene und die Schreibqualität, stärkt das Verständnis mehrerer Gesprächsrunden und die Befolgung von ToB-Anweisungen, verbessert das Wortverständnis und reduziert Probleme mit gemischter vereinfachter/traditioneller und chinesisch/englischer Ausgabe.", - "hunyuan-t1-20250529.description": "Verbessert kreatives Schreiben und Komposition, stärkt Frontend-Programmierung, Mathematik und logisches Denken sowie die Befolgung von Anweisungen.", - "hunyuan-t1-20250711.description": "Verbessert stark schwierige Mathematik-, Logik- und Programmierfähigkeiten, erhöht die Ausgabestabilität und stärkt die Langtextverarbeitung.", + "hunyuan-role.description": "Das neueste Rollenspiel-Modell von Hunyuan, offiziell mit Rollenspiel-Daten feinabgestimmt, bietet stärkere Basisleistung in Rollenspiel-Szenarien.", + "hunyuan-standard-256K.description": "Verwendet verbessertes Routing, um Lastenausgleich und Expertenzusammenbruch zu mildern. Langtext-\"Nadel im Heuhaufen\" erreicht 99,9%. MOE-256K erweitert die Eingabelänge und Qualität erheblich.", + "hunyuan-standard.description": "Verwendet verbessertes Routing, um Lastenausgleich und Expertenzusammenbruch zu mildern. Langtext-\"Nadel im Heuhaufen\" erreicht 99,9%. MOE-32K bietet ein besseres Preis-Leistungs-Verhältnis bei gleichzeitiger Balance von Qualität und Preis für Langtexteingaben.", "hunyuan-t1-latest.description": "Verbessert das langsame Denkmodell deutlich bei schwieriger Mathematik, komplexem logischen Denken, anspruchsvoller Programmierung, Befolgung von Anweisungen und kreativer Schreibqualität.", - "hunyuan-t1-vision-20250619.description": "Neuestes t1-vision multimodales Modell mit tiefem logischen Denken und nativer Kettenlogik, deutlich verbessert gegenüber der vorherigen Standardversion.", "hunyuan-t1-vision-20250916.description": "Neuestes t1-vision Modell mit großen Fortschritten in VQA, visueller Verankerung, OCR, Diagrammen, Lösung fotografierter Aufgaben und bildbasierter Kreation sowie stärkerem Englisch und Unterstützung für ressourcenschwache Sprachen.", - "hunyuan-turbo-20241223.description": "Diese Version verbessert die Skalierung von Anweisungen für bessere Generalisierung, stärkt Mathematik-/Code-/Logikdenken, verbessert das Wortverständnis und die Schreibqualität.", - "hunyuan-turbo-latest.description": "Allgemeine Verbesserungen in NLP-Verständnis, Schreiben, Chat, QA, Übersetzung und Fachgebieten; menschlichere Antworten, bessere Klärung bei unklarer Absicht, verbessertes Wortverständnis, höhere kreative Qualität und Interaktivität sowie stärkere Mehrfachdialoge.", - "hunyuan-turbo-vision.description": "Flaggschiff der nächsten Generation im Bereich Vision-Language mit neuer MoE-Architektur, umfassenden Verbesserungen in Erkennung, Inhaltserstellung, Wissens-QA und analytischem Denken.", "hunyuan-turbo.description": "Vorschau auf Hunyuan’s LLM der nächsten Generation mit neuer MoE-Architektur, liefert schnelleres Denken und bessere Ergebnisse als hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Vereinheitlicht den Stil mathematischer Lösungen und verbessert mehrstufige Mathematik-Fragen. Der Schreibstil wurde verfeinert, um den KI-typischen Ton zu reduzieren und die Ausdrucksweise zu verbessern.", - "hunyuan-turbos-20250416.description": "Verbesserte Pretraining-Basis zur besseren Verständnis und Befolgung von Anweisungen; Ausrichtung verbessert Mathematik, Programmierung, Logik und Naturwissenschaften; verbessert Schreibqualität, Textverständnis, Übersetzungsgenauigkeit und Wissensfragen; stärkt Agentenfähigkeiten, insbesondere bei mehrstufigem Verständnis.", - "hunyuan-turbos-20250604.description": "Verbesserte Pretraining-Basis mit besserem Schreiben und Leseverständnis, deutlichen Fortschritten in Programmierung und MINT-Fächern sowie besserem Umgang mit komplexen Anweisungen.", - "hunyuan-turbos-20250926.description": "Verbesserte Qualität der Pretraining-Daten und Post-Training-Strategie, wodurch Agenten, Englisch/niedrig-resourcige Sprachen, Anweisungsbefolgung, Programmierung und MINT-Fähigkeiten verbessert werden.", "hunyuan-turbos-latest.description": "Das neueste Hunyuan TurboS-Flaggschiffmodell mit stärkerem logischen Denken und insgesamt besserer Nutzererfahrung.", - "hunyuan-turbos-longtext-128k-20250325.description": "Hervorragend bei Aufgaben mit langen Dokumenten wie Zusammenfassungen und Fragenbeantwortung, beherrscht aber auch allgemeine Textgenerierung. Besonders stark bei Analyse und Erstellung komplexer, detaillierter Langtexte.", - "hunyuan-turbos-role-plus.description": "Neuestes Rollenspielmodell, offiziell auf Rollenspieldatensätzen feinabgestimmt, mit verbesserter Basisleistung für Rollenspielszenarien.", - "hunyuan-turbos-vision-20250619.description": "Neuestes TurboS Vision-Language-Flaggschiff mit großen Fortschritten bei Bild-Text-Aufgaben wie Objekterkennung, Wissensfragen, Werbetexten und bildbasiertem Problemlösen.", - "hunyuan-turbos-vision.description": "Ein Next-Gen Vision-Language-Flaggschiff basierend auf dem neuesten TurboS, spezialisiert auf Bild-Text-Verständnisaufgaben wie Objekterkennung, Wissensfragen, Werbetexte und bildbasiertes Problemlösen.", - "hunyuan-vision-1.5-instruct.description": "Ein schnelles Bild-zu-Text-Modell basierend auf dem Text-TurboS-Modell, mit deutlichen Verbesserungen gegenüber der Vorgängerversion in den Bereichen Bildgrundlagen-Erkennung und Bildanalyse-Logik.", - "hunyuan-vision.description": "Neuestes multimodales Modell mit Unterstützung für Bild- und Texteingaben zur Textgenerierung.", + "hunyuan-vision-1.5-instruct.description": "Ein schnelles Denkmodell für Bild-zu-Text, basierend auf der TurboS-Textbasis, mit bemerkenswerten Verbesserungen gegenüber der vorherigen Version in grundlegender Bilderkennung und Bildanalyse.", + "hunyuan-vision.description": "Das neueste multimodale Modell von Hunyuan unterstützt Bild- und Texteingaben zur Textgenerierung.", "image-01-live.description": "Ein Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild-Generierung und steuerbare Stilvorgaben unterstützt.", "image-01.description": "Ein neues Bildgenerierungsmodell mit feinen Details, das Text-zu-Bild- und Bild-zu-Bild-Generierung unterstützt.", "imagen-4.0-fast-generate-001.description": "Schnellversion der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.", "imagen-4.0-generate-001.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellreihe.", - "imagen-4.0-generate-preview-06-06.description": "Vierte Generation der Imagen-Text-zu-Bild-Modellfamilie.", "imagen-4.0-ultra-generate-001.description": "Ultra-Version der vierten Generation der Imagen-Text-zu-Bild-Modellreihe.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Ultra-Variante der vierten Generation der Imagen-Text-zu-Bild-Modelle.", "inception/mercury-coder-small.description": "Mercury Coder Small eignet sich ideal für Codegenerierung, Debugging und Refactoring mit minimaler Latenz.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 ist das dritte Modell der Ling 2.0-Architektur vom Bailing-Team der Ant Group. Es handelt sich um ein MoE-Modell mit insgesamt 100 Milliarden Parametern, von denen nur 6,1 Milliarden pro Token aktiv sind (4,8 Milliarden ohne Einbettung). Trotz der schlanken Konfiguration erreicht es die Leistung von 40B-dichten Modellen und übertrifft sogar größere MoE-Modelle in mehreren Benchmarks – ein Beweis für hohe Effizienz durch Architektur und Trainingsstrategie.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 ist ein kleines, leistungsstarkes MoE-LLM mit 16 Milliarden Gesamtparametern und nur 1,4 Milliarden aktiven Parametern pro Token (789 Millionen ohne Einbettung), das eine sehr schnelle Generierung ermöglicht. Dank effizientem MoE-Design und großen, hochwertigen Trainingsdaten erreicht es eine Spitzenleistung, vergleichbar mit dichten Modellen unter 10B und größeren MoE-Modellen.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T ist das Billionen-Parameter-MoE-Modell von inclusionAI für groß angelegte Denk- und Forschungsaufgaben.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 ist eine Variante des Ring-Modells von inclusionAI für Szenarien mit hohem Durchsatz, mit Fokus auf Geschwindigkeit und Kosteneffizienz.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 ist das leichtgewichtige Hochdurchsatz-MoE-Modell von inclusionAI, entwickelt für gleichzeitige Verarbeitung.", + "intern-latest.description": "Standardmäßig verweist es auf unser neuestes veröffentlichtes Modell der Intern-Serie, derzeit auf intern-s1-pro eingestellt.", + "intern-s1-mini.description": "Ein leichtgewichtiges multimodales Großmodell mit starken wissenschaftlichen Denkfähigkeiten.", + "intern-s1-pro.description": "Wir haben unser fortschrittlichstes Open-Source-Multimodales Denkmodell eingeführt, das derzeit das leistungsstärkste Open-Source-Multimodale Großmodell in Bezug auf die Gesamtleistung ist.", + "intern-s1.description": "Das Open-Source-Multimodale Denkmodell demonstriert nicht nur starke allgemeine Fähigkeiten, sondern erreicht auch Spitzenleistungen in einer Vielzahl wissenschaftlicher Aufgaben.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat ist ein Open-Source-Chatmodell basierend auf der InternLM2-Architektur. Das 7B-Modell konzentriert sich auf Dialoggenerierung mit Unterstützung für Chinesisch und Englisch und nutzt modernes Training für flüssige, intelligente Konversationen. Es eignet sich für viele Chat-Szenarien wie Kundensupport und persönliche Assistenten.", - "internlm2.5-latest.description": "Legacy-Modelle, die weiterhin gepflegt werden und nach vielen Iterationen eine hervorragende, stabile Leistung bieten. Verfügbar in 7B- und 20B-Größen, mit Unterstützung für 1M-Kontext und verbesserter Befolgung von Anweisungen sowie Werkzeugnutzung. Standardmäßig wird die neueste InternLM2.5-Serie verwendet (derzeit internlm2.5-20b-chat).", - "internlm3-latest.description": "Unsere neueste Modellreihe mit exzellenter Denkleistung, führend unter offenen Modellen ihrer Größenklasse. Standardmäßig wird die neueste InternLM3-Serie verwendet (derzeit internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO ist ein multimodales vortrainiertes Modell für komplexes Bild-Text-Denken.", - "internvl2.5-latest.description": "InternVL2.5 wird weiterhin gepflegt und bietet starke, stabile Leistung. Standardmäßig wird die neueste InternVL2.5-Serie verwendet (derzeit internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B ist ein mittelgroßes multimodales Modell mit ausgewogenem Verhältnis von Leistung und Kosten.", "internvl3-1b.description": "InternVL3 1B ist ein leichtgewichtiges multimodales Modell für ressourcenbeschränkte Einsätze.", "internvl3-38b.description": "InternVL3 38B ist ein großes Open-Source-Multimodalmodell für hochpräzises Bild-Text-Verständnis.", - "internvl3-latest.description": "Unser neuestes multimodales Modell mit verbessertem Bild-Text-Verständnis und Langsequenz-Bildverarbeitung, vergleichbar mit führenden geschlossenen Modellen. Standardmäßig wird die neueste InternVL-Serie verwendet (derzeit internvl3-78b).", + "internvl3.5-241b-a28b.description": "Unser neu veröffentlichtes multimodales Großmodell bietet verbesserte Bild- und Textverständnisfähigkeiten sowie Langsequenz-Bildverständnis, mit einer Leistung, die mit führenden Closed-Source-Modellen vergleichbar ist.", + "internvl3.5-latest.description": "Standardmäßig verweist es auf das neueste Modell der InternVL3.5-Serie, derzeit auf internvl3.5-241b-a28b eingestellt.", "irag-1.0.description": "ERNIE iRAG ist ein Modell zur bildgestützten Generierung mit Bildsuche, Bild-Text-Retrieval und Inhaltserstellung.", "jamba-large.description": "Unser leistungsstärkstes und fortschrittlichstes Modell, entwickelt für komplexe Unternehmensaufgaben mit herausragender Leistung.", "jamba-mini.description": "Das effizienteste Modell seiner Klasse – vereint Geschwindigkeit und Qualität bei geringem Ressourcenverbrauch.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 ist ein effizientes großes Sprachmodell, das speziell für Programmierung und Agenten-Workflows entwickelt wurde.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 ist ein leichtgewichtiges, hochmodernes großes Sprachmodell, optimiert für Programmierung, Proxy-Workflows und moderne Anwendungsentwicklung. Es liefert klarere, prägnantere Ausgaben und schnellere Reaktionszeiten.", "minimax/minimax-m2.description": "MiniMax-M2 ist ein leistungsstarkes Modell, das sich in vielen technischen Szenarien bei Programmier- und Agentenaufgaben bewährt.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 ist ein kompaktes, schnelles und kosteneffizientes MoE-Modell, das für erstklassige Codierung und Agentenleistung entwickelt wurde.", "minimaxai/minimax-m2.description": "MiniMax-M2 ist ein kompaktes, schnelles und kosteneffizientes MoE-Modell (230B gesamt, 10B aktiv), das für erstklassige Programmier- und Agentenleistung entwickelt wurde und gleichzeitig starke allgemeine Intelligenz beibehält. Es glänzt bei Mehrdatei-Bearbeitungen, Code-Ausführen-Korrigieren-Schleifen, Testvalidierung und komplexen Toolchains.", "ministral-3b-latest.description": "Ministral 3B ist das Spitzenmodell von Mistral für Edge-Anwendungen.", "ministral-8b-latest.description": "Ministral 8B ist ein äußerst kosteneffizientes Edge-Modell von Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Das Modell kimi-k2-0905-preview unterstützt ein Kontextfenster von 256K, bietet stärkere agentenbasierte Codierung, ausgereifteren und praxisnahen Frontend-Code sowie ein besseres Kontextverständnis.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo ist eine Hochgeschwindigkeitsversion von Kimi K2 Thinking mit deutlich reduzierter Latenz bei gleichbleibender Tiefe im Denkprozess.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking ist Moonshots Modell für Denkprozesse, optimiert für tiefgehende Aufgaben mit allgemeinen Agentenfähigkeiten.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 ist das intelligenteste Kimi-Modell bisher, mit nativer multimodaler Architektur.", "moonshotai/kimi-k2.description": "Kimi K2 ist ein großes MoE-Modell von Moonshot AI mit 1T Gesamtparametern und 32B aktiven Parametern pro Durchlauf. Es ist optimiert für Agentenfähigkeiten wie fortgeschrittene Werkzeugnutzung, logisches Denken und Code-Synthese.", "morph/morph-v3-fast.description": "Morph bietet ein spezialisiertes Modell, um Codeänderungen anzuwenden, die von fortschrittlichen Modellen (z. B. Claude oder GPT-4o) vorgeschlagen wurden – mit über 4500 Tokens/Sek. Es ist der letzte Schritt in einem KI-Coding-Workflow und unterstützt 16k Eingabe-/Ausgabe-Tokens.", "morph/morph-v3-large.description": "Morph bietet ein spezialisiertes Modell, um Codeänderungen anzuwenden, die von fortschrittlichen Modellen (z. B. Claude oder GPT-4o) vorgeschlagen wurden – mit über 2500 Tokens/Sek. Es ist der letzte Schritt in einem KI-Coding-Workflow und unterstützt 16k Eingabe-/Ausgabe-Tokens.", + "musesteamer-air-image.description": "musesteamer-air-image ist ein Bildgenerierungsmodell, das von Baidus Suchteam entwickelt wurde, um außergewöhnliche Kosten-Leistungs-Verhältnisse zu bieten. Es kann schnell klare, handlungskoherente Bilder basierend auf Benutzeranweisungen generieren und Benutzerbeschreibungen mühelos in visuelle Darstellungen umwandeln.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B ist eine aktualisierte Version von Nous Hermes 2 mit den neuesten intern entwickelten Datensätzen.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B ist ein von NVIDIA angepasstes LLM zur Verbesserung der Nützlichkeit. Es erzielt Spitzenwerte bei Arena Hard, AlpacaEval 2 LC und GPT-4-Turbo MT-Bench und belegt am 1. Oktober 2024 Platz 1 in allen drei Auto-Alignment-Benchmarks. Es wurde aus Llama-3.1-70B-Instruct mithilfe von RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward und HelpSteer2-Preference-Prompts trainiert.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Ein einzigartiges Sprachmodell mit außergewöhnlicher Genauigkeit und Effizienz.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Basierend auf Kontextlänge, Thema und Komplexität wird Ihre Anfrage an Llama 3 70B Instruct, Claude 3.5 Sonnet (selbstmoderiert) oder GPT-4o weitergeleitet.", "oswe-vscode-prime.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.", "oswe-vscode-secondary.description": "Raptor mini ist ein Vorschau-Modell, das für Aufgaben rund ums Programmieren optimiert wurde.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Modell, das ein Gleichgewicht zwischen hoher Recheneffizienz und hervorragender Leistung in logischem Denken und Agentenfähigkeiten bietet.", "perplexity/sonar-pro.description": "Perplexitys Flaggschiffprodukt mit Suchverankerung, unterstützt komplexe Anfragen und Folgefragen.", "perplexity/sonar-reasoning-pro.description": "Ein fortschrittliches Modell mit Fokus auf logisches Denken, das CoT mit erweiterter Suche ausgibt, einschließlich mehrerer Suchanfragen pro Anfrage.", "perplexity/sonar-reasoning.description": "Ein Modell mit Fokus auf logisches Denken, das Chain-of-Thought (CoT) mit detaillierten, suchbasierten Erklärungen liefert.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen-Code-Modell.", "qwen-coder-turbo.description": "Qwen-Code-Modell.", "qwen-flash.description": "Schnellstes und kostengünstigstes Qwen-Modell, ideal für einfache Aufgaben.", + "qwen-image-edit-max.description": "Das Qwen-Bildbearbeitungsmodell unterstützt Mehrfach-Bildeingaben und -ausgaben, ermöglicht präzise Textbearbeitung im Bild, das Hinzufügen, Entfernen oder Verschieben von Objekten, die Modifikation von Aktionen von Subjekten, den Stiltransfer von Bildern und verbesserte visuelle Details.", + "qwen-image-edit-plus.description": "Das Qwen-Bildbearbeitungsmodell unterstützt Mehrfach-Bildeingaben und -ausgaben, ermöglicht präzise Textbearbeitung im Bild, das Hinzufügen, Entfernen oder Verschieben von Objekten, die Modifikation von Aktionen von Subjekten, den Stiltransfer von Bildern und verbesserte visuelle Details.", "qwen-image-edit.description": "Qwen Image Edit ist ein Bild-zu-Bild-Modell, das Bilder basierend auf Eingabebildern und Textanweisungen bearbeitet – für präzise Anpassungen und kreative Transformationen.", + "qwen-image-max.description": "Das Qwen-Bildgenerierungsmodell (Max-Serie) bietet verbesserte Realismus und visuelle Natürlichkeit im Vergleich zur Plus-Serie, reduziert effektiv KI-generierte Artefakte und zeigt herausragende Leistung bei menschlichem Erscheinungsbild, Texturdetails und Textrendering.", + "qwen-image-plus.description": "Es unterstützt eine breite Palette künstlerischer Stile und ist besonders versiert im Rendern komplexer Texte innerhalb von Bildern, wodurch integrierte Bild-Text-Layout-Designs ermöglicht werden.", "qwen-image.description": "Qwen-Image ist ein allgemeines Bildgenerierungsmodell mit Unterstützung für verschiedene Kunststile und starker Textdarstellung, insbesondere in Chinesisch und Englisch. Es unterstützt mehrzeilige Layouts, Absatztexte und feine Details für komplexe Text-Bild-Layouts.", "qwen-long.description": "Ultragroßes Qwen-Modell mit langem Kontext und Chat über lange und mehrteilige Dokumente hinweg.", "qwen-math-plus-latest.description": "Qwen Math ist ein Sprachmodell, das auf das Lösen mathematischer Probleme spezialisiert ist.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Open-Source-Qwen-Code-Modell. Das neueste qwen3-coder-30b-a3b-instruct basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct ist ein Flaggschiff-Code-Modell für mehrsprachige Programmierung und komplexes Codeverständnis.", "qwen3-coder-flash.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.", + "qwen3-coder-next.description": "Next-Gen Qwen-Coder optimiert für komplexe Multi-Datei-Codegenerierung, Debugging und hochdurchsatzfähige Agenten-Workflows. Entwickelt für starke Werkzeugintegration und verbesserte Leistung im logischen Denken.", "qwen3-coder-plus.description": "Qwen-Code-Modell. Die neueste Qwen3-Coder-Serie basiert auf Qwen3 und bietet starke Fähigkeiten für Coding-Agenten, Werkzeugnutzung und Interaktion mit Umgebungen für autonomes Programmieren, mit exzellenter Codeleistung und solider Allgemeinkompetenz.", "qwen3-coder:480b.description": "Alibabas leistungsstarkes Langkontextmodell für Agenten- und Programmieraufgaben.", "qwen3-max-2026-01-23.description": "Qwen3 Max-Modelle bieten große Fortschritte gegenüber der 2.5-Serie in allgemeinen Fähigkeiten, chinesisch/englischem Verständnis, komplexer Befehlsverarbeitung, offenen subjektiven Aufgaben, Mehrsprachigkeit und Werkzeugnutzung – mit weniger Halluzinationen. Die neueste Version verbessert agentenbasiertes Programmieren und Werkzeugnutzung gegenüber qwen3-max-preview. Diese Veröffentlichung erreicht SOTA in ihrem Bereich und zielt auf komplexere Agentenanforderungen ab.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking ist ein multimodales Chain-of-Thought-Modell für detailliertes visuelles Denken.", "qwen3-vl-flash.description": "Qwen3 VL Flash: leichtgewichtige, hochschnelle Denkversion für latenzempfindliche oder hochvolumige Anfragen.", "qwen3-vl-plus.description": "Qwen VL ist ein Textgenerierungsmodell mit Bildverständnis. Es kann OCR durchführen sowie zusammenfassen und schlussfolgern, z. B. Attribute aus Produktfotos extrahieren oder Probleme aus Bildern lösen.", + "qwen3.5-397b-a17b.description": "Unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, bietet jedoch höhere Effizienz und niedrigere Kosten. In multimodalen Fähigkeiten bietet es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", + "qwen3.5-plus.description": "Qwen3.5 Plus unterstützt Text-, Bild- und Videoeingaben. Für reine Textaufgaben ist die Leistung vergleichbar mit Qwen3 Max, während es bessere Effizienz und niedrigere Kosten bietet. In Bezug auf multimodale Fähigkeiten zeigt es signifikante Verbesserungen gegenüber der Qwen3 VL-Serie.", "qwen3.description": "Qwen3 ist Alibabas nächste Generation eines großen Sprachmodells mit starker Leistung in vielfältigen Anwendungsfällen.", "qwq-32b-preview.description": "QwQ ist ein experimentelles Forschungsmodell von Qwen mit Fokus auf verbesserte Schlussfolgerungen.", "qwq-32b.description": "QwQ ist ein Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen bietet es überlegene Denk- und Schlussfolgerungsfähigkeiten, die die Leistung bei nachgelagerten Aufgaben deutlich steigern – insbesondere bei komplexen Problemen. QwQ-32B ist ein mittelgroßes Modell, das mit führenden Schlussfolgerungsmodellen wie DeepSeek-R1 und o1-mini konkurriert.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Mittelgroßes Schlussfolgerungsmodell aus der Qwen-Familie. Im Vergleich zu standardmäßig instruktionstunierten Modellen steigern QwQs Denk- und Schlussfolgerungsfähigkeiten die Leistung bei nachgelagerten Aufgaben deutlich – insbesondere bei schwierigen Problemen.", "r1-1776.description": "R1-1776 ist eine nachtrainierte Variante von DeepSeek R1, die darauf ausgelegt ist, unzensierte, objektive und faktenbasierte Informationen bereitzustellen.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro von ByteDance unterstützt Text-zu-Video, Bild-zu-Video (erstes Bild, erstes+letztes Bild) sowie Audiogenerierung synchronisiert mit visuellen Inhalten.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite von BytePlus bietet webgestützte Generierung für Echtzeitinformationen, verbesserte Interpretation komplexer Eingaben und verbesserte Konsistenz bei Referenzen für professionelle visuelle Erstellung.", "solar-mini-ja.description": "Solar Mini (Ja) erweitert Solar Mini mit einem Fokus auf Japanisch und behält dabei eine effiziente und starke Leistung in Englisch und Koreanisch bei.", "solar-mini.description": "Solar Mini ist ein kompaktes LLM, das GPT-3.5 übertrifft. Es bietet starke mehrsprachige Fähigkeiten in Englisch und Koreanisch und ist eine effiziente Lösung mit kleinem Ressourcenbedarf.", "solar-pro.description": "Solar Pro ist ein hochintelligentes LLM von Upstage, das auf Befolgen von Anweisungen auf einer einzelnen GPU ausgelegt ist und IFEval-Werte über 80 erreicht. Derzeit wird Englisch unterstützt; die vollständige Veröffentlichung mit erweitertem Sprachsupport und längeren Kontexten war für November 2024 geplant.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Ein fortschrittliches Suchprodukt mit fundierter Suche für komplexe Anfragen und Folgefragen.", "sonar-reasoning.description": "Ein fortschrittliches Suchprodukt mit fundierter Suche für komplexe Anfragen und Folgefragen.", "sonar.description": "Ein leichtgewichtiges, suchbasiertes Produkt – schneller und kostengünstiger als Sonar Pro.", - "spark-x.description": "X1.5-Updates: (1) Einführung eines dynamischen Denkmodus, gesteuert über das Feld `thinking`; (2) größere Kontextlänge mit 64K Eingabe und 64K Ausgabe; (3) Unterstützung für FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 ist ein Modell, das ein Gleichgewicht zwischen hoher Recheneffizienz und hervorragender Leistung in logischem Denken und Agentenfähigkeiten bietet.", + "spark-x.description": "X2-Fähigkeiten-Übersicht: 1. Führt dynamische Anpassung des Denkmodus ein, gesteuert über das `thinking`-Feld. 2. Erweiterte Kontextlänge: 64K Eingabetokens und 128K Ausgabetokens. 3. Unterstützt Funktionaufruf-Funktionalität.", "stable-diffusion-3-medium.description": "Das neueste Text-zu-Bild-Modell von Stability AI. Diese Version verbessert die Bildqualität, das Textverständnis und die Stilvielfalt erheblich, interpretiert komplexe Spracheingaben präziser und erzeugt genauere, vielfältigere Bilder.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo nutzt Adversarial Diffusion Distillation (ADD) auf stable-diffusion-3.5-large für höhere Geschwindigkeit.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large ist ein MMDiT Text-zu-Bild-Modell mit 800 Millionen Parametern, das hervorragende Qualität und präzise Prompt-Umsetzung bietet. Es unterstützt 1-Megapixel-Bilder und läuft effizient auf Consumer-Hardware.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Unterstützt Interaktionen mit großem Kontext für komplexe Dialoge.", "step-2-mini.description": "Basierend auf der nächsten Generation der internen MFA-Attention-Architektur liefert es Ergebnisse auf Step-1-Niveau bei deutlich geringeren Kosten, höherem Durchsatz und geringerer Latenz. Bewältigt allgemeine Aufgaben mit starker Programmierleistung.", "step-2x-large.description": "Ein neues StepFun-Bildmodell der nächsten Generation mit Fokus auf Bildgenerierung. Es erzeugt hochwertige Bilder aus Texteingaben mit realistischeren Texturen und besserer Darstellung chinesischer/englischer Texte.", + "step-3.5-flash.description": "Das Flaggschiff-Sprachmodell für logisches Denken von Stepfun. Dieses Modell bietet erstklassige Fähigkeiten im logischen Denken sowie schnelle und zuverlässige Ausführung. Es kann komplexe Aufgaben zerlegen und planen, Werkzeuge schnell und zuverlässig aufrufen, und in logischem Denken, Mathematik, Softwareentwicklung, tiefgehender Forschung und anderen anspruchsvollen Aufgaben herausragend sein. Die Kontextlänge beträgt 256K.", "step-3.description": "Dieses Modell verfügt über starke visuelle Wahrnehmung und komplexe Schlussfolgerungsfähigkeiten. Es verarbeitet domänenübergreifendes Wissen, analysiert Mathematik und visuelle Inhalte gemeinsam und bewältigt eine Vielzahl alltäglicher visueller Analyseaufgaben.", "step-r1-v-mini.description": "Ein Schlussfolgerungsmodell mit starkem Bildverständnis, das Bilder und Texte verarbeiten und anschließend durch tiefes Denken Text generieren kann. Es glänzt im visuellen Denken und liefert Spitzenleistungen in Mathematik, Programmierung und Textverständnis – mit einem Kontextfenster von 100K.", "stepfun-ai/step3.description": "Step3 ist ein hochmodernes multimodales Schlussfolgerungsmodell von StepFun, basierend auf einer MoE-Architektur mit insgesamt 321B und 38B aktiven Parametern. Sein End-to-End-Design minimiert die Dekodierungskosten und liefert erstklassige Vision-Language-Schlussfolgerungen. Dank MFA- und AFD-Design bleibt es sowohl auf High-End- als auch auf Low-End-Beschleunigern effizient. Das Pretraining umfasst über 20T Text-Tokens und 4T Bild-Text-Tokens in vielen Sprachen. Es erreicht führende Leistungen bei offenen Modellen in Mathematik, Code und multimodalen Benchmarks.", - "taichu_llm.description": "Trainiert mit umfangreichen hochwertigen Daten, mit verbesserter Textverständnis, Inhaltserstellung und dialogbasierter Fragebeantwortung.", - "taichu_o1.description": "taichu_o1 ist ein Next-Gen-Reasoning-Modell, das multimodale Interaktion und Reinforcement Learning nutzt, um menschenähnliches Denken in Ketten zu ermöglichen. Es unterstützt komplexe Entscheidungssimulationen, legt Denkpfade offen und liefert hochpräzise Ergebnisse – ideal für strategische Analysen und tiefgehendes Denken.", - "taichu_vl.description": "Kombiniert Bildverständnis, Wissensübertragung und logische Zuordnung – herausragend bei Bild-Text-Fragen.", + "taichu4_vl_2b_nothinking.description": "Die No-Thinking-Version des Taichu4.0-VL 2B-Modells bietet geringeren Speicherverbrauch, ein leichtes Design, schnelle Reaktionsgeschwindigkeit und starke multimodale Verständnisfähigkeiten.", + "taichu4_vl_32b.description": "Die Thinking-Version des Taichu4.0-VL 32B-Modells eignet sich für komplexe multimodale Verständnis- und Denkaufgaben und zeigt herausragende Leistung in multimodaler mathematischer Logik, multimodalen Agentenfähigkeiten und allgemeinem Bild- und visuellen Verständnis.", + "taichu4_vl_32b_nothinking.description": "Die No-Thinking-Version des Taichu4.0-VL 32B-Modells ist für komplexe Bild- und Textverständnis- sowie visuelle Wissens-QA-Szenarien konzipiert und zeichnet sich durch Bildunterschriftenerstellung, visuelle Fragenbeantwortung, Videoverständnis und visuelle Lokalisierungsaufgaben aus.", + "taichu4_vl_3b.description": "Die Thinking-Version des Taichu4.0-VL 3B-Modells führt multimodale Verständnis- und Denkaufgaben effizient aus, mit umfassenden Upgrades in visuellem Verständnis, visueller Lokalisierung, OCR-Erkennung und verwandten Fähigkeiten.", + "taichu_llm.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.", + "taichu_llm_14b.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.", + "taichu_llm_2b.description": "Das Zidong Taichu-Großsprachmodell ist ein leistungsstarkes Textgenerierungsmodell, das mit vollständig inländischen Full-Stack-Technologien entwickelt wurde. Durch strukturierte Kompression eines Basismodells mit hundert Milliarden Parametern und aufgabenbezogene Optimierung verbessert es die Fähigkeiten für komplexes Textverständnis und Wissenslogik erheblich. Es glänzt in Szenarien wie Langdokumentanalyse, mehrsprachiger Informationsextraktion und wissensbeschränkter Generierung.", + "taichu_o1.description": "taichu_o1 ist ein Next-Generation-Großmodell für logisches Denken, das durch multimodale Interaktion und Verstärkungslernen menschenähnliche Kettenlogik erreicht. Es unterstützt komplexe Entscheidungssimulationen und zeigt bei gleichzeitiger Aufrechterhaltung hochpräziser Ausgaben interpretierbare Denkwege. Es eignet sich gut für Strategieanalysen, tiefes Denken und ähnliche Szenarien.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct nutzt insgesamt 80B Parameter, davon 13B aktiv, um mit größeren Modellen zu konkurrieren. Es unterstützt hybrides schnelles/langsames Denken, stabiles Langtextverständnis und führende Agentenfähigkeiten auf BFCL-v3 und τ-Bench. GQA- und Multi-Quant-Formate ermöglichen effiziente Inferenz.", "tencent/Hunyuan-MT-7B.description": "Das Hunyuan-Übersetzungsmodell umfasst Hunyuan-MT-7B und das Ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B ist ein leichtgewichtiges 7B-Modell, das 33 Sprachen sowie 5 chinesische Minderheitensprachen unterstützt. Bei WMT25 erzielte es 30 erste Plätze in 31 Sprachpaaren. Tencent Hunyuan verwendet eine vollständige Trainingspipeline von Pretraining über SFT bis hin zu RL für Übersetzung und Ensemble, und erreicht führende Leistung bei einfacher, effizienter Bereitstellung.", "text-embedding-3-large.description": "Das leistungsfähigste Embedding-Modell für englische und nicht-englische Aufgaben.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md eignet sich für alltägliche Aufgaben und UI-Generierung.", "vercel/v0-1.0-md.description": "Zugriff auf die Modelle hinter v0 zur Generierung, Fehlerbehebung und Optimierung moderner Webanwendungen mit frameworkspezifischem Denken und aktuellem Wissen.", "vercel/v0-1.5-md.description": "Zugriff auf die Modelle hinter v0 zur Generierung, Fehlerbehebung und Optimierung moderner Webanwendungen mit frameworkspezifischem Denken und aktuellem Wissen.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code ist für unternehmensspezifische Programmieranforderungen optimiert und verstärkt die Codefähigkeiten auf der Grundlage der hervorragenden Agent- und VLM-Fähigkeiten von Seed 2.0. Es zeigt nicht nur herausragende Frontend-Leistungen, sondern wurde auch speziell für die häufigen mehrsprachigen Codierungsanforderungen von Unternehmen optimiert und eignet sich für die Integration in verschiedene KI-Programmierwerkzeuge.", + "volcengine/doubao-seed-2-0-lite.description": "Vereint Generierungsqualität und Reaktionsgeschwindigkeit, geeignet als allgemeines Produktionsmodell.", + "volcengine/doubao-seed-2-0-mini.description": "Verweist auf die neueste Version von doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Verweist auf die neueste Version von doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code ist das LLM der ByteDance Volcano Engine, optimiert für agentenbasiertes Programmieren. Es überzeugt bei Programmier- und Agentenbenchmarks mit Unterstützung für 256K-Kontext.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus – für schnelle Generierung und hohen Mehrwert.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus – mit reicheren Details.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus, das schnelle Generierung und hohen Wert bietet.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus ist das neueste Modell mit Verbesserungen in Kreativität, Stabilität und Realismus, das reichere Details erzeugt.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview unterstützt Einzelbildbearbeitung und Multi-Bild-Fusion.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I unterstützt flexible Auswahl von Bilddimensionen innerhalb der Gesamtpixelbereichs- und Seitenverhältnisbeschränkungen.", + "wan2.6-image.description": "Wanxiang 2.6 Image unterstützt Bildbearbeitung und gemischte Bild-Text-Layout-Ausgabe.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I unterstützt flexible Auswahl von Bilddimensionen innerhalb der Gesamtpixelbereichs- und Seitenverhältnisbeschränkungen (wie Wanxiang 2.5).", "wanx-v1.description": "Basismodell für Text-zu-Bild. Entspricht Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Hervorragend bei texturierten Porträts mit moderater Geschwindigkeit und geringeren Kosten. Entspricht Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Vollständig aktualisierte Version mit reicheren Bilddetails und etwas langsamerer Geschwindigkeit. Entspricht Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast ist xAIs hochdurchsatzfähiges, kostengünstiges Modell (unterstützt 2M Kontextfenster), ideal für hochparallele und langkontextuelle Anwendungsfälle.", "x-ai/grok-4.description": "Grok 4 ist xAIs Flaggschiff-Reasoning-Modell mit starker Denk- und Multimodal-Fähigkeit.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 ist xAIs schnelles Codemodell mit lesbaren, entwicklerfreundlichen Ausgaben.", + "x1.description": "X1.5 Updates: (1) fügt dynamischen Denkmodus hinzu, gesteuert durch das `thinking`-Feld; (2) größere Kontextlänge mit 64K Eingabe und 64K Ausgabe; (3) unterstützt FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision überzeugt bei visuellen Aufgaben mit SOTA-Leistung in visuellem Mathematik-Reasoning (MathVista) und Dokumenten-QA (DocVQA). Es verarbeitet Dokumente, Diagramme, Grafiken, Screenshots und Fotos.", "xai/grok-2.description": "Grok 2 ist ein Spitzenmodell mit modernstem Reasoning, starker Chat-, Coding- und Denkleistung und übertrifft Claude 3.5 Sonnet und GPT-4 Turbo auf LMSYS.", "xai/grok-3-fast.description": "xAIs Flaggschiffmodell überzeugt in Unternehmensanwendungen wie Datenextraktion, Codierung und Zusammenfassung – mit tiefem Fachwissen in Finanzen, Gesundheitswesen, Recht und Wissenschaft. Die schnelle Variante läuft auf schnellerer Infrastruktur für deutlich schnellere Antworten bei höheren Tokenkosten.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 ist Z.AIs Flaggschiffmodell mit hybridem Reasoning, optimiert für Engineering- und Langkontextaufgaben.", "z-ai/glm-4.6.description": "GLM 4.6 ist Z.AIs Flaggschiffmodell mit erweitertem Kontextumfang und Codierungsfähigkeiten.", "z-ai/glm-4.7.description": "GLM-4.7 ist das neueste Flaggschiffmodell von Zhipu mit verbesserten allgemeinen Fähigkeiten, natürlicheren und einfacheren Antworten sowie einem immersiveren Schreiberlebnis.", - "z-ai/glm5.description": "Ein starkes Modell für Schlussfolgerungen und agentische Aufgaben von Z.ai mit insgesamt 744B Parametern (40B aktiv), entwickelt für komplexe Systemtechnik und langfristige Aufgaben.", + "z-ai/glm4.7.description": "GLM-4.7 ist das neueste Flaggschiff-Modell von Zhipu, optimiert für Agentic-Coding-Szenarien mit verbesserten Codierungsfähigkeiten.", + "z-ai/glm5.description": "GLM-5 ist das neue Flaggschiff-Grundlagenmodell von Zhipu AI für Agenten-Engineering, das Open-Source-SOTA-Leistung in Codierung und Agentenfähigkeiten erreicht. Es entspricht der Leistung von Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image ist ein leichtgewichtiges Text-zu-Bild-Generierungsmodell, das schnell Bilder erzeugen kann, sowohl chinesische als auch englische Textrendering unterstützt und sich flexibel an verschiedene Auflösungen und Seitenverhältnisse anpasst.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.", "zai-org/GLM-4.5.description": "GLM-4.5 ist ein Basismodell für Agentenanwendungen mit Mixture-of-Experts-Architektur. Es ist tiefgreifend optimiert für Toolnutzung, Web-Browsing, Softwareentwicklung und Frontend-Codierung und integriert sich mit Code-Agenten wie Claude Code und Roo Code. Es nutzt hybrides Reasoning für komplexe und alltägliche Szenarien.", "zai-org/GLM-4.5V.description": "GLM-4.5V ist Zhipu AIs neuestes VLM, basierend auf dem GLM-4.5-Air-Textmodell (106B gesamt, 12B aktiv) mit MoE-Architektur für starke Leistung bei geringeren Kosten. Es folgt dem GLM-4.1V-Thinking-Ansatz und fügt 3D-RoPE zur Verbesserung des 3D-Räumlichkeitsdenkens hinzu. Optimiert durch Pretraining, SFT und RL, verarbeitet es Bilder, Videos und lange Dokumente und belegt Spitzenplätze unter offenen Modellen in 41 öffentlichen multimodalen Benchmarks. Ein Thinking-Modus-Schalter ermöglicht die Balance zwischen Geschwindigkeit und Tiefe.", diff --git a/locales/de-DE/plugin.json b/locales/de-DE/plugin.json index 1e2dc6101f..95611902bd 100644 --- a/locales/de-DE/plugin.json +++ b/locales/de-DE/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Knoten aktualisieren", "builtins.lobe-page-agent.apiName.wrapNodes": "Knoten umschließen", "builtins.lobe-page-agent.title": "Seite", + "builtins.lobe-skill-store.apiName.importFromMarket": "Aus dem Markt importieren", + "builtins.lobe-skill-store.apiName.importSkill": "Fähigkeit importieren", + "builtins.lobe-skill-store.apiName.searchSkill": "Fähigkeiten suchen", + "builtins.lobe-skill-store.title": "Fähigkeitenmarkt", + "builtins.lobe-skills.apiName.execScript": "Skript ausführen", + "builtins.lobe-skills.apiName.exportFile": "Datei exportieren", + "builtins.lobe-skills.apiName.importFromMarket": "Aus dem Markt importieren", + "builtins.lobe-skills.apiName.importSkill": "Fähigkeit importieren", + "builtins.lobe-skills.apiName.readReference": "Referenz lesen", + "builtins.lobe-skills.apiName.runSkill": "Fähigkeit aktivieren", + "builtins.lobe-skills.apiName.searchSkill": "Fähigkeiten suchen", + "builtins.lobe-skills.title": "Fähigkeiten", + "builtins.lobe-tools.apiName.activateTools": "Werkzeuge aktivieren", "builtins.lobe-user-memory.apiName.addContextMemory": "Kontextgedächtnis hinzufügen", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Erfahrungsgedächtnis hinzufügen", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Identitätsgedächtnis hinzufügen", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Websuche", "confirm": "Bestätigen", "debug.arguments": "Argumente", + "debug.error": "Fehlerprotokoll", "debug.function_call": "Funktionsaufruf", "debug.intervention": "Skill-Intervention", "debug.off": "Debug aus", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Einstellungen gespeichert", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Metadaten", - "dev.title.create": "Benutzerdefinierten Skill hinzufügen", - "dev.title.edit": "Benutzerdefinierten Skill bearbeiten", + "dev.title.create": "Benutzerdefinierte MCP-Fähigkeit hinzufügen", + "dev.title.edit": "Benutzerdefinierte MCP-Fähigkeit bearbeiten", "dev.title.editCommunity": "Community-Funktion bearbeiten", "dev.title.skillDetails": "Funktionsdetails", "dev.title.skillSettings": "Funktionseinstellungen", diff --git a/locales/de-DE/providers.json b/locales/de-DE/providers.json index c3303f2901..f144b294d3 100644 --- a/locales/de-DE/providers.json +++ b/locales/de-DE/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud ist ein kostengünstiger GenAI-Cloud-Service auf Basis leistungsstarker Open-Source-Modelle.", "spark.description": "iFLYTEK Spark bietet leistungsstarke mehrsprachige KI für verschiedene Branchen – von Smart Hardware über Gesundheitswesen bis hin zu Finanzen.", "stepfun.description": "Stepfun-Modelle bieten führende multimodale und komplexe Denkfähigkeiten – mit Langkontextverständnis und leistungsstarker autonomer Suchorchestrierung.", + "straico.description": "Straico vereinfacht die Integration von KI, indem es einen einheitlichen Arbeitsbereich bietet, der führende text-, bild- und audiogenerative KI-Modelle zusammenführt. So erhalten Marketer, Unternehmer und Enthusiasten nahtlosen Zugang zu vielfältigen KI-Tools.", "taichu.description": "Ein multimodales Next-Gen-Modell von CASIA und dem Wuhan Institute of AI – unterstützt mehrstufige Q&A, Schreiben, Bildgenerierung, 3D-Verständnis und Signalanalyse mit starker Kognition und Kreativität.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power bietet End-to-End-Wissens-Q&A für Unternehmen und Entwickler – mit modularen Diensten wie Dokumentenparsing, Chunking, Embeddings und mehrstufigem Rewriting für individuelle KI-Lösungen.", "togetherai.description": "Together AI liefert führende Leistung mit innovativen Modellen, breiter Anpassbarkeit, schneller Skalierung und einfacher Bereitstellung für Unternehmensanforderungen.", diff --git a/locales/de-DE/setting.json b/locales/de-DE/setting.json index b623378b87..43048b23d5 100644 --- a/locales/de-DE/setting.json +++ b/locales/de-DE/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Agentenprofil", "agentInfoDescription.value.unset": "Nicht festgelegt", "agentInfoDescription.value.untitled": "Unbenannter Agent", + "agentSkillDetail.addedAt": "Hinzugefügt", + "agentSkillDetail.publishedAt": "Veröffentlicht", + "agentSkillDetail.repository": "GitHub-Repository", + "agentSkillDetail.skillContent": "Skill-Inhalt", + "agentSkillDetail.sourceUrl": "Skill-Importquelle", + "agentSkillDetail.updatedAt": "Aktualisiert", + "agentSkillEdit.descriptionDesc": "Eine kurze Zusammenfassung dessen, was der Skill macht, um dem Agenten zu helfen, zu verstehen, wann er ihn verwenden soll", + "agentSkillEdit.fileReadonly": "Diese Datei ist schreibgeschützt. Nur die Skill-Beschreibung und Anweisungen können bearbeitet werden.", + "agentSkillEdit.instructions": "Anweisungen", + "agentSkillEdit.instructionsDesc": "Die zentralen Anweisungen in Markdown, die das Verhalten und den Ablauf des Skills definieren", + "agentSkillEdit.instructionsPlaceholder": "Geben Sie die Skill-Anweisungen im Markdown-Format ein...", + "agentSkillEdit.nameDesc": "Die eindeutige Kennung für diesen Skill, nach der Erstellung nicht mehr bearbeitbar", + "agentSkillEdit.saveSuccess": "Skill erfolgreich aktualisiert", + "agentSkillEdit.title": "Skill-Einstellungen", + "agentSkillItem.deleteConfirm.desc": "Sind Sie sicher, dass Sie den Agenten-Skill \"{{name}}\" löschen möchten? Diese Aktion kann nicht rückgängig gemacht werden.", + "agentSkillItem.deleteConfirm.title": "Agenten-Skill löschen", + "agentSkillModal.content": "Skill-Inhalt", + "agentSkillModal.contentPlaceholder": "Geben Sie den Skill-Inhalt im Markdown-Format ein...", + "agentSkillModal.description": "Beschreibung", + "agentSkillModal.descriptionPlaceholder": "Beschreiben Sie diesen Skill kurz", + "agentSkillModal.github.desc": "Importieren Sie Skills direkt aus einem öffentlichen GitHub-Repository.", + "agentSkillModal.github.title": "Aus GitHub importieren", + "agentSkillModal.github.urlPlaceholder": "https://github.com/benutzername/repo", + "agentSkillModal.importError": "Import fehlgeschlagen: {{error}}", + "agentSkillModal.importSuccess": "Agenten-Skill erfolgreich importiert", + "agentSkillModal.upload.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch, um sie zu installieren.", + "agentSkillModal.upload.dragText": "Ziehen und ablegen oder klicken, um hochzuladen", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md enthält Skill-Namen und Beschreibung im YAML-Format", + "agentSkillModal.upload.requirementZip": ".zip- oder .skill-Datei mit SKILL.md im Stammverzeichnis", + "agentSkillModal.upload.requirements": "Dateianforderungen", + "agentSkillModal.upload.title": "Skill hochladen", + "agentSkillModal.upload.uploading": "Wird hochgeladen...", + "agentSkillModal.url.desc": "Importieren Sie einen Skill, indem Sie einen direkten Link zu einer SKILL.md-Datei angeben.", + "agentSkillModal.url.title": "Aus URL importieren", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Agenten-Skill", "agentTab.chat": "Chat-Einstellungen", "agentTab.meta": "Agenteninformationen", "agentTab.modal": "Modelleinstellungen", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Modell zur Übersetzung", "systemAgent.translation.title": "Übersetzungsagent", "tab.about": "Über", + "tab.addAgentSkill": "Agenten-Skill hinzufügen", + "tab.addCustomMcp": "Benutzerdefinierten MCP-Skill hinzufügen", + "tab.addCustomMcp.desc": "Konfigurieren Sie manuell einen benutzerdefinierten MCP-Server", "tab.addCustomSkill": "Benutzerdefinierten Skill hinzufügen", "tab.agent": "Agentendienst", "tab.all": "Alle", @@ -652,7 +691,13 @@ "tab.experiment": "Experiment", "tab.hotkey": "Tastenkombinationen", "tab.image": "Bildgenerierungsdienst", + "tab.importFromGithub": "Aus GitHub importieren", + "tab.importFromGithub.desc": "Importieren aus einem öffentlichen GitHub-Repository", + "tab.importFromUrl": "Aus URL importieren", + "tab.importFromUrl.desc": "Importieren über einen direkten Link zu SKILL.md", "tab.llm": "Sprachmodell", + "tab.manualFill": "Manuell ausfüllen", + "tab.manualFill.desc": "Konfigurieren Sie einen benutzerdefinierten MCP-Skill manuell", "tab.memory": "Speicher", "tab.profile": "Mein Konto", "tab.provider": "KI-Dienstanbieter", @@ -669,6 +714,8 @@ "tab.sync": "Cloud-Synchronisation", "tab.systemTools": "Systemwerkzeuge", "tab.tts": "Text-zu-Sprache", + "tab.uploadZip": "Zip hochladen", + "tab.uploadZip.desc": "Laden Sie eine lokale .zip- oder .skill-Datei hoch", "tab.usage": "Nutzungsstatistik", "tools.add": "Fähigkeit hinzufügen", "tools.builtins.groupName": "Integriert", diff --git a/locales/en-US/common.json b/locales/en-US/common.json index 29c6c665b3..ecdb647ba7 100644 --- a/locales/en-US/common.json +++ b/locales/en-US/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Star us on GitHub", "footer.title": "Like Our Product?", "fullscreen": "Full Screen Mode", - "geminiImageChineseWarning.content": "Nano Banana may occasionally fail to generate images when using Chinese. It is recommended to use English for better results.", - "geminiImageChineseWarning.continueGenerate": "Continue Generating", - "geminiImageChineseWarning.continueSend": "Continue Sending", - "geminiImageChineseWarning.doNotShowAgain": "Do Not Show Again", - "geminiImageChineseWarning.title": "Chinese Input Notice", "historyRange": "History Range", "home.suggestQuestions": "Try these examples", "import": "Import", diff --git a/locales/en-US/eval.json b/locales/en-US/eval.json index 24a5c809da..e24ef71cc7 100644 --- a/locales/en-US/eval.json +++ b/locales/en-US/eval.json @@ -52,7 +52,7 @@ "benchmark.detail.stats.waiting": "Waiting...", "benchmark.detail.tabs.data": "Data", "benchmark.detail.tabs.datasets": "Datasets", - "benchmark.detail.tabs.runs": "Evaluations", + "benchmark.detail.tabs.runs": "Runs", "benchmark.edit.confirm": "Save", "benchmark.edit.error": "Failed to update benchmark", "benchmark.edit.success": "Benchmark updated successfully", @@ -103,10 +103,10 @@ "dataset.delete.confirm": "Are you sure you want to delete this dataset? All test cases in it will also be deleted.", "dataset.delete.error": "Failed to delete dataset", "dataset.delete.success": "Dataset deleted successfully", - "dataset.detail.addRun": "New Evaluation", + "dataset.detail.addRun": "New Run", "dataset.detail.backToBenchmark": "Back to Benchmark", "dataset.detail.caseCount": "{{count}} test case{{count, plural, one {} other {s}}}", - "dataset.detail.relatedRuns": "Related Evaluations ({{count}})", + "dataset.detail.relatedRuns": "Related Runs ({{count}})", "dataset.detail.testCases": "Test Cases", "dataset.detail.viewDetail": "View Details", "dataset.edit.error": "Failed to update dataset", @@ -239,9 +239,9 @@ "run.edit.title": "Edit Evaluation", "run.empty.description": "Start your first evaluation run on this dataset", "run.empty.descriptionBenchmark": "Start your first evaluation run on this benchmark", - "run.empty.title": "No evaluations yet", + "run.empty.title": "No runs yet", "run.filter.active": "Active", - "run.filter.empty": "No evaluations match the current filter.", + "run.filter.empty": "No runs match the current filter.", "run.idle.hint": "Click Start to begin evaluation", "run.metrics.avgScore": "Avg Score", "run.metrics.cost": "Cost", diff --git a/locales/en-US/home.json b/locales/en-US/home.json index c37c1683e5..7f03592e3d 100644 --- a/locales/en-US/home.json +++ b/locales/en-US/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Deep Research", "starter.developing": "Coming soon", "starter.image": "Image", + "starter.nanoBanana2": "🍌 Nano Banana 2", "starter.seedance": "Seedance 2.0", "starter.write": "Write" } diff --git a/locales/en-US/modelProvider.json b/locales/en-US/modelProvider.json index bf7c6a8a72..ba5e8ab5d5 100644 --- a/locales/en-US/modelProvider.json +++ b/locales/en-US/modelProvider.json @@ -232,7 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "For Gemini series; controls thinking budget.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "For Gemini 3 Flash Preview models; controls thinking depth.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "For Gemini 3 Pro Preview models; controls thinking depth.", - "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "For Gemini 3.1 Pro Preview models; controls thinking depth.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "For Gemini 3.1 Pro Preview models; controls thinking depth with low/medium/high levels.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "For Gemini series; supports providing URL context.", "providerModels.item.modelConfig.extendParams.placeholder": "Select extended parameters to enable", "providerModels.item.modelConfig.extendParams.previewFallback": "Preview unavailable", diff --git a/locales/en-US/models.json b/locales/en-US/models.json index d9acb8d353..55701def37 100644 --- a/locales/en-US/models.json +++ b/locales/en-US/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo delivers strong compute and chat capability with excellent semantic understanding and generation efficiency, ideal for enterprise and developers.", "360gpt2-o1.description": "360gpt2-o1 builds chain-of-thought via tree search with a reflection mechanism and RL training, enabling self-reflection and self-correction.", "360gpt2-pro.description": "360GPT2 Pro is an advanced NLP model from 360 with excellent text generation and understanding, especially for creative tasks, handling complex transformations and roleplay.", + "360zhinao2-o1.5.description": "360 Zhinao most powerful reasoning model, featuring the strongest capabilities and supporting both tool calling and advanced reasoning.", "360zhinao2-o1.description": "360zhinao2-o1 builds chain-of-thought via tree search with a reflection mechanism and RL training, enabling self-reflection and self-correction.", + "360zhinao3-o1.5.description": "360 Zhinao Next-Generation Reasoning Model.", "4.0Ultra.description": "Spark Ultra is the most powerful model in the Spark series, improving text understanding and summarization while upgrading web search. It is a comprehensive solution for boosting workplace productivity and accurate responses, positioning it as a leading intelligent product.", "AnimeSharp.description": "AnimeSharp (aka \"4x-AnimeSharp\") is an open-source super-resolution model based on ESRGAN by Kim2091, focused on upscaling and sharpening anime-style images. It was renamed from \"4x-TextSharpV1\" in February 2022, originally also for text images but heavily optimized for anime content.", "Baichuan2-Turbo.description": "Uses search augmentation to connect the model with domain and web knowledge. Supports PDF/Word uploads and URL inputs for timely, comprehensive retrieval and professional, accurate outputs.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision is a state-of-the-art multimodal model that performs strongly on key language, text, and vision benchmarks. This 8B version focuses on low latency and strong performance.", "charglm-3.description": "CharGLM-3 is built for roleplay and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue.", "charglm-4.description": "CharGLM-4 is built for roleplay and emotional companionship, supporting ultra-long multi-turn memory and personalized dialogue.", - "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time, combining strong understanding and generation for large-scale use cases like customer support, education, and technical support.", + "chatgpt-4o-latest.description": "ChatGPT-4o is a dynamic model updated in real time. It combines strong language understanding and generation for large-scale use cases like customer support, education, and technical assistance.", "claude-2.0.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.", "claude-2.1.description": "Claude 2 delivers key enterprise improvements, including a leading 200K-token context, reduced hallucinations, system prompts, and a new test feature: tool calling.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is Anthropic's fastest next-gen model, improving across skills and surpassing the previous flagship Claude 3 Opus on many benchmarks.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is an innovative model offering deep language understanding and interaction.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought for deep analysis tasks.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is a next-gen reasoning model with stronger complex reasoning and chain-of-thought capabilities.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is a MoE vision-language model based on DeepSeekMoE-27B with sparse activation, achieving strong performance with only 4.5B active parameters. It excels at visual QA, OCR, document/table/chart understanding, and visual grounding.", "deepseek-chat.description": "DeepSeek V3.2 balances reasoning and output length for daily QA and agent tasks. Public benchmarks reach GPT-5 levels, and it is the first to integrate thinking into tool use, leading open-source agent evaluations.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is a code language model trained on 2T tokens (87% code, 13% Chinese/English text). It introduces a 16K context window and fill-in-the-middle tasks, providing project-level code completion and snippet infilling.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 is a new hybrid reasoning model from DeepSeek, supporting both thinking and non-thinking modes and offering higher thinking efficiency than DeepSeek-R1-0528. Post-training optimizations greatly improve agent tool use and agent-task performance. It supports a 128k context window and up to 64k output tokens.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 is a next-generation reasoning model with improved complex reasoning and chain-of-thought, suited for tasks requiring deep analysis.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduces sparse attention to improve training and inference efficiency on long text, at a lower price than deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "On highly complex tasks, the Speciale model significantly outperforms the standard version, but it consumes considerably more tokens and incurs higher costs. Currently, DeepSeek-V3.2-Speciale is intended for research use only, does not support tool calls, and has not been specifically optimized for everyday conversation or writing tasks.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think is a full deep-thinking model with stronger long-chain reasoning.", "deepseek-v3.2.description": "DeepSeek-V3.2 is the first hybrid reasoning model from DeepSeek that integrates thinking into tool usage. It uses efficient architecture to save computation, large-scale reinforcement learning to enhance capabilities, and large-scale synthetic task data to strengthen generalization. The combination of these three achieves performance comparable to GPT-5-High, with significantly reduced output length, notably decreasing computational overhead and user wait times.", "deepseek-v3.description": "DeepSeek-V3 is a powerful MoE model with 671B total parameters and 37B active per token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following. It supports a 128k context window and up to 16k output tokens.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is an upgraded multimodal model that supports images at any resolution and extreme aspect ratios, enhancing visual reasoning, document recognition, detail understanding, and instruction following.", - "doubao-lite-128k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 128k context window.", "doubao-lite-32k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 32k context window.", - "doubao-lite-4k.description": "Ultra-fast response with better value, offering more flexible choices across scenarios. Supports reasoning and fine-tuning with a 4k context window.", - "doubao-pro-256k.description": "The best-performing flagship model for complex tasks, with strong results in reference QA, summarization, creation, text classification, and roleplay. Supports reasoning and fine-tuning with a 256k context window.", "doubao-pro-32k.description": "The best-performing flagship model for complex tasks, with strong results in reference QA, summarization, creation, text classification, and roleplay. Supports reasoning and fine-tuning with a 32k context window.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is an ultra-fast multimodal deep-reasoning model with TPOT as low as 10ms. It supports both text and vision, surpasses the previous lite model in text understanding, and matches competing pro models in vision. It supports a 256k context window and up to 16k output tokens.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is a new multimodal deep-reasoning model with adjustable reasoning effort (Minimal, Low, Medium, High), delivering better value and a strong choice for common tasks, with a context window up to 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "The Doubao image model from ByteDance Seed supports text and image inputs with highly controllable, high-quality image generation. It supports text-guided image editing, with output sizes between 512 and 1536 on the long side.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 is an image generation model from ByteDance Seed, supporting text and image inputs with highly controllable, high-quality image generation. It generates images from text prompts.", - "doubao-vision-lite-32k.description": "Doubao-vision is a multimodal model from Doubao with strong image understanding and reasoning plus accurate instruction following. It performs well on image-text extraction and image-based reasoning tasks, enabling more complex and broader visual QA scenarios.", - "doubao-vision-pro-32k.description": "Doubao-vision is a multimodal model from Doubao with strong image understanding and reasoning plus accurate instruction following. It performs well on image-text extraction and image-based reasoning tasks, enabling more complex and broader visual QA scenarios.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 is ByteDance’s latest multimodal image model, integrating text-to-image, image-to-image, and batch image generation capabilities, while incorporating commonsense and reasoning abilities. Compared to the previous 4.0 version, it delivers significantly improved generation quality, with better editing consistency and multi-image fusion. It offers more precise control over visual details, producing small text and small faces more naturally, and achieves more harmonious layout and color, enhancing overall aesthetics.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite is ByteDance’s latest image-generation model. For the first time, it integrates online retrieval capabilities, allowing it to incorporate real-time web information and enhance the timeliness of generated images. The model’s intelligence has also been upgraded, enabling precise interpretation of complex instructions and visual content. Additionally, it offers improved global knowledge coverage, reference consistency, and generation quality in professional scenarios, better meeting enterprise-level visual creation needs.", "emohaa.description": "Emohaa is a mental health model with professional counseling abilities to help users understand emotional issues.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is an open-source lightweight model for local and customized deployment.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking is a text MoE (Mixture-of-Experts) post-trained model with a total of 21B parameters and 3B active parameters, offering significantly enhanced reasoning quality and depth.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is an open-source large-parameter model with stronger understanding and generation.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is Baidu ERNIE’s ultra-large MoE model with excellent reasoning.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is an 8K context preview model for evaluating ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is a lightweight high-performance model for latency- and cost-sensitive scenarios.", "ernie-novel-8k.description": "ERNIE Novel 8K is built for long-form novels and IP plots with multi-character narratives.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is a high-concurrency, high-value model for large-scale online services and enterprise apps.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview is a fast thinking model with 32K context for complex reasoning and multi-turn chat.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is a fast thinking model with 32K context for complex reasoning and multi-turn chat.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is a thinking-model preview for evaluation and testing.", + "ernie-x1.1.description": "ERNIE X1.1 is a thinking-model preview for evaluation and testing.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, built by ByteDance Seed team, supports multi-image editing and composition. Features enhanced subject consistency, precise instruction following, spatial logic understanding, aesthetic expression, poster layout and logo design with high-precision text-image rendering.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, built by ByteDance Seed, supports text and image inputs for highly controllable, high-quality image generation from prompts.", "fal-ai/flux-kontext/dev.description": "FLUX.1 model focused on image editing, supporting text and image inputs.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Preview release (September 25th, 2025) of Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite is Google’s smallest, best-value model, designed for large-scale use.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview is Google’s best-value model with full capabilities.", - "gemini-2.5-flash-preview-09-2025.description": "Preview release (Septempber 25th, 2025) of Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash is Google’s best-value model with full capabilities.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is Google’s most advanced reasoning model, able to reason over code, math, and STEM problems and analyze large datasets, codebases, and documents with long context.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.", "gemini-3-pro-preview.description": "Gemini 3 Pro is Google’s most powerful agent and vibe-coding model, delivering richer visuals and deeper interaction on top of state-of-the-art reasoning.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview improves on Gemini 3 Pro with enhanced reasoning capabilities and adds medium thinking level support.", "gemini-flash-latest.description": "Latest release of Gemini Flash", "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite", "gemini-pro-latest.description": "Latest release of Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.", "glm-4v-plus.description": "GLM-4V-Plus understands video and multiple images, suitable for multimodal tasks.", "glm-4v.description": "GLM-4V provides strong image understanding and reasoning across visual tasks.", - "glm-5.description": "A strong reasoning and agentic model from Z.ai with 744B total parameters (40B active), built for complex systems engineering and long-horizon tasks.", + "glm-5.description": "The GLM series is a hybrid reasoning model from Zhipu AI built for agents, with thinking and non-thinking modes.", "glm-z1-air.description": "Reasoning model with strong reasoning for tasks that require deep inference.", "glm-z1-airx.description": "Ultra-fast reasoning with high reasoning quality.", "glm-z1-flash.description": "GLM-Z1 series provides strong complex reasoning, excelling in logic, math, and programming.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "We’re excited to release Grok 4 Fast, our latest progress in cost-effective reasoning models.", "grok-4.description": "Our newest and strongest flagship model, excelling in NLP, math, and reasoning—an ideal all-rounder.", "grok-code-fast-1.description": "We’re excited to launch grok-code-fast-1, a fast and cost-effective reasoning model that excels at agentic coding.", + "grok-imagine-image-pro.description": "Generate images from text prompts, edit existing images with natural language, or iteratively refine images through multi-turn conversations.", + "grok-imagine-image.description": "Generate images from text prompts, edit existing images with natural language, or iteratively refine images through multi-turn conversations.", "groq/compound-mini.description": "Compound-mini is a composite AI system powered by publicly available models supported on GroqCloud, intelligently and selectively using tools to answer user queries.", "groq/compound.description": "Compound is a composite AI system powered by multiple publicly available models supported on GroqCloud, intelligently and selectively using tools to answer user queries.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B is a creative, intelligent language model merged from multiple top models.", + "hunyuan-2.0-instruct-20251111.description": "Release Features: The model base has been upgraded from TurboS to **Hunyuan 2.0**, resulting in comprehensive capability improvements. It significantly enhances instruction-following, multi-turn and long-form text understanding, literary creation, knowledge accuracy, coding, and reasoning abilities.", + "hunyuan-2.0-thinking-20251109.description": "Release Features: The model base has been upgraded from TurboS to **Hunyuan 2.0**, resulting in comprehensive capability improvements. It significantly enhances the model’s ability to follow complex instructions, understand multi-turn and long-form text, handle code, operate as an agent, and perform reasoning tasks.", "hunyuan-a13b.description": "The first hybrid reasoning model from Hunyuan, upgraded from hunyuan-standard-256K (80B total, 13B active). It defaults to slow thinking and supports fast/slow switching via params or prefixing /no_think. Overall capability is improved over the previous generation, especially in math, science, long-text understanding, and agent tasks.", - "hunyuan-code.description": "Latest code generation model trained with 200B high-quality code and six months of SFT; context expanded to 8K. It ranks top in automated benchmarks for five languages and in human evaluations across ten criteria.", - "hunyuan-functioncall.description": "Latest MoE FunctionCall model trained with high-quality function-call data, featuring a 32K context window and leading benchmark results across dimensions.", - "hunyuan-large-longcontext.description": "Excels at long-document tasks like summarization and QA while also handling general generation. Strong at long-text analysis and generation for complex, detailed content.", - "hunyuan-large-vision.description": "A vision-language model trained from Hunyuan Large for image-text understanding. Supports multi-image + text input at any resolution and improves multilingual visual understanding.", - "hunyuan-large.description": "Hunyuan-large has ~389B total parameters and ~52B activated, the largest and strongest open MoE model in a Transformer architecture.", - "hunyuan-lite-vision.description": "Latest 7B multimodal model with a 32K context window, supporting Chinese/English multimodal chat, object recognition, document table understanding, and multimodal math, outperforming 7B peers on multiple benchmarks.", + "hunyuan-code.description": "Hunyuan’s latest code model trained on 200B high-quality code data plus six months of SFT data, with 8K context. It ranks near the top in automated code benchmarks and in expert human evaluations across five languages.", + "hunyuan-functioncall.description": "Hunyuan’s latest MoE FunctionCall model trained on high-quality tool-call data, with a 32K context window and leading benchmarks across dimensions.", "hunyuan-lite.description": "Upgraded to an MoE architecture with a 256k context window, leading many open models across NLP, code, math, and industry benchmarks.", "hunyuan-pro.description": "Trillion-parameter MOE-32K long-context model leading benchmarks, strong at complex instructions and reasoning, advanced math, function calling, and optimized for multilingual translation, finance, law, and medical domains.", - "hunyuan-role.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.", - "hunyuan-standard-256K.description": "Uses improved routing to mitigate load balancing and expert collapse. Achieves 99.9% needle-in-a-haystack on long context. MOE-256K further expands context length and quality.", - "hunyuan-standard-vision.description": "Latest multimodal model with multilingual responses and balanced Chinese/English ability.", - "hunyuan-standard.description": "Uses improved routing to mitigate load balancing and expert collapse. Achieves 99.9% needle-in-a-haystack on long context. MOE-32K offers strong value while handling long inputs.", - "hunyuan-t1-20250321.description": "Builds balanced arts and STEM capabilities with strong long-text information capture. Supports reasoning answers for math, logic, science, and code problems across difficulty levels.", - "hunyuan-t1-20250403.description": "Improves project-level code generation and writing quality, strengthens multi-turn topic understanding and ToB instruction following, improves word-level understanding, and reduces mixed simplified/traditional and Chinese/English output issues.", - "hunyuan-t1-20250529.description": "Improves creative writing and composition, strengthens frontend coding, math, and logic reasoning, and enhances instruction following.", - "hunyuan-t1-20250711.description": "Greatly improves hard math, logic, and coding, boosts output stability, and enhances long-text capability.", + "hunyuan-role.description": "Hunyuan’s latest roleplay model, officially fine-tuned with roleplay data, delivering stronger base performance in roleplay scenarios.", + "hunyuan-standard-256K.description": "Uses improved routing to mitigate load balancing and expert collapse. Long-text \"needle in a haystack\" reaches 99.9%. MOE-256K pushes further in length and quality, greatly expanding input length.", + "hunyuan-standard.description": "Uses improved routing to mitigate load balancing and expert collapse. Long-text \"needle in a haystack\" reaches 99.9%. MOE-32K offers better value while balancing quality and price for long-text inputs.", "hunyuan-t1-latest.description": "Significantly improves the slow-thinking model on hard math, complex reasoning, difficult coding, instruction following, and creative writing quality.", - "hunyuan-t1-vision-20250619.description": "Latest t1-vision multimodal deep reasoning model with native long chain-of-thought, significantly improved over the previous default version.", "hunyuan-t1-vision-20250916.description": "Latest t1-vision deep reasoning model with major improvements in VQA, visual grounding, OCR, charts, solving photographed problems, and image-based creation, plus stronger English and low-resource languages.", - "hunyuan-turbo-20241223.description": "This version boosts instruction scaling for better generalization, significantly improves math/code/logic reasoning, enhances word-level understanding, and improves writing quality.", - "hunyuan-turbo-latest.description": "General experience improvements across NLP understanding, writing, chat, QA, translation, and domains; more human-like responses, better clarification on ambiguous intent, improved word parsing, higher creative quality and interactivity, and stronger multi-turn conversations.", - "hunyuan-turbo-vision.description": "Next-generation vision-language flagship using a new MoE architecture, with broad improvements in recognition, content creation, knowledge QA, and analytical reasoning.", "hunyuan-turbo.description": "Preview of Hunyuan’s next-gen LLM with a new MoE architecture, delivering faster reasoning and stronger results than hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Unifies math solution style and strengthens multi-turn math QA. Writing style is refined to reduce AI-like tone and add polish.", - "hunyuan-turbos-20250416.description": "Upgraded pretraining base to improve instruction understanding and following; alignment boosts math, code, logic, and science; improves writing quality, comprehension, translation accuracy, and knowledge QA; strengthens agent abilities, especially multi-turn understanding.", - "hunyuan-turbos-20250604.description": "Upgraded pretraining base with improved writing and reading comprehension, significant gains in code and STEM, and better complex instruction following.", - "hunyuan-turbos-20250926.description": "Upgraded pretraining data quality and post-training strategy, improving agents, English/low-resource languages, instruction following, code, and STEM capabilities.", "hunyuan-turbos-latest.description": "The latest Hunyuan TurboS flagship model with stronger reasoning and a better overall experience.", - "hunyuan-turbos-longtext-128k-20250325.description": "Excels at long-document tasks like summarization and QA while also handling general generation. Strong at long-text analysis and generation for complex, detailed content.", - "hunyuan-turbos-role-plus.description": "Latest roleplay model, officially fine-tuned on roleplay datasets, delivering stronger baseline performance for roleplay scenarios.", - "hunyuan-turbos-vision-20250619.description": "Latest TurboS vision-language flagship with major gains on image-text tasks such as entity recognition, knowledge QA, copywriting, and photo-based problem solving.", - "hunyuan-turbos-vision.description": "A next-gen vision-language flagship based on the latest TurboS, focused on image-text understanding tasks like entity recognition, knowledge QA, copywriting, and photo-based problem solving.", - "hunyuan-vision-1.5-instruct.description": "基于文本 TurboS 基座生产的图生文快思考模型,相比上一版本在图像基础识别、图像分析推理等维度都有明显的效果提升。", - "hunyuan-vision.description": "Latest multimodal model supporting image + text input to generate text.", + "hunyuan-vision-1.5-instruct.description": "A fast-thinking image-to-text model built on the TurboS text base, showing notable improvements over the previous version in fundamental image recognition and image analysis reasoning.", + "hunyuan-vision.description": "Hunyuan latest multimodal model supporting image + text inputs to generate text.", "image-01-live.description": "An image generation model with fine detail, supporting text-to-image and controllable style presets.", "image-01.description": "A new image generation model with fine detail, supporting text-to-image and image-to-image.", "imagen-4.0-fast-generate-001.description": "Imagen 4th generation text-to-image model series Fast version", "imagen-4.0-generate-001.description": "Imagen 4th generation text-to-image model series", - "imagen-4.0-generate-preview-06-06.description": "Imagen fourth-generation text-to-image model family.", "imagen-4.0-ultra-generate-001.description": "Imagen 4th generation text-to-image model series Ultra version", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen fourth-generation text-to-image Ultra variant.", "inception/mercury-coder-small.description": "Mercury Coder Small is ideal for code generation, debugging, and refactoring with minimal latency.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 is the third Ling 2.0 architecture model from Ant Group’s Bailing team. It is an MoE model with 100B total parameters but only 6.1B active per token (4.8B non-embedding). Despite its lightweight configuration, it matches or exceeds 40B dense models and even larger MoE models on multiple benchmarks, exploring high efficiency through architecture and training strategy.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 is a small, high-performance MoE LLM with 16B total parameters and only 1.4B active per token (789M non-embedding), delivering very fast generation. With efficient MoE design and large high-quality training data, it achieves top-tier performance comparable to dense models under 10B and larger MoE models.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T is inclusionAI’s trillion-parameter MoE reasoning model, suited for large-scale reasoning and research tasks.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 is a Ring model variant from inclusionAI for high-throughput scenarios, emphasizing speed and cost efficiency.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 is inclusionAI's high-throughput lightweight MoE model, built for concurrency.", + "intern-latest.description": "By default, it points to our latest released Intern series model, currently set to intern-s1-pro.", + "intern-s1-mini.description": "A lightweight multimodal large model with strong scientific reasoning capabilities.", + "intern-s1-pro.description": "We have launched our most advanced open-source multimodal reasoning model, currently the top-performing open-source multimodal large language model in terms of overall performance.", + "intern-s1.description": "The open-source multimodal reasoning model not only demonstrates strong general-purpose capabilities but also achieves state-of-the-art performance across a wide range of scientific tasks.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat is an open-source chat model based on the InternLM2 architecture. The 7B model focuses on dialogue generation with Chinese/English support, using modern training for fluent, intelligent conversation. It suits many chat scenarios such as customer support and personal assistants.", - "internlm2.5-latest.description": "Legacy models still maintained with excellent, stable performance after many iterations. Available in 7B and 20B sizes, supporting 1M context and stronger instruction following and tool use. Defaults to the latest InternLM2.5 series (currently internlm2.5-20b-chat).", - "internlm3-latest.description": "Our latest model series with excellent reasoning performance, leading open models in its size class. Defaults to the latest InternLM3 series (currently internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO is a multimodal pretrained model for complex image-text reasoning.", - "internvl2.5-latest.description": "InternVL2.5 is still maintained with strong, stable performance. Defaults to the latest InternVL2.5 series (currently internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B is a mid-size multimodal model balancing performance and cost.", "internvl3-1b.description": "InternVL3 1B is a lightweight multimodal model for resource-constrained deployment.", "internvl3-38b.description": "InternVL3 38B is a large open-source multimodal model for high-accuracy image-text understanding.", - "internvl3-latest.description": "Our latest multimodal model with stronger image-text understanding and long-sequence image comprehension, comparable to top closed models. Defaults to the latest InternVL series (currently internvl3-78b).", + "internvl3.5-241b-a28b.description": "Our newly released multimodal large model features enhanced image-and-text understanding and long-sequence image comprehension capabilities, achieving performance comparable to leading closed-source models.", + "internvl3.5-latest.description": "By default, it points to the latest model in the InternVL3.5 series, currently set to internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG is an image retrieval-augmented generation model for image search, image-text retrieval, and content generation.", "jamba-large.description": "Our most powerful, advanced model, designed for complex enterprise tasks with outstanding performance.", "jamba-mini.description": "The most efficient model in its class, balancing speed and quality with a smaller footprint.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 is an efficient large language model built specifically for coding and agent workflows.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 is a lightweight, cutting-edge large language model optimized for coding, proxy workflows, and modern application development, providing cleaner, more concise output and faster perceptual response times.", "minimax/minimax-m2.description": "MiniMax-M2 is a high-value model that excels at coding and agent tasks for many engineering scenarios.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 is a compact, fast, cost-effective MoE model built for top-tier coding and agent performance.", "minimaxai/minimax-m2.description": "MiniMax-M2 is a compact, fast, cost-effective MoE model (230B total, 10B active) built for top-tier coding and agent performance while retaining strong general intelligence. It excels at multi-file edits, code-run-fix loops, test validation, and complex toolchains.", "ministral-3b-latest.description": "Ministral 3B is Mistral’s top-tier edge model.", "ministral-8b-latest.description": "Ministral 8B is a highly cost-effective edge model from Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "The kimi-k2-0905-preview model supports a 256k context window, with stronger agentic coding, more polished and practical frontend code, and better context understanding.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo is a high-speed version of Kimi K2 Thinking, significantly lowering latency while retaining deep reasoning.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking is Moonshot’s reasoning model optimized for deep reasoning tasks, with general agent capabilities.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 is the most intelligent Kimi model to date, featuring native multimodal architecture.", "moonshotai/kimi-k2.description": "Kimi K2 is a large MoE model from Moonshot AI with 1T total parameters and 32B active per forward pass, optimized for agent capabilities including advanced tool use, reasoning, and code synthesis.", "morph/morph-v3-fast.description": "Morph provides a specialized model to apply code changes suggested by frontier models (e.g., Claude or GPT-4o) to your existing files at FAST 4500+ tokens/sec. It is the final step in an AI coding workflow and supports 16k input/output tokens.", "morph/morph-v3-large.description": "Morph provides a specialized model to apply code changes suggested by frontier models (e.g., Claude or GPT-4o) to your existing files at FAST 2500+ tokens/sec. It is the final step in an AI coding workflow and supports 16k input/output tokens.", + "musesteamer-air-image.description": "musesteamer-air-image is an image-generation model developed by Baidu’s search team to deliver exceptional cost-performance. It can quickly generate clear, action-coherent images based on user prompts, turning user descriptions effortlessly into visuals.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B is an updated Nous Hermes 2 version with the latest internally developed datasets.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B is an NVIDIA-customized LLM to improve helpfulness. It performs strongly on Arena Hard, AlpacaEval 2 LC, and GPT-4-Turbo MT-Bench, ranking #1 on all three auto-alignment benchmarks as of Oct 1, 2024. It is trained from Llama-3.1-70B-Instruct using RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward, and HelpSteer2-Preference prompts.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "A distinctive language model delivering exceptional accuracy and efficiency.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Based on context length, topic, and complexity, your request is routed to Llama 3 70B Instruct, Claude 3.5 Sonnet (self-moderated), or GPT-4o.", "oswe-vscode-prime.description": "Raptor mini is a preview model optimized for code-related tasks.", "oswe-vscode-secondary.description": "Raptor mini is a preview model optimized for code-related tasks.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 is a model that strikes a balance between high computational efficiency and excellent reasoning and agent performance.", "perplexity/sonar-pro.description": "Perplexity’s flagship product with search grounding, supporting advanced queries and follow-ups.", "perplexity/sonar-reasoning-pro.description": "An advanced reasoning-focused model that outputs CoT with enhanced search, including multiple search queries per request.", "perplexity/sonar-reasoning.description": "A reasoning-focused model that outputs chain-of-thought (CoT) with detailed, search-grounded explanations.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen code model.", "qwen-coder-turbo.description": "Qwen code model.", "qwen-flash.description": "Fastest and lowest-cost Qwen model, ideal for simple tasks.", + "qwen-image-edit-max.description": "Qwen Image Editing Model supports multi-image input and multi-image output, enabling precise in-image text editing, object addition, removal, or relocation, subject action modification, image style transfer, and enhanced visual detail.", + "qwen-image-edit-plus.description": "Qwen Image Editing Model supports multi-image input and multi-image output, enabling precise in-image text editing, object addition, removal, or relocation, subject action modification, image style transfer, and enhanced visual detail.", "qwen-image-edit.description": "Qwen Image Edit is an image-to-image model that edits images based on input images and text prompts, enabling precise adjustments and creative transformations.", + "qwen-image-max.description": "Qwen Image Generation Model (Max series) delivers enhanced realism and visual naturalness compared with the Plus series, effectively reducing AI-generated artifacts, and demonstrating outstanding performance in human appearance, texture details, and text rendering.", + "qwen-image-plus.description": "It supports a wide range of artistic styles and is particularly proficient at rendering complex text within images, enabling integrated image–text layout design.", "qwen-image.description": "Qwen-Image is a general image generation model supporting multiple art styles and strong complex text rendering, especially Chinese and English. It supports multi-line layouts, paragraph-level text, and fine detail for complex text-image layouts.", "qwen-long.description": "Ultra-large Qwen model with long context and chat across long- and multi-document scenarios.", "qwen-math-plus-latest.description": "Qwen Math is a language model specialized for solving math problems.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Open-source Qwen code model. The latest qwen3-coder-30b-a3b-instruct is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is a flagship code model for multilingual programming and complex code understanding.", "qwen3-coder-flash.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.", + "qwen3-coder-next.description": "Next‑gen Qwen coder optimized for complex multi-file code generation, debugging, and high‑throughput agent workflows. Designed for strong tool integration and improved reasoning performance.", "qwen3-coder-plus.description": "Qwen code model. The latest Qwen3-Coder series is based on Qwen3 and delivers strong coding-agent abilities, tool use, and environment interaction for autonomous programming, with excellent code performance and solid general capability.", "qwen3-coder:480b.description": "Alibaba's high-performance long-context model for agent and coding tasks.", "qwen3-max-2026-01-23.description": "Qwen3 Max models deliver large gains over the 2.5 series in general ability, Chinese/English understanding, complex instruction following, subjective open tasks, multilingual ability, and tool use, with fewer hallucinations. The latest qwen3-max improves agentic programming and tool use over qwen3-max-preview. This release reaches field SOTA and targets more complex agent needs.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is a multimodal chain-of-thought model for detailed visual reasoning.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lightweight, high-speed reasoning version for latency-sensitive or high-volume requests.", "qwen3-vl-plus.description": "Qwen VL is a text generation model with vision understanding. It can do OCR and also summarize and reason, such as extracting attributes from product photos or solving problems from images.", + "qwen3.5-397b-a17b.description": "Supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, offering higher efficiency and lower cost. In multimodal capabilities, it delivers significant improvements over the Qwen3 VL series.", + "qwen3.5-plus.description": "Qwen3.5 Plus supports text, image, and video inputs. For text-only tasks, its performance is comparable to Qwen3 Max, while delivering better efficiency and lower cost. In terms of multimodal capabilities, it shows significant improvements over the Qwen3 VL series.", "qwen3.description": "Qwen3 is Alibaba’s next-generation large language model with strong performance across diverse use cases.", "qwq-32b-preview.description": "QwQ is an experimental research model from Qwen focused on improved reasoning.", "qwq-32b.description": "QwQ is a reasoning model in the Qwen family. Compared with standard instruction-tuned models, it brings thinking and reasoning that significantly boost downstream performance, especially on complex problems. QwQ-32B is a mid-sized reasoning model that rivals top reasoning models like DeepSeek-R1 and o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Mid-sized reasoning model in the Qwen family. Compared with standard instruction-tuned models, QwQ’s thinking and reasoning abilities significantly boost downstream performance, especially on hard problems.", "r1-1776.description": "R1-1776 is a post-trained variant of DeepSeek R1 designed to provide uncensored, unbiased factual information.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro by ByteDance supports text-to-video, image-to-video (first frame, first+last frame), and audio generation synchronized with visuals.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite by BytePlus features web-retrieval-augmented generation for real-time information, enhanced complex prompt interpretation, and improved reference consistency for professional visual creation.", "solar-mini-ja.description": "Solar Mini (Ja) extends Solar Mini with a focus on Japanese while maintaining efficient, strong performance in English and Korean.", "solar-mini.description": "Solar Mini is a compact LLM that outperforms GPT-3.5, with strong multilingual capability supporting English and Korean, offering an efficient small-footprint solution.", "solar-pro.description": "Solar Pro is a high-intelligence LLM from Upstage, focused on instruction following on a single GPU, with IFEval scores above 80. It currently supports English; the full release was planned for November 2024 with expanded language support and longer context.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "An advanced search product with search grounding for complex queries and follow-ups.", "sonar-reasoning.description": "An advanced search product with search grounding for complex queries and follow-ups.", "sonar.description": "A lightweight search-grounded product, faster and cheaper than Sonar Pro.", - "spark-x.description": "X1.5 updates: (1) adds dynamic thinking mode controlled by the `thinking` field; (2) larger context length with 64K input and 64K output; (3) supports FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 is a model that strikes a balance between high computational efficiency and excellent reasoning and agent performance.", + "spark-x.description": "X2 Capabilities Overview: 1. Introduces dynamic adjustment of reasoning mode, controlled via the `thinking` field. 2. Expanded context length: 64K input tokens and 128K output tokens. 3. Supports Function Call functionality.", "stable-diffusion-3-medium.description": "The latest text-to-image model from Stability AI. This version significantly improves image quality, text understanding, and style diversity, interpreting complex natural-language prompts more accurately and generating more precise, diverse images.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applies adversarial diffusion distillation (ADD) to stable-diffusion-3.5-large for faster speed.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is an 800M-parameter MMDiT text-to-image model with excellent quality and prompt alignment, supporting 1-megapixel images and efficient runs on consumer hardware.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Supports large-context interactions for complex dialogues.", "step-2-mini.description": "Built on the next-generation in-house MFA attention architecture, delivering Step-1-like results at much lower cost while achieving higher throughput and faster latency. Handles general tasks with strong coding ability.", "step-2x-large.description": "A new-generation StepFun image model focused on image generation, producing high-quality images from text prompts. It delivers more realistic texture and stronger Chinese/English text rendering.", + "step-3.5-flash.description": "The flagship language reasoning model from Stepfun. This model delivers top-tier reasoning capabilities along with fast and reliable execution. It can decompose and plan complex tasks, quickly and reliably invoke tools to carry them out, and excel in logical reasoning, mathematics, software engineering, deep research, and other sophisticated tasks. The context length is 256K.", "step-3.description": "This model has strong visual perception and complex reasoning, accurately handling cross-domain knowledge understanding, math-vision cross analysis, and a wide range of everyday visual analysis tasks.", "step-r1-v-mini.description": "A reasoning model with strong image understanding that can process images and text, then generate text after deep reasoning. It excels at visual reasoning and delivers top-tier math, coding, and text reasoning, with a 100K context window.", "stepfun-ai/step3.description": "Step3 is a cutting-edge multimodal reasoning model from StepFun, built on an MoE architecture with 321B total and 38B active parameters. Its end-to-end design minimizes decoding cost while delivering top-tier vision-language reasoning. With MFA and AFD design, it stays efficient on both flagship and low-end accelerators. Pretraining uses 20T+ text tokens and 4T image-text tokens across many languages. It reaches leading open-model performance on math, code, and multimodal benchmarks.", - "taichu_llm.description": "Trained on massive high-quality data, with stronger text understanding, content creation, and conversational QA.", - "taichu_o1.description": "taichu_o1 is a next-gen reasoning model that uses multimodal interaction and reinforcement learning to achieve human-like chain-of-thought, supports complex decision simulation, and exposes reasoning paths while maintaining high-accuracy outputs, suited for strategy analysis and deep thinking.", - "taichu_vl.description": "Combines image understanding, knowledge transfer, and logical attribution, excelling in image-text QA.", + "taichu4_vl_2b_nothinking.description": "The No-Thinking version of the Taichu4.0-VL 2B model features lower memory usage, a lightweight design, fast response speed, and strong multimodal understanding capabilities.", + "taichu4_vl_32b.description": "The Thinking version of the Taichu4.0-VL 32B model is suited for complex multimodal understanding and reasoning tasks, demonstrating outstanding performance in multimodal mathematical reasoning, multimodal agent capabilities, and general image and visual comprehension.", + "taichu4_vl_32b_nothinking.description": "The No-Thinking version of the Taichu4.0-VL 32B model is designed for complex image-and-text understanding and visual knowledge QA scenarios, excelling in image captioning, visual question answering, video comprehension, and visual localization tasks.", + "taichu4_vl_3b.description": "The Thinking version of the Taichu4.0-VL 3B model efficiently performs multimodal understanding and reasoning tasks, with comprehensive upgrades in visual comprehension, visual localization, OCR recognition, and related capabilities.", + "taichu_llm.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.", + "taichu_llm_14b.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.", + "taichu_llm_2b.description": "The Zidong Taichu large language model is a high-performance text-generation model developed using fully domestic full-stack technologies. Through structured compression of a hundred-billion-parameter base model and task-specific optimization, it significantly enhances complex text comprehension and knowledge reasoning capabilities. It excels in scenarios such as long-document analysis, cross-lingual information extraction, and knowledge-constrained generation.", + "taichu_o1.description": "taichu_o1 is a next-generation reasoning large model that achieves human-like chain-of-thought through multimodal interaction and reinforcement learning. It supports complex decision-making simulations and, while maintaining high-precision output, reveals interpretable reasoning pathways. It is well-suited for strategy analysis, deep thinking, and similar scenarios.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct uses 80B total parameters with 13B active to match larger models. It supports fast/slow hybrid reasoning, stable long-text understanding, and leading agent ability on BFCL-v3 and τ-Bench. GQA and multi-quant formats enable efficient inference.", "tencent/Hunyuan-MT-7B.description": "Hunyuan Translation Model includes Hunyuan-MT-7B and the ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B is a 7B lightweight translation model supporting 33 languages plus 5 Chinese minority languages. In WMT25 it took 30 first-place results across 31 language pairs. Tencent Hunyuan uses a full training pipeline from pretraining to SFT to translation RL and ensemble RL, achieving leading performance at its size with efficient, easy deployment.", "text-embedding-3-large.description": "The most capable embedding model for English and non-English tasks.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md is suited for everyday tasks and UI generation.", "vercel/v0-1.0-md.description": "Access the models behind v0 to generate, fix, and optimize modern web apps with framework-specific reasoning and up-to-date knowledge.", "vercel/v0-1.5-md.description": "Access the models behind v0 to generate, fix, and optimize modern web apps with framework-specific reasoning and up-to-date knowledge.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code 面向企业级编程需求优化,在 Seed 2.0 优秀的 Agent、VLM 能力基础上,特别增强了代码能力,不仅前端能力表现出众,也对企业常见的多语言编码需求做了特别优化,适合接入各种 AI 编程工具使用。", + "volcengine/doubao-seed-2-0-lite.description": "兼顾生成质量与响应速度,适合作为通用生产级模型", + "volcengine/doubao-seed-2-0-mini.description": "指向 doubao-seed-2-0-mini 最新版", + "volcengine/doubao-seed-2-0-pro.description": "指向 doubao-seed-2-0-pro 最新版", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code is ByteDance Volcano Engine’s LLM optimized for agentic programming, performing strongly on programming and agent benchmarks with 256K context support.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed is the latest model with upgrades in creativity, stability, and realism, delivering fast generation and high value.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro is the latest model with upgrades in creativity, stability, and realism, producing richer details.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash is the latest model with upgrades in creativity, stability, and realism, delivering fast generation and high value.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus is the latest model with upgrades in creativity, stability, and realism, producing richer details.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview supports single-image editing and multi-image fusion.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I supports flexible selection of image dimensions within total pixel area and aspect ratio constraints.", + "wan2.6-image.description": "Wanxiang 2.6 Image supports image editing and mixed image–text layout output.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I supports flexible selection of image dimensions within total pixel area and aspect ratio constraints (same as Wanxiang 2.5).", "wanx-v1.description": "Base text-to-image model. Corresponds to Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Excels at textured portraits with moderate speed and lower cost. Corresponds to Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Fully upgraded version with richer image details and slightly slower speed. Corresponds to Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast is xAI’s high-throughput, low-cost model (supports a 2M context window), ideal for high-concurrency and long-context use cases.", "x-ai/grok-4.description": "Grok 4 is xAI's flagship reasoning model with strong reasoning and multimodal capability.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 is xAI's fast code model with readable, engineering-friendly output.", + "x1.description": "X1.5 updates: (1) adds dynamic thinking mode controlled by the `thinking` field; (2) larger context length with 64K input and 64K output; (3) supports FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision excels at visual tasks, delivering SOTA performance on visual math reasoning (MathVista) and document QA (DocVQA). It handles documents, charts, graphs, screenshots, and photos.", "xai/grok-2.description": "Grok 2 is a frontier model with state-of-the-art reasoning, strong chat, coding, and reasoning performance, and ranks above Claude 3.5 Sonnet and GPT-4 Turbo on LMSYS.", "xai/grok-3-fast.description": "xAI’s flagship model excels in enterprise use cases like data extraction, coding, and summarization, with deep domain knowledge in finance, healthcare, law, and science. The fast variant runs on quicker infrastructure for much faster responses at higher per-token cost.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 is Z.AI’s flagship model with hybrid reasoning optimized for engineering and long-context tasks.", "z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's flagship model with extended context length and coding capability.", "z-ai/glm-4.7.description": "GLM-4.7 is Zhipu's latest flagship model, offering improved general capabilities, simpler and more natural replies, and a more immersive writing experience.", - "z-ai/glm5.description": "A strong reasoning and agentic model from Z.ai with 744B total parameters (40B active), built for complex systems engineering and long-horizon tasks.", + "z-ai/glm4.7.description": "GLM-4.7 is Zhipu latest flagship model, enhanced for Agentic Coding scenarios with improved coding capabilities.", + "z-ai/glm5.description": "GLM-5 is Zhipu AI's new flagship foundation model for agent engineering, achieving open-source SOTA performance in coding and agent capabilities. It matches Claude Opus 4.5 in performance.", + "z-image-turbo.description": "Z-Image is a lightweight text-to-image generation model that can rapidly produce images, supports both Chinese and English text rendering, and flexibly adapts to multiple resolutions and aspect ratios.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is a base model for agent applications using a Mixture-of-Experts architecture. It is optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.", "zai-org/GLM-4.5.description": "GLM-4.5 is a base model built for agent applications using a Mixture-of-Experts architecture. It is deeply optimized for tool use, web browsing, software engineering, and frontend coding, and integrates with code agents like Claude Code and Roo Code. It uses hybrid reasoning to handle both complex reasoning and everyday scenarios.", "zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AI’s latest VLM, built on the GLM-4.5-Air flagship text model (106B total, 12B active) with an MoE architecture for strong performance at lower cost. It follows the GLM-4.1V-Thinking path and adds 3D-RoPE to improve 3D spatial reasoning. Optimized through pretraining, SFT, and RL, it handles images, video, and long documents and ranks top among open models on 41 public multimodal benchmarks. A Thinking mode toggle lets users balance speed and depth.", diff --git a/locales/en-US/plugin.json b/locales/en-US/plugin.json index 99f2729e87..caea551765 100644 --- a/locales/en-US/plugin.json +++ b/locales/en-US/plugin.json @@ -202,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Web Search", "confirm": "Confirm", "debug.arguments": "Arguments", + "debug.error": "Error log", "debug.function_call": "Function call", "debug.intervention": "Skill intervention", "debug.off": "Debug off", @@ -334,8 +335,8 @@ "dev.saveSuccess": "Settings saved", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Meta info", - "dev.title.create": "Add Custom Skill", - "dev.title.edit": "Edit Custom Skill", + "dev.title.create": "Add Custom MCP Skill", + "dev.title.edit": "Edit Custom MCP Skill", "dev.title.editCommunity": "Edit Community Skill", "dev.title.skillDetails": "Skill Details", "dev.title.skillSettings": "Skill Settings", diff --git a/locales/es-ES/common.json b/locales/es-ES/common.json index df47d4db86..fa142f608b 100644 --- a/locales/es-ES/common.json +++ b/locales/es-ES/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Danos una estrella en GitHub", "footer.title": "¿Te gusta nuestro producto?", "fullscreen": "Modo de pantalla completa", - "geminiImageChineseWarning.content": "Nano Banana puede fallar ocasionalmente al generar imágenes cuando se usa chino. Se recomienda usar inglés para mejores resultados.", - "geminiImageChineseWarning.continueGenerate": "Continuar generando", - "geminiImageChineseWarning.continueSend": "Continuar enviando", - "geminiImageChineseWarning.doNotShowAgain": "No mostrar de nuevo", - "geminiImageChineseWarning.title": "Aviso sobre entrada en chino", "historyRange": "Rango de historial", "home.suggestQuestions": "Prueba con estos ejemplos", "import": "Importar", @@ -397,6 +392,7 @@ "tab.chat": "Chat", "tab.community": "Comunidad", "tab.discover": "Descubrir", + "tab.eval": "Laboratorio de Evaluación", "tab.files": "Archivos", "tab.home": "Inicio", "tab.knowledgeBase": "Biblioteca", diff --git a/locales/es-ES/eval.json b/locales/es-ES/eval.json new file mode 100644 index 0000000000..fdcbf1b813 --- /dev/null +++ b/locales/es-ES/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Eliminar Benchmark", + "benchmark.actions.delete.confirm": "¿Estás seguro de que deseas eliminar este benchmark? Los conjuntos de datos relacionados y los registros de evaluación también se eliminarán.", + "benchmark.actions.edit": "Editar Benchmark", + "benchmark.actions.export": "Exportar", + "benchmark.card.bestScore": "Mejor", + "benchmark.card.caseCount": "{{count}} casos", + "benchmark.card.datasetCount": "{{count}} conjuntos de datos", + "benchmark.card.empty": "Aún no hay evaluaciones", + "benchmark.card.emptyHint": "Crea una nueva evaluación desde la página de detalles del benchmark", + "benchmark.card.importDataset": "Importar Conjunto de Datos", + "benchmark.card.noDataset": "Aún no hay conjuntos de datos", + "benchmark.card.noDatasetHint": "Importa un conjunto de datos para comenzar a evaluar", + "benchmark.card.noRecentRuns": "No hay evaluaciones recientes para mostrar", + "benchmark.card.recentRuns": "Evaluaciones Recientes", + "benchmark.card.runCount": "{{count}} evaluaciones", + "benchmark.card.startFirst": "Iniciar Primera Evaluación", + "benchmark.card.viewAll": "Ver todos {{count}}", + "benchmark.create.confirm": "Crear", + "benchmark.create.description.label": "Descripción", + "benchmark.create.description.placeholder": "Descripción del benchmark (opcional)", + "benchmark.create.error": "Error al crear el benchmark", + "benchmark.create.identifier.label": "Identificador", + "benchmark.create.identifier.placeholder": "identificador-del-benchmark", + "benchmark.create.identifierRequired": "Por favor, ingresa un identificador", + "benchmark.create.name.label": "Nombre", + "benchmark.create.name.placeholder": "Ingresa el nombre del benchmark", + "benchmark.create.nameRequired": "Por favor, ingresa un nombre para el benchmark", + "benchmark.create.success": "Benchmark creado exitosamente", + "benchmark.create.tags.label": "Etiquetas", + "benchmark.create.tags.placeholder": "Agrega etiquetas, separadas por comas o espacios", + "benchmark.create.title": "Crear Benchmark", + "benchmark.detail.backToOverview": "Volver al Resumen", + "benchmark.detail.datasetCount": "{{count}} conjunto{{count, plural, one {} other {s}}} de datos en este benchmark", + "benchmark.detail.runCount": "{{count}} ejecución{{count, plural, one {} other {es}}} de evaluación en este benchmark", + "benchmark.detail.stats.addFirstDataset": "Haz clic para agregar el primer conjunto de datos", + "benchmark.detail.stats.avgCost": "Costo Promedio", + "benchmark.detail.stats.avgDuration": "Duración Promedio", + "benchmark.detail.stats.basedOnLastNRuns": "Basado en las últimas {{count}} ejecuciones", + "benchmark.detail.stats.bestPerformance": "Mejor rendimiento por {{agent}} con {{passRate}}% de tasa de éxito", + "benchmark.detail.stats.bestScore": "Mejor Puntaje", + "benchmark.detail.stats.cases": "Casos", + "benchmark.detail.stats.dataScale": "Escala de Datos", + "benchmark.detail.stats.datasets": "Conjuntos de Datos", + "benchmark.detail.stats.needSetup": "Configuración Requerida", + "benchmark.detail.stats.noEvalRecord": "Aún no hay registros de evaluación", + "benchmark.detail.stats.perRun": "/ Ejecución", + "benchmark.detail.stats.runs": "Ejecuciones", + "benchmark.detail.stats.tags": "Etiquetas", + "benchmark.detail.stats.topAgents": "Mejores Agentes", + "benchmark.detail.stats.totalCases": "Total de Casos", + "benchmark.detail.stats.waiting": "Esperando...", + "benchmark.detail.tabs.data": "Datos", + "benchmark.detail.tabs.datasets": "Conjuntos de Datos", + "benchmark.detail.tabs.runs": "Ejecuciones", + "benchmark.edit.confirm": "Guardar", + "benchmark.edit.error": "Error al actualizar el benchmark", + "benchmark.edit.success": "Benchmark actualizado exitosamente", + "benchmark.edit.title": "Editar Benchmark", + "benchmark.empty": "Aún no hay benchmarks. Crea uno para comenzar.", + "caseDetail.actual": "Salida Real", + "caseDetail.chatArea.title": "Conversación", + "caseDetail.completionReason": "Estado", + "caseDetail.cost": "Costo", + "caseDetail.difficulty": "Dificultad", + "caseDetail.duration": "Duración", + "caseDetail.expected": "Salida Esperada", + "caseDetail.failureReason": "Razón del Fallo", + "caseDetail.input": "Entrada", + "caseDetail.judgeComment": "Comentario del Juez", + "caseDetail.resources": "Recursos", + "caseDetail.score": "Puntaje", + "caseDetail.section.runtime": "Tiempo de Ejecución", + "caseDetail.section.scoring": "Detalles de Puntuación", + "caseDetail.section.testCase": "Caso de Prueba", + "caseDetail.steps": "Pasos", + "caseDetail.threads.attempt": "Trayectoria #{{number}}", + "caseDetail.tokens": "Uso de Tokens", + "common.cancel": "Cancelar", + "common.create": "Crear", + "common.delete": "Eliminar", + "common.edit": "Editar", + "common.later": "Más tarde", + "common.next": "Siguiente", + "common.update": "Actualizar", + "dataset.actions.addDataset": "Agregar Conjunto de Datos", + "dataset.actions.import": "Importar Datos", + "dataset.actions.importDataset": "Importar Conjunto de Datos", + "dataset.create.description.label": "Descripción", + "dataset.create.description.placeholder": "Descripción del conjunto de datos (opcional)", + "dataset.create.error": "Error al crear el conjunto de datos", + "dataset.create.identifier.label": "Identificador", + "dataset.create.identifier.placeholder": "identificador-del-conjunto-de-datos", + "dataset.create.identifierRequired": "Por favor, ingresa un identificador", + "dataset.create.importNow": "¿Te gustaría importar datos ahora?", + "dataset.create.name.label": "Nombre del Conjunto de Datos", + "dataset.create.name.placeholder": "Ingresa el nombre del conjunto de datos", + "dataset.create.nameRequired": "Por favor, ingresa un nombre para el conjunto de datos", + "dataset.create.preset.label": "Preajuste del Conjunto de Datos", + "dataset.create.success": "Conjunto de datos creado exitosamente", + "dataset.create.successTitle": "Conjunto de Datos Creado", + "dataset.create.title": "Crear Conjunto de Datos", + "dataset.delete.confirm": "¿Estás seguro de que deseas eliminar este conjunto de datos? Todos los casos de prueba en él también se eliminarán.", + "dataset.delete.error": "Error al eliminar el conjunto de datos", + "dataset.delete.success": "Conjunto de datos eliminado exitosamente", + "dataset.detail.addRun": "Nueva Ejecución", + "dataset.detail.backToBenchmark": "Volver al Benchmark", + "dataset.detail.caseCount": "{{count}} caso{{count, plural, one {} other {s}}} de prueba", + "dataset.detail.relatedRuns": "Ejecuciones Relacionadas ({{count}})", + "dataset.detail.testCases": "Casos de Prueba", + "dataset.detail.viewDetail": "Ver Detalles", + "dataset.edit.error": "Error al actualizar el conjunto de datos", + "dataset.edit.success": "Conjunto de datos actualizado exitosamente", + "dataset.edit.title": "Editar Conjunto de Datos", + "dataset.empty": "No hay conjuntos de datos", + "dataset.empty.description": "Importa un conjunto de datos para comenzar a construir este benchmark", + "dataset.empty.title": "Aún no hay conjuntos de datos", + "dataset.evalMode.hint": "Modo de evaluación predeterminado para el conjunto de datos, puede ser sobrescrito a nivel de caso de prueba", + "dataset.import.category": "Categoría", + "dataset.import.categoryDesc": "Etiqueta de clasificación para agrupación", + "dataset.import.choices": "Opciones", + "dataset.import.choicesDesc": "Opciones de selección múltiple", + "dataset.import.confirm": "Importar", + "dataset.import.error": "Error al importar el conjunto de datos", + "dataset.import.expected": "Respuesta Esperada", + "dataset.import.expectedDelimiter": "Delimitador de Respuesta", + "dataset.import.expectedDelimiter.desc": "Delimitador de respuesta", + "dataset.import.expectedDelimiter.placeholder": "por ejemplo, | o ,", + "dataset.import.expectedDesc": "Respuesta correcta para comparar", + "dataset.import.fieldMapping": "Mapeo de Campos", + "dataset.import.fieldMapping.desc": "La columna \"Entrada\" es obligatoria", + "dataset.import.hideSkipped": "Ocultar columnas omitidas", + "dataset.import.ignore": "Omitir", + "dataset.import.ignoreDesc": "No importar esta columna", + "dataset.import.input": "Entrada", + "dataset.import.inputDesc": "Pregunta o indicación enviada al modelo", + "dataset.import.metadata": "Metadatos", + "dataset.import.metadataDesc": "Información adicional, almacenada tal cual", + "dataset.import.next": "Siguiente", + "dataset.import.parseError": "Error al analizar el archivo", + "dataset.import.parsing": "Analizando archivo...", + "dataset.import.prev": "Anterior", + "dataset.import.preview": "Vista Previa de Datos", + "dataset.import.preview.desc": "Confirma que el mapeo es correcto, luego importa.", + "dataset.import.preview.rows": "{{count}} filas en total", + "dataset.import.sortOrder": "Número de Ítem", + "dataset.import.sortOrderDesc": "ID de pregunta/ítem para referencia", + "dataset.import.step.mapping": "Mapear Campos", + "dataset.import.step.preview": "Vista Previa", + "dataset.import.step.upload": "Subir Archivo", + "dataset.import.success": "Importados exitosamente {{count}} casos de prueba", + "dataset.import.title": "Importar Conjunto de Datos", + "dataset.import.upload.hint": "Soporta CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Haz clic o arrastra el archivo aquí para subirlo", + "dataset.import.uploading": "Subiendo...", + "dataset.switchDataset": "Cambiar Conjunto de Datos", + "difficulty.easy": "Fácil", + "difficulty.hard": "Difícil", + "difficulty.medium": "Medio", + "evalMode.contains": "Coincidencia Contenida", + "evalMode.contains.desc": "La salida debe contener el texto esperado", + "evalMode.equals": "Coincidencia Exacta", + "evalMode.equals.desc": "La salida debe ser exactamente igual a la esperada", + "evalMode.label": "Modo de Evaluación", + "evalMode.llm-rubric": "Juez LLM", + "evalMode.llm-rubric.desc": "Usar LLM para evaluar la calidad de la salida", + "evalMode.placeholder": "Selecciona el modo de evaluación", + "evalMode.prompt.label": "Indicación del Juez", + "evalMode.prompt.placeholder": "Ingresa los criterios de evaluación o la indicación para el juez LLM", + "evalMode.rubric": "Evaluación por Rubrica", + "evalMode.rubric.desc": "Evaluar la salida usando rúbricas del benchmark con criterios ponderados", + "overview.createBenchmark": "Crear Benchmark", + "overview.importDataset": "Importar Conjunto de Datos", + "overview.subtitle": "Evalúa y compara tus agentes de IA en diferentes conjuntos de datos", + "overview.title": "Laboratorio de Evaluación", + "run.actions.abort": "Abortar", + "run.actions.abort.confirm": "¿Estás seguro de que deseas abortar esta evaluación?", + "run.actions.create": "Nueva Evaluación", + "run.actions.delete": "Eliminar", + "run.actions.delete.confirm": "¿Estás seguro de que deseas eliminar esta evaluación?", + "run.actions.edit": "Editar", + "run.actions.retryCase": "Reintentar", + "run.actions.retryErrors": "Reintentar Errores", + "run.actions.retryErrors.confirm": "Esto volverá a ejecutar todos los casos de error y tiempo de espera. Los casos aprobados y fallidos no se verán afectados.", + "run.actions.run": "Ejecutar", + "run.actions.start": "Iniciar", + "run.actions.start.confirm": "¿Estás seguro de que deseas iniciar esta evaluación?", + "run.chart.duration": "Duración (s)", + "run.chart.error": "Error", + "run.chart.fail": "Fallo", + "run.chart.latencyDistribution": "Distribución de Latencia", + "run.chart.latencyTokenDistribution": "Latencia / Distribución de Tokens", + "run.chart.pass": "Aprobado", + "run.chart.passFailError": "Aprobado / Fallo / Error", + "run.chart.tokens": "Tokens", + "run.config.agentId": "Agente", + "run.config.concurrency": "Concurrencia", + "run.config.judgeModel": "Modelo del Juez", + "run.config.k": "Ejecuciones (K)", + "run.config.k.hint": "Ejecuta cada caso de prueba {{k}} veces para métricas pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Pasos Máximos", + "run.config.maxSteps.hint": "Cada llamada LLM o herramienta por el agente cuenta como 1 paso", + "run.config.model": "Modelo", + "run.config.temperature": "Temperatura", + "run.config.timeout": "Tiempo de Espera", + "run.config.timeout.unit": "min", + "run.create.advanced": "Configuraciones Avanzadas", + "run.create.agent": "Agente", + "run.create.agent.placeholder": "Selecciona un agente", + "run.create.agent.required": "Por favor, selecciona un agente", + "run.create.caseCount": "{{count}} casos", + "run.create.confirm": "Crear e Iniciar", + "run.create.createOnly": "Crear", + "run.create.dataset": "Conjunto de Datos", + "run.create.dataset.placeholder": "Selecciona un conjunto de datos", + "run.create.dataset.required": "Por favor, selecciona un conjunto de datos", + "run.create.name": "Nombre de la Ejecución", + "run.create.name.placeholder": "Ingresa un nombre para esta ejecución", + "run.create.name.required": "Por favor, ingresa un nombre para la ejecución", + "run.create.name.useTimestamp": "Usar la hora actual como nombre", + "run.create.openAgent": "Abrir agente en una nueva ventana", + "run.create.title": "Nueva Evaluación", + "run.create.titleWithDataset": "Nueva Evaluación en \"{{dataset}}\"", + "run.detail.agent": "Agente", + "run.detail.agent.none": "No especificado", + "run.detail.agent.unnamed": "Agente Sin Nombre", + "run.detail.backToBenchmark": "Volver al Benchmark", + "run.detail.caseResults": "Detalles de Evaluación", + "run.detail.config": "Configuración de Evaluación", + "run.detail.configSnapshot": "Instantánea de Configuración", + "run.detail.dataset": "Conjunto de Datos", + "run.detail.model": "Modelo", + "run.detail.overview": "Resumen", + "run.detail.progress": "Progreso", + "run.detail.progressCases": "casos", + "run.detail.report": "Resumen de Evaluación", + "run.edit.error": "Error al actualizar la evaluación", + "run.edit.success": "Evaluación actualizada exitosamente", + "run.edit.title": "Editar Evaluación", + "run.empty.description": "Inicia tu primera ejecución de evaluación en este conjunto de datos", + "run.empty.descriptionBenchmark": "Inicia tu primera ejecución de evaluación en este benchmark", + "run.empty.title": "Aún no hay ejecuciones", + "run.filter.active": "Activo", + "run.filter.empty": "No hay ejecuciones que coincidan con el filtro actual.", + "run.idle.hint": "Haz clic en Iniciar para comenzar la evaluación", + "run.metrics.avgScore": "Puntaje Promedio", + "run.metrics.cost": "Costo", + "run.metrics.duration": "Duración", + "run.metrics.errorCases": "Error", + "run.metrics.evaluated": "{{count}} evaluados", + "run.metrics.passRate": "Tasa de Éxito", + "run.metrics.perCase": "/ caso", + "run.metrics.tokens": "Tokens", + "run.metrics.totalDuration": "Acumulativo", + "run.pending.hint": "La evaluación está en cola, esperando para comenzar...", + "run.running.hint": "La evaluación está en ejecución, los resultados aparecerán en breve...", + "run.status.aborted": "Abortado", + "run.status.completed": "Completado", + "run.status.error": "Error de Ejecución", + "run.status.failed": "Fallido", + "run.status.idle": "Inactivo", + "run.status.pending": "Pendiente", + "run.status.running": "En Ejecución", + "run.status.timeout": "Tiempo de Espera Excedido", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Tablero", + "sidebar.datasets": "Conjuntos de Datos", + "sidebar.runs": "Ejecuciones", + "table.columns.avgCost": "Costo Promedio", + "table.columns.category": "Categoría", + "table.columns.cost": "Costo", + "table.columns.difficulty": "Dificultad", + "table.columns.duration": "Duración", + "table.columns.evalMode": "Modo de Evaluación", + "table.columns.expected": "Respuesta Esperada", + "table.columns.input": "Entrada", + "table.columns.score": "Puntaje", + "table.columns.status": "Estado", + "table.columns.steps": "Pasos", + "table.columns.tags": "Etiquetas", + "table.columns.tokens": "Tokens", + "table.columns.totalCost": "Costo Total", + "table.filter.all": "Todos", + "table.filter.error": "Error de Ejecución", + "table.filter.failed": "Fallido", + "table.filter.passed": "Aprobado", + "table.filter.running": "En Ejecución", + "table.search.placeholder": "Buscar casos...", + "table.total": "Total {{count}}", + "testCase.actions.add": "Agregar Caso de Prueba", + "testCase.actions.import": "Importar Casos de Prueba", + "testCase.create.advanced": "Más Opciones", + "testCase.create.difficulty.label": "Dificultad", + "testCase.create.error": "Error al agregar el caso de prueba", + "testCase.create.expected.label": "Salida Esperada", + "testCase.create.expected.placeholder": "Ingresa la respuesta esperada", + "testCase.create.expected.required": "Por favor, ingresa la salida esperada", + "testCase.create.input.label": "Entrada", + "testCase.create.input.placeholder": "Ingresa la entrada o pregunta del caso de prueba", + "testCase.create.success": "Caso de prueba agregado exitosamente", + "testCase.create.tags.label": "Etiquetas", + "testCase.create.tags.placeholder": "Etiquetas separadas por comas (opcional)", + "testCase.create.title": "Agregar Caso de Prueba", + "testCase.delete.confirm": "¿Estás seguro de que deseas eliminar este caso de prueba?", + "testCase.delete.error": "Error al eliminar el caso de prueba", + "testCase.delete.success": "Caso de prueba eliminado", + "testCase.edit.error": "Error al actualizar el caso de prueba", + "testCase.edit.success": "Caso de prueba actualizado exitosamente", + "testCase.edit.title": "Editar Caso de Prueba", + "testCase.empty.description": "Importa o agrega manualmente casos de prueba a este conjunto de datos", + "testCase.empty.title": "Aún no hay casos de prueba", + "testCase.preview.expected": "Esperado", + "testCase.preview.input": "Entrada", + "testCase.preview.title": "Vista Previa del Caso de Prueba", + "testCase.search.placeholder": "Buscar casos..." +} diff --git a/locales/es-ES/home.json b/locales/es-ES/home.json index 8da8ac87ad..97d7e937ab 100644 --- a/locales/es-ES/home.json +++ b/locales/es-ES/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Investigación profunda", "starter.developing": "Próximamente", "starter.image": "Imagen", + "starter.nanoBanana2": "🍌 Nano Banana 2", "starter.seedance": "Seedance 2.0", "starter.write": "Escribir" } diff --git a/locales/es-ES/modelProvider.json b/locales/es-ES/modelProvider.json index bda03d35fd..0d8c302c44 100644 --- a/locales/es-ES/modelProvider.json +++ b/locales/es-ES/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para la serie Gemini; controla el presupuesto de pensamiento.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla la profundidad del pensamiento.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla la profundidad del pensamiento.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Para los modelos Gemini 3.1 Pro Preview; controla la profundidad de pensamiento con niveles bajo/medio/alto.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para la serie Gemini; permite proporcionar contexto mediante URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Selecciona los parámetros extendidos a habilitar", "providerModels.item.modelConfig.extendParams.previewFallback": "Vista previa no disponible", diff --git a/locales/es-ES/models.json b/locales/es-ES/models.json index f791e9c7e1..d053cc4349 100644 --- a/locales/es-ES/models.json +++ b/locales/es-ES/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo ofrece gran capacidad de cómputo y conversación con excelente comprensión semántica y eficiencia en generación, ideal para empresas y desarrolladores.", "360gpt2-o1.description": "360gpt2-o1 construye cadenas de pensamiento mediante búsqueda en árbol con un mecanismo de reflexión y entrenamiento por RL, lo que permite autorreflexión y autocorrección.", "360gpt2-pro.description": "360GPT2 Pro es un modelo avanzado de PLN de 360 con excelente generación y comprensión de texto, especialmente para tareas creativas, transformaciones complejas y simulación de roles.", + "360zhinao2-o1.5.description": "360 Zhinao, el modelo de razonamiento más poderoso, con las capacidades más avanzadas y soporte tanto para llamadas de herramientas como para razonamientos complejos.", "360zhinao2-o1.description": "360zhinao2-o1 construye cadenas de pensamiento mediante búsqueda en árbol con un mecanismo de reflexión y entrenamiento por RL, lo que permite autorreflexión y autocorrección.", + "360zhinao3-o1.5.description": "360 Zhinao, modelo de razonamiento de próxima generación.", "4.0Ultra.description": "Spark Ultra es el modelo más potente de la serie Spark, mejorando la comprensión y resumen de texto, además de optimizar la búsqueda web. Es una solución integral para aumentar la productividad en el trabajo y ofrecer respuestas precisas, posicionándose como un producto inteligente líder.", "AnimeSharp.description": "AnimeSharp (también conocido como \"4x-AnimeSharp\") es un modelo de superresolución de código abierto basado en ESRGAN desarrollado por Kim2091, enfocado en escalar y mejorar imágenes de estilo anime. Fue renombrado desde \"4x-TextSharpV1\" en febrero de 2022, originalmente también para imágenes de texto, pero optimizado fuertemente para contenido anime.", "Baichuan2-Turbo.description": "Utiliza aumento por búsqueda para conectar el modelo con conocimiento de dominio y de la web. Admite cargas de archivos PDF/Word e ingreso de URLs para una recuperación oportuna y completa, con resultados profesionales y precisos.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision es un modelo multimodal de última generación con excelente rendimiento en pruebas clave de lenguaje, texto y visión. Esta versión de 8 mil millones se enfoca en baja latencia y alto rendimiento.", "charglm-3.description": "CharGLM-3 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.", "charglm-4.description": "CharGLM-4 está diseñado para juegos de rol y compañía emocional, con soporte para memoria de múltiples turnos ultra larga y diálogo personalizado.", - "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real, que combina gran capacidad de comprensión y generación para casos de uso a gran escala como atención al cliente, educación y soporte técnico.", + "chatgpt-4o-latest.description": "ChatGPT-4o es un modelo dinámico actualizado en tiempo real. Combina una sólida comprensión y generación de lenguaje para casos de uso a gran escala como soporte al cliente, educación y asistencia técnica.", "claude-2.0.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.", "claude-2.1.description": "Claude 2 ofrece mejoras clave para empresas, incluyendo un contexto líder de 200 mil tokens, reducción de alucinaciones, indicaciones del sistema y una nueva función de prueba: uso de herramientas.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku es el modelo de nueva generación más rápido de Anthropic, con mejoras en múltiples habilidades y superando al anterior modelo insignia Claude 3 Opus en muchos indicadores.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) es un modelo innovador que ofrece una comprensión profunda del lenguaje y una interacción avanzada.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con capacidades mejoradas para razonamiento complejo y cadenas de pensamiento, ideal para tareas de análisis profundo.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo de razonamiento de próxima generación con capacidades mejoradas de razonamiento complejo y cadenas de pensamiento.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 es un modelo visión-lenguaje MoE basado en DeepSeekMoE-27B con activación dispersa, logrando un alto rendimiento con solo 4.5B de parámetros activos. Destaca en preguntas visuales, OCR, comprensión de documentos/tablas/gráficos y anclaje visual.", "deepseek-chat.description": "DeepSeek V3.2 equilibra razonamiento y longitud de salida para tareas diarias de preguntas y respuestas y agentes. En benchmarks públicos alcanza niveles comparables a GPT-5, siendo el primero en integrar razonamiento en el uso de herramientas, liderando evaluaciones de agentes de código abierto.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B es un modelo de lenguaje para código entrenado con 2T de tokens (87% código, 13% texto en chino/inglés). Introduce una ventana de contexto de 16K y tareas de completado intermedio, ofreciendo completado de código a nivel de proyecto y relleno de fragmentos.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 es un nuevo modelo híbrido de razonamiento de DeepSeek, que admite modos de pensamiento y no pensamiento, y ofrece una mayor eficiencia de razonamiento que DeepSeek-R1-0528. Las optimizaciones posteriores al entrenamiento mejoran significativamente el uso de herramientas por parte de agentes y el rendimiento en tareas. Admite una ventana de contexto de 128k y hasta 64k tokens de salida.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 es un modelo de razonamiento de nueva generación con mejoras en razonamiento complejo y cadena de pensamiento, ideal para tareas que requieren análisis profundo.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce atención dispersa para mejorar la eficiencia de entrenamiento e inferencia en textos largos, a un precio más bajo que deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "En tareas altamente complejas, el modelo Speciale supera significativamente a la versión estándar, pero consume considerablemente más tokens y genera mayores costos. Actualmente, DeepSeek-V3.2-Speciale está destinado solo para uso en investigación, no admite llamadas de herramientas y no ha sido optimizado específicamente para conversaciones cotidianas o tareas de escritura.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think es un modelo de pensamiento profundo completo con razonamiento de cadenas largas más sólido.", "deepseek-v3.2.description": "DeepSeek-V3.2 es el primer modelo de razonamiento híbrido de DeepSeek que integra el pensamiento en el uso de herramientas. Utiliza una arquitectura eficiente para ahorrar cómputo, aprendizaje por refuerzo a gran escala para mejorar capacidades y datos sintéticos a gran escala para fortalecer la generalización. La combinación de estos tres elementos logra un rendimiento comparable al GPT-5-High, con una longitud de salida significativamente reducida, disminuyendo notablemente la carga computacional y el tiempo de espera del usuario.", "deepseek-v3.description": "DeepSeek-V3 es un potente modelo MoE con 671 mil millones de parámetros totales y 37 mil millones activos por token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones. Admite una ventana de contexto de 128k y hasta 16k tokens de salida.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro es un modelo multimodal mejorado que admite imágenes de cualquier resolución y proporciones extremas, mejorando el razonamiento visual, reconocimiento de documentos, comprensión de detalles y seguimiento de instrucciones.", - "doubao-lite-128k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 128k.", "doubao-lite-32k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.", - "doubao-lite-4k.description": "Respuesta ultrarrápida con mejor relación calidad-precio, ofreciendo opciones más flexibles en distintos escenarios. Admite razonamiento y ajuste fino con una ventana de contexto de 4k.", - "doubao-pro-256k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 256k.", "doubao-pro-32k.description": "El modelo insignia de mejor rendimiento para tareas complejas, con excelentes resultados en preguntas con referencia, resumen, creación, clasificación de texto y juegos de rol. Admite razonamiento y ajuste fino con una ventana de contexto de 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash es un modelo multimodal de razonamiento profundo ultrarrápido con TPOT de hasta 10ms. Admite texto y visión, supera al modelo lite anterior en comprensión de texto y se equipara a modelos pro en visión. Admite una ventana de contexto de 256k y hasta 16k tokens de salida.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite es un nuevo modelo multimodal de razonamiento profundo con esfuerzo de razonamiento ajustable (Mínimo, Bajo, Medio, Alto), ofreciendo mejor valor y una opción sólida para tareas comunes, con una ventana de contexto de hasta 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "El modelo de imágenes Doubao de ByteDance Seed admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Admite edición de imágenes guiada por texto, con tamaños de salida entre 512 y 1536 en el lado largo.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 es un modelo de generación de imágenes de ByteDance Seed que admite entradas de texto e imagen con generación de imágenes de alta calidad y altamente controlable. Genera imágenes a partir de indicaciones de texto.", - "doubao-vision-lite-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.", - "doubao-vision-pro-32k.description": "Doubao-vision es un modelo multimodal de Doubao con sólida comprensión y razonamiento de imágenes, además de seguimiento preciso de instrucciones. Tiene un buen desempeño en tareas de extracción imagen-texto y razonamiento basado en imágenes, permitiendo escenarios de preguntas y respuestas visuales más complejos y amplios.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 es el último modelo multimodal de imágenes de ByteDance, que integra capacidades de texto a imagen, imagen a imagen y generación de imágenes por lotes, mientras incorpora sentido común y habilidades de razonamiento. En comparación con la versión 4.0 anterior, ofrece una calidad de generación significativamente mejorada, con mayor consistencia en la edición y fusión de múltiples imágenes. Proporciona un control más preciso sobre los detalles visuales, produciendo texto y rostros pequeños de manera más natural, y logra una disposición y color más armoniosos, mejorando la estética general.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite es el último modelo de generación de imágenes de ByteDance. Por primera vez, integra capacidades de recuperación en línea, permitiendo incorporar información web en tiempo real y mejorar la actualidad de las imágenes generadas. La inteligencia del modelo también ha sido mejorada, permitiendo una interpretación precisa de instrucciones complejas y contenido visual. Además, ofrece una mejor cobertura de conocimiento global, consistencia de referencia y calidad de generación en escenarios profesionales, satisfaciendo mejor las necesidades de creación visual a nivel empresarial.", "emohaa.description": "Emohaa es un modelo de salud mental con capacidades profesionales de asesoramiento para ayudar a los usuarios a comprender problemas emocionales.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B es un modelo ligero de código abierto para implementación local y personalizada.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking es un modelo MoE (Mixture-of-Experts) de texto postentrenado con un total de 21 mil millones de parámetros y 3 mil millones de parámetros activos, ofreciendo una calidad y profundidad de razonamiento significativamente mejoradas.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B es un modelo de código abierto con gran número de parámetros y mayor capacidad de comprensión y generación.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B es el modelo MoE ultra grande de Baidu ERNIE con excelente capacidad de razonamiento.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview es un modelo de vista previa con contexto de 8K para evaluar ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K es un modelo ligero de alto rendimiento para escenarios sensibles a la latencia y al costo.", "ernie-novel-8k.description": "ERNIE Novel 8K está diseñado para novelas extensas y tramas de propiedad intelectual con narrativas de múltiples personajes.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K es un modelo de alto valor y concurrencia para servicios en línea a gran escala y aplicaciones empresariales.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview es un modelo de pensamiento rápido con un contexto de 32K para razonamientos complejos y chats de múltiples turnos.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K es un modelo de pensamiento rápido con contexto de 32K para razonamiento complejo y chat de múltiples turnos.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview es una vista previa del modelo de pensamiento para evaluación y pruebas.", + "ernie-x1.1.description": "ERNIE X1.1 es un modelo de pensamiento en vista previa para evaluación y pruebas.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desarrollado por el equipo Seed de ByteDance, permite edición y composición de múltiples imágenes. Ofrece mayor coherencia de sujetos, seguimiento preciso de instrucciones, comprensión de lógica espacial, expresión estética, diseño de carteles y logotipos con renderizado texto-imagen de alta precisión.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desarrollado por ByteDance Seed, admite entradas de texto e imagen para una generación de imágenes altamente controlable y de alta calidad a partir de indicaciones.", "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 centrado en la edición de imágenes, compatible con entradas de texto e imagen.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite es el modelo más pequeño y rentable de Google, diseñado para uso a gran escala.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview es el modelo más rentable de Google con capacidades completas.", - "gemini-2.5-flash-preview-09-2025.description": "Versión preliminar (25 de septiembre de 2025) de Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash es el modelo más rentable de Google con capacidades completas.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview es el modelo de razonamiento más avanzado de Google, capaz de razonar sobre código, matemáticas y problemas STEM, y analizar grandes conjuntos de datos, bases de código y documentos con contexto largo.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google, compatible también con chat multimodal.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) es el modelo de generación de imágenes de Google y también admite chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro es el agente más potente de Google y modelo de codificación emocional, que ofrece visuales más ricos e interacción más profunda sobre un razonamiento de última generación.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte para chat multimodal.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) ofrece calidad de imagen a nivel profesional a velocidad Flash con soporte para chat multimodal.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview mejora las capacidades de razonamiento de Gemini 3 Pro y añade soporte para un nivel de pensamiento medio.", "gemini-flash-latest.description": "Última versión de Gemini Flash", "gemini-flash-lite-latest.description": "Última versión de Gemini Flash-Lite", "gemini-pro-latest.description": "Última versión de Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.", "glm-4v-plus.description": "GLM-4V-Plus comprende video e imágenes múltiples, adecuado para tareas multimodales.", "glm-4v.description": "GLM-4V ofrece sólida comprensión y razonamiento visual en tareas visuales.", - "glm-5.description": "Un modelo sólido de razonamiento y agentivo de Z.ai con un total de 744B parámetros (40B activos), diseñado para ingeniería de sistemas complejos y tareas de largo plazo.", + "glm-5.description": "La serie GLM es un modelo de razonamiento híbrido de Zhipu AI diseñado para agentes, con modos de pensamiento y no pensamiento.", "glm-z1-air.description": "Modelo de razonamiento con gran capacidad de inferencia profunda para tareas complejas.", "glm-z1-airx.description": "Razonamiento ultrarrápido con alta calidad de inferencia.", "glm-z1-flash.description": "La serie GLM-Z1 ofrece razonamiento complejo sólido, destacando en lógica, matemáticas y programación.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Nos complace lanzar Grok 4 Fast, nuestro último avance en modelos de razonamiento rentables.", "grok-4.description": "Nuestro modelo insignia más nuevo y potente, que destaca en PLN, matemáticas y razonamiento: un todoterreno ideal.", "grok-code-fast-1.description": "Nos complace lanzar grok-code-fast-1, un modelo de razonamiento rápido y rentable que destaca en codificación agente.", + "grok-imagine-image-pro.description": "Genera imágenes a partir de indicaciones de texto, edita imágenes existentes con lenguaje natural o refina imágenes de manera iterativa a través de conversaciones de múltiples turnos.", + "grok-imagine-image.description": "Genera imágenes a partir de indicaciones de texto, edita imágenes existentes con lenguaje natural o refina imágenes de manera iterativa a través de conversaciones de múltiples turnos.", "groq/compound-mini.description": "Compound-mini es un sistema de IA compuesto impulsado por modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.", "groq/compound.description": "Compound es un sistema de IA compuesto impulsado por múltiples modelos públicos disponibles en GroqCloud, que utiliza herramientas de forma inteligente y selectiva para responder a las consultas de los usuarios.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B es un modelo de lenguaje creativo e inteligente, resultado de la fusión de varios modelos de alto nivel.", + "hunyuan-2.0-instruct-20251111.description": "Características del lanzamiento: La base del modelo se ha actualizado de TurboS a **Hunyuan 2.0**, lo que resulta en mejoras integrales de capacidad. Mejora significativamente el seguimiento de instrucciones, la comprensión de texto de múltiples turnos y de formato largo, la creación literaria, la precisión del conocimiento, la codificación y las habilidades de razonamiento.", + "hunyuan-2.0-thinking-20251109.description": "Características del lanzamiento: La base del modelo se ha actualizado de TurboS a **Hunyuan 2.0**, lo que resulta en mejoras integrales de capacidad. Mejora significativamente la capacidad del modelo para seguir instrucciones complejas, comprender texto de múltiples turnos y de formato largo, manejar código, operar como agente y realizar tareas de razonamiento.", "hunyuan-a13b.description": "El primer modelo de razonamiento híbrido de Hunyuan, mejorado a partir del hunyuan-standard-256K (80B en total, 13B activos). Por defecto utiliza pensamiento lento y permite cambiar entre pensamiento rápido/lento mediante parámetros o el prefijo /no_think. Su capacidad general ha mejorado respecto a la generación anterior, especialmente en matemáticas, ciencia, comprensión de textos largos y tareas de agentes.", - "hunyuan-code.description": "Último modelo de generación de código entrenado con 200B de código de alta calidad y seis meses de SFT; contexto ampliado a 8K. Ocupa los primeros puestos en benchmarks automatizados para cinco lenguajes y en evaluaciones humanas según diez criterios.", - "hunyuan-functioncall.description": "Último modelo MoE FunctionCall entrenado con datos de llamadas a funciones de alta calidad, con una ventana de contexto de 32K y resultados líderes en benchmarks en múltiples dimensiones.", - "hunyuan-large-longcontext.description": "Destaca en tareas con documentos largos como resúmenes y preguntas/respuestas, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.", - "hunyuan-large-vision.description": "Modelo visión-lenguaje entrenado a partir de Hunyuan Large para comprensión imagen-texto. Admite entrada de múltiples imágenes + texto en cualquier resolución y mejora la comprensión visual multilingüe.", - "hunyuan-large.description": "Hunyuan-large cuenta con ~389B de parámetros totales y ~52B activados, siendo el modelo MoE abierto más grande y potente con arquitectura Transformer.", - "hunyuan-lite-vision.description": "Modelo multimodal de 7B más reciente con ventana de contexto de 32K, compatible con chat multimodal en chino/inglés, reconocimiento de objetos, comprensión de tablas en documentos y matemáticas multimodales, superando a sus pares de 7B en múltiples benchmarks.", + "hunyuan-code.description": "El último modelo de código de Hunyuan entrenado con 200 mil millones de datos de código de alta calidad más seis meses de datos SFT, con un contexto de 8K. Se ubica cerca de la cima en los benchmarks automatizados de código y en evaluaciones humanas expertas en cinco idiomas.", + "hunyuan-functioncall.description": "El último modelo MoE FunctionCall de Hunyuan entrenado con datos de llamadas de herramientas de alta calidad, con una ventana de contexto de 32K y benchmarks líderes en múltiples dimensiones.", "hunyuan-lite.description": "Actualizado a una arquitectura MoE con ventana de contexto de 256K, liderando muchos modelos abiertos en benchmarks de NLP, código, matemáticas e industria.", "hunyuan-pro.description": "Modelo MoE de un billón de parámetros con contexto largo de 32K, líder en benchmarks, fuerte en instrucciones complejas y razonamiento, matemáticas avanzadas, llamadas a funciones y optimizado para traducción multilingüe, finanzas, derecho y medicina.", - "hunyuan-role.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.", - "hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-256K amplía aún más la longitud y calidad del contexto.", - "hunyuan-standard-vision.description": "Último modelo multimodal con respuestas multilingües y capacidad equilibrada en chino/inglés.", - "hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el desequilibrio de carga y el colapso de expertos. Logra un 99.9% en la prueba de aguja en un pajar en contexto largo. MOE-32K ofrece gran valor al manejar entradas extensas.", - "hunyuan-t1-20250321.description": "Desarrolla capacidades equilibradas en artes y STEM con fuerte captura de información en textos largos. Soporta razonamiento en matemáticas, lógica, ciencia y problemas de código en distintos niveles de dificultad.", - "hunyuan-t1-20250403.description": "Mejora la generación de código a nivel de proyecto y la calidad de redacción, refuerza la comprensión de temas en múltiples turnos y el seguimiento de instrucciones ToB, mejora la comprensión a nivel de palabra y reduce problemas de mezcla entre chino simplificado/tradicional e inglés.", - "hunyuan-t1-20250529.description": "Mejora la escritura creativa y la composición, refuerza la codificación frontend, el razonamiento matemático y lógico, y mejora el seguimiento de instrucciones.", - "hunyuan-t1-20250711.description": "Mejora significativamente en matemáticas complejas, lógica y codificación, aumenta la estabilidad de salida y mejora la capacidad en textos largos.", + "hunyuan-role.description": "El último modelo de rol de Hunyuan, ajustado oficialmente con datos de rol, ofreciendo un rendimiento base más sólido en escenarios de rol.", + "hunyuan-standard-256K.description": "Utiliza enrutamiento mejorado para mitigar el balanceo de carga y el colapso de expertos. El texto largo \"aguja en un pajar\" alcanza el 99.9%. MOE-256K avanza aún más en longitud y calidad, ampliando enormemente la longitud de entrada.", + "hunyuan-standard.description": "Utiliza enrutamiento mejorado para mitigar el balanceo de carga y el colapso de expertos. El texto largo \"aguja en un pajar\" alcanza el 99.9%. MOE-32K ofrece mejor valor mientras equilibra calidad y precio para entradas de texto largo.", "hunyuan-t1-latest.description": "Mejora significativamente el modelo de pensamiento lento en matemáticas complejas, razonamiento avanzado, codificación difícil, seguimiento de instrucciones y calidad de escritura creativa.", - "hunyuan-t1-vision-20250619.description": "Último modelo multimodal de razonamiento profundo t1-vision con cadena de pensamiento nativa larga, significativamente mejorado respecto a la versión predeterminada anterior.", "hunyuan-t1-vision-20250916.description": "Último modelo de razonamiento profundo t1-vision con grandes mejoras en VQA, anclaje visual, OCR, gráficos, resolución de problemas fotografiados y creación basada en imágenes, además de mayor rendimiento en inglés y lenguas de bajos recursos.", - "hunyuan-turbo-20241223.description": "Esta versión mejora la escalabilidad de instrucciones para una mejor generalización, mejora significativamente el razonamiento en matemáticas/código/lógica, refuerza la comprensión a nivel de palabra y mejora la calidad de redacción.", - "hunyuan-turbo-latest.description": "Mejoras generales en la experiencia en comprensión de NLP, redacción, chat, QA, traducción y dominios; respuestas más humanas, mejor aclaración de intenciones ambiguas, mejor análisis de palabras, mayor calidad creativa e interactividad, y conversaciones de múltiples turnos más sólidas.", - "hunyuan-turbo-vision.description": "Modelo insignia visión-lenguaje de próxima generación con nueva arquitectura MoE, con amplias mejoras en reconocimiento, creación de contenido, QA de conocimiento y razonamiento analítico.", "hunyuan-turbo.description": "Vista previa del LLM de próxima generación de Hunyuan con nueva arquitectura MoE, que ofrece razonamiento más rápido y mejores resultados que hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Unifica el estilo de solución matemática y refuerza el QA matemático en múltiples turnos. El estilo de redacción se refina para reducir el tono artificial y añadir elegancia.", - "hunyuan-turbos-20250416.description": "Base de preentrenamiento mejorada para mejorar la comprensión y seguimiento de instrucciones; la alineación mejora matemáticas, código, lógica y ciencia; mejora la calidad de redacción, comprensión, precisión de traducción y QA de conocimiento; refuerza habilidades de agente, especialmente en comprensión de múltiples turnos.", - "hunyuan-turbos-20250604.description": "Base de preentrenamiento mejorada con mejor redacción y comprensión lectora, avances significativos en código y STEM, y mejor seguimiento de instrucciones complejas.", - "hunyuan-turbos-20250926.description": "Mejora en la calidad de datos de preentrenamiento y estrategia de postentrenamiento, mejorando agentes, idiomas de bajos recursos/inglés, seguimiento de instrucciones, código y capacidades STEM.", "hunyuan-turbos-latest.description": "El último modelo insignia Hunyuan TurboS con razonamiento más sólido y mejor experiencia general.", - "hunyuan-turbos-longtext-128k-20250325.description": "Destaca en tareas con documentos largos como resúmenes y QA, además de generación general. Fuerte en análisis y generación de textos extensos y complejos.", - "hunyuan-turbos-role-plus.description": "Último modelo de rol, ajustado oficialmente con conjuntos de datos de rol, ofreciendo un rendimiento base más sólido para escenarios de interpretación de personajes.", - "hunyuan-turbos-vision-20250619.description": "Último modelo insignia visión-lenguaje TurboS con grandes avances en tareas imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.", - "hunyuan-turbos-vision.description": "Modelo insignia visión-lenguaje de próxima generación basado en el último TurboS, centrado en tareas de comprensión imagen-texto como reconocimiento de entidades, QA de conocimiento, redacción publicitaria y resolución de problemas basados en fotos.", - "hunyuan-vision-1.5-instruct.description": "Modelo de pensamiento rápido para generación de texto a partir de imágenes basado en TurboS, con mejoras notables respecto a la versión anterior en reconocimiento básico de imágenes y razonamiento visual.", - "hunyuan-vision.description": "Último modelo multimodal que admite entrada de imagen + texto para generar texto.", + "hunyuan-vision-1.5-instruct.description": "Un modelo rápido de imagen a texto basado en la base de texto TurboS, mostrando mejoras notables sobre la versión anterior en reconocimiento de imágenes fundamental y razonamiento de análisis de imágenes.", + "hunyuan-vision.description": "El último modelo multimodal de Hunyuan que admite entradas de imagen + texto para generar texto.", "image-01-live.description": "Un modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen y estilos predefinidos controlables.", "image-01.description": "Un nuevo modelo de generación de imágenes con gran nivel de detalle, compatible con texto a imagen e imagen a imagen.", "imagen-4.0-fast-generate-001.description": "Versión rápida de la serie de modelos de texto a imagen de cuarta generación de Imagen.", "imagen-4.0-generate-001.description": "Serie de modelos de texto a imagen de cuarta generación de Imagen.", - "imagen-4.0-generate-preview-06-06.description": "Familia de modelos de texto a imagen de cuarta generación de Imagen.", "imagen-4.0-ultra-generate-001.description": "Versión Ultra de la serie de modelos de texto a imagen de cuarta generación de Imagen.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la cuarta generación de modelos de texto a imagen de Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small es ideal para generación de código, depuración y refactorización con latencia mínima.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 es el tercer modelo de arquitectura Ling 2.0 del equipo Bailing de Ant Group. Es un modelo MoE con 100 mil millones de parámetros totales pero solo 6.1 mil millones activos por token (4.8 mil millones sin incluir embeddings). A pesar de su configuración ligera, iguala o supera a modelos densos de 40 mil millones y modelos MoE aún más grandes en múltiples pruebas, explorando alta eficiencia mediante arquitectura y estrategia de entrenamiento.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 es un modelo MoE pequeño y de alto rendimiento con 16 mil millones de parámetros totales y solo 1.4 mil millones activos por token (789 millones sin embeddings), ofreciendo generación muy rápida. Con un diseño MoE eficiente y grandes datos de entrenamiento de alta calidad, logra un rendimiento de primer nivel comparable a modelos densos de menos de 10 mil millones y modelos MoE más grandes.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T es el modelo de razonamiento MoE de un billón de parámetros de inclusionAI, adecuado para tareas de razonamiento a gran escala e investigación.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 es una variante del modelo Ring de inclusionAI para escenarios de alto rendimiento, con énfasis en velocidad y eficiencia de costos.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 es el modelo MoE ligero de alto rendimiento de inclusionAI, diseñado para concurrencia.", + "intern-latest.description": "Por defecto, apunta a nuestro último modelo lanzado de la serie Intern, actualmente configurado en intern-s1-pro.", + "intern-s1-mini.description": "Un modelo multimodal ligero con fuertes capacidades de razonamiento científico.", + "intern-s1-pro.description": "Hemos lanzado nuestro modelo de razonamiento multimodal más avanzado de código abierto, actualmente el modelo de lenguaje multimodal de código abierto con mejor rendimiento general.", + "intern-s1.description": "El modelo de razonamiento multimodal de código abierto no solo demuestra fuertes capacidades de propósito general, sino que también logra un rendimiento de vanguardia en una amplia gama de tareas científicas.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat es un modelo de chat de código abierto basado en la arquitectura InternLM2. El modelo de 7B se enfoca en la generación de diálogos con soporte en chino e inglés, utilizando entrenamiento moderno para conversaciones fluidas e inteligentes. Es adecuado para muchos escenarios de chat como atención al cliente y asistentes personales.", - "internlm2.5-latest.description": "Modelos heredados aún mantenidos con excelente y estable rendimiento tras muchas iteraciones. Disponibles en tamaños de 7B y 20B, con soporte para contexto de 1M y mejor seguimiento de instrucciones y uso de herramientas. Por defecto se usa la última serie InternLM2.5 (actualmente internlm2.5-20b-chat).", - "internlm3-latest.description": "Nuestra última serie de modelos con excelente rendimiento en razonamiento, liderando entre los modelos abiertos de su clase. Por defecto se usa la última serie InternLM3 (actualmente internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO es un modelo multimodal preentrenado para razonamiento complejo imagen-texto.", - "internvl2.5-latest.description": "InternVL2.5 sigue siendo mantenido con un rendimiento fuerte y estable. Por defecto se usa la última serie InternVL2.5 (actualmente internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B es un modelo multimodal de tamaño medio que equilibra rendimiento y costo.", "internvl3-1b.description": "InternVL3 1B es un modelo multimodal ligero para implementaciones con recursos limitados.", "internvl3-38b.description": "InternVL3 38B es un modelo multimodal de código abierto de gran tamaño para comprensión imagen-texto de alta precisión.", - "internvl3-latest.description": "Nuestro modelo multimodal más reciente con mejor comprensión imagen-texto y comprensión de imágenes de secuencia larga, comparable a los mejores modelos cerrados. Por defecto se usa la última serie InternVL (actualmente internvl3-78b).", + "internvl3.5-241b-a28b.description": "Nuestro modelo multimodal grande recién lanzado presenta una comprensión mejorada de imagen y texto y capacidades de comprensión de imágenes de secuencia larga, logrando un rendimiento comparable a los modelos cerrados líderes.", + "internvl3.5-latest.description": "Por defecto, apunta al último modelo de la serie InternVL3.5, actualmente configurado en internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG es un modelo de generación aumentada con recuperación de imágenes para búsqueda de imágenes, recuperación imagen-texto y generación de contenido.", "jamba-large.description": "Nuestro modelo más potente y avanzado, diseñado para tareas empresariales complejas con un rendimiento sobresaliente.", "jamba-mini.description": "El modelo más eficiente de su clase, equilibrando velocidad y calidad con un tamaño reducido.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 es un modelo de lenguaje grande eficiente diseñado específicamente para programación y flujos de trabajo de agentes.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 es un modelo de lenguaje grande de última generación y peso ligero, optimizado para programación, flujos de trabajo de agentes y desarrollo moderno de aplicaciones, ofreciendo salidas más limpias, concisas y tiempos de respuesta más rápidos.", "minimax/minimax-m2.description": "MiniMax-M2 es un modelo de alto valor que sobresale en tareas de codificación y agentes para muchos escenarios de ingeniería.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 es un modelo MoE compacto, rápido y rentable diseñado para un rendimiento de codificación y agentes de primer nivel.", "minimaxai/minimax-m2.description": "MiniMax-M2 es un modelo MoE compacto, rápido y rentable (230B en total, 10B activos) diseñado para un rendimiento de primer nivel en codificación y agentes, manteniendo una sólida inteligencia general. Destaca en ediciones de múltiples archivos, ciclos de ejecución y corrección de código, validación de pruebas y cadenas de herramientas complejas.", "ministral-3b-latest.description": "Ministral 3B es el modelo de borde de más alto nivel de Mistral.", "ministral-8b-latest.description": "Ministral 8B es un modelo de borde altamente rentable de Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "El modelo kimi-k2-0905-preview admite una ventana de contexto de 256k, con programación más autónoma, código frontend más pulido y práctico, y mejor comprensión del contexto.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo es una versión de alta velocidad de Kimi K2 Thinking, que reduce significativamente la latencia sin sacrificar el razonamiento profundo.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking es el modelo de razonamiento de Moonshot optimizado para tareas de razonamiento profundo, con capacidades generales de agente.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 es el modelo Kimi más inteligente hasta la fecha, con arquitectura multimodal nativa.", "moonshotai/kimi-k2.description": "Kimi K2 es un modelo MoE de gran escala de Moonshot AI con 1T de parámetros totales y 32B activos por paso, optimizado para capacidades de agente como uso avanzado de herramientas, razonamiento y síntesis de código.", "morph/morph-v3-fast.description": "Morph ofrece un modelo especializado para aplicar cambios de código sugeridos por modelos avanzados (por ejemplo, Claude o GPT-4o) a tus archivos existentes a una velocidad RÁPIDA de más de 4500 tokens/seg. Es el paso final en un flujo de trabajo de codificación con IA y admite 16k tokens de entrada/salida.", "morph/morph-v3-large.description": "Morph ofrece un modelo especializado para aplicar cambios de código sugeridos por modelos avanzados (por ejemplo, Claude o GPT-4o) a tus archivos existentes a una velocidad RÁPIDA de más de 2500 tokens/seg. Es el paso final en un flujo de trabajo de codificación con IA y admite 16k tokens de entrada/salida.", + "musesteamer-air-image.description": "musesteamer-air-image es un modelo de generación de imágenes desarrollado por el equipo de búsqueda de Baidu para ofrecer un rendimiento excepcional en costo-beneficio. Puede generar rápidamente imágenes claras y coherentes en acción basadas en indicaciones del usuario, convirtiendo descripciones en visuales sin esfuerzo.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B es una versión actualizada de Nous Hermes 2 con los últimos conjuntos de datos desarrollados internamente.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B es un modelo LLM personalizado por NVIDIA para mejorar la utilidad. Tiene un rendimiento destacado en Arena Hard, AlpacaEval 2 LC y GPT-4-Turbo MT-Bench, ocupando el puesto #1 en los tres benchmarks de autoalineación al 1 de octubre de 2024. Está entrenado a partir de Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward y prompts de HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modelo de lenguaje distintivo que ofrece precisión y eficiencia excepcionales.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Según la longitud del contexto, el tema y la complejidad, tu solicitud se enruta a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) o GPT-4o.", "oswe-vscode-prime.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.", "oswe-vscode-secondary.description": "Raptor mini es un modelo preliminar optimizado para tareas relacionadas con código.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo que equilibra alta eficiencia computacional con un excelente rendimiento en razonamiento y agentes.", "perplexity/sonar-pro.description": "Producto insignia de Perplexity con búsqueda fundamentada, compatible con consultas avanzadas y seguimientos.", "perplexity/sonar-reasoning-pro.description": "Modelo avanzado centrado en razonamiento que genera cadenas de pensamiento (CoT) con búsqueda mejorada, incluyendo múltiples consultas por solicitud.", "perplexity/sonar-reasoning.description": "Modelo centrado en razonamiento que genera cadenas de pensamiento (CoT) con explicaciones detalladas fundamentadas en búsqueda.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Modelo de código Qwen.", "qwen-coder-turbo.description": "Modelo de código Qwen.", "qwen-flash.description": "El modelo Qwen más rápido y económico, ideal para tareas simples.", + "qwen-image-edit-max.description": "El modelo de edición de imágenes Qwen admite entrada y salida de múltiples imágenes, permitiendo ediciones precisas de texto en imágenes, adición, eliminación o reubicación de objetos, modificación de acciones de sujetos, transferencia de estilo de imagen y detalles visuales mejorados.", + "qwen-image-edit-plus.description": "El modelo de edición de imágenes Qwen admite entrada y salida de múltiples imágenes, permitiendo ediciones precisas de texto en imágenes, adición, eliminación o reubicación de objetos, modificación de acciones de sujetos, transferencia de estilo de imagen y detalles visuales mejorados.", "qwen-image-edit.description": "Qwen Image Edit es un modelo de imagen a imagen que edita imágenes basándose en imágenes de entrada y prompts de texto, permitiendo ajustes precisos y transformaciones creativas.", + "qwen-image-max.description": "El modelo de generación de imágenes Qwen (serie Max) ofrece un realismo mejorado y una naturalidad visual superior en comparación con la serie Plus, reduciendo eficazmente los artefactos generados por IA y demostrando un rendimiento sobresaliente en apariencia humana, detalles de textura y renderizado de texto.", + "qwen-image-plus.description": "Admite una amplia gama de estilos artísticos y es particularmente competente en renderizar texto complejo dentro de imágenes, permitiendo un diseño integrado de disposición de imagen y texto.", "qwen-image.description": "Qwen-Image es un modelo general de generación de imágenes que admite múltiples estilos artísticos y una sólida representación de texto complejo, especialmente en chino e inglés. Soporta diseños de múltiples líneas, texto a nivel de párrafo y detalles finos para composiciones complejas de texto e imagen.", "qwen-long.description": "Modelo Qwen ultra grande con contexto largo y chat en escenarios de múltiples documentos.", "qwen-math-plus-latest.description": "Qwen Math es un modelo de lenguaje especializado en resolver problemas matemáticos.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Modelo de código Qwen de código abierto. El último qwen3-coder-30b-a3b-instruct se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct es un modelo de código insignia para programación multilingüe y comprensión de código complejo.", "qwen3-coder-flash.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.", + "qwen3-coder-next.description": "El próximo generador de código Qwen optimizado para generación de código complejo de múltiples archivos, depuración y flujos de trabajo de agentes de alto rendimiento. Diseñado para una fuerte integración de herramientas y un rendimiento de razonamiento mejorado.", "qwen3-coder-plus.description": "Modelo de código Qwen. La última serie Qwen3-Coder se basa en Qwen3 y ofrece sólidas capacidades de agente de codificación, uso de herramientas e interacción con entornos para programación autónoma, con excelente rendimiento en código y capacidad general sólida.", "qwen3-coder:480b.description": "Modelo de alto rendimiento de Alibaba para tareas de agente y programación con contexto largo.", "qwen3-max-2026-01-23.description": "Los modelos Qwen3 Max ofrecen grandes mejoras sobre la serie 2.5 en capacidad general, comprensión del chino/inglés, seguimiento de instrucciones complejas, tareas abiertas subjetivas, capacidad multilingüe y uso de herramientas, con menos alucinaciones. La última versión qwen3-max mejora la programación agente y el uso de herramientas respecto a qwen3-max-preview. Esta versión alcanza el SOTA en su campo y está orientada a necesidades de agentes más complejas.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking es un modelo multimodal de cadena de pensamiento para razonamiento visual detallado.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versión ligera y de razonamiento rápido para solicitudes sensibles a la latencia o de alto volumen.", "qwen3-vl-plus.description": "Qwen VL es un modelo de generación de texto con comprensión visual. Puede realizar OCR, resumir y razonar, como extraer atributos de fotos de productos o resolver problemas a partir de imágenes.", + "qwen3.5-397b-a17b.description": "Admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, ofreciendo mayor eficiencia y menor costo. En capacidades multimodales, ofrece mejoras significativas sobre la serie Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus admite entradas de texto, imagen y video. Para tareas solo de texto, su rendimiento es comparable al de Qwen3 Max, mientras ofrece mejor eficiencia y menor costo. En términos de capacidades multimodales, muestra mejoras significativas sobre la serie Qwen3 VL.", "qwen3.description": "Qwen3 es el modelo de lenguaje de próxima generación de Alibaba con alto rendimiento en diversos casos de uso.", "qwq-32b-preview.description": "QwQ es un modelo experimental de investigación de Qwen centrado en mejorar el razonamiento.", "qwq-32b.description": "QwQ es un modelo de razonamiento de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, ofrece capacidades de pensamiento y razonamiento que mejoran significativamente el rendimiento en tareas complejas. QwQ-32B es un modelo de razonamiento de tamaño medio que rivaliza con los mejores modelos como DeepSeek-R1 y o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Modelo de razonamiento de tamaño medio de la familia Qwen. En comparación con los modelos estándar ajustados por instrucciones, las capacidades de pensamiento y razonamiento de QwQ mejoran significativamente el rendimiento en tareas difíciles.", "r1-1776.description": "R1-1776 es una variante postentrenada de DeepSeek R1 diseñada para proporcionar información factual sin censura ni sesgo.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance permite generación de video a partir de texto, imagen a video (primer fotograma, primer+último fotograma) y generación de audio sincronizado con lo visual.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus presenta generación aumentada con recuperación web para información en tiempo real, interpretación mejorada de indicaciones complejas y consistencia de referencia mejorada para creación visual profesional.", "solar-mini-ja.description": "Solar Mini (Ja) amplía Solar Mini con un enfoque en japonés, manteniendo un rendimiento eficiente y sólido en inglés y coreano.", "solar-mini.description": "Solar Mini es un modelo LLM compacto que supera a GPT-3.5, con una sólida capacidad multilingüe compatible con inglés y coreano, ofreciendo una solución eficiente de bajo consumo.", "solar-pro.description": "Solar Pro es un LLM de alta inteligencia de Upstage, enfocado en el seguimiento de instrucciones en una sola GPU, con puntuaciones IFEval superiores a 80. Actualmente admite inglés; el lanzamiento completo estaba previsto para noviembre de 2024 con soporte de idiomas ampliado y contexto más largo.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.", "sonar-reasoning.description": "Un producto de búsqueda avanzada con fundamentos de búsqueda para consultas complejas y seguimientos.", "sonar.description": "Un producto ligero con búsqueda fundamentada, más rápido y económico que Sonar Pro.", - "spark-x.description": "Actualizaciones de X1.5: (1) añade modo de pensamiento dinámico controlado por el campo `thinking`; (2) longitud de contexto ampliada con 64K de entrada y 64K de salida; (3) admite FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 es un modelo que equilibra alta eficiencia computacional con un excelente rendimiento en razonamiento y agentes.", + "spark-x.description": "Resumen de capacidades de X2: 1. Introduce ajuste dinámico del modo de razonamiento, controlado a través del campo `thinking`. 2. Longitud de contexto expandida: 64K tokens de entrada y 128K tokens de salida. 3. Admite funcionalidad de llamada de funciones (Function Call).", "stable-diffusion-3-medium.description": "El último modelo de texto a imagen de Stability AI. Esta versión mejora significativamente la calidad de imagen, la comprensión del texto y la diversidad de estilos, interpretando indicaciones en lenguaje natural complejas con mayor precisión y generando imágenes más precisas y variadas.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica destilación de difusión adversarial (ADD) a stable-diffusion-3.5-large para mayor velocidad.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large es un modelo de texto a imagen MMDiT con 800 millones de parámetros que ofrece una excelente calidad y alineación con los prompts, compatible con imágenes de 1 megapíxel y ejecución eficiente en hardware de consumo.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Admite interacciones de gran contexto para diálogos complejos.", "step-2-mini.description": "Basado en la arquitectura de atención MFA de próxima generación, ofrece resultados similares a Step-1 con menor costo, mayor rendimiento y menor latencia. Maneja tareas generales con gran capacidad de programación.", "step-2x-large.description": "Modelo de imagen de nueva generación StepFun centrado en la generación de imágenes, produce imágenes de alta calidad a partir de texto. Ofrece texturas más realistas y mejor representación de texto en chino e inglés.", + "step-3.5-flash.description": "El modelo insignia de razonamiento de lenguaje de Stepfun. Este modelo ofrece capacidades de razonamiento de primer nivel junto con una ejecución rápida y confiable. Puede descomponer y planificar tareas complejas, invocar herramientas de manera rápida y confiable para llevarlas a cabo, y sobresalir en razonamiento lógico, matemáticas, ingeniería de software, investigación profunda y otras tareas sofisticadas. La longitud del contexto es de 256K.", "step-3.description": "Este modelo posee una fuerte percepción visual y razonamiento complejo, manejando con precisión el entendimiento de conocimientos multidominio, análisis matemático-visual y una amplia gama de tareas de análisis visual cotidiano.", "step-r1-v-mini.description": "Modelo de razonamiento con sólida comprensión de imágenes que puede procesar imágenes y texto, y luego generar texto tras un razonamiento profundo. Destaca en razonamiento visual y ofrece rendimiento de primer nivel en matemáticas, programación y razonamiento textual, con una ventana de contexto de 100K.", "stepfun-ai/step3.description": "Step3 es un modelo de razonamiento multimodal de vanguardia de StepFun, basado en una arquitectura MoE con 321B parámetros totales y 38B activos. Su diseño de extremo a extremo minimiza el costo de decodificación mientras ofrece razonamiento visión-lenguaje de primer nivel. Con diseño MFA y AFD, es eficiente tanto en aceleradores de gama alta como baja. Su preentrenamiento incluye más de 20T de tokens de texto y 4T de tokens imagen-texto en múltiples idiomas. Alcanza un rendimiento líder entre modelos abiertos en matemáticas, código y benchmarks multimodales.", - "taichu_llm.description": "Entrenado con datos masivos de alta calidad, con mejor comprensión de texto, creación de contenido y preguntas y respuestas conversacionales.", - "taichu_o1.description": "taichu_o1 es un modelo de razonamiento de nueva generación que utiliza interacción multimodal y aprendizaje por refuerzo para lograr un pensamiento en cadena similar al humano, admite simulación de decisiones complejas y expone rutas de razonamiento manteniendo alta precisión, ideal para análisis estratégico y pensamiento profundo.", - "taichu_vl.description": "Combina comprensión de imágenes, transferencia de conocimiento y atribución lógica, destacando en preguntas y respuestas imagen-texto.", + "taichu4_vl_2b_nothinking.description": "La versión sin pensamiento del modelo Taichu4.0-VL 2B presenta un menor uso de memoria, un diseño ligero, velocidad de respuesta rápida y fuertes capacidades de comprensión multimodal.", + "taichu4_vl_32b.description": "La versión con pensamiento del modelo Taichu4.0-VL 32B es adecuada para tareas complejas de comprensión y razonamiento multimodal, demostrando un rendimiento sobresaliente en razonamiento matemático multimodal, capacidades de agente multimodal y comprensión general de imágenes y visuales.", + "taichu4_vl_32b_nothinking.description": "La versión sin pensamiento del modelo Taichu4.0-VL 32B está diseñada para escenarios complejos de comprensión de imagen y texto y preguntas y respuestas de conocimiento visual, destacándose en subtitulado de imágenes, preguntas y respuestas visuales, comprensión de videos y tareas de localización visual.", + "taichu4_vl_3b.description": "La versión con pensamiento del modelo Taichu4.0-VL 3B realiza eficientemente tareas de comprensión y razonamiento multimodal, con mejoras integrales en comprensión visual, localización visual, reconocimiento OCR y capacidades relacionadas.", + "taichu_llm.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.", + "taichu_llm_14b.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.", + "taichu_llm_2b.description": "El modelo de lenguaje grande Zidong Taichu es un modelo de generación de texto de alto rendimiento desarrollado utilizando tecnologías nacionales de pila completa. A través de la compresión estructurada de un modelo base de cien mil millones de parámetros y la optimización específica de tareas, mejora significativamente la comprensión de texto complejo y las capacidades de razonamiento de conocimiento. Sobresale en escenarios como análisis de documentos largos, extracción de información multilingüe y generación restringida por conocimiento.", + "taichu_o1.description": "taichu_o1 es un modelo de razonamiento de próxima generación que logra cadenas de pensamiento similares a las humanas a través de interacción multimodal y aprendizaje por refuerzo. Admite simulaciones de toma de decisiones complejas y, mientras mantiene una salida de alta precisión, revela vías de razonamiento interpretables. Es adecuado para análisis estratégico, pensamiento profundo y escenarios similares.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B parámetros totales con 13B activos para igualar modelos más grandes. Admite razonamiento híbrido rápido/lento, comprensión estable de textos largos y capacidad líder de agentes en BFCL-v3 y τ-Bench. GQA y formatos multi-cuánticos permiten inferencia eficiente.", "tencent/Hunyuan-MT-7B.description": "El modelo de traducción Hunyuan incluye Hunyuan-MT-7B y el conjunto Hunyuan-MT-Chimera. Hunyuan-MT-7B es un modelo ligero de 7B que admite 33 idiomas y 5 lenguas minoritarias chinas. En WMT25 obtuvo 30 primeros lugares en 31 pares de idiomas. Tencent Hunyuan utiliza una canalización completa de entrenamiento desde preentrenamiento hasta SFT, RL de traducción y RL en conjunto, logrando un rendimiento líder en su tamaño con implementación eficiente y sencilla.", "text-embedding-3-large.description": "El modelo de embedding más potente para tareas en inglés y otros idiomas.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md es adecuado para tareas cotidianas y generación de interfaces de usuario.", "vercel/v0-1.0-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.", "vercel/v0-1.5-md.description": "Accede a los modelos detrás de v0 para generar, corregir y optimizar aplicaciones web modernas con razonamiento específico de framework y conocimiento actualizado.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code está optimizado para necesidades de programación a nivel empresarial, basado en las excelentes capacidades de agente y VLM de Seed 2.0, con un refuerzo especial en habilidades de codificación. No solo destaca en capacidades de front-end, sino que también está especialmente optimizado para los requisitos de codificación multilingüe comunes en empresas, siendo adecuado para integrarse en diversas herramientas de programación con IA.", + "volcengine/doubao-seed-2-0-lite.description": "Equilibra calidad de generación y velocidad de respuesta, adecuado como modelo de producción general.", + "volcengine/doubao-seed-2-0-mini.description": "Apunta a la última versión de doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Apunta a la última versión de doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code es el modelo LLM de ByteDance Volcano Engine optimizado para programación agente, con un sólido rendimiento en benchmarks de programación y agentes, y soporte de contexto de 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, ofreciendo generación rápida y alto valor.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro es el modelo más reciente con mejoras en creatividad, estabilidad y realismo, produciendo detalles más ricos.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash es el último modelo con mejoras en creatividad, estabilidad y realismo, ofreciendo generación rápida y de alto valor.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus es el último modelo con mejoras en creatividad, estabilidad y realismo, produciendo detalles más ricos.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview admite edición de imágenes individuales y fusión de múltiples imágenes.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I admite selección flexible de dimensiones de imagen dentro de las restricciones de área total de píxeles y proporciones de aspecto.", + "wan2.6-image.description": "Wanxiang 2.6 Image admite edición de imágenes y salida de diseño mixto de imagen y texto.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I admite selección flexible de dimensiones de imagen dentro de las restricciones de área total de píxeles y proporciones de aspecto (igual que Wanxiang 2.5).", "wanx-v1.description": "Modelo base de texto a imagen. Corresponde a Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Destaca en retratos con textura, velocidad moderada y menor costo. Corresponde a Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Versión completamente mejorada con detalles de imagen más ricos y velocidad ligeramente menor. Corresponde a Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast es el modelo de alta capacidad y bajo costo de xAI (admite ventana de contexto de 2M), ideal para casos de uso de alta concurrencia y contexto largo.", "x-ai/grok-4.description": "Grok 4 es el modelo insignia de razonamiento de xAI con sólidas capacidades de razonamiento y multimodales.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 es el modelo rápido de código de xAI con salida legible y amigable para ingeniería.", + "x1.description": "Actualizaciones de X1.5: (1) añade modo de pensamiento dinámico controlado por el campo `thinking`; (2) mayor longitud de contexto con 64K de entrada y 64K de salida; (3) admite FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision sobresale en tareas visuales, ofreciendo rendimiento SOTA en razonamiento visual matemático (MathVista) y preguntas sobre documentos (DocVQA). Maneja documentos, gráficos, diagramas, capturas de pantalla y fotos.", "xai/grok-2.description": "Grok 2 es un modelo de vanguardia con razonamiento de última generación, excelente en chat, codificación y rendimiento de razonamiento, superando a Claude 3.5 Sonnet y GPT-4 Turbo en LMSYS.", "xai/grok-3-fast.description": "El modelo insignia de xAI sobresale en casos de uso empresariales como extracción de datos, codificación y resumen, con profundo conocimiento en finanzas, salud, derecho y ciencia. La variante rápida se ejecuta en infraestructura más veloz para respuestas mucho más rápidas con mayor costo por token.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 es el modelo insignia de Z.AI con razonamiento híbrido optimizado para ingeniería y tareas de contexto largo.", "z-ai/glm-4.6.description": "GLM 4.6 es el modelo insignia de Z.AI, con una longitud de contexto ampliada y capacidades avanzadas de programación.", "z-ai/glm-4.7.description": "GLM-4.7 es el modelo insignia más reciente de Zhipu, que ofrece capacidades generales mejoradas, respuestas más simples y naturales, y una experiencia de escritura más inmersiva.", - "z-ai/glm5.description": "Un modelo sólido de razonamiento y agentivo de Z.ai con un total de 744B parámetros (40B activos), diseñado para ingeniería de sistemas complejos y tareas de largo plazo.", + "z-ai/glm4.7.description": "GLM-4.7 es el último modelo insignia de Zhipu, mejorado para escenarios de codificación agentica con capacidades de codificación mejoradas.", + "z-ai/glm5.description": "GLM-5 es el nuevo modelo base insignia de Zhipu AI para ingeniería de agentes, logrando un rendimiento SOTA de código abierto en capacidades de codificación y agentes. Iguala el rendimiento de Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image es un modelo ligero de generación de texto a imagen que puede producir imágenes rápidamente, admite renderizado de texto en chino e inglés y se adapta de manera flexible a múltiples resoluciones y proporciones de aspecto.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air es un modelo base para aplicaciones de agentes que utiliza una arquitectura de Mezcla de Expertos (MoE). Está optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Emplea razonamiento híbrido para abordar tanto escenarios complejos como situaciones cotidianas.", "zai-org/GLM-4.5.description": "GLM-4.5 es un modelo base diseñado para aplicaciones de agentes con una arquitectura de Mezcla de Expertos (MoE). Está profundamente optimizado para el uso de herramientas, navegación web, ingeniería de software y programación frontend, e integra agentes de código como Claude Code y Roo Code. Utiliza razonamiento híbrido para manejar tanto razonamientos complejos como escenarios cotidianos.", "zai-org/GLM-4.5V.description": "GLM-4.5V es el último modelo VLM de Zhipu AI, basado en el modelo de texto insignia GLM-4.5-Air (106B en total, 12B activos) con una arquitectura MoE que ofrece alto rendimiento a menor costo. Sigue la línea de pensamiento de GLM-4.1V-Thinking y añade 3D-RoPE para mejorar el razonamiento espacial en 3D. Optimizado mediante preentrenamiento, SFT y RL, maneja imágenes, videos y documentos extensos, y se posiciona entre los mejores modelos abiertos en 41 benchmarks multimodales públicos. Un modo de pensamiento configurable permite equilibrar velocidad y profundidad.", diff --git a/locales/es-ES/plugin.json b/locales/es-ES/plugin.json index d038fe8ea2..808a27fdb2 100644 --- a/locales/es-ES/plugin.json +++ b/locales/es-ES/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Actualizar nodo", "builtins.lobe-page-agent.apiName.wrapNodes": "Envolver nodos", "builtins.lobe-page-agent.title": "Página", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importar del Mercado", + "builtins.lobe-skill-store.apiName.importSkill": "Importar Habilidad", + "builtins.lobe-skill-store.apiName.searchSkill": "Buscar Habilidades", + "builtins.lobe-skill-store.title": "Tienda de Habilidades", + "builtins.lobe-skills.apiName.execScript": "Ejecutar Script", + "builtins.lobe-skills.apiName.exportFile": "Exportar Archivo", + "builtins.lobe-skills.apiName.importFromMarket": "Importar del Mercado", + "builtins.lobe-skills.apiName.importSkill": "Importar Habilidad", + "builtins.lobe-skills.apiName.readReference": "Leer Referencia", + "builtins.lobe-skills.apiName.runSkill": "Activar Habilidad", + "builtins.lobe-skills.apiName.searchSkill": "Buscar Habilidades", + "builtins.lobe-skills.title": "Habilidades", + "builtins.lobe-tools.apiName.activateTools": "Activar Herramientas", "builtins.lobe-user-memory.apiName.addContextMemory": "Agregar memoria de contexto", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Agregar memoria de experiencia", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Agregar memoria de identidad", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Búsqueda Web", "confirm": "Confirmar", "debug.arguments": "Argumentos", + "debug.error": "Registro de errores", "debug.function_call": "Llamada a función", "debug.intervention": "Intervención de Skill", "debug.off": "Depuración desactivada", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Configuración guardada", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Información meta", - "dev.title.create": "Agregar Skill personalizado", - "dev.title.edit": "Editar Skill personalizado", + "dev.title.create": "Agregar Habilidad MCP Personalizada", + "dev.title.edit": "Editar Habilidad MCP Personalizada", "dev.title.editCommunity": "Editar habilidad de la comunidad", "dev.title.skillDetails": "Detalles de la habilidad", "dev.title.skillSettings": "Configuración de la habilidad", diff --git a/locales/es-ES/providers.json b/locales/es-ES/providers.json index acb42abcd0..3bca43f51f 100644 --- a/locales/es-ES/providers.json +++ b/locales/es-ES/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud es un servicio de nube GenAI rentable basado en modelos de código abierto robustos.", "spark.description": "iFLYTEK Spark ofrece IA multilingüe potente en múltiples dominios, habilitando innovaciones en hardware inteligente, salud, finanzas y otros sectores.", "stepfun.description": "Los modelos Stepfun ofrecen capacidades líderes en razonamiento multimodal y complejo, con comprensión de contexto largo y potente orquestación de búsqueda autónoma.", + "straico.description": "Straico simplifica la integración de la IA al proporcionar un espacio de trabajo unificado que reúne los mejores modelos generativos de texto, imagen y audio, empoderando a los mercadólogos, emprendedores y entusiastas con acceso fluido a diversas herramientas de IA.", "taichu.description": "Un modelo multimodal de nueva generación de CASIA y el Instituto de IA de Wuhan, que admite preguntas y respuestas multivuelta, redacción, generación de imágenes, comprensión 3D y análisis de señales con mayor cognición y creatividad.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power proporciona preguntas y respuestas de conocimiento de extremo a extremo para empresas y desarrolladores, con servicios modulares como análisis de documentos, segmentación, embeddings y reescritura multivuelta para crear soluciones de IA personalizadas.", "togetherai.description": "Together AI ofrece rendimiento líder con modelos innovadores, amplia personalización, escalado rápido y despliegue sencillo para necesidades empresariales.", diff --git a/locales/es-ES/setting.json b/locales/es-ES/setting.json index bef945f14b..57cc12d950 100644 --- a/locales/es-ES/setting.json +++ b/locales/es-ES/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Perfil del Agente", "agentInfoDescription.value.unset": "No Establecido", "agentInfoDescription.value.untitled": "Agente Sin Título", + "agentSkillDetail.addedAt": "Añadido", + "agentSkillDetail.publishedAt": "Publicado", + "agentSkillDetail.repository": "Repositorio de GitHub", + "agentSkillDetail.skillContent": "Contenido de la Habilidad", + "agentSkillDetail.sourceUrl": "Fuente de Importación de la Habilidad", + "agentSkillDetail.updatedAt": "Actualizado", + "agentSkillEdit.descriptionDesc": "Un breve resumen de lo que hace la habilidad, ayudando al agente a entender cuándo usarla", + "agentSkillEdit.fileReadonly": "Este archivo es de solo lectura. Solo se pueden editar la descripción y las instrucciones de la habilidad.", + "agentSkillEdit.instructions": "Instrucciones", + "agentSkillEdit.instructionsDesc": "Las instrucciones principales en formato Markdown que definen el comportamiento y flujo de trabajo de la habilidad", + "agentSkillEdit.instructionsPlaceholder": "Introduce las instrucciones de la habilidad en formato Markdown...", + "agentSkillEdit.nameDesc": "El identificador único para esta habilidad, no editable después de su creación", + "agentSkillEdit.saveSuccess": "Habilidad actualizada con éxito", + "agentSkillEdit.title": "Configuración de la Habilidad", + "agentSkillItem.deleteConfirm.desc": "¿Estás seguro de que deseas eliminar la habilidad del agente \"{{name}}\"? Esta acción no se puede deshacer.", + "agentSkillItem.deleteConfirm.title": "Eliminar Habilidad del Agente", + "agentSkillModal.content": "Contenido de la Habilidad", + "agentSkillModal.contentPlaceholder": "Introduce el contenido de la habilidad en formato Markdown...", + "agentSkillModal.description": "Descripción", + "agentSkillModal.descriptionPlaceholder": "Describe brevemente esta habilidad", + "agentSkillModal.github.desc": "Importa habilidades directamente desde un repositorio público de GitHub.", + "agentSkillModal.github.title": "Importar desde GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/usuario/repositorio", + "agentSkillModal.importError": "Error de importación: {{error}}", + "agentSkillModal.importSuccess": "Habilidad del Agente importada con éxito", + "agentSkillModal.upload.desc": "Sube un archivo local .zip o .skill para instalar.", + "agentSkillModal.upload.dragText": "Arrastra y suelta o haz clic para subir", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md contiene el nombre y la descripción de la habilidad en formato YAML", + "agentSkillModal.upload.requirementZip": "Archivo .zip o .skill con SKILL.md en el directorio raíz", + "agentSkillModal.upload.requirements": "Requisitos del Archivo", + "agentSkillModal.upload.title": "Subir Habilidad", + "agentSkillModal.upload.uploading": "Subiendo...", + "agentSkillModal.url.desc": "Importa una habilidad proporcionando un enlace directo a un archivo SKILL.md.", + "agentSkillModal.url.title": "Importar desde URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Habilidad del Agente", "agentTab.chat": "Preferencias de Chat", "agentTab.meta": "Información del Agente", "agentTab.modal": "Configuración del Modelo", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Especifica el modelo usado para traducción", "systemAgent.translation.title": "Agente de Traducción de Mensajes", "tab.about": "Acerca de", + "tab.addAgentSkill": "Añadir Habilidad del Agente", + "tab.addCustomMcp": "Añadir Habilidad MCP Personalizada", + "tab.addCustomMcp.desc": "Configura manualmente un servidor MCP personalizado", "tab.addCustomSkill": "Agregar habilidad personalizada", "tab.agent": "Servicio de Agente", "tab.all": "Todos", @@ -652,7 +691,13 @@ "tab.experiment": "Experimentos", "tab.hotkey": "Atajos de Teclado", "tab.image": "Servicio de Generación de Imágenes", + "tab.importFromGithub": "Importar desde GitHub", + "tab.importFromGithub.desc": "Importar desde un repositorio público de GitHub", + "tab.importFromUrl": "Importar desde URL", + "tab.importFromUrl.desc": "Importar mediante un enlace directo a SKILL.md", "tab.llm": "Modelo de Lenguaje", + "tab.manualFill": "Rellenar Manualmente", + "tab.manualFill.desc": "Configura manualmente una habilidad MCP personalizada", "tab.memory": "Memoria", "tab.profile": "Mi Cuenta", "tab.provider": "Proveedor de Servicios de IA", @@ -669,6 +714,8 @@ "tab.sync": "Sincronización en la Nube", "tab.systemTools": "Herramientas del sistema", "tab.tts": "Texto a Voz", + "tab.uploadZip": "Subir Archivo Zip", + "tab.uploadZip.desc": "Sube un archivo local .zip o .skill", "tab.usage": "Estadísticas de Uso", "tools.add": "Agregar Habilidad", "tools.builtins.groupName": "Integradas", diff --git a/locales/fa-IR/common.json b/locales/fa-IR/common.json index b0c6b9c76c..9555c9de7c 100644 --- a/locales/fa-IR/common.json +++ b/locales/fa-IR/common.json @@ -256,11 +256,6 @@ "footer.star.title": "ما را در گیت‌هاب ستاره‌دار کنید", "footer.title": "از محصول ما خوشتان آمده؟", "fullscreen": "حالت تمام‌صفحه", - "geminiImageChineseWarning.content": "ممکن است نانو بنانا در تولید تصویر با زبان چینی دچار مشکل شود. توصیه می‌شود از زبان انگلیسی استفاده کنید.", - "geminiImageChineseWarning.continueGenerate": "ادامه تولید", - "geminiImageChineseWarning.continueSend": "ادامه ارسال", - "geminiImageChineseWarning.doNotShowAgain": "دیگر نمایش نده", - "geminiImageChineseWarning.title": "هشدار ورودی چینی", "historyRange": "محدوده تاریخچه", "home.suggestQuestions": "این نمونه‌ها را امتحان کنید", "import": "وارد کردن", @@ -397,6 +392,7 @@ "tab.chat": "گفت‌وگو", "tab.community": "جامعه", "tab.discover": "کشف", + "tab.eval": "آزمایشگاه ارزیابی", "tab.files": "فایل‌ها", "tab.home": "خانه", "tab.knowledgeBase": "کتابخانه", diff --git a/locales/fa-IR/eval.json b/locales/fa-IR/eval.json new file mode 100644 index 0000000000..3783274945 --- /dev/null +++ b/locales/fa-IR/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "حذف بنچمارک", + "benchmark.actions.delete.confirm": "آیا مطمئن هستید که می‌خواهید این بنچمارک را حذف کنید؟ مجموعه داده‌ها و سوابق ارزیابی مرتبط نیز حذف خواهند شد.", + "benchmark.actions.edit": "ویرایش بنچمارک", + "benchmark.actions.export": "صادر کردن", + "benchmark.card.bestScore": "بهترین", + "benchmark.card.caseCount": "{{count}} مورد", + "benchmark.card.datasetCount": "{{count}} مجموعه داده", + "benchmark.card.empty": "هنوز ارزیابی‌ای انجام نشده است", + "benchmark.card.emptyHint": "یک ارزیابی جدید از صفحه جزئیات بنچمارک ایجاد کنید", + "benchmark.card.importDataset": "وارد کردن مجموعه داده", + "benchmark.card.noDataset": "هنوز مجموعه داده‌ای وجود ندارد", + "benchmark.card.noDatasetHint": "یک مجموعه داده وارد کنید تا ارزیابی را شروع کنید", + "benchmark.card.noRecentRuns": "هیچ ارزیابی اخیر برای نمایش وجود ندارد", + "benchmark.card.recentRuns": "ارزیابی‌های اخیر", + "benchmark.card.runCount": "{{count}} ارزیابی", + "benchmark.card.startFirst": "شروع اولین ارزیابی", + "benchmark.card.viewAll": "مشاهده همه {{count}}", + "benchmark.create.confirm": "ایجاد", + "benchmark.create.description.label": "توضیحات", + "benchmark.create.description.placeholder": "توضیحات بنچمارک (اختیاری)", + "benchmark.create.error": "ایجاد بنچمارک ناموفق بود", + "benchmark.create.identifier.label": "شناسه", + "benchmark.create.identifier.placeholder": "شناسه-بنچمارک", + "benchmark.create.identifierRequired": "لطفاً یک شناسه وارد کنید", + "benchmark.create.name.label": "نام", + "benchmark.create.name.placeholder": "نام بنچمارک را وارد کنید", + "benchmark.create.nameRequired": "لطفاً یک نام برای بنچمارک وارد کنید", + "benchmark.create.success": "بنچمارک با موفقیت ایجاد شد", + "benchmark.create.tags.label": "برچسب‌ها", + "benchmark.create.tags.placeholder": "برچسب‌ها را اضافه کنید، با کاما یا فاصله جدا کنید", + "benchmark.create.title": "ایجاد بنچمارک", + "benchmark.detail.backToOverview": "بازگشت به نمای کلی", + "benchmark.detail.datasetCount": "{{count}} مجموعه داده در این بنچمارک", + "benchmark.detail.runCount": "{{count}} اجرای ارزیابی در این بنچمارک", + "benchmark.detail.stats.addFirstDataset": "برای افزودن اولین مجموعه داده کلیک کنید", + "benchmark.detail.stats.avgCost": "میانگین هزینه", + "benchmark.detail.stats.avgDuration": "میانگین مدت زمان", + "benchmark.detail.stats.basedOnLastNRuns": "بر اساس آخرین {{count}} اجرا", + "benchmark.detail.stats.bestPerformance": "بهترین عملکرد توسط {{agent}} با نرخ موفقیت {{passRate}}%", + "benchmark.detail.stats.bestScore": "بهترین امتیاز", + "benchmark.detail.stats.cases": "موارد", + "benchmark.detail.stats.dataScale": "مقیاس داده", + "benchmark.detail.stats.datasets": "مجموعه داده‌ها", + "benchmark.detail.stats.needSetup": "نیاز به تنظیمات", + "benchmark.detail.stats.noEvalRecord": "هنوز هیچ رکورد ارزیابی‌ای وجود ندارد", + "benchmark.detail.stats.perRun": "/ اجرا", + "benchmark.detail.stats.runs": "اجراها", + "benchmark.detail.stats.tags": "برچسب‌ها", + "benchmark.detail.stats.topAgents": "بهترین عامل‌ها", + "benchmark.detail.stats.totalCases": "کل موارد", + "benchmark.detail.stats.waiting": "در انتظار...", + "benchmark.detail.tabs.data": "داده‌ها", + "benchmark.detail.tabs.datasets": "مجموعه داده‌ها", + "benchmark.detail.tabs.runs": "اجراها", + "benchmark.edit.confirm": "ذخیره", + "benchmark.edit.error": "به‌روزرسانی بنچمارک ناموفق بود", + "benchmark.edit.success": "بنچمارک با موفقیت به‌روزرسانی شد", + "benchmark.edit.title": "ویرایش بنچمارک", + "benchmark.empty": "هنوز هیچ بنچمارکی وجود ندارد. یکی ایجاد کنید تا شروع کنید.", + "caseDetail.actual": "خروجی واقعی", + "caseDetail.chatArea.title": "مکالمه", + "caseDetail.completionReason": "وضعیت", + "caseDetail.cost": "هزینه", + "caseDetail.difficulty": "سختی", + "caseDetail.duration": "مدت زمان", + "caseDetail.expected": "خروجی مورد انتظار", + "caseDetail.failureReason": "دلیل شکست", + "caseDetail.input": "ورودی", + "caseDetail.judgeComment": "نظر داور", + "caseDetail.resources": "منابع", + "caseDetail.score": "امتیاز", + "caseDetail.section.runtime": "زمان اجرا", + "caseDetail.section.scoring": "جزئیات امتیازدهی", + "caseDetail.section.testCase": "مورد آزمایشی", + "caseDetail.steps": "مراحل", + "caseDetail.threads.attempt": "مسیر #{{number}}", + "caseDetail.tokens": "استفاده از توکن", + "common.cancel": "لغو", + "common.create": "ایجاد", + "common.delete": "حذف", + "common.edit": "ویرایش", + "common.later": "بعداً", + "common.next": "بعدی", + "common.update": "به‌روزرسانی", + "dataset.actions.addDataset": "افزودن مجموعه داده", + "dataset.actions.import": "وارد کردن داده", + "dataset.actions.importDataset": "وارد کردن مجموعه داده", + "dataset.create.description.label": "توضیحات", + "dataset.create.description.placeholder": "توضیحات مجموعه داده (اختیاری)", + "dataset.create.error": "ایجاد مجموعه داده ناموفق بود", + "dataset.create.identifier.label": "شناسه", + "dataset.create.identifier.placeholder": "شناسه-مجموعه-داده", + "dataset.create.identifierRequired": "لطفاً یک شناسه وارد کنید", + "dataset.create.importNow": "آیا می‌خواهید اکنون داده وارد کنید؟", + "dataset.create.name.label": "نام مجموعه داده", + "dataset.create.name.placeholder": "نام مجموعه داده را وارد کنید", + "dataset.create.nameRequired": "لطفاً یک نام برای مجموعه داده وارد کنید", + "dataset.create.preset.label": "پیش‌تنظیم مجموعه داده", + "dataset.create.success": "مجموعه داده با موفقیت ایجاد شد", + "dataset.create.successTitle": "مجموعه داده ایجاد شد", + "dataset.create.title": "ایجاد مجموعه داده", + "dataset.delete.confirm": "آیا مطمئن هستید که می‌خواهید این مجموعه داده را حذف کنید؟ تمام موارد آزمایشی در آن نیز حذف خواهند شد.", + "dataset.delete.error": "حذف مجموعه داده ناموفق بود", + "dataset.delete.success": "مجموعه داده با موفقیت حذف شد", + "dataset.detail.addRun": "اجرای جدید", + "dataset.detail.backToBenchmark": "بازگشت به بنچمارک", + "dataset.detail.caseCount": "{{count}} مورد آزمایشی", + "dataset.detail.relatedRuns": "اجراهای مرتبط ({{count}})", + "dataset.detail.testCases": "موارد آزمایشی", + "dataset.detail.viewDetail": "مشاهده جزئیات", + "dataset.edit.error": "به‌روزرسانی مجموعه داده ناموفق بود", + "dataset.edit.success": "مجموعه داده با موفقیت به‌روزرسانی شد", + "dataset.edit.title": "ویرایش مجموعه داده", + "dataset.empty": "هیچ مجموعه داده‌ای وجود ندارد", + "dataset.empty.description": "یک مجموعه داده وارد کنید تا این بنچمارک را بسازید", + "dataset.empty.title": "هنوز هیچ مجموعه داده‌ای وجود ندارد", + "dataset.evalMode.hint": "حالت پیش‌فرض ارزیابی برای مجموعه داده، قابل تغییر در سطح موارد آزمایشی", + "dataset.import.category": "دسته‌بندی", + "dataset.import.categoryDesc": "برچسب طبقه‌بندی برای گروه‌بندی", + "dataset.import.choices": "گزینه‌ها", + "dataset.import.choicesDesc": "گزینه‌های چندگانه", + "dataset.import.confirm": "وارد کردن", + "dataset.import.error": "وارد کردن مجموعه داده ناموفق بود", + "dataset.import.expected": "پاسخ مورد انتظار", + "dataset.import.expectedDelimiter": "جداکننده پاسخ", + "dataset.import.expectedDelimiter.desc": "جداکننده پاسخ", + "dataset.import.expectedDelimiter.placeholder": "مثلاً | یا ,", + "dataset.import.expectedDesc": "پاسخ صحیح برای مقایسه", + "dataset.import.fieldMapping": "نگاشت فیلد", + "dataset.import.fieldMapping.desc": "ستون \"ورودی\" الزامی است", + "dataset.import.hideSkipped": "پنهان کردن ستون‌های رد شده", + "dataset.import.ignore": "رد کردن", + "dataset.import.ignoreDesc": "این ستون وارد نشود", + "dataset.import.input": "ورودی", + "dataset.import.inputDesc": "سؤال یا درخواست ارسال شده به مدل", + "dataset.import.metadata": "فراداده", + "dataset.import.metadataDesc": "اطلاعات اضافی، به همان صورت ذخیره می‌شود", + "dataset.import.next": "بعدی", + "dataset.import.parseError": "تجزیه فایل ناموفق بود", + "dataset.import.parsing": "در حال تجزیه فایل...", + "dataset.import.prev": "قبلی", + "dataset.import.preview": "پیش‌نمایش داده", + "dataset.import.preview.desc": "تأیید کنید که نگاشت صحیح است، سپس وارد کنید.", + "dataset.import.preview.rows": "مجموعاً {{count}} ردیف", + "dataset.import.sortOrder": "شماره آیتم", + "dataset.import.sortOrderDesc": "شناسه سؤال/آیتم برای مرجع", + "dataset.import.step.mapping": "نگاشت فیلدها", + "dataset.import.step.preview": "پیش‌نمایش", + "dataset.import.step.upload": "بارگذاری فایل", + "dataset.import.success": "{{count}} مورد آزمایشی با موفقیت وارد شد", + "dataset.import.title": "وارد کردن مجموعه داده", + "dataset.import.upload.hint": "پشتیبانی از CSV، XLSX، JSON، JSONL", + "dataset.import.upload.text": "برای بارگذاری فایل اینجا کلیک کنید یا فایل را بکشید", + "dataset.import.uploading": "در حال بارگذاری...", + "dataset.switchDataset": "تغییر مجموعه داده", + "difficulty.easy": "آسان", + "difficulty.hard": "سخت", + "difficulty.medium": "متوسط", + "evalMode.contains": "مطابقت شامل", + "evalMode.contains.desc": "خروجی باید شامل متن مورد انتظار باشد", + "evalMode.equals": "مطابقت دقیق", + "evalMode.equals.desc": "خروجی باید دقیقاً همانند مورد انتظار باشد", + "evalMode.label": "حالت ارزیابی", + "evalMode.llm-rubric": "داوری LLM", + "evalMode.llm-rubric.desc": "استفاده از LLM برای ارزیابی کیفیت خروجی", + "evalMode.placeholder": "حالت ارزیابی را انتخاب کنید", + "evalMode.prompt.label": "پیشنهاد داوری", + "evalMode.prompt.placeholder": "معیارهای ارزیابی یا پیشنهاد برای داوری LLM را وارد کنید", + "evalMode.rubric": "امتیازدهی بر اساس معیارها", + "evalMode.rubric.desc": "امتیازدهی خروجی با استفاده از معیارهای وزنی بنچمارک", + "overview.createBenchmark": "ایجاد بنچمارک", + "overview.importDataset": "وارد کردن مجموعه داده", + "overview.subtitle": "بنچمارک و ارزیابی عامل‌های هوش مصنوعی خود در مجموعه داده‌ها", + "overview.title": "آزمایشگاه ارزیابی", + "run.actions.abort": "لغو", + "run.actions.abort.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را لغو کنید؟", + "run.actions.create": "ارزیابی جدید", + "run.actions.delete": "حذف", + "run.actions.delete.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را حذف کنید؟", + "run.actions.edit": "ویرایش", + "run.actions.retryCase": "تلاش مجدد", + "run.actions.retryErrors": "تلاش مجدد برای خطاها", + "run.actions.retryErrors.confirm": "این کار تمام موارد خطا و زمان‌بر را دوباره اجرا می‌کند. موارد موفق و ناموفق تحت تأثیر قرار نمی‌گیرند.", + "run.actions.run": "اجرا", + "run.actions.start": "شروع", + "run.actions.start.confirm": "آیا مطمئن هستید که می‌خواهید این ارزیابی را شروع کنید؟", + "run.chart.duration": "مدت زمان (ثانیه)", + "run.chart.error": "خطا", + "run.chart.fail": "ناموفق", + "run.chart.latencyDistribution": "توزیع تأخیر", + "run.chart.latencyTokenDistribution": "توزیع تأخیر / توکن", + "run.chart.pass": "موفق", + "run.chart.passFailError": "موفق / ناموفق / خطا", + "run.chart.tokens": "توکن‌ها", + "run.config.agentId": "عامل", + "run.config.concurrency": "همزمانی", + "run.config.judgeModel": "مدل داوری", + "run.config.k": "تعداد اجراها (K)", + "run.config.k.hint": "هر مورد آزمایشی را {{k}} بار برای معیارهای pass@{{k}}/pass^{{k}} اجرا کنید", + "run.config.maxSteps": "حداکثر مراحل", + "run.config.maxSteps.hint": "هر فراخوانی LLM یا ابزار توسط عامل به عنوان 1 مرحله شمارش می‌شود", + "run.config.model": "مدل", + "run.config.temperature": "دمای مدل", + "run.config.timeout": "مهلت زمانی", + "run.config.timeout.unit": "دقیقه", + "run.create.advanced": "تنظیمات پیشرفته", + "run.create.agent": "عامل", + "run.create.agent.placeholder": "یک عامل انتخاب کنید", + "run.create.agent.required": "لطفاً یک عامل انتخاب کنید", + "run.create.caseCount": "{{count}} مورد", + "run.create.confirm": "ایجاد و شروع", + "run.create.createOnly": "فقط ایجاد", + "run.create.dataset": "مجموعه داده", + "run.create.dataset.placeholder": "یک مجموعه داده انتخاب کنید", + "run.create.dataset.required": "لطفاً یک مجموعه داده انتخاب کنید", + "run.create.name": "نام اجرا", + "run.create.name.placeholder": "یک نام برای این اجرا وارد کنید", + "run.create.name.required": "لطفاً یک نام برای اجرا وارد کنید", + "run.create.name.useTimestamp": "استفاده از زمان فعلی به عنوان نام", + "run.create.openAgent": "باز کردن عامل در پنجره جدید", + "run.create.title": "ارزیابی جدید", + "run.create.titleWithDataset": "ارزیابی جدید در \"{{dataset}}\"", + "run.detail.agent": "عامل", + "run.detail.agent.none": "مشخص نشده", + "run.detail.agent.unnamed": "عامل بدون نام", + "run.detail.backToBenchmark": "بازگشت به بنچمارک", + "run.detail.caseResults": "جزئیات ارزیابی", + "run.detail.config": "پیکربندی ارزیابی", + "run.detail.configSnapshot": "عکس فوری پیکربندی", + "run.detail.dataset": "مجموعه داده", + "run.detail.model": "مدل", + "run.detail.overview": "نمای کلی", + "run.detail.progress": "پیشرفت", + "run.detail.progressCases": "موارد", + "run.detail.report": "خلاصه ارزیابی", + "run.edit.error": "به‌روزرسانی ارزیابی ناموفق بود", + "run.edit.success": "ارزیابی با موفقیت به‌روزرسانی شد", + "run.edit.title": "ویرایش ارزیابی", + "run.empty.description": "اولین اجرای ارزیابی خود را در این مجموعه داده شروع کنید", + "run.empty.descriptionBenchmark": "اولین اجرای ارزیابی خود را در این بنچمارک شروع کنید", + "run.empty.title": "هنوز هیچ اجرایی وجود ندارد", + "run.filter.active": "فعال", + "run.filter.empty": "هیچ اجرایی با فیلتر فعلی مطابقت ندارد.", + "run.idle.hint": "برای شروع ارزیابی کلیک کنید", + "run.metrics.avgScore": "میانگین امتیاز", + "run.metrics.cost": "هزینه", + "run.metrics.duration": "مدت زمان", + "run.metrics.errorCases": "خطا", + "run.metrics.evaluated": "{{count}} ارزیابی شده", + "run.metrics.passRate": "نرخ موفقیت", + "run.metrics.perCase": "/ مورد", + "run.metrics.tokens": "توکن‌ها", + "run.metrics.totalDuration": "تجمعی", + "run.pending.hint": "ارزیابی در صف است، منتظر شروع...", + "run.running.hint": "ارزیابی در حال اجرا است، نتایج به زودی ظاهر می‌شوند...", + "run.status.aborted": "لغو شده", + "run.status.completed": "تکمیل شده", + "run.status.error": "خطای اجرا", + "run.status.failed": "ناموفق", + "run.status.idle": "بیکار", + "run.status.pending": "در انتظار", + "run.status.running": "در حال اجرا", + "run.status.timeout": "مهلت زمانی", + "sidebar.benchmarks": "بنچمارک‌ها", + "sidebar.dashboard": "داشبورد", + "sidebar.datasets": "مجموعه داده‌ها", + "sidebar.runs": "اجراها", + "table.columns.avgCost": "میانگین هزینه", + "table.columns.category": "دسته‌بندی", + "table.columns.cost": "هزینه", + "table.columns.difficulty": "سختی", + "table.columns.duration": "مدت زمان", + "table.columns.evalMode": "حالت ارزیابی", + "table.columns.expected": "پاسخ مورد انتظار", + "table.columns.input": "ورودی", + "table.columns.score": "امتیاز", + "table.columns.status": "وضعیت", + "table.columns.steps": "مراحل", + "table.columns.tags": "برچسب‌ها", + "table.columns.tokens": "توکن‌ها", + "table.columns.totalCost": "کل هزینه", + "table.filter.all": "همه", + "table.filter.error": "خطای اجرا", + "table.filter.failed": "ناموفق", + "table.filter.passed": "موفق", + "table.filter.running": "در حال اجرا", + "table.search.placeholder": "جستجوی موارد...", + "table.total": "مجموع {{count}}", + "testCase.actions.add": "افزودن مورد آزمایشی", + "testCase.actions.import": "وارد کردن موارد آزمایشی", + "testCase.create.advanced": "گزینه‌های بیشتر", + "testCase.create.difficulty.label": "سختی", + "testCase.create.error": "افزودن مورد آزمایشی ناموفق بود", + "testCase.create.expected.label": "خروجی مورد انتظار", + "testCase.create.expected.placeholder": "پاسخ مورد انتظار را وارد کنید", + "testCase.create.expected.required": "لطفاً خروجی مورد انتظار را وارد کنید", + "testCase.create.input.label": "ورودی", + "testCase.create.input.placeholder": "ورودی یا سؤال مورد آزمایشی را وارد کنید", + "testCase.create.success": "مورد آزمایشی با موفقیت اضافه شد", + "testCase.create.tags.label": "برچسب‌ها", + "testCase.create.tags.placeholder": "برچسب‌های جدا شده با کاما (اختیاری)", + "testCase.create.title": "افزودن مورد آزمایشی", + "testCase.delete.confirm": "آیا مطمئن هستید که می‌خواهید این مورد آزمایشی را حذف کنید؟", + "testCase.delete.error": "حذف مورد آزمایشی ناموفق بود", + "testCase.delete.success": "مورد آزمایشی حذف شد", + "testCase.edit.error": "به‌روزرسانی مورد آزمایشی ناموفق بود", + "testCase.edit.success": "مورد آزمایشی با موفقیت به‌روزرسانی شد", + "testCase.edit.title": "ویرایش مورد آزمایشی", + "testCase.empty.description": "موارد آزمایشی را وارد کنید یا به صورت دستی اضافه کنید", + "testCase.empty.title": "هنوز هیچ مورد آزمایشی وجود ندارد", + "testCase.preview.expected": "مورد انتظار", + "testCase.preview.input": "ورودی", + "testCase.preview.title": "پیش‌نمایش مورد آزمایشی", + "testCase.search.placeholder": "جستجوی موارد..." +} diff --git a/locales/fa-IR/home.json b/locales/fa-IR/home.json index 7f7d6499c7..29a85994e8 100644 --- a/locales/fa-IR/home.json +++ b/locales/fa-IR/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "تحقیق عمیق", "starter.developing": "به‌زودی", "starter.image": "تصویر", + "starter.nanoBanana2": "🍌 نانو موز ۲", "starter.seedance": "سیدنس ۲.۰", "starter.write": "نوشتن" } diff --git a/locales/fa-IR/modelProvider.json b/locales/fa-IR/modelProvider.json index c07eab53ff..9e291a1432 100644 --- a/locales/fa-IR/modelProvider.json +++ b/locales/fa-IR/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "برای سری Gemini؛ بودجه تفکر را کنترل می‌کند.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Flash؛ عمق تفکر را کنترل می‌کند.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "برای مدل‌های پیش‌نمایش Gemini 3 Pro؛ عمق تفکر را کنترل می‌کند.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "برای مدل‌های پیش‌نمایش Gemini 3.1 Pro؛ عمق تفکر را با سطوح کم/متوسط/زیاد کنترل می‌کند.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "برای سری Gemini؛ امکان ارائه زمینه از طریق URL را فراهم می‌کند.", "providerModels.item.modelConfig.extendParams.placeholder": "پارامترهای پیشرفته‌ای را برای فعال‌سازی انتخاب کنید", "providerModels.item.modelConfig.extendParams.previewFallback": "پیش‌نمایش در دسترس نیست", diff --git a/locales/fa-IR/models.json b/locales/fa-IR/models.json index eb3a05990a..89855552c3 100644 --- a/locales/fa-IR/models.json +++ b/locales/fa-IR/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo توان پردازشی و گفت‌وگویی بالایی را با درک معنایی عالی و کارایی بالا در تولید متن ارائه می‌دهد و گزینه‌ای ایده‌آل برای کسب‌وکارها و توسعه‌دهندگان است.", "360gpt2-o1.description": "360gpt2-o1 با استفاده از جست‌وجوی درختی و مکانیزم بازتاب و آموزش با یادگیری تقویتی، زنجیره تفکر را ایجاد می‌کند و قابلیت بازاندیشی و اصلاح خودکار را فراهم می‌سازد.", "360gpt2-pro.description": "360GPT2 Pro یک مدل NLP پیشرفته از 360 است که در تولید و درک متن عملکردی عالی دارد، به‌ویژه در وظایف خلاقانه، تبدیل‌های پیچیده و ایفای نقش.", + "360zhinao2-o1.5.description": "مدل استدلال قدرتمند 360 Zhinao، با قابلیت‌های قوی‌ترین و پشتیبانی از فراخوانی ابزار و استدلال پیشرفته.", "360zhinao2-o1.description": "360zhinao2-o1 با استفاده از جست‌وجوی درختی و مکانیزم بازتاب و آموزش با یادگیری تقویتی، زنجیره تفکر را ایجاد می‌کند و قابلیت بازاندیشی و اصلاح خودکار را فراهم می‌سازد.", + "360zhinao3-o1.5.description": "مدل استدلال نسل بعدی 360 Zhinao.", "4.0Ultra.description": "Spark Ultra قدرتمندترین مدل در سری Spark است که درک متن و خلاصه‌سازی را بهبود می‌بخشد و جست‌وجوی وب را ارتقا می‌دهد. این مدل راه‌حلی جامع برای افزایش بهره‌وری در محیط کار و ارائه پاسخ‌های دقیق است و به‌عنوان محصولی هوشمند پیشرو شناخته می‌شود.", "AnimeSharp.description": "AnimeSharp (با نام قبلی \"4x-TextSharpV1\") یک مدل متن‌باز برای افزایش وضوح تصاویر به سبک انیمه است که بر پایه ESRGAN توسط Kim2091 توسعه یافته است. این مدل در ابتدا برای تصاویر متنی نیز طراحی شده بود اما به‌طور ویژه برای محتوای انیمه بهینه‌سازی شده است.", "Baichuan2-Turbo.description": "با استفاده از تقویت جست‌وجو، این مدل به دانش دامنه‌ای و وب متصل می‌شود. از بارگذاری فایل‌های PDF/Word و ورودی URL پشتیبانی می‌کند تا بازیابی اطلاعات به‌موقع و جامع و خروجی‌های حرفه‌ای و دقیق را فراهم سازد.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision یک مدل چندوجهی پیشرفته است که در آزمون‌های کلیدی زبان، متن و تصویر عملکرد بسیار خوبی دارد. این نسخه ۸ میلیاردی بر تأخیر کم و عملکرد قوی تمرکز دارد.", "charglm-3.description": "CharGLM-3 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.", "charglm-4.description": "CharGLM-4 برای نقش‌آفرینی و همراهی احساسی طراحی شده است و از حافظه چندنوبتی بسیار طولانی و گفت‌وگوی شخصی‌سازی‌شده پشتیبانی می‌کند.", - "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت بلادرنگ به‌روزرسانی می‌شود و درک و تولید قوی را برای کاربردهای وسیع مانند پشتیبانی مشتری، آموزش و پشتیبانی فنی ترکیب می‌کند.", + "chatgpt-4o-latest.description": "ChatGPT-4o یک مدل پویا است که به‌صورت لحظه‌ای به‌روزرسانی می‌شود. این مدل ترکیبی از درک زبان قوی و تولید محتوا برای موارد استفاده گسترده مانند پشتیبانی مشتری، آموزش و کمک فنی ارائه می‌دهد.", "claude-2.0.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", "claude-2.1.description": "Claude 2 بهبودهای کلیدی برای سازمان‌ها ارائه می‌دهد، از جمله زمینه ۲۰۰ هزار توکنی پیشرو، کاهش توهمات، دستورات سیستمی و ویژگی آزمایشی جدید: فراخوانی ابزار.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku سریع‌ترین مدل نسل جدید Anthropic است که مهارت‌های مختلف را بهبود بخشیده و در بسیاری از معیارها از مدل پرچم‌دار قبلی Claude 3 Opus پیشی گرفته است.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) یک مدل نوآورانه با درک عمیق زبان و تعامل است.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره تفکر برای وظایف تحلیلی عمیق است.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 یک مدل استدلال نسل بعدی با قابلیت‌های استدلال پیچیده‌تر و زنجیره‌ای از تفکر است.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 یک مدل بینایی-زبانی MoE مبتنی بر DeepSeekMoE-27B با فعال‌سازی پراکنده است که تنها با ۴.۵ میلیارد پارامتر فعال عملکرد قوی‌ای دارد. این مدل در پاسخ به سوالات بصری، OCR، درک اسناد/جداول/نمودارها و پایه‌گذاری بصری عملکرد درخشانی دارد.", "deepseek-chat.description": "DeepSeek V3.2 تعادلی میان استدلال و طول خروجی برای پرسش‌وپاسخ روزمره و وظایف عامل‌ها برقرار می‌کند. در معیارهای عمومی به سطح GPT-5 می‌رسد و نخستین مدلی است که تفکر را در استفاده از ابزارها ادغام کرده و در ارزیابی‌های عامل‌های متن‌باز پیشتاز است.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B یک مدل زبان برنامه‌نویسی است که با ۲ تریلیون توکن (۸۷٪ کد، ۱۳٪ متن چینی/انگلیسی) آموزش دیده است. این مدل دارای پنجره متنی ۱۶K و وظایف تکمیل در میانه است که تکمیل کد در سطح پروژه و پر کردن قطعات کد را فراهم می‌کند.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 یک مدل استدلال ترکیبی جدید از DeepSeek است که از هر دو حالت تفکر و بدون تفکر پشتیبانی می‌کند و بهره‌وری تفکر بالاتری نسبت به DeepSeek-R1-0528 دارد. بهینه‌سازی‌های پس از آموزش، استفاده از ابزارها و عملکرد وظایف نماینده را به‌طور قابل توجهی بهبود می‌بخشد. این مدل از پنجره متنی ۱۲۸ هزار توکن و خروجی تا ۶۴ هزار توکن پشتیبانی می‌کند.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 یک مدل استدلال نسل بعدی با توانایی استدلال پیچیده و زنجیره‌ای بهبود یافته است که برای وظایف نیازمند تحلیل عمیق مناسب است.", "deepseek-v3.2-exp.description": "مدل deepseek-v3.2-exp با معرفی توجه پراکنده، کارایی آموزش و استنتاج در متون بلند را بهبود می‌بخشد و نسبت به deepseek-v3.1 قیمت پایین‌تری دارد.", + "deepseek-v3.2-speciale.description": "در وظایف بسیار پیچیده، مدل Speciale به‌طور قابل‌توجهی از نسخه استاندارد بهتر عمل می‌کند، اما مصرف توکن بیشتری دارد و هزینه‌های بالاتری ایجاد می‌کند. در حال حاضر، DeepSeek-V3.2-Speciale فقط برای استفاده تحقیقاتی در نظر گرفته شده است، از فراخوانی ابزار پشتیبانی نمی‌کند و به‌طور خاص برای مکالمات روزمره یا وظایف نوشتاری بهینه نشده است.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think یک مدل تفکر عمیق کامل است که توانایی استدلال زنجیره‌ای بلندتری دارد.", "deepseek-v3.2.description": "DeepSeek-V3.2 نخستین مدل استدلال ترکیبی از DeepSeek است که تفکر را با استفاده از ابزارها ادغام می‌کند. این مدل با معماری کارآمد برای صرفه‌جویی در محاسبات، یادگیری تقویتی در مقیاس بزرگ برای افزایش توانایی‌ها، و داده‌های مصنوعی در مقیاس وسیع برای تقویت تعمیم‌پذیری آموزش دیده است. ترکیب این سه عامل عملکردی هم‌تراز با GPT-5-High ارائه می‌دهد، در حالی که طول خروجی را به‌طور قابل توجهی کاهش داده و سربار محاسباتی و زمان انتظار کاربر را کم می‌کند.", "deepseek-v3.description": "DeepSeek-V3 یک مدل MoE قدرتمند با ۶۷۱ میلیارد پارامتر کل و ۳۷ میلیارد پارامتر فعال در هر توکن است.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد. از پنجره متنی ۱۲۸هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی می‌کند.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro یک مدل چندوجهی ارتقایافته است که از تصاویر با هر وضوح و نسبت تصویر پشتیبانی می‌کند و استدلال بصری، شناسایی اسناد، درک جزئیات و پیروی از دستورالعمل‌ها را بهبود می‌بخشد.", - "doubao-lite-128k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۱۲۸هزار توکن پشتیبانی می‌کند.", "doubao-lite-32k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۳۲هزار توکن پشتیبانی می‌کند.", - "doubao-lite-4k.description": "پاسخ‌دهی فوق‌العاده سریع با ارزش بهتر، ارائه گزینه‌های انعطاف‌پذیرتر در سناریوهای مختلف. از استدلال و تنظیم دقیق با پنجره متنی ۴هزار توکن پشتیبانی می‌کند.", - "doubao-pro-256k.description": "بهترین مدل پرچم‌دار برای وظایف پیچیده با نتایج قوی در پرسش و پاسخ مرجع، خلاصه‌سازی، تولید محتوا، طبقه‌بندی متنی و نقش‌آفرینی. از استدلال و تنظیم دقیق با پنجره متنی ۲۵۶هزار توکن پشتیبانی می‌کند.", "doubao-pro-32k.description": "بهترین مدل پرچم‌دار برای وظایف پیچیده با نتایج قوی در پرسش و پاسخ مرجع، خلاصه‌سازی، تولید محتوا، طبقه‌بندی متنی و نقش‌آفرینی. از استدلال و تنظیم دقیق با پنجره متنی ۳۲هزار توکن پشتیبانی می‌کند.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash یک مدل چندوجهی با استدلال عمیق و پاسخ‌دهی فوق‌العاده سریع با TPOT تا ۱۰ میلی‌ثانیه است. از متن و تصویر پشتیبانی می‌کند، در درک متن از مدل lite قبلی پیشی می‌گیرد و در درک تصویر با مدل‌های pro رقابت می‌کند. از پنجره متنی ۲۵۶هزار توکن و خروجی تا ۱۶هزار توکن پشتیبانی می‌کند.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite یک مدل جدید چندوجهی با استدلال عمیق است که تلاش استدلالی قابل تنظیم (حداقل، کم، متوسط، زیاد) را ارائه می‌دهد و گزینه‌ای با ارزش بالا برای وظایف رایج است. از پنجره متنی تا ۲۵۶هزار توکن پشتیبانی می‌کند.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "مدل تصویر Doubao از ByteDance Seed از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. از ویرایش تصویر با راهنمایی متن پشتیبانی می‌کند و اندازه خروجی بین ۵۱۲ تا ۱۵۳۶ در ضلع بلندتر است.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 یک مدل تولید تصویر از ByteDance Seed است که از ورودی‌های متن و تصویر پشتیبانی می‌کند و تولید تصویر با کیفیت بالا و قابل کنترل را ارائه می‌دهد. این مدل تصاویر را از دستورات متنی تولید می‌کند.", - "doubao-vision-lite-32k.description": "Doubao-vision یک مدل چندوجهی از Doubao است که درک تصویر و استدلال قوی به همراه پیروی دقیق از دستورالعمل‌ها را ارائه می‌دهد. در استخراج متن از تصویر و وظایف استدلال مبتنی بر تصویر عملکرد خوبی دارد و سناریوهای پیچیده‌تر و گسترده‌تری برای پرسش و پاسخ بصری را ممکن می‌سازد.", - "doubao-vision-pro-32k.description": "Doubao-vision یک مدل چندوجهی از Doubao است که درک تصویر و استدلال قوی به همراه پیروی دقیق از دستورالعمل‌ها را ارائه می‌دهد. در استخراج متن از تصویر و وظایف استدلال مبتنی بر تصویر عملکرد خوبی دارد و سناریوهای پیچیده‌تر و گسترده‌تری برای پرسش و پاسخ بصری را ممکن می‌سازد.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 جدیدترین مدل چندوجهی تصویر ByteDance است که قابلیت‌های تبدیل متن به تصویر، تصویر به تصویر و تولید دسته‌ای تصاویر را ادغام می‌کند و توانایی‌های استدلال و دانش عمومی را نیز در بر می‌گیرد. در مقایسه با نسخه قبلی 4.0، کیفیت تولید به‌طور قابل‌توجهی بهبود یافته است، با سازگاری بهتر در ویرایش و ترکیب چند تصویر. کنترل دقیق‌تری بر جزئیات بصری ارائه می‌دهد، متن‌های کوچک و چهره‌های کوچک را به‌طور طبیعی‌تر تولید می‌کند و به هماهنگی بهتر در چیدمان و رنگ دست می‌یابد، که زیبایی کلی را افزایش می‌دهد.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite جدیدترین مدل تولید تصویر ByteDance است. برای اولین بار، قابلیت‌های بازیابی آنلاین را ادغام کرده است که به آن امکان می‌دهد اطلاعات وب لحظه‌ای را وارد کند و به‌موقع بودن تصاویر تولید شده را افزایش دهد. هوش مدل نیز ارتقا یافته است، که تفسیر دقیق دستورالعمل‌های پیچیده و محتوای بصری را امکان‌پذیر می‌کند. علاوه بر این، پوشش دانش جهانی، سازگاری مرجع و کیفیت تولید در سناریوهای حرفه‌ای بهبود یافته است، که نیازهای خلق بصری در سطح سازمانی را بهتر برآورده می‌کند.", "emohaa.description": "Emohaa یک مدل سلامت روان با توانایی مشاوره حرفه‌ای است که به کاربران در درک مسائل احساسی کمک می‌کند.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B یک مدل سبک متن‌باز برای استقرار محلی و سفارشی‌سازی شده است.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking یک مدل متن MoE (ترکیب متخصصان) پس از آموزش با مجموع 21 میلیارد پارامتر و 3 میلیارد پارامتر فعال است که کیفیت و عمق استدلال را به‌طور قابل‌توجهی افزایش می‌دهد.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B یک مدل متن‌باز با پارامترهای زیاد و توانایی درک و تولید قوی‌تر است.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B مدل MoE بسیار بزرگ Baidu ERNIE با توانایی استدلال عالی است.", "ernie-4.5-8k-preview.description": "پیش‌نمایش مدل با پنجره متنی ۸هزار توکن برای ارزیابی ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K یک مدل سبک و پرکاربرد برای سناریوهای حساس به تأخیر و هزینه است.", "ernie-novel-8k.description": "ERNIE Novel 8K برای رمان‌های بلند و داستان‌های IP با روایت چندشخصیتی طراحی شده است.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K یک مدل با ارزش بالا و هم‌زمانی بالا برای خدمات آنلاین گسترده و برنامه‌های سازمانی است.", + "ernie-x1-turbo-32k-preview.description": "پیش‌نمایش ERNIE X1 Turbo 32K یک مدل سریع تفکر با زمینه 32K برای استدلال پیچیده و چت چندمرحله‌ای است.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K یک مدل تفکر سریع با زمینه ۳۲K برای استدلال پیچیده و گفت‌وگوی چندمرحله‌ای است.", "ernie-x1.1-preview.description": "پیش‌نمایش ERNIE X1.1 یک مدل تفکر برای ارزیابی و آزمایش است.", + "ernie-x1.1.description": "ERNIE X1.1 یک مدل تفکر پیش‌نمایش برای ارزیابی و آزمایش است.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5، ساخته تیم Seed در ByteDance، از ویرایش و ترکیب چندتصویری پشتیبانی می‌کند. این مدل دارای ثبات موضوعی بهبود یافته، پیروی دقیق از دستورالعمل‌ها، درک منطق فضایی، بیان زیبایی‌شناختی، طراحی پوستر و لوگو با رندر دقیق متن-تصویر است.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0، ساخته تیم Seed در ByteDance، از ورودی‌های متنی و تصویری برای تولید تصاویر با کیفیت بالا و کنترل‌پذیری بالا از طریق دستورات پشتیبانی می‌کند.", "fal-ai/flux-kontext/dev.description": "مدل FLUX.1 با تمرکز بر ویرایش تصویر که از ورودی‌های متنی و تصویری پشتیبانی می‌کند.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite کوچک‌ترین و مقرون‌به‌صرفه‌ترین مدل گوگل است که برای استفاده در مقیاس وسیع طراحی شده است.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.", - "gemini-2.5-flash-preview-09-2025.description": "نسخه پیش‌نمایش (۲۵ سپتامبر ۲۰۲۵) از Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash مقرون‌به‌صرفه‌ترین مدل گوگل با قابلیت‌های کامل است.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview پیشرفته‌ترین مدل استدلالی گوگل است که توانایی استدلال در کد، ریاضی و مسائل STEM را دارد و می‌تواند مجموعه‌داده‌های بزرگ، پایگاه‌های کد و اسناد را با زمینه طولانی تحلیل کند.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) مدل تولید تصویر گوگل است که از گفت‌وگوی چندوجهی نیز پشتیبانی می‌کند.", "gemini-3-pro-preview.description": "Gemini 3 Pro قدرتمندترین مدل عامل و کدنویسی احساسی گوگل است که تعاملات بصری غنی‌تر و تعامل عمیق‌تری را بر پایه استدلال پیشرفته ارائه می‌دهد.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) کیفیت تصویر حرفه‌ای را با سرعت Flash ارائه می‌دهد و از چت چندوجهی پشتیبانی می‌کند.", + "gemini-3.1-pro-preview.description": "پیش‌نمایش Gemini 3.1 Pro قابلیت‌های استدلال بهبود یافته را به Gemini 3 Pro اضافه می‌کند و از سطح تفکر متوسط پشتیبانی می‌کند.", "gemini-flash-latest.description": "آخرین نسخه منتشرشده از Gemini Flash", "gemini-flash-lite-latest.description": "آخرین نسخه منتشرشده از Gemini Flash-Lite", "gemini-pro-latest.description": "آخرین نسخه منتشرشده از Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.", "glm-4v-plus.description": "GLM-4V-Plus توانایی درک ویدیو و چند تصویر را دارد و برای وظایف چندوجهی مناسب است.", "glm-4v.description": "GLM-4V درک تصویر و استدلال قوی در وظایف بصری را ارائه می‌دهد.", - "glm-5.description": "یک مدل استدلال قوی و عامل از Z.ai با 744 میلیارد پارامتر کل (40 میلیارد فعال)، ساخته شده برای مهندسی سیستم‌های پیچیده و وظایف بلندمدت.", + "glm-5.description": "سری GLM یک مدل استدلال ترکیبی از Zhipu AI است که برای عوامل طراحی شده است و حالت‌های تفکر و غیرتفکر را ارائه می‌دهد.", "glm-z1-air.description": "مدل استدلال با توانایی قوی در استنتاج عمیق برای وظایف پیچیده.", "glm-z1-airx.description": "استدلال فوق‌سریع با کیفیت بالای استدلال.", "glm-z1-flash.description": "سری GLM-Z1 استدلال پیچیده قوی را ارائه می‌دهد و در منطق، ریاضی و برنامه‌نویسی برتری دارد.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "با افتخار Grok 4 Fast را معرفی می‌کنیم، جدیدترین پیشرفت ما در مدل‌های استدلال مقرون‌به‌صرفه.", "grok-4.description": "جدیدترین و قدرتمندترین مدل پرچم‌دار ما که در پردازش زبان طبیعی، ریاضی و استدلال برتری دارد—یک مدل همه‌کاره ایده‌آل.", "grok-code-fast-1.description": "با افتخار grok-code-fast-1 را معرفی می‌کنیم، مدلی سریع و مقرون‌به‌صرفه برای استدلال که در برنامه‌نویسی عامل‌محور عملکرد درخشانی دارد.", + "grok-imagine-image-pro.description": "تصاویر را از دستورات متنی تولید کنید، تصاویر موجود را با زبان طبیعی ویرایش کنید، یا تصاویر را از طریق مکالمات چندمرحله‌ای به‌طور مکرر اصلاح کنید.", + "grok-imagine-image.description": "تصاویر را از دستورات متنی تولید کنید، تصاویر موجود را با زبان طبیعی ویرایش کنید، یا تصاویر را از طریق مکالمات چندمرحله‌ای به‌طور مکرر اصلاح کنید.", "groq/compound-mini.description": "Compound-mini یک سیستم هوش مصنوعی ترکیبی است که با مدل‌های عمومی پشتیبانی‌شده در GroqCloud کار می‌کند و به‌صورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده می‌کند.", "groq/compound.description": "Compound یک سیستم هوش مصنوعی ترکیبی است که با چندین مدل عمومی پشتیبانی‌شده در GroqCloud کار می‌کند و به‌صورت هوشمندانه و انتخابی از ابزارها برای پاسخ به پرسش‌های کاربران استفاده می‌کند.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B یک مدل زبانی خلاق و هوشمند است که از ترکیب چندین مدل برتر ساخته شده است.", + "hunyuan-2.0-instruct-20251111.description": "ویژگی‌های انتشار: پایه مدل از TurboS به **Hunyuan 2.0** ارتقا یافته است، که منجر به بهبود جامع قابلیت‌ها می‌شود. این مدل به‌طور قابل‌توجهی توانایی پیروی از دستورالعمل‌ها، درک متن چندمرحله‌ای و طولانی، خلق ادبی، دقت دانش، کدنویسی و توانایی‌های استدلال را افزایش می‌دهد.", + "hunyuan-2.0-thinking-20251109.description": "ویژگی‌های انتشار: پایه مدل از TurboS به **Hunyuan 2.0** ارتقا یافته است، که منجر به بهبود جامع قابلیت‌ها می‌شود. این مدل توانایی پیروی از دستورالعمل‌های پیچیده، درک متن چندمرحله‌ای و طولانی، مدیریت کد، عملکرد به‌عنوان عامل و انجام وظایف استدلال را به‌طور قابل‌توجهی افزایش می‌دهد.", "hunyuan-a13b.description": "اولین مدل استدلال ترکیبی از Hunyuan، ارتقاءیافته از hunyuan-standard-256K (در مجموع ۸۰ میلیارد، ۱۳ میلیارد فعال). به‌طور پیش‌فرض با تفکر آهسته کار می‌کند و از طریق پارامترها یا پیشوند /no_think قابلیت تغییر بین تفکر سریع و آهسته را دارد. توانایی کلی آن نسبت به نسل قبلی به‌ویژه در ریاضی، علوم، درک متون بلند و وظایف عامل بهبود یافته است.", - "hunyuan-code.description": "جدیدترین مدل تولید کد که با ۲۰۰ میلیارد کد باکیفیت و شش ماه آموزش SFT آموزش دیده است؛ ظرفیت زمینه به ۸ هزار افزایش یافته. در ارزیابی‌های خودکار برای پنج زبان و در ارزیابی‌های انسانی در ده معیار برتر قرار دارد.", - "hunyuan-functioncall.description": "جدیدترین مدل MoE FunctionCall که با داده‌های باکیفیت تماس تابع آموزش دیده، دارای پنجره زمینه ۳۲ هزار و نتایج پیشرو در ارزیابی‌های مختلف است.", - "hunyuan-large-longcontext.description": "در وظایف اسناد بلند مانند خلاصه‌سازی و پرسش‌وپاسخ عملکرد درخشانی دارد و همچنین در تولید عمومی نیز توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.", - "hunyuan-large-vision.description": "مدل زبان-بینایی آموزش‌دیده از Hunyuan Large برای درک تصویر و متن. از ورودی چندتصویر + متن با هر وضوحی پشتیبانی می‌کند و درک بصری چندزبانه را بهبود می‌بخشد.", - "hunyuan-large.description": "Hunyuan-large دارای حدود ۳۸۹ میلیارد پارامتر کل و حدود ۵۲ میلیارد فعال است، بزرگ‌ترین و قوی‌ترین مدل MoE باز در معماری ترنسفورمر.", - "hunyuan-lite-vision.description": "جدیدترین مدل چندوجهی ۷ میلیاردی با پنجره زمینه ۳۲ هزار، پشتیبانی از چت چندوجهی چینی/انگلیسی، شناسایی اشیاء، درک جداول اسناد و ریاضی چندوجهی، و عملکرد بهتر نسبت به مدل‌های ۷ میلیاردی مشابه در چندین معیار.", + "hunyuan-code.description": "جدیدترین مدل کدنویسی Hunyuan که بر اساس داده‌های کد با کیفیت بالا به‌میزان 200 میلیارد و شش ماه داده SFT آموزش داده شده است، با زمینه 8K. این مدل در معیارهای کدنویسی خودکار و ارزیابی‌های انسانی متخصص در پنج زبان رتبه بالایی دارد.", + "hunyuan-functioncall.description": "جدیدترین مدل MoE FunctionCall Hunyuan که بر اساس داده‌های فراخوانی ابزار با کیفیت بالا آموزش داده شده است، با پنجره زمینه 32K و معیارهای پیشرو در ابعاد مختلف.", "hunyuan-lite.description": "ارتقاءیافته به معماری MoE با پنجره زمینه ۲۵۶ هزار، پیشتاز در میان بسیاری از مدل‌های باز در حوزه‌های NLP، کد، ریاضی و معیارهای صنعتی.", "hunyuan-pro.description": "مدل MoE با تریلیون پارامتر و پنجره زمینه ۳۲ هزار که در ارزیابی‌ها پیشتاز است، در دستورالعمل‌های پیچیده و استدلال، ریاضی پیشرفته، تماس تابع و ترجمه چندزبانه، مالی، حقوقی و پزشکی عملکرد قوی دارد.", - "hunyuan-role.description": "جدیدترین مدل نقش‌آفرینی که به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم دقیق شده و عملکرد پایه‌ای قوی‌تری را در سناریوهای نقش‌آفرینی ارائه می‌دهد.", - "hunyuan-standard-256K.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینه‌های بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-256K طول و کیفیت زمینه را بیشتر گسترش می‌دهد.", - "hunyuan-standard-vision.description": "جدیدترین مدل چندوجهی با پاسخ‌های چندزبانه و توانایی متعادل در زبان چینی/انگلیسی.", - "hunyuan-standard.description": "با استفاده از مسیریابی بهبودیافته برای کاهش عدم تعادل بار و فروپاشی متخصصان. در زمینه‌های بلند به دقت ۹۹.۹٪ در آزمون سوزن در انبار کاه دست یافته است. MOE-32K ارزش بالایی را در پردازش ورودی‌های بلند ارائه می‌دهد.", - "hunyuan-t1-20250321.description": "توانایی‌های متعادل در هنر و علوم پایه را با درک قوی اطلاعات متون بلند ایجاد می‌کند. از پاسخ‌های استدلالی برای مسائل ریاضی، منطقی، علمی و کدنویسی در سطوح مختلف پشتیبانی می‌کند.", - "hunyuan-t1-20250403.description": "تولید کد در سطح پروژه و کیفیت نوشتار را بهبود می‌بخشد، درک موضوعات چندمرحله‌ای و پیروی از دستورالعمل‌های ToB را تقویت می‌کند، درک در سطح واژه را بهبود می‌دهد و مشکلات خروجی ترکیبی ساده/سنتی و چینی/انگلیسی را کاهش می‌دهد.", - "hunyuan-t1-20250529.description": "نوشتار خلاقانه و ترکیب‌بندی را بهبود می‌بخشد، کدنویسی فرانت‌اند، ریاضی و استدلال منطقی را تقویت می‌کند و پیروی از دستورالعمل‌ها را ارتقاء می‌دهد.", - "hunyuan-t1-20250711.description": "ریاضی سخت، منطق و کدنویسی را به‌طور چشمگیری بهبود می‌بخشد، پایداری خروجی را افزایش می‌دهد و توانایی در متون بلند را ارتقاء می‌دهد.", + "hunyuan-role.description": "جدیدترین مدل نقش‌آفرینی Hunyuan که به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم شده است و عملکرد پایه قوی‌تری در سناریوهای نقش‌آفرینی ارائه می‌دهد.", + "hunyuan-standard-256K.description": "از مسیریابی بهبود یافته برای کاهش تعادل بار و فروپاشی متخصص استفاده می‌کند. متن طولانی \"سوزن در انبار کاه\" به 99.9% می‌رسد. MOE-256K طول و کیفیت ورودی را به‌طور قابل‌توجهی گسترش می‌دهد.", + "hunyuan-standard.description": "از مسیریابی بهبود یافته برای کاهش تعادل بار و فروپاشی متخصص استفاده می‌کند. متن طولانی \"سوزن در انبار کاه\" به 99.9% می‌رسد. MOE-32K ارزش بهتری ارائه می‌دهد و کیفیت و قیمت را برای ورودی‌های متن طولانی متعادل می‌کند.", "hunyuan-t1-latest.description": "مدل تفکر آهسته را در ریاضی سخت، استدلال پیچیده، کدنویسی دشوار، پیروی از دستورالعمل‌ها و کیفیت نوشتار خلاقانه به‌طور قابل توجهی بهبود می‌بخشد.", - "hunyuan-t1-vision-20250619.description": "جدیدترین مدل استدلال عمیق چندوجهی t1-vision با زنجیره تفکر بومی، به‌طور قابل توجهی نسبت به نسخه پیش‌فرض قبلی بهبود یافته است.", "hunyuan-t1-vision-20250916.description": "جدیدترین مدل استدلال عمیق t1-vision با بهبودهای عمده در VQA، اتصال بصری، OCR، نمودارها، حل مسائل تصویری و تولید مبتنی بر تصویر، به‌علاوه پشتیبانی قوی‌تر از زبان انگلیسی و زبان‌های کم‌منبع.", - "hunyuan-turbo-20241223.description": "این نسخه مقیاس‌پذیری دستورالعمل را برای تعمیم بهتر افزایش می‌دهد، استدلال در ریاضی/کد/منطق را به‌طور قابل توجهی بهبود می‌بخشد، درک در سطح واژه را ارتقاء می‌دهد و کیفیت نوشتار را بهبود می‌بخشد.", - "hunyuan-turbo-latest.description": "بهبودهای کلی در تجربه کاربری در درک NLP، نوشتار، چت، پرسش‌وپاسخ، ترجمه و حوزه‌های تخصصی؛ پاسخ‌هایی شبیه‌تر به انسان، وضوح بهتر در نیت‌های مبهم، تجزیه واژه‌ای بهتر، کیفیت خلاقانه بالاتر و تعامل‌پذیری بیشتر، و مکالمات چندمرحله‌ای قوی‌تر.", - "hunyuan-turbo-vision.description": "مدل پرچم‌دار نسل بعدی زبان-بینایی با استفاده از معماری جدید MoE، با بهبودهای گسترده در شناسایی، تولید محتوا، پرسش‌وپاسخ دانشی و استدلال تحلیلی.", "hunyuan-turbo.description": "پیش‌نمایشی از مدل LLM نسل بعدی Hunyuan با معماری جدید MoE، ارائه‌دهنده استدلال سریع‌تر و نتایج قوی‌تر نسبت به hunyuan-pro.", - "hunyuan-turbos-20250313.description": "سبک حل مسائل ریاضی را یکپارچه کرده و توانایی پاسخ‌گویی چندمرحله‌ای در ریاضی را تقویت می‌کند. سبک نگارش بهبود یافته تا لحن مصنوعی کاهش یابد و متن صیقل‌خورده‌تری ارائه شود.", - "hunyuan-turbos-20250416.description": "پایه پیش‌آموزشی ارتقاء یافته برای درک بهتر دستورالعمل‌ها و پیروی از آن‌ها؛ هم‌راستایی بهبود یافته در ریاضی، کدنویسی، منطق و علوم؛ بهبود کیفیت نگارش، درک مطلب، دقت ترجمه و پاسخ‌گویی به سؤالات دانشی؛ تقویت توانایی‌های عامل، به‌ویژه درک چندمرحله‌ای.", - "hunyuan-turbos-20250604.description": "پایه پیش‌آموزشی ارتقاء یافته با بهبود در نگارش و درک مطلب، پیشرفت چشمگیر در کدنویسی و علوم پایه، و پیروی بهتر از دستورالعمل‌های پیچیده.", - "hunyuan-turbos-20250926.description": "کیفیت داده‌های پیش‌آموزشی و استراتژی پس‌آموزشی ارتقاء یافته، با بهبود در عملکرد عامل‌ها، زبان انگلیسی و زبان‌های کم‌منبع، پیروی از دستورالعمل‌ها، کدنویسی و توانایی‌های STEM.", "hunyuan-turbos-latest.description": "جدیدترین مدل پرچم‌دار Hunyuan TurboS با استدلال قوی‌تر و تجربه‌ای کلی بهتر.", - "hunyuan-turbos-longtext-128k-20250325.description": "در انجام وظایف متنی طولانی مانند خلاصه‌سازی و پاسخ به سؤالات عملکرد عالی دارد و همچنین در تولید محتوای عمومی توانمند است. در تحلیل و تولید متون بلند و پیچیده بسیار قوی است.", - "hunyuan-turbos-role-plus.description": "جدیدترین مدل نقش‌آفرینی، به‌طور رسمی با داده‌های نقش‌آفرینی تنظیم دقیق شده و عملکرد پایه‌ای قوی‌تری در سناریوهای نقش‌آفرینی ارائه می‌دهد.", - "hunyuan-turbos-vision-20250619.description": "جدیدترین مدل پرچم‌دار TurboS در حوزه بینایی-زبان با پیشرفت‌های چشمگیر در وظایف تصویر-متن مانند شناسایی موجودیت‌ها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل مبتنی بر عکس.", - "hunyuan-turbos-vision.description": "مدل پرچم‌دار نسل جدید بینایی-زبان مبتنی بر TurboS جدید، متمرکز بر درک وظایف تصویر-متن مانند شناسایی موجودیت‌ها، پاسخ به سؤالات دانشی، نگارش تبلیغاتی و حل مسائل تصویری.", - "hunyuan-vision-1.5-instruct.description": "مدلی برای تولید متن از تصویر با تفکر سریع، مبتنی بر پایه TurboS متنی، که نسبت به نسخه قبلی در شناسایی پایه‌ای تصویر و استدلال تحلیلی تصویری بهبود قابل‌توجهی دارد.", - "hunyuan-vision.description": "جدیدترین مدل چندوجهی با پشتیبانی از ورودی تصویر + متن برای تولید متن.", + "hunyuan-vision-1.5-instruct.description": "یک مدل تصویر به متن سریع تفکر که بر اساس پایه متن TurboS ساخته شده است و بهبودهای قابل‌توجهی نسبت به نسخه قبلی در تشخیص تصویر بنیادی و استدلال تحلیل تصویر نشان می‌دهد.", + "hunyuan-vision.description": "جدیدترین مدل چندوجهی Hunyuan که از ورودی‌های تصویر + متن برای تولید متن پشتیبانی می‌کند.", "image-01-live.description": "مدل تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تنظیمات سبک قابل کنترل.", "image-01.description": "مدل جدید تولید تصویر با جزئیات دقیق، پشتیبانی از تبدیل متن به تصویر و تصویر به تصویر.", "imagen-4.0-fast-generate-001.description": "نسخه سریع از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen", "imagen-4.0-generate-001.description": "سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen", - "imagen-4.0-generate-preview-06-06.description": "خانواده مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.", "imagen-4.0-ultra-generate-001.description": "نسخه Ultra از سری مدل‌های تبدیل متن به تصویر نسل چهارم Imagen", - "imagen-4.0-ultra-generate-preview-06-06.description": "گونه Ultra از مدل‌های تبدیل متن به تصویر نسل چهارم Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small برای تولید کد، اشکال‌زدایی و بازسازی کد با کمترین تأخیر ایده‌آل است.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 سومین مدل معماری Ling 2.0 از تیم Bailing گروه Ant است. این مدل MoE با ۱۰۰ میلیارد پارامتر کل و تنها ۶.۱ میلیارد فعال در هر توکن (۴.۸ میلیارد بدون جاسازی) است. با وجود پیکربندی سبک، عملکردی برابر یا بهتر از مدل‌های چگال ۴۰B و حتی MoEهای بزرگ‌تر در چندین معیار دارد و کارایی بالا را از طریق معماری و استراتژی آموزش بررسی می‌کند.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 یک مدل MoE کوچک و با عملکرد بالا با ۱۶ میلیارد پارامتر کل و تنها ۱.۴ میلیارد فعال در هر توکن (۷۸۹ میلیون بدون جاسازی) است که تولید بسیار سریعی دارد. با طراحی کارآمد MoE و داده‌های آموزشی با کیفیت بالا، عملکردی در سطح بالا ارائه می‌دهد که با مدل‌های چگال زیر ۱۰B و MoEهای بزرگ‌تر قابل مقایسه است.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T مدل MoE با یک تریلیون پارامتر از inclusionAI برای وظایف استدلال در مقیاس بزرگ و تحقیقات مناسب است.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 گونه‌ای از مدل Ring از inclusionAI برای سناریوهای با توان بالا است که بر سرعت و کارایی هزینه تأکید دارد.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 مدل MoE سبک و با توان بالا از inclusionAI است که برای هم‌زمانی طراحی شده است.", + "intern-latest.description": "به‌طور پیش‌فرض به جدیدترین مدل منتشر شده سری Intern اشاره دارد، که در حال حاضر به intern-s1-pro تنظیم شده است.", + "intern-s1-mini.description": "یک مدل بزرگ چندوجهی سبک با قابلیت‌های استدلال علمی قوی.", + "intern-s1-pro.description": "ما پیشرفته‌ترین مدل استدلال چندوجهی متن‌باز خود را راه‌اندازی کرده‌ایم، که در حال حاضر بهترین مدل بزرگ زبان چندوجهی متن‌باز از نظر عملکرد کلی است.", + "intern-s1.description": "مدل استدلال چندوجهی متن‌باز نه تنها قابلیت‌های عمومی قوی نشان می‌دهد، بلکه عملکرد پیشرفته‌ای در طیف گسترده‌ای از وظایف علمی دارد.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat یک مدل چت متن‌باز بر پایه معماری InternLM2 است. این مدل ۷B بر تولید گفت‌وگو تمرکز دارد و از زبان‌های چینی و انگلیسی پشتیبانی می‌کند و با آموزش مدرن، گفت‌وگویی روان و هوشمند ارائه می‌دهد. برای بسیاری از سناریوهای چت مانند پشتیبانی مشتری و دستیار شخصی مناسب است.", - "internlm2.5-latest.description": "مدل‌های قدیمی که همچنان با عملکرد عالی و پایدار پس از چندین تکرار نگهداری می‌شوند. در اندازه‌های ۷B و ۲۰B موجود هستند، از زمینه ۱M پشتیبانی می‌کنند و در پیروی از دستورالعمل و استفاده از ابزار قوی‌تر هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM2.5 (در حال حاضر internlm2.5-20b-chat) اشاره دارد.", - "internlm3-latest.description": "جدیدترین سری مدل‌های ما با عملکرد استدلال عالی که در کلاس اندازه خود در میان مدل‌های متن‌باز پیشرو هستند. به‌طور پیش‌فرض به جدیدترین سری InternLM3 (در حال حاضر internlm3-8b-instruct) اشاره دارد.", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO یک مدل پیش‌آموزش چندوجهی برای استدلال پیچیده تصویر-متن است.", - "internvl2.5-latest.description": "InternVL2.5 همچنان با عملکرد قوی و پایدار نگهداری می‌شود. به‌طور پیش‌فرض به جدیدترین سری InternVL2.5 (در حال حاضر internvl2.5-78b) اشاره دارد.", "internvl3-14b.description": "InternVL3 14B یک مدل چندوجهی با اندازه متوسط است که بین عملکرد و هزینه تعادل برقرار می‌کند.", "internvl3-1b.description": "InternVL3 1B یک مدل چندوجهی سبک برای استقرار در محیط‌های با منابع محدود است.", "internvl3-38b.description": "InternVL3 38B یک مدل چندوجهی متن‌باز بزرگ برای درک دقیق تصویر-متن است.", - "internvl3-latest.description": "جدیدترین مدل چندوجهی ما با درک قوی‌تر تصویر-متن و درک توالی‌های تصویری بلند، قابل مقایسه با مدل‌های بسته برتر. به‌طور پیش‌فرض به جدیدترین سری InternVL (در حال حاضر internvl3-78b) اشاره دارد.", + "internvl3.5-241b-a28b.description": "مدل بزرگ چندوجهی تازه منتشر شده ما قابلیت‌های درک تصویر و متن پیشرفته و درک تصویر با دنباله طولانی را ارائه می‌دهد و عملکردی قابل مقایسه با مدل‌های متن‌بسته پیشرو دارد.", + "internvl3.5-latest.description": "به‌طور پیش‌فرض به جدیدترین مدل در سری InternVL3.5 اشاره دارد، که در حال حاضر به internvl3.5-241b-a28b تنظیم شده است.", "irag-1.0.description": "ERNIE iRAG یک مدل تولید تقویت‌شده با بازیابی تصویر برای جستجوی تصویر، بازیابی تصویر-متن و تولید محتوا است.", "jamba-large.description": "پیشرفته‌ترین و قدرتمندترین مدل ما، طراحی‌شده برای وظایف پیچیده سازمانی با عملکرد برجسته.", "jamba-mini.description": "کارآمدترین مدل در کلاس خود، با تعادل بین سرعت و کیفیت و ردپای کوچک‌تر.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 یک مدل زبانی بزرگ کارآمد است که به‌طور خاص برای برنامه‌نویسی و جریان‌های کاری عامل طراحی شده است.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 یک مدل زبانی بزرگ سبک و پیشرفته است که برای برنامه‌نویسی، جریان‌های کاری نماینده و توسعه برنامه‌های مدرن بهینه شده و خروجی‌های تمیزتر، مختصرتر و پاسخ‌دهی سریع‌تری ارائه می‌دهد.", "minimax/minimax-m2.description": "MiniMax-M2 مدلی با ارزش بالا است که در برنامه‌نویسی و وظایف عامل در بسیاری از سناریوهای مهندسی عملکرد خوبی دارد.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 یک مدل MoE جمع‌وجور، سریع و مقرون‌به‌صرفه است که برای عملکرد کدنویسی و عامل در سطح بالا طراحی شده است.", "minimaxai/minimax-m2.description": "MiniMax-M2 یک مدل MoE فشرده، سریع و مقرون‌به‌صرفه (با ۲۳۰ میلیارد پارامتر کل و ۱۰ میلیارد فعال) است که برای عملکرد سطح بالا در برنامه‌نویسی و عامل‌ها طراحی شده و در عین حال هوش عمومی قوی را حفظ می‌کند. این مدل در ویرایش چندفایلی، حلقه‌های اجرای کد و اصلاح، اعتبارسنجی تست و زنجیره‌های ابزار پیچیده عملکرد برجسته‌ای دارد.", "ministral-3b-latest.description": "Ministral 3B پیشرفته‌ترین مدل لبه‌ای Mistral است.", "ministral-8b-latest.description": "Ministral 8B یک مدل لبه‌ای بسیار مقرون‌به‌صرفه از Mistral است.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "مدل kimi-k2-0905-preview از پنجره زمینه ۲۵۶K پشتیبانی می‌کند و دارای برنامه‌نویسی عامل‌محور قوی‌تر، کد رابط کاربری زیباتر و کاربردی‌تر و درک بهتر زمینه است.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo نسخه پرسرعت مدل Kimi K2 Thinking است که با حفظ عمق استدلال، تأخیر را به‌طور قابل‌توجهی کاهش می‌دهد.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking مدل استدلال Moonshot است که برای وظایف استدلال عمیق بهینه‌سازی شده و قابلیت‌های عمومی عامل را داراست.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 هوشمندترین مدل Kimi تا به امروز است که دارای معماری چندوجهی بومی است.", "moonshotai/kimi-k2.description": "Kimi K2 یک مدل بزرگ MoE از Moonshot AI با ۱ تریلیون پارامتر کل و ۳۲ میلیارد پارامتر فعال در هر عبور است که برای قابلیت‌های عامل از جمله استفاده پیشرفته از ابزار، استدلال و تولید کد بهینه‌سازی شده است.", "morph/morph-v3-fast.description": "Morph یک مدل تخصصی است که تغییرات کدی پیشنهادشده توسط مدل‌های پیشرفته (مانند Claude یا GPT-4o) را با سرعت بیش از ۴۵۰۰ توکن در ثانیه روی فایل‌های موجود شما اعمال می‌کند. این مدل مرحله نهایی در جریان کاری برنامه‌نویسی با هوش مصنوعی است و از ورودی/خروجی ۱۶K توکن پشتیبانی می‌کند.", "morph/morph-v3-large.description": "Morph یک مدل تخصصی است که تغییرات کدی پیشنهادشده توسط مدل‌های پیشرفته (مانند Claude یا GPT-4o) را با سرعت بیش از ۲۵۰۰ توکن در ثانیه روی فایل‌های موجود شما اعمال می‌کند. این مدل مرحله نهایی در جریان کاری برنامه‌نویسی با هوش مصنوعی است و از ورودی/خروجی ۱۶K توکن پشتیبانی می‌کند.", + "musesteamer-air-image.description": "musesteamer-air-image یک مدل تولید تصویر است که توسط تیم جستجوی Baidu توسعه یافته است تا عملکرد هزینه‌ای استثنایی ارائه دهد. این مدل می‌تواند به‌سرعت تصاویر واضح و منسجم با عمل را بر اساس دستورات کاربر تولید کند و توصیفات کاربر را به‌راحتی به تصاویر تبدیل کند.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B نسخه به‌روزشده‌ای از Nous Hermes 2 است که با جدیدترین داده‌های داخلی توسعه یافته است.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B یک مدل سفارشی‌شده توسط NVIDIA برای بهبود مفید بودن پاسخ‌های LLM است. این مدل در Arena Hard، AlpacaEval 2 LC و GPT-4-Turbo MT-Bench عملکرد قوی دارد و تا ۱ اکتبر ۲۰۲۴ در هر سه معیار هم‌ترازی خودکار رتبه اول را کسب کرده است. این مدل از Llama-3.1-70B-Instruct با استفاده از RLHF (REINFORCE)، Llama-3.1-Nemotron-70B-Reward و درخواست‌های HelpSteer2-Preference آموزش دیده است.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "مدلی متمایز با دقت و کارایی استثنایی در پردازش زبان طبیعی.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "بر اساس طول متن، موضوع و پیچیدگی، درخواست شما به یکی از مدل‌های Llama 3 70B Instruct، Claude 3.5 Sonnet (با خودنظارتی) یا GPT-4o هدایت می‌شود.", "oswe-vscode-prime.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.", "oswe-vscode-secondary.description": "Raptor mini یک مدل پیش‌نمایش بهینه‌سازی‌شده برای وظایف مرتبط با کدنویسی است.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 مدلی است که بین کارایی محاسباتی بالا و عملکرد استدلال و عامل عالی تعادل برقرار می‌کند.", "perplexity/sonar-pro.description": "محصول پرچم‌دار Perplexity با اتصال به جستجو، پشتیبانی از پرسش‌های پیشرفته و پیگیری‌های بعدی.", "perplexity/sonar-reasoning-pro.description": "مدلی پیشرفته با تمرکز بر استدلال که خروجی زنجیره تفکر (CoT) را با جستجوی تقویت‌شده و چند پرس‌وجو در هر درخواست ارائه می‌دهد.", "perplexity/sonar-reasoning.description": "مدلی با تمرکز بر استدلال که زنجیره تفکر (CoT) را با توضیحات دقیق و مبتنی بر جستجو تولید می‌کند.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "مدل کدنویسی Qwen.", "qwen-coder-turbo.description": "مدل کدنویسی Qwen.", "qwen-flash.description": "سریع‌ترین و کم‌هزینه‌ترین مدل Qwen، ایده‌آل برای وظایف ساده.", + "qwen-image-edit-max.description": "مدل ویرایش تصویر Qwen از ورودی چندتصویر و خروجی چندتصویر پشتیبانی می‌کند و امکان ویرایش دقیق متن در تصویر، افزودن، حذف یا جابجایی اشیاء، تغییر عمل سوژه، انتقال سبک تصویر و بهبود جزئیات بصری را فراهم می‌کند.", + "qwen-image-edit-plus.description": "مدل ویرایش تصویر Qwen از ورودی چندتصویر و خروجی چندتصویر پشتیبانی می‌کند و امکان ویرایش دقیق متن در تصویر، افزودن، حذف یا جابجایی اشیاء، تغییر عمل سوژه، انتقال سبک تصویر و بهبود جزئیات بصری را فراهم می‌کند.", "qwen-image-edit.description": "Qwen Image Edit یک مدل تصویر به تصویر است که تصاویر را بر اساس ورودی تصویری و دستورات متنی ویرایش می‌کند و امکان تنظیمات دقیق و تغییرات خلاقانه را فراهم می‌سازد.", + "qwen-image-max.description": "مدل تولید تصویر Qwen (سری Max) واقع‌گرایی و طبیعی بودن بصری را نسبت به سری Plus بهبود می‌بخشد، مصنوعات تولید شده توسط هوش مصنوعی را به‌طور مؤثر کاهش می‌دهد و عملکرد برجسته‌ای در ظاهر انسانی، جزئیات بافت و رندر متن نشان می‌دهد.", + "qwen-image-plus.description": "از طیف گسترده‌ای از سبک‌های هنری پشتیبانی می‌کند و به‌ویژه در رندر متن پیچیده در تصاویر مهارت دارد، که طراحی چیدمان تصویر-متن یکپارچه را امکان‌پذیر می‌کند.", "qwen-image.description": "Qwen-Image یک مدل عمومی تولید تصویر است که از سبک‌های هنری مختلف و رندر پیچیده متن (به‌ویژه چینی و انگلیسی) پشتیبانی می‌کند. از چیدمان چندخطی، متن در سطح پاراگراف و جزئیات دقیق برای ترکیب‌های پیچیده متن-تصویر پشتیبانی می‌کند.", "qwen-long.description": "مدل Qwen فوق‌العاده بزرگ با پشتیبانی از زمینه طولانی و گفت‌وگو در سناریوهای چندسندی و چندسندی بلند.", "qwen-math-plus-latest.description": "Qwen Math یک مدل زبانی تخصصی برای حل مسائل ریاضی است.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "مدل کدنویسی متن‌باز Qwen. نسخه جدید qwen3-coder-30b-a3b-instruct بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct یک مدل کدنویسی پیشرفته برای برنامه‌نویسی چندزبانه و درک کد پیچیده است.", "qwen3-coder-flash.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.", + "qwen3-coder-next.description": "کدنویس نسل بعدی Qwen که برای تولید کد چندفایلی پیچیده، اشکال‌زدایی و جریان‌های کاری عامل با توان بالا بهینه شده است. طراحی شده برای ادغام ابزار قوی و عملکرد استدلال بهبود یافته.", "qwen3-coder-plus.description": "مدل کدنویسی Qwen. سری جدید Qwen3-Coder بر پایه Qwen3 ساخته شده و توانایی‌های قوی در عامل‌های کدنویس، استفاده از ابزارها و تعامل با محیط برای برنامه‌نویسی خودکار دارد، با عملکرد عالی در کد و توانایی عمومی قوی.", "qwen3-coder:480b.description": "مدل با عملکرد بالا از علی‌بابا برای وظایف عامل و کدنویسی با پشتیبانی از زمینه طولانی.", "qwen3-max-2026-01-23.description": "مدل‌های Qwen3 Max نسبت به سری ۲.۵ پیشرفت‌های بزرگی در توانایی عمومی، درک چینی/انگلیسی، پیروی از دستورالعمل‌های پیچیده، وظایف ذهنی باز، توانایی چندزبانه و استفاده از ابزار دارند و خطاهای توهمی کمتری دارند. نسخه جدید qwen3-max در برنامه‌نویسی عامل‌محور و استفاده از ابزار نسبت به نسخه پیش‌نمایش بهبود یافته و به سطح SOTA در حوزه خود رسیده و برای نیازهای پیچیده‌تر عامل‌ها طراحی شده است.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking یک مدل زنجیره تفکر چندرسانه‌ای برای استدلال بصری دقیق است.", "qwen3-vl-flash.description": "Qwen3 VL Flash: نسخه سبک و پرسرعت برای استدلال در درخواست‌های حساس به تأخیر یا با حجم بالا.", "qwen3-vl-plus.description": "Qwen VL یک مدل تولید متن با درک بصری است. می‌تواند OCR انجام دهد و همچنین خلاصه‌سازی و استدلال کند، مانند استخراج ویژگی‌ها از عکس‌های محصول یا حل مسائل از روی تصاویر.", + "qwen3.5-397b-a17b.description": "از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است، که کارایی بالاتر و هزینه کمتری ارائه می‌دهد. در قابلیت‌های چندوجهی، بهبودهای قابل‌توجهی نسبت به سری Qwen3 VL ارائه می‌دهد.", + "qwen3.5-plus.description": "Qwen3.5 Plus از ورودی‌های متن، تصویر و ویدئو پشتیبانی می‌کند. برای وظایف فقط متنی، عملکرد آن قابل مقایسه با Qwen3 Max است، در حالی که کارایی بهتر و هزینه کمتری ارائه می‌دهد. از نظر قابلیت‌های چندوجهی، بهبودهای قابل‌توجهی نسبت به سری Qwen3 VL نشان می‌دهد.", "qwen3.description": "Qwen3 نسل بعدی مدل زبان بزرگ علی‌بابا است که عملکرد قدرتمندی در کاربردهای متنوع دارد.", "qwq-32b-preview.description": "QwQ یک مدل تحقیقاتی آزمایشی از Qwen است که بر بهبود استدلال تمرکز دارد.", "qwq-32b.description": "QwQ یک مدل استدلال در خانواده Qwen است. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال آن عملکرد پایین‌دستی را به‌ویژه در مسائل پیچیده به‌طور قابل توجهی بهبود می‌بخشد. QwQ-32B یک مدل استدلال میان‌رده است که با مدل‌های برتر مانند DeepSeek-R1 و o1-mini رقابت می‌کند.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "مدل استدلال میان‌رده در خانواده Qwen. در مقایسه با مدل‌های تنظیم‌شده با دستورالعمل استاندارد، توانایی تفکر و استدلال QwQ عملکرد پایین‌دستی را به‌ویژه در مسائل دشوار به‌طور قابل توجهی بهبود می‌بخشد.", "r1-1776.description": "R1-1776 نسخه پس‌آموزشی مدل DeepSeek R1 است که برای ارائه اطلاعات واقعی، بدون سانسور و بی‌طرف طراحی شده است.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro از ByteDance از تبدیل متن به ویدیو، تصویر به ویدیو (فریم اول، فریم اول+آخر) و تولید صدا هماهنگ با تصویر پشتیبانی می‌کند.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite توسط BytePlus ویژگی‌های تولید با بازیابی وب برای اطلاعات لحظه‌ای، تفسیر پیچیده دستورالعمل‌ها و سازگاری مرجع بهبود یافته برای خلق بصری حرفه‌ای را ارائه می‌دهد.", "solar-mini-ja.description": "Solar Mini (ژاپنی) نسخه‌ای از Solar Mini با تمرکز بر زبان ژاپنی است که در عین حال عملکرد قوی و کارآمدی در زبان‌های انگلیسی و کره‌ای حفظ می‌کند.", "solar-mini.description": "Solar Mini یک مدل زبانی فشرده است که عملکردی بهتر از GPT-3.5 دارد و با پشتیبانی چندزبانه قوی از زبان‌های انگلیسی و کره‌ای، راه‌حلی کارآمد با حجم کم ارائه می‌دهد.", "solar-pro.description": "Solar Pro یک مدل زبانی هوشمند از Upstage است که برای پیروی از دستورالعمل‌ها روی یک GPU طراحی شده و امتیاز IFEval بالای ۸۰ دارد. در حال حاضر از زبان انگلیسی پشتیبانی می‌کند؛ انتشار کامل آن برای نوامبر ۲۰۲۴ با پشتیبانی زبانی گسترده‌تر و زمینه طولانی‌تر برنامه‌ریزی شده است.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرس‌وجوهای پیچیده و پیگیری‌ها.", "sonar-reasoning.description": "یک محصول جستجوی پیشرفته با پشتیبانی از جستجوی مبتنی بر زمینه برای پرس‌وجوهای پیچیده و پیگیری‌ها.", "sonar.description": "یک محصول سبک‌وزن با جستجوی مبتنی بر زمینه، سریع‌تر و ارزان‌تر از Sonar Pro.", - "spark-x.description": "به‌روزرسانی‌های X1.5: (۱) افزودن حالت تفکر پویا با کنترل از طریق فیلد `thinking`؛ (۲) طول زمینه بزرگ‌تر با ورودی ۶۴K و خروجی ۶۴K؛ (۳) پشتیبانی از FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 مدلی است که بین کارایی محاسباتی بالا و عملکرد استدلال و عامل عالی تعادل برقرار می‌کند.", + "spark-x.description": "بررسی قابلیت‌های X2: 1. معرفی تنظیم پویا حالت استدلال، کنترل شده از طریق فیلد `thinking`. 2. طول زمینه گسترش یافته: 64K توکن ورودی و 128K توکن خروجی. 3. از قابلیت Function Call پشتیبانی می‌کند.", "stable-diffusion-3-medium.description": "جدیدترین مدل تبدیل متن به تصویر از Stability AI. این نسخه کیفیت تصویر، درک متن و تنوع سبک را به‌طور قابل‌توجهی بهبود می‌بخشد، دستورات زبان طبیعی پیچیده را دقیق‌تر تفسیر کرده و تصاویر متنوع‌تری تولید می‌کند.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo از تکنیک تقطیر انتشار خصمانه (ADD) برای افزایش سرعت در stable-diffusion-3.5-large استفاده می‌کند.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large یک مدل تبدیل متن به تصویر MMDiT با ۸۰۰ میلیون پارامتر است که کیفیت بالا و تطابق دقیق با دستورات را ارائه می‌دهد و از تصاویر ۱ مگاپیکسلی و اجرای کارآمد روی سخت‌افزار مصرفی پشتیبانی می‌کند.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "پشتیبانی از تعاملات با زمینه بزرگ برای گفت‌وگوهای پیچیده.", "step-2-mini.description": "ساخته‌شده بر پایه معماری توجه MFA نسل بعدی داخلی، با نتایجی مشابه Step-1 اما با هزینه کمتر، توان عملیاتی بالاتر و تأخیر کمتر. وظایف عمومی را با توانایی قوی در کدنویسی انجام می‌دهد.", "step-2x-large.description": "مدل تصویری نسل جدید StepFun با تمرکز بر تولید تصویر، تولید تصاویر با کیفیت بالا از دستورات متنی. بافت واقعی‌تر و رندر بهتر متون چینی/انگلیسی ارائه می‌دهد.", + "step-3.5-flash.description": "مدل استدلال زبان پرچم‌دار از Stepfun. این مدل قابلیت‌های استدلال سطح بالا را همراه با اجرای سریع و قابل‌اعتماد ارائه می‌دهد. می‌تواند وظایف پیچیده را تجزیه و برنامه‌ریزی کند، ابزارها را به‌سرعت و قابل‌اعتماد فراخوانی کند و در استدلال منطقی، ریاضیات، مهندسی نرم‌افزار، تحقیقات عمیق و سایر وظایف پیچیده برتری داشته باشد. طول زمینه 256K است.", "step-3.description": "این مدل دارای درک بصری قوی و استدلال پیچیده است و درک دانش میان‌رشته‌ای، تحلیل ریاضی-تصویری و طیف گسترده‌ای از وظایف تحلیل بصری روزمره را با دقت انجام می‌دهد.", "step-r1-v-mini.description": "مدل استدلال با درک قوی تصویر که می‌تواند تصاویر و متون را پردازش کرده و پس از استدلال عمیق، متن تولید کند. در استدلال بصری، ریاضی، کدنویسی و استدلال متنی عملکردی در سطح بالا دارد و از پنجره زمینه ۱۰۰ هزار توکن پشتیبانی می‌کند.", "stepfun-ai/step3.description": "Step3 یک مدل استدلال چندوجهی پیشرفته از StepFun است که بر پایه معماری MoE با ۳۲۱ میلیارد پارامتر کل و ۳۸ میلیارد فعال ساخته شده است. طراحی انتها به انتها هزینه رمزگشایی را کاهش داده و استدلال زبان-تصویر سطح بالا را ارائه می‌دهد. با طراحی MFA و AFD، در شتاب‌دهنده‌های پرچم‌دار و سطح پایین کارآمد باقی می‌ماند. پیش‌آموزش با بیش از ۲۰ تریلیون توکن متنی و ۴ تریلیون توکن تصویر-متن در زبان‌های مختلف انجام شده و در معیارهای ریاضی، کدنویسی و چندوجهی عملکردی پیشرو دارد.", - "taichu_llm.description": "آموزش‌دیده بر داده‌های باکیفیت عظیم، با درک متنی قوی‌تر، تولید محتوا و پرسش‌وپاسخ مکالمه‌ای.", - "taichu_o1.description": "taichu_o1 یک مدل استدلال نسل جدید است که با تعامل چندوجهی و یادگیری تقویتی، زنجیره تفکر انسانی‌مانند را ایجاد می‌کند، از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی کرده و مسیرهای استدلال را در عین حفظ دقت بالا نمایش می‌دهد. مناسب برای تحلیل استراتژی و تفکر عمیق.", - "taichu_vl.description": "ترکیبی از درک تصویر، انتقال دانش و استنتاج منطقی، با عملکرد عالی در پرسش‌وپاسخ تصویر-متن.", + "taichu4_vl_2b_nothinking.description": "نسخه بدون تفکر مدل Taichu4.0-VL 2B دارای مصرف حافظه کمتر، طراحی سبک، سرعت پاسخ سریع و قابلیت‌های درک چندوجهی قوی است.", + "taichu4_vl_32b.description": "نسخه تفکر مدل Taichu4.0-VL 32B برای وظایف درک و استدلال چندوجهی پیچیده مناسب است و عملکرد برجسته‌ای در استدلال ریاضی چندوجهی، قابلیت‌های عامل چندوجهی و درک عمومی تصویر و بصری نشان می‌دهد.", + "taichu4_vl_32b_nothinking.description": "نسخه بدون تفکر مدل Taichu4.0-VL 32B برای سناریوهای درک تصویر و متن پیچیده و پرسش و پاسخ دانش بصری طراحی شده است و در زیرنویس تصویر، پرسش و پاسخ بصری، درک ویدئو و وظایف مکان‌یابی بصری برتری دارد.", + "taichu4_vl_3b.description": "نسخه تفکر مدل Taichu4.0-VL 3B وظایف درک و استدلال چندوجهی را به‌طور کارآمد انجام می‌دهد، با ارتقاهای جامع در درک بصری، مکان‌یابی بصری، تشخیص OCR و قابلیت‌های مرتبط.", + "taichu_llm.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.", + "taichu_llm_14b.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.", + "taichu_llm_2b.description": "مدل زبان بزرگ Zidong Taichu یک مدل تولید متن با عملکرد بالا است که با استفاده از فناوری‌های تمام‌داخلی و تمام‌پشته توسعه یافته است. از طریق فشرده‌سازی ساختاری مدل پایه صد میلیارد پارامتری و بهینه‌سازی وظیفه‌محور، قابلیت‌های درک متن پیچیده و استدلال دانش را به‌طور قابل‌توجهی افزایش می‌دهد. در سناریوهایی مانند تحلیل اسناد طولانی، استخراج اطلاعات بین‌زبانی و تولید محدود به دانش برتری دارد.", + "taichu_o1.description": "taichu_o1 یک مدل بزرگ استدلال نسل بعدی است که زنجیره تفکر انسان‌مانند را از طریق تعامل چندوجهی و یادگیری تقویتی به دست می‌آورد. از شبیه‌سازی تصمیم‌گیری پیچیده پشتیبانی می‌کند و در حالی که خروجی با دقت بالا را حفظ می‌کند، مسیرهای استدلال قابل‌تفسیر را نشان می‌دهد. برای تحلیل استراتژی، تفکر عمیق و سناریوهای مشابه مناسب است.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct با استفاده از ۸۰ میلیارد پارامتر کلی و ۱۳ میلیارد پارامتر فعال، عملکردی هم‌تراز با مدل‌های بزرگ‌تر ارائه می‌دهد. این مدل از استدلال ترکیبی سریع/کند، درک پایدار متون بلند و توانایی پیشرو در عامل‌ها در آزمون‌های BFCL-v3 و τ-Bench پشتیبانی می‌کند. فرمت‌های GQA و چندکوانتیزه‌سازی، استنتاج کارآمد را ممکن می‌سازند.", "tencent/Hunyuan-MT-7B.description": "مدل ترجمه Hunyuan شامل Hunyuan-MT-7B و مدل ترکیبی Hunyuan-MT-Chimera است. Hunyuan-MT-7B یک مدل ترجمه سبک با ۷ میلیارد پارامتر است که از ۳۳ زبان به‌علاوه ۵ زبان اقلیت چینی پشتیبانی می‌کند. در رقابت WMT25، در ۳۰ جفت‌زبان از ۳۱ مورد، رتبه اول را کسب کرد. Hunyuan از یک زنجیره کامل آموزش شامل پیش‌آموزش، SFT، تقویت یادگیری ترجمه و تقویت یادگیری ترکیبی استفاده می‌کند و با عملکردی پیشرو در اندازه خود، به‌راحتی قابل استقرار است.", "text-embedding-3-large.description": "قوی‌ترین مدل تعبیه‌سازی برای وظایف انگلیسی و غیرانگلیسی.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md برای وظایف روزمره و تولید رابط کاربری مناسب است.", "vercel/v0-1.0-md.description": "به مدل‌های پشت v0 دسترسی پیدا کنید تا برنامه‌های وب مدرن را با استدلال خاص فریم‌ورک و دانش به‌روز تولید، اصلاح و بهینه‌سازی کنید.", "vercel/v0-1.5-md.description": "به مدل‌های پشت v0 دسترسی پیدا کنید تا برنامه‌های وب مدرن را با استدلال خاص فریم‌ورک و دانش به‌روز تولید، اصلاح و بهینه‌سازی کنید.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code برای نیازهای کدنویسی در سطح سازمانی بهینه شده است و بر اساس قابلیت‌های عالی Agent و VLM در Seed 2.0، توانایی‌های کدنویسی را به‌طور ویژه تقویت کرده است. نه تنها عملکرد برجسته‌ای در قابلیت‌های فرانت‌اند دارد، بلکه برای نیازهای کدنویسی چندزبانه رایج در سازمان‌ها نیز به‌طور ویژه بهینه شده است و مناسب برای استفاده در ابزارهای مختلف کدنویسی AI است.", + "volcengine/doubao-seed-2-0-lite.description": "کیفیت تولید و سرعت پاسخ را متعادل می‌کند و مناسب به‌عنوان مدل تولید عمومی است.", + "volcengine/doubao-seed-2-0-mini.description": "به نسخه جدیدترین doubao-seed-2-0-mini اشاره دارد.", + "volcengine/doubao-seed-2-0-pro.description": "به نسخه جدیدترین doubao-seed-2-0-pro اشاره دارد.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code مدل LLM شرکت ByteDance Volcano Engine است که برای برنامه‌نویسی عامل‌محور بهینه‌سازی شده و در معیارهای برنامه‌نویسی و عامل با پشتیبانی از زمینه ۲۵۶K عملکرد قوی دارد.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed جدیدترین مدل با ارتقاء در خلاقیت، پایداری و واقع‌گرایی است که تولید سریع و ارزش بالا را ارائه می‌دهد.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro جدیدترین مدل با ارتقاء در خلاقیت، پایداری و واقع‌گرایی است که جزئیات غنی‌تری تولید می‌کند.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash جدیدترین مدل با ارتقاهایی در خلاقیت، پایداری و واقع‌گرایی است که تولید سریع و ارزش بالا را ارائه می‌دهد.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus جدیدترین مدل با ارتقاهایی در خلاقیت، پایداری و واقع‌گرایی است که جزئیات غنی‌تری تولید می‌کند.", + "wan2.5-i2i-preview.description": "پیش‌نمایش Wanxiang 2.5 I2I از ویرایش تصویر تک‌تصویر و ترکیب چندتصویر پشتیبانی می‌کند.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I از انتخاب انعطاف‌پذیر ابعاد تصویر در محدوده کل مساحت پیکسل و محدودیت‌های نسبت ابعاد پشتیبانی می‌کند.", + "wan2.6-image.description": "Wanxiang 2.6 Image از ویرایش تصویر و خروجی چیدمان ترکیبی تصویر-متن پشتیبانی می‌کند.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I از انتخاب انعطاف‌پذیر ابعاد تصویر در محدوده کل مساحت پیکسل و محدودیت‌های نسبت ابعاد پشتیبانی می‌کند (مانند Wanxiang 2.5).", "wanx-v1.description": "مدل پایه تبدیل متن به تصویر. معادل Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "در پرتره‌های بافت‌دار با سرعت متوسط و هزینه کمتر عملکرد عالی دارد. معادل Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "نسخه کاملاً ارتقاءیافته با جزئیات تصویری غنی‌تر و سرعت کمی کمتر. معادل Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast مدل با توان عملیاتی بالا و هزینه پایین از xAI است (با پشتیبانی از پنجره زمینه ۲ میلیون توکن) که برای موارد استفاده با هم‌زمانی بالا و زمینه‌های طولانی ایده‌آل است.", "x-ai/grok-4.description": "Grok 4 مدل پرچم‌دار xAI با توانایی استدلال قوی و قابلیت چندوجهی است.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 مدل سریع کدنویسی از xAI است که خروجی‌هایی خوانا و مناسب برای مهندسی ارائه می‌دهد.", + "x1.description": "به‌روزرسانی‌های X1.5: (1) اضافه کردن حالت تفکر پویا که توسط فیلد `thinking` کنترل می‌شود؛ (2) طول زمینه بزرگ‌تر با 64K ورودی و 64K خروجی؛ (3) از FunctionCall پشتیبانی می‌کند.", "xai/grok-2-vision.description": "Grok 2 Vision در وظایف بصری عملکردی عالی دارد و در استدلال ریاضی تصویری (MathVista) و پرسش‌وپاسخ اسناد (DocVQA) به سطح SOTA می‌رسد. این مدل اسناد، نمودارها، گراف‌ها، اسکرین‌شات‌ها و عکس‌ها را پردازش می‌کند.", "xai/grok-2.description": "Grok 2 یک مدل پیشرفته با استدلال پیشرفته، چت قوی، کدنویسی و عملکرد استدلالی عالی است که در رتبه‌بندی LMSYS بالاتر از Claude 3.5 Sonnet و GPT-4 Turbo قرار دارد.", "xai/grok-3-fast.description": "مدل پرچم‌دار xAI در کاربردهای سازمانی مانند استخراج داده، کدنویسی و خلاصه‌سازی برتری دارد و دانش عمیقی در حوزه‌های مالی، سلامت، حقوق و علوم دارد. نسخه سریع آن بر زیرساخت سریع‌تری اجرا می‌شود و پاسخ‌های بسیار سریع‌تری با هزینه بیشتر به ازای هر توکن ارائه می‌دهد.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 مدل پرچم‌دار Z.AI با استدلال ترکیبی بهینه‌شده برای وظایف مهندسی و زمینه‌های طولانی است.", "z-ai/glm-4.6.description": "GLM 4.6 مدل پرچم‌دار Z.AI با طول زمینه گسترش‌یافته و قابلیت برنامه‌نویسی است.", "z-ai/glm-4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که توانایی‌های عمومی بهبود یافته، پاسخ‌های طبیعی‌تر و تجربه نوشتاری جذاب‌تری ارائه می‌دهد.", - "z-ai/glm5.description": "یک مدل استدلال قوی و عامل از Z.ai با 744 میلیارد پارامتر کل (40 میلیارد فعال)، ساخته شده برای مهندسی سیستم‌های پیچیده و وظایف بلندمدت.", + "z-ai/glm4.7.description": "GLM-4.7 جدیدترین مدل پرچم‌دار Zhipu است که برای سناریوهای کدنویسی عامل با قابلیت‌های کدنویسی بهبود یافته طراحی شده است.", + "z-ai/glm5.description": "GLM-5 مدل پایه جدید پرچم‌دار Zhipu AI برای مهندسی عامل است که عملکرد SOTA متن‌باز در قابلیت‌های کدنویسی و عامل را به دست می‌آورد. این مدل با عملکرد Claude Opus 4.5 مطابقت دارد.", + "z-image-turbo.description": "Z-Image یک مدل سبک تولید تصویر از متن است که می‌تواند به‌سرعت تصاویر تولید کند، از رندر متن چینی و انگلیسی پشتیبانی می‌کند و به‌طور انعطاف‌پذیر با وضوح‌ها و نسبت‌های ابعاد مختلف سازگار می‌شود.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.", "zai-org/GLM-4.5.description": "GLM-4.5 یک مدل پایه برای برنامه‌های عامل با معماری Mixture-of-Experts است. این مدل برای استفاده از ابزار، مرور وب، مهندسی نرم‌افزار و کدنویسی فرانت‌اند به‌طور عمیق بهینه شده و با عامل‌های کد مانند Claude Code و Roo Code ادغام می‌شود. از استدلال ترکیبی برای مدیریت وظایف پیچیده و روزمره استفاده می‌کند.", "zai-org/GLM-4.5V.description": "GLM-4.5V جدیدترین مدل VLM از Zhipu AI است که بر پایه مدل متنی پرچم‌دار GLM-4.5-Air (با ۱۰۶ میلیارد پارامتر کل و ۱۲ میلیارد فعال) ساخته شده و از معماری MoE برای عملکرد قوی با هزینه کمتر بهره می‌برد. این مدل مسیر GLM-4.1V-Thinking را دنبال کرده و با افزودن 3D-RoPE استدلال فضایی سه‌بعدی را بهبود می‌بخشد. با پیش‌آموزش، SFT و RL بهینه‌سازی شده و تصاویر، ویدیو و اسناد بلند را پردازش می‌کند و در ۴۱ معیار چندوجهی عمومی در میان مدل‌های متن‌باز رتبه برتر دارد. حالت تفکر قابل تنظیم به کاربران امکان می‌دهد بین سرعت و عمق تعادل برقرار کنند.", diff --git a/locales/fa-IR/plugin.json b/locales/fa-IR/plugin.json index 3d30cda079..3a63c42458 100644 --- a/locales/fa-IR/plugin.json +++ b/locales/fa-IR/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "به‌روزرسانی گره", "builtins.lobe-page-agent.apiName.wrapNodes": "بسته‌بندی گره‌ها", "builtins.lobe-page-agent.title": "صفحه", + "builtins.lobe-skill-store.apiName.importFromMarket": "وارد کردن از بازار", + "builtins.lobe-skill-store.apiName.importSkill": "وارد کردن مهارت", + "builtins.lobe-skill-store.apiName.searchSkill": "جستجوی مهارت‌ها", + "builtins.lobe-skill-store.title": "فروشگاه مهارت", + "builtins.lobe-skills.apiName.execScript": "اجرای اسکریپت", + "builtins.lobe-skills.apiName.exportFile": "صادر کردن فایل", + "builtins.lobe-skills.apiName.importFromMarket": "وارد کردن از بازار", + "builtins.lobe-skills.apiName.importSkill": "وارد کردن مهارت", + "builtins.lobe-skills.apiName.readReference": "خواندن مرجع", + "builtins.lobe-skills.apiName.runSkill": "فعال کردن مهارت", + "builtins.lobe-skills.apiName.searchSkill": "جستجوی مهارت‌ها", + "builtins.lobe-skills.title": "مهارت‌ها", + "builtins.lobe-tools.apiName.activateTools": "فعال کردن ابزارها", "builtins.lobe-user-memory.apiName.addContextMemory": "افزودن حافظه زمینه", "builtins.lobe-user-memory.apiName.addExperienceMemory": "افزودن حافظه تجربه", "builtins.lobe-user-memory.apiName.addIdentityMemory": "افزودن حافظه هویتی", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "جستجوی وب", "confirm": "تأیید", "debug.arguments": "آرگومان‌ها", + "debug.error": "گزارش خطا", "debug.function_call": "فراخوانی تابع", "debug.intervention": "مداخله مهارت", "debug.off": "اشکال‌زدایی خاموش", @@ -321,8 +335,8 @@ "dev.saveSuccess": "تنظیمات ذخیره شد", "dev.tabs.manifest": "مانیفست", "dev.tabs.meta": "اطلاعات متا", - "dev.title.create": "افزودن مهارت سفارشی", - "dev.title.edit": "ویرایش مهارت سفارشی", + "dev.title.create": "افزودن مهارت MCP سفارشی", + "dev.title.edit": "ویرایش مهارت MCP سفارشی", "dev.title.editCommunity": "ویرایش مهارت انجمن", "dev.title.skillDetails": "جزئیات مهارت", "dev.title.skillSettings": "تنظیمات مهارت", diff --git a/locales/fa-IR/providers.json b/locales/fa-IR/providers.json index f43454edb2..772630f165 100644 --- a/locales/fa-IR/providers.json +++ b/locales/fa-IR/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud یک سرویس ابری GenAI مقرون‌به‌صرفه است که بر پایه مدل‌های متن‌باز قدرتمند ساخته شده است.", "spark.description": "iFLYTEK Spark هوش مصنوعی چندزبانه قدرتمندی را در حوزه‌های مختلف ارائه می‌دهد و نوآوری‌هایی در سخت‌افزار هوشمند، سلامت، مالی و سایر صنایع ایجاد می‌کند.", "stepfun.description": "مدل‌های Stepfun قابلیت‌های پیشرفته چندوجهی و استدلال پیچیده را با درک متون بلند و هماهنگی جستجوی خودکار قدرتمند ارائه می‌دهند.", + "straico.description": "استرایکو یکپارچه‌سازی هوش مصنوعی را با ارائه یک فضای کاری متحد که مدل‌های برتر تولید متن، تصویر و صوت هوش مصنوعی را گرد هم می‌آورد، ساده می‌کند و به بازاریابان، کارآفرینان و علاقه‌مندان دسترسی آسان به ابزارهای متنوع هوش مصنوعی را می‌دهد.", "taichu.description": "مدل چندوجهی نسل جدید از CASIA و مؤسسه هوش مصنوعی ووهان که از پرسش و پاسخ چندمرحله‌ای، نگارش، تولید تصویر، درک سه‌بعدی و تحلیل سیگنال با شناخت و خلاقیت قوی پشتیبانی می‌کند.", "tencentcloud.description": "موتور دانش LLM Atomic Power خدمات پرسش و پاسخ دانش‌محور را برای شرکت‌ها و توسعه‌دهندگان فراهم می‌کند، با خدمات ماژولار مانند تجزیه اسناد، تقسیم‌بندی، جاسازی و بازنویسی چندمرحله‌ای برای ساخت راهکارهای سفارشی هوش مصنوعی.", "togetherai.description": "Together AI عملکرد پیشرو را با مدل‌های نوآورانه، سفارشی‌سازی گسترده، مقیاس‌پذیری سریع و استقرار ساده برای نیازهای سازمانی ارائه می‌دهد.", diff --git a/locales/fa-IR/setting.json b/locales/fa-IR/setting.json index 56aafba7d4..30a097c4d4 100644 --- a/locales/fa-IR/setting.json +++ b/locales/fa-IR/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "پروفایل عامل", "agentInfoDescription.value.unset": "تنظیم نشده", "agentInfoDescription.value.untitled": "عامل بدون عنوان", + "agentSkillDetail.addedAt": "اضافه شده", + "agentSkillDetail.publishedAt": "منتشر شده", + "agentSkillDetail.repository": "مخزن GitHub", + "agentSkillDetail.skillContent": "محتوای مهارت", + "agentSkillDetail.sourceUrl": "منبع واردات مهارت", + "agentSkillDetail.updatedAt": "به‌روزرسانی شده", + "agentSkillEdit.descriptionDesc": "خلاصه‌ای کوتاه از عملکرد مهارت که به عامل کمک می‌کند زمان استفاده از آن را درک کند", + "agentSkillEdit.fileReadonly": "این فایل فقط خواندنی است. تنها توضیحات و دستورالعمل‌های مهارت قابل ویرایش هستند.", + "agentSkillEdit.instructions": "دستورالعمل‌ها", + "agentSkillEdit.instructionsDesc": "دستورالعمل‌های اصلی به فرمت Markdown که رفتار و جریان کاری مهارت را تعریف می‌کنند", + "agentSkillEdit.instructionsPlaceholder": "دستورالعمل‌های مهارت را به فرمت Markdown وارد کنید...", + "agentSkillEdit.nameDesc": "شناسه‌ی منحصربه‌فرد برای این مهارت که پس از ایجاد قابل ویرایش نیست", + "agentSkillEdit.saveSuccess": "مهارت با موفقیت به‌روزرسانی شد", + "agentSkillEdit.title": "تنظیمات مهارت", + "agentSkillItem.deleteConfirm.desc": "آیا مطمئن هستید که می‌خواهید مهارت عامل \"{{name}}\" را حذف کنید؟ این عمل قابل بازگشت نیست.", + "agentSkillItem.deleteConfirm.title": "حذف مهارت عامل", + "agentSkillModal.content": "محتوای مهارت", + "agentSkillModal.contentPlaceholder": "محتوای مهارت را به فرمت Markdown وارد کنید...", + "agentSkillModal.description": "توضیحات", + "agentSkillModal.descriptionPlaceholder": "این مهارت را به‌طور خلاصه توصیف کنید", + "agentSkillModal.github.desc": "مهارت‌ها را مستقیماً از یک مخزن عمومی GitHub وارد کنید.", + "agentSkillModal.github.title": "وارد کردن از GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "وارد کردن ناموفق بود: {{error}}", + "agentSkillModal.importSuccess": "مهارت عامل با موفقیت وارد شد", + "agentSkillModal.upload.desc": "یک فایل .zip یا .skill محلی را برای نصب آپلود کنید.", + "agentSkillModal.upload.dragText": "بکشید و رها کنید یا کلیک کنید تا آپلود کنید", + "agentSkillModal.upload.requirementSkillMd": "فایل SKILL.md شامل نام و توضیحات مهارت به فرمت YAML", + "agentSkillModal.upload.requirementZip": "فایل .zip یا .skill با SKILL.md در دایرکتوری اصلی", + "agentSkillModal.upload.requirements": "الزامات فایل", + "agentSkillModal.upload.title": "آپلود مهارت", + "agentSkillModal.upload.uploading": "در حال آپلود...", + "agentSkillModal.url.desc": "با ارائه یک لینک مستقیم به فایل SKILL.md یک مهارت وارد کنید.", + "agentSkillModal.url.title": "وارد کردن از URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "مهارت عامل", "agentTab.chat": "تنظیمات گفتگو", "agentTab.meta": "اطلاعات عامل", "agentTab.modal": "تنظیمات مدل", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "مدلی که برای ترجمه پیام‌ها استفاده می‌شود", "systemAgent.translation.title": "عامل ترجمه پیام", "tab.about": "درباره", + "tab.addAgentSkill": "اضافه کردن مهارت عامل", + "tab.addCustomMcp": "اضافه کردن مهارت MCP سفارشی", + "tab.addCustomMcp.desc": "یک سرور MCP سفارشی را به‌صورت دستی پیکربندی کنید", "tab.addCustomSkill": "افزودن مهارت سفارشی", "tab.agent": "سرویس عامل", "tab.all": "همه", @@ -652,7 +691,13 @@ "tab.experiment": "آزمایش", "tab.hotkey": "کلیدهای میانبر", "tab.image": "سرویس تولید تصویر", + "tab.importFromGithub": "وارد کردن از GitHub", + "tab.importFromGithub.desc": "وارد کردن از یک مخزن عمومی GitHub", + "tab.importFromUrl": "وارد کردن از URL", + "tab.importFromUrl.desc": "وارد کردن از طریق یک لینک مستقیم به SKILL.md", "tab.llm": "مدل زبانی", + "tab.manualFill": "پر کردن دستی", + "tab.manualFill.desc": "یک مهارت MCP سفارشی را به‌صورت دستی پیکربندی کنید", "tab.memory": "حافظه", "tab.profile": "حساب من", "tab.provider": "ارائه‌دهنده سرویس هوش مصنوعی", @@ -669,6 +714,8 @@ "tab.sync": "همگام‌سازی ابری", "tab.systemTools": "ابزارهای سیستم", "tab.tts": "تبدیل متن به گفتار", + "tab.uploadZip": "آپلود فایل Zip", + "tab.uploadZip.desc": "یک فایل .zip یا .skill محلی را آپلود کنید", "tab.usage": "آمار استفاده", "tools.add": "افزودن مهارت", "tools.builtins.groupName": "داخلی‌ها", diff --git a/locales/fr-FR/common.json b/locales/fr-FR/common.json index c07ca93d0a..85a43039ce 100644 --- a/locales/fr-FR/common.json +++ b/locales/fr-FR/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Ajoutez-nous une étoile sur GitHub", "footer.title": "Vous aimez notre produit ?", "fullscreen": "Mode plein écran", - "geminiImageChineseWarning.content": "Nano Banana peut parfois échouer à générer des images avec du texte en chinois. Il est recommandé d'utiliser l'anglais pour de meilleurs résultats.", - "geminiImageChineseWarning.continueGenerate": "Continuer la génération", - "geminiImageChineseWarning.continueSend": "Continuer l'envoi", - "geminiImageChineseWarning.doNotShowAgain": "Ne plus afficher", - "geminiImageChineseWarning.title": "Avis sur la saisie en chinois", "historyRange": "Plage d'historique", "home.suggestQuestions": "Essayez ces exemples", "import": "Importer", @@ -397,6 +392,7 @@ "tab.chat": "Discussion", "tab.community": "Communauté", "tab.discover": "Découvrir", + "tab.eval": "Laboratoire d'évaluation", "tab.files": "Fichiers", "tab.home": "Accueil", "tab.knowledgeBase": "Bibliothèque", diff --git a/locales/fr-FR/eval.json b/locales/fr-FR/eval.json new file mode 100644 index 0000000000..4d6ccea437 --- /dev/null +++ b/locales/fr-FR/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Supprimer le Benchmark", + "benchmark.actions.delete.confirm": "Êtes-vous sûr de vouloir supprimer ce benchmark ? Les ensembles de données et les enregistrements d'évaluation associés seront également supprimés.", + "benchmark.actions.edit": "Modifier le Benchmark", + "benchmark.actions.export": "Exporter", + "benchmark.card.bestScore": "Meilleur", + "benchmark.card.caseCount": "{{count}} cas", + "benchmark.card.datasetCount": "{{count}} ensembles de données", + "benchmark.card.empty": "Aucune évaluation pour le moment", + "benchmark.card.emptyHint": "Créez une nouvelle évaluation depuis la page de détail du benchmark", + "benchmark.card.importDataset": "Importer un Ensemble de Données", + "benchmark.card.noDataset": "Aucun ensemble de données pour le moment", + "benchmark.card.noDatasetHint": "Importez un ensemble de données pour commencer l'évaluation", + "benchmark.card.noRecentRuns": "Aucune évaluation récente à afficher", + "benchmark.card.recentRuns": "Évaluations Récentes", + "benchmark.card.runCount": "{{count}} évaluations", + "benchmark.card.startFirst": "Commencer la Première Évaluation", + "benchmark.card.viewAll": "Voir les {{count}}", + "benchmark.create.confirm": "Créer", + "benchmark.create.description.label": "Description", + "benchmark.create.description.placeholder": "Description du benchmark (facultatif)", + "benchmark.create.error": "Échec de la création du benchmark", + "benchmark.create.identifier.label": "Identifiant", + "benchmark.create.identifier.placeholder": "identifiant-du-benchmark", + "benchmark.create.identifierRequired": "Veuillez entrer un identifiant", + "benchmark.create.name.label": "Nom", + "benchmark.create.name.placeholder": "Entrez le nom du benchmark", + "benchmark.create.nameRequired": "Veuillez entrer un nom de benchmark", + "benchmark.create.success": "Benchmark créé avec succès", + "benchmark.create.tags.label": "Étiquettes", + "benchmark.create.tags.placeholder": "Ajoutez des étiquettes, séparées par une virgule ou un espace", + "benchmark.create.title": "Créer un Benchmark", + "benchmark.detail.backToOverview": "Retour à l'Aperçu", + "benchmark.detail.datasetCount": "{{count}} ensemble{{count, plural, one {} other {s}}} de données dans ce benchmark", + "benchmark.detail.runCount": "{{count}} exécution{{count, plural, one {} other {s}}} d'évaluation sur ce benchmark", + "benchmark.detail.stats.addFirstDataset": "Cliquez pour ajouter le premier ensemble de données", + "benchmark.detail.stats.avgCost": "Coût Moyen", + "benchmark.detail.stats.avgDuration": "Durée Moyenne", + "benchmark.detail.stats.basedOnLastNRuns": "Basé sur les {{count}} dernières exécutions", + "benchmark.detail.stats.bestPerformance": "Meilleure performance par {{agent}} avec un taux de réussite de {{passRate}}%", + "benchmark.detail.stats.bestScore": "Meilleur Score", + "benchmark.detail.stats.cases": "Cas", + "benchmark.detail.stats.dataScale": "Échelle des Données", + "benchmark.detail.stats.datasets": "Ensembles de Données", + "benchmark.detail.stats.needSetup": "Configuration Requise", + "benchmark.detail.stats.noEvalRecord": "Aucun enregistrement d'évaluation pour le moment", + "benchmark.detail.stats.perRun": "/ Exécution", + "benchmark.detail.stats.runs": "Exécutions", + "benchmark.detail.stats.tags": "Étiquettes", + "benchmark.detail.stats.topAgents": "Meilleurs Agents", + "benchmark.detail.stats.totalCases": "Total des Cas", + "benchmark.detail.stats.waiting": "En attente...", + "benchmark.detail.tabs.data": "Données", + "benchmark.detail.tabs.datasets": "Ensembles de Données", + "benchmark.detail.tabs.runs": "Exécutions", + "benchmark.edit.confirm": "Enregistrer", + "benchmark.edit.error": "Échec de la mise à jour du benchmark", + "benchmark.edit.success": "Benchmark mis à jour avec succès", + "benchmark.edit.title": "Modifier le Benchmark", + "benchmark.empty": "Aucun benchmark pour le moment. Créez-en un pour commencer.", + "caseDetail.actual": "Sortie Réelle", + "caseDetail.chatArea.title": "Conversation", + "caseDetail.completionReason": "Statut", + "caseDetail.cost": "Coût", + "caseDetail.difficulty": "Difficulté", + "caseDetail.duration": "Durée", + "caseDetail.expected": "Sortie Attendue", + "caseDetail.failureReason": "Raison de l'Échec", + "caseDetail.input": "Entrée", + "caseDetail.judgeComment": "Commentaire du Juge", + "caseDetail.resources": "Ressources", + "caseDetail.score": "Score", + "caseDetail.section.runtime": "Temps d'Exécution", + "caseDetail.section.scoring": "Détails du Score", + "caseDetail.section.testCase": "Cas de Test", + "caseDetail.steps": "Étapes", + "caseDetail.threads.attempt": "Trajectoire #{{number}}", + "caseDetail.tokens": "Utilisation des Jetons", + "common.cancel": "Annuler", + "common.create": "Créer", + "common.delete": "Supprimer", + "common.edit": "Modifier", + "common.later": "Plus tard", + "common.next": "Suivant", + "common.update": "Mettre à jour", + "dataset.actions.addDataset": "Ajouter un Ensemble de Données", + "dataset.actions.import": "Importer des Données", + "dataset.actions.importDataset": "Importer un Ensemble de Données", + "dataset.create.description.label": "Description", + "dataset.create.description.placeholder": "Description de l'ensemble de données (facultatif)", + "dataset.create.error": "Échec de la création de l'ensemble de données", + "dataset.create.identifier.label": "Identifiant", + "dataset.create.identifier.placeholder": "identifiant-de-l-ensemble-de-données", + "dataset.create.identifierRequired": "Veuillez entrer un identifiant", + "dataset.create.importNow": "Souhaitez-vous importer des données maintenant ?", + "dataset.create.name.label": "Nom de l'Ensemble de Données", + "dataset.create.name.placeholder": "Entrez le nom de l'ensemble de données", + "dataset.create.nameRequired": "Veuillez entrer un nom d'ensemble de données", + "dataset.create.preset.label": "Préréglage de l'Ensemble de Données", + "dataset.create.success": "Ensemble de données créé avec succès", + "dataset.create.successTitle": "Ensemble de Données Créé", + "dataset.create.title": "Créer un Ensemble de Données", + "dataset.delete.confirm": "Êtes-vous sûr de vouloir supprimer cet ensemble de données ? Tous les cas de test qu'il contient seront également supprimés.", + "dataset.delete.error": "Échec de la suppression de l'ensemble de données", + "dataset.delete.success": "Ensemble de données supprimé avec succès", + "dataset.detail.addRun": "Nouvelle Exécution", + "dataset.detail.backToBenchmark": "Retour au Benchmark", + "dataset.detail.caseCount": "{{count}} cas de test{{count, plural, one {} other {s}}}", + "dataset.detail.relatedRuns": "Exécutions Associées ({{count}})", + "dataset.detail.testCases": "Cas de Test", + "dataset.detail.viewDetail": "Voir les Détails", + "dataset.edit.error": "Échec de la mise à jour de l'ensemble de données", + "dataset.edit.success": "Ensemble de données mis à jour avec succès", + "dataset.edit.title": "Modifier l'Ensemble de Données", + "dataset.empty": "Aucun ensemble de données", + "dataset.empty.description": "Importez un ensemble de données pour commencer à construire ce benchmark", + "dataset.empty.title": "Aucun ensemble de données pour le moment", + "dataset.evalMode.hint": "Mode d'évaluation par défaut pour l'ensemble de données, peut être remplacé au niveau du cas de test", + "dataset.import.category": "Catégorie", + "dataset.import.categoryDesc": "Étiquette de classification pour le regroupement", + "dataset.import.choices": "Choix", + "dataset.import.choicesDesc": "Options à choix multiples", + "dataset.import.confirm": "Importer", + "dataset.import.error": "Échec de l'importation de l'ensemble de données", + "dataset.import.expected": "Réponse Attendue", + "dataset.import.expectedDelimiter": "Délimiteur de Réponse", + "dataset.import.expectedDelimiter.desc": "Délimiteur de réponse", + "dataset.import.expectedDelimiter.placeholder": "ex. | ou ,", + "dataset.import.expectedDesc": "Réponse correcte à comparer", + "dataset.import.fieldMapping": "Mappage des Champs", + "dataset.import.fieldMapping.desc": "La colonne \"Entrée\" est requise", + "dataset.import.hideSkipped": "Masquer les colonnes ignorées", + "dataset.import.ignore": "Ignorer", + "dataset.import.ignoreDesc": "Ne pas importer cette colonne", + "dataset.import.input": "Entrée", + "dataset.import.inputDesc": "Question ou invite envoyée au modèle", + "dataset.import.metadata": "Métadonnées", + "dataset.import.metadataDesc": "Informations supplémentaires, stockées telles quelles", + "dataset.import.next": "Suivant", + "dataset.import.parseError": "Échec de l'analyse du fichier", + "dataset.import.parsing": "Analyse du fichier...", + "dataset.import.prev": "Précédent", + "dataset.import.preview": "Aperçu des Données", + "dataset.import.preview.desc": "Confirmez que le mappage est correct, puis importez.", + "dataset.import.preview.rows": "{{count}} lignes au total", + "dataset.import.sortOrder": "Numéro d'Article", + "dataset.import.sortOrderDesc": "ID de question/article pour référence", + "dataset.import.step.mapping": "Mapper les Champs", + "dataset.import.step.preview": "Aperçu", + "dataset.import.step.upload": "Télécharger le Fichier", + "dataset.import.success": "{{count}} cas de test importés avec succès", + "dataset.import.title": "Importer un Ensemble de Données", + "dataset.import.upload.hint": "Prend en charge CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Cliquez ou glissez un fichier ici pour le télécharger", + "dataset.import.uploading": "Téléchargement...", + "dataset.switchDataset": "Changer d'Ensemble de Données", + "difficulty.easy": "Facile", + "difficulty.hard": "Difficile", + "difficulty.medium": "Moyen", + "evalMode.contains": "Correspondance Contient", + "evalMode.contains.desc": "La sortie doit contenir le texte attendu", + "evalMode.equals": "Correspondance Exacte", + "evalMode.equals.desc": "La sortie doit être exactement la même que celle attendue", + "evalMode.label": "Mode d'Évaluation", + "evalMode.llm-rubric": "Juge LLM", + "evalMode.llm-rubric.desc": "Utiliser LLM pour évaluer la qualité de la sortie", + "evalMode.placeholder": "Sélectionnez un mode d'évaluation", + "evalMode.prompt.label": "Invite du Juge", + "evalMode.prompt.placeholder": "Entrez les critères d'évaluation ou l'invite pour le juge LLM", + "evalMode.rubric": "Évaluation par Rubrique", + "evalMode.rubric.desc": "Évaluer la sortie en utilisant des rubriques de benchmark avec des critères pondérés", + "overview.createBenchmark": "Créer un Benchmark", + "overview.importDataset": "Importer un Ensemble de Données", + "overview.subtitle": "Évaluez vos agents IA sur différents ensembles de données", + "overview.title": "Laboratoire d'Évaluation", + "run.actions.abort": "Abandonner", + "run.actions.abort.confirm": "Êtes-vous sûr de vouloir abandonner cette évaluation ?", + "run.actions.create": "Nouvelle Évaluation", + "run.actions.delete": "Supprimer", + "run.actions.delete.confirm": "Êtes-vous sûr de vouloir supprimer cette évaluation ?", + "run.actions.edit": "Modifier", + "run.actions.retryCase": "Réessayer", + "run.actions.retryErrors": "Réessayer les Erreurs", + "run.actions.retryErrors.confirm": "Cela relancera tous les cas d'erreur et de délai d'attente. Les cas réussis et échoués ne seront pas affectés.", + "run.actions.run": "Exécuter", + "run.actions.start": "Démarrer", + "run.actions.start.confirm": "Êtes-vous sûr de vouloir démarrer cette évaluation ?", + "run.chart.duration": "Durée (s)", + "run.chart.error": "Erreur", + "run.chart.fail": "Échec", + "run.chart.latencyDistribution": "Distribution de la Latence", + "run.chart.latencyTokenDistribution": "Latence / Distribution des Jetons", + "run.chart.pass": "Réussite", + "run.chart.passFailError": "Réussite / Échec / Erreur", + "run.chart.tokens": "Jetons", + "run.config.agentId": "Agent", + "run.config.concurrency": "Concurrence", + "run.config.judgeModel": "Modèle de Juge", + "run.config.k": "Exécutions (K)", + "run.config.k.hint": "Exécutez chaque cas de test {{k}} fois pour les métriques pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Étapes Maximales", + "run.config.maxSteps.hint": "Chaque appel LLM ou appel d'outil par l'agent compte comme 1 étape", + "run.config.model": "Modèle", + "run.config.temperature": "Température", + "run.config.timeout": "Délai d'Attente", + "run.config.timeout.unit": "min", + "run.create.advanced": "Paramètres Avancés", + "run.create.agent": "Agent", + "run.create.agent.placeholder": "Sélectionnez un agent", + "run.create.agent.required": "Veuillez sélectionner un agent", + "run.create.caseCount": "{{count}} cas", + "run.create.confirm": "Créer & Démarrer", + "run.create.createOnly": "Créer", + "run.create.dataset": "Ensemble de Données", + "run.create.dataset.placeholder": "Sélectionnez un ensemble de données", + "run.create.dataset.required": "Veuillez sélectionner un ensemble de données", + "run.create.name": "Nom de l'Évaluation", + "run.create.name.placeholder": "Entrez un nom pour cette évaluation", + "run.create.name.required": "Veuillez entrer un nom d'évaluation", + "run.create.name.useTimestamp": "Utiliser l'heure actuelle comme nom", + "run.create.openAgent": "Ouvrir l'agent dans une nouvelle fenêtre", + "run.create.title": "Nouvelle Évaluation", + "run.create.titleWithDataset": "Nouvelle Évaluation sur \"{{dataset}}\"", + "run.detail.agent": "Agent", + "run.detail.agent.none": "Non spécifié", + "run.detail.agent.unnamed": "Agent Sans Nom", + "run.detail.backToBenchmark": "Retour au Benchmark", + "run.detail.caseResults": "Détails de l'Évaluation", + "run.detail.config": "Configuration de l'Évaluation", + "run.detail.configSnapshot": "Instantané de la Configuration", + "run.detail.dataset": "Ensemble de Données", + "run.detail.model": "Modèle", + "run.detail.overview": "Aperçu", + "run.detail.progress": "Progression", + "run.detail.progressCases": "cas", + "run.detail.report": "Résumé de l'Évaluation", + "run.edit.error": "Échec de la mise à jour de l'évaluation", + "run.edit.success": "Évaluation mise à jour avec succès", + "run.edit.title": "Modifier l'Évaluation", + "run.empty.description": "Lancez votre première évaluation sur cet ensemble de données", + "run.empty.descriptionBenchmark": "Lancez votre première évaluation sur ce benchmark", + "run.empty.title": "Aucune évaluation pour le moment", + "run.filter.active": "Actif", + "run.filter.empty": "Aucune évaluation ne correspond au filtre actuel.", + "run.idle.hint": "Cliquez sur Démarrer pour commencer l'évaluation", + "run.metrics.avgScore": "Score Moyen", + "run.metrics.cost": "Coût", + "run.metrics.duration": "Durée", + "run.metrics.errorCases": "Erreur", + "run.metrics.evaluated": "{{count}} évalué", + "run.metrics.passRate": "Taux de Réussite", + "run.metrics.perCase": "/ cas", + "run.metrics.tokens": "Jetons", + "run.metrics.totalDuration": "Cumulatif", + "run.pending.hint": "L'évaluation est en file d'attente, en attente de démarrage...", + "run.running.hint": "L'évaluation est en cours, les résultats apparaîtront bientôt...", + "run.status.aborted": "Abandonné", + "run.status.completed": "Terminé", + "run.status.error": "Erreur d'Évaluation", + "run.status.failed": "Échoué", + "run.status.idle": "Inactif", + "run.status.pending": "En attente", + "run.status.running": "En cours", + "run.status.timeout": "Délai d'Attente", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Tableau de Bord", + "sidebar.datasets": "Ensembles de Données", + "sidebar.runs": "Exécutions", + "table.columns.avgCost": "Coût Moyen", + "table.columns.category": "Catégorie", + "table.columns.cost": "Coût", + "table.columns.difficulty": "Difficulté", + "table.columns.duration": "Durée", + "table.columns.evalMode": "Mode d'Évaluation", + "table.columns.expected": "Réponse Attendue", + "table.columns.input": "Entrée", + "table.columns.score": "Score", + "table.columns.status": "Statut", + "table.columns.steps": "Étapes", + "table.columns.tags": "Étiquettes", + "table.columns.tokens": "Jetons", + "table.columns.totalCost": "Coût Total", + "table.filter.all": "Tous", + "table.filter.error": "Erreur d'Évaluation", + "table.filter.failed": "Échoué", + "table.filter.passed": "Réussi", + "table.filter.running": "En cours", + "table.search.placeholder": "Rechercher des cas...", + "table.total": "Total {{count}}", + "testCase.actions.add": "Ajouter un Cas de Test", + "testCase.actions.import": "Importer des Cas de Test", + "testCase.create.advanced": "Plus d'Options", + "testCase.create.difficulty.label": "Difficulté", + "testCase.create.error": "Échec de l'ajout du cas de test", + "testCase.create.expected.label": "Sortie Attendue", + "testCase.create.expected.placeholder": "Entrez la réponse attendue", + "testCase.create.expected.required": "Veuillez entrer la sortie attendue", + "testCase.create.input.label": "Entrée", + "testCase.create.input.placeholder": "Entrez l'entrée ou la question du cas de test", + "testCase.create.success": "Cas de test ajouté avec succès", + "testCase.create.tags.label": "Étiquettes", + "testCase.create.tags.placeholder": "Étiquettes séparées par des virgules (facultatif)", + "testCase.create.title": "Ajouter un Cas de Test", + "testCase.delete.confirm": "Êtes-vous sûr de vouloir supprimer ce cas de test ?", + "testCase.delete.error": "Échec de la suppression du cas de test", + "testCase.delete.success": "Cas de test supprimé", + "testCase.edit.error": "Échec de la mise à jour du cas de test", + "testCase.edit.success": "Cas de test mis à jour avec succès", + "testCase.edit.title": "Modifier le Cas de Test", + "testCase.empty.description": "Importez ou ajoutez manuellement des cas de test à cet ensemble de données", + "testCase.empty.title": "Aucun cas de test pour le moment", + "testCase.preview.expected": "Attendu", + "testCase.preview.input": "Entrée", + "testCase.preview.title": "Aperçu du Cas de Test", + "testCase.search.placeholder": "Rechercher des cas..." +} diff --git a/locales/fr-FR/home.json b/locales/fr-FR/home.json index 2bfac3284e..54449748bb 100644 --- a/locales/fr-FR/home.json +++ b/locales/fr-FR/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Recherche approfondie", "starter.developing": "Bientôt disponible", "starter.image": "Image", + "starter.nanoBanana2": "🍌 Nano Banane 2", "starter.seedance": "Seedance 2.0", "starter.write": "Écrire" } diff --git a/locales/fr-FR/modelProvider.json b/locales/fr-FR/modelProvider.json index ee4e0ac65d..c83e12447a 100644 --- a/locales/fr-FR/modelProvider.json +++ b/locales/fr-FR/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Pour la série Gemini ; contrôle le budget de réflexion.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Pour les modèles Gemini 3 Flash Preview ; contrôle la profondeur de réflexion.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Pour les modèles Gemini 3 Pro Preview ; contrôle la profondeur de réflexion.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Pour les modèles Gemini 3.1 Pro Preview ; contrôle la profondeur de réflexion avec des niveaux bas/moyen/élevé.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Pour la série Gemini ; permet de fournir un contexte via une URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Sélectionnez les paramètres étendus à activer", "providerModels.item.modelConfig.extendParams.previewFallback": "Aperçu non disponible", diff --git a/locales/fr-FR/models.json b/locales/fr-FR/models.json index e202477f77..5904d40998 100644 --- a/locales/fr-FR/models.json +++ b/locales/fr-FR/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo offre de solides capacités de calcul et de conversation avec une excellente compréhension sémantique et une génération efficace, idéal pour les entreprises et les développeurs.", "360gpt2-o1.description": "360gpt2-o1 construit une chaîne de raisonnement via une recherche arborescente avec un mécanisme de réflexion et un entraînement par renforcement, permettant l’auto-réflexion et l’auto-correction.", "360gpt2-pro.description": "360GPT2 Pro est un modèle NLP avancé de 360, excellent en génération et compréhension de texte, particulièrement adapté aux tâches créatives, aux transformations complexes et aux jeux de rôle.", + "360zhinao2-o1.5.description": "360 Zhinao, le modèle de raisonnement le plus puissant, doté des capacités les plus avancées et prenant en charge à la fois l'appel d'outils et le raisonnement avancé.", "360zhinao2-o1.description": "360zhinao2-o1 construit une chaîne de raisonnement via une recherche arborescente avec un mécanisme de réflexion et un entraînement par renforcement, permettant l’auto-réflexion et l’auto-correction.", + "360zhinao3-o1.5.description": "360 Zhinao, modèle de raisonnement de nouvelle génération.", "4.0Ultra.description": "Spark Ultra est le modèle le plus puissant de la série Spark, améliorant la compréhension et le résumé de texte tout en optimisant la recherche web. Il constitue une solution complète pour accroître la productivité au travail et fournir des réponses précises, se positionnant comme un produit intelligent de premier plan.", "AnimeSharp.description": "AnimeSharp (également connu sous le nom de \"4x-AnimeSharp\") est un modèle open source de super-résolution basé sur ESRGAN par Kim2091, conçu pour l’agrandissement et l’affinage des images de style anime. Il a été renommé depuis \"4x-TextSharpV1\" en février 2022, initialement destiné aussi aux images de texte mais désormais fortement optimisé pour le contenu anime.", "Baichuan2-Turbo.description": "Utilise l’augmentation par recherche pour connecter le modèle aux connaissances du domaine et du web. Prend en charge les téléchargements de fichiers PDF/Word et les entrées d’URL pour une récupération rapide et complète, avec des résultats professionnels et précis.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision est un modèle multimodal de pointe performant sur les principaux benchmarks de langue, texte et vision. Cette version 8B est optimisée pour une faible latence et de bonnes performances.", "charglm-3.description": "CharGLM-3 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.", "charglm-4.description": "CharGLM-4 est conçu pour le jeu de rôle et la compagnie émotionnelle, avec une mémoire multi-tours ultra-longue et des dialogues personnalisés.", - "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel, combinant compréhension et génération avancées pour des cas d’usage à grande échelle comme le support client, l’éducation et l’assistance technique.", + "chatgpt-4o-latest.description": "ChatGPT-4o est un modèle dynamique mis à jour en temps réel. Il combine une compréhension et une génération linguistiques puissantes pour des cas d'utilisation à grande échelle tels que le support client, l'éducation et l'assistance technique.", "claude-2.0.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.", "claude-2.1.description": "Claude 2 apporte des améliorations clés pour les entreprises, notamment un contexte de 200 000 jetons, une réduction des hallucinations, des invites système et une nouvelle fonctionnalité de test : l’appel d’outils.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku est le modèle nouvelle génération le plus rapide d'Anthropic, offrant des améliorations dans de nombreuses compétences et surpassant l'ancien modèle phare Claude 3 Opus sur de nombreux benchmarks.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) est un modèle innovant offrant une compréhension linguistique approfondie et une interaction fluide.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 est un modèle de raisonnement nouvelle génération avec un raisonnement complexe renforcé et une chaîne de pensée pour les tâches d’analyse approfondie.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle de raisonnement de nouvelle génération avec des capacités renforcées de raisonnement complexe et de chaîne de pensée.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 est un modèle vision-langage MoE basé sur DeepSeekMoE-27B avec activation clairsemée, atteignant de hautes performances avec seulement 4,5B de paramètres actifs. Il excelle en QA visuelle, OCR, compréhension de documents/tableaux/graphes et ancrage visuel.", "deepseek-chat.description": "DeepSeek V3.2 équilibre raisonnement et longueur de sortie pour les tâches quotidiennes de questions-réponses et d'agents. Les benchmarks publics atteignent le niveau de GPT-5, et c'est le premier à intégrer la réflexion dans l'utilisation d'outils, menant les évaluations open source d'agents.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B est un modèle de langage pour le code entraîné sur 2T de tokens (87 % de code, 13 % de texte en chinois/anglais). Il introduit une fenêtre de contexte de 16K et des tâches de remplissage au milieu, offrant une complétion de code à l’échelle du projet et un remplissage de fragments.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 est un nouveau modèle de raisonnement hybride de DeepSeek, prenant en charge les modes avec ou sans réflexion, et offrant une efficacité de raisonnement supérieure à celle de DeepSeek-R1-0528. Les optimisations post-entraînement améliorent considérablement l'utilisation des outils par les agents et leurs performances sur les tâches. Il prend en charge une fenêtre de contexte de 128k et jusqu'à 64k jetons de sortie.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 est un modèle de raisonnement de nouvelle génération, amélioré pour le raisonnement complexe et la chaîne de pensée, adapté aux tâches nécessitant une analyse approfondie.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduit l'attention clairsemée pour améliorer l'efficacité de l'entraînement et de l'inférence sur les textes longs, à un coût inférieur à celui de deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Pour les tâches hautement complexes, le modèle Speciale surpasse significativement la version standard, mais consomme beaucoup plus de jetons et entraîne des coûts plus élevés. Actuellement, DeepSeek-V3.2-Speciale est destiné uniquement à la recherche, ne prend pas en charge les appels d'outils et n'a pas été spécifiquement optimisé pour les conversations ou les tâches d'écriture quotidiennes.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think est un modèle de réflexion approfondie complet, doté d'un raisonnement en chaîne plus puissant.", "deepseek-v3.2.description": "DeepSeek-V3.2 est le premier modèle de raisonnement hybride de DeepSeek, intégrant la réflexion à l’utilisation d’outils. Il utilise une architecture efficace pour réduire les coûts de calcul, un apprentissage par renforcement à grande échelle pour améliorer ses capacités, et des données synthétiques massives pour renforcer sa généralisation. Cette combinaison permet d’atteindre des performances comparables à GPT-5-High, tout en réduisant considérablement la longueur des sorties, ce qui diminue la charge de calcul et le temps d’attente des utilisateurs.", "deepseek-v3.description": "DeepSeek-V3 est un puissant modèle MoE avec 671 milliards de paramètres au total et 37 milliards actifs par jeton.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions. Il prend en charge une fenêtre de contexte de 128k et jusqu’à 16k jetons de sortie.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro est un modèle multimodal amélioré prenant en charge les images de toute résolution et des rapports d’aspect extrêmes, renforçant le raisonnement visuel, la reconnaissance de documents, la compréhension des détails et le suivi d’instructions.", - "doubao-lite-128k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 128k.", "doubao-lite-32k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.", - "doubao-lite-4k.description": "Réponse ultra-rapide avec un meilleur rapport qualité-prix, offrant des choix plus flexibles selon les scénarios. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 4k.", - "doubao-pro-256k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 256k.", "doubao-pro-32k.description": "Le modèle phare le plus performant pour les tâches complexes, avec d’excellents résultats en questions-réponses de référence, résumé, création, classification de texte et jeu de rôle. Prend en charge le raisonnement et l’ajustement fin avec une fenêtre de contexte de 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash est un modèle multimodal de raisonnement profond ultra-rapide avec un TPOT aussi bas que 10 ms. Il prend en charge le texte et la vision, dépasse l’ancien modèle lite en compréhension textuelle et rivalise avec les modèles pro concurrents en vision. Il prend en charge une fenêtre de contexte de 256k et jusqu’à 16k jetons de sortie.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite est un nouveau modèle multimodal de raisonnement profond avec un effort de raisonnement ajustable (Minimal, Faible, Moyen, Élevé), offrant un meilleur rapport qualité-prix et un excellent choix pour les tâches courantes, avec une fenêtre de contexte allant jusqu’à 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Le modèle d’image Doubao de ByteDance Seed prend en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il prend en charge l’édition d’image guidée par texte, avec des tailles de sortie entre 512 et 1536 sur le côté long.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 est un modèle de génération d’image de ByteDance Seed, prenant en charge les entrées texte et image avec une génération d’image de haute qualité et hautement contrôlable. Il génère des images à partir d’invites textuelles.", - "doubao-vision-lite-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.", - "doubao-vision-pro-32k.description": "Doubao-vision est un modèle multimodal de Doubao avec une forte compréhension et un raisonnement d’image, ainsi qu’un suivi précis des instructions. Il excelle dans l’extraction image-texte et les tâches de raisonnement basées sur l’image, permettant des scénarios de questions-réponses visuelles plus complexes et étendus.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 est le dernier modèle d'image multimodal de ByteDance, intégrant des capacités de génération de texte en image, d'image en image et de génération d'images par lots, tout en incorporant des compétences en raisonnement et en bon sens. Par rapport à la version précédente 4.0, il offre une qualité de génération nettement améliorée, avec une meilleure cohérence d'édition et une fusion multi-images. Il permet un contrôle plus précis des détails visuels, produisant des textes et des visages plus petits de manière plus naturelle, et atteint une mise en page et des couleurs plus harmonieuses, améliorant l'esthétique globale.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite est le dernier modèle de génération d'images de ByteDance. Pour la première fois, il intègre des capacités de recherche en ligne, lui permettant d'incorporer des informations web en temps réel et d'améliorer la pertinence des images générées. L'intelligence du modèle a également été améliorée, permettant une interprétation précise des instructions complexes et du contenu visuel. De plus, il offre une meilleure couverture des connaissances globales, une cohérence des références et une qualité de génération dans des scénarios professionnels, répondant mieux aux besoins de création visuelle au niveau des entreprises.", "emohaa.description": "Emohaa est un modèle de santé mentale doté de compétences professionnelles en conseil pour aider les utilisateurs à comprendre leurs problèmes émotionnels.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B est un modèle léger open source conçu pour un déploiement local et personnalisé.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking est un modèle textuel MoE (Mixture-of-Experts) post-entraîné avec un total de 21 milliards de paramètres et 3 milliards de paramètres actifs, offrant une qualité et une profondeur de raisonnement considérablement améliorées.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B est un modèle open source à grande capacité offrant une meilleure compréhension et génération.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B est le modèle MoE ultra-large d’ERNIE de Baidu, doté d’excellentes capacités de raisonnement.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview est un modèle de prévisualisation avec contexte 8K pour l’évaluation d’ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K est un modèle léger haute performance pour les scénarios sensibles à la latence et au coût.", "ernie-novel-8k.description": "ERNIE Novel 8K est conçu pour les romans longs et les intrigues IP avec des récits multi-personnages.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K est un modèle à haute valeur et haute concurrence pour les services en ligne à grande échelle et les applications d’entreprise.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les discussions multi-tours.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K est un modèle de réflexion rapide avec un contexte de 32K pour le raisonnement complexe et les dialogues multi-tours.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview est une préversion de modèle de réflexion pour l’évaluation et les tests.", + "ernie-x1.1.description": "ERNIE X1.1 est un modèle de réflexion en aperçu pour évaluation et test.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, développé par l'équipe Seed de ByteDance, prend en charge l'édition et la composition multi-images. Il offre une meilleure cohérence des sujets, un suivi précis des instructions, une compréhension de la logique spatiale, une expression esthétique, une mise en page de type affiche et une conception de logo avec un rendu texte-image de haute précision.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, développé par ByteDance Seed, prend en charge les entrées texte et image pour une génération d'images de haute qualité et hautement contrôlable à partir d'invites.", "fal-ai/flux-kontext/dev.description": "Modèle FLUX.1 axé sur l’édition d’images, prenant en charge les entrées texte et image.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite est le plus petit modèle de Google, offrant le meilleur rapport qualité-prix, conçu pour une utilisation à grande échelle.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview est le modèle le plus économique de Google avec des capacités complètes.", - "gemini-2.5-flash-preview-09-2025.description": "Version préliminaire (25 septembre 2025) de Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash est le modèle le plus économique de Google avec des capacités complètes.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview est le modèle de raisonnement le plus avancé de Google, capable de raisonner sur du code, des mathématiques et des problèmes STEM, et d’analyser de grands ensembles de données, bases de code et documents avec un long contexte.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d’images de Google, prenant également en charge les dialogues multimodaux.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) est le modèle de génération d'images de Google, prenant également en charge le chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro est le modèle agent et de codage le plus puissant de Google, offrant des visuels enrichis et une interaction plus poussée grâce à un raisonnement de pointe.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image professionnelle à une vitesse Flash avec prise en charge de la discussion multimodale.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre une qualité d'image professionnelle à une vitesse Flash avec prise en charge de la discussion multimodale.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview améliore Gemini 3 Pro avec des capacités de raisonnement renforcées et ajoute un support de niveau de réflexion moyen.", "gemini-flash-latest.description": "Dernière version de Gemini Flash", "gemini-flash-lite-latest.description": "Dernière version de Gemini Flash-Lite", "gemini-pro-latest.description": "Dernière version de Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.", "glm-4v-plus.description": "GLM-4V-Plus comprend la vidéo et plusieurs images, adapté aux tâches multimodales.", "glm-4v.description": "GLM-4V offre une compréhension et un raisonnement solides sur les tâches visuelles.", - "glm-5.description": "Un modèle puissant de raisonnement et agentique de Z.ai avec un total de 744B paramètres (40B activés), conçu pour l'ingénierie de systèmes complexes et les tâches à long terme.", + "glm-5.description": "La série GLM est un modèle de raisonnement hybride de Zhipu AI conçu pour les agents, avec des modes de réflexion et non-réflexion.", "glm-z1-air.description": "Modèle de raisonnement avec de solides capacités d’inférence pour les tâches nécessitant une réflexion approfondie.", "glm-z1-airx.description": "Raisonnement ultra-rapide avec une qualité d’inférence élevée.", "glm-z1-flash.description": "La série GLM-Z1 offre un raisonnement complexe puissant, excellent en logique, mathématiques et programmation.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Nous sommes ravis de présenter Grok 4 Fast, notre dernière avancée en matière de modèles de raisonnement économiques.", "grok-4.description": "Notre tout dernier modèle phare, excellent en traitement du langage naturel, mathématiques et raisonnement — un modèle polyvalent idéal.", "grok-code-fast-1.description": "Nous sommes ravis de lancer grok-code-fast-1, un modèle de raisonnement rapide et économique, excellent pour le codage agentique.", + "grok-imagine-image-pro.description": "Générez des images à partir de prompts textuels, modifiez des images existantes avec un langage naturel ou affinez les images de manière itérative via des conversations multi-tours.", + "grok-imagine-image.description": "Générez des images à partir de prompts textuels, modifiez des images existantes avec un langage naturel ou affinez les images de manière itérative via des conversations multi-tours.", "groq/compound-mini.description": "Compound-mini est un système d'IA composite alimenté par des modèles publics disponibles sur GroqCloud, utilisant intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs.", "groq/compound.description": "Compound est un système d'IA composite alimenté par plusieurs modèles publics disponibles sur GroqCloud, utilisant intelligemment et sélectivement des outils pour répondre aux requêtes des utilisateurs.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B est un modèle de langage créatif et intelligent issu de la fusion de plusieurs modèles de pointe.", + "hunyuan-2.0-instruct-20251111.description": "Caractéristiques de la version : La base du modèle a été mise à niveau de TurboS à **Hunyuan 2.0**, entraînant des améliorations globales des capacités. Il améliore considérablement le suivi des instructions, la compréhension des textes multi-tours et longs, la création littéraire, la précision des connaissances, le codage et les capacités de raisonnement.", + "hunyuan-2.0-thinking-20251109.description": "Caractéristiques de la version : La base du modèle a été mise à niveau de TurboS à **Hunyuan 2.0**, entraînant des améliorations globales des capacités. Il améliore considérablement la capacité du modèle à suivre des instructions complexes, à comprendre des textes multi-tours et longs, à gérer du code, à fonctionner comme un agent et à effectuer des tâches de raisonnement.", "hunyuan-a13b.description": "Premier modèle hybride de raisonnement de Hunyuan, amélioré à partir de hunyuan-standard-256K (80B au total, 13B actifs). Il privilégie la réflexion lente par défaut et permet de basculer entre réflexion rapide/lente via des paramètres ou le préfixe /no_think. Ses capacités globales sont supérieures à la génération précédente, notamment en mathématiques, sciences, compréhension de longs textes et tâches d'agents.", - "hunyuan-code.description": "Dernier modèle de génération de code entraîné sur 200B de code de haute qualité et six mois de SFT ; contexte étendu à 8K. Il se classe en tête des benchmarks automatisés pour cinq langages et des évaluations humaines sur dix critères.", - "hunyuan-functioncall.description": "Dernier modèle MoE FunctionCall entraîné sur des données d'appels de fonctions de haute qualité, avec une fenêtre de contexte de 32K et des résultats de référence de premier plan dans plusieurs dimensions.", - "hunyuan-large-longcontext.description": "Excelle dans les tâches sur documents longs comme le résumé et les questions-réponses, tout en gérant la génération générale. Très performant pour l'analyse et la génération de textes longs et complexes.", - "hunyuan-large-vision.description": "Modèle vision-langage entraîné à partir de Hunyuan Large pour la compréhension image-texte. Prend en charge les entrées multi-images + texte à toute résolution et améliore la compréhension visuelle multilingue.", - "hunyuan-large.description": "Hunyuan-large compte ~389B de paramètres totaux et ~52B activés, ce qui en fait le plus grand et le plus puissant modèle MoE open source dans une architecture Transformer.", - "hunyuan-lite-vision.description": "Dernier modèle multimodal 7B avec une fenêtre de contexte de 32K, prenant en charge le chat multimodal chinois/anglais, la reconnaissance d'objets, la compréhension de tableaux de documents et les mathématiques multimodales, surpassant ses pairs 7B sur plusieurs benchmarks.", + "hunyuan-code.description": "Le dernier modèle de code Hunyuan, entraîné sur 200 milliards de données de code de haute qualité et six mois de données SFT, avec un contexte de 8K. Il se classe parmi les meilleurs dans les benchmarks de code automatisé et dans les évaluations humaines expertes dans cinq langues.", + "hunyuan-functioncall.description": "Le dernier modèle MoE FunctionCall de Hunyuan, entraîné sur des données d'appel d'outils de haute qualité, avec une fenêtre de contexte de 32K et des benchmarks de pointe dans plusieurs dimensions.", "hunyuan-lite.description": "Mis à niveau vers une architecture MoE avec une fenêtre de contexte de 256K, surpassant de nombreux modèles open source dans les benchmarks NLP, code, mathématiques et industriels.", "hunyuan-pro.description": "Modèle MoE-32K à un billion de paramètres avec longue fenêtre de contexte, en tête des benchmarks, excellent pour les instructions complexes, le raisonnement, les mathématiques avancées, les appels de fonctions, et optimisé pour la traduction multilingue, la finance, le droit et la médecine.", - "hunyuan-role.description": "Dernier modèle de jeu de rôle, officiellement affiné sur des ensembles de données de jeu de rôle, offrant de meilleures performances de base pour les scénarios immersifs.", - "hunyuan-standard-256K.description": "Utilise un routage amélioré pour atténuer le déséquilibre de charge et l'effondrement des experts. Atteint 99,9 % de réussite sur les tâches de type \"aiguille dans une botte de foin\" avec long contexte. MOE-256K étend encore la longueur et la qualité du contexte.", - "hunyuan-standard-vision.description": "Dernier modèle multimodal avec réponses multilingues et capacités équilibrées en chinois/anglais.", - "hunyuan-standard.description": "Utilise un routage amélioré pour atténuer le déséquilibre de charge et l'effondrement des experts. Atteint 99,9 % de réussite sur les tâches de type \"aiguille dans une botte de foin\" avec long contexte. MOE-32K offre une grande valeur tout en gérant des entrées longues.", - "hunyuan-t1-20250321.description": "Développe des compétences équilibrées en arts et en sciences, avec une forte capacité à capter l'information dans les textes longs. Prend en charge le raisonnement en mathématiques, logique, sciences et programmation à différents niveaux de difficulté.", - "hunyuan-t1-20250403.description": "Améliore la génération de code à l'échelle d'un projet et la qualité rédactionnelle, renforce la compréhension multi-tours des sujets et le suivi des instructions ToB, améliore la compréhension au niveau des mots et réduit les problèmes de sortie mixte simplifié/traditionnel et chinois/anglais.", - "hunyuan-t1-20250529.description": "Améliore l'écriture créative et la composition, renforce le codage frontend, le raisonnement mathématique et logique, et améliore le suivi des instructions.", - "hunyuan-t1-20250711.description": "Améliore considérablement les mathématiques complexes, la logique et le codage, renforce la stabilité des sorties et améliore la gestion des textes longs.", + "hunyuan-role.description": "Le dernier modèle de jeu de rôle Hunyuan, officiellement affiné avec des données de jeu de rôle, offrant des performances de base plus solides dans les scénarios de jeu de rôle.", + "hunyuan-standard-256K.description": "Utilise un routage amélioré pour atténuer l'équilibrage de charge et l'effondrement des experts. Les longues recherches textuelles \"aiguille dans une botte de foin\" atteignent 99,9 %. MOE-256K pousse encore plus loin en longueur et en qualité, élargissant considérablement la longueur des entrées.", + "hunyuan-standard.description": "Utilise un routage amélioré pour atténuer l'équilibrage de charge et l'effondrement des experts. Les longues recherches textuelles \"aiguille dans une botte de foin\" atteignent 99,9 %. MOE-32K offre une meilleure valeur tout en équilibrant qualité et prix pour les entrées longues.", "hunyuan-t1-latest.description": "Améliore significativement le modèle à réflexion lente sur les mathématiques complexes, le raisonnement, le codage difficile, le suivi des instructions et la qualité de l'écriture créative.", - "hunyuan-t1-vision-20250619.description": "Dernier modèle de raisonnement multimodal t1-vision avec chaîne de pensée native longue, nettement amélioré par rapport à la version par défaut précédente.", "hunyuan-t1-vision-20250916.description": "Dernier modèle de raisonnement profond t1-vision avec des améliorations majeures en VQA, ancrage visuel, OCR, graphiques, résolution de problèmes photographiés et création basée sur l'image, ainsi qu'une meilleure prise en charge de l'anglais et des langues peu dotées.", - "hunyuan-turbo-20241223.description": "Cette version améliore l'échelle des instructions pour une meilleure généralisation, renforce considérablement le raisonnement en mathématiques/code/logique, améliore la compréhension au niveau des mots et la qualité rédactionnelle.", - "hunyuan-turbo-latest.description": "Améliorations générales de l'expérience dans la compréhension NLP, l'écriture, le chat, les questions-réponses, la traduction et les domaines spécialisés ; réponses plus humaines, meilleure clarification des intentions ambiguës, meilleure analyse des mots, qualité créative accrue et conversations multi-tours renforcées.", - "hunyuan-turbo-vision.description": "Modèle phare vision-langage de nouvelle génération utilisant une nouvelle architecture MoE, avec des améliorations globales en reconnaissance, création de contenu, questions-réponses sur les connaissances et raisonnement analytique.", "hunyuan-turbo.description": "Aperçu du prochain LLM de Hunyuan avec une nouvelle architecture MoE, offrant un raisonnement plus rapide et de meilleurs résultats que hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Unifie le style de résolution mathématique et renforce les questions-réponses mathématiques multi-tours. Le style rédactionnel est affiné pour réduire le ton artificiel et apporter plus de fluidité.", - "hunyuan-turbos-20250416.description": "Base de pré-entraînement améliorée pour une meilleure compréhension et exécution des instructions ; alignement renforcé pour les mathématiques, le code, la logique et les sciences ; amélioration de la qualité rédactionnelle, de la compréhension, de la précision des traductions et des questions-réponses sur les connaissances ; capacités d’agent renforcées, notamment pour la compréhension multi-tours.", - "hunyuan-turbos-20250604.description": "Base de pré-entraînement mise à jour avec une meilleure rédaction et compréhension de lecture, des progrès significatifs en code et STEM, et une meilleure exécution d’instructions complexes.", - "hunyuan-turbos-20250926.description": "Amélioration de la qualité des données de pré-entraînement et de la stratégie de post-entraînement, renforçant les agents, les langues anglaise et à faibles ressources, l’exécution d’instructions, le code et les capacités STEM.", "hunyuan-turbos-latest.description": "Le dernier modèle phare Hunyuan TurboS avec un raisonnement renforcé et une expérience globale améliorée.", - "hunyuan-turbos-longtext-128k-20250325.description": "Excelle dans les tâches sur documents longs comme le résumé et les questions-réponses, tout en gérant la génération générale. Performant pour l’analyse et la génération de textes longs et complexes.", - "hunyuan-turbos-role-plus.description": "Dernier modèle de jeu de rôle, officiellement affiné sur des jeux de données dédiés, offrant de meilleures performances de base pour les scénarios de jeu de rôle.", - "hunyuan-turbos-vision-20250619.description": "Dernier modèle phare TurboS vision-langage avec des avancées majeures sur les tâches image-texte telles que la reconnaissance d’entités, les questions-réponses sur les connaissances, la rédaction publicitaire et la résolution de problèmes à partir de photos.", - "hunyuan-turbos-vision.description": "Modèle phare vision-langage de nouvelle génération basé sur le dernier TurboS, axé sur la compréhension image-texte comme la reconnaissance d’entités, les questions-réponses sur les connaissances, la rédaction publicitaire et la résolution de problèmes à partir de photos.", - "hunyuan-vision-1.5-instruct.description": "Modèle de génération de texte à partir d’image basé sur la fondation TurboS, avec des améliorations notables par rapport à la version précédente en reconnaissance d’image de base et en raisonnement visuel.", - "hunyuan-vision.description": "Dernier modèle multimodal prenant en charge les entrées image + texte pour générer du texte.", + "hunyuan-vision-1.5-instruct.description": "Un modèle image-texte à réflexion rapide basé sur la base textuelle TurboS, montrant des améliorations notables par rapport à la version précédente en reconnaissance d'image fondamentale et en raisonnement d'analyse d'image.", + "hunyuan-vision.description": "Le dernier modèle multimodal Hunyuan prenant en charge les entrées image + texte pour générer du texte.", "image-01-live.description": "Modèle de génération d’image avec un haut niveau de détail, prenant en charge la génération texte-vers-image et des styles contrôlables prédéfinis.", "image-01.description": "Nouveau modèle de génération d’image avec un haut niveau de détail, prenant en charge la génération texte-vers-image et image-vers-image.", "imagen-4.0-fast-generate-001.description": "Version rapide de la 4e génération de modèles texte-vers-image Imagen.", "imagen-4.0-generate-001.description": "Série de modèles texte-vers-image de 4e génération Imagen.", - "imagen-4.0-generate-preview-06-06.description": "Famille de modèles texte-vers-image de quatrième génération Imagen.", "imagen-4.0-ultra-generate-001.description": "Version Ultra de la 4e génération de modèles texte-vers-image Imagen.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra de la 4e génération de modèles texte-vers-image Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small est idéal pour la génération, le débogage et la refactorisation de code avec une latence minimale.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 est le troisième modèle de l’architecture Ling 2.0 de l’équipe Bailing d’Ant Group. C’est un modèle MoE avec 100 milliards de paramètres totaux, dont seulement 6,1 milliards actifs par jeton (4,8 milliards hors embeddings). Malgré sa configuration légère, il égale ou dépasse les modèles denses de 40B et même certains MoE plus grands sur de nombreux benchmarks, explorant une efficacité élevée via l’architecture et la stratégie d’entraînement.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 est un petit modèle MoE haute performance avec 16 milliards de paramètres totaux et seulement 1,4 milliard actif par jeton (789M hors embeddings), offrant une génération très rapide. Grâce à une conception MoE efficace et à des données d’entraînement de haute qualité, il atteint des performances de premier plan comparables aux modèles denses de moins de 10B et aux MoE plus grands.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T est le modèle MoE à un billion de paramètres d’inclusionAI, adapté aux tâches de raisonnement à grande échelle et à la recherche.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 est une variante du modèle Ring d’inclusionAI pour les scénarios à haut débit, mettant l’accent sur la vitesse et l’efficacité des coûts.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 est le modèle MoE léger à haut débit d’inclusionAI, conçu pour la concurrence.", + "intern-latest.description": "Par défaut, il pointe vers notre dernier modèle de la série Intern, actuellement défini sur intern-s1-pro.", + "intern-s1-mini.description": "Un modèle multimodal léger avec de solides capacités de raisonnement scientifique.", + "intern-s1-pro.description": "Nous avons lancé notre modèle de raisonnement multimodal open-source le plus avancé, actuellement le modèle de langage multimodal open-source le plus performant en termes de performance globale.", + "intern-s1.description": "Le modèle de raisonnement multimodal open-source démontre non seulement de solides capacités générales, mais atteint également des performances de pointe dans une large gamme de tâches scientifiques.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat est un modèle de chat open source basé sur l’architecture InternLM2. Ce modèle 7B se concentre sur la génération de dialogues en chinois et en anglais, avec un entraînement moderne pour des conversations fluides et intelligentes. Il convient à de nombreux scénarios de chat comme l’assistance client ou les assistants personnels.", - "internlm2.5-latest.description": "Modèles hérités toujours maintenus avec d’excellentes performances stables après de nombreuses itérations. Disponibles en tailles 7B et 20B, ils prennent en charge un contexte de 1M et offrent un meilleur suivi des instructions et une utilisation renforcée des outils. Par défaut, la série InternLM2.5 la plus récente est utilisée (actuellement internlm2.5-20b-chat).", - "internlm3-latest.description": "Notre dernière série de modèles avec d’excellentes performances de raisonnement, en tête des modèles open source de sa catégorie. Par défaut, la série InternLM3 la plus récente est utilisée (actuellement internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO est un modèle préentraîné multimodal pour le raisonnement complexe image-texte.", - "internvl2.5-latest.description": "InternVL2.5 est toujours maintenu avec des performances solides et stables. Par défaut, la série InternVL2.5 la plus récente est utilisée (actuellement internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B est un modèle multimodal de taille moyenne, équilibrant performance et coût.", "internvl3-1b.description": "InternVL3 1B est un modèle multimodal léger conçu pour les déploiements avec ressources limitées.", "internvl3-38b.description": "InternVL3 38B est un grand modèle multimodal open source pour une compréhension image-texte de haute précision.", - "internvl3-latest.description": "Notre dernier modèle multimodal avec une meilleure compréhension image-texte et une capacité à traiter de longues séquences d’images, comparable aux meilleurs modèles propriétaires. Par défaut, la série InternVL la plus récente est utilisée (actuellement internvl3-78b).", + "internvl3.5-241b-a28b.description": "Notre nouveau modèle multimodal présente une compréhension améliorée des images et du texte ainsi que des capacités de compréhension d'images longues, atteignant des performances comparables aux modèles propriétaires de premier plan.", + "internvl3.5-latest.description": "Par défaut, il pointe vers le dernier modèle de la série InternVL3.5, actuellement défini sur internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG est un modèle de génération enrichie par la recherche d’images, conçu pour la recherche d’images, la récupération image-texte et la génération de contenu.", "jamba-large.description": "Notre modèle le plus puissant et avancé, conçu pour les tâches complexes en entreprise avec des performances exceptionnelles.", "jamba-mini.description": "Le modèle le plus efficace de sa catégorie, alliant rapidité et qualité avec une empreinte réduite.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 est un modèle de langage efficace conçu spécifiquement pour le codage et les flux de travail d’agents.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 est un modèle de langage de pointe, léger, optimisé pour le codage, les flux de travail d’agents et le développement d’applications modernes, offrant des sorties plus claires et concises avec des temps de réponse plus rapides.", "minimax/minimax-m2.description": "MiniMax-M2 est un modèle performant pour le codage et les tâches d’agents dans de nombreux scénarios d’ingénierie.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 est un modèle MoE compact, rapide et économique, conçu pour des performances de codage et d'agent de premier ordre.", "minimaxai/minimax-m2.description": "MiniMax-M2 est un modèle MoE compact, rapide et économique (230B au total, 10B actifs), conçu pour des performances de haut niveau en codage et agents tout en conservant une forte intelligence générale. Il excelle dans l’édition multi-fichiers, les boucles code-exécution-correction, la validation de tests et les chaînes d’outils complexes.", "ministral-3b-latest.description": "Ministral 3B est le modèle edge haut de gamme de Mistral.", "ministral-8b-latest.description": "Ministral 8B est un modèle edge très rentable de Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Le modèle kimi-k2-0905-preview prend en charge une fenêtre de contexte de 256K, avec un codage agentique renforcé, un code frontend plus soigné et pratique, et une meilleure compréhension du contexte.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo est une version rapide de Kimi K2 Thinking, réduisant considérablement la latence tout en conservant un raisonnement profond.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking est le modèle de raisonnement de Moonshot optimisé pour les tâches de réflexion approfondie, avec des capacités générales d’agent.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 est le modèle Kimi le plus intelligent à ce jour, doté d'une architecture multimodale native.", "moonshotai/kimi-k2.description": "Kimi K2 est un grand modèle MoE de Moonshot AI avec 1T de paramètres totaux et 32B actifs par passage, optimisé pour les capacités d’agent, y compris l’utilisation avancée d’outils, le raisonnement et la synthèse de code.", "morph/morph-v3-fast.description": "Morph propose un modèle spécialisé pour appliquer les modifications de code suggérées par des modèles avancés (par ex. Claude ou GPT-4o) à vos fichiers existants à une vitesse de plus de 4500 jetons/sec. C’est l’étape finale d’un flux de travail de codage IA et il prend en charge 16k jetons en entrée/sortie.", "morph/morph-v3-large.description": "Morph propose un modèle spécialisé pour appliquer les modifications de code suggérées par des modèles avancés (par ex. Claude ou GPT-4o) à vos fichiers existants à une vitesse de plus de 2500 jetons/sec. C’est l’étape finale d’un flux de travail de codage IA et il prend en charge 16k jetons en entrée/sortie.", + "musesteamer-air-image.description": "musesteamer-air-image est un modèle de génération d'images développé par l'équipe de recherche de Baidu pour offrir un rapport qualité-prix exceptionnel. Il peut rapidement générer des images claires et cohérentes en action à partir des prompts des utilisateurs, transformant sans effort les descriptions en visuels.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B est une version mise à jour de Nous Hermes 2 avec les derniers jeux de données développés en interne.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B est un LLM personnalisé par NVIDIA pour améliorer l’utilité. Il obtient d’excellents résultats sur Arena Hard, AlpacaEval 2 LC et GPT-4-Turbo MT-Bench, se classant n°1 sur les trois benchmarks d’alignement automatique au 1er octobre 2024. Il est entraîné à partir de Llama-3.1-70B-Instruct avec RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward et des invites HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modèle de langage distinctif offrant une précision et une efficacité exceptionnelles.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Selon la longueur du contexte, le sujet et la complexité, votre requête est dirigée vers Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-modéré) ou GPT-4o.", "oswe-vscode-prime.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.", "oswe-vscode-secondary.description": "Raptor mini est un modèle en préversion optimisé pour les tâches liées au code.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle qui équilibre une haute efficacité computationnelle avec d'excellentes performances de raisonnement et d'agent.", "perplexity/sonar-pro.description": "Produit phare de Perplexity avec ancrage dans la recherche, prenant en charge les requêtes avancées et les suivis.", "perplexity/sonar-reasoning-pro.description": "Modèle avancé axé sur le raisonnement, produisant des chaînes de pensée (CoT) avec recherche améliorée, incluant plusieurs requêtes par demande.", "perplexity/sonar-reasoning.description": "Modèle axé sur le raisonnement, générant des chaînes de pensée (CoT) avec des explications détaillées basées sur la recherche.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Modèle de code Qwen.", "qwen-coder-turbo.description": "Modèle de code Qwen.", "qwen-flash.description": "Modèle Qwen le plus rapide et le plus économique, idéal pour les tâches simples.", + "qwen-image-edit-max.description": "Le modèle d'édition d'images Qwen prend en charge les entrées et sorties multi-images, permettant une édition précise de texte dans les images, l'ajout, la suppression ou le déplacement d'objets, la modification des actions des sujets, le transfert de style d'image et l'amélioration des détails visuels.", + "qwen-image-edit-plus.description": "Le modèle d'édition d'images Qwen prend en charge les entrées et sorties multi-images, permettant une édition précise de texte dans les images, l'ajout, la suppression ou le déplacement d'objets, la modification des actions des sujets, le transfert de style d'image et l'amélioration des détails visuels.", "qwen-image-edit.description": "Qwen Image Edit est un modèle image-à-image qui modifie les images en fonction d'images d'entrée et d'invites textuelles, permettant des ajustements précis et des transformations créatives.", + "qwen-image-max.description": "Le modèle de génération d'images Qwen (série Max) offre un réalisme et une naturalité visuelle améliorés par rapport à la série Plus, réduisant efficacement les artefacts générés par l'IA et démontrant des performances exceptionnelles en apparence humaine, détails de texture et rendu de texte.", + "qwen-image-plus.description": "Il prend en charge une large gamme de styles artistiques et excelle particulièrement dans le rendu de textes complexes dans les images, permettant une conception intégrée de mise en page image-texte.", "qwen-image.description": "Qwen-Image est un modèle général de génération d'images prenant en charge plusieurs styles artistiques et une forte capacité de rendu de texte complexe, notamment en chinois et en anglais. Il prend en charge les mises en page multi-lignes, les textes au niveau paragraphe et les détails fins pour des compositions texte-image complexes.", "qwen-long.description": "Modèle Qwen ultra-large avec support de long contexte et de chat sur plusieurs documents.", "qwen-math-plus-latest.description": "Qwen Math est un modèle linguistique spécialisé dans la résolution de problèmes mathématiques.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Modèle de code open source Qwen. Le dernier qwen3-coder-30b-a3b-instruct est basé sur Qwen3 et offre de solides capacités d’agent de codage, d’utilisation d’outils et d’interaction avec l’environnement pour la programmation autonome, avec d’excellentes performances en code et de bonnes capacités générales.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct est un modèle de code phare pour la programmation multilingue et la compréhension de code complexe.", "qwen3-coder-flash.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités d’agent de codage, d’utilisation d’outils et d’interaction avec l’environnement pour la programmation autonome, avec d’excellentes performances en code et de bonnes capacités générales.", + "qwen3-coder-next.description": "Le prochain modèle Qwen coder optimisé pour la génération de code complexe multi-fichiers, le débogage et les flux de travail d'agent à haut débit. Conçu pour une forte intégration d'outils et des performances de raisonnement améliorées.", "qwen3-coder-plus.description": "Modèle de code Qwen. La dernière série Qwen3-Coder est basée sur Qwen3 et offre de solides capacités d’agent de codage, d’utilisation d’outils et d’interaction avec l’environnement pour la programmation autonome, avec d’excellentes performances en code et de bonnes capacités générales.", "qwen3-coder:480b.description": "Modèle haute performance d’Alibaba pour les tâches d’agent et de codage avec contexte long.", "qwen3-max-2026-01-23.description": "Les modèles Qwen3 Max offrent des gains significatifs par rapport à la série 2.5 en capacités générales, compréhension du chinois/anglais, suivi d'instructions complexes, tâches subjectives ouvertes, compétences multilingues et utilisation d’outils, avec moins d’hallucinations. La dernière version qwen3-max améliore la programmation agentique et l’utilisation d’outils par rapport à qwen3-max-preview. Cette version atteint l’état de l’art et répond aux besoins d’agents plus complexes.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking est un modèle multimodal de raisonnement en chaîne pour une analyse visuelle détaillée.", "qwen3-vl-flash.description": "Qwen3 VL Flash : version légère et rapide de raisonnement pour les requêtes sensibles à la latence ou à fort volume.", "qwen3-vl-plus.description": "Qwen VL est un modèle de génération de texte avec compréhension visuelle. Il peut effectuer de l’OCR, résumer, raisonner, extraire des attributs de photos de produits ou résoudre des problèmes à partir d’images.", + "qwen3.5-397b-a17b.description": "Prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, offrant une efficacité supérieure et un coût inférieur. En termes de capacités multimodales, il offre des améliorations significatives par rapport à la série Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus prend en charge les entrées texte, image et vidéo. Pour les tâches uniquement textuelles, ses performances sont comparables à celles de Qwen3 Max, tout en offrant une meilleure efficacité et un coût inférieur. En termes de capacités multimodales, il montre des améliorations significatives par rapport à la série Qwen3 VL.", "qwen3.description": "Qwen3 est le modèle de langage de nouvelle génération d'Alibaba, performant dans de nombreux cas d’usage.", "qwq-32b-preview.description": "QwQ est un modèle de recherche expérimental de Qwen axé sur l’amélioration du raisonnement.", "qwq-32b.description": "QwQ est un modèle de raisonnement de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, il apporte des capacités de réflexion et de raisonnement qui améliorent considérablement les performances en aval, notamment sur les problèmes complexes. QwQ-32B est un modèle de raisonnement de taille moyenne qui rivalise avec les meilleurs modèles comme DeepSeek-R1 et o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Modèle de raisonnement de taille moyenne de la famille Qwen. Comparé aux modèles classiques ajustés par instruction, les capacités de réflexion et de raisonnement de QwQ améliorent considérablement les performances en aval, notamment sur les problèmes complexes.", "r1-1776.description": "R1-1776 est une variante post-entraînée de DeepSeek R1 conçue pour fournir des informations factuelles non censurées et impartiales.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro de ByteDance prend en charge la génération de texte en vidéo, d'image en vidéo (première image, première + dernière image), ainsi que la génération audio synchronisée avec les visuels.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite de BytePlus propose une génération augmentée par récupération web pour des informations en temps réel, une interprétation améliorée des prompts complexes et une meilleure cohérence des références pour la création visuelle professionnelle.", "solar-mini-ja.description": "Solar Mini (Ja) étend Solar Mini avec un accent sur le japonais tout en maintenant des performances efficaces et solides en anglais et en coréen.", "solar-mini.description": "Solar Mini est un modèle LLM compact surpassant GPT-3.5, avec de solides capacités multilingues en anglais et en coréen, offrant une solution efficace à faible empreinte.", "solar-pro.description": "Solar Pro est un LLM intelligent développé par Upstage, axé sur le suivi d'instructions sur un seul GPU, avec des scores IFEval supérieurs à 80. Il prend actuellement en charge l'anglais ; la version complète est prévue pour novembre 2024 avec un support linguistique élargi et un contexte plus long.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Un moteur de recherche avancé avec ancrage de recherche pour les requêtes complexes et les suivis.", "sonar-reasoning.description": "Un moteur de recherche avancé avec ancrage de recherche pour les requêtes complexes et les suivis.", "sonar.description": "Un produit de recherche léger avec ancrage, plus rapide et moins coûteux que Sonar Pro.", - "spark-x.description": "Mise à jour X1.5 : (1) ajoute un mode de réflexion dynamique contrôlé par le champ `thinking` ; (2) longueur de contexte étendue avec 64K en entrée et 64K en sortie ; (3) prend en charge FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 est un modèle qui équilibre une haute efficacité computationnelle avec d'excellentes performances de raisonnement et d'agent.", + "spark-x.description": "Aperçu des capacités X2 : 1. Introduit un ajustement dynamique du mode de raisonnement, contrôlé via le champ `thinking`. 2. Longueur de contexte étendue : 64K jetons d'entrée et 128K jetons de sortie. 3. Prend en charge la fonctionnalité Function Call.", "stable-diffusion-3-medium.description": "Le dernier modèle texte-vers-image de Stability AI. Cette version améliore considérablement la qualité des images, la compréhension du texte et la diversité des styles, interprétant plus précisément les requêtes en langage naturel complexes.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applique la distillation par diffusion adversariale (ADD) à stable-diffusion-3.5-large pour une vitesse accrue.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large est un modèle texte-vers-image MMDiT de 800M paramètres avec une excellente qualité et un bon alignement des requêtes, prenant en charge des images de 1 mégapixel et fonctionnant efficacement sur du matériel grand public.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Prend en charge les interactions à long contexte pour des dialogues complexes.", "step-2-mini.description": "Basé sur l’architecture d’attention MFA de nouvelle génération, offrant des résultats comparables à Step-1 à un coût bien inférieur, avec un débit plus élevé et une latence réduite. Gère les tâches générales avec de solides capacités de codage.", "step-2x-large.description": "Nouveau modèle d’image StepFun axé sur la génération d’images de haute qualité à partir de requêtes textuelles. Il offre des textures plus réalistes et un meilleur rendu du texte en chinois et en anglais.", + "step-3.5-flash.description": "Le modèle phare de raisonnement linguistique de Stepfun. Ce modèle offre des capacités de raisonnement de premier ordre ainsi qu'une exécution rapide et fiable. Il peut décomposer et planifier des tâches complexes, invoquer rapidement et de manière fiable des outils pour les exécuter, et excelle dans le raisonnement logique, les mathématiques, l'ingénierie logicielle, la recherche approfondie et d'autres tâches sophistiquées. La longueur du contexte est de 256K.", "step-3.description": "Ce modèle possède une forte perception visuelle et un raisonnement complexe, gérant avec précision la compréhension interdomaines, l’analyse mathématique-visuelle croisée et une large gamme de tâches d’analyse visuelle quotidienne.", "step-r1-v-mini.description": "Modèle de raisonnement avec une forte compréhension d’image, capable de traiter des images et du texte, puis de générer du texte après un raisonnement approfondi. Il excelle en raisonnement visuel et offre des performances de haut niveau en mathématiques, codage et raisonnement textuel, avec une fenêtre de contexte de 100K.", "stepfun-ai/step3.description": "Step3 est un modèle de raisonnement multimodal de pointe de StepFun, basé sur une architecture MoE avec 321B paramètres totaux et 38B actifs. Son design de bout en bout réduit les coûts de décodage tout en offrant un raisonnement vision-langage de haut niveau. Grâce aux conceptions MFA et AFD, il reste efficace sur les accélérateurs haut de gamme comme sur les plus modestes. L’entraînement préliminaire utilise plus de 20T de tokens texte et 4T de tokens image-texte dans de nombreuses langues. Il atteint des performances de premier plan sur les benchmarks ouverts en mathématiques, code et multimodalité.", - "taichu_llm.description": "Entraîné sur d’énormes volumes de données de haute qualité, avec une meilleure compréhension du texte, création de contenu et réponses conversationnelles.", - "taichu_o1.description": "taichu_o1 est un modèle de raisonnement de nouvelle génération qui utilise l’interaction multimodale et l’apprentissage par renforcement pour reproduire une chaîne de pensée humaine. Il prend en charge la simulation de décisions complexes, expose les chemins de raisonnement tout en maintenant une grande précision, et convient parfaitement à l’analyse stratégique et à la réflexion approfondie.", - "taichu_vl.description": "Combine la compréhension d’images, le transfert de connaissances et l’attribution logique, excellant dans les questions-réponses image-texte.", + "taichu4_vl_2b_nothinking.description": "La version sans réflexion du modèle Taichu4.0-VL 2B présente une utilisation réduite de la mémoire, un design léger, une vitesse de réponse rapide et de solides capacités de compréhension multimodale.", + "taichu4_vl_32b.description": "La version avec réflexion du modèle Taichu4.0-VL 32B est adaptée aux tâches complexes de compréhension et de raisonnement multimodal, démontrant des performances exceptionnelles en raisonnement mathématique multimodal, en capacités d'agent multimodal et en compréhension générale des images et visuels.", + "taichu4_vl_32b_nothinking.description": "La version sans réflexion du modèle Taichu4.0-VL 32B est conçue pour des scénarios complexes de compréhension image-texte et de questions-réponses sur les connaissances visuelles, excellant en légendage d'images, en questions-réponses visuelles, en compréhension vidéo et en tâches de localisation visuelle.", + "taichu4_vl_3b.description": "La version avec réflexion du modèle Taichu4.0-VL 3B exécute efficacement des tâches de compréhension et de raisonnement multimodal, avec des améliorations complètes en compréhension visuelle, localisation visuelle, reconnaissance OCR et capacités connexes.", + "taichu_llm.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.", + "taichu_llm_14b.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.", + "taichu_llm_2b.description": "Le modèle de langage Zidong Taichu est un modèle de génération de texte haute performance développé à l'aide de technologies full-stack entièrement domestiques. Grâce à une compression structurée d'un modèle de base de cent milliards de paramètres et à une optimisation spécifique aux tâches, il améliore considérablement la compréhension de textes complexes et les capacités de raisonnement sur les connaissances. Il excelle dans des scénarios tels que l'analyse de documents longs, l'extraction d'informations interlinguistiques et la génération contrainte par les connaissances.", + "taichu_o1.description": "taichu_o1 est un modèle de raisonnement de nouvelle génération qui atteint une chaîne de pensée semblable à celle des humains grâce à une interaction multimodale et à l'apprentissage par renforcement. Il prend en charge des simulations de prise de décision complexes et, tout en maintenant une sortie de haute précision, révèle des voies de raisonnement interprétables. Il est bien adapté à l'analyse stratégique, à la réflexion approfondie et à des scénarios similaires.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utilise un total de 80 milliards de paramètres, dont 13 milliards actifs, pour rivaliser avec des modèles plus grands. Il prend en charge un raisonnement hybride rapide/lent, une compréhension stable de longs textes, et se distingue dans les capacités d’agent sur BFCL-v3 et τ-Bench. Les formats GQA et multi-quant permettent une inférence efficace.", "tencent/Hunyuan-MT-7B.description": "Le modèle de traduction Hunyuan comprend Hunyuan-MT-7B et l’ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B est un modèle de traduction léger de 7 milliards de paramètres prenant en charge 33 langues ainsi que 5 langues minoritaires chinoises. Il a obtenu 30 premières places sur 31 paires de langues lors du WMT25. Tencent Hunyuan utilise une chaîne d’entraînement complète, du pré-entraînement à l’ajustement fin (SFT), en passant par l’apprentissage par renforcement pour la traduction et les ensembles, atteignant des performances de pointe avec un déploiement efficace et simple.", "text-embedding-3-large.description": "Le modèle d’intégration le plus performant pour les tâches en anglais et en langues étrangères.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md est adapté aux tâches quotidiennes et à la génération d’interfaces utilisateur.", "vercel/v0-1.0-md.description": "Accédez aux modèles derrière v0 pour générer, corriger et optimiser des applications web modernes avec un raisonnement spécifique aux frameworks et des connaissances à jour.", "vercel/v0-1.5-md.description": "Accédez aux modèles derrière v0 pour générer, corriger et optimiser des applications web modernes avec un raisonnement spécifique aux frameworks et des connaissances à jour.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code est optimisé pour les besoins de programmation au niveau des entreprises. Basé sur les excellentes capacités d'Agent et de VLM de Seed 2.0, il renforce particulièrement les capacités de codage, non seulement en affichant des performances exceptionnelles en front-end, mais aussi en répondant aux besoins courants de codage multilingue des entreprises, ce qui le rend adapté à l'intégration dans divers outils de programmation IA.", + "volcengine/doubao-seed-2-0-lite.description": "Allie qualité de génération et vitesse de réponse, adapté comme modèle de production général.", + "volcengine/doubao-seed-2-0-mini.description": "Pointe vers la dernière version de doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Pointe vers la dernière version de doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code est le modèle LLM de ByteDance Volcano Engine optimisé pour la programmation agentique, performant sur les benchmarks de programmation et d’agent avec un support de contexte de 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, offrant une génération rapide et une grande valeur.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, produisant des détails plus riches.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, offrant une génération rapide et une grande valeur.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus est le dernier modèle avec des améliorations en créativité, stabilité et réalisme, produisant des détails plus riches.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview prend en charge l'édition d'une seule image et la fusion multi-images.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I prend en charge la sélection flexible des dimensions d'image dans les limites de la zone totale de pixels et des contraintes de rapport d'aspect.", + "wan2.6-image.description": "Wanxiang 2.6 Image prend en charge l'édition d'images et la sortie de mise en page mixte image-texte.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I prend en charge la sélection flexible des dimensions d'image dans les limites de la zone totale de pixels et des contraintes de rapport d'aspect (identique à Wanxiang 2.5).", "wanx-v1.description": "Modèle de base texte-vers-image. Correspond à Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Excelle dans les portraits texturés avec une vitesse modérée et un coût réduit. Correspond à Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Version entièrement mise à jour avec des détails d’image plus riches et une vitesse légèrement réduite. Correspond à Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast est le modèle à haut débit et faible coût de xAI (fenêtre de contexte de 2M), idéal pour les cas d’usage à forte concurrence et à long contexte.", "x-ai/grok-4.description": "Grok 4 est le modèle phare de xAI avec de solides capacités de raisonnement et multimodales.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 est le modèle rapide de xAI pour le code, avec une sortie lisible et adaptée aux ingénieurs.", + "x1.description": "Mises à jour X1.5 : (1) ajoute un mode de réflexion dynamique contrôlé par le champ `thinking` ; (2) longueur de contexte plus grande avec 64K en entrée et 64K en sortie ; (3) prend en charge FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision excelle dans les tâches visuelles, offrant des performances SOTA en raisonnement mathématique visuel (MathVista) et en questions-réponses sur documents (DocVQA). Il gère documents, graphiques, tableaux, captures d’écran et photos.", "xai/grok-2.description": "Grok 2 est un modèle de pointe avec des performances de raisonnement, de discussion et de codage de haut niveau, surpassant Claude 3.5 Sonnet et GPT-4 Turbo sur LMSYS.", "xai/grok-3-fast.description": "Le modèle phare de xAI excelle dans les cas d’usage en entreprise comme l’extraction de données, le codage et la synthèse, avec une expertise approfondie en finance, santé, droit et science. La variante rapide fonctionne sur une infrastructure plus rapide pour des réponses plus rapides à un coût par token plus élevé.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 est le modèle phare de Z.AI avec un raisonnement hybride optimisé pour les tâches d’ingénierie et à long contexte.", "z-ai/glm-4.6.description": "GLM 4.6 est le modèle phare de Z.AI avec une longueur de contexte étendue et des capacités de codage renforcées.", "z-ai/glm-4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, offrant des capacités générales améliorées, des réponses plus naturelles et une expérience d’écriture plus immersive.", - "z-ai/glm5.description": "Un modèle puissant de raisonnement et agentique de Z.ai avec un total de 744B paramètres (40B activés), conçu pour l'ingénierie de systèmes complexes et les tâches à long terme.", + "z-ai/glm4.7.description": "GLM-4.7 est le dernier modèle phare de Zhipu, amélioré pour les scénarios de codage agentique avec des capacités de codage renforcées.", + "z-ai/glm5.description": "GLM-5 est le nouveau modèle phare de Zhipu AI pour l'ingénierie des agents, atteignant des performances SOTA open-source en codage et capacités d'agent. Il égale Claude Opus 4.5 en performance.", + "z-image-turbo.description": "Z-Image est un modèle léger de génération de texte en image qui peut produire rapidement des images, prend en charge le rendu de texte en chinois et en anglais, et s'adapte de manière flexible à plusieurs résolutions et rapports d'aspect.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air est un modèle de base pour les applications d’agents utilisant une architecture Mixture-of-Experts. Il est optimisé pour l’utilisation d’outils, la navigation web, l’ingénierie logicielle et le codage frontend, et s’intègre avec des agents de code comme Claude Code et Roo Code. Il utilise un raisonnement hybride pour gérer à la fois les scénarios complexes et quotidiens.", "zai-org/GLM-4.5.description": "GLM-4.5 est un modèle de base conçu pour les applications d’agents utilisant une architecture Mixture-of-Experts. Il est profondément optimisé pour l’utilisation d’outils, la navigation web, l’ingénierie logicielle et le codage frontend, et s’intègre avec des agents de code comme Claude Code et Roo Code. Il utilise un raisonnement hybride pour gérer à la fois les scénarios complexes et quotidiens.", "zai-org/GLM-4.5V.description": "GLM-4.5V est le dernier VLM de Zhipu AI, basé sur le modèle texte phare GLM-4.5-Air (106B total, 12B actifs) avec une architecture MoE pour de hautes performances à moindre coût. Il suit la voie GLM-4.1V-Thinking et ajoute 3D-RoPE pour améliorer le raisonnement spatial 3D. Optimisé par pré-entraînement, SFT et RL, il gère images, vidéos et documents longs, et se classe parmi les meilleurs modèles open source sur 41 benchmarks multimodaux publics. Un mode Thinking permet d’équilibrer vitesse et profondeur.", diff --git a/locales/fr-FR/plugin.json b/locales/fr-FR/plugin.json index 63f98a2fd7..ed5b10aa15 100644 --- a/locales/fr-FR/plugin.json +++ b/locales/fr-FR/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Mettre à jour le nœud", "builtins.lobe-page-agent.apiName.wrapNodes": "Associer les nœuds", "builtins.lobe-page-agent.title": "Page", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importer depuis le Marché", + "builtins.lobe-skill-store.apiName.importSkill": "Importer une Compétence", + "builtins.lobe-skill-store.apiName.searchSkill": "Rechercher des Compétences", + "builtins.lobe-skill-store.title": "Boutique de Compétences", + "builtins.lobe-skills.apiName.execScript": "Exécuter le Script", + "builtins.lobe-skills.apiName.exportFile": "Exporter le Fichier", + "builtins.lobe-skills.apiName.importFromMarket": "Importer depuis le Marché", + "builtins.lobe-skills.apiName.importSkill": "Importer une Compétence", + "builtins.lobe-skills.apiName.readReference": "Lire la Référence", + "builtins.lobe-skills.apiName.runSkill": "Activer la Compétence", + "builtins.lobe-skills.apiName.searchSkill": "Rechercher des Compétences", + "builtins.lobe-skills.title": "Compétences", + "builtins.lobe-tools.apiName.activateTools": "Activer les Outils", "builtins.lobe-user-memory.apiName.addContextMemory": "Ajouter une mémoire de contexte", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Ajouter une mémoire d'expérience", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Ajouter une mémoire d'identité", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Recherche Web", "confirm": "Confirmer", "debug.arguments": "Arguments", + "debug.error": "Journal des Erreurs", "debug.function_call": "Appel de fonction", "debug.intervention": "Intervention de compétence", "debug.off": "Débogage désactivé", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Paramètres enregistrés", "dev.tabs.manifest": "Manifeste", "dev.tabs.meta": "Infos méta", - "dev.title.create": "Ajouter une compétence personnalisée", - "dev.title.edit": "Modifier une compétence personnalisée", + "dev.title.create": "Ajouter une Compétence MCP Personnalisée", + "dev.title.edit": "Modifier une Compétence MCP Personnalisée", "dev.title.editCommunity": "Modifier la compétence communautaire", "dev.title.skillDetails": "Détails de la compétence", "dev.title.skillSettings": "Paramètres de la compétence", diff --git a/locales/fr-FR/providers.json b/locales/fr-FR/providers.json index 85dda0ae60..3d3b9999b9 100644 --- a/locales/fr-FR/providers.json +++ b/locales/fr-FR/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud est un service cloud GenAI économique basé sur des modèles open source robustes.", "spark.description": "iFLYTEK Spark propose une IA multilingue puissante dans divers domaines, favorisant l’innovation dans le matériel intelligent, la santé, la finance et d’autres secteurs.", "stepfun.description": "Les modèles Stepfun offrent des capacités de raisonnement complexe et multimodal de pointe, avec une compréhension approfondie du contexte long et une orchestration autonome puissante de la recherche.", + "straico.description": "Straico simplifie l'intégration de l'IA en offrant un espace de travail unifié qui regroupe les meilleurs modèles génératifs d'IA pour le texte, l'image et l'audio, permettant aux marketeurs, entrepreneurs et passionnés d'accéder facilement à une variété d'outils d'IA.", "taichu.description": "Un modèle multimodal de nouvelle génération développé par le CASIA et l’Institut d’IA de Wuhan, prenant en charge les questions-réponses multi-tours, la rédaction, la génération d’images, la compréhension 3D et l’analyse de signaux avec une cognition et une créativité renforcées.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power fournit des réponses aux questions d’entreprise de bout en bout, avec des services modulaires comme l’analyse de documents, le découpage, les embeddings et la réécriture multi-tours pour créer des solutions IA personnalisées.", "togetherai.description": "Together AI offre des performances de pointe avec des modèles innovants, une personnalisation étendue, une montée en charge rapide et un déploiement simplifié pour les besoins des entreprises.", diff --git a/locales/fr-FR/setting.json b/locales/fr-FR/setting.json index 2202b249f3..8f14771f45 100644 --- a/locales/fr-FR/setting.json +++ b/locales/fr-FR/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Profil de l'agent", "agentInfoDescription.value.unset": "Non défini", "agentInfoDescription.value.untitled": "Agent sans titre", + "agentSkillDetail.addedAt": "Ajouté", + "agentSkillDetail.publishedAt": "Publié", + "agentSkillDetail.repository": "Dépôt GitHub", + "agentSkillDetail.skillContent": "Contenu de la compétence", + "agentSkillDetail.sourceUrl": "Source d'importation de la compétence", + "agentSkillDetail.updatedAt": "Mis à jour", + "agentSkillEdit.descriptionDesc": "Un bref résumé de ce que fait la compétence, aidant l'agent à comprendre quand l'utiliser", + "agentSkillEdit.fileReadonly": "Ce fichier est en lecture seule. Seuls la description et les instructions de la compétence peuvent être modifiées.", + "agentSkillEdit.instructions": "Instructions", + "agentSkillEdit.instructionsDesc": "Les instructions principales en Markdown qui définissent le comportement et le flux de travail de la compétence", + "agentSkillEdit.instructionsPlaceholder": "Saisissez les instructions de la compétence au format Markdown...", + "agentSkillEdit.nameDesc": "L'identifiant unique de cette compétence, non modifiable après la création", + "agentSkillEdit.saveSuccess": "Compétence mise à jour avec succès", + "agentSkillEdit.title": "Paramètres de la compétence", + "agentSkillItem.deleteConfirm.desc": "Êtes-vous sûr de vouloir supprimer la compétence d'agent \"{{name}}\" ? Cette action est irréversible.", + "agentSkillItem.deleteConfirm.title": "Supprimer la compétence d'agent", + "agentSkillModal.content": "Contenu de la compétence", + "agentSkillModal.contentPlaceholder": "Saisissez le contenu de la compétence au format Markdown...", + "agentSkillModal.description": "Description", + "agentSkillModal.descriptionPlaceholder": "Décrivez brièvement cette compétence", + "agentSkillModal.github.desc": "Importez des compétences directement depuis un dépôt GitHub public.", + "agentSkillModal.github.title": "Importer depuis GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/nomutilisateur/repo", + "agentSkillModal.importError": "Échec de l'importation : {{error}}", + "agentSkillModal.importSuccess": "Compétence d'agent importée avec succès", + "agentSkillModal.upload.desc": "Téléchargez un fichier local .zip ou .skill pour l'installer.", + "agentSkillModal.upload.dragText": "Glissez-déposez ou cliquez pour télécharger", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md contient le nom et la description de la compétence au format YAML", + "agentSkillModal.upload.requirementZip": "Fichier .zip ou .skill avec SKILL.md dans le répertoire racine", + "agentSkillModal.upload.requirements": "Exigences du fichier", + "agentSkillModal.upload.title": "Télécharger une compétence", + "agentSkillModal.upload.uploading": "Téléchargement en cours...", + "agentSkillModal.url.desc": "Importez une compétence en fournissant un lien direct vers un fichier SKILL.md.", + "agentSkillModal.url.title": "Importer depuis une URL", + "agentSkillModal.url.urlPlaceholder": "https://exemple.com/chemin/vers/SKILL.md", + "agentSkillTag": "Compétence d'agent", "agentTab.chat": "Préférences de discussion", "agentTab.meta": "Informations de l'agent", "agentTab.modal": "Paramètres du modèle", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Modèle utilisé pour la traduction", "systemAgent.translation.title": "Agent de traduction de messages", "tab.about": "À propos", + "tab.addAgentSkill": "Ajouter une compétence d'agent", + "tab.addCustomMcp": "Ajouter une compétence MCP personnalisée", + "tab.addCustomMcp.desc": "Configurer manuellement un serveur MCP personnalisé", "tab.addCustomSkill": "Ajouter une compétence personnalisée", "tab.agent": "Service d’agent", "tab.all": "Tous", @@ -652,7 +691,13 @@ "tab.experiment": "Expérimental", "tab.hotkey": "Raccourcis clavier", "tab.image": "Service de génération d’images", + "tab.importFromGithub": "Importer depuis GitHub", + "tab.importFromGithub.desc": "Importer depuis un dépôt GitHub public", + "tab.importFromUrl": "Importer depuis une URL", + "tab.importFromUrl.desc": "Importer via un lien direct vers SKILL.md", "tab.llm": "Modèle de langage", + "tab.manualFill": "Remplir manuellement", + "tab.manualFill.desc": "Configurer manuellement une compétence MCP personnalisée", "tab.memory": "Mémoire", "tab.profile": "Mon compte", "tab.provider": "Fournisseur d’IA", @@ -669,6 +714,8 @@ "tab.sync": "Synchronisation cloud", "tab.systemTools": "Outils système", "tab.tts": "Synthèse vocale", + "tab.uploadZip": "Télécharger un fichier Zip", + "tab.uploadZip.desc": "Téléchargez un fichier local .zip ou .skill", "tab.usage": "Statistiques d’utilisation", "tools.add": "Ajouter une compétence", "tools.builtins.groupName": "Fonctionnalités intégrées", diff --git a/locales/it-IT/common.json b/locales/it-IT/common.json index 184478282f..b56384187f 100644 --- a/locales/it-IT/common.json +++ b/locales/it-IT/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Metti una stella su GitHub", "footer.title": "Ti piace il nostro prodotto?", "fullscreen": "Modalità schermo intero", - "geminiImageChineseWarning.content": "Nano Banana potrebbe non generare immagini correttamente con l'uso del cinese. Si consiglia di utilizzare l'inglese per risultati migliori.", - "geminiImageChineseWarning.continueGenerate": "Continua a generare", - "geminiImageChineseWarning.continueSend": "Continua a inviare", - "geminiImageChineseWarning.doNotShowAgain": "Non mostrare più", - "geminiImageChineseWarning.title": "Avviso sull'input in cinese", "historyRange": "Intervallo cronologia", "home.suggestQuestions": "Prova questi esempi", "import": "Importa", @@ -397,6 +392,7 @@ "tab.chat": "Chat", "tab.community": "Comunità", "tab.discover": "Scopri", + "tab.eval": "Laboratorio di Valutazione", "tab.files": "File", "tab.home": "Home", "tab.knowledgeBase": "Libreria", diff --git a/locales/it-IT/eval.json b/locales/it-IT/eval.json new file mode 100644 index 0000000000..20f2e56063 --- /dev/null +++ b/locales/it-IT/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Elimina Benchmark", + "benchmark.actions.delete.confirm": "Sei sicuro di voler eliminare questo benchmark? Anche i dataset correlati e i record di valutazione saranno eliminati.", + "benchmark.actions.edit": "Modifica Benchmark", + "benchmark.actions.export": "Esporta", + "benchmark.card.bestScore": "Migliore", + "benchmark.card.caseCount": "{{count}} casi", + "benchmark.card.datasetCount": "{{count}} dataset", + "benchmark.card.empty": "Nessuna valutazione ancora", + "benchmark.card.emptyHint": "Crea una nuova valutazione dalla pagina dei dettagli del benchmark", + "benchmark.card.importDataset": "Importa Dataset", + "benchmark.card.noDataset": "Nessun dataset ancora", + "benchmark.card.noDatasetHint": "Importa un dataset per iniziare la valutazione", + "benchmark.card.noRecentRuns": "Nessuna valutazione recente da mostrare", + "benchmark.card.recentRuns": "Valutazioni Recenti", + "benchmark.card.runCount": "{{count}} valutazioni", + "benchmark.card.startFirst": "Inizia la Prima Valutazione", + "benchmark.card.viewAll": "Visualizza tutti {{count}}", + "benchmark.create.confirm": "Crea", + "benchmark.create.description.label": "Descrizione", + "benchmark.create.description.placeholder": "Descrizione del benchmark (opzionale)", + "benchmark.create.error": "Creazione del benchmark fallita", + "benchmark.create.identifier.label": "Identificatore", + "benchmark.create.identifier.placeholder": "identificatore-benchmark", + "benchmark.create.identifierRequired": "Inserisci un identificatore", + "benchmark.create.name.label": "Nome", + "benchmark.create.name.placeholder": "Inserisci il nome del benchmark", + "benchmark.create.nameRequired": "Inserisci un nome per il benchmark", + "benchmark.create.success": "Benchmark creato con successo", + "benchmark.create.tags.label": "Tag", + "benchmark.create.tags.placeholder": "Aggiungi tag, separati da virgola o spazio", + "benchmark.create.title": "Crea Benchmark", + "benchmark.detail.backToOverview": "Torna alla Panoramica", + "benchmark.detail.datasetCount": "{{count}} dataset{{count, plural, one {} other {s}}} in questo benchmark", + "benchmark.detail.runCount": "{{count}} esecuzione di valutazione{{count, plural, one {} other {i}}} su questo benchmark", + "benchmark.detail.stats.addFirstDataset": "Clicca per aggiungere il primo dataset", + "benchmark.detail.stats.avgCost": "Costo Medio", + "benchmark.detail.stats.avgDuration": "Durata Media", + "benchmark.detail.stats.basedOnLastNRuns": "Basato sulle ultime {{count}} esecuzioni", + "benchmark.detail.stats.bestPerformance": "Migliore prestazione di {{agent}} con {{passRate}}% di successo", + "benchmark.detail.stats.bestScore": "Miglior Punteggio", + "benchmark.detail.stats.cases": "Casi", + "benchmark.detail.stats.dataScale": "Scala Dati", + "benchmark.detail.stats.datasets": "Dataset", + "benchmark.detail.stats.needSetup": "Configurazione Necessaria", + "benchmark.detail.stats.noEvalRecord": "Nessun record di valutazione ancora", + "benchmark.detail.stats.perRun": "/ Esecuzione", + "benchmark.detail.stats.runs": "Esecuzioni", + "benchmark.detail.stats.tags": "Tag", + "benchmark.detail.stats.topAgents": "Migliori Agenti", + "benchmark.detail.stats.totalCases": "Totale Casi", + "benchmark.detail.stats.waiting": "In attesa...", + "benchmark.detail.tabs.data": "Dati", + "benchmark.detail.tabs.datasets": "Dataset", + "benchmark.detail.tabs.runs": "Esecuzioni", + "benchmark.edit.confirm": "Salva", + "benchmark.edit.error": "Aggiornamento del benchmark fallito", + "benchmark.edit.success": "Benchmark aggiornato con successo", + "benchmark.edit.title": "Modifica Benchmark", + "benchmark.empty": "Nessun benchmark ancora. Creane uno per iniziare.", + "caseDetail.actual": "Output Effettivo", + "caseDetail.chatArea.title": "Conversazione", + "caseDetail.completionReason": "Stato", + "caseDetail.cost": "Costo", + "caseDetail.difficulty": "Difficoltà", + "caseDetail.duration": "Durata", + "caseDetail.expected": "Output Atteso", + "caseDetail.failureReason": "Motivo del Fallimento", + "caseDetail.input": "Input", + "caseDetail.judgeComment": "Commento del Giudice", + "caseDetail.resources": "Risorse", + "caseDetail.score": "Punteggio", + "caseDetail.section.runtime": "Runtime", + "caseDetail.section.scoring": "Dettagli Punteggio", + "caseDetail.section.testCase": "Caso di Test", + "caseDetail.steps": "Passaggi", + "caseDetail.threads.attempt": "Traiettoria #{{number}}", + "caseDetail.tokens": "Utilizzo Token", + "common.cancel": "Annulla", + "common.create": "Crea", + "common.delete": "Elimina", + "common.edit": "Modifica", + "common.later": "Più Tardi", + "common.next": "Avanti", + "common.update": "Aggiorna", + "dataset.actions.addDataset": "Aggiungi Dataset", + "dataset.actions.import": "Importa Dati", + "dataset.actions.importDataset": "Importa Dataset", + "dataset.create.description.label": "Descrizione", + "dataset.create.description.placeholder": "Descrizione del dataset (opzionale)", + "dataset.create.error": "Creazione del dataset fallita", + "dataset.create.identifier.label": "Identificatore", + "dataset.create.identifier.placeholder": "identificatore-dataset", + "dataset.create.identifierRequired": "Inserisci un identificatore", + "dataset.create.importNow": "Vuoi importare i dati ora?", + "dataset.create.name.label": "Nome Dataset", + "dataset.create.name.placeholder": "Inserisci il nome del dataset", + "dataset.create.nameRequired": "Inserisci un nome per il dataset", + "dataset.create.preset.label": "Preset Dataset", + "dataset.create.success": "Dataset creato con successo", + "dataset.create.successTitle": "Dataset Creato", + "dataset.create.title": "Crea Dataset", + "dataset.delete.confirm": "Sei sicuro di voler eliminare questo dataset? Tutti i casi di test in esso contenuti saranno eliminati.", + "dataset.delete.error": "Eliminazione del dataset fallita", + "dataset.delete.success": "Dataset eliminato con successo", + "dataset.detail.addRun": "Nuova Esecuzione", + "dataset.detail.backToBenchmark": "Torna al Benchmark", + "dataset.detail.caseCount": "{{count}} caso di test{{count, plural, one {} other {i}}}", + "dataset.detail.relatedRuns": "Esecuzioni Correlate ({{count}})", + "dataset.detail.testCases": "Casi di Test", + "dataset.detail.viewDetail": "Visualizza Dettagli", + "dataset.edit.error": "Aggiornamento del dataset fallito", + "dataset.edit.success": "Dataset aggiornato con successo", + "dataset.edit.title": "Modifica Dataset", + "dataset.empty": "Nessun dataset", + "dataset.empty.description": "Importa un dataset per iniziare a costruire questo benchmark", + "dataset.empty.title": "Nessun dataset ancora", + "dataset.evalMode.hint": "Modalità di valutazione predefinita per il dataset, può essere sovrascritta a livello di caso di test", + "dataset.import.category": "Categoria", + "dataset.import.categoryDesc": "Etichetta di classificazione per il raggruppamento", + "dataset.import.choices": "Scelte", + "dataset.import.choicesDesc": "Opzioni a scelta multipla", + "dataset.import.confirm": "Importa", + "dataset.import.error": "Importazione del dataset fallita", + "dataset.import.expected": "Risposta Attesa", + "dataset.import.expectedDelimiter": "Delimitatore Risposta", + "dataset.import.expectedDelimiter.desc": "Delimitatore risposta", + "dataset.import.expectedDelimiter.placeholder": "es. | o ,", + "dataset.import.expectedDesc": "Risposta corretta da confrontare", + "dataset.import.fieldMapping": "Mappatura Campi", + "dataset.import.fieldMapping.desc": "La colonna \"Input\" è obbligatoria", + "dataset.import.hideSkipped": "Nascondi colonne saltate", + "dataset.import.ignore": "Salta", + "dataset.import.ignoreDesc": "Non importare questa colonna", + "dataset.import.input": "Input", + "dataset.import.inputDesc": "Domanda o prompt inviato al modello", + "dataset.import.metadata": "Metadati", + "dataset.import.metadataDesc": "Informazioni extra, memorizzate così come sono", + "dataset.import.next": "Avanti", + "dataset.import.parseError": "Analisi del file fallita", + "dataset.import.parsing": "Analisi del file in corso...", + "dataset.import.prev": "Indietro", + "dataset.import.preview": "Anteprima Dati", + "dataset.import.preview.desc": "Conferma che la mappatura sia corretta, quindi importa.", + "dataset.import.preview.rows": "{{count}} righe totali", + "dataset.import.sortOrder": "Numero Elemento", + "dataset.import.sortOrderDesc": "ID domanda/elemento per riferimento", + "dataset.import.step.mapping": "Mappa Campi", + "dataset.import.step.preview": "Anteprima", + "dataset.import.step.upload": "Carica File", + "dataset.import.success": "{{count}} casi di test importati con successo", + "dataset.import.title": "Importa Dataset", + "dataset.import.upload.hint": "Supporta CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Clicca o trascina il file qui per caricarlo", + "dataset.import.uploading": "Caricamento in corso...", + "dataset.switchDataset": "Cambia Dataset", + "difficulty.easy": "Facile", + "difficulty.hard": "Difficile", + "difficulty.medium": "Medio", + "evalMode.contains": "Corrispondenza Contenuta", + "evalMode.contains.desc": "L'output deve contenere il testo atteso", + "evalMode.equals": "Corrispondenza Esatta", + "evalMode.equals.desc": "L'output deve essere esattamente uguale a quello atteso", + "evalMode.label": "Modalità di Valutazione", + "evalMode.llm-rubric": "Giudice LLM", + "evalMode.llm-rubric.desc": "Usa LLM per valutare la qualità dell'output", + "evalMode.placeholder": "Seleziona modalità di valutazione", + "evalMode.prompt.label": "Prompt Giudice", + "evalMode.prompt.placeholder": "Inserisci i criteri di valutazione o il prompt per il giudice LLM", + "evalMode.rubric": "Valutazione con Rubrica", + "evalMode.rubric.desc": "Valuta l'output utilizzando rubriche di benchmark con criteri ponderati", + "overview.createBenchmark": "Crea Benchmark", + "overview.importDataset": "Importa Dataset", + "overview.subtitle": "Valuta e confronta i tuoi agenti AI su diversi dataset", + "overview.title": "Laboratorio di Valutazione", + "run.actions.abort": "Interrompi", + "run.actions.abort.confirm": "Sei sicuro di voler interrompere questa valutazione?", + "run.actions.create": "Nuova Valutazione", + "run.actions.delete": "Elimina", + "run.actions.delete.confirm": "Sei sicuro di voler eliminare questa valutazione?", + "run.actions.edit": "Modifica", + "run.actions.retryCase": "Riprova", + "run.actions.retryErrors": "Riprova Errori", + "run.actions.retryErrors.confirm": "Questo rieseguirà tutti i casi di errore e timeout. I casi superati e falliti non saranno influenzati.", + "run.actions.run": "Esegui", + "run.actions.start": "Inizia", + "run.actions.start.confirm": "Sei sicuro di voler iniziare questa valutazione?", + "run.chart.duration": "Durata (s)", + "run.chart.error": "Errore", + "run.chart.fail": "Fallimento", + "run.chart.latencyDistribution": "Distribuzione della Latenza", + "run.chart.latencyTokenDistribution": "Latenza / Distribuzione Token", + "run.chart.pass": "Successo", + "run.chart.passFailError": "Successo / Fallimento / Errore", + "run.chart.tokens": "Token", + "run.config.agentId": "Agente", + "run.config.concurrency": "Concorrenza", + "run.config.judgeModel": "Modello Giudice", + "run.config.k": "Esecuzioni (K)", + "run.config.k.hint": "Esegui ogni caso di test {{k}} volte per metriche pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Passaggi Massimi", + "run.config.maxSteps.hint": "Ogni chiamata LLM o strumento da parte dell'agente conta come 1 passaggio", + "run.config.model": "Modello", + "run.config.temperature": "Temperatura", + "run.config.timeout": "Timeout", + "run.config.timeout.unit": "min", + "run.create.advanced": "Impostazioni Avanzate", + "run.create.agent": "Agente", + "run.create.agent.placeholder": "Seleziona un agente", + "run.create.agent.required": "Seleziona un agente", + "run.create.caseCount": "{{count}} casi", + "run.create.confirm": "Crea e Inizia", + "run.create.createOnly": "Crea", + "run.create.dataset": "Dataset", + "run.create.dataset.placeholder": "Seleziona un dataset", + "run.create.dataset.required": "Seleziona un dataset", + "run.create.name": "Nome Valutazione", + "run.create.name.placeholder": "Inserisci un nome per questa valutazione", + "run.create.name.required": "Inserisci un nome per la valutazione", + "run.create.name.useTimestamp": "Usa l'ora corrente come nome", + "run.create.openAgent": "Apri agente in una nuova finestra", + "run.create.title": "Nuova Valutazione", + "run.create.titleWithDataset": "Nuova Valutazione su \"{{dataset}}\"", + "run.detail.agent": "Agente", + "run.detail.agent.none": "Non specificato", + "run.detail.agent.unnamed": "Agente Senza Nome", + "run.detail.backToBenchmark": "Torna al Benchmark", + "run.detail.caseResults": "Dettagli Valutazione", + "run.detail.config": "Configurazione Valutazione", + "run.detail.configSnapshot": "Snapshot Configurazione", + "run.detail.dataset": "Dataset", + "run.detail.model": "Modello", + "run.detail.overview": "Panoramica", + "run.detail.progress": "Progresso", + "run.detail.progressCases": "casi", + "run.detail.report": "Riepilogo Valutazione", + "run.edit.error": "Aggiornamento della valutazione fallito", + "run.edit.success": "Valutazione aggiornata con successo", + "run.edit.title": "Modifica Valutazione", + "run.empty.description": "Inizia la tua prima esecuzione di valutazione su questo dataset", + "run.empty.descriptionBenchmark": "Inizia la tua prima esecuzione di valutazione su questo benchmark", + "run.empty.title": "Nessuna esecuzione ancora", + "run.filter.active": "Attivo", + "run.filter.empty": "Nessuna esecuzione corrisponde al filtro attuale.", + "run.idle.hint": "Clicca su Inizia per avviare la valutazione", + "run.metrics.avgScore": "Punteggio Medio", + "run.metrics.cost": "Costo", + "run.metrics.duration": "Durata", + "run.metrics.errorCases": "Errore", + "run.metrics.evaluated": "{{count}} valutati", + "run.metrics.passRate": "Tasso di Successo", + "run.metrics.perCase": "/ caso", + "run.metrics.tokens": "Token", + "run.metrics.totalDuration": "Cumulativo", + "run.pending.hint": "La valutazione è in coda, in attesa di iniziare...", + "run.running.hint": "La valutazione è in corso, i risultati appariranno a breve...", + "run.status.aborted": "Interrotto", + "run.status.completed": "Completato", + "run.status.error": "Errore Esecuzione", + "run.status.failed": "Fallito", + "run.status.idle": "Inattivo", + "run.status.pending": "In attesa", + "run.status.running": "In esecuzione", + "run.status.timeout": "Timeout", + "sidebar.benchmarks": "Benchmark", + "sidebar.dashboard": "Dashboard", + "sidebar.datasets": "Dataset", + "sidebar.runs": "Esecuzioni", + "table.columns.avgCost": "Costo Medio", + "table.columns.category": "Categoria", + "table.columns.cost": "Costo", + "table.columns.difficulty": "Difficoltà", + "table.columns.duration": "Durata", + "table.columns.evalMode": "Modalità di Valutazione", + "table.columns.expected": "Risposta Attesa", + "table.columns.input": "Input", + "table.columns.score": "Punteggio", + "table.columns.status": "Stato", + "table.columns.steps": "Passaggi", + "table.columns.tags": "Tag", + "table.columns.tokens": "Token", + "table.columns.totalCost": "Costo Totale", + "table.filter.all": "Tutti", + "table.filter.error": "Errore Esecuzione", + "table.filter.failed": "Fallito", + "table.filter.passed": "Superato", + "table.filter.running": "In esecuzione", + "table.search.placeholder": "Cerca casi...", + "table.total": "Totale {{count}}", + "testCase.actions.add": "Aggiungi Caso di Test", + "testCase.actions.import": "Importa Casi di Test", + "testCase.create.advanced": "Altre Opzioni", + "testCase.create.difficulty.label": "Difficoltà", + "testCase.create.error": "Aggiunta del caso di test fallita", + "testCase.create.expected.label": "Output Atteso", + "testCase.create.expected.placeholder": "Inserisci la risposta attesa", + "testCase.create.expected.required": "Inserisci l'output atteso", + "testCase.create.input.label": "Input", + "testCase.create.input.placeholder": "Inserisci l'input o la domanda del caso di test", + "testCase.create.success": "Caso di test aggiunto con successo", + "testCase.create.tags.label": "Tag", + "testCase.create.tags.placeholder": "Tag separati da virgola (opzionale)", + "testCase.create.title": "Aggiungi Caso di Test", + "testCase.delete.confirm": "Sei sicuro di voler eliminare questo caso di test?", + "testCase.delete.error": "Eliminazione del caso di test fallita", + "testCase.delete.success": "Caso di test eliminato", + "testCase.edit.error": "Aggiornamento del caso di test fallito", + "testCase.edit.success": "Caso di test aggiornato con successo", + "testCase.edit.title": "Modifica Caso di Test", + "testCase.empty.description": "Importa o aggiungi manualmente casi di test a questo dataset", + "testCase.empty.title": "Nessun caso di test ancora", + "testCase.preview.expected": "Atteso", + "testCase.preview.input": "Input", + "testCase.preview.title": "Anteprima Caso di Test", + "testCase.search.placeholder": "Cerca casi..." +} diff --git a/locales/it-IT/home.json b/locales/it-IT/home.json index c953511628..58f14c6f2d 100644 --- a/locales/it-IT/home.json +++ b/locales/it-IT/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Ricerca Approfondita", "starter.developing": "Prossimamente", "starter.image": "Immagine", + "starter.nanoBanana2": "🍌 Nano Banana 2", "starter.seedance": "Seedance 2.0", "starter.write": "Scrivi" } diff --git a/locales/it-IT/modelProvider.json b/locales/it-IT/modelProvider.json index 53cbc98cf7..4381a804b4 100644 --- a/locales/it-IT/modelProvider.json +++ b/locales/it-IT/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Per la serie Gemini; controlla il budget di pensiero.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Per i modelli Gemini 3 Flash Preview; controlla la profondità del pensiero.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Per i modelli Gemini 3 Pro Preview; controlla la profondità del pensiero.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Per i modelli Gemini 3.1 Pro Preview; controlla la profondità di pensiero con livelli basso/medio/alto.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Per la serie Gemini; supporta il contesto tramite URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Seleziona i parametri estesi da abilitare", "providerModels.item.modelConfig.extendParams.previewFallback": "Anteprima non disponibile", diff --git a/locales/it-IT/models.json b/locales/it-IT/models.json index 856938ad4f..cc2c677df7 100644 --- a/locales/it-IT/models.json +++ b/locales/it-IT/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo offre elevate capacità di calcolo e conversazione, con eccellente comprensione semantica ed efficienza generativa, ideale per aziende e sviluppatori.", "360gpt2-o1.description": "360gpt2-o1 costruisce catene di pensiero tramite ricerca ad albero con meccanismo di riflessione e addestramento con RL, abilitando auto-riflessione e auto-correzione.", "360gpt2-pro.description": "360GPT2 Pro è un modello NLP avanzato di 360 con eccellenti capacità di generazione e comprensione del testo, particolarmente adatto a compiti creativi, trasformazioni complesse e simulazioni di ruolo.", + "360zhinao2-o1.5.description": "360 Zhinao, il modello di ragionamento più potente, con le capacità più avanzate e supporto sia per l'uso di strumenti che per il ragionamento avanzato.", "360zhinao2-o1.description": "360zhinao2-o1 costruisce catene di pensiero tramite ricerca ad albero con meccanismo di riflessione e addestramento con RL, abilitando auto-riflessione e auto-correzione.", + "360zhinao3-o1.5.description": "360 Zhinao, modello di ragionamento di nuova generazione.", "4.0Ultra.description": "Spark Ultra è il modello più potente della serie Spark, migliora la comprensione e il riassunto del testo e potenzia la ricerca web. È una soluzione completa per aumentare la produttività sul lavoro e fornire risposte accurate, posizionandosi come prodotto intelligente leader.", "AnimeSharp.description": "AnimeSharp (noto anche come \"4x-AnimeSharp\") è un modello open-source di super-risoluzione basato su ESRGAN di Kim2091, focalizzato sull'ingrandimento e la nitidezza delle immagini in stile anime. È stato rinominato da \"4x-TextSharpV1\" nel febbraio 2022, originariamente pensato anche per immagini testuali ma fortemente ottimizzato per contenuti anime.", "Baichuan2-Turbo.description": "Utilizza l'augmentazione tramite ricerca per collegare il modello alla conoscenza di dominio e del web. Supporta caricamenti PDF/Word e input tramite URL per un recupero tempestivo e completo, con output professionali e accurati.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision è un modello multimodale all'avanguardia che offre prestazioni eccellenti nei principali benchmark di linguaggio, testo e visione. Questa versione da 8B è ottimizzata per bassa latenza e prestazioni elevate.", "charglm-3.description": "CharGLM-3 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.", "charglm-4.description": "CharGLM-4 è progettato per il gioco di ruolo e la compagnia emotiva, supportando una memoria multi-turno ultra-lunga e dialoghi personalizzati.", - "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale, che combina comprensione e generazione avanzate per casi d'uso su larga scala come assistenza clienti, istruzione e supporto tecnico.", + "chatgpt-4o-latest.description": "ChatGPT-4o è un modello dinamico aggiornato in tempo reale. Combina una forte comprensione e generazione del linguaggio per casi d'uso su larga scala come assistenza clienti, educazione e supporto tecnico.", "claude-2.0.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.", "claude-2.1.description": "Claude 2 introduce miglioramenti chiave per le imprese, tra cui un contesto leader da 200.000 token, riduzione delle allucinazioni, prompt di sistema e una nuova funzione di test: chiamata agli strumenti.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku è il modello di nuova generazione più veloce di Anthropic, con miglioramenti in diverse competenze e prestazioni superiori rispetto al precedente modello di punta Claude 3 Opus in numerosi benchmark.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) è un modello innovativo che offre una profonda comprensione linguistica e interazione.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 è un modello di nuova generazione per il ragionamento, con capacità avanzate di ragionamento complesso e chain-of-thought per compiti di analisi approfondita.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catena di pensiero.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 è un modello visione-linguaggio MoE basato su DeepSeekMoE-27B con attivazione sparsa, che raggiunge prestazioni elevate con solo 4,5B di parametri attivi. Eccelle in QA visivo, OCR, comprensione di documenti/tabelle/grafici e grounding visivo.", "deepseek-chat.description": "DeepSeek V3.2 bilancia ragionamento e lunghezza delle risposte per attività quotidiane di QA e agenti. I benchmark pubblici raggiungono livelli paragonabili a GPT-5 ed è il primo a integrare il pensiero nell'uso degli strumenti, guidando le valutazioni open-source degli agenti.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B è un modello linguistico per il codice addestrato su 2 trilioni di token (87% codice, 13% testo in cinese/inglese). Introduce una finestra di contesto da 16K e compiti di completamento intermedio, offrendo completamento di codice a livello di progetto e riempimento di snippet.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 è un nuovo modello di ragionamento ibrido di DeepSeek, che supporta modalità di pensiero e non-pensiero, offrendo un'efficienza di pensiero superiore rispetto a DeepSeek-R1-0528. Le ottimizzazioni post-addestramento migliorano notevolmente l'uso degli strumenti da parte degli agenti e le prestazioni nei compiti. Supporta una finestra di contesto di 128k e fino a 64k token in output.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 è un modello di ragionamento di nuova generazione con capacità avanzate di ragionamento complesso e catene di pensiero, ideale per compiti che richiedono analisi approfondite.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduce l'attenzione sparsa per migliorare l'efficienza di addestramento e inferenza su testi lunghi, a un costo inferiore rispetto a deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Per compiti altamente complessi, il modello Speciale supera significativamente la versione standard, ma consuma un numero considerevolmente maggiore di token e comporta costi più elevati. Attualmente, DeepSeek-V3.2-Speciale è destinato esclusivamente alla ricerca, non supporta l'uso di strumenti e non è stato specificamente ottimizzato per conversazioni quotidiane o compiti di scrittura.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think è un modello completo di pensiero profondo con capacità potenziate di ragionamento a catena lunga.", "deepseek-v3.2.description": "DeepSeek-V3.2 è il primo modello ibrido di ragionamento di DeepSeek che integra il pensiero nell'uso degli strumenti. Utilizza un'architettura efficiente per ridurre il calcolo, l'apprendimento per rinforzo su larga scala per potenziare le capacità e dati sintetici su larga scala per rafforzare la generalizzazione. La combinazione di questi tre elementi consente prestazioni paragonabili a GPT-5-High, con una lunghezza di output significativamente ridotta, diminuendo notevolmente il carico computazionale e i tempi di attesa per l'utente.", "deepseek-v3.description": "DeepSeek-V3 è un potente modello MoE con 671 miliardi di parametri totali e 37 miliardi attivi per token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni. Supporta una finestra contestuale di 128k e fino a 16k token in output.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro è un modello multimodale aggiornato che supporta immagini a qualsiasi risoluzione e con rapporti d'aspetto estremi, migliorando il ragionamento visivo, il riconoscimento di documenti, la comprensione dei dettagli e il rispetto delle istruzioni.", - "doubao-lite-128k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 128k.", "doubao-lite-32k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.", - "doubao-lite-4k.description": "Risposta ultra-rapida con un miglior rapporto qualità-prezzo, offrendo scelte più flessibili in diversi scenari. Supporta ragionamento e fine-tuning con una finestra contestuale di 4k.", - "doubao-pro-256k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 256k.", "doubao-pro-32k.description": "Il modello di punta con le migliori prestazioni per compiti complessi, con risultati eccellenti in QA con riferimento, riassunti, creazione, classificazione del testo e simulazione di ruoli. Supporta ragionamento e fine-tuning con una finestra contestuale di 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash è un modello multimodale di ragionamento profondo ultra-rapido con TPOT fino a 10ms. Supporta testo e visione, supera il precedente modello lite nella comprensione del testo e si equipara ai modelli pro concorrenti nella visione. Supporta una finestra contestuale di 256k e fino a 16k token in output.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite è un nuovo modello multimodale di ragionamento profondo con sforzo di ragionamento regolabile (Minimo, Basso, Medio, Alto), che offre un miglior rapporto qualità-prezzo ed è una scelta solida per compiti comuni, con una finestra contestuale fino a 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Il modello di immagini Doubao di ByteDance Seed supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Supporta l'editing di immagini guidato da testo, con dimensioni di output tra 512 e 1536 sul lato lungo.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 è un modello di generazione di immagini di ByteDance Seed, che supporta input di testo e immagini con generazione di immagini di alta qualità e altamente controllabile. Genera immagini da prompt testuali.", - "doubao-vision-lite-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.", - "doubao-vision-pro-32k.description": "Doubao-vision è un modello multimodale di Doubao con forte comprensione e ragionamento visivo, oltre a un'accurata esecuzione delle istruzioni. Eccelle in compiti di estrazione immagine-testo e ragionamento basato su immagini, abilitando scenari di QA visivo più complessi e ampi.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 è l'ultimo modello multimodale di ByteDance, che integra capacità di generazione da testo a immagine, immagine a immagine e generazione di immagini in batch, incorporando anche conoscenze di senso comune e capacità di ragionamento. Rispetto alla versione precedente 4.0, offre una qualità di generazione significativamente migliorata, con una maggiore coerenza nell'editing e nella fusione di più immagini. Offre un controllo più preciso sui dettagli visivi, producendo testi e volti piccoli in modo più naturale, e raggiunge una disposizione e una colorazione più armoniose, migliorando l'estetica complessiva.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite è l'ultimo modello di generazione di immagini di ByteDance. Per la prima volta, integra capacità di recupero online, consentendo di incorporare informazioni web in tempo reale e migliorare la tempestività delle immagini generate. L'intelligenza del modello è stata inoltre aggiornata, consentendo un'interpretazione precisa di istruzioni complesse e contenuti visivi. Inoltre, offre una copertura globale della conoscenza migliorata, una maggiore coerenza di riferimento e una qualità di generazione superiore in scenari professionali, soddisfacendo meglio le esigenze di creazione visiva a livello aziendale.", "emohaa.description": "Emohaa è un modello per la salute mentale con capacità di consulenza professionale per aiutare gli utenti a comprendere le problematiche emotive.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B è un modello open-source leggero per implementazioni locali e personalizzate.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking è un modello MoE (Mixture-of-Experts) post-addestrato con un totale di 21 miliardi di parametri e 3 miliardi di parametri attivi, offrendo una qualità e una profondità di ragionamento significativamente migliorate.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B è un modello open-source con un numero elevato di parametri e una maggiore capacità di comprensione e generazione.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B è il modello MoE ultra-large di Baidu ERNIE con eccellenti capacità di ragionamento.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview è un modello di anteprima con finestra contestuale da 8K per la valutazione di ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K è un modello leggero ad alte prestazioni per scenari sensibili a latenza e costi.", "ernie-novel-8k.description": "ERNIE Novel 8K è progettato per romanzi lunghi e trame IP con narrazioni multi-personaggio.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K è un modello ad alto valore e alta concorrenza per servizi online su larga scala e applicazioni aziendali.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview è un modello di pensiero rapido con un contesto di 32K per ragionamenti complessi e chat multi-turno.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K è un modello di pensiero veloce con contesto da 32K per ragionamento complesso e chat multi-turno.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview è un’anteprima del modello di pensiero per valutazioni e test.", + "ernie-x1.1.description": "ERNIE X1.1 è un'anteprima del modello di pensiero per valutazione e test.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, sviluppato dal team Seed di ByteDance, supporta l'editing e la composizione multi-immagine. Offre coerenza del soggetto migliorata, esecuzione precisa delle istruzioni, comprensione della logica spaziale, espressione estetica, layout per poster e design di loghi con rendering testo-immagine ad alta precisione.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, sviluppato da ByteDance Seed, supporta input di testo e immagini per una generazione di immagini altamente controllabile e di alta qualità a partire da prompt.", "fal-ai/flux-kontext/dev.description": "FLUX.1 è un modello focalizzato sull’editing di immagini, che supporta input di testo e immagini.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite è il modello più piccolo e conveniente di Google, progettato per l’uso su larga scala.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview è il modello più conveniente di Google con funzionalità complete.", - "gemini-2.5-flash-preview-09-2025.description": "Versione di anteprima (25 settembre 2025) di Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash è il modello più conveniente di Google con funzionalità complete.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview è il modello di ragionamento più avanzato di Google, in grado di ragionare su codice, matematica e problemi STEM, e analizzare grandi dataset, basi di codice e documenti con contesto esteso.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google, che supporta anche la conversazione multimodale.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) è il modello di generazione di immagini di Google e supporta anche la chat multimodale.", "gemini-3-pro-preview.description": "Gemini 3 Pro è il modello più potente di Google per agenti e codifica creativa, offrendo visuali più ricche e interazioni più profonde grazie a un ragionamento all'avanguardia.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre una qualità d'immagine di livello professionale a velocità Flash con supporto per chat multimodale.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) offre una qualità d'immagine di livello professionale a velocità Flash con supporto per chat multimodale.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview migliora Gemini 3 Pro con capacità di ragionamento avanzate e aggiunge supporto per un livello di pensiero medio.", "gemini-flash-latest.description": "Ultima versione di Gemini Flash", "gemini-flash-lite-latest.description": "Ultima versione di Gemini Flash-Lite", "gemini-pro-latest.description": "Ultima versione di Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.", "glm-4v-plus.description": "GLM-4V-Plus comprende video e immagini multiple, ideale per compiti multimodali.", "glm-4v.description": "GLM-4V offre una solida comprensione e capacità di ragionamento visivo su compiti basati su immagini.", - "glm-5.description": "Un modello di ragionamento e agentico avanzato di Z.ai con 744B parametri totali (40B attivi), progettato per l'ingegneria di sistemi complessi e compiti a lungo termine.", + "glm-5.description": "La serie GLM è un modello di ragionamento ibrido di Zhipu AI progettato per agenti, con modalità di pensiero e non-pensiero.", "glm-z1-air.description": "Modello di ragionamento con elevate capacità inferenziali per compiti che richiedono deduzioni complesse.", "glm-z1-airx.description": "Ragionamento ultra-rapido con alta qualità inferenziale.", "glm-z1-flash.description": "La serie GLM-Z1 eccelle nel ragionamento complesso, con prestazioni elevate in logica, matematica e programmazione.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Siamo entusiasti di presentare Grok 4 Fast, il nostro ultimo progresso nei modelli di ragionamento a basso costo.", "grok-4.description": "Il nostro modello di punta più recente e potente, eccellente in NLP, matematica e ragionamento—un tuttofare ideale.", "grok-code-fast-1.description": "Siamo entusiasti di lanciare grok-code-fast-1, un modello di ragionamento veloce ed economico che eccelle nella programmazione agentica.", + "grok-imagine-image-pro.description": "Genera immagini da prompt testuali, modifica immagini esistenti con linguaggio naturale o affina iterativamente le immagini attraverso conversazioni multi-turno.", + "grok-imagine-image.description": "Genera immagini da prompt testuali, modifica immagini esistenti con linguaggio naturale o affina iterativamente le immagini attraverso conversazioni multi-turno.", "groq/compound-mini.description": "Compound-mini è un sistema AI composito alimentato da modelli pubblici disponibili su GroqCloud, che utilizza strumenti in modo intelligente e selettivo per rispondere alle domande degli utenti.", "groq/compound.description": "Compound è un sistema AI composito alimentato da più modelli pubblici disponibili su GroqCloud, che utilizza strumenti in modo intelligente e selettivo per rispondere alle domande degli utenti.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B è un modello linguistico creativo e intelligente ottenuto dalla fusione di più modelli di alto livello.", + "hunyuan-2.0-instruct-20251111.description": "Caratteristiche del rilascio: la base del modello è stata aggiornata da TurboS a **Hunyuan 2.0**, con miglioramenti complessivi delle capacità. Migliora significativamente il seguire istruzioni, la comprensione di testi multi-turno e lunghi, la creazione letteraria, l'accuratezza delle conoscenze, la codifica e le capacità di ragionamento.", + "hunyuan-2.0-thinking-20251109.description": "Caratteristiche del rilascio: la base del modello è stata aggiornata da TurboS a **Hunyuan 2.0**, con miglioramenti complessivi delle capacità. Migliora significativamente la capacità del modello di seguire istruzioni complesse, comprendere testi multi-turno e lunghi, gestire codice, operare come agente e svolgere compiti di ragionamento.", "hunyuan-a13b.description": "Il primo modello di ragionamento ibrido di Hunyuan, aggiornato da hunyuan-standard-256K (80B totali, 13B attivi). Di default utilizza un pensiero lento e supporta il passaggio veloce/lento tramite parametri o prefisso /no_think. Le capacità complessive sono migliorate rispetto alla generazione precedente, in particolare in matematica, scienza, comprensione di testi lunghi e compiti agentici.", - "hunyuan-code.description": "Ultimo modello di generazione di codice addestrato con 200B di codice di alta qualità e sei mesi di SFT; contesto esteso a 8K. È ai vertici nei benchmark automatizzati per cinque linguaggi e nelle valutazioni umane su dieci criteri.", - "hunyuan-functioncall.description": "Ultimo modello MoE FunctionCall addestrato con dati di chiamata funzione di alta qualità, con una finestra di contesto di 32K e risultati di benchmark leader in più dimensioni.", - "hunyuan-large-longcontext.description": "Eccelle nei compiti su documenti lunghi come sintesi e QA, gestendo anche la generazione generale. Forte nell'analisi e generazione di testi lunghi e complessi.", - "hunyuan-large-vision.description": "Un modello linguistico-visivo addestrato da Hunyuan Large per la comprensione immagine-testo. Supporta input multi-immagine + testo a qualsiasi risoluzione e migliora la comprensione visiva multilingue.", - "hunyuan-large.description": "Hunyuan-large ha ~389B parametri totali e ~52B attivati, il più grande e potente modello MoE open-source in architettura Transformer.", - "hunyuan-lite-vision.description": "Ultimo modello multimodale da 7B con finestra di contesto da 32K, supporta chat multimodale cinese/inglese, riconoscimento oggetti, comprensione di tabelle e matematica multimodale, superando i pari da 7B in molti benchmark.", + "hunyuan-code.description": "L'ultimo modello di codice di Hunyuan addestrato su 200 miliardi di dati di codice di alta qualità più sei mesi di dati SFT, con un contesto di 8K. Si posiziona ai vertici nei benchmark di codice automatizzati e nelle valutazioni umane esperte in cinque lingue.", + "hunyuan-functioncall.description": "L'ultimo modello MoE FunctionCall di Hunyuan addestrato su dati di chiamata di strumenti di alta qualità, con una finestra di contesto di 32K e benchmark leader in tutte le dimensioni.", "hunyuan-lite.description": "Aggiornato a un'architettura MoE con finestra di contesto da 256K, guida molti modelli open-source nei benchmark NLP, codice, matematica e industriali.", "hunyuan-pro.description": "Modello MOE-32K a trilioni di parametri con contesto lungo, leader nei benchmark, forte in istruzioni complesse e ragionamento, matematica avanzata, chiamate funzione, e ottimizzato per traduzione multilingue, finanza, diritto e medicina.", - "hunyuan-role.description": "Ultimo modello per roleplay, ufficialmente ottimizzato su dataset di roleplay, con prestazioni di base più forti per scenari di interpretazione di ruoli.", - "hunyuan-standard-256K.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Raggiunge il 99,9% nel test 'ago nel pagliaio' su contesto lungo. MOE-256K espande ulteriormente la lunghezza e qualità del contesto.", - "hunyuan-standard-vision.description": "Ultimo modello multimodale con risposte multilingue e capacità bilanciate in cinese/inglese.", - "hunyuan-standard.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Raggiunge il 99,9% nel test 'ago nel pagliaio' su contesto lungo. MOE-32K offre grande valore nella gestione di input lunghi.", - "hunyuan-t1-20250321.description": "Costruisce capacità bilanciate tra discipline artistiche e STEM con forte cattura di informazioni da testi lunghi. Supporta risposte ragionate per problemi di matematica, logica, scienza e codice a vari livelli di difficoltà.", - "hunyuan-t1-20250403.description": "Migliora la generazione di codice a livello di progetto e la qualità della scrittura, rafforza la comprensione di argomenti multi-turno e il rispetto delle istruzioni ToB, migliora la comprensione a livello di parola e riduce i problemi di output misto tra cinese semplificato/tradizionale e cinese/inglese.", - "hunyuan-t1-20250529.description": "Migliora la scrittura creativa e la composizione, rafforza la programmazione frontend, la matematica e il ragionamento logico, e migliora il rispetto delle istruzioni.", - "hunyuan-t1-20250711.description": "Migliora notevolmente la matematica complessa, la logica e la programmazione, aumenta la stabilità dell'output e potenzia la capacità su testi lunghi.", + "hunyuan-role.description": "L'ultimo modello di roleplay di Hunyuan, ufficialmente ottimizzato con dati di roleplay, offre prestazioni di base più forti negli scenari di roleplay.", + "hunyuan-standard-256K.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Nei testi lunghi \"ago nel pagliaio\" raggiunge il 99,9%. MOE-256K spinge ulteriormente in lunghezza e qualità, espandendo notevolmente la lunghezza dell'input.", + "hunyuan-standard.description": "Utilizza un routing migliorato per mitigare il bilanciamento del carico e il collasso degli esperti. Nei testi lunghi \"ago nel pagliaio\" raggiunge il 99,9%. MOE-32K offre un miglior rapporto qualità-prezzo bilanciando qualità e prezzo per input di testi lunghi.", "hunyuan-t1-latest.description": "Migliora significativamente il modello a pensiero lento su matematica complessa, ragionamento articolato, programmazione difficile, rispetto delle istruzioni e qualità della scrittura creativa.", - "hunyuan-t1-vision-20250619.description": "Ultimo modello multimodale t1-vision con ragionamento profondo e catena di pensiero nativa, notevolmente migliorato rispetto alla versione predefinita precedente.", "hunyuan-t1-vision-20250916.description": "Ultimo modello t1-vision con importanti miglioramenti in VQA, grounding visivo, OCR, grafici, risoluzione di problemi fotografati e creazione basata su immagini, oltre a una maggiore competenza in inglese e lingue a bassa risorsa.", - "hunyuan-turbo-20241223.description": "Questa versione potenzia la scalabilità delle istruzioni per una migliore generalizzazione, migliora significativamente il ragionamento in matematica/codice/logica, rafforza la comprensione a livello di parola e migliora la qualità della scrittura.", - "hunyuan-turbo-latest.description": "Miglioramenti generali nell'esperienza su comprensione NLP, scrittura, chat, QA, traduzione e domini; risposte più umane, chiarimenti migliori su intenti ambigui, parsing delle parole migliorato, maggiore qualità creativa e interattività, e conversazioni multi-turno più forti.", - "hunyuan-turbo-vision.description": "Modello di punta linguistico-visivo di nuova generazione con nuova architettura MoE, con ampi miglioramenti in riconoscimento, creazione di contenuti, QA su conoscenze e ragionamento analitico.", "hunyuan-turbo.description": "Anteprima del prossimo LLM di Hunyuan con nuova architettura MoE, che offre ragionamento più veloce e risultati migliori rispetto a hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Unifica lo stile di risoluzione dei problemi matematici e rafforza le domande e risposte matematiche multi-turno. Lo stile di scrittura è stato raffinato per ridurre il tono artificiale e migliorare la qualità.", - "hunyuan-turbos-20250416.description": "Base di pre-addestramento aggiornata per migliorare la comprensione e l’esecuzione delle istruzioni; l’allineamento migliora matematica, codice, logica e scienza; migliora la qualità della scrittura, la comprensione, l’accuratezza della traduzione e le domande e risposte basate sulla conoscenza; potenzia le capacità degli agenti, in particolare nella comprensione multi-turno.", - "hunyuan-turbos-20250604.description": "Base di pre-addestramento aggiornata con miglioramenti nella scrittura e comprensione del testo, significativi progressi nel codice e nelle materie STEM, e migliore esecuzione di istruzioni complesse.", - "hunyuan-turbos-20250926.description": "Qualità dei dati di pre-addestramento e strategia di post-addestramento migliorate, con potenziamenti per agenti, lingue inglese e a bassa risorsa, esecuzione di istruzioni, codice e capacità STEM.", "hunyuan-turbos-latest.description": "Il più recente modello di punta Hunyuan TurboS con ragionamento potenziato e un’esperienza complessiva migliorata.", - "hunyuan-turbos-longtext-128k-20250325.description": "Eccelle nei compiti su documenti lunghi come riassunti e domande e risposte, gestendo anche generazione generale. Forte nell’analisi e generazione di testi lunghi per contenuti complessi e dettagliati.", - "hunyuan-turbos-role-plus.description": "Ultimo modello per roleplay, ufficialmente ottimizzato su dataset specifici, con prestazioni di base più solide per scenari di interpretazione di ruoli.", - "hunyuan-turbos-vision-20250619.description": "Ultimo modello di punta visione-linguaggio TurboS con grandi miglioramenti nei compiti immagine-testo come riconoscimento entità, domande e risposte basate sulla conoscenza, copywriting e risoluzione di problemi da foto.", - "hunyuan-turbos-vision.description": "Modello di punta visione-linguaggio di nuova generazione basato sull’ultimo TurboS, focalizzato su compiti di comprensione immagine-testo come riconoscimento entità, domande e risposte basate sulla conoscenza, copywriting e risoluzione di problemi da foto.", - "hunyuan-vision-1.5-instruct.description": "Modello di generazione testo da immagine basato su TurboS, con miglioramenti evidenti rispetto alla versione precedente in riconoscimento di base e ragionamento visivo.", - "hunyuan-vision.description": "Ultimo modello multimodale che supporta input immagine + testo per generare testo.", + "hunyuan-vision-1.5-instruct.description": "Un modello immagine-testo a pensiero rapido basato sulla base testuale TurboS, con miglioramenti significativi rispetto alla versione precedente nel riconoscimento fondamentale delle immagini e nel ragionamento analitico delle immagini.", + "hunyuan-vision.description": "L'ultimo modello multimodale di Hunyuan supporta input immagine + testo per generare testo.", "image-01-live.description": "Modello di generazione immagini con dettagli raffinati, supporta testo-immagine e stili controllabili predefiniti.", "image-01.description": "Nuovo modello di generazione immagini con dettagli raffinati, supporta testo-immagine e immagine-immagine.", "imagen-4.0-fast-generate-001.description": "Versione Fast della serie di modelli di generazione immagini da testo di quarta generazione Imagen", "imagen-4.0-generate-001.description": "Serie di modelli di generazione immagini da testo di quarta generazione Imagen", - "imagen-4.0-generate-preview-06-06.description": "Famiglia di modelli di generazione immagini da testo di quarta generazione Imagen.", "imagen-4.0-ultra-generate-001.description": "Versione Ultra della serie di modelli di generazione immagini da testo di quarta generazione Imagen", - "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra della quarta generazione di modelli di generazione immagini da testo Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small è ideale per la generazione di codice, il debug e il refactoring con una latenza minima.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 è il terzo modello dell'architettura Ling 2.0 del team Bailing di Ant Group. È un modello MoE con 100 miliardi di parametri totali, ma solo 6,1 miliardi attivi per token (4,8 miliardi esclusi gli embedding). Nonostante la configurazione leggera, eguaglia o supera modelli densi da 40 miliardi e MoE ancora più grandi in diversi benchmark, esplorando l'efficienza attraverso architettura e strategia di addestramento.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 è un piccolo LLM MoE ad alte prestazioni con 16 miliardi di parametri totali e solo 1,4 miliardi attivi per token (789 milioni esclusi gli embedding), offrendo una generazione molto rapida. Grazie a un design MoE efficiente e a un ampio dataset di addestramento di alta qualità, raggiunge prestazioni di livello superiore comparabili a modelli densi sotto i 10 miliardi e a MoE più grandi.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T è il modello MoE da un trilione di parametri di inclusionAI per il ragionamento, adatto a compiti di ricerca e ragionamento su larga scala.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 è una variante del modello Ring di inclusionAI per scenari ad alto throughput, con enfasi su velocità ed efficienza dei costi.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 è il modello MoE leggero ad alto throughput di inclusionAI, progettato per la concorrenza elevata.", + "intern-latest.description": "Per impostazione predefinita, punta al nostro ultimo modello della serie Intern rilasciato, attualmente impostato su intern-s1-pro.", + "intern-s1-mini.description": "Un modello multimodale leggero con forti capacità di ragionamento scientifico.", + "intern-s1-pro.description": "Abbiamo lanciato il nostro modello di ragionamento multimodale open-source più avanzato, attualmente il modello di linguaggio multimodale open-source con le migliori prestazioni complessive.", + "intern-s1.description": "Il modello di ragionamento multimodale open-source non solo dimostra forti capacità generali, ma raggiunge prestazioni all'avanguardia in una vasta gamma di compiti scientifici.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat è un modello di chat open-source basato sull'architettura InternLM2. Il modello da 7 miliardi è focalizzato sulla generazione di dialoghi con supporto per cinese e inglese, utilizzando tecniche di addestramento moderne per conversazioni fluide e intelligenti. È adatto a molti scenari di chat come assistenza clienti e assistenti personali.", - "internlm2.5-latest.description": "Modelli legacy ancora mantenuti con prestazioni eccellenti e stabili dopo numerose iterazioni. Disponibili nelle versioni da 7B e 20B, supportano contesti da 1M e una maggiore capacità di seguire istruzioni e utilizzare strumenti. Impostato di default sulla serie InternLM2.5 più recente (attualmente internlm2.5-20b-chat).", - "internlm3-latest.description": "La nostra serie di modelli più recente con prestazioni di ragionamento eccellenti, leader tra i modelli open-source della sua categoria. Impostato di default sulla serie InternLM3 più recente (attualmente internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO è un modello multimodale preaddestrato per il ragionamento complesso immagine-testo.", - "internvl2.5-latest.description": "InternVL2.5 è ancora mantenuto con prestazioni forti e stabili. Impostato di default sulla serie InternVL2.5 più recente (attualmente internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B è un modello multimodale di medie dimensioni che bilancia prestazioni e costi.", "internvl3-1b.description": "InternVL3 1B è un modello multimodale leggero per distribuzioni con risorse limitate.", "internvl3-38b.description": "InternVL3 38B è un grande modello multimodale open-source per una comprensione immagine-testo ad alta precisione.", - "internvl3-latest.description": "Il nostro modello multimodale più recente con una comprensione immagine-testo più avanzata e capacità di analisi di immagini in sequenza lunga, comparabile ai migliori modelli chiusi. Impostato di default sulla serie InternVL più recente (attualmente internvl3-78b).", + "internvl3.5-241b-a28b.description": "Il nostro nuovo modello multimodale presenta una comprensione migliorata di immagini e testi e capacità di comprensione di immagini a lunga sequenza, raggiungendo prestazioni paragonabili ai principali modelli closed-source.", + "internvl3.5-latest.description": "Per impostazione predefinita, punta al modello più recente della serie InternVL3.5, attualmente impostato su internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG è un modello di generazione aumentata dal recupero di immagini per la ricerca visiva, il recupero immagine-testo e la generazione di contenuti.", "jamba-large.description": "Il nostro modello più potente e avanzato, progettato per compiti aziendali complessi con prestazioni eccezionali.", "jamba-mini.description": "Il modello più efficiente della sua categoria, che bilancia velocità e qualità con un ingombro ridotto.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 è un modello linguistico di grandi dimensioni efficiente, costruito specificamente per la programmazione e i flussi di lavoro degli agenti.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 è un modello linguistico di grandi dimensioni all'avanguardia e leggero, ottimizzato per la programmazione, i flussi di lavoro proxy e lo sviluppo di applicazioni moderne, offrendo output più puliti e concisi e tempi di risposta percettiva più rapidi.", "minimax/minimax-m2.description": "MiniMax-M2 è un modello ad alto valore che eccelle nella codifica e nei compiti per agenti in molti scenari ingegneristici.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 è un modello MoE compatto, veloce ed economico progettato per prestazioni di codifica e agenti di alto livello.", "minimaxai/minimax-m2.description": "MiniMax-M2 è un modello MoE compatto, veloce ed economico (230B totali, 10B attivi) progettato per prestazioni di alto livello nella codifica e nei compiti per agenti, mantenendo una forte intelligenza generale. Eccelle in modifiche multi-file, cicli di esecuzione-correzione del codice, validazione dei test e catene di strumenti complesse.", "ministral-3b-latest.description": "Ministral 3B è il modello edge di punta di Mistral.", "ministral-8b-latest.description": "Ministral 8B è un modello edge altamente conveniente di Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Il modello kimi-k2-0905-preview supporta una finestra di contesto di 256k, con programmazione agentica più avanzata, codice frontend più rifinito e pratico, e una migliore comprensione del contesto.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo è una versione ad alta velocità di Kimi K2 Thinking, che riduce significativamente la latenza mantenendo un ragionamento profondo.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking è il modello di ragionamento di Moonshot ottimizzato per compiti di ragionamento profondo, con capacità agentiche generali.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 è il modello Kimi più intelligente fino ad oggi, con un'architettura multimodale nativa.", "moonshotai/kimi-k2.description": "Kimi K2 è un grande modello MoE di Moonshot AI con 1T di parametri totali e 32B attivi per passaggio, ottimizzato per capacità agentiche tra cui uso avanzato di strumenti, ragionamento e sintesi di codice.", "morph/morph-v3-fast.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 4500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.", "morph/morph-v3-large.description": "Morph offre un modello specializzato per applicare modifiche al codice suggerite da modelli avanzati (es. Claude o GPT-4o) ai tuoi file esistenti a una velocità di oltre 2500 token/sec. È l'ultimo passaggio in un flusso di lavoro di programmazione AI e supporta 16k token in input/output.", + "musesteamer-air-image.description": "musesteamer-air-image è un modello di generazione di immagini sviluppato dal team di ricerca di Baidu per offrire un eccezionale rapporto qualità-prezzo. Può generare rapidamente immagini chiare e coerenti con le azioni basate sui prompt degli utenti, trasformando senza sforzo le descrizioni degli utenti in immagini.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B è una versione aggiornata di Nous Hermes 2 con i più recenti dataset sviluppati internamente.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B è un LLM personalizzato da NVIDIA per migliorare l'utilità. Ottiene ottimi risultati su Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, classificandosi al primo posto in tutti e tre i benchmark di auto-allineamento al 1° ottobre 2024. È addestrato da Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward e prompt HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Un modello linguistico distintivo che offre precisione ed efficienza eccezionali.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "In base alla lunghezza del contesto, all'argomento e alla complessità, la tua richiesta viene instradata a Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderato) o GPT-4o.", "oswe-vscode-prime.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.", "oswe-vscode-secondary.description": "Raptor mini è un modello in anteprima ottimizzato per compiti legati al codice.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 è un modello che bilancia alta efficienza computazionale con eccellenti prestazioni di ragionamento e agenti.", "perplexity/sonar-pro.description": "Il prodotto di punta di Perplexity con ancoraggio alla ricerca, supporta query avanzate e follow-up.", "perplexity/sonar-reasoning-pro.description": "Un modello avanzato focalizzato sul ragionamento che produce catene di pensiero (CoT) con ricerca migliorata, incluse più query per richiesta.", "perplexity/sonar-reasoning.description": "Un modello focalizzato sul ragionamento che produce catene di pensiero (CoT) con spiegazioni dettagliate basate sulla ricerca.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Modello di programmazione Qwen.", "qwen-coder-turbo.description": "Modello di programmazione Qwen.", "qwen-flash.description": "Modello Qwen più veloce ed economico, ideale per compiti semplici.", + "qwen-image-edit-max.description": "Il modello di modifica delle immagini Qwen supporta input e output multi-immagine, consentendo modifiche precise del testo nelle immagini, aggiunta, rimozione o spostamento di oggetti, modifica delle azioni dei soggetti, trasferimento di stile delle immagini e dettagli visivi migliorati.", + "qwen-image-edit-plus.description": "Il modello di modifica delle immagini Qwen supporta input e output multi-immagine, consentendo modifiche precise del testo nelle immagini, aggiunta, rimozione o spostamento di oggetti, modifica delle azioni dei soggetti, trasferimento di stile delle immagini e dettagli visivi migliorati.", "qwen-image-edit.description": "Qwen Image Edit è un modello immagine-a-immagine che modifica immagini in base a input visivi e prompt testuali, consentendo regolazioni precise e trasformazioni creative.", + "qwen-image-max.description": "Il modello di generazione di immagini Qwen (serie Max) offre un realismo e una naturalezza visiva migliorati rispetto alla serie Plus, riducendo efficacemente gli artefatti generati dall'IA e dimostrando prestazioni eccezionali nell'aspetto umano, nei dettagli delle texture e nel rendering del testo.", + "qwen-image-plus.description": "Supporta una vasta gamma di stili artistici ed è particolarmente abile nel rendere testi complessi all'interno delle immagini, consentendo un design integrato di layout immagine-testo.", "qwen-image.description": "Qwen-Image è un modello generale di generazione di immagini che supporta più stili artistici e una forte resa di testi complessi, in particolare in cinese e inglese. Supporta layout su più righe, testo a livello di paragrafo e dettagli fini per layout immagine-testo complessi.", "qwen-long.description": "Modello Qwen ultra-large con contesto esteso e chat su scenari multi-documento e lunghi.", "qwen-math-plus-latest.description": "Qwen Math è un modello linguistico specializzato nella risoluzione di problemi matematici.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Modello di codice open-source Qwen. L’ultimo qwen3-coder-30b-a3b-instruct si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct è un modello di punta per la programmazione multilingue e la comprensione di codice complesso.", "qwen3-coder-flash.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.", + "qwen3-coder-next.description": "Il coder Qwen di nuova generazione ottimizzato per la generazione di codice complesso multi-file, il debugging e i flussi di lavoro ad alta produttività per agenti. Progettato per una forte integrazione degli strumenti e prestazioni di ragionamento migliorate.", "qwen3-coder-plus.description": "Modello di codice Qwen. La serie Qwen3-Coder si basa su Qwen3 e offre forti capacità di agenti di programmazione, utilizzo di strumenti e interazione con l’ambiente per la programmazione autonoma, con prestazioni eccellenti nel codice e solide capacità generali.", "qwen3-coder:480b.description": "Modello ad alte prestazioni di Alibaba per attività di agenti e programmazione, con supporto a contesti lunghi.", "qwen3-max-2026-01-23.description": "I modelli Qwen3 Max offrono miglioramenti significativi rispetto alla serie 2.5 in capacità generali, comprensione di cinese/inglese, esecuzione di istruzioni complesse, compiti soggettivi aperti, capacità multilingue e utilizzo di strumenti, con meno allucinazioni. L’ultima versione migliora la programmazione agentica e l’uso di strumenti rispetto a qwen3-max-preview. Raggiunge lo stato dell’arte in vari ambiti e si rivolge a esigenze agentiche più complesse.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking è un modello multimodale con catena di pensiero per ragionamento visivo dettagliato.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versione leggera e ad alta velocità per richieste sensibili alla latenza o ad alto volume.", "qwen3-vl-plus.description": "Qwen VL è un modello di generazione testuale con comprensione visiva. Può eseguire OCR, riassumere e ragionare, ad esempio estraendo attributi da foto di prodotti o risolvendo problemi da immagini.", + "qwen3.5-397b-a17b.description": "Supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono paragonabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, offre miglioramenti significativi rispetto alla serie Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus supporta input di testo, immagini e video. Per compiti solo testuali, le sue prestazioni sono paragonabili a Qwen3 Max, offrendo maggiore efficienza e costi inferiori. Nelle capacità multimodali, mostra miglioramenti significativi rispetto alla serie Qwen3 VL.", "qwen3.description": "Qwen3 è il modello linguistico di nuova generazione di Alibaba, con prestazioni elevate in una vasta gamma di casi d’uso.", "qwq-32b-preview.description": "QwQ è un modello sperimentale di ricerca della famiglia Qwen, focalizzato sul miglioramento del ragionamento.", "qwq-32b.description": "QwQ è un modello di ragionamento della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, offre capacità di pensiero e ragionamento che migliorano significativamente le prestazioni nei compiti complessi. QwQ-32B è un modello di medie dimensioni che compete con i migliori modelli di ragionamento come DeepSeek-R1 e o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Modello di ragionamento di medie dimensioni della famiglia Qwen. Rispetto ai modelli standard ottimizzati per istruzioni, le capacità di pensiero e ragionamento di QwQ migliorano significativamente le prestazioni nei compiti difficili.", "r1-1776.description": "R1-1776 è una variante post-addestrata di DeepSeek R1 progettata per fornire informazioni fattuali non censurate e imparziali.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro di ByteDance supporta la generazione da testo a video, da immagine a video (primo fotogramma, primo+ultimo fotogramma) e la generazione audio sincronizzata con i contenuti visivi.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite di BytePlus presenta una generazione aumentata dal recupero web per informazioni in tempo reale, un'interpretazione migliorata di prompt complessi e una maggiore coerenza di riferimento per la creazione visiva professionale.", "solar-mini-ja.description": "Solar Mini (Ja) estende Solar Mini con un focus sul giapponese, mantenendo prestazioni efficienti e solide in inglese e coreano.", "solar-mini.description": "Solar Mini è un LLM compatto che supera GPT-3.5, con forte capacità multilingue in inglese e coreano, offrendo una soluzione efficiente e leggera.", "solar-pro.description": "Solar Pro è un LLM ad alta intelligenza di Upstage, focalizzato sull’esecuzione di istruzioni su una singola GPU, con punteggi IFEval superiori a 80. Attualmente supporta l’inglese; il rilascio completo è previsto per novembre 2024 con supporto linguistico ampliato e contesto più lungo.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Prodotto di ricerca avanzata con ancoraggio alla ricerca per query complesse e follow-up.", "sonar-reasoning.description": "Prodotto di ricerca avanzata con ancoraggio alla ricerca per query complesse e follow-up.", "sonar.description": "Prodotto leggero con ancoraggio alla ricerca, più veloce ed economico rispetto a Sonar Pro.", - "spark-x.description": "Aggiornamenti X1.5: (1) aggiunge modalità di pensiero dinamico controllata dal campo `thinking`; (2) lunghezza del contesto aumentata a 64K input e 64K output; (3) supporta FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 è un modello che bilancia alta efficienza computazionale con eccellenti prestazioni di ragionamento e agenti.", + "spark-x.description": "Panoramica delle capacità di X2: 1. Introduce l'adattamento dinamico della modalità di ragionamento, controllato tramite il campo `thinking`. 2. Lunghezza del contesto espansa: 64K token di input e 128K token di output. 3. Supporta la funzionalità Function Call.", "stable-diffusion-3-medium.description": "L'ultimo modello text-to-image di Stability AI. Questa versione migliora significativamente la qualità delle immagini, la comprensione del testo e la diversità stilistica, interpretando con maggiore precisione prompt complessi in linguaggio naturale e generando immagini più accurate e varie.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo applica la distillazione per diffusione avversaria (ADD) a stable-diffusion-3.5-large per una maggiore velocità.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large è un modello text-to-image MMDiT da 800M parametri con qualità eccellente e allineamento ai prompt, supporta immagini da 1 megapixel ed è efficiente su hardware consumer.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Supporta interazioni a contesto esteso per dialoghi complessi.", "step-2-mini.description": "Basato sulla nuova architettura MFA attention proprietaria, offre risultati simili a Step-1 a costi molto inferiori, con throughput più elevato e latenza ridotta. Gestisce compiti generali con forti capacità di programmazione.", "step-2x-large.description": "Modello di nuova generazione StepFun focalizzato sulla generazione di immagini, produce immagini di alta qualità da prompt testuali. Offre texture più realistiche e una resa testuale cinese/inglese più forte.", + "step-3.5-flash.description": "Il modello di ragionamento linguistico di punta di Stepfun. Questo modello offre capacità di ragionamento di alto livello insieme a un'esecuzione rapida e affidabile. Può scomporre e pianificare compiti complessi, invocare rapidamente e in modo affidabile strumenti per eseguirli ed eccellere nel ragionamento logico, matematica, ingegneria del software, ricerca approfondita e altri compiti sofisticati. La lunghezza del contesto è di 256K.", "step-3.description": "Questo modello ha una forte percezione visiva e capacità di ragionamento complesso, gestendo con precisione la comprensione della conoscenza cross-domain, l’analisi matematica-visiva e una vasta gamma di compiti visivi quotidiani.", "step-r1-v-mini.description": "Modello di ragionamento con forte comprensione delle immagini, in grado di elaborare immagini e testo e generare testo dopo un ragionamento profondo. Eccelle nel ragionamento visivo e offre prestazioni di alto livello in matematica, programmazione e ragionamento testuale, con una finestra di contesto da 100K.", "stepfun-ai/step3.description": "Step3 è un modello all'avanguardia per il ragionamento multimodale di StepFun, basato su un'architettura MoE con 321 miliardi di parametri totali e 38 miliardi attivi. Il suo design end-to-end riduce i costi di decodifica offrendo al contempo un ragionamento visivo-linguistico di alto livello. Grazie al design MFA e AFD, mantiene l'efficienza sia su acceleratori di fascia alta che su quelli economici. Il pretraining utilizza oltre 20T di token testuali e 4T di token immagine-testo in molte lingue. Raggiunge prestazioni di punta tra i modelli open-source in matematica, codice e benchmark multimodali.", - "taichu_llm.description": "Addestrato su una grande quantità di dati di alta qualità, con una comprensione del testo più forte, creazione di contenuti e QA conversazionale.", - "taichu_o1.description": "taichu_o1 è un modello di ragionamento di nuova generazione che utilizza interazione multimodale e apprendimento per rinforzo per ottenere un pensiero simile a quello umano, supporta la simulazione di decisioni complesse ed espone i percorsi di ragionamento mantenendo un'elevata accuratezza, ideale per analisi strategiche e pensiero profondo.", - "taichu_vl.description": "Combina comprensione delle immagini, trasferimento di conoscenza e attribuzione logica, eccellendo nel QA immagine-testo.", + "taichu4_vl_2b_nothinking.description": "La versione No-Thinking del modello Taichu4.0-VL 2B presenta un utilizzo ridotto della memoria, un design leggero, una velocità di risposta rapida e forti capacità di comprensione multimodale.", + "taichu4_vl_32b.description": "La versione Thinking del modello Taichu4.0-VL 32B è adatta per compiti complessi di comprensione e ragionamento multimodale, dimostrando prestazioni eccezionali nel ragionamento matematico multimodale, nelle capacità di agente multimodale e nella comprensione generale di immagini e contenuti visivi.", + "taichu4_vl_32b_nothinking.description": "La versione No-Thinking del modello Taichu4.0-VL 32B è progettata per scenari complessi di comprensione immagine-testo e QA di conoscenze visive, eccellendo nella didascalia delle immagini, nel visual question answering, nella comprensione dei video e nei compiti di localizzazione visiva.", + "taichu4_vl_3b.description": "La versione Thinking del modello Taichu4.0-VL 3B esegue in modo efficiente compiti di comprensione e ragionamento multimodale, con aggiornamenti completi nella comprensione visiva, localizzazione visiva, riconoscimento OCR e capacità correlate.", + "taichu_llm.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.", + "taichu_llm_14b.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.", + "taichu_llm_2b.description": "Il modello linguistico di grandi dimensioni Zidong Taichu è un modello di generazione di testo ad alte prestazioni sviluppato utilizzando tecnologie full-stack completamente domestiche. Attraverso la compressione strutturata di un modello base da cento miliardi di parametri e l'ottimizzazione specifica per i compiti, migliora significativamente la comprensione di testi complessi e le capacità di ragionamento basate sulla conoscenza. Eccelle in scenari come l'analisi di documenti lunghi, l'estrazione di informazioni cross-lingua e la generazione vincolata dalla conoscenza.", + "taichu_o1.description": "taichu_o1 è un modello di ragionamento di nuova generazione che raggiunge una catena di pensiero simile a quella umana attraverso l'interazione multimodale e l'apprendimento per rinforzo. Supporta simulazioni di decisioni complesse e, mantenendo un output ad alta precisione, rivela percorsi di ragionamento interpretabili. È particolarmente adatto per analisi strategiche, pensiero profondo e scenari simili.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utilizza 80 miliardi di parametri totali con 13 miliardi attivi per eguagliare modelli più grandi. Supporta ragionamento ibrido veloce/lento, comprensione stabile di testi lunghi e capacità avanzate di agenti su BFCL-v3 e τ-Bench. I formati GQA e multi-quant consentono un'inferenza efficiente.", "tencent/Hunyuan-MT-7B.description": "Il modello di traduzione Hunyuan include Hunyuan-MT-7B e l'ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B è un modello di traduzione leggero da 7B che supporta 33 lingue più 5 lingue minoritarie cinesi. Al WMT25 ha ottenuto 30 primi posti su 31 coppie linguistiche. Tencent Hunyuan utilizza un'intera pipeline di addestramento dal pretraining al SFT fino al RL per la traduzione e l'ensemble RL, raggiungendo prestazioni di punta nella sua categoria con implementazione efficiente e semplice.", "text-embedding-3-large.description": "Il modello di embedding più potente per compiti in inglese e in altre lingue.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md è adatto a compiti quotidiani e alla generazione di interfacce utente.", "vercel/v0-1.0-md.description": "Accedi ai modelli dietro v0 per generare, correggere e ottimizzare applicazioni web moderne con ragionamento specifico per framework e conoscenze aggiornate.", "vercel/v0-1.5-md.description": "Accedi ai modelli dietro v0 per generare, correggere e ottimizzare applicazioni web moderne con ragionamento specifico per framework e conoscenze aggiornate.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code è ottimizzato per le esigenze di programmazione aziendale, basandosi sulle eccellenti capacità di Agent e VLM di Seed 2.0, con un particolare potenziamento delle capacità di codifica. Non solo eccelle nelle capacità front-end, ma è anche ottimizzato per le esigenze di codifica multilingue comuni nelle aziende, rendendolo adatto all'integrazione con vari strumenti di programmazione AI.", + "volcengine/doubao-seed-2-0-lite.description": "Bilancia qualità di generazione e velocità di risposta, adatto come modello di produzione generico.", + "volcengine/doubao-seed-2-0-mini.description": "Punta alla versione più recente di doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Punta alla versione più recente di doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code è il modello LLM di Volcano Engine di ByteDance ottimizzato per la programmazione agentica, con prestazioni elevate nei benchmark di programmazione e agenti e supporto per contesti fino a 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed è il modello più recente con miglioramenti in creatività, stabilità e realismo, offrendo generazione rapida e alto valore.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro è il modello più recente con miglioramenti in creatività, stabilità e realismo, producendo dettagli più ricchi.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash è l'ultimo modello con miglioramenti in creatività, stabilità e realismo, offrendo una generazione rapida e di alto valore.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus è l'ultimo modello con miglioramenti in creatività, stabilità e realismo, producendo dettagli più ricchi.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview supporta l'editing di immagini singole e la fusione di più immagini.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I supporta la selezione flessibile delle dimensioni delle immagini entro i limiti dell'area totale dei pixel e del rapporto d'aspetto.", + "wan2.6-image.description": "Wanxiang 2.6 Image supporta l'editing delle immagini e l'output di layout misti immagine-testo.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I supporta la selezione flessibile delle dimensioni delle immagini entro i limiti dell'area totale dei pixel e del rapporto d'aspetto (come Wanxiang 2.5).", "wanx-v1.description": "Modello base da testo a immagine. Corrisponde a Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Eccelle nei ritratti con texture, con velocità moderata e costi ridotti. Corrisponde a Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Versione completamente aggiornata con immagini più dettagliate e velocità leggermente inferiore. Corrisponde a Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast è il modello ad alta capacità e basso costo di xAI (supporta una finestra di contesto da 2M), ideale per casi d'uso con alta concorrenza e contesti lunghi.", "x-ai/grok-4.description": "Grok 4 è il modello di punta di xAI con forti capacità di ragionamento e multimodalità.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 è il modello veloce di xAI per la programmazione, con output leggibile e adatto all'ingegneria.", + "x1.description": "Aggiornamenti di X1.5: (1) aggiunge una modalità di pensiero dinamico controllata dal campo `thinking`; (2) lunghezza del contesto maggiore con 64K di input e 64K di output; (3) supporta FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision eccelle nei compiti visivi, offrendo prestazioni all'avanguardia nel ragionamento matematico visivo (MathVista) e nella QA su documenti (DocVQA). Gestisce documenti, grafici, tabelle, screenshot e foto.", "xai/grok-2.description": "Grok 2 è un modello all'avanguardia con prestazioni eccellenti in ragionamento, chat, programmazione e classificato sopra Claude 3.5 Sonnet e GPT-4 Turbo su LMSYS.", "xai/grok-3-fast.description": "Il modello di punta di xAI eccelle in casi d'uso aziendali come estrazione dati, programmazione e sintesi, con profonda conoscenza nei settori finanza, sanità, diritto e scienza. La variante veloce utilizza un'infrastruttura più rapida per risposte molto più veloci a un costo per token più elevato.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 è il modello di punta di Z.AI con ragionamento ibrido ottimizzato per compiti ingegneristici e contesti lunghi.", "z-ai/glm-4.6.description": "GLM 4.6 è il modello di punta di Z.AI con contesto esteso e capacità di programmazione.", "z-ai/glm-4.7.description": "GLM-4.7 è il più recente modello di punta di Zhipu, con capacità generali migliorate, risposte più naturali e un'esperienza di scrittura più coinvolgente.", - "z-ai/glm5.description": "Un modello di ragionamento e agentico avanzato di Z.ai con 744B parametri totali (40B attivi), progettato per l'ingegneria di sistemi complessi e compiti a lungo termine.", + "z-ai/glm4.7.description": "GLM-4.7 è l'ultimo modello di punta di Zhipu, migliorato per scenari di codifica agentica con capacità di codifica avanzate.", + "z-ai/glm5.description": "GLM-5 è il nuovo modello di base di punta di Zhipu AI per l'ingegneria degli agenti, raggiungendo prestazioni SOTA open-source in capacità di codifica e agenti. È paragonabile a Claude Opus 4.5 in termini di prestazioni.", + "z-image-turbo.description": "Z-Image è un modello leggero di generazione di immagini da testo che può produrre rapidamente immagini, supporta il rendering di testo in cinese e inglese e si adatta in modo flessibile a più risoluzioni e rapporti d'aspetto.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air è un modello base per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.", "zai-org/GLM-4.5.description": "GLM-4.5 è un modello base progettato per applicazioni agentiche con architettura Mixture-of-Experts. Ottimizzato per l'uso di strumenti, navigazione web, ingegneria software e programmazione frontend, si integra con agenti di codice come Claude Code e Roo Code. Utilizza ragionamento ibrido per gestire sia scenari complessi che quotidiani.", "zai-org/GLM-4.5V.description": "GLM-4.5V è il più recente VLM di Zhipu AI, basato sul modello testuale di punta GLM-4.5-Air (106B totali, 12B attivi) con architettura MoE per prestazioni elevate a costi ridotti. Segue il percorso GLM-4.1V-Thinking e aggiunge 3D-RoPE per migliorare il ragionamento spaziale 3D. Ottimizzato tramite pretraining, SFT e RL, gestisce immagini, video e documenti lunghi, classificandosi tra i migliori modelli open source su 41 benchmark multimodali pubblici. Una modalità Thinking consente di bilanciare velocità e profondità.", diff --git a/locales/it-IT/plugin.json b/locales/it-IT/plugin.json index 7c184d03f9..637c13d929 100644 --- a/locales/it-IT/plugin.json +++ b/locales/it-IT/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Aggiorna nodo", "builtins.lobe-page-agent.apiName.wrapNodes": "Raggruppa nodi", "builtins.lobe-page-agent.title": "Pagina", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importa dal Mercato", + "builtins.lobe-skill-store.apiName.importSkill": "Importa Abilità", + "builtins.lobe-skill-store.apiName.searchSkill": "Cerca Abilità", + "builtins.lobe-skill-store.title": "Negozio di Abilità", + "builtins.lobe-skills.apiName.execScript": "Esegui Script", + "builtins.lobe-skills.apiName.exportFile": "Esporta File", + "builtins.lobe-skills.apiName.importFromMarket": "Importa dal Mercato", + "builtins.lobe-skills.apiName.importSkill": "Importa Abilità", + "builtins.lobe-skills.apiName.readReference": "Leggi Riferimento", + "builtins.lobe-skills.apiName.runSkill": "Attiva Abilità", + "builtins.lobe-skills.apiName.searchSkill": "Cerca Abilità", + "builtins.lobe-skills.title": "Abilità", + "builtins.lobe-tools.apiName.activateTools": "Attiva Strumenti", "builtins.lobe-user-memory.apiName.addContextMemory": "Aggiungi memoria contestuale", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Aggiungi memoria esperienziale", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Aggiungi memoria identità", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Ricerca Web", "confirm": "Conferma", "debug.arguments": "Argomenti", + "debug.error": "Registro degli Errori", "debug.function_call": "Chiamata funzione", "debug.intervention": "Intervento Skill", "debug.off": "Debug disattivato", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Impostazioni salvate", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Info meta", - "dev.title.create": "Aggiungi Skill personalizzata", - "dev.title.edit": "Modifica Skill personalizzata", + "dev.title.create": "Aggiungi Abilità MCP Personalizzata", + "dev.title.edit": "Modifica Abilità MCP Personalizzata", "dev.title.editCommunity": "Modifica Abilità della Community", "dev.title.skillDetails": "Dettagli Abilità", "dev.title.skillSettings": "Impostazioni Abilità", diff --git a/locales/it-IT/providers.json b/locales/it-IT/providers.json index 27a17ed14f..0ef68c6e69 100644 --- a/locales/it-IT/providers.json +++ b/locales/it-IT/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud è un servizio cloud GenAI economico basato su solidi modelli open-source.", "spark.description": "iFLYTEK Spark fornisce AI multilingue potente in vari settori, abilitando innovazioni in hardware intelligente, sanità, finanza e altri verticali.", "stepfun.description": "I modelli Stepfun offrono capacità multimodali e di ragionamento complesse all'avanguardia, con comprensione di contesti lunghi e potente orchestrazione di ricerca autonoma.", + "straico.description": "Straico semplifica l'integrazione dell'IA offrendo uno spazio di lavoro unificato che riunisce i migliori modelli generativi di IA per testo, immagini e audio, offrendo a marketer, imprenditori e appassionati un accesso senza soluzione di continuità a diversi strumenti di IA.", "taichu.description": "Un modello multimodale di nuova generazione sviluppato da CASIA e Wuhan Institute of AI, che supporta QA multi-turno, scrittura, generazione di immagini, comprensione 3D e analisi di segnali con maggiore cognizione e creatività.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power fornisce QA end-to-end per imprese e sviluppatori, con servizi modulari come parsing documenti, suddivisione, embedding e riscrittura multi-turno per creare soluzioni AI personalizzate.", "togetherai.description": "Together AI offre prestazioni leader con modelli innovativi, ampia personalizzazione, scalabilità rapida e distribuzione semplice per esigenze aziendali.", diff --git a/locales/it-IT/setting.json b/locales/it-IT/setting.json index db0e8efe34..8d40f5a7ac 100644 --- a/locales/it-IT/setting.json +++ b/locales/it-IT/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Profilo Agente", "agentInfoDescription.value.unset": "Non Impostato", "agentInfoDescription.value.untitled": "Agente Senza Titolo", + "agentSkillDetail.addedAt": "Aggiunto", + "agentSkillDetail.publishedAt": "Pubblicato", + "agentSkillDetail.repository": "Repository GitHub", + "agentSkillDetail.skillContent": "Contenuto della Skill", + "agentSkillDetail.sourceUrl": "Fonte di Importazione della Skill", + "agentSkillDetail.updatedAt": "Aggiornato", + "agentSkillEdit.descriptionDesc": "Un breve riassunto di ciò che fa la skill, per aiutare l'agente a capire quando utilizzarla", + "agentSkillEdit.fileReadonly": "Questo file è di sola lettura. Solo la descrizione e le istruzioni della skill possono essere modificate.", + "agentSkillEdit.instructions": "Istruzioni", + "agentSkillEdit.instructionsDesc": "Le istruzioni principali in formato Markdown che definiscono il comportamento e il flusso di lavoro della skill", + "agentSkillEdit.instructionsPlaceholder": "Inserisci le istruzioni della skill in formato Markdown...", + "agentSkillEdit.nameDesc": "L'identificativo univoco per questa skill, non modificabile dopo la creazione", + "agentSkillEdit.saveSuccess": "Skill aggiornata con successo", + "agentSkillEdit.title": "Impostazioni della Skill", + "agentSkillItem.deleteConfirm.desc": "Sei sicuro di voler eliminare la skill dell'agente \"{{name}}\"? Questa azione non può essere annullata.", + "agentSkillItem.deleteConfirm.title": "Elimina Skill dell'Agente", + "agentSkillModal.content": "Contenuto della Skill", + "agentSkillModal.contentPlaceholder": "Inserisci il contenuto della skill in formato Markdown...", + "agentSkillModal.description": "Descrizione", + "agentSkillModal.descriptionPlaceholder": "Descrivi brevemente questa skill", + "agentSkillModal.github.desc": "Importa skill direttamente da un repository pubblico su GitHub.", + "agentSkillModal.github.title": "Importa da GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "Importazione fallita: {{error}}", + "agentSkillModal.importSuccess": "Skill dell'Agente importata con successo", + "agentSkillModal.upload.desc": "Carica un file locale .zip o .skill per installare.", + "agentSkillModal.upload.dragText": "Trascina e rilascia o clicca per caricare", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md contiene il nome e la descrizione della skill in formato YAML", + "agentSkillModal.upload.requirementZip": "File .zip o .skill con SKILL.md nella directory principale", + "agentSkillModal.upload.requirements": "Requisiti del File", + "agentSkillModal.upload.title": "Carica Skill", + "agentSkillModal.upload.uploading": "Caricamento in corso...", + "agentSkillModal.url.desc": "Importa una skill fornendo un link diretto a un file SKILL.md.", + "agentSkillModal.url.title": "Importa da URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Skill dell'Agente", "agentTab.chat": "Preferenze Chat", "agentTab.meta": "Informazioni Agente", "agentTab.modal": "Impostazioni Modello", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Specifica il modello utilizzato per la traduzione", "systemAgent.translation.title": "Agente Traduzione Messaggi", "tab.about": "Informazioni", + "tab.addAgentSkill": "Aggiungi Skill dell'Agente", + "tab.addCustomMcp": "Aggiungi Skill MCP Personalizzata", + "tab.addCustomMcp.desc": "Configura manualmente un server MCP personalizzato", "tab.addCustomSkill": "Aggiungi skill personalizzata", "tab.agent": "Servizio Agente", "tab.all": "Tutti", @@ -652,7 +691,13 @@ "tab.experiment": "Esperimenti", "tab.hotkey": "Tasti Rapidi", "tab.image": "Servizio Generazione Immagini", + "tab.importFromGithub": "Importa da GitHub", + "tab.importFromGithub.desc": "Importa da un repository pubblico su GitHub", + "tab.importFromUrl": "Importa da URL", + "tab.importFromUrl.desc": "Importa tramite un link diretto a SKILL.md", "tab.llm": "Modello Linguistico", + "tab.manualFill": "Compila Manualmente", + "tab.manualFill.desc": "Configura manualmente una skill MCP personalizzata", "tab.memory": "Memoria", "tab.profile": "Il Mio Account", "tab.provider": "Fornitore Servizi AI", @@ -669,6 +714,8 @@ "tab.sync": "Sincronizzazione Cloud", "tab.systemTools": "Strumenti di Sistema", "tab.tts": "Sintesi Vocale", + "tab.uploadZip": "Carica Zip", + "tab.uploadZip.desc": "Carica un file locale .zip o .skill", "tab.usage": "Statistiche di Utilizzo", "tools.add": "Aggiungi Competenza", "tools.builtins.groupName": "Integrati", diff --git a/locales/ja-JP/common.json b/locales/ja-JP/common.json index c58a810e52..93fcafa86f 100644 --- a/locales/ja-JP/common.json +++ b/locales/ja-JP/common.json @@ -256,11 +256,6 @@ "footer.star.title": "GitHub でスターを付ける", "footer.title": "製品は気に入りましたか?", "fullscreen": "全画面モード", - "geminiImageChineseWarning.content": "Nano Banana は中国語で画像生成を行うと失敗する可能性があります。より良い結果を得るには英語の使用をお勧めします", - "geminiImageChineseWarning.continueGenerate": "生成を続ける", - "geminiImageChineseWarning.continueSend": "送信を続ける", - "geminiImageChineseWarning.doNotShowAgain": "今後表示しない", - "geminiImageChineseWarning.title": "中国語入力のヒント", "historyRange": "履歴範囲", "home.suggestQuestions": "次の例をお試しください", "import": "インポート", @@ -397,6 +392,7 @@ "tab.chat": "チャット", "tab.community": "コミュニティ", "tab.discover": "発見", + "tab.eval": "評価ラボ", "tab.files": "ファイル", "tab.home": "ホーム", "tab.knowledgeBase": "ライブラリ", diff --git a/locales/ja-JP/eval.json b/locales/ja-JP/eval.json new file mode 100644 index 0000000000..f973cbcc7c --- /dev/null +++ b/locales/ja-JP/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "ベンチマークを削除", + "benchmark.actions.delete.confirm": "このベンチマークを削除してもよろしいですか?関連するデータセットと評価記録も削除されます。", + "benchmark.actions.edit": "ベンチマークを編集", + "benchmark.actions.export": "エクスポート", + "benchmark.card.bestScore": "最高", + "benchmark.card.caseCount": "{{count}} ケース", + "benchmark.card.datasetCount": "{{count}} データセット", + "benchmark.card.empty": "まだ評価がありません", + "benchmark.card.emptyHint": "ベンチマーク詳細ページから新しい評価を作成してください", + "benchmark.card.importDataset": "データセットをインポート", + "benchmark.card.noDataset": "まだデータセットがありません", + "benchmark.card.noDatasetHint": "データセットをインポートして評価を開始してください", + "benchmark.card.noRecentRuns": "表示する最近の評価がありません", + "benchmark.card.recentRuns": "最近の評価", + "benchmark.card.runCount": "{{count}} 評価", + "benchmark.card.startFirst": "最初の評価を開始", + "benchmark.card.viewAll": "すべて表示 ({{count}})", + "benchmark.create.confirm": "作成", + "benchmark.create.description.label": "説明", + "benchmark.create.description.placeholder": "ベンチマークの説明(任意)", + "benchmark.create.error": "ベンチマークの作成に失敗しました", + "benchmark.create.identifier.label": "識別子", + "benchmark.create.identifier.placeholder": "ベンチマーク識別子", + "benchmark.create.identifierRequired": "識別子を入力してください", + "benchmark.create.name.label": "名前", + "benchmark.create.name.placeholder": "ベンチマーク名を入力してください", + "benchmark.create.nameRequired": "ベンチマーク名を入力してください", + "benchmark.create.success": "ベンチマークが正常に作成されました", + "benchmark.create.tags.label": "タグ", + "benchmark.create.tags.placeholder": "タグを追加(カンマまたはスペースで区切る)", + "benchmark.create.title": "ベンチマークを作成", + "benchmark.detail.backToOverview": "概要に戻る", + "benchmark.detail.datasetCount": "このベンチマークには {{count}} データセットがあります", + "benchmark.detail.runCount": "このベンチマークには {{count}} 評価実行があります", + "benchmark.detail.stats.addFirstDataset": "最初のデータセットを追加するにはクリックしてください", + "benchmark.detail.stats.avgCost": "平均コスト", + "benchmark.detail.stats.avgDuration": "平均時間", + "benchmark.detail.stats.basedOnLastNRuns": "直近の {{count}} 実行に基づく", + "benchmark.detail.stats.bestPerformance": "{{agent}} による最高のパフォーマンス(合格率 {{passRate}}%)", + "benchmark.detail.stats.bestScore": "最高スコア", + "benchmark.detail.stats.cases": "ケース", + "benchmark.detail.stats.dataScale": "データ規模", + "benchmark.detail.stats.datasets": "データセット", + "benchmark.detail.stats.needSetup": "セットアップが必要です", + "benchmark.detail.stats.noEvalRecord": "まだ評価記録がありません", + "benchmark.detail.stats.perRun": "/ 実行", + "benchmark.detail.stats.runs": "実行", + "benchmark.detail.stats.tags": "タグ", + "benchmark.detail.stats.topAgents": "トップエージェント", + "benchmark.detail.stats.totalCases": "合計ケース数", + "benchmark.detail.stats.waiting": "待機中...", + "benchmark.detail.tabs.data": "データ", + "benchmark.detail.tabs.datasets": "データセット", + "benchmark.detail.tabs.runs": "実行", + "benchmark.edit.confirm": "保存", + "benchmark.edit.error": "ベンチマークの更新に失敗しました", + "benchmark.edit.success": "ベンチマークが正常に更新されました", + "benchmark.edit.title": "ベンチマークを編集", + "benchmark.empty": "まだベンチマークがありません。作成して開始してください。", + "caseDetail.actual": "実際の出力", + "caseDetail.chatArea.title": "会話", + "caseDetail.completionReason": "ステータス", + "caseDetail.cost": "コスト", + "caseDetail.difficulty": "難易度", + "caseDetail.duration": "時間", + "caseDetail.expected": "期待される出力", + "caseDetail.failureReason": "失敗理由", + "caseDetail.input": "入力", + "caseDetail.judgeComment": "審査コメント", + "caseDetail.resources": "リソース", + "caseDetail.score": "スコア", + "caseDetail.section.runtime": "ランタイム", + "caseDetail.section.scoring": "スコアリング詳細", + "caseDetail.section.testCase": "テストケース", + "caseDetail.steps": "ステップ", + "caseDetail.threads.attempt": "試行 #{{number}}", + "caseDetail.tokens": "トークン使用量", + "common.cancel": "キャンセル", + "common.create": "作成", + "common.delete": "削除", + "common.edit": "編集", + "common.later": "後で", + "common.next": "次へ", + "common.update": "更新", + "dataset.actions.addDataset": "データセットを追加", + "dataset.actions.import": "データをインポート", + "dataset.actions.importDataset": "データセットをインポート", + "dataset.create.description.label": "説明", + "dataset.create.description.placeholder": "データセットの説明(任意)", + "dataset.create.error": "データセットの作成に失敗しました", + "dataset.create.identifier.label": "識別子", + "dataset.create.identifier.placeholder": "データセット識別子", + "dataset.create.identifierRequired": "識別子を入力してください", + "dataset.create.importNow": "今すぐデータをインポートしますか?", + "dataset.create.name.label": "データセット名", + "dataset.create.name.placeholder": "データセット名を入力してください", + "dataset.create.nameRequired": "データセット名を入力してください", + "dataset.create.preset.label": "データセットプリセット", + "dataset.create.success": "データセットが正常に作成されました", + "dataset.create.successTitle": "データセットが作成されました", + "dataset.create.title": "データセットを作成", + "dataset.delete.confirm": "このデータセットを削除してもよろしいですか?すべてのテストケースも削除されます。", + "dataset.delete.error": "データセットの削除に失敗しました", + "dataset.delete.success": "データセットが正常に削除されました", + "dataset.detail.addRun": "新しい実行", + "dataset.detail.backToBenchmark": "ベンチマークに戻る", + "dataset.detail.caseCount": "{{count}} テストケース", + "dataset.detail.relatedRuns": "関連する実行 ({{count}})", + "dataset.detail.testCases": "テストケース", + "dataset.detail.viewDetail": "詳細を表示", + "dataset.edit.error": "データセットの更新に失敗しました", + "dataset.edit.success": "データセットが正常に更新されました", + "dataset.edit.title": "データセットを編集", + "dataset.empty": "データセットがありません", + "dataset.empty.description": "データセットをインポートしてこのベンチマークを構築してください", + "dataset.empty.title": "まだデータセットがありません", + "dataset.evalMode.hint": "デフォルトの評価モード(テストケースレベルで上書き可能)", + "dataset.import.category": "カテゴリ", + "dataset.import.categoryDesc": "グループ化のための分類ラベル", + "dataset.import.choices": "選択肢", + "dataset.import.choicesDesc": "複数選択肢のオプション", + "dataset.import.confirm": "インポート", + "dataset.import.error": "データセットのインポートに失敗しました", + "dataset.import.expected": "期待される回答", + "dataset.import.expectedDelimiter": "回答区切り文字", + "dataset.import.expectedDelimiter.desc": "回答の区切り文字", + "dataset.import.expectedDelimiter.placeholder": "例: | または ,", + "dataset.import.expectedDesc": "比較する正解", + "dataset.import.fieldMapping": "フィールドマッピング", + "dataset.import.fieldMapping.desc": "「入力」列は必須です", + "dataset.import.hideSkipped": "スキップされた列を非表示", + "dataset.import.ignore": "スキップ", + "dataset.import.ignoreDesc": "この列をインポートしない", + "dataset.import.input": "入力", + "dataset.import.inputDesc": "モデルに送信される質問またはプロンプト", + "dataset.import.metadata": "メタデータ", + "dataset.import.metadataDesc": "追加情報(そのまま保存)", + "dataset.import.next": "次へ", + "dataset.import.parseError": "ファイルの解析に失敗しました", + "dataset.import.parsing": "ファイルを解析中...", + "dataset.import.prev": "前へ", + "dataset.import.preview": "データプレビュー", + "dataset.import.preview.desc": "マッピングが正しいことを確認してからインポートしてください。", + "dataset.import.preview.rows": "合計 {{count}} 行", + "dataset.import.sortOrder": "アイテム番号", + "dataset.import.sortOrderDesc": "参照用の質問/アイテムID", + "dataset.import.step.mapping": "フィールドをマッピング", + "dataset.import.step.preview": "プレビュー", + "dataset.import.step.upload": "ファイルをアップロード", + "dataset.import.success": "{{count}} テストケースが正常にインポートされました", + "dataset.import.title": "データセットをインポート", + "dataset.import.upload.hint": "CSV、XLSX、JSON、JSONL をサポート", + "dataset.import.upload.text": "クリックまたはファイルをドラッグしてアップロード", + "dataset.import.uploading": "アップロード中...", + "dataset.switchDataset": "データセットを切り替え", + "difficulty.easy": "簡単", + "difficulty.hard": "難しい", + "difficulty.medium": "中程度", + "evalMode.contains": "部分一致", + "evalMode.contains.desc": "出力に期待されるテキストが含まれている必要があります", + "evalMode.equals": "完全一致", + "evalMode.equals.desc": "出力が期待されるものと完全に一致する必要があります", + "evalMode.label": "評価モード", + "evalMode.llm-rubric": "LLM審査", + "evalMode.llm-rubric.desc": "LLMを使用して出力品質を評価", + "evalMode.placeholder": "評価モードを選択", + "evalMode.prompt.label": "審査プロンプト", + "evalMode.prompt.placeholder": "LLM審査用の評価基準またはプロンプトを入力", + "evalMode.rubric": "ルーブリックスコアリング", + "evalMode.rubric.desc": "重み付け基準を使用してベンチマークルーブリックで出力をスコアリング", + "overview.createBenchmark": "ベンチマークを作成", + "overview.importDataset": "データセットをインポート", + "overview.subtitle": "データセットを通じてAIエージェントをベンチマークおよび評価", + "overview.title": "評価ラボ", + "run.actions.abort": "中止", + "run.actions.abort.confirm": "この評価を中止してもよろしいですか?", + "run.actions.create": "新しい評価", + "run.actions.delete": "削除", + "run.actions.delete.confirm": "この評価を削除してもよろしいですか?", + "run.actions.edit": "編集", + "run.actions.retryCase": "再試行", + "run.actions.retryErrors": "エラーを再試行", + "run.actions.retryErrors.confirm": "これにより、すべてのエラーおよびタイムアウトケースが再実行されます。合格および失敗したケースには影響しません。", + "run.actions.run": "実行", + "run.actions.start": "開始", + "run.actions.start.confirm": "この評価を開始してもよろしいですか?", + "run.chart.duration": "時間 (秒)", + "run.chart.error": "エラー", + "run.chart.fail": "失敗", + "run.chart.latencyDistribution": "レイテンシ分布", + "run.chart.latencyTokenDistribution": "レイテンシ / トークン分布", + "run.chart.pass": "合格", + "run.chart.passFailError": "合格 / 失敗 / エラー", + "run.chart.tokens": "トークン", + "run.config.agentId": "エージェント", + "run.config.concurrency": "同時実行数", + "run.config.judgeModel": "審査モデル", + "run.config.k": "実行回数 (K)", + "run.config.k.hint": "各テストケースを {{k}} 回実行して pass@{{k}}/pass^{{k}} メトリクスを取得", + "run.config.maxSteps": "最大ステップ数", + "run.config.maxSteps.hint": "エージェントによる各LLM呼び出しまたはツール呼び出しが1ステップとカウントされます", + "run.config.model": "モデル", + "run.config.temperature": "温度", + "run.config.timeout": "タイムアウト", + "run.config.timeout.unit": "分", + "run.create.advanced": "詳細設定", + "run.create.agent": "エージェント", + "run.create.agent.placeholder": "エージェントを選択", + "run.create.agent.required": "エージェントを選択してください", + "run.create.caseCount": "{{count}} ケース", + "run.create.confirm": "作成して開始", + "run.create.createOnly": "作成のみ", + "run.create.dataset": "データセット", + "run.create.dataset.placeholder": "データセットを選択", + "run.create.dataset.required": "データセットを選択してください", + "run.create.name": "実行名", + "run.create.name.placeholder": "この実行の名前を入力", + "run.create.name.required": "実行名を入力してください", + "run.create.name.useTimestamp": "現在の時刻を名前として使用", + "run.create.openAgent": "新しいウィンドウでエージェントを開く", + "run.create.title": "新しい評価", + "run.create.titleWithDataset": "\"{{dataset}}\" の新しい評価", + "run.detail.agent": "エージェント", + "run.detail.agent.none": "指定なし", + "run.detail.agent.unnamed": "名前のないエージェント", + "run.detail.backToBenchmark": "ベンチマークに戻る", + "run.detail.caseResults": "評価詳細", + "run.detail.config": "評価設定", + "run.detail.configSnapshot": "設定スナップショット", + "run.detail.dataset": "データセット", + "run.detail.model": "モデル", + "run.detail.overview": "概要", + "run.detail.progress": "進行状況", + "run.detail.progressCases": "ケース", + "run.detail.report": "評価サマリー", + "run.edit.error": "評価の更新に失敗しました", + "run.edit.success": "評価が正常に更新されました", + "run.edit.title": "評価を編集", + "run.empty.description": "このデータセットで最初の評価実行を開始してください", + "run.empty.descriptionBenchmark": "このベンチマークで最初の評価実行を開始してください", + "run.empty.title": "まだ実行がありません", + "run.filter.active": "アクティブ", + "run.filter.empty": "現在のフィルターに一致する実行はありません。", + "run.idle.hint": "開始をクリックして評価を開始してください", + "run.metrics.avgScore": "平均スコア", + "run.metrics.cost": "コスト", + "run.metrics.duration": "時間", + "run.metrics.errorCases": "エラー", + "run.metrics.evaluated": "{{count}} 評価済み", + "run.metrics.passRate": "合格率", + "run.metrics.perCase": "/ ケース", + "run.metrics.tokens": "トークン", + "run.metrics.totalDuration": "累積", + "run.pending.hint": "評価がキューに入り、開始を待っています...", + "run.running.hint": "評価が実行中です。結果はまもなく表示されます...", + "run.status.aborted": "中止", + "run.status.completed": "完了", + "run.status.error": "実行エラー", + "run.status.failed": "失敗", + "run.status.idle": "アイドル", + "run.status.pending": "保留中", + "run.status.running": "実行中", + "run.status.timeout": "タイムアウト", + "sidebar.benchmarks": "ベンチマーク", + "sidebar.dashboard": "ダッシュボード", + "sidebar.datasets": "データセット", + "sidebar.runs": "実行", + "table.columns.avgCost": "平均コスト", + "table.columns.category": "カテゴリ", + "table.columns.cost": "コスト", + "table.columns.difficulty": "難易度", + "table.columns.duration": "時間", + "table.columns.evalMode": "評価モード", + "table.columns.expected": "期待される回答", + "table.columns.input": "入力", + "table.columns.score": "スコア", + "table.columns.status": "ステータス", + "table.columns.steps": "ステップ", + "table.columns.tags": "タグ", + "table.columns.tokens": "トークン", + "table.columns.totalCost": "総コスト", + "table.filter.all": "すべて", + "table.filter.error": "実行エラー", + "table.filter.failed": "失敗", + "table.filter.passed": "合格", + "table.filter.running": "実行中", + "table.search.placeholder": "ケースを検索...", + "table.total": "合計 {{count}}", + "testCase.actions.add": "テストケースを追加", + "testCase.actions.import": "テストケースをインポート", + "testCase.create.advanced": "詳細オプション", + "testCase.create.difficulty.label": "難易度", + "testCase.create.error": "テストケースの追加に失敗しました", + "testCase.create.expected.label": "期待される出力", + "testCase.create.expected.placeholder": "期待される回答を入力", + "testCase.create.expected.required": "期待される出力を入力してください", + "testCase.create.input.label": "入力", + "testCase.create.input.placeholder": "テストケースの入力または質問を入力", + "testCase.create.success": "テストケースが正常に追加されました", + "testCase.create.tags.label": "タグ", + "testCase.create.tags.placeholder": "カンマ区切りのタグ(任意)", + "testCase.create.title": "テストケースを追加", + "testCase.delete.confirm": "このテストケースを削除してもよろしいですか?", + "testCase.delete.error": "テストケースの削除に失敗しました", + "testCase.delete.success": "テストケースが削除されました", + "testCase.edit.error": "テストケースの更新に失敗しました", + "testCase.edit.success": "テストケースが正常に更新されました", + "testCase.edit.title": "テストケースを編集", + "testCase.empty.description": "このデータセットにテストケースをインポートまたは手動で追加してください", + "testCase.empty.title": "まだテストケースがありません", + "testCase.preview.expected": "期待される出力", + "testCase.preview.input": "入力", + "testCase.preview.title": "テストケースプレビュー", + "testCase.search.placeholder": "ケースを検索..." +} diff --git a/locales/ja-JP/home.json b/locales/ja-JP/home.json index 26b4f16a96..554b34acd0 100644 --- a/locales/ja-JP/home.json +++ b/locales/ja-JP/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "リサーチ", "starter.developing": "開発中", "starter.image": "イラスト作成", + "starter.nanoBanana2": "🍌 ナノバナナ2", "starter.seedance": "シーダンス 2.0", "starter.write": "執筆" } diff --git a/locales/ja-JP/modelProvider.json b/locales/ja-JP/modelProvider.json index eff3b2185a..5188c878dd 100644 --- a/locales/ja-JP/modelProvider.json +++ b/locales/ja-JP/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Geminiシリーズ向け;思考に使う予算を制御します。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Previewモデル向け;思考の深さを制御します。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Previewモデル向け;思考の深さを制御します。", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Gemini 3.1 Proプレビューモデル用; 思考の深さを低/中/高レベルで制御します。", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Geminiシリーズ向け;URLコンテキストの提供をサポートします。", "providerModels.item.modelConfig.extendParams.placeholder": "有効にする拡張パラメータを選択", "providerModels.item.modelConfig.extendParams.previewFallback": "プレビューを利用できません", diff --git a/locales/ja-JP/models.json b/locales/ja-JP/models.json index 2b43dc1ca4..2b268e913f 100644 --- a/locales/ja-JP/models.json +++ b/locales/ja-JP/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turboは、優れた意味理解と生成効率を備えた高性能な計算・対話能力を提供し、企業や開発者に最適です。", "360gpt2-o1.description": "360gpt2-o1は、ツリー探索と内省メカニズム、強化学習を組み合わせて思考の連鎖を構築し、自己内省と自己修正を可能にします。", "360gpt2-pro.description": "360GPT2 Proは、360が開発した高度なNLPモデルで、創造的なタスクにおいて優れたテキスト生成と理解を実現し、複雑な変換やロールプレイにも対応します。", + "360zhinao2-o1.5.description": "360智脑の最強推論モデル。最強の能力を備え、ツール呼び出しと高度な推論の両方をサポートします。", "360zhinao2-o1.description": "360zhinao2-o1は、ツリー探索と内省メカニズム、強化学習を通じて思考の連鎖を構築し、自己内省と自己修正を可能にします。", + "360zhinao3-o1.5.description": "360智脳次世代推論モデル。", "4.0Ultra.description": "Spark UltraはSparkシリーズで最も強力なモデルであり、テキスト理解と要約を強化し、ウェブ検索機能も向上。職場の生産性と正確な応答を高める包括的なソリューションとして、インテリジェント製品のリーダー的存在です。", "AnimeSharp.description": "AnimeSharp(別名「4x-AnimeSharp」)は、Kim2091によるESRGANをベースにしたオープンソースの超解像モデルで、アニメスタイルの画像の拡大とシャープ化に特化しています。2022年2月に「4x-TextSharpV1」から改名され、当初はテキスト画像にも対応していましたが、アニメコンテンツ向けに最適化されています。", "Baichuan2-Turbo.description": "検索拡張を活用して、モデルをドメイン知識やウェブ知識と接続。PDF/WordのアップロードやURL入力に対応し、タイムリーで包括的な情報取得と専門的で正確な出力を実現します。", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Visionは、最先端のマルチモーダルモデルで、言語、テキスト、ビジョンの主要ベンチマークで高い性能を発揮します。この8Bバージョンは低レイテンシと高性能を重視しています。", "charglm-3.description": "CharGLM-3は、ロールプレイと感情的な対話を目的に設計されており、超長期のマルチターン記憶とパーソナライズされた会話をサポートします。", "charglm-4.description": "CharGLM-4は、ロールプレイと感情的な対話を目的に設計されており、超長期のマルチターン記憶とパーソナライズされた会話をサポートします。", - "chatgpt-4o-latest.description": "ChatGPT-4oは、リアルタイムで更新される動的モデルで、顧客サポート、教育、技術支援などの大規模ユースケースにおいて、優れた理解力と生成能力を兼ね備えています。", + "chatgpt-4o-latest.description": "ChatGPT-4oはリアルタイムで更新される動的モデルです。強力な言語理解と生成能力を組み合わせ、カスタマーサポート、教育、技術支援などの大規模なユースケースに対応します。", "claude-2.0.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。", "claude-2.1.description": "Claude 2は、200Kトークンのコンテキスト、幻覚の削減、システムプロンプト、ツール呼び出しの新機能など、エンタープライズ向けの主要な改善を提供します。", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku は、Anthropic による次世代モデルの中で最も高速であり、さまざまなスキルにおいて向上し、従来のフラッグシップモデル Claude 3 Opus を多くのベンチマークで上回ります。", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)は、深い言語理解と対話能力を提供する革新的なモデルです。", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 は次世代の推論モデルで、複雑な推論と連想思考に優れ、深い分析タスクに対応します。", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2は次世代推論モデルで、複雑な推論と連鎖的思考能力が強化されています。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 は DeepSeekMoE-27B をベースにした MoE 視覚言語モデルで、スパースアクティベーションにより、4.5B のアクティブパラメータで高性能を実現しています。視覚 QA、OCR、文書・表・チャート理解、視覚的グラウンディングに優れています。", "deepseek-chat.description": "DeepSeek V3.2 は、日常的な質問応答やエージェントタスクにおいて、推論力と出力の長さのバランスを実現します。公開ベンチマークでは GPT-5 レベルに達し、ツール使用に思考を統合した初のモデルとして、オープンソースエージェント評価で高評価を得ています。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B は 2T トークン(コード 87%、中英テキスト 13%)で学習されたコード言語モデルです。16K のコンテキストウィンドウと Fill-in-the-Middle タスクを導入し、プロジェクトレベルのコード補完とスニペット補完を提供します。", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1は、DeepSeekの新しいハイブリッド推論モデルで、思考モードと非思考モードの両方をサポートし、DeepSeek-R1-0528よりも高い思考効率を実現します。事後学習の最適化により、エージェントツールの使用とタスク処理能力が大幅に向上。128kのコンテキストウィンドウと最大64kの出力トークンに対応します。", "deepseek-v3.1:671b.description": "DeepSeek V3.1は、複雑な推論とChain-of-Thoughtに優れた次世代推論モデルで、深い分析を必要とするタスクに適しています。", "deepseek-v3.2-exp.description": "deepseek-v3.2-expは、長文テキストの学習と推論効率を向上させるスパースアテンションを導入し、deepseek-v3.1よりも低価格で提供されます。", + "deepseek-v3.2-speciale.description": "高度に複雑なタスクにおいて、Specialeモデルは標準バージョンを大幅に上回る性能を発揮しますが、トークン消費が多く、コストが高くなります。現在、DeepSeek-V3.2-Specialeは研究用途のみに提供されており、ツール呼び出しをサポートせず、日常会話や執筆タスク向けに最適化されていません。", "deepseek-v3.2-think.description": "DeepSeek V3.2 Thinkは、長い思考の連鎖に対応した完全な深層思考モデルです。", "deepseek-v3.2.description": "DeepSeek-V3.2は、DeepSeekが初めて開発したハイブリッド推論モデルで、思考をツールの使用に統合しています。効率的なアーキテクチャにより計算コストを削減し、大規模な強化学習で能力を強化、大量の合成タスクデータで汎化性能を高めています。これら3つの要素の組み合わせにより、GPT-5-Highに匹敵する性能を実現しながら、出力の長さを大幅に短縮し、計算負荷とユーザーの待機時間を大きく削減しています。", "deepseek-v3.description": "DeepSeek-V3は、671Bの総パラメータとトークンごとに37Bがアクティブな強力なMoEモデルです。", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。128kのコンテキストウィンドウと最大16kの出力トークンに対応します。", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro はアップグレードされたマルチモーダルモデルで、あらゆる解像度や極端なアスペクト比の画像に対応し、視覚的推論、文書認識、細部理解、指示の追従性を強化します。", - "doubao-lite-128k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。128kのコンテキストウィンドウで推論とファインチューニングをサポートします。", "doubao-lite-32k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。", - "doubao-lite-4k.description": "超高速応答と高いコストパフォーマンスを実現し、さまざまなシナリオに柔軟に対応可能です。4kのコンテキストウィンドウで推論とファインチューニングをサポートします。", - "doubao-pro-256k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。256kのコンテキストウィンドウで推論とファインチューニングをサポートします。", "doubao-pro-32k.description": "複雑なタスクに最適な最高性能のフラッグシップモデルで、参照型QA、要約、創作、テキスト分類、ロールプレイにおいて優れた成果を発揮します。32kのコンテキストウィンドウで推論とファインチューニングをサポートします。", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash は、TPOTが10msと非常に低い超高速マルチモーダル深層推論モデルです。テキストと画像の両方に対応し、テキスト理解では従来のliteモデルを上回り、視覚では競合のproモデルに匹敵します。256kのコンテキストウィンドウと最大16kの出力トークンに対応します。", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite は、新しいマルチモーダル深層推論モデルで、推論の強度(最小、低、中、高)を調整可能です。一般的なタスクにおいて高いコストパフォーマンスを発揮し、最大256kのコンテキストウィンドウに対応します。", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed の Doubao 画像モデルは、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストによる画像編集をサポートし、出力サイズは長辺512〜1536の範囲に対応します。", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。", "doubao-seedream-4-0-250828.description": "Seedream 4.0 は ByteDance Seed による画像生成モデルで、テキストと画像入力に対応し、高品質かつ制御性の高い画像生成を実現します。テキストプロンプトから画像を生成します。", - "doubao-vision-lite-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。", - "doubao-vision-pro-32k.description": "Doubao-vision は、画像理解と推論に優れ、正確な指示追従が可能な Doubao のマルチモーダルモデルです。画像とテキストの抽出や画像ベースの推論タスクにおいて高い性能を発揮し、より複雑で広範な視覚QAシナリオを実現します。", + "doubao-seedream-4-5-251128.description": "Seedream 4.5はByteDanceの最新マルチモーダル画像モデルで、テキストから画像生成、画像間変換、バッチ画像生成機能を統合し、常識と推論能力を組み込んでいます。前バージョン4.0と比較して、生成品質が大幅に向上し、編集の一貫性や複数画像の融合が改善されています。視覚的な詳細の制御がより正確になり、小さなテキストや顔を自然に生成し、レイアウトや色彩の調和が向上し、全体的な美観が強化されています。", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-liteはByteDanceの最新画像生成モデルです。初めてオンライン検索機能を統合し、リアルタイムのウェブ情報を取り入れることで生成画像のタイムリー性を向上させています。モデルの知能もアップグレードされ、複雑な指示や視覚コンテンツを正確に解釈できるようになりました。また、専門的なシナリオでのグローバルな知識カバレッジ、一貫性、生成品質が向上し、企業レベルの視覚制作ニーズにより適合しています。", "emohaa.description": "Emohaa は、専門的なカウンセリング能力を備えたメンタルヘルスモデルで、ユーザーが感情的な問題を理解するのを支援します。", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B は、ローカルおよびカスタマイズ展開に適した軽量なオープンソースモデルです。", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinkingは、21Bパラメータと3Bアクティブパラメータを持つテキストMoE(Mixture-of-Experts)ポストトレーニングモデルで、推論の質と深さが大幅に向上しています。", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B は、理解力と生成力を強化した大規模パラメータのオープンソースモデルです。", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B は、Baidu ERNIE による超大規模 MoE モデルであり、優れた推論能力を備えています。", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview は、ERNIE 4.5 の評価用に設計された 8K コンテキストプレビューモデルです。", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K は、レイテンシーとコストに敏感なシナリオに対応した軽量高性能モデルです。", "ernie-novel-8k.description": "ERNIE Novel 8K は、複数キャラクターによる長編小説や IP プロットの生成に特化しています。", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K は、大規模なオンラインサービスや企業アプリケーション向けの高同時接続・高価値モデルです。", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Previewは、複雑な推論とマルチターンチャットに対応する高速思考モデルです。", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K は、複雑な推論やマルチターン対話に対応した 32K コンテキストの高速思考モデルです。", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview は、評価およびテスト用の思考モデルプレビューです。", + "ernie-x1.1.description": "ERNIE X1.1は評価とテスト用の思考モデルプレビューです。", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 は、ByteDance の Seed チームによって開発されたモデルで、複数画像の編集と合成に対応。被写体の一貫性、指示の正確な追従、空間的論理の理解、美的表現、ポスターレイアウトやロゴデザインなど、高精度なテキストと画像のレンダリングを実現します。", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 は、ByteDance の Seed チームによって開発され、テキストと画像の入力に対応し、プロンプトから高品質かつ高い制御性を持つ画像生成を可能にします。", "fal-ai/flux-kontext/dev.description": "FLUX.1 モデルは画像編集に特化しており、テキストと画像の入力に対応しています。", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite のプレビューリリース(2025年9月25日)", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite は、Google による最小かつ最もコストパフォーマンスに優れたモデルで、大規模利用に適しています。", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview は、Google によるフル機能を備えた最もコスト効率の高いモデルです。", - "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash のプレビューリリース(2025年9月25日)", "gemini-2.5-flash.description": "Gemini 2.5 Flash は、Google によるフル機能を備えた最もコスト効率の高いモデルです。", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview は、Google による最も高度な推論モデルで、コード、数学、STEM 問題に対する推論や、大規模なデータセット、コードベース、文書の分析に対応します。", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルで、マルチモーダル対話にも対応しています。", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)は、Google による画像生成モデルであり、マルチモーダルチャットにも対応しています。", "gemini-3-pro-preview.description": "Gemini 3 Pro は、Google による最も強力なエージェントおよびバイブコーディングモデルで、最先端の推論に加え、より豊かなビジュアルと深い対話を実現します。", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、フラッシュ速度でプロレベルの画像品質を提供し、マルチモーダルチャットをサポートします。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)は、フラッシュ速度でプロレベルの画像品質を提供し、マルチモーダルチャットをサポートします。", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Previewは、Gemini 3 Proの推論能力を強化し、中程度の思考レベルサポートを追加しています。", "gemini-flash-latest.description": "Gemini Flash の最新リリース", "gemini-flash-lite-latest.description": "Gemini Flash-Lite の最新リリース", "gemini-pro-latest.description": "Gemini Pro の最新リリース", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus は、動画や複数画像の理解に対応し、マルチモーダルタスクに適しています。", "glm-4v-plus.description": "GLM-4V-Plus は、動画や複数画像の理解に対応し、マルチモーダルタスクに適しています。", "glm-4v.description": "GLM-4V は、視覚タスクにおける画像理解と推論に優れた性能を発揮します。", - "glm-5.description": "Z.aiによる強力な推論とエージェントモデルで、744Bの総パラメータ(40Bアクティブ)を備え、複雑なシステム工学と長期間のタスクに対応。", + "glm-5.description": "GLMシリーズは、Zhipu AIによるエージェント向けのハイブリッド推論モデルで、思考モードと非思考モードを備えています。", "glm-z1-air.description": "深い推論が求められるタスクにおいて強力な推論能力を発揮するモデルです。", "glm-z1-airx.description": "高品質な推論を超高速で実現します。", "glm-z1-flash.description": "GLM-Z1 シリーズは、論理、数学、プログラミングにおいて優れた複雑推論能力を発揮します。", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Grok 4 Fast をリリースしました。コスト効率の高い推論モデルにおける最新の進展です。", "grok-4.description": "最新かつ最強のフラッグシップモデルで、自然言語処理、数学、推論に優れたオールラウンダーです。", "grok-code-fast-1.description": "grok-code-fast-1 をリリースできることを嬉しく思います。このモデルは、高速かつコスト効率に優れた推論モデルで、エージェント型コーディングにおいて卓越した性能を発揮します。", + "grok-imagine-image-pro.description": "テキストプロンプトから画像を生成し、自然言語で既存の画像を編集したり、マルチターン会話を通じて画像を反復的に改良します。", + "grok-imagine-image.description": "テキストプロンプトから画像を生成し、自然言語で既存の画像を編集したり、マルチターン会話を通じて画像を反復的に改良します。", "groq/compound-mini.description": "Compound-mini は、GroqCloud 上でサポートされる公開モデルを活用した複合 AI システムで、ユーザーの質問に対してツールを知的かつ選択的に使用して応答します。", "groq/compound.description": "Compound は、GroqCloud 上でサポートされる複数の公開モデルを活用した複合 AI システムで、ユーザーの質問に対してツールを知的かつ選択的に使用して応答します。", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B は、複数のトップモデルを統合して構築された創造的かつ知的な言語モデルです。", + "hunyuan-2.0-instruct-20251111.description": "リリース機能: モデルベースがTurboSから**Hunyuan 2.0**にアップグレードされ、能力が全面的に向上しました。指示追従、マルチターンおよび長文テキスト理解、文学創作、知識の正確性、コーディング、推論能力が大幅に強化されています。", + "hunyuan-2.0-thinking-20251109.description": "リリース機能: モデルベースがTurboSから**Hunyuan 2.0**にアップグレードされ、能力が全面的に向上しました。複雑な指示の追従、マルチターンおよび長文テキストの理解、コード処理、エージェントとしての操作、推論タスクの実行能力が大幅に強化されています。", "hunyuan-a13b.description": "Hunyuan による初のハイブリッド推論モデルで、hunyuan-standard-256K(総パラメータ数 80B、アクティブ 13B)からアップグレードされました。デフォルトでは遅い思考を行い、パラメータやプレフィックス /no_think により高速/低速の切り替えが可能です。前世代と比べて、特に数学、科学、長文理解、エージェントタスクにおいて全体的な能力が向上しています。", - "hunyuan-code.description": "200B の高品質コードと 6 か月の SFT によりトレーニングされた最新のコード生成モデルで、コンテキストは 8K に拡張されています。5 つの言語で自動ベンチマークのトップにランクインし、10 の評価基準で人間評価でも高評価を得ています。", - "hunyuan-functioncall.description": "高品質な関数呼び出しデータでトレーニングされた最新の MoE FunctionCall モデルで、32K のコンテキストウィンドウを備え、さまざまな次元でベンチマークのトップに立っています。", - "hunyuan-large-longcontext.description": "要約や質問応答などの長文ドキュメントタスクに優れており、一般的な生成タスクにも対応します。複雑で詳細なコンテンツに対する長文分析と生成に強みがあります。", - "hunyuan-large-vision.description": "Hunyuan Large をベースにトレーニングされた視覚と言語の統合モデルで、任意の解像度での複数画像+テキスト入力をサポートし、多言語の視覚理解を向上させます。", - "hunyuan-large.description": "Hunyuan-large は、総パラメータ数約 389B、アクティブ約 52B を持つ、Transformer アーキテクチャにおける最大かつ最強のオープン MoE モデルです。", - "hunyuan-lite-vision.description": "最新の 7B マルチモーダルモデルで、32K のコンテキストウィンドウを備え、中国語/英語のマルチモーダルチャット、物体認識、ドキュメント表理解、マルチモーダル数学に対応し、複数のベンチマークで 7B モデルを上回ります。", + "hunyuan-code.description": "Hunyuanの最新コードモデルは、200Bの高品質コードデータと6か月のSFTデータでトレーニングされ、8Kコンテキストを備えています。自動コードベンチマークおよび5つの言語における専門家の人間評価で上位にランクされています。", + "hunyuan-functioncall.description": "Hunyuanの最新MoE FunctionCallモデルは、高品質なツール呼び出しデータでトレーニングされ、32Kコンテキストウィンドウを備え、さまざまな次元でのベンチマークでリードしています。", "hunyuan-lite.description": "MoE アーキテクチャにアップグレードされ、256K のコンテキストウィンドウを備え、NLP、コード、数学、業界ベンチマークにおいて多くのオープンモデルをリードしています。", "hunyuan-pro.description": "1 兆パラメータの MOE-32K 長文コンテキストモデルで、ベンチマークをリードし、複雑な指示や推論、高度な数学、関数呼び出しに強く、多言語翻訳、金融、法律、医療分野に最適化されています。", - "hunyuan-role.description": "最新のロールプレイモデルで、ロールプレイ用データセットで公式にファインチューニングされ、ロールプレイシナリオにおけるベースライン性能が向上しています。", - "hunyuan-standard-256K.description": "改良されたルーティングにより、負荷分散とエキスパートの崩壊を軽減。長文コンテキストで 99.9% の needle-in-a-haystack を達成。MOE-256K によりコンテキスト長と品質がさらに向上。", - "hunyuan-standard-vision.description": "最新のマルチモーダルモデルで、多言語応答と中国語/英語のバランスの取れた能力を備えています。", - "hunyuan-standard.description": "改良されたルーティングにより、負荷分散とエキスパートの崩壊を軽減。長文コンテキストで 99.9% の needle-in-a-haystack を達成。MOE-32K により長文入力への対応と高い価値を提供します。", - "hunyuan-t1-20250321.description": "芸術とSTEMの能力をバランスよく育成し、長文情報の把握に優れています。数学、論理、科学、コードの問題に対して、難易度を問わず推論による回答をサポートします。", - "hunyuan-t1-20250403.description": "プロジェクトレベルのコード生成と文章品質を向上させ、複数ターンにわたるトピック理解とToB指示の遵守を強化。単語レベルの理解力を高め、簡体字/繁体字や中英混在出力の問題を軽減します。", - "hunyuan-t1-20250529.description": "創造的な文章作成能力を向上させ、フロントエンドのコーディング、数学、論理的推論を強化し、指示の遵守能力を高めます。", - "hunyuan-t1-20250711.description": "難解な数学、論理、コーディング能力を大幅に向上させ、出力の安定性を高め、長文処理能力を強化します。", + "hunyuan-role.description": "Hunyuanの最新ロールプレイモデルは、ロールプレイデータで正式にファインチューニングされ、ロールプレイシナリオでの基本性能が強化されています。", + "hunyuan-standard-256K.description": "改良されたルーティングを使用して負荷分散とエキスパート崩壊を軽減します。長文の「干し草の中の針」検索が99.9%に達します。MOE-256Kは長さと品質をさらに押し広げ、入力長を大幅に拡大します。", + "hunyuan-standard.description": "改良されたルーティングを使用して負荷分散とエキスパート崩壊を軽減します。長文の「干し草の中の針」検索が99.9%に達します。MOE-32Kは、長文入力の品質と価格のバランスを取りながら、より良い価値を提供します。", "hunyuan-t1-latest.description": "難解な数学、複雑な推論、難易度の高いコーディング、指示の遵守、創造的な文章品質において、スローシンキングモデルの性能を大幅に向上させます。", - "hunyuan-t1-vision-20250619.description": "最新のt1-visionマルチモーダル深層推論モデルで、ネイティブな思考連鎖を備え、従来のデフォルトバージョンと比べて大幅に改善されています。", "hunyuan-t1-vision-20250916.description": "最新のt1-vision深層推論モデルで、VQA、視覚的グラウンディング、OCR、チャート、写真問題の解決、画像ベースの創作において大幅な改善があり、英語および低リソース言語の対応力も強化されています。", - "hunyuan-turbo-20241223.description": "指示スケーリングを強化して汎化性能を向上させ、数学/コード/論理推論を大幅に改善。単語レベルの理解力と文章品質も向上しています。", - "hunyuan-turbo-latest.description": "NLP理解、文章生成、チャット、QA、翻訳、各種ドメインにおける全体的な体験を改善。人間らしい応答、曖昧な意図の明確化、単語解析の向上、創造性と対話性の強化、マルチターン会話の性能向上を実現します。", - "hunyuan-turbo-vision.description": "新しいMoEアーキテクチャを採用した次世代のビジョン・ランゲージフラッグシップモデルで、認識、コンテンツ生成、知識QA、分析的推論において広範な改善が施されています。", "hunyuan-turbo.description": "Hunyuanの次世代LLMのプレビュー版で、新しいMoEアーキテクチャを採用し、hunyuan-proよりも高速な推論と強力な成果を提供します。", - "hunyuan-turbos-20250313.description": "数学の解答スタイルを統一し、マルチターンの数学QAを強化。文章スタイルを洗練し、AIらしさを抑えて自然な表現を実現します。", - "hunyuan-turbos-20250416.description": "事前学習ベースをアップグレードし、指示理解と遵守を改善。アライメントにより数学、コード、論理、科学の性能を強化。文章品質、読解力、翻訳精度、知識QAを向上させ、特にマルチターン理解においてエージェント能力を強化します。", - "hunyuan-turbos-20250604.description": "事前学習ベースをアップグレードし、文章生成と読解力を改善。コードとSTEM分野で大幅な性能向上を実現し、複雑な指示の遵守能力も強化されています。", - "hunyuan-turbos-20250926.description": "事前学習データの品質と後処理戦略を改善し、エージェント、英語/低リソース言語、指示遵守、コード、STEM能力を向上させます。", "hunyuan-turbos-latest.description": "最新のHunyuan TurboSフラッグシップモデルで、より強力な推論能力と全体的な体験の向上を実現します。", - "hunyuan-turbos-longtext-128k-20250325.description": "要約やQAなどの長文ドキュメントタスクに優れ、一般的な生成にも対応。複雑で詳細な内容に対する長文分析と生成に強みを持ちます。", - "hunyuan-turbos-role-plus.description": "最新のロールプレイモデルで、ロールプレイ用データセットで正式にファインチューニングされ、ロールプレイシナリオにおけるベースライン性能が向上しています。", - "hunyuan-turbos-vision-20250619.description": "最新のTurboSビジョン・ランゲージフラッグシップモデルで、エンティティ認識、知識QA、コピーライティング、写真ベースの問題解決などの画像とテキストのタスクにおいて大幅な性能向上を実現します。", - "hunyuan-turbos-vision.description": "最新のTurboSをベースにした次世代ビジョン・ランゲージフラッグシップモデルで、エンティティ認識、知識QA、コピーライティング、写真ベースの問題解決などの画像とテキストの理解タスクに特化しています。", - "hunyuan-vision-1.5-instruct.description": "テキストTurboS基盤に基づく画像→テキストの高速思考モデルで、前バージョンと比べて画像の基本認識、画像分析・推論の各面で明確な性能向上を実現しています。", - "hunyuan-vision.description": "画像+テキスト入力に対応し、テキストを生成する最新のマルチモーダルモデルです。", + "hunyuan-vision-1.5-instruct.description": "TurboSテキストベースを基にした高速思考の画像からテキストへのモデルで、基本的な画像認識と画像分析推論において前バージョンより顕著な改善を示します。", + "hunyuan-vision.description": "Hunyuanの最新マルチモーダルモデルは、画像+テキスト入力をサポートし、テキストを生成します。", "image-01-live.description": "細部まで表現可能な画像生成モデルで、テキストから画像生成およびスタイルの制御プリセットに対応しています。", "image-01.description": "細部まで表現可能な新しい画像生成モデルで、テキストから画像、画像から画像の生成に対応しています。", "imagen-4.0-fast-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズの高速版です。", "imagen-4.0-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズです。", - "imagen-4.0-generate-preview-06-06.description": "Imagen第4世代テキスト→画像モデルファミリーです。", "imagen-4.0-ultra-generate-001.description": "Imagen第4世代テキスト→画像モデルシリーズのUltraバージョンです。", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen第4世代テキスト→画像モデルのUltraバリアントです。", "inception/mercury-coder-small.description": "Mercury Coder Smallは、コード生成、デバッグ、リファクタリングに最適で、低遅延で動作します。", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0は、Ant GroupのBailingチームによるLing 2.0アーキテクチャの第3モデルです。MoE構造で、総パラメータ数は100B、トークンごとのアクティブパラメータは6.1B(埋め込みを除くと4.8B)です。軽量構成ながら、40Bの密モデルやさらに大きなMoEモデルと同等以上の性能を複数のベンチマークで発揮し、アーキテクチャと学習戦略による高効率を追求しています。", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0は、16Bの総パラメータを持ち、トークンごとのアクティブパラメータは1.4B(埋め込みを除くと789M)の高性能な小型MoE LLMです。高速生成が可能で、効率的なMoE設計と高品質な大規模学習データにより、10B未満の密モデルやより大きなMoEモデルに匹敵するトップクラスの性能を実現しています。", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T は、inclusionAI による 1 兆パラメータの MoE 推論モデルで、大規模な推論や研究タスクに適しています。", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 は、inclusionAI による Ring モデルのバリアントで、高スループット環境向けに速度とコスト効率を重視しています。", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 は、inclusionAI による高スループット軽量 MoE モデルで、並列処理に最適化されています。", + "intern-latest.description": "デフォルトでは、現在intern-s1-proに設定されている最新のInternシリーズモデルを指します。", + "intern-s1-mini.description": "科学的推論能力に優れた軽量マルチモーダル大規模モデル。", + "intern-s1-pro.description": "私たちは、最も高度なオープンソースのマルチモーダル推論モデルを発表しました。現在、全体的な性能においてトップのオープンソースマルチモーダル大規模言語モデルです。", + "intern-s1.description": "オープンソースのマルチモーダル推論モデルは、汎用能力が強力であるだけでなく、幅広い科学的タスクで最先端の性能を達成しています。", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat は、InternLM2 アーキテクチャに基づくオープンソースのチャットモデルです。7B モデルは中国語・英語の対話生成に特化しており、現代的なトレーニングにより流暢で知的な会話を実現します。カスタマーサポートやパーソナルアシスタントなど多様なチャットシナリオに適しています。", - "internlm2.5-latest.description": "多くの反復を経て安定した性能を維持するレガシーモデルです。7B および 20B のサイズがあり、1M コンテキストに対応し、指示追従やツール使用が強化されています。デフォルトでは最新の InternLM2.5 シリーズ(現在は internlm2.5-20b-chat)を使用します。", - "internlm3-latest.description": "サイズ帯でトップクラスの推論性能を誇る最新モデルシリーズです。デフォルトでは最新の InternLM3 シリーズ(現在は internlm3-8b-instruct)を使用します。", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO は、複雑な画像と言語の推論に対応するマルチモーダル事前学習モデルです。", - "internvl2.5-latest.description": "InternVL2.5 は、安定した高性能を維持しており、デフォルトでは最新の InternVL2.5 シリーズ(現在は internvl2.5-78b)を使用します。", "internvl3-14b.description": "InternVL3 14B は、性能とコストのバランスに優れた中規模マルチモーダルモデルです。", "internvl3-1b.description": "InternVL3 1B は、リソース制約のある環境向けの軽量マルチモーダルモデルです。", "internvl3-38b.description": "InternVL3 38B は、高精度な画像と言語の理解に対応する大規模オープンソースマルチモーダルモデルです。", - "internvl3-latest.description": "最新のマルチモーダルモデルで、画像と言語の理解や長文画像の把握に優れ、トップクラスのクローズドモデルに匹敵します。デフォルトでは最新の InternVL シリーズ(現在は internvl3-78b)を使用します。", + "internvl3.5-241b-a28b.description": "新たにリリースされたマルチモーダル大規模モデルは、画像とテキストの理解および長いシーケンスの画像理解能力を強化し、主要なクローズドソースモデルに匹敵する性能を達成しています。", + "internvl3.5-latest.description": "デフォルトでは、現在internvl3.5-241b-a28bに設定されているInternVL3.5シリーズの最新モデルを指します。", "irag-1.0.description": "ERNIE iRAG は、画像検索、画像と言語の検索、コンテンツ生成に対応する画像検索拡張生成モデルです。", "jamba-large.description": "Jamba Large は、複雑な企業向けタスクに対応する最も強力で高度なモデルです。", "jamba-mini.description": "Jamba Mini は、速度と品質のバランスに優れた、同クラスで最も効率的なモデルです。", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2は、コーディングやエージェントワークフローに特化して構築された高効率な大規模言語モデルです。", "minimax/minimax-m2.1.description": "MiniMax-M2.1は、コーディング、プロキシワークフロー、現代的なアプリ開発に最適化された軽量かつ最先端の大規模言語モデルで、より簡潔で明瞭な出力と高速な応答を提供します。", "minimax/minimax-m2.description": "MiniMax-M2 は、エンジニアリングシナリオにおけるコーディングとエージェントタスクに優れた高価値モデルです。", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1は、トップレベルのコーディングとエージェント性能のために構築されたコンパクトで高速、コスト効率の高いMoEモデルです。", "minimaxai/minimax-m2.description": "MiniMax-M2 は、230B 総パラメータ中 10B アクティブのコンパクトで高速、コスト効率の高い MoE モデルで、マルチファイル編集、コード実行・修正ループ、テスト検証、複雑なツールチェーンに優れた性能を発揮します。", "ministral-3b-latest.description": "Ministral 3Bは、Mistralの最上位エッジモデルです。", "ministral-8b-latest.description": "Ministral 8Bは、Mistralによる高コストパフォーマンスのエッジモデルです。", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-previewモデルは、256Kのコンテキストウィンドウをサポートし、エージェント的なコーディング能力が強化され、実用的で洗練されたフロントエンドコードと優れたコンテキスト理解を提供します。", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turboは、Kimi K2 Thinkingの高速バージョンで、深い推論能力を維持しながらレイテンシを大幅に低減します。", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinkingは、Moonshotによる深い推論タスク向けに最適化された推論モデルで、汎用的なエージェント機能を備えています。", + "moonshotai/kimi-k2.5.description": "Kimi K2.5は、これまでで最もインテリジェントなKimiモデルで、ネイティブのマルチモーダルアーキテクチャを備えています。", "moonshotai/kimi-k2.description": "Kimi K2は、Moonshot AIによる大規模MoEモデルで、総パラメータ1兆、1回のフォワードパスで32Bのアクティブパラメータを持ち、高度なツール使用、推論、コード合成などのエージェント機能に最適化されています。", "morph/morph-v3-fast.description": "Morphは、ClaudeやGPT-4oなどの先端モデルが提案したコード変更を既存ファイルに適用するための専用モデルで、FAST 4500+トークン/秒の速度で動作します。AIコーディングワークフローの最終ステップとして、16Kの入出力トークンをサポートします。", "morph/morph-v3-large.description": "Morphは、ClaudeやGPT-4oなどの先端モデルが提案したコード変更を既存ファイルに適用するための専用モデルで、FAST 2500+トークン/秒の速度で動作します。AIコーディングワークフローの最終ステップとして、16Kの入出力トークンをサポートします。", + "musesteamer-air-image.description": "musesteamer-air-imageは、Baiduの検索チームによって開発された画像生成モデルで、優れたコストパフォーマンスを提供します。ユーザーのプロンプトに基づいて、明確でアクション一貫性のある画像を迅速に生成し、ユーザーの説明を簡単にビジュアルに変換します。", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8Bは、Nous Hermes 2の最新版で、社内開発の最新データセットを使用しています。", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70Bは、NVIDIAがカスタマイズしたLLMで、応答の有用性を向上させるよう設計されています。Arena Hard、AlpacaEval 2 LC、GPT-4-Turbo MT-Benchでトップの成績を収め、2024年10月1日時点で3つの自動アライメントベンチマークすべてで1位を獲得しています。Llama-3.1-70B-Instructをベースに、RLHF(REINFORCE)、Llama-3.1-Nemotron-70B-Reward、HelpSteer2-Preferenceプロンプトでトレーニングされています。", "nvidia/llama-3.1-nemotron-51b-instruct.description": "高精度かつ高効率な言語モデルで、独自の特長を持ちます。", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "コンテキスト長、トピック、複雑さに応じて、Llama 3 70B Instruct、Claude 3.5 Sonnet(自己モデレート)、またはGPT-4oにルーティングされます。", "oswe-vscode-prime.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。", "oswe-vscode-secondary.description": "Raptor mini は、コード関連のタスクに最適化されたプレビューモデルです。", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2は、高い計算効率と優れた推論およびエージェント性能のバランスを取ったモデルです。", "perplexity/sonar-pro.description": "Perplexityの主力製品で、検索に基づいた高度なクエリやフォローアップに対応します。", "perplexity/sonar-reasoning-pro.description": "強化された検索機能を備えた高度な推論特化モデル。1リクエストあたり複数の検索クエリを含むCoT(思考の連鎖)を出力します。", "perplexity/sonar-reasoning.description": "詳細な検索に基づく説明を伴う思考の連鎖(CoT)を出力する推論特化モデルです。", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwenコードモデル。", "qwen-coder-turbo.description": "Qwenコードモデル。", "qwen-flash.description": "Qwenモデルの中で最速かつ最も低コスト。シンプルなタスクに最適です。", + "qwen-image-edit-max.description": "Qwen画像編集モデルは、複数画像の入力と出力をサポートし、画像内のテキスト編集、オブジェクトの追加、削除、移動、被写体のアクション変更、画像スタイルの転送、視覚的な詳細の強化を可能にします。", + "qwen-image-edit-plus.description": "Qwen画像編集モデルは、複数画像の入力と出力をサポートし、画像内のテキスト編集、オブジェクトの追加、削除、移動、被写体のアクション変更、画像スタイルの転送、視覚的な詳細の強化を可能にします。", "qwen-image-edit.description": "Qwen Image Editは、入力画像とテキストプロンプトに基づいて画像を編集する画像変換モデルで、精密な調整や創造的な変換が可能です。", + "qwen-image-max.description": "Qwen画像生成モデル(Maxシリーズ)は、Plusシリーズと比較してリアリズムと視覚的自然さを強化し、AI生成アーティファクトを効果的に削減します。人間の外見、テクスチャの詳細、テキストレンダリングにおいて優れた性能を示します。", + "qwen-image-plus.description": "幅広い芸術的スタイルをサポートし、特に画像内の複雑なテキストのレンダリングに優れ、統合された画像とテキストのレイアウトデザインを可能にします。", "qwen-image.description": "Qwen-Imageは、複数のアートスタイルに対応し、複雑なテキスト描画(特に中国語と英語)に強い汎用画像生成モデルです。複数行レイアウト、段落レベルのテキスト、細部までの描写に対応します。", "qwen-long.description": "超大規模なQwenモデルで、長文や複数文書にまたがるチャットに対応します。", "qwen-math-plus-latest.description": "Qwen Mathは、数学問題の解決に特化した言語モデルです。", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Qwen3ベースのオープンソースコードモデル。最新のqwen3-coder-30b-a3b-instructは、優れたコード生成性能と汎用能力を備え、自律的なプログラミングのためのツール使用や環境との対話に対応します。", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instructは、多言語プログラミングと複雑なコード理解に対応するフラッグシップのコードモデルです。", "qwen3-coder-flash.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。", + "qwen3-coder-next.description": "次世代Qwenコーダーは、複雑なマルチファイルコード生成、デバッグ、高スループットエージェントワークフローに最適化されています。強力なツール統合と推論性能の向上を目指して設計されています。", "qwen3-coder-plus.description": "Qwenコードモデル。最新のQwen3-Coderシリーズは、Qwen3をベースにしており、自律的なプログラミングのための強力なコードエージェント機能、ツール使用、環境との対話を提供します。優れたコード性能と堅実な汎用能力を備えています。", "qwen3-coder:480b.description": "エージェントおよびコーディングタスク向けのAlibabaの高性能長文コンテキストモデルです。", "qwen3-max-2026-01-23.description": "Qwen3 Maxモデルは、2.5シリーズに比べて汎用能力、中国語・英語理解、複雑な指示追従、主観的なオープンタスク、多言語対応、ツール利用において大幅な向上を実現し、幻覚の発生も抑制されています。最新のqwen3-maxは、qwen3-max-previewよりもエージェントプログラミングとツール利用が改善されており、分野別SOTAを達成し、より複雑なエージェントニーズに対応します。", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinkingは、詳細な視覚推論に対応するマルチモーダル思考モデルです。", "qwen3-vl-flash.description": "Qwen3 VL Flash:遅延に敏感または高トラフィックなリクエスト向けの軽量・高速推論モデルです。", "qwen3-vl-plus.description": "Qwen VLは、視覚理解を備えたテキスト生成モデルです。OCRや要約、推論が可能で、商品画像から属性を抽出したり、画像から問題を解決したりできます。", + "qwen3.5-397b-a17b.description": "テキスト、画像、ビデオ入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を発揮し、効率が高くコストが低いです。マルチモーダル能力においては、Qwen3 VLシリーズよりも大幅に改善されています。", + "qwen3.5-plus.description": "Qwen3.5 Plusは、テキスト、画像、ビデオ入力をサポートします。テキストのみのタスクでは、Qwen3 Maxに匹敵する性能を発揮し、効率が高くコストが低いです。マルチモーダル能力においては、Qwen3 VLシリーズよりも大幅に改善されています。", "qwen3.description": "Qwen3は、Alibabaが開発した次世代の大規模言語モデルで、多様なユースケースにおいて高い性能を発揮します。", "qwq-32b-preview.description": "QwQは、推論能力の向上に焦点を当てたQwenの実験的研究モデルです。", "qwq-32b.description": "QwQは、Qwenファミリーの推論モデルです。標準的な指示調整モデルと比較して、思考と推論能力に優れ、特に複雑な問題において下流性能を大幅に向上させます。QwQ-32Bは、DeepSeek-R1やo1-miniと並ぶ中規模の推論モデルです。", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Qwenファミリーの中規模推論モデル。標準的な指示調整モデルと比較して、QwQの思考と推論能力は、特に難解な問題において下流性能を大幅に向上させます。", "r1-1776.description": "R1-1776は、DeepSeek R1のポストトレーニングバリアントで、検閲のない偏りのない事実情報を提供するよう設計されています。", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro は、ByteDance によるモデルで、テキストから動画、画像から動画(最初のフレーム、最初+最後のフレーム)、および映像と同期した音声生成に対応します。", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-liteは、リアルタイム情報のためのウェブ検索強化生成を特徴とし、複雑なプロンプト解釈と専門的な視覚制作のための参照一貫性を向上させています。", "solar-mini-ja.description": "Solar Mini (Ja)は、Solar Miniを日本語に特化させたモデルで、英語と韓国語でも効率的かつ高性能な動作を維持します。", "solar-mini.description": "Solar Miniは、GPT-3.5を上回る性能を持つコンパクトなLLMで、英語と韓国語に対応した多言語機能を備え、効率的な小型ソリューションを提供します。", "solar-pro.description": "Solar Proは、Upstageが提供する高知能LLMで、単一GPU上での指示追従に特化し、IFEvalスコア80以上を記録しています。現在は英語に対応しており、2024年11月の正式リリースでは対応言語とコンテキスト長が拡張される予定です。", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "複雑なクエリやフォローアップに対応する検索基盤を備えた高度な検索製品です。", "sonar-reasoning.description": "複雑なクエリやフォローアップに対応する検索基盤を備えた高度な検索製品です。", "sonar.description": "Sonar Pro よりも高速かつ低コストな軽量検索基盤製品です。", - "spark-x.description": "X1.5 アップデート内容:(1)`thinking` フィールドで制御可能な動的思考モードを追加;(2)64K 入力・64K 出力の大規模コンテキスト長に対応;(3)FunctionCall をサポート。", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2は、高い計算効率と優れた推論およびエージェント性能のバランスを取ったモデルです。", + "spark-x.description": "X2機能概要: 1. `thinking`フィールドを介して推論モードの動的調整を導入。2. コンテキスト長の拡張: 64K入力トークンと128K出力トークン。3. Function Call機能をサポート。", "stable-diffusion-3-medium.description": "Stability AI による最新のテキストから画像への変換モデルです。画像品質、テキスト理解、スタイルの多様性が大幅に向上し、複雑な自然言語プロンプトをより正確に解釈し、多様で精密な画像を生成します。", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo は、ADD(敵対的拡散蒸留)を stable-diffusion-3.5-large に適用し、高速化を実現しています。", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large は、800M パラメータの MMDiT テキスト画像変換モデルで、優れた品質とプロンプト整合性を持ち、1 メガピクセルの画像生成と一般的なハードウェアでの効率的な実行をサポートします。", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "複雑な対話に対応する大規模コンテキスト処理をサポートします。", "step-2-mini.description": "次世代の社内開発 MFA アテンションアーキテクチャに基づき、Step-1 に近い性能を大幅に低コストで実現し、高スループットと低レイテンシを達成します。一般的なタスクに対応し、コーディング能力にも優れています。", "step-2x-large.description": "StepFun による次世代画像生成モデルで、テキストプロンプトから高品質な画像を生成します。よりリアルな質感と強力な中英テキスト描画能力を備えています。", + "step-3.5-flash.description": "Stepfunのフラッグシップ言語推論モデル。このモデルは、トップクラスの推論能力と迅速かつ信頼性の高い実行を提供します。複雑なタスクを分解して計画し、それを実行するためのツールを迅速かつ確実に呼び出し、論理的推論、数学、ソフトウェアエンジニアリング、深い研究、その他の高度なタスクに優れています。コンテキスト長は256Kです。", "step-3.description": "このモデルは優れた視覚認識と複雑な推論能力を持ち、分野横断的な知識理解、数学と視覚の複合分析、日常的な視覚分析タスクに正確に対応します。", "step-r1-v-mini.description": "画像理解に優れた推論モデルで、画像とテキストを処理し、深い推論を経てテキストを生成します。視覚的推論に強く、数学、コーディング、テキスト推論において最高水準の性能を発揮し、100K のコンテキストウィンドウに対応します。", "stepfun-ai/step3.description": "Step3 は、StepFun による最先端のマルチモーダル推論モデルで、MoE アーキテクチャに基づき、総パラメータ数 321B、アクティブパラメータ数 38B を備えています。エンドツーエンド設計によりデコードコストを最小化し、最高水準の視覚と言語の推論を実現します。MFA と AFD 設計により、ハイエンドからローエンドのアクセラレータまで効率的に動作します。事前学習には 20T 以上のテキストトークンと 4T の画像テキストトークンを多言語で使用し、数学、コード、マルチモーダルベンチマークでトップクラスのオープンモデル性能を達成しています。", - "taichu_llm.description": "大規模で高品質なデータに基づいて訓練され、テキスト理解、コンテンツ生成、会話型 QA において優れた性能を発揮します。", - "taichu_o1.description": "taichu_o1 は次世代の推論モデルで、マルチモーダル対話と強化学習を活用して人間のような思考の連鎖を実現し、複雑な意思決定のシミュレーションをサポートします。推論の過程を可視化しつつ、高精度な出力を維持し、戦略分析や深い思考に適しています。", - "taichu_vl.description": "画像理解、知識転移、論理的帰属を組み合わせ、画像とテキストの QA において優れた性能を発揮します。", + "taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2BモデルのNo-Thinkingバージョンは、メモリ使用量が少なく、軽量設計、高速応答速度、強力なマルチモーダル理解能力を特徴としています。", + "taichu4_vl_32b.description": "Taichu4.0-VL 32BモデルのThinkingバージョンは、複雑なマルチモーダル理解と推論タスクに適しており、マルチモーダル数学的推論、マルチモーダルエージェント能力、一般的な画像および視覚理解において優れた性能を示します。", + "taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32BモデルのNo-Thinkingバージョンは、複雑な画像とテキストの理解および視覚知識QAシナリオ向けに設計されており、画像キャプション、視覚的質問応答、ビデオ理解、視覚的ローカリゼーションタスクに優れています。", + "taichu4_vl_3b.description": "Taichu4.0-VL 3BモデルのThinkingバージョンは、マルチモーダル理解と推論タスクを効率的に実行し、視覚理解、視覚的ローカリゼーション、OCR認識、および関連能力において包括的なアップグレードを提供します。", + "taichu_llm.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。", + "taichu_llm_14b.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。", + "taichu_llm_2b.description": "Zidong Taichu大規模言語モデルは、完全に国内のフルスタック技術を使用して開発された高性能テキスト生成モデルです。1000億パラメータのベースモデルの構造的圧縮とタスク固有の最適化を通じて、複雑なテキスト理解と知識推論能力を大幅に向上させています。長文分析、クロスリンガル情報抽出、知識制約生成などのシナリオで優れた性能を発揮します。", + "taichu_o1.description": "taichu_o1は、マルチモーダルインタラクションと強化学習を通じて人間のような連鎖的思考を実現する次世代推論大規模モデルです。複雑な意思決定シミュレーションをサポートし、高精度な出力を維持しながら、解釈可能な推論経路を明らかにします。戦略分析、深い思考、類似のシナリオに適しています。", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct は、総パラメータ数 80B、アクティブパラメータ数 13B で大型モデルに匹敵する性能を発揮します。高速・低速のハイブリッド推論、安定した長文理解、BFCL-v3 や τ-Bench における先進的なエージェント能力を備えています。GQA とマルチ量子化形式により効率的な推論が可能です。", "tencent/Hunyuan-MT-7B.description": "Hunyuan 翻訳モデルには Hunyuan-MT-7B とアンサンブルモデル Hunyuan-MT-Chimera が含まれます。Hunyuan-MT-7B は 7B の軽量翻訳モデルで、33 言語と中国の少数民族言語 5 言語に対応します。WMT25 では 31 言語ペア中 30 件で 1 位を獲得しました。Tencent Hunyuan は、事前学習から SFT、翻訳 RL、アンサンブル RL までの完全なトレーニングパイプラインを採用し、同規模で最高水準の性能と効率的なデプロイを実現しています。", "text-embedding-3-large.description": "英語および非英語タスクにおいて最も高性能な埋め込みモデルです。", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "日常的なタスクやUI生成に適したモデルです。", "vercel/v0-1.0-md.description": "v0の背後にあるモデルにアクセスし、最新のフレームワークに対応したWebアプリの生成、修正、最適化を行います。", "vercel/v0-1.5-md.description": "v0の背後にあるモデルにアクセスし、最新のフレームワークに対応したWebアプリの生成、修正、最適化を行います。", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Codeは、企業向けプログラミングニーズに最適化されており、Seed 2.0の優れたエージェント、VLM能力を基に、特にコード能力を強化しています。フロントエンド能力が優れているだけでなく、企業で一般的な多言語コーディングニーズにも特別に最適化されており、さまざまなAIプログラミングツールへの接続に適しています。", + "volcengine/doubao-seed-2-0-lite.description": "生成品質と応答速度のバランスを取り、汎用生産モデルとして適しています。", + "volcengine/doubao-seed-2-0-mini.description": "doubao-seed-2-0-miniの最新版を指します。", + "volcengine/doubao-seed-2-0-pro.description": "doubao-seed-2-0-proの最新版を指します。", "volcengine/doubao-seed-code.description": "Doubao-Seed-Codeは、ByteDanceのVolcano EngineによるLLMで、エージェント型プログラミングに最適化されており、プログラミングおよびエージェントベンチマークで高い性能を発揮します。256Kのコンテキストに対応しています。", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speedは、創造性、安定性、リアリズムが向上した最新モデルで、高速生成と高い価値を提供します。", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Proは、創造性、安定性、リアリズムが向上した最新モデルで、より豊かなディテールを生成します。", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flashは、創造性、安定性、リアリズムの向上を伴う最新モデルで、高速生成と高い価値を提供します。", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plusは、創造性、安定性、リアリズムの向上を伴う最新モデルで、より豊かな詳細を生成します。", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Previewは、単一画像編集と複数画像の融合をサポートします。", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2Iは、総ピクセルエリアとアスペクト比の制約内で画像寸法の柔軟な選択をサポートします。", + "wan2.6-image.description": "Wanxiang 2.6 Imageは、画像編集と画像とテキストの混合レイアウト出力をサポートします。", + "wan2.6-t2i.description": "Wanxiang 2.6 T2Iは、総ピクセルエリアとアスペクト比の制約内で画像寸法の柔軟な選択をサポートします(Wanxiang 2.5と同様)。", "wanx-v1.description": "基本的なテキストから画像への変換モデル。Tongyi Wanxiang 1.0 Generalに対応。", "wanx2.0-t2i-turbo.description": "中程度の速度と低コストで質感のあるポートレートに優れています。Tongyi Wanxiang 2.0 Speedに対応。", "wanx2.1-t2i-plus.description": "画像のディテールがより豊かになった完全アップグレード版で、やや速度は遅めです。Tongyi Wanxiang 2.1 Proに対応。", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4.1 Fastは、xAIによる高スループット・低コストモデルで、2Mのコンテキストウィンドウをサポートし、高並列性および長文コンテキストのユースケースに最適です。", "x-ai/grok-4.description": "Grok 4は、xAIのフラッグシップ推論モデルで、強力な推論力とマルチモーダル対応を備えています。", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1は、xAIによる高速コードモデルで、読みやすくエンジニアに優しい出力を提供します。", + "x1.description": "X1.5の更新内容: (1) `thinking`フィールドで制御される動的思考モードを追加。 (2) 64K入力と64K出力のより大きなコンテキスト長。 (3) FunctionCallをサポート。", "xai/grok-2-vision.description": "Grok 2 Visionは視覚タスクに優れ、MathVistaによる視覚的数学推論やDocVQAによる文書QAで最先端の性能を発揮します。文書、チャート、グラフ、スクリーンショット、写真を処理可能です。", "xai/grok-2.description": "Grok 2は、最先端の推論力、優れたチャット、コーディング、推論性能を備えた先進モデルで、LMSYSにおいてClaude 3.5 SonnetやGPT-4 Turboを上回る評価を得ています。", "xai/grok-3-fast.description": "xAIのフラッグシップモデルで、データ抽出、コーディング、要約などのエンタープライズ用途に優れ、金融、医療、法律、科学分野における深い専門知識を備えています。高速バリアントは高速インフラ上で動作し、より迅速な応答を提供します(トークン単価は高め)。", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5は、エンジニアリングおよび長文コンテキストタスクに最適化されたZ.AIのフラッグシップモデルで、ハイブリッド推論を採用しています。", "z-ai/glm-4.6.description": "GLM 4.6は、Z.AIのフラッグシップモデルで、コンテキスト長とコーディング能力が強化されています。", "z-ai/glm-4.7.description": "GLM-4.7 は Zhipu による最新のフラッグシップモデルで、汎用能力の向上、より自然で簡潔な応答、没入感のある文章体験を提供します。", - "z-ai/glm5.description": "Z.aiによる強力な推論とエージェントモデルで、744Bの総パラメータ(40Bアクティブ)を備え、複雑なシステム工学と長期間のタスクに対応。", + "z-ai/glm4.7.description": "GLM-4.7は、エージェントコーディングシナリオ向けに強化されたZhipuの最新フラッグシップモデルで、コーディング能力が向上しています。", + "z-ai/glm5.description": "GLM-5は、Zhipu AIの新しいフラッグシップ基盤モデルで、エージェントエンジニアリングにおいてオープンソースのSOTA性能を達成しています。Claude Opus 4.5に匹敵する性能を持っています。", + "z-image-turbo.description": "Z-Imageは軽量なテキストから画像生成モデルで、迅速に画像を生成し、中国語と英語のテキストレンダリングをサポートし、複数の解像度とアスペクト比に柔軟に適応します。", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Airは、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルです。ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに最適化されており、Claude CodeやRoo Codeなどのコードエージェントと統合可能です。ハイブリッド推論により、複雑な推論と日常的なシナリオの両方に対応します。", "zai-org/GLM-4.5.description": "GLM-4.5は、Mixture-of-Expertsアーキテクチャを採用したエージェントアプリケーション向けのベースモデルで、ツール使用、Webブラウジング、ソフトウェア開発、フロントエンドコーディングに深く最適化されています。Claude CodeやRoo Codeなどのコードエージェントと統合可能で、ハイブリッド推論により複雑な推論と日常的なシナリオの両方に対応します。", "zai-org/GLM-4.5V.description": "GLM-4.5Vは、GLM-4.5-AirをベースにしたZhipu AIの最新VLMで、106B総パラメータ(12Bアクティブ)のMoEアーキテクチャを採用し、低コストで高性能を実現しています。GLM-4.1V-Thinkingの系譜を継承し、3D-RoPEにより3D空間推論を強化。事前学習、SFT、RLを通じて最適化され、画像、動画、長文文書を処理可能。41の公開マルチモーダルベンチマークでトップクラスの評価を獲得。Thinkingモードの切り替えにより、速度と深さのバランスを調整可能です。", diff --git a/locales/ja-JP/plugin.json b/locales/ja-JP/plugin.json index e559bb676c..85e3e0b7f8 100644 --- a/locales/ja-JP/plugin.json +++ b/locales/ja-JP/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "ノードを更新", "builtins.lobe-page-agent.apiName.wrapNodes": "ノードをラップ", "builtins.lobe-page-agent.title": "ドキュメント", + "builtins.lobe-skill-store.apiName.importFromMarket": "マーケットからインポート", + "builtins.lobe-skill-store.apiName.importSkill": "スキルをインポート", + "builtins.lobe-skill-store.apiName.searchSkill": "スキルを検索", + "builtins.lobe-skill-store.title": "スキルストア", + "builtins.lobe-skills.apiName.execScript": "スクリプトを実行", + "builtins.lobe-skills.apiName.exportFile": "ファイルをエクスポート", + "builtins.lobe-skills.apiName.importFromMarket": "マーケットからインポート", + "builtins.lobe-skills.apiName.importSkill": "スキルをインポート", + "builtins.lobe-skills.apiName.readReference": "リファレンスを読む", + "builtins.lobe-skills.apiName.runSkill": "スキルをアクティブ化", + "builtins.lobe-skills.apiName.searchSkill": "スキルを検索", + "builtins.lobe-skills.title": "スキル", + "builtins.lobe-tools.apiName.activateTools": "ツールをアクティブ化", "builtins.lobe-user-memory.apiName.addContextMemory": "コンテキスト記憶を追加", "builtins.lobe-user-memory.apiName.addExperienceMemory": "経験記憶を追加", "builtins.lobe-user-memory.apiName.addIdentityMemory": "アイデンティティ記憶を追加", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "ウェブ検索", "confirm": "確定", "debug.arguments": "呼び出しパラメータ", + "debug.error": "エラーログ", "debug.function_call": "関数呼び出し", "debug.intervention": "スキル介入", "debug.off": "デバッグをオフにする", @@ -321,8 +335,8 @@ "dev.saveSuccess": "スキル設定が正常に保存されました", "dev.tabs.manifest": "機能記述リスト (Manifest)", "dev.tabs.meta": "スキルメタ情報", - "dev.title.create": "カスタムスキルを追加", - "dev.title.edit": "カスタムスキルを編集", + "dev.title.create": "カスタムMCPスキルを追加", + "dev.title.edit": "カスタムMCPスキルを編集", "dev.title.editCommunity": "コミュニティスキルを編集", "dev.title.skillDetails": "スキルの詳細", "dev.title.skillSettings": "スキル設定", diff --git a/locales/ja-JP/providers.json b/locales/ja-JP/providers.json index fe0db314f7..7308a4f646 100644 --- a/locales/ja-JP/providers.json +++ b/locales/ja-JP/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloudは、強力なオープンソースモデルを基盤とした、コスト効率の高い生成AIクラウドサービスです。", "spark.description": "iFLYTEK Sparkは、スマートハードウェア、医療、金融などの分野で革新を可能にする、強力な多言語AIを提供します。", "stepfun.description": "Stepfunのモデルは、マルチモーダル処理と複雑な推論に優れ、長文コンテキスト理解や自律的な検索オーケストレーションに対応します。", + "straico.description": "Straicoは、テキスト、画像、音声の生成AIモデルを統合したワークスペースを提供することで、AIの統合を簡素化します。これにより、マーケター、起業家、そして愛好家が多様なAIツールにシームレスにアクセスできるようになります。", "taichu.description": "Taichuは、CASIAと武漢AI研究所が開発した次世代マルチモーダルモデルで、マルチターンQA、文章生成、画像生成、3D理解、信号解析などに対応し、認知力と創造性を強化しています。", "tencentcloud.description": "LLM Knowledge Engine Atomic Powerは、企業や開発者向けに、文書解析、分割、埋め込み、多ターンリライトなどのモジュール型サービスを通じて、カスタムAIソリューションを構築できるエンドツーエンドの知識QAを提供します。", "togetherai.description": "Together AIは、革新的なモデル、高度なカスタマイズ、迅速なスケーリング、シンプルな導入により、企業ニーズに応える高性能AIを提供します。", diff --git a/locales/ja-JP/setting.json b/locales/ja-JP/setting.json index bb30f8cad0..fc801accde 100644 --- a/locales/ja-JP/setting.json +++ b/locales/ja-JP/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "ロール設定", "agentInfoDescription.value.unset": "未設定", "agentInfoDescription.value.untitled": "無題のアシスタント", + "agentSkillDetail.addedAt": "追加日", + "agentSkillDetail.publishedAt": "公開日", + "agentSkillDetail.repository": "GitHubリポジトリ", + "agentSkillDetail.skillContent": "スキル内容", + "agentSkillDetail.sourceUrl": "スキルインポート元", + "agentSkillDetail.updatedAt": "更新日", + "agentSkillEdit.descriptionDesc": "スキルの概要を簡潔に説明し、エージェントが使用するタイミングを理解できるようにします", + "agentSkillEdit.fileReadonly": "このファイルは読み取り専用です。スキルの説明と指示のみ編集可能です。", + "agentSkillEdit.instructions": "指示", + "agentSkillEdit.instructionsDesc": "スキルの動作とワークフローを定義するMarkdown形式の基本指示", + "agentSkillEdit.instructionsPlaceholder": "Markdown形式でスキルの指示を入力してください...", + "agentSkillEdit.nameDesc": "このスキルの一意の識別子。作成後は編集できません。", + "agentSkillEdit.saveSuccess": "スキルが正常に更新されました", + "agentSkillEdit.title": "スキル設定", + "agentSkillItem.deleteConfirm.desc": "エージェントスキル「{{name}}」を削除してもよろしいですか?この操作は元に戻せません。", + "agentSkillItem.deleteConfirm.title": "エージェントスキルの削除", + "agentSkillModal.content": "スキル内容", + "agentSkillModal.contentPlaceholder": "Markdown形式でスキル内容を入力してください...", + "agentSkillModal.description": "説明", + "agentSkillModal.descriptionPlaceholder": "このスキルを簡潔に説明してください", + "agentSkillModal.github.desc": "公開GitHubリポジトリから直接スキルをインポートします。", + "agentSkillModal.github.title": "GitHubからインポート", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "インポートに失敗しました: {{error}}", + "agentSkillModal.importSuccess": "エージェントスキルが正常にインポートされました", + "agentSkillModal.upload.desc": "ローカルの.zipまたは.skillファイルをアップロードしてインストールします。", + "agentSkillModal.upload.dragText": "ドラッグ&ドロップまたはクリックしてアップロード", + "agentSkillModal.upload.requirementSkillMd": "SKILL.mdにはYAML形式でスキル名と説明が含まれています", + "agentSkillModal.upload.requirementZip": "SKILL.mdがルートディレクトリに含まれる.zipまたは.skillファイル", + "agentSkillModal.upload.requirements": "ファイル要件", + "agentSkillModal.upload.title": "スキルをアップロード", + "agentSkillModal.upload.uploading": "アップロード中...", + "agentSkillModal.url.desc": "SKILL.mdファイルへの直接リンクを提供してスキルをインポートします。", + "agentSkillModal.url.title": "URLからインポート", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "エージェントスキル", "agentTab.chat": "チャット設定", "agentTab.meta": "メタ情報", "agentTab.modal": "モーダル設定", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "翻訳に使用するモデルを指定します", "systemAgent.translation.title": "メッセージ内容翻訳アシスタント", "tab.about": "について", + "tab.addAgentSkill": "エージェントスキルを追加", + "tab.addCustomMcp": "カスタムMCPスキルを追加", + "tab.addCustomMcp.desc": "カスタムMCPサーバーを手動で設定", "tab.addCustomSkill": "カスタムスキルを追加", "tab.agent": "デフォルトアシスタント", "tab.all": "すべて", @@ -652,7 +691,13 @@ "tab.experiment": "実験", "tab.hotkey": "ショートカットキー", "tab.image": "画像生成サービス", + "tab.importFromGithub": "GitHubからインポート", + "tab.importFromGithub.desc": "公開GitHubリポジトリからインポート", + "tab.importFromUrl": "URLからインポート", + "tab.importFromUrl.desc": "SKILL.mdへの直接リンクを介してインポート", "tab.llm": "言語モデル", + "tab.manualFill": "手動入力", + "tab.manualFill.desc": "カスタムMCPスキルを手動で設定", "tab.memory": "記憶設定", "tab.profile": "マイアカウント", "tab.provider": "AIサービスプロバイダー", @@ -669,6 +714,8 @@ "tab.sync": "クラウド同期", "tab.systemTools": "システムツール", "tab.tts": "音声サービス", + "tab.uploadZip": "Zipをアップロード", + "tab.uploadZip.desc": "ローカルの.zipまたは.skillファイルをアップロード", "tab.usage": "使用状況", "tools.add": "スキルを統合", "tools.builtins.groupName": "組み込み", diff --git a/locales/ko-KR/common.json b/locales/ko-KR/common.json index 932f2bf75b..8625823f69 100644 --- a/locales/ko-KR/common.json +++ b/locales/ko-KR/common.json @@ -256,11 +256,6 @@ "footer.star.title": "GitHub에서 별표 추가", "footer.title": "제품이 마음에 드시나요?", "fullscreen": "전체 화면 모드", - "geminiImageChineseWarning.content": "Nano Banana는 중국어 입력 시 이미지 생성 실패 확률이 있습니다. 더 나은 결과를 위해 영어 사용을 권장합니다", - "geminiImageChineseWarning.continueGenerate": "계속 생성", - "geminiImageChineseWarning.continueSend": "계속 전송", - "geminiImageChineseWarning.doNotShowAgain": "다시 표시하지 않기", - "geminiImageChineseWarning.title": "중국어 입력 알림", "historyRange": "기록 범위", "home.suggestQuestions": "이런 예시를 시도해 보세요", "import": "가져오기", @@ -397,6 +392,7 @@ "tab.chat": "채팅", "tab.community": "커뮤니티", "tab.discover": "탐색", + "tab.eval": "평가 연구소", "tab.files": "파일", "tab.home": "홈", "tab.knowledgeBase": "자료실", diff --git a/locales/ko-KR/eval.json b/locales/ko-KR/eval.json new file mode 100644 index 0000000000..e48989dd99 --- /dev/null +++ b/locales/ko-KR/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "벤치마크 삭제", + "benchmark.actions.delete.confirm": "이 벤치마크를 삭제하시겠습니까? 관련된 데이터셋과 평가 기록도 삭제됩니다.", + "benchmark.actions.edit": "벤치마크 편집", + "benchmark.actions.export": "내보내기", + "benchmark.card.bestScore": "최고 점수", + "benchmark.card.caseCount": "{{count}} 사례", + "benchmark.card.datasetCount": "{{count}} 데이터셋", + "benchmark.card.empty": "아직 평가가 없습니다", + "benchmark.card.emptyHint": "벤치마크 세부 페이지에서 새 평가를 생성하세요", + "benchmark.card.importDataset": "데이터셋 가져오기", + "benchmark.card.noDataset": "아직 데이터셋이 없습니다", + "benchmark.card.noDatasetHint": "평가를 시작하려면 데이터셋을 가져오세요", + "benchmark.card.noRecentRuns": "표시할 최근 평가가 없습니다", + "benchmark.card.recentRuns": "최근 평가", + "benchmark.card.runCount": "{{count}} 평가", + "benchmark.card.startFirst": "첫 평가 시작", + "benchmark.card.viewAll": "모두 보기 {{count}}", + "benchmark.create.confirm": "생성", + "benchmark.create.description.label": "설명", + "benchmark.create.description.placeholder": "벤치마크 설명 (선택 사항)", + "benchmark.create.error": "벤치마크 생성 실패", + "benchmark.create.identifier.label": "식별자", + "benchmark.create.identifier.placeholder": "벤치마크-식별자", + "benchmark.create.identifierRequired": "식별자를 입력하세요", + "benchmark.create.name.label": "이름", + "benchmark.create.name.placeholder": "벤치마크 이름 입력", + "benchmark.create.nameRequired": "벤치마크 이름을 입력하세요", + "benchmark.create.success": "벤치마크가 성공적으로 생성되었습니다", + "benchmark.create.tags.label": "태그", + "benchmark.create.tags.placeholder": "태그 추가, 쉼표 또는 공백으로 구분", + "benchmark.create.title": "벤치마크 생성", + "benchmark.detail.backToOverview": "개요로 돌아가기", + "benchmark.detail.datasetCount": "이 벤치마크에 {{count}} 데이터셋", + "benchmark.detail.runCount": "이 벤치마크에서 {{count}} 평가 실행", + "benchmark.detail.stats.addFirstDataset": "첫 데이터셋 추가를 클릭하세요", + "benchmark.detail.stats.avgCost": "평균 비용", + "benchmark.detail.stats.avgDuration": "평균 지속 시간", + "benchmark.detail.stats.basedOnLastNRuns": "최근 {{count}} 실행 기준", + "benchmark.detail.stats.bestPerformance": "{{agent}}가 {{passRate}}% 통과율로 최고의 성과를 기록했습니다", + "benchmark.detail.stats.bestScore": "최고 점수", + "benchmark.detail.stats.cases": "사례", + "benchmark.detail.stats.dataScale": "데이터 규모", + "benchmark.detail.stats.datasets": "데이터셋", + "benchmark.detail.stats.needSetup": "설정 필요", + "benchmark.detail.stats.noEvalRecord": "아직 평가 기록이 없습니다", + "benchmark.detail.stats.perRun": "/ 실행", + "benchmark.detail.stats.runs": "실행", + "benchmark.detail.stats.tags": "태그", + "benchmark.detail.stats.topAgents": "최고 에이전트", + "benchmark.detail.stats.totalCases": "총 사례", + "benchmark.detail.stats.waiting": "대기 중...", + "benchmark.detail.tabs.data": "데이터", + "benchmark.detail.tabs.datasets": "데이터셋", + "benchmark.detail.tabs.runs": "실행", + "benchmark.edit.confirm": "저장", + "benchmark.edit.error": "벤치마크 업데이트 실패", + "benchmark.edit.success": "벤치마크가 성공적으로 업데이트되었습니다", + "benchmark.edit.title": "벤치마크 편집", + "benchmark.empty": "아직 벤치마크가 없습니다. 시작하려면 하나를 생성하세요.", + "caseDetail.actual": "실제 출력", + "caseDetail.chatArea.title": "대화", + "caseDetail.completionReason": "상태", + "caseDetail.cost": "비용", + "caseDetail.difficulty": "난이도", + "caseDetail.duration": "지속 시간", + "caseDetail.expected": "예상 출력", + "caseDetail.failureReason": "실패 이유", + "caseDetail.input": "입력", + "caseDetail.judgeComment": "심사 의견", + "caseDetail.resources": "자원", + "caseDetail.score": "점수", + "caseDetail.section.runtime": "실행 시간", + "caseDetail.section.scoring": "점수 세부 정보", + "caseDetail.section.testCase": "테스트 사례", + "caseDetail.steps": "단계", + "caseDetail.threads.attempt": "경로 #{{number}}", + "caseDetail.tokens": "토큰 사용량", + "common.cancel": "취소", + "common.create": "생성", + "common.delete": "삭제", + "common.edit": "편집", + "common.later": "나중에", + "common.next": "다음", + "common.update": "업데이트", + "dataset.actions.addDataset": "데이터셋 추가", + "dataset.actions.import": "데이터 가져오기", + "dataset.actions.importDataset": "데이터셋 가져오기", + "dataset.create.description.label": "설명", + "dataset.create.description.placeholder": "데이터셋 설명 (선택 사항)", + "dataset.create.error": "데이터셋 생성 실패", + "dataset.create.identifier.label": "식별자", + "dataset.create.identifier.placeholder": "데이터셋-식별자", + "dataset.create.identifierRequired": "식별자를 입력하세요", + "dataset.create.importNow": "지금 데이터를 가져오시겠습니까?", + "dataset.create.name.label": "데이터셋 이름", + "dataset.create.name.placeholder": "데이터셋 이름 입력", + "dataset.create.nameRequired": "데이터셋 이름을 입력하세요", + "dataset.create.preset.label": "데이터셋 프리셋", + "dataset.create.success": "데이터셋이 성공적으로 생성되었습니다", + "dataset.create.successTitle": "데이터셋 생성됨", + "dataset.create.title": "데이터셋 생성", + "dataset.delete.confirm": "이 데이터셋을 삭제하시겠습니까? 포함된 모든 테스트 사례도 삭제됩니다.", + "dataset.delete.error": "데이터셋 삭제 실패", + "dataset.delete.success": "데이터셋이 성공적으로 삭제되었습니다", + "dataset.detail.addRun": "새 실행", + "dataset.detail.backToBenchmark": "벤치마크로 돌아가기", + "dataset.detail.caseCount": "{{count}} 테스트 사례", + "dataset.detail.relatedRuns": "관련 실행 ({{count}})", + "dataset.detail.testCases": "테스트 사례", + "dataset.detail.viewDetail": "세부 정보 보기", + "dataset.edit.error": "데이터셋 업데이트 실패", + "dataset.edit.success": "데이터셋이 성공적으로 업데이트되었습니다", + "dataset.edit.title": "데이터셋 편집", + "dataset.empty": "데이터셋 없음", + "dataset.empty.description": "이 벤치마크를 구축하려면 데이터셋을 가져오세요", + "dataset.empty.title": "아직 데이터셋이 없습니다", + "dataset.evalMode.hint": "데이터셋의 기본 평가 모드로, 테스트 사례 수준에서 재정의할 수 있습니다", + "dataset.import.category": "카테고리", + "dataset.import.categoryDesc": "그룹화를 위한 분류 레이블", + "dataset.import.choices": "선택지", + "dataset.import.choicesDesc": "다중 선택 옵션", + "dataset.import.confirm": "가져오기", + "dataset.import.error": "데이터셋 가져오기 실패", + "dataset.import.expected": "예상 답변", + "dataset.import.expectedDelimiter": "답변 구분자", + "dataset.import.expectedDelimiter.desc": "답변 구분자", + "dataset.import.expectedDelimiter.placeholder": "예: | 또는 ,", + "dataset.import.expectedDesc": "비교할 정답", + "dataset.import.fieldMapping": "필드 매핑", + "dataset.import.fieldMapping.desc": "\"입력\" 열은 필수입니다", + "dataset.import.hideSkipped": "건너뛴 열 숨기기", + "dataset.import.ignore": "건너뛰기", + "dataset.import.ignoreDesc": "이 열을 가져오지 않음", + "dataset.import.input": "입력", + "dataset.import.inputDesc": "모델에 보낼 질문 또는 프롬프트", + "dataset.import.metadata": "메타데이터", + "dataset.import.metadataDesc": "추가 정보, 그대로 저장됨", + "dataset.import.next": "다음", + "dataset.import.parseError": "파일 구문 분석 실패", + "dataset.import.parsing": "파일 구문 분석 중...", + "dataset.import.prev": "이전", + "dataset.import.preview": "데이터 미리보기", + "dataset.import.preview.desc": "매핑이 올바른지 확인한 후 가져오세요.", + "dataset.import.preview.rows": "총 {{count}} 행", + "dataset.import.sortOrder": "항목 번호", + "dataset.import.sortOrderDesc": "참조용 질문/항목 ID", + "dataset.import.step.mapping": "필드 매핑", + "dataset.import.step.preview": "미리보기", + "dataset.import.step.upload": "파일 업로드", + "dataset.import.success": "{{count}} 테스트 사례가 성공적으로 가져왔습니다", + "dataset.import.title": "데이터셋 가져오기", + "dataset.import.upload.hint": "CSV, XLSX, JSON, JSONL 지원", + "dataset.import.upload.text": "업로드하려면 파일을 클릭하거나 드래그하세요", + "dataset.import.uploading": "업로드 중...", + "dataset.switchDataset": "데이터셋 전환", + "difficulty.easy": "쉬움", + "difficulty.hard": "어려움", + "difficulty.medium": "보통", + "evalMode.contains": "포함 일치", + "evalMode.contains.desc": "출력에 예상 텍스트가 포함되어야 합니다", + "evalMode.equals": "정확히 일치", + "evalMode.equals.desc": "출력이 예상과 정확히 동일해야 합니다", + "evalMode.label": "평가 모드", + "evalMode.llm-rubric": "LLM 심사", + "evalMode.llm-rubric.desc": "LLM을 사용하여 출력 품질 평가", + "evalMode.placeholder": "평가 모드 선택", + "evalMode.prompt.label": "심사 프롬프트", + "evalMode.prompt.placeholder": "LLM 심사를 위한 평가 기준 또는 프롬프트 입력", + "evalMode.rubric": "루브릭 점수", + "evalMode.rubric.desc": "가중 기준이 있는 벤치마크 루브릭으로 출력 점수 매기기", + "overview.createBenchmark": "벤치마크 생성", + "overview.importDataset": "데이터셋 가져오기", + "overview.subtitle": "데이터셋 전반에 걸쳐 AI 에이전트를 벤치마크하고 평가하세요", + "overview.title": "평가 연구소", + "run.actions.abort": "중단", + "run.actions.abort.confirm": "이 평가를 중단하시겠습니까?", + "run.actions.create": "새 평가", + "run.actions.delete": "삭제", + "run.actions.delete.confirm": "이 평가를 삭제하시겠습니까?", + "run.actions.edit": "편집", + "run.actions.retryCase": "재시도", + "run.actions.retryErrors": "오류 재시도", + "run.actions.retryErrors.confirm": "이 작업은 모든 오류 및 시간 초과 사례를 다시 실행합니다. 통과 및 실패 사례는 영향을 받지 않습니다.", + "run.actions.run": "실행", + "run.actions.start": "시작", + "run.actions.start.confirm": "이 평가를 시작하시겠습니까?", + "run.chart.duration": "지속 시간 (초)", + "run.chart.error": "오류", + "run.chart.fail": "실패", + "run.chart.latencyDistribution": "지연 분포", + "run.chart.latencyTokenDistribution": "지연 / 토큰 분포", + "run.chart.pass": "통과", + "run.chart.passFailError": "통과 / 실패 / 오류", + "run.chart.tokens": "토큰", + "run.config.agentId": "에이전트", + "run.config.concurrency": "동시성", + "run.config.judgeModel": "심사 모델", + "run.config.k": "실행 횟수 (K)", + "run.config.k.hint": "각 테스트 사례를 {{k}}번 실행하여 pass@{{k}}/pass^{{k}} 메트릭 계산", + "run.config.maxSteps": "최대 단계", + "run.config.maxSteps.hint": "에이전트의 각 LLM 호출 또는 도구 호출은 1단계로 계산됩니다", + "run.config.model": "모델", + "run.config.temperature": "온도", + "run.config.timeout": "시간 초과", + "run.config.timeout.unit": "분", + "run.create.advanced": "고급 설정", + "run.create.agent": "에이전트", + "run.create.agent.placeholder": "에이전트를 선택하세요", + "run.create.agent.required": "에이전트를 선택하세요", + "run.create.caseCount": "{{count}} 사례", + "run.create.confirm": "생성 및 시작", + "run.create.createOnly": "생성", + "run.create.dataset": "데이터셋", + "run.create.dataset.placeholder": "데이터셋을 선택하세요", + "run.create.dataset.required": "데이터셋을 선택하세요", + "run.create.name": "실행 이름", + "run.create.name.placeholder": "이 실행의 이름을 입력하세요", + "run.create.name.required": "실행 이름을 입력하세요", + "run.create.name.useTimestamp": "현재 시간을 이름으로 사용", + "run.create.openAgent": "새 창에서 에이전트 열기", + "run.create.title": "새 평가", + "run.create.titleWithDataset": "\"{{dataset}}\"에서 새 평가", + "run.detail.agent": "에이전트", + "run.detail.agent.none": "지정되지 않음", + "run.detail.agent.unnamed": "이름 없는 에이전트", + "run.detail.backToBenchmark": "벤치마크로 돌아가기", + "run.detail.caseResults": "평가 세부 정보", + "run.detail.config": "평가 구성", + "run.detail.configSnapshot": "구성 스냅샷", + "run.detail.dataset": "데이터셋", + "run.detail.model": "모델", + "run.detail.overview": "개요", + "run.detail.progress": "진행 상황", + "run.detail.progressCases": "사례", + "run.detail.report": "평가 요약", + "run.edit.error": "평가 업데이트 실패", + "run.edit.success": "평가가 성공적으로 업데이트되었습니다", + "run.edit.title": "평가 편집", + "run.empty.description": "이 데이터셋에서 첫 평가 실행을 시작하세요", + "run.empty.descriptionBenchmark": "이 벤치마크에서 첫 평가 실행을 시작하세요", + "run.empty.title": "아직 실행이 없습니다", + "run.filter.active": "활성", + "run.filter.empty": "현재 필터와 일치하는 실행이 없습니다.", + "run.idle.hint": "시작을 클릭하여 평가를 시작하세요", + "run.metrics.avgScore": "평균 점수", + "run.metrics.cost": "비용", + "run.metrics.duration": "지속 시간", + "run.metrics.errorCases": "오류", + "run.metrics.evaluated": "{{count}} 평가됨", + "run.metrics.passRate": "통과율", + "run.metrics.perCase": "/ 사례", + "run.metrics.tokens": "토큰", + "run.metrics.totalDuration": "누적", + "run.pending.hint": "평가가 대기 중이며, 시작을 기다리고 있습니다...", + "run.running.hint": "평가가 실행 중이며, 결과가 곧 표시됩니다...", + "run.status.aborted": "중단됨", + "run.status.completed": "완료됨", + "run.status.error": "실행 오류", + "run.status.failed": "실패", + "run.status.idle": "대기 중", + "run.status.pending": "대기 중", + "run.status.running": "실행 중", + "run.status.timeout": "시간 초과", + "sidebar.benchmarks": "벤치마크", + "sidebar.dashboard": "대시보드", + "sidebar.datasets": "데이터셋", + "sidebar.runs": "실행", + "table.columns.avgCost": "평균 비용", + "table.columns.category": "카테고리", + "table.columns.cost": "비용", + "table.columns.difficulty": "난이도", + "table.columns.duration": "지속 시간", + "table.columns.evalMode": "평가 모드", + "table.columns.expected": "예상 답변", + "table.columns.input": "입력", + "table.columns.score": "점수", + "table.columns.status": "상태", + "table.columns.steps": "단계", + "table.columns.tags": "태그", + "table.columns.tokens": "토큰", + "table.columns.totalCost": "총 비용", + "table.filter.all": "모두", + "table.filter.error": "실행 오류", + "table.filter.failed": "실패", + "table.filter.passed": "통과", + "table.filter.running": "실행 중", + "table.search.placeholder": "사례 검색...", + "table.total": "총 {{count}}", + "testCase.actions.add": "테스트 사례 추가", + "testCase.actions.import": "테스트 사례 가져오기", + "testCase.create.advanced": "추가 옵션", + "testCase.create.difficulty.label": "난이도", + "testCase.create.error": "테스트 사례 추가 실패", + "testCase.create.expected.label": "예상 출력", + "testCase.create.expected.placeholder": "예상 답변 입력", + "testCase.create.expected.required": "예상 출력을 입력하세요", + "testCase.create.input.label": "입력", + "testCase.create.input.placeholder": "테스트 사례 입력 또는 질문 입력", + "testCase.create.success": "테스트 사례가 성공적으로 추가되었습니다", + "testCase.create.tags.label": "태그", + "testCase.create.tags.placeholder": "쉼표로 구분된 태그 (선택 사항)", + "testCase.create.title": "테스트 사례 추가", + "testCase.delete.confirm": "이 테스트 사례를 삭제하시겠습니까?", + "testCase.delete.error": "테스트 사례 삭제 실패", + "testCase.delete.success": "테스트 사례가 삭제되었습니다", + "testCase.edit.error": "테스트 사례 업데이트 실패", + "testCase.edit.success": "테스트 사례가 성공적으로 업데이트되었습니다", + "testCase.edit.title": "테스트 사례 편집", + "testCase.empty.description": "이 데이터셋에 테스트 사례를 가져오거나 수동으로 추가하세요", + "testCase.empty.title": "아직 테스트 사례가 없습니다", + "testCase.preview.expected": "예상", + "testCase.preview.input": "입력", + "testCase.preview.title": "테스트 사례 미리보기", + "testCase.search.placeholder": "사례 검색..." +} diff --git a/locales/ko-KR/home.json b/locales/ko-KR/home.json index c596a2adda..ce67aab26f 100644 --- a/locales/ko-KR/home.json +++ b/locales/ko-KR/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "심층 연구", "starter.developing": "개발 중", "starter.image": "그림 그리기", + "starter.nanoBanana2": "🍌 나노 바나나 2", "starter.seedance": "Seedance 2.0", "starter.write": "글쓰기" } diff --git a/locales/ko-KR/modelProvider.json b/locales/ko-KR/modelProvider.json index d3eb33c065..be4ae9e2f3 100644 --- a/locales/ko-KR/modelProvider.json +++ b/locales/ko-KR/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini 시리즈용; 사고 예산을 제어합니다.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Preview 모델용; 사고의 깊이를 제어합니다.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Preview 모델용; 사고의 깊이를 제어합니다.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Gemini 3.1 Pro Preview 모델용; 낮음/중간/높음 수준으로 사고 깊이를 조절합니다.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini 시리즈용; URL 컨텍스트 제공을 지원합니다.", "providerModels.item.modelConfig.extendParams.placeholder": "활성화할 확장 매개변수를 선택하세요", "providerModels.item.modelConfig.extendParams.previewFallback": "미리보기를 사용할 수 없습니다", diff --git a/locales/ko-KR/models.json b/locales/ko-KR/models.json index 5d86ded90d..5c48f9ef2e 100644 --- a/locales/ko-KR/models.json +++ b/locales/ko-KR/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo는 뛰어난 의미 이해 및 생성 효율성을 바탕으로 강력한 연산 및 대화 기능을 제공하며, 기업 및 개발자에게 이상적인 선택입니다.", "360gpt2-o1.description": "360gpt2-o1은 트리 탐색 기반의 사고 사슬(chain-of-thought)을 구축하고 반성(reflection) 메커니즘과 강화학습을 통해 자기 반성과 자기 수정이 가능한 모델입니다.", "360gpt2-pro.description": "360GPT2 Pro는 창의적 작업에 특히 강한 고급 NLP 모델로, 복잡한 변환 및 역할극을 처리하며 뛰어난 텍스트 생성 및 이해 능력을 갖추고 있습니다.", + "360zhinao2-o1.5.description": "360 Zhinao의 가장 강력한 추론 모델로, 최고의 성능을 자랑하며 도구 호출과 고급 추론을 지원합니다.", "360zhinao2-o1.description": "360zhinao2-o1은 트리 탐색 기반의 사고 사슬을 구축하고 반성 메커니즘과 강화학습을 통해 자기 반성과 자기 수정이 가능한 모델입니다.", + "360zhinao3-o1.5.description": "360 Zhinao 차세대 추론 모델입니다.", "4.0Ultra.description": "Spark Ultra는 Spark 시리즈 중 가장 강력한 모델로, 텍스트 이해 및 요약 능력을 향상시키고 웹 검색 기능을 업그레이드하였습니다. 업무 생산성과 정확한 응답을 높이는 종합 솔루션으로, 지능형 제품의 선두주자로 자리매김하고 있습니다.", "AnimeSharp.description": "AnimeSharp(구 \"4x-AnimeSharp\")는 Kim2091이 개발한 ESRGAN 기반의 오픈소스 초해상도 모델로, 애니메이션 스타일 이미지의 확대 및 선명화에 중점을 둡니다. 원래는 텍스트 이미지에도 사용되었으나, 2022년 2월부터 애니메이션 콘텐츠에 최적화되어 이름이 변경되었습니다.", "Baichuan2-Turbo.description": "검색 보강(Search Augmentation)을 통해 모델을 도메인 및 웹 지식과 연결하며, PDF/Word 업로드 및 URL 입력을 지원하여 시의적절하고 전문적이며 정확한 결과를 제공합니다.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision은 언어, 텍스트, 비전 벤치마크에서 강력한 성능을 보이는 최첨단 멀티모달 모델입니다. 이 8B 버전은 낮은 지연 시간과 강력한 성능에 중점을 둡니다.", "charglm-3.description": "CharGLM-3는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.", "charglm-4.description": "CharGLM-4는 롤플레이와 감정적 교감을 위해 설계된 모델로, 초장기 다중 턴 기억과 개인화된 대화를 지원합니다.", - "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 고객 지원, 교육, 기술 지원과 같은 대규모 활용 사례를 위한 강력한 이해 및 생성 능력을 결합합니다.", + "chatgpt-4o-latest.description": "ChatGPT-4o는 실시간으로 업데이트되는 동적 모델로, 강력한 언어 이해와 생성 능력을 결합하여 고객 지원, 교육, 기술 지원과 같은 대규모 사용 사례에 적합합니다.", "claude-2.0.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.", "claude-2.1.description": "Claude 2는 업계 최고 수준의 200K 토큰 컨텍스트, 환각 감소, 시스템 프롬프트, 새로운 테스트 기능인 도구 호출을 포함한 주요 엔터프라이즈 기능 향상을 제공합니다.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku는 Anthropic의 차세대 모델 중 가장 빠른 모델로, 다양한 기술에서 향상되었으며 이전 플래그십 모델인 Claude 3 Opus를 여러 벤치마크에서 능가합니다.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B)은 심층 언어 이해와 상호작용을 제공하는 혁신적인 모델입니다.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고(chain-of-thought)에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2는 복잡한 추론과 연쇄 사고 능력이 강화된 차세대 추론 모델입니다.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2는 DeepSeekMoE-27B 기반의 MoE 비전-언어 모델로, 희소 활성화를 통해 4.5B 활성 파라미터만으로도 뛰어난 성능을 발휘합니다. 시각적 QA, OCR, 문서/표/차트 이해, 시각적 정렬에 탁월합니다.", "deepseek-chat.description": "DeepSeek V3.2는 일상적인 질의응답 및 에이전트 작업을 위해 추론 능력과 출력 길이의 균형을 이룹니다. 공개 벤치마크에서 GPT-5 수준에 도달했으며, 도구 사용에 사고 과정을 통합한 최초의 모델로, 오픈소스 에이전트 평가에서 선도적인 성과를 보입니다.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B는 2T 토큰(코드 87%, 중/영문 텍스트 13%)으로 학습된 코드 언어 모델입니다. 16K 문맥 창과 중간 채우기(fit-in-the-middle) 작업을 도입하여 프로젝트 수준의 코드 완성과 코드 조각 보완을 지원합니다.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1은 DeepSeek의 새로운 하이브리드 추론 모델로, 사고 및 비사고 모드를 모두 지원하며 DeepSeek-R1-0528보다 높은 사고 효율을 제공합니다. 사후 학습 최적화를 통해 에이전트 도구 사용 및 작업 성능이 크게 향상되었으며, 128k 문맥 창과 최대 64k 출력 토큰을 지원합니다.", "deepseek-v3.1:671b.description": "DeepSeek V3.1은 복잡한 추론과 연쇄적 사고에 강한 차세대 추론 모델로, 심층 분석 작업에 적합합니다.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp는 희소 어텐션을 도입하여 장문 텍스트의 학습 및 추론 효율을 향상시키며, deepseek-v3.1보다 저렴한 비용으로 제공됩니다.", + "deepseek-v3.2-speciale.description": "매우 복잡한 작업에서 Speciale 모델은 표준 버전보다 훨씬 뛰어난 성능을 발휘하지만, 상당히 많은 토큰을 소비하며 비용이 높습니다. 현재 DeepSeek-V3.2-Speciale는 연구용으로만 사용되며, 도구 호출을 지원하지 않으며 일상적인 대화나 작성 작업에 최적화되지 않았습니다.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think는 더욱 강력한 장기 연쇄 추론을 지원하는 완전한 심층 사고 모델입니다.", "deepseek-v3.2.description": "DeepSeek-V3.2는 DeepSeek의 첫 번째 하이브리드 추론 모델로, 사고 과정을 도구 사용에 통합합니다. 효율적인 아키텍처로 연산을 절감하고, 대규모 강화 학습으로 능력을 향상시키며, 대규모 합성 작업 데이터를 통해 일반화 능력을 강화합니다. 이 세 가지 요소의 결합으로 GPT-5-High에 필적하는 성능을 달성하면서 출력 길이를 크게 줄여 연산 부담과 사용자 대기 시간을 현저히 감소시킵니다.", "deepseek-v3.description": "DeepSeek-V3는 총 671B 파라미터 중 토큰당 37B가 활성화되는 강력한 MoE 모델입니다.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다. 128k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro는 모든 해상도 및 극단적인 종횡비의 이미지를 지원하는 업그레이드된 멀티모달 모델로, 시각적 추론, 문서 인식, 세부 이해, 지시 따르기 능력을 향상시킵니다.", - "doubao-lite-128k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 128k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.", "doubao-lite-32k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.", - "doubao-lite-4k.description": "초고속 응답과 뛰어난 가성비를 제공하며 다양한 상황에서 유연한 선택이 가능합니다. 4k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.", - "doubao-pro-256k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 256k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.", "doubao-pro-32k.description": "복잡한 작업에 최적화된 최고 성능의 플래그십 모델로, 참조 기반 QA, 요약, 창작, 텍스트 분류, 롤플레이에서 강력한 성능을 보입니다. 32k 컨텍스트 윈도우를 지원하며 추론 및 파인튜닝이 가능합니다.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash는 TPOT가 10ms에 불과한 초고속 멀티모달 심층 추론 모델입니다. 텍스트와 비전을 모두 지원하며, 텍스트 이해는 이전 lite 모델을 능가하고, 비전 성능은 경쟁 pro 모델과 동등합니다. 256k 컨텍스트 윈도우와 최대 16k 출력 토큰을 지원합니다.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite는 추론 강도를 조절할 수 있는 새로운 멀티모달 심층 추론 모델로, 일반 작업에 적합한 뛰어난 가성비를 제공합니다. 최대 256k 컨텍스트 윈도우를 지원합니다.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed의 Doubao 이미지 모델은 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 기반 이미지 편집을 지원하며, 출력 크기는 긴 변 기준 512~1536 사이입니다.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.", "doubao-seedream-4-0-250828.description": "Seedream 4.0은 ByteDance Seed의 이미지 생성 모델로, 텍스트 및 이미지 입력을 지원하며, 고품질의 이미지 생성과 높은 제어력을 제공합니다. 텍스트 프롬프트로부터 이미지를 생성합니다.", - "doubao-vision-lite-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.", - "doubao-vision-pro-32k.description": "Doubao-vision은 강력한 이미지 이해 및 추론 능력과 정확한 지시 따르기를 갖춘 Doubao의 멀티모달 모델입니다. 이미지-텍스트 추출 및 이미지 기반 추론 작업에서 뛰어난 성능을 발휘하며, 더 복잡하고 다양한 시각 QA 시나리오를 가능하게 합니다.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5는 ByteDance의 최신 멀티모달 이미지 모델로, 텍스트-이미지, 이미지-이미지, 배치 이미지 생성 기능을 통합하며 상식과 추론 능력을 포함합니다. 이전 4.0 버전에 비해 생성 품질이 크게 향상되었으며, 편집 일관성과 다중 이미지 융합이 개선되었습니다. 시각적 세부 사항에 대한 더 정밀한 제어를 제공하며, 작은 텍스트와 작은 얼굴을 더 자연스럽게 생성하고 레이아웃과 색상이 더 조화롭게 되어 전체적인 미학을 향상시킵니다.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite는 ByteDance의 최신 이미지 생성 모델로, 처음으로 온라인 검색 기능을 통합하여 실시간 웹 정보를 포함하고 생성된 이미지의 시의성을 향상시킵니다. 모델의 지능도 업그레이드되어 복잡한 지시와 시각적 콘텐츠를 정확히 해석할 수 있습니다. 또한 전문적인 시나리오에서 글로벌 지식 범위, 참조 일관성, 생성 품질이 개선되어 기업 수준의 시각적 창작 요구를 더 잘 충족시킵니다.", "emohaa.description": "Emohaa는 전문 상담 능력을 갖춘 정신 건강 모델로, 사용자가 감정 문제를 이해하도록 돕습니다.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B는 로컬 및 맞춤형 배포를 위한 오픈소스 경량 모델입니다.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking은 총 21B 파라미터와 3B 활성 파라미터를 가진 텍스트 MoE(Mixture-of-Experts) 후속 학습 모델로, 추론 품질과 깊이가 크게 향상되었습니다.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B는 더 강력한 이해 및 생성 능력을 갖춘 오픈소스 대규모 파라미터 모델입니다.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B는 Baidu ERNIE의 초대형 MoE 모델로, 뛰어난 추론 능력을 자랑합니다.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview는 ERNIE 4.5의 8K 컨텍스트 프리뷰 모델로, 평가용으로 사용됩니다.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K는 지연 시간과 비용에 민감한 시나리오에 적합한 고성능 경량 모델입니다.", "ernie-novel-8k.description": "ERNIE Novel 8K는 다수의 캐릭터가 등장하는 장편 소설 및 IP 스토리 창작을 위해 설계되었습니다.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K는 대규모 온라인 서비스 및 기업용 애플리케이션을 위한 고동시성, 고가치 모델입니다.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview는 복잡한 추론과 다중 턴 대화를 위한 빠른 사고 모델입니다.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K는 복잡한 추론 및 다중 턴 대화를 위한 32K 컨텍스트의 고속 사고 모델입니다.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview는 평가 및 테스트를 위한 사고 모델 프리뷰입니다.", + "ernie-x1.1.description": "ERNIE X1.1은 평가 및 테스트를 위한 사고 모델 프리뷰입니다.", "fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed 팀이 개발한 Seedream 4.5는 다중 이미지 편집 및 합성을 지원하며, 피사체 일관성 향상, 정밀한 지시 수행, 공간 논리 이해, 미적 표현, 포스터 레이아웃 및 로고 디자인 등 고정밀 텍스트-이미지 렌더링 기능을 갖추고 있습니다.", "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed가 개발한 Seedream 4.0은 텍스트 및 이미지 입력을 지원하며, 프롬프트 기반의 고품질 이미지 생성을 정밀하게 제어할 수 있습니다.", "fal-ai/flux-kontext/dev.description": "FLUX.1 모델은 이미지 편집에 중점을 두며, 텍스트와 이미지 입력을 지원합니다.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite의 2025년 9월 25일자 프리뷰 릴리스입니다.", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite는 Google의 가장 작고 가성비 높은 모델로, 대규모 사용을 위해 설계되었습니다.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.", - "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash의 2025년 9월 25일자 프리뷰 릴리스입니다.", "gemini-2.5-flash.description": "Gemini 2.5 Flash는 Google의 가성비 최고의 모델로, 모든 기능을 갖추고 있습니다.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview는 Google의 가장 진보된 추론 모델로, 코드, 수학, STEM 문제에 대한 추론과 대규모 데이터셋, 코드베이스, 문서 분석을 장기 문맥 내에서 수행할 수 있습니다.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)는 Google의 이미지 생성 모델로, 멀티모달 대화도 지원합니다.", "gemini-3-pro-preview.description": "Gemini 3 Pro는 Google의 가장 강력한 에이전트 및 바이브 코딩 모델로, 최첨단 추론 위에 풍부한 시각적 표현과 깊은 상호작용을 제공합니다.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로급 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2)는 플래시 속도로 프로급 이미지 품질을 제공하며 멀티모달 채팅을 지원합니다.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview는 Gemini 3 Pro의 추론 능력을 강화하고 중간 사고 수준 지원을 추가합니다.", "gemini-flash-latest.description": "Gemini Flash 최신 버전", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 최신 버전", "gemini-pro-latest.description": "Gemini Pro 최신 버전", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.", "glm-4v-plus.description": "GLM-4V-Plus는 비디오 및 다중 이미지 이해가 가능하여 멀티모달 작업에 적합합니다.", "glm-4v.description": "GLM-4V는 시각 작업 전반에 걸쳐 강력한 이미지 이해 및 추론 능력을 제공합니다.", - "glm-5.description": "Z.ai에서 개발한 강력한 추론 및 에이전트 모델로, 744B 총 파라미터(40B 활성)를 갖추고 복잡한 시스템 엔지니어링과 장기 작업을 위해 설계되었습니다.", + "glm-5.description": "GLM 시리즈는 Zhipu AI의 하이브리드 추론 모델로, 사고 및 비사고 모드를 제공합니다.", "glm-z1-air.description": "깊은 추론이 필요한 작업에 적합한 강력한 추론 모델입니다.", "glm-z1-airx.description": "고품질 추론을 제공하는 초고속 추론 모델입니다.", "glm-z1-flash.description": "GLM-Z1 시리즈는 논리, 수학, 프로그래밍 등 복잡한 추론에서 뛰어난 성능을 발휘합니다.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Grok 4 Fast는 비용 효율적인 추론 모델 분야에서의 최신 성과로, 출시를 기쁘게 생각합니다.", "grok-4.description": "최신이자 가장 강력한 플래그십 모델로, 자연어 처리, 수학, 추론에서 뛰어난 성능을 발휘하는 이상적인 범용 모델입니다.", "grok-code-fast-1.description": "에이전트 기반 코딩에 특화된 빠르고 비용 효율적인 추론 모델 grok-code-fast-1을 출시하게 되어 기쁩니다.", + "grok-imagine-image-pro.description": "텍스트 프롬프트에서 이미지를 생성하거나 자연어로 기존 이미지를 편집하거나 다중 턴 대화를 통해 이미지를 반복적으로 개선합니다.", + "grok-imagine-image.description": "텍스트 프롬프트에서 이미지를 생성하거나 자연어로 기존 이미지를 편집하거나 다중 턴 대화를 통해 이미지를 반복적으로 개선합니다.", "groq/compound-mini.description": "Compound-mini는 GroqCloud에서 지원하는 공개 모델 기반의 복합 AI 시스템으로, 사용자 질문에 지능적으로 도구를 선택해 응답합니다.", "groq/compound.description": "Compound는 GroqCloud에서 지원하는 여러 공개 모델 기반의 복합 AI 시스템으로, 사용자 질문에 지능적으로 도구를 선택해 응답합니다.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B는 여러 최상위 모델을 결합한 창의적이고 지능적인 언어 모델입니다.", + "hunyuan-2.0-instruct-20251111.description": "릴리스 특징: 모델 기반이 TurboS에서 **Hunyuan 2.0**으로 업그레이드되어 전반적인 기능이 향상되었습니다. 지시 따르기, 다중 턴 및 장문 텍스트 이해, 문학 창작, 지식 정확성, 코딩 및 추론 능력이 크게 강화되었습니다.", + "hunyuan-2.0-thinking-20251109.description": "릴리스 특징: 모델 기반이 TurboS에서 **Hunyuan 2.0**으로 업그레이드되어 전반적인 기능이 향상되었습니다. 복잡한 지시를 따르는 능력, 다중 턴 및 장문 텍스트 이해, 코드 처리, 에이전트 역할 수행 및 추론 작업 수행 능력이 크게 강화되었습니다.", "hunyuan-a13b.description": "Hunyuan의 첫 하이브리드 추론 모델로, hunyuan-standard-256K에서 업그레이드되었습니다 (총 80B, 활성 13B). 기본적으로 느린 사고를 사용하며, 매개변수 또는 /no_think 접두어로 빠른/느린 전환이 가능합니다. 수학, 과학, 장문 이해, 에이전트 작업에서 전 세대보다 전반적인 성능이 향상되었습니다.", - "hunyuan-code.description": "200B 고품질 코드와 6개월간의 SFT로 학습된 최신 코드 생성 모델로, 8K 컨텍스트를 지원합니다. 5개 언어의 자동 벤치마크와 10개 기준의 인간 평가에서 상위권을 기록했습니다.", - "hunyuan-functioncall.description": "고품질 함수 호출 데이터를 기반으로 학습된 최신 MoE FunctionCall 모델로, 32K 컨텍스트 윈도우를 지원하며 다양한 기준에서 선도적인 벤치마크 결과를 보입니다.", - "hunyuan-large-longcontext.description": "요약 및 질의응답과 같은 장문 문서 작업에 뛰어나며, 일반적인 생성 작업도 처리할 수 있습니다. 복잡하고 세부적인 콘텐츠에 대한 장문 분석 및 생성 능력이 우수합니다.", - "hunyuan-large-vision.description": "Hunyuan Large로부터 학습된 비전-언어 모델로, 이미지-텍스트 이해를 지원합니다. 해상도에 관계없이 다중 이미지 + 텍스트 입력을 지원하며, 다국어 시각 이해 능력이 향상되었습니다.", - "hunyuan-large.description": "Hunyuan-large는 총 약 389B 파라미터 중 약 52B가 활성화된, Transformer 아키텍처 기반의 가장 크고 강력한 오픈 MoE 모델입니다.", - "hunyuan-lite-vision.description": "32K 컨텍스트 윈도우를 지원하는 최신 7B 멀티모달 모델로, 중영 멀티모달 대화, 객체 인식, 문서 표 이해, 멀티모달 수학을 지원하며, 여러 벤치마크에서 7B 동급 모델을 능가합니다.", + "hunyuan-code.description": "Hunyuan의 최신 코드 모델은 200B 고품질 코드 데이터와 6개월간의 SFT 데이터를 기반으로 학습되었으며, 8K 컨텍스트를 제공합니다. 자동화된 코드 벤치마크와 5개 언어에 걸친 전문가 인간 평가에서 상위권에 위치합니다.", + "hunyuan-functioncall.description": "Hunyuan의 최신 MoE FunctionCall 모델은 고품질 도구 호출 데이터를 기반으로 학습되었으며, 32K 컨텍스트 윈도우와 다양한 차원에서 선도적인 벤치마크를 제공합니다.", "hunyuan-lite.description": "MoE 아키텍처로 업그레이드되었으며, 256K 컨텍스트 윈도우를 지원합니다. NLP, 코드, 수학, 산업 벤치마크에서 많은 오픈 모델을 선도합니다.", "hunyuan-pro.description": "수조 개 파라미터를 가진 MOE-32K 장문 컨텍스트 모델로, 복잡한 지시 및 추론, 고급 수학, 함수 호출에 강하며, 다국어 번역, 금융, 법률, 의료 분야에 최적화되어 있습니다.", - "hunyuan-role.description": "역할극 데이터셋으로 공식 파인튜닝된 최신 역할극 모델로, 역할극 시나리오에서 더 강력한 기본 성능을 제공합니다.", - "hunyuan-standard-256K.description": "로드 밸런싱 및 전문가 붕괴 문제를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 컨텍스트에서 99.9%의 바늘 찾기 정확도를 달성합니다. MOE-256K는 컨텍스트 길이와 품질을 더욱 확장합니다.", - "hunyuan-standard-vision.description": "다국어 응답과 중영 균형 능력을 갖춘 최신 멀티모달 모델입니다.", - "hunyuan-standard.description": "로드 밸런싱 및 전문가 붕괴 문제를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 컨텍스트에서 99.9%의 바늘 찾기 정확도를 달성합니다. MOE-32K는 장문 입력을 처리하면서도 높은 가치를 제공합니다.", - "hunyuan-t1-20250321.description": "예술과 STEM 능력을 균형 있게 구축하며, 장문 정보 포착 능력이 뛰어납니다. 수학, 논리, 과학, 코드 문제에 대한 추론형 응답을 지원합니다.", - "hunyuan-t1-20250403.description": "프로젝트 수준의 코드 생성 및 글쓰기 품질을 향상시키고, 다중 턴 주제 이해 및 ToB 지시 따르기 능력을 강화하며, 단어 수준 이해를 개선하고 간체/번체 및 중영 혼합 출력 문제를 줄입니다.", - "hunyuan-t1-20250529.description": "창의적 글쓰기 및 작문 능력을 향상시키고, 프론트엔드 코딩, 수학, 논리 추론 능력을 강화하며, 지시 따르기 능력을 개선합니다.", - "hunyuan-t1-20250711.description": "고난도 수학, 논리, 코딩 능력을 대폭 향상시키고, 출력 안정성과 장문 처리 능력을 강화합니다.", + "hunyuan-role.description": "Hunyuan의 최신 역할 수행 모델은 역할 수행 데이터를 공식적으로 미세 조정하여 역할 수행 시나리오에서 더 강력한 기본 성능을 제공합니다.", + "hunyuan-standard-256K.description": "로드 밸런싱 및 전문가 붕괴를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 텍스트 \"건초 더미 속 바늘\"은 99.9%에 도달합니다. MOE-256K는 길이와 품질을 더욱 확장하여 입력 길이를 크게 늘립니다.", + "hunyuan-standard.description": "로드 밸런싱 및 전문가 붕괴를 완화하기 위해 개선된 라우팅을 사용합니다. 장문 텍스트 \"건초 더미 속 바늘\"은 99.9%에 도달합니다. MOE-32K는 품질과 가격의 균형을 유지하면서 장문 텍스트 입력에 더 나은 가치를 제공합니다.", "hunyuan-t1-latest.description": "고난도 수학, 복잡한 추론, 어려운 코딩, 지시 따르기, 창의적 글쓰기 품질에서 느린 사고 모델의 성능을 크게 향상시켰습니다.", - "hunyuan-t1-vision-20250619.description": "기본 버전 대비 크게 향상된 최신 t1-vision 멀티모달 심층 추론 모델로, 네이티브 체인 오브 쏘트를 지원합니다.", "hunyuan-t1-vision-20250916.description": "VQA, 시각적 정렬, OCR, 차트, 사진 기반 문제 해결, 이미지 기반 창작에서 큰 개선을 이룬 최신 t1-vision 심층 추론 모델로, 영어 및 저자원 언어 지원도 강화되었습니다.", - "hunyuan-turbo-20241223.description": "지시 확장 능력을 향상시켜 일반화 성능을 높이고, 수학/코드/논리 추론 능력을 대폭 개선하며, 단어 수준 이해 및 글쓰기 품질을 향상시킵니다.", - "hunyuan-turbo-latest.description": "NLP 이해, 글쓰기, 대화, 질의응답, 번역, 도메인 전반에서 전반적인 경험이 향상되었으며, 더 인간적인 응답, 모호한 의도에 대한 명확한 설명, 단어 분석 개선, 창의성 및 상호작용성 향상, 다중 턴 대화 능력 강화가 이루어졌습니다.", - "hunyuan-turbo-vision.description": "새로운 MoE 아키텍처를 기반으로 한 차세대 비전-언어 플래그십 모델로, 인식, 콘텐츠 생성, 지식 질의응답, 분석적 추론에서 전반적인 성능이 향상되었습니다.", "hunyuan-turbo.description": "Hunyuan의 차세대 LLM 프리뷰 버전으로, 새로운 MoE 아키텍처를 기반으로 하여 hunyuan-pro보다 빠른 추론과 더 강력한 결과를 제공합니다.", - "hunyuan-turbos-20250313.description": "수학 문제 해결 스타일을 통합하고 다중 턴 수학 QA를 강화합니다. 글쓰기 스타일을 다듬어 AI 같은 어투를 줄이고 표현을 세련되게 합니다.", - "hunyuan-turbos-20250416.description": "사전 학습 기반을 업그레이드하여 지시 이해 및 수행 능력을 향상시켰습니다. 정렬 개선을 통해 수학, 코드, 논리, 과학 능력을 강화하고, 글쓰기 품질, 이해력, 번역 정확도, 지식 QA를 개선했습니다. 특히 다중 턴 이해에서 에이전트 능력을 강화했습니다.", - "hunyuan-turbos-20250604.description": "사전 학습 기반을 업그레이드하여 글쓰기 및 독해 능력을 향상시켰으며, 코드 및 STEM 분야에서 큰 성과를 보이고 복잡한 지시 수행 능력을 개선했습니다.", - "hunyuan-turbos-20250926.description": "사전 학습 데이터 품질과 후속 학습 전략을 개선하여 에이전트, 영어/저자원 언어, 지시 수행, 코드 및 STEM 능력을 향상시켰습니다.", "hunyuan-turbos-latest.description": "최신 Hunyuan TurboS 플래그십 모델로, 더 강력한 추론 능력과 전반적인 향상된 사용자 경험을 제공합니다.", - "hunyuan-turbos-longtext-128k-20250325.description": "요약 및 QA와 같은 장문 문서 작업에 뛰어나며, 일반적인 생성 작업도 처리할 수 있습니다. 복잡하고 세부적인 콘텐츠에 대한 장문 분석 및 생성에 강합니다.", - "hunyuan-turbos-role-plus.description": "최신 롤플레잉 모델로, 롤플레잉 데이터셋에 공식적으로 파인튜닝되어 롤플레잉 시나리오에서 더 강력한 기본 성능을 제공합니다.", - "hunyuan-turbos-vision-20250619.description": "최신 TurboS 비전-언어 플래그십 모델로, 엔터티 인식, 지식 QA, 카피라이팅, 사진 기반 문제 해결 등 이미지-텍스트 작업에서 큰 성능 향상을 보입니다.", - "hunyuan-turbos-vision.description": "최신 TurboS 기반 차세대 비전-언어 플래그십 모델로, 엔터티 인식, 지식 QA, 카피라이팅, 사진 기반 문제 해결 등 이미지-텍스트 이해 작업에 중점을 둡니다.", - "hunyuan-vision-1.5-instruct.description": "텍스트 기반 TurboS 모델을 기반으로 한 이미지-텍스트 사고 모델로, 이전 버전에 비해 이미지 기본 인식, 이미지 분석 및 추론 등에서 눈에 띄는 성능 향상을 보입니다.", - "hunyuan-vision.description": "이미지 + 텍스트 입력을 지원하여 텍스트를 생성하는 최신 멀티모달 모델입니다.", + "hunyuan-vision-1.5-instruct.description": "TurboS 텍스트 기반으로 구축된 빠른 사고 이미지-텍스트 모델로, 이전 버전에 비해 기본 이미지 인식 및 이미지 분석 추론에서 눈에 띄는 개선을 보여줍니다.", + "hunyuan-vision.description": "Hunyuan 최신 멀티모달 모델은 이미지 + 텍스트 입력을 지원하여 텍스트를 생성합니다.", "image-01-live.description": "세밀한 디테일을 지원하는 이미지 생성 모델로, 텍스트-이미지 변환과 스타일 프리셋 제어를 지원합니다.", "image-01.description": "세밀한 디테일을 지원하는 새로운 이미지 생성 모델로, 텍스트-이미지 및 이미지-이미지 변환을 지원합니다.", "imagen-4.0-fast-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈의 빠른 버전입니다.", "imagen-4.0-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈입니다.", - "imagen-4.0-generate-preview-06-06.description": "Imagen 4세대 텍스트-이미지 모델 제품군입니다.", "imagen-4.0-ultra-generate-001.description": "Imagen 4세대 텍스트-이미지 모델 시리즈의 Ultra 버전입니다.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen 4세대 텍스트-이미지 모델의 Ultra 변형입니다.", "inception/mercury-coder-small.description": "Mercury Coder Small은 코드 생성, 디버깅, 리팩토링에 적합하며 지연 시간이 매우 짧습니다.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0은 Ant Group의 Bailing 팀이 개발한 Ling 2.0 아키텍처 기반의 세 번째 모델입니다. 총 100B 파라미터 중 토큰당 6.1B만 활성화되는 MoE 모델로, 경량 구성에도 불구하고 40B 밀집 모델 및 더 큰 MoE 모델을 능가하거나 동등한 성능을 보입니다. 아키텍처와 학습 전략을 통해 고효율을 추구합니다.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0은 총 16B 파라미터 중 토큰당 1.4B만 활성화되는 고성능 경량 MoE LLM으로, 매우 빠른 생성 속도를 제공합니다. 효율적인 MoE 설계와 대규모 고품질 학습 데이터를 통해 10B 이하 밀집 모델 및 더 큰 MoE 모델과 동등한 성능을 달성합니다.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T는 inclusionAI의 1조 파라미터 MoE 추론 모델로, 대규모 추론 및 연구 작업에 적합합니다.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0은 inclusionAI의 고처리량 시나리오용 Ring 모델 변형으로, 속도와 비용 효율성에 중점을 둡니다.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0은 inclusionAI의 고처리량 경량 MoE 모델로, 동시성에 최적화되어 있습니다.", + "intern-latest.description": "기본적으로 최신 Intern 시리즈 모델을 가리키며, 현재 intern-s1-pro로 설정되어 있습니다.", + "intern-s1-mini.description": "과학적 추론 능력이 강한 경량 멀티모달 대형 모델입니다.", + "intern-s1-pro.description": "가장 진보된 오픈소스 멀티모달 추론 모델을 출시했으며, 현재 전반적인 성능 면에서 최고의 오픈소스 멀티모달 대형 언어 모델입니다.", + "intern-s1.description": "오픈소스 멀티모달 추론 모델은 강력한 범용 능력을 보여줄 뿐만 아니라 다양한 과학적 작업에서 최첨단 성능을 달성합니다.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat은 InternLM2 아키텍처 기반의 오픈소스 대화 모델입니다. 7B 모델은 중·영문 대화 생성을 중점으로 하며, 현대적 학습을 통해 유창하고 지능적인 대화를 제공합니다. 고객 지원, 개인 비서 등 다양한 대화 시나리오에 적합합니다.", - "internlm2.5-latest.description": "여전히 유지 관리되는 레거시 모델로, 여러 차례 반복을 거쳐 안정적이고 우수한 성능을 제공합니다. 7B 및 20B 크기로 제공되며, 1M 컨텍스트 지원, 지시 수행 및 도구 사용 능력이 강화되었습니다. 기본값은 최신 InternLM2.5 시리즈(현재 internlm2.5-20b-chat)입니다.", - "internlm3-latest.description": "최신 모델 시리즈로, 뛰어난 추론 성능을 제공하며 해당 크기 클래스에서 오픈 모델 중 선도적인 성능을 보입니다. 기본값은 최신 InternLM3 시리즈(현재 internlm3-8b-instruct)입니다.", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO는 복잡한 이미지-텍스트 추론을 위한 멀티모달 사전학습 모델입니다.", - "internvl2.5-latest.description": "InternVL2.5는 여전히 유지 관리되며 강력하고 안정적인 성능을 제공합니다. 기본값은 최신 InternVL2.5 시리즈(현재 internvl2.5-78b)입니다.", "internvl3-14b.description": "InternVL3 14B는 성능과 비용의 균형을 맞춘 중간 크기의 멀티모달 모델입니다.", "internvl3-1b.description": "InternVL3 1B는 자원이 제한된 배포 환경을 위한 경량 멀티모달 모델입니다.", "internvl3-38b.description": "InternVL3 38B는 고정확도 이미지-텍스트 이해를 위한 대형 오픈소스 멀티모달 모델입니다.", - "internvl3-latest.description": "최신 멀티모달 모델로, 이미지-텍스트 이해 및 장문 이미지 이해 능력이 강화되어 상위 폐쇄형 모델과 견줄 수 있습니다. 기본값은 최신 InternVL 시리즈(현재 internvl3-78b)입니다.", + "internvl3.5-241b-a28b.description": "새로 출시된 멀티모달 대형 모델은 이미지와 텍스트 이해 및 장문 이미지 이해 능력이 강화되어, 선도적인 비공개 모델과 비교할 만한 성능을 달성합니다.", + "internvl3.5-latest.description": "기본적으로 InternVL3.5 시리즈의 최신 모델을 가리키며, 현재 internvl3.5-241b-a28b로 설정되어 있습니다.", "irag-1.0.description": "ERNIE iRAG는 이미지 검색, 이미지-텍스트 검색, 콘텐츠 생성을 위한 이미지 검색 기반 생성 모델입니다.", "jamba-large.description": "복잡한 기업용 작업을 위해 설계된 가장 강력하고 고급화된 모델로, 탁월한 성능을 제공합니다.", "jamba-mini.description": "동급 모델 중 가장 효율적인 모델로, 속도와 품질의 균형을 유지하면서도 경량화된 구조를 갖추고 있습니다.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2는 코딩 및 에이전트 워크플로우에 특화된 효율적인 대형 언어 모델입니다.", "minimax/minimax-m2.1.description": "MiniMax-M2.1은 코딩, 프록시 워크플로우, 최신 애플리케이션 개발에 최적화된 경량 고성능 대형 언어 모델로, 더 간결하고 깔끔한 출력과 빠른 반응 속도를 제공합니다.", "minimax/minimax-m2.description": "MiniMax-M2는 다양한 엔지니어링 시나리오에서 코딩 및 에이전트 작업에 뛰어난 고가치 모델입니다.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1은 최상급 코딩 및 에이전트 성능을 위해 설계된 컴팩트하고 빠르며 비용 효율적인 MoE 모델입니다.", "minimaxai/minimax-m2.description": "MiniMax-M2는 컴팩트하고 빠르며 비용 효율적인 MoE 모델(총 230B, 활성 10B)로, 다중 파일 편집, 코드 실행-수정 루프, 테스트 검증, 복잡한 툴체인에서 뛰어난 성능을 발휘하며 강력한 일반 지능을 유지합니다.", "ministral-3b-latest.description": "Ministral 3B는 Mistral의 최고급 엣지 모델입니다.", "ministral-8b-latest.description": "Ministral 8B는 Mistral의 매우 비용 효율적인 엣지 모델입니다.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 모델은 256K 컨텍스트 윈도우를 지원하며, 향상된 Agentic Coding, 더 정제되고 실용적인 프론트엔드 코드, 뛰어난 컨텍스트 이해력을 제공합니다.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo는 Kimi K2 Thinking의 고속 버전으로, 지연 시간을 크게 줄이면서도 깊은 추론 능력을 유지합니다.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking은 Moonshot의 추론 모델로, 깊은 추론 작업에 최적화되어 있으며 일반적인 에이전트 기능을 지원합니다.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5는 지금까지 가장 지능적인 Kimi 모델로, 네이티브 멀티모달 아키텍처를 특징으로 합니다.", "moonshotai/kimi-k2.description": "Kimi K2는 Moonshot AI의 대형 MoE 모델로, 총 1조 파라미터 중 320억이 활성화되며, 고급 도구 사용, 추론, 코드 생성 등 에이전트 기능에 최적화되어 있습니다.", "morph/morph-v3-fast.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경을 기존 파일에 적용하는 특화 모델로, 초당 4,500+ 토큰의 속도를 자랑합니다. AI 코딩 워크플로우의 마지막 단계로, 16K 입력/출력을 지원합니다.", "morph/morph-v3-large.description": "Morph는 최첨단 모델(예: Claude 또는 GPT-4o)이 제안한 코드 변경 사항을 기존 파일에 빠르게 적용할 수 있도록 특화된 모델입니다. 초당 2500개 이상의 토큰 처리 속도를 자랑하며, AI 코딩 워크플로우의 마지막 단계로 16K 입력/출력 토큰을 지원합니다.", + "musesteamer-air-image.description": "musesteamer-air-image는 Baidu의 검색 팀이 개발한 이미지 생성 모델로, 뛰어난 비용 대비 성능을 제공합니다. 사용자 프롬프트를 기반으로 명확하고 동작 일관성이 있는 이미지를 빠르게 생성하며, 사용자 설명을 시각적으로 쉽게 변환합니다.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B는 Nous Hermes 2의 최신 버전으로, 내부에서 개발한 최신 데이터셋을 기반으로 업데이트되었습니다.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B는 NVIDIA가 사용자 응답의 유용성을 향상시키기 위해 맞춤 제작한 LLM입니다. Arena Hard, AlpacaEval 2 LC, GPT-4-Turbo MT-Bench에서 모두 1위를 기록하며, 2024년 10월 1일 기준 자동 정렬 벤치마크에서 최고의 성능을 보입니다. 이 모델은 Llama-3.1-70B-Instruct를 기반으로 RLHF(REINFORCE), Llama-3.1-Nemotron-70B-Reward, HelpSteer2-Preference 프롬프트를 활용해 학습되었습니다.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "탁월한 정확도와 효율성을 제공하는 독창적인 언어 모델입니다.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "컨텍스트 길이, 주제, 복잡도에 따라 요청이 Llama 3 70B Instruct, Claude 3.5 Sonnet(자체 검열), 또는 GPT-4o로 라우팅됩니다.", "oswe-vscode-prime.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.", "oswe-vscode-secondary.description": "Raptor mini는 코드 관련 작업에 최적화된 프리뷰 모델입니다.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2는 높은 계산 효율성과 뛰어난 추론 및 에이전트 성능 간의 균형을 이루는 모델입니다.", "perplexity/sonar-pro.description": "Perplexity의 플래그십 제품으로, 검색 기반 응답을 지원하며 고급 질의 및 후속 질문에 대응합니다.", "perplexity/sonar-reasoning-pro.description": "향상된 검색 기능과 함께 CoT 출력을 제공하는 고급 추론 중심 모델로, 요청당 다중 검색 질의를 포함합니다.", "perplexity/sonar-reasoning.description": "세부적인 검색 기반 설명과 함께 사고의 흐름(CoT)을 출력하는 추론 중심 모델입니다.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen 코드 모델입니다.", "qwen-coder-turbo.description": "Qwen 코드 모델입니다.", "qwen-flash.description": "가장 빠르고 비용 효율적인 Qwen 모델로, 간단한 작업에 이상적입니다.", + "qwen-image-edit-max.description": "Qwen 이미지 편집 모델은 다중 이미지 입력 및 다중 이미지 출력을 지원하며, 이미지 내 텍스트 편집, 객체 추가, 제거 또는 재배치, 주제 동작 수정, 이미지 스타일 전환 및 시각적 세부 사항 향상을 가능하게 합니다.", + "qwen-image-edit-plus.description": "Qwen 이미지 편집 모델은 다중 이미지 입력 및 다중 이미지 출력을 지원하며, 이미지 내 텍스트 편집, 객체 추가, 제거 또는 재배치, 주제 동작 수정, 이미지 스타일 전환 및 시각적 세부 사항 향상을 가능하게 합니다.", "qwen-image-edit.description": "Qwen Image Edit는 이미지와 텍스트 프롬프트를 기반으로 이미지를 편집하는 이미지-투-이미지 모델로, 정밀한 조정과 창의적 변형이 가능합니다.", + "qwen-image-max.description": "Qwen 이미지 생성 모델(Max 시리즈)은 Plus 시리즈에 비해 사실성과 시각적 자연스러움이 향상되었으며, AI 생성 아티팩트를 효과적으로 줄이고 인간 외모, 텍스처 세부 사항 및 텍스트 렌더링에서 뛰어난 성능을 보여줍니다.", + "qwen-image-plus.description": "다양한 예술적 스타일을 지원하며, 특히 이미지 내 복잡한 텍스트 렌더링에 능숙하여 통합된 이미지-텍스트 레이아웃 디자인을 가능하게 합니다.", "qwen-image.description": "Qwen-Image는 다양한 예술 스타일을 지원하고 복잡한 텍스트 렌더링에 강한 범용 이미지 생성 모델입니다. 특히 중국어와 영어에 강하며, 다중 행 레이아웃, 문단 수준 텍스트, 복잡한 텍스트-이미지 레이아웃의 세부 표현을 지원합니다.", "qwen-long.description": "초대형 Qwen 모델로, 긴 문맥과 다문서 시나리오에서의 대화를 지원합니다.", "qwen-math-plus-latest.description": "Qwen Math는 수학 문제 해결에 특화된 언어 모델입니다.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "오픈소스 Qwen 코드 모델입니다. 최신 qwen3-coder-30b-a3b-instruct는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct는 다국어 프로그래밍과 복잡한 코드 이해를 위한 플래그십 코드 모델입니다.", "qwen3-coder-flash.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.", + "qwen3-coder-next.description": "다중 파일 코드 생성, 디버깅 및 고속 에이전트 워크플로우에 최적화된 차세대 Qwen 코더입니다. 강력한 도구 통합과 향상된 추론 성능을 제공합니다.", "qwen3-coder-plus.description": "Qwen 코드 모델입니다. 최신 Qwen3-Coder 시리즈는 Qwen3 기반으로, 자율 프로그래밍을 위한 강력한 코딩 에이전트 기능, 도구 활용, 환경 상호작용을 제공하며, 우수한 코드 성능과 견고한 범용 능력을 갖추고 있습니다.", "qwen3-coder:480b.description": "Alibaba의 고성능 장문 컨텍스트 모델로, 에이전트 및 코딩 작업에 적합합니다.", "qwen3-max-2026-01-23.description": "Qwen3 Max 모델은 2.5 시리즈 대비 일반 능력, 중영어 이해, 복잡한 지시 따르기, 주관적 개방형 작업, 다국어 능력, 도구 사용에서 큰 향상을 이루었으며, 환각 현상이 줄었습니다. 최신 qwen3-max는 qwen3-max-preview보다 에이전트 프로그래밍 및 도구 사용이 향상되었으며, 복잡한 에이전트 요구를 충족하는 분야 최고 성능을 달성했습니다.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking은 정밀한 시각 추론을 위한 멀티모달 연쇄 사고 모델입니다.", "qwen3-vl-flash.description": "Qwen3 VL Flash는 지연 민감 또는 대량 요청에 적합한 경량 고속 추론 버전입니다.", "qwen3-vl-plus.description": "Qwen VL은 시각 이해 기능을 갖춘 텍스트 생성 모델입니다. OCR 수행은 물론, 제품 사진에서 속성 추출이나 이미지 기반 문제 해결 등 요약 및 추론도 가능합니다.", + "qwen3.5-397b-a17b.description": "텍스트, 이미지 및 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 비교 가능한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 보여줍니다.", + "qwen3.5-plus.description": "Qwen3.5 Plus는 텍스트, 이미지 및 비디오 입력을 지원합니다. 텍스트 전용 작업에서는 Qwen3 Max와 비교 가능한 성능을 제공하며, 더 높은 효율성과 낮은 비용을 자랑합니다. 멀티모달 기능에서는 Qwen3 VL 시리즈에 비해 상당한 개선을 보여줍니다.", "qwen3.description": "Qwen3는 Alibaba의 차세대 대형 언어 모델로, 다양한 활용 사례에서 강력한 성능을 발휘합니다.", "qwq-32b-preview.description": "QwQ는 향상된 추론 능력에 중점을 둔 Qwen의 실험적 연구 모델입니다.", "qwq-32b.description": "QwQ는 Qwen 계열의 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 사고 및 추론 능력이 뛰어나며, 특히 복잡한 문제에서 다운스트림 성능을 크게 향상시킵니다. QwQ-32B는 DeepSeek-R1 및 o1-mini와 경쟁할 수 있는 중형 추론 모델입니다.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Qwen 계열의 중형 추론 모델입니다. 일반적인 지시 조정 모델과 비교해 QwQ의 사고 및 추론 능력은 특히 어려운 문제에서 다운스트림 성능을 크게 향상시킵니다.", "r1-1776.description": "R1-1776은 DeepSeek R1의 후속 학습 버전으로, 검열되지 않고 편향 없는 사실 정보를 제공합니다.", "seedance-1-5-pro-251215.description": "ByteDance의 Seedance 1.5 Pro는 텍스트-영상, 이미지-영상(첫 프레임, 첫+마지막 프레임), 시각과 동기화된 오디오 생성을 지원합니다.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite는 BytePlus가 개발한 모델로, 실시간 정보 제공을 위한 웹 검색 증강 생성 기능을 특징으로 하며, 복잡한 프롬프트 해석과 전문적인 시각적 창작을 위한 참조 일관성을 개선합니다.", "solar-mini-ja.description": "Solar Mini (Ja)는 Solar Mini의 일본어 특화 버전으로, 영어와 한국어에서도 효율적이고 강력한 성능을 유지합니다.", "solar-mini.description": "Solar Mini는 GPT-3.5를 능가하는 성능을 가진 소형 LLM으로, 영어와 한국어를 지원하는 강력한 다국어 기능을 갖추고 있으며, 효율적인 경량 솔루션을 제공합니다.", "solar-pro.description": "Solar Pro는 Upstage의 고지능 LLM으로, 단일 GPU에서 지시 수행에 최적화되어 있으며, IFEval 점수 80 이상을 기록합니다. 현재는 영어를 지원하며, 2024년 11월 전체 릴리스 시 더 많은 언어와 긴 컨텍스트를 지원할 예정입니다.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "복잡한 질의와 후속 질문을 위한 검색 기반 고급 검색 제품입니다.", "sonar-reasoning.description": "복잡한 질의와 후속 질문을 위한 검색 기반 고급 검색 제품입니다.", "sonar.description": "Sonar Pro보다 빠르고 저렴한 경량 검색 기반 제품입니다.", - "spark-x.description": "X1.5 업데이트: (1) `thinking` 필드로 제어되는 동적 사고 모드 추가; (2) 64K 입력 및 64K 출력의 확장된 컨텍스트 길이; (3) FunctionCall 지원.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2는 높은 계산 효율성과 뛰어난 추론 및 에이전트 성능 간의 균형을 이루는 모델입니다.", + "spark-x.description": "X2 기능 개요: 1. `thinking` 필드를 통해 추론 모드의 동적 조정을 도입합니다. 2. 컨텍스트 길이 확장: 64K 입력 토큰 및 128K 출력 토큰. 3. Function Call 기능을 지원합니다.", "stable-diffusion-3-medium.description": "Stability AI의 최신 텍스트-이미지 모델입니다. 이미지 품질, 텍스트 이해, 스타일 다양성이 크게 향상되었으며, 복잡한 자연어 프롬프트를 더 정확하게 해석하고 정밀하고 다양한 이미지를 생성합니다.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo는 stable-diffusion-3.5-large에 적대적 확산 증류(ADD)를 적용하여 속도를 향상시킨 버전입니다.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large는 800M 파라미터의 MMDiT 텍스트-이미지 모델로, 우수한 품질과 프롬프트 정렬을 제공하며, 1메가픽셀 이미지를 지원하고 소비자 하드웨어에서 효율적으로 실행됩니다.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "복잡한 대화를 위한 대용량 문맥 상호작용을 지원합니다.", "step-2-mini.description": "차세대 자체 개발 MFA 어텐션 아키텍처 기반으로, Step-1 수준의 결과를 훨씬 낮은 비용으로 제공하며, 처리량과 지연 시간도 개선되었습니다. 일반 작업과 강력한 코딩 능력을 처리합니다.", "step-2x-large.description": "StepFun의 차세대 이미지 생성 모델로, 텍스트 프롬프트로부터 고품질 이미지를 생성합니다. 더 사실적인 질감과 강력한 중영문 텍스트 렌더링을 제공합니다.", + "step-3.5-flash.description": "Stepfun의 플래그십 언어 추론 모델입니다. 이 모델은 최고 수준의 추론 능력과 빠르고 신뢰할 수 있는 실행을 제공합니다. 복잡한 작업을 분해하고 계획하며, 도구를 빠르고 신뢰성 있게 호출하여 수행하며, 논리적 추론, 수학, 소프트웨어 엔지니어링, 심층 연구 및 기타 정교한 작업에서 뛰어난 성능을 발휘합니다. 컨텍스트 길이는 256K입니다.", "step-3.description": "강력한 시각 인식과 복잡한 추론 능력을 갖춘 모델로, 도메인 간 지식 이해, 수학-시각 교차 분석, 다양한 일상 시각 분석 작업을 정확하게 처리합니다.", "step-r1-v-mini.description": "이미지와 텍스트를 처리한 후 깊은 추론을 통해 텍스트를 생성하는 강력한 이미지 이해 추론 모델입니다. 시각 추론에 뛰어나며, 수학, 코딩, 텍스트 추론에서 최고 수준의 성능을 발휘하며, 100K 문맥 창을 지원합니다.", "stepfun-ai/step3.description": "Step3는 StepFun의 최첨단 멀티모달 추론 모델로, 총 321B, 활성 38B 파라미터의 MoE 아키텍처 기반입니다. 종단 간 설계로 디코딩 비용을 최소화하면서 최고 수준의 비전-언어 추론을 제공합니다. MFA 및 AFD 설계를 통해 고급 및 저사양 가속기 모두에서 효율적입니다. 사전학습은 20T+ 텍스트 토큰과 4T 이미지-텍스트 토큰을 다국어로 사용하며, 수학, 코드, 멀티모달 벤치마크에서 최고 수준의 오픈모델 성능을 달성합니다.", - "taichu_llm.description": "대규모 고품질 데이터로 학습되어 텍스트 이해, 콘텐츠 생성, 대화형 질의응답 능력이 향상되었습니다.", - "taichu_o1.description": "taichu_o1은 멀티모달 상호작용과 강화학습을 통해 인간과 유사한 연쇄적 사고를 구현하는 차세대 추론 모델로, 복잡한 의사결정 시뮬레이션을 지원하며, 높은 정확도를 유지하면서 추론 경로를 노출합니다. 전략 분석 및 심층 사고에 적합합니다.", - "taichu_vl.description": "이미지 이해, 지식 전이, 논리 귀속을 결합하여 이미지-텍스트 질의응답에서 뛰어난 성능을 발휘합니다.", + "taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2B 모델의 No-Thinking 버전은 메모리 사용량이 적고, 경량 설계, 빠른 응답 속도, 강력한 멀티모달 이해 능력을 특징으로 합니다.", + "taichu4_vl_32b.description": "Taichu4.0-VL 32B 모델의 Thinking 버전은 복잡한 멀티모달 이해 및 추론 작업에 적합하며, 멀티모달 수학적 추론, 멀티모달 에이전트 능력, 일반 이미지 및 시각적 이해에서 뛰어난 성능을 보여줍니다.", + "taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32B 모델의 No-Thinking 버전은 복잡한 이미지-텍스트 이해 및 시각적 지식 QA 시나리오에 적합하며, 이미지 캡션 생성, 시각적 질문 응답, 비디오 이해 및 시각적 위치 지정 작업에서 뛰어난 성능을 발휘합니다.", + "taichu4_vl_3b.description": "Taichu4.0-VL 3B 모델의 Thinking 버전은 멀티모달 이해 및 추론 작업을 효율적으로 수행하며, 시각적 이해, 시각적 위치 지정, OCR 인식 및 관련 기능에서 포괄적인 업그레이드를 제공합니다.", + "taichu_llm.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.", + "taichu_llm_14b.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.", + "taichu_llm_2b.description": "Zidong Taichu 대형 언어 모델은 완전한 국내 풀스택 기술을 사용하여 개발된 고성능 텍스트 생성 모델입니다. 수백억 파라미터 기반 모델의 구조적 압축과 작업별 최적화를 통해 복잡한 텍스트 이해 및 지식 추론 능력을 크게 향상시킵니다. 장문 분석, 다국어 정보 추출 및 지식 제약 생성과 같은 시나리오에서 뛰어난 성능을 발휘합니다.", + "taichu_o1.description": "taichu_o1은 멀티모달 상호작용과 강화 학습을 통해 인간과 유사한 사고 과정을 구현하는 차세대 추론 대형 모델입니다. 복잡한 의사결정 시뮬레이션을 지원하며, 높은 정확도를 유지하면서 해석 가능한 추론 경로를 제공합니다. 전략 분석, 심층 사고 및 유사한 시나리오에 적합합니다.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct는 총 80B, 활성 13B 파라미터로 더 큰 모델과 유사한 성능을 제공합니다. 빠른/느린 하이브리드 추론, 안정적인 장문 이해, BFCL-v3 및 τ-Bench에서 선도적인 에이전트 능력을 지원합니다. GQA 및 다중 양자화 형식을 통해 효율적인 추론이 가능합니다.", "tencent/Hunyuan-MT-7B.description": "Hunyuan 번역 모델은 Hunyuan-MT-7B와 앙상블 모델 Hunyuan-MT-Chimera로 구성됩니다. Hunyuan-MT-7B는 33개 언어와 5개 중국 소수민족 언어를 지원하는 7B 경량 번역 모델로, WMT25에서 31개 언어쌍 중 30개에서 1위를 차지했습니다. 텐센트 Hunyuan은 사전학습부터 SFT, 번역 RL, 앙상블 RL까지 전체 학습 파이프라인을 사용하여 효율적이고 배포가 쉬운 최고 성능을 달성했습니다.", "text-embedding-3-large.description": "영어 및 비영어 작업에 가장 강력한 임베딩 모델입니다.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "일상 작업 및 UI 생성에 적합합니다.", "vercel/v0-1.0-md.description": "v0의 기반 모델에 접근하여 최신 웹 앱을 프레임워크별 추론과 최신 지식으로 생성, 수정, 최적화할 수 있습니다.", "vercel/v0-1.5-md.description": "v0의 모델에 접근하여 최신 지식과 프레임워크별 추론을 바탕으로 현대적인 웹 앱을 생성, 수정, 최적화할 수 있습니다.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code는 기업 수준의 프로그래밍 요구를 위해 최적화되었으며, Seed 2.0의 뛰어난 에이전트 및 VLM 능력을 기반으로 코드 능력을 특별히 강화했습니다. 프론트엔드 능력이 뛰어나며, 기업에서 흔히 사용하는 다국어 코딩 요구를 특별히 최적화하여 다양한 AI 코딩 도구에 적합합니다.", + "volcengine/doubao-seed-2-0-lite.description": "생성 품질과 응답 속도를 균형 있게 제공하며, 일반적인 생산 수준 모델로 적합합니다.", + "volcengine/doubao-seed-2-0-mini.description": "doubao-seed-2-0-mini 최신 버전을 가리킵니다.", + "volcengine/doubao-seed-2-0-pro.description": "doubao-seed-2-0-pro 최신 버전을 가리킵니다.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code는 바이트댄스 화산 엔진의 LLM으로, 에이전트 프로그래밍에 최적화되어 있으며, 256K 컨텍스트 지원과 함께 프로그래밍 및 에이전트 벤치마크에서 뛰어난 성능을 발휘합니다.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed는 창의성, 안정성, 사실감이 향상된 최신 모델로, 빠른 생성 속도와 높은 가치를 제공합니다.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro는 창의성, 안정성, 사실감이 향상된 최신 모델로, 더욱 풍부한 디테일을 생성합니다.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash는 창의성, 안정성 및 사실성에서 업그레이드된 최신 모델로, 빠른 생성과 높은 가치를 제공합니다.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus는 창의성, 안정성 및 사실성에서 업그레이드된 최신 모델로, 더 풍부한 세부 사항을 제공합니다.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview는 단일 이미지 편집 및 다중 이미지 융합을 지원합니다.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I는 총 픽셀 영역 및 종횡비 제한 내에서 이미지 크기를 유연하게 선택할 수 있도록 지원합니다.", + "wan2.6-image.description": "Wanxiang 2.6 Image는 이미지 편집 및 혼합 이미지-텍스트 레이아웃 출력을 지원합니다.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I는 총 픽셀 영역 및 종횡비 제한 내에서 이미지 크기를 유연하게 선택할 수 있도록 지원합니다(Wanxiang 2.5와 동일).", "wanx-v1.description": "기본 텍스트-투-이미지 모델로, Tongyi Wanxiang 1.0 General에 해당합니다.", "wanx2.0-t2i-turbo.description": "텍스처가 풍부한 인물화에 강하며, 속도는 중간 수준이고 비용은 낮습니다. Tongyi Wanxiang 2.0 Speed에 해당합니다.", "wanx2.1-t2i-plus.description": "이미지 디테일이 더욱 풍부해진 완전 업그레이드 버전으로, 속도는 다소 느립니다. Tongyi Wanxiang 2.1 Pro에 해당합니다.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast는 xAI의 고처리량, 저비용 모델로, 2M 컨텍스트 윈도우를 지원하며, 동시성 높은 환경과 장문 컨텍스트에 이상적입니다.", "x-ai/grok-4.description": "Grok 4는 xAI의 대표 추론 모델로, 강력한 추론 능력과 멀티모달 기능을 갖추고 있습니다.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1은 xAI의 빠른 코드 모델로, 가독성이 높고 엔지니어 친화적인 출력을 제공합니다.", + "x1.description": "X1.5 업데이트: (1) `thinking` 필드를 통해 동적 사고 모드를 추가합니다; (2) 더 큰 컨텍스트 길이로 64K 입력 및 64K 출력 지원; (3) FunctionCall을 지원합니다.", "xai/grok-2-vision.description": "Grok 2 Vision은 시각적 작업에 뛰어나며, 시각 수학 추론(MathVista)과 문서 QA(DocVQA)에서 최고 성능을 발휘합니다. 문서, 차트, 그래프, 스크린샷, 사진을 처리할 수 있습니다.", "xai/grok-2.description": "Grok 2는 최첨단 추론, 강력한 대화, 코딩 성능을 갖춘 프런티어 모델로, LMSYS에서 Claude 3.5 Sonnet 및 GPT-4 Turbo보다 높은 순위를 기록했습니다.", "xai/grok-3-fast.description": "xAI의 대표 모델로, 데이터 추출, 코딩, 요약 등 기업용 사례에 뛰어나며, 금융, 의료, 법률, 과학 분야에 대한 깊은 전문 지식을 갖추고 있습니다. 빠른 변형은 더 빠른 응답을 위해 고속 인프라에서 실행되며, 토큰당 비용은 더 높습니다.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5는 Z.AI의 대표 모델로, 하이브리드 추론이 가능하며, 엔지니어링 및 장문 컨텍스트 작업에 최적화되어 있습니다.", "z-ai/glm-4.6.description": "GLM 4.6은 Z.AI의 대표 모델로, 확장된 컨텍스트 길이와 향상된 코딩 기능을 제공합니다.", "z-ai/glm-4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 일반 능력 향상, 더 자연스럽고 간결한 응답, 몰입감 있는 글쓰기 경험을 제공합니다.", - "z-ai/glm5.description": "Z.ai에서 개발한 강력한 추론 및 에이전트 모델로, 744B 총 파라미터(40B 활성)를 갖추고 복잡한 시스템 엔지니어링과 장기 작업을 위해 설계되었습니다.", + "z-ai/glm4.7.description": "GLM-4.7은 Zhipu의 최신 플래그십 모델로, 에이전트 코딩 시나리오에서 향상된 코딩 능력을 제공합니다.", + "z-ai/glm5.description": "GLM-5는 Zhipu AI의 새로운 플래그십 기반 모델로, 에이전트 엔지니어링에서 오픈소스 SOTA 성능을 달성하며 코딩 및 에이전트 능력에서 Claude Opus 4.5와 동등한 성능을 제공합니다.", + "z-image-turbo.description": "Z-Image는 경량 텍스트-이미지 생성 모델로, 이미지를 빠르게 생성하며 중국어와 영어 텍스트 렌더링을 지원하고 다양한 해상도와 종횡비에 유연하게 적응합니다.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.", "zai-org/GLM-4.5.description": "GLM-4.5는 Mixture-of-Experts 아키텍처를 사용하는 에이전트 애플리케이션용 기본 모델입니다. 도구 사용, 웹 브라우징, 소프트웨어 엔지니어링, 프론트엔드 코딩에 깊이 최적화되어 있으며, Claude Code 및 Roo Code와 같은 코드 에이전트와 통합됩니다. 복잡한 추론과 일상적인 시나리오 모두를 처리할 수 있는 하이브리드 추론을 사용합니다.", "zai-org/GLM-4.5V.description": "GLM-4.5V는 GLM-4.5-Air 기반의 최신 VLM으로, 106B 총 파라미터(12B 활성)를 갖춘 MoE 아키텍처를 사용하여 낮은 비용으로 강력한 성능을 제공합니다. GLM-4.1V-Thinking 경로를 따르며, 3D-RoPE를 추가하여 3D 공간 추론을 향상시켰습니다. 사전학습, SFT, RL을 통해 최적화되었으며, 이미지, 비디오, 장문 문서를 처리할 수 있습니다. 41개 공개 멀티모달 벤치마크에서 오픈 모델 중 최고 순위를 기록했습니다. Thinking 모드 전환 기능을 통해 속도와 깊이를 조절할 수 있습니다.", diff --git a/locales/ko-KR/plugin.json b/locales/ko-KR/plugin.json index 657ac51c4b..487a04d96b 100644 --- a/locales/ko-KR/plugin.json +++ b/locales/ko-KR/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "노드 업데이트", "builtins.lobe-page-agent.apiName.wrapNodes": "노드 감싸기", "builtins.lobe-page-agent.title": "문서", + "builtins.lobe-skill-store.apiName.importFromMarket": "마켓에서 가져오기", + "builtins.lobe-skill-store.apiName.importSkill": "스킬 가져오기", + "builtins.lobe-skill-store.apiName.searchSkill": "스킬 검색", + "builtins.lobe-skill-store.title": "스킬 스토어", + "builtins.lobe-skills.apiName.execScript": "스크립트 실행", + "builtins.lobe-skills.apiName.exportFile": "파일 내보내기", + "builtins.lobe-skills.apiName.importFromMarket": "마켓에서 가져오기", + "builtins.lobe-skills.apiName.importSkill": "스킬 가져오기", + "builtins.lobe-skills.apiName.readReference": "참조 읽기", + "builtins.lobe-skills.apiName.runSkill": "스킬 활성화", + "builtins.lobe-skills.apiName.searchSkill": "스킬 검색", + "builtins.lobe-skills.title": "스킬", + "builtins.lobe-tools.apiName.activateTools": "도구 활성화", "builtins.lobe-user-memory.apiName.addContextMemory": "상황 기억 추가", "builtins.lobe-user-memory.apiName.addExperienceMemory": "경험 기억 추가", "builtins.lobe-user-memory.apiName.addIdentityMemory": "신원 기억 추가", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "인터넷 검색", "confirm": "확인", "debug.arguments": "호출 인자", + "debug.error": "오류 로그", "debug.function_call": "함수 호출", "debug.intervention": "기능 개입", "debug.off": "디버그 끄기", @@ -321,8 +335,8 @@ "dev.saveSuccess": "기능 설정이 성공적으로 저장되었습니다", "dev.tabs.manifest": "기능 설명 파일 (Manifest)", "dev.tabs.meta": "기능 메타 정보", - "dev.title.create": "사용자 정의 기능 추가", - "dev.title.edit": "사용자 정의 기능 편집", + "dev.title.create": "사용자 정의 MCP 스킬 추가", + "dev.title.edit": "사용자 정의 MCP 스킬 편집", "dev.title.editCommunity": "커뮤니티 스킬 편집", "dev.title.skillDetails": "스킬 세부정보", "dev.title.skillSettings": "스킬 설정", diff --git a/locales/ko-KR/providers.json b/locales/ko-KR/providers.json index 4c6f00e42e..8960a3933e 100644 --- a/locales/ko-KR/providers.json +++ b/locales/ko-KR/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud는 강력한 오픈소스 기반 모델을 바탕으로 구축된 비용 효율적인 생성형 AI 클라우드 서비스입니다.", "spark.description": "iFLYTEK Spark는 다양한 분야에서 강력한 다국어 AI를 제공하여 스마트 하드웨어, 헬스케어, 금융 등에서 혁신을 가능하게 합니다.", "stepfun.description": "Stepfun 모델은 멀티모달 및 복잡한 추론 능력, 장문 문맥 이해, 강력한 자율 검색 조정 기능을 제공합니다.", + "straico.description": "Straico는 최고의 텍스트, 이미지 및 오디오 생성 AI 모델을 하나로 통합한 통합 작업 공간을 제공하여 마케터, 기업가 및 열정적인 사용자들이 다양한 AI 도구에 원활하게 접근할 수 있도록 지원합니다.", "taichu.description": "Taichu는 CASIA와 우한 인공지능연구원이 공동 개발한 차세대 멀티모달 모델로, 다중 회차 QA, 작문, 이미지 생성, 3D 이해, 신호 분석 등에서 뛰어난 인지력과 창의성을 발휘합니다.", "tencentcloud.description": "LLM 지식 엔진 Atomic Power는 문서 파싱, 청킹, 임베딩, 다중 회차 재작성 등 모듈형 서비스를 통해 기업과 개발자를 위한 맞춤형 AI 솔루션을 제공합니다.", "togetherai.description": "Together AI는 혁신적인 모델, 폭넓은 커스터마이징, 빠른 확장성, 간편한 배포를 통해 기업의 요구에 맞는 최고의 성능을 제공합니다.", diff --git a/locales/ko-KR/setting.json b/locales/ko-KR/setting.json index 30d5f96223..3e2ba9512a 100644 --- a/locales/ko-KR/setting.json +++ b/locales/ko-KR/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "역할 설정", "agentInfoDescription.value.unset": "설정되지 않음", "agentInfoDescription.value.untitled": "제목 없는 도우미", + "agentSkillDetail.addedAt": "추가됨", + "agentSkillDetail.publishedAt": "게시됨", + "agentSkillDetail.repository": "GitHub 저장소", + "agentSkillDetail.skillContent": "스킬 내용", + "agentSkillDetail.sourceUrl": "스킬 가져오기 소스", + "agentSkillDetail.updatedAt": "업데이트됨", + "agentSkillEdit.descriptionDesc": "스킬이 수행하는 작업에 대한 간략한 요약으로, 에이전트가 언제 사용할지 이해하는 데 도움을 줍니다", + "agentSkillEdit.fileReadonly": "이 파일은 읽기 전용입니다. 스킬 설명과 지침만 편집할 수 있습니다.", + "agentSkillEdit.instructions": "지침", + "agentSkillEdit.instructionsDesc": "스킬의 동작과 워크플로를 정의하는 Markdown 형식의 핵심 지침", + "agentSkillEdit.instructionsPlaceholder": "Markdown 형식으로 스킬 지침을 입력하세요...", + "agentSkillEdit.nameDesc": "이 스킬의 고유 식별자이며, 생성 후에는 편집할 수 없습니다", + "agentSkillEdit.saveSuccess": "스킬이 성공적으로 업데이트되었습니다", + "agentSkillEdit.title": "스킬 설정", + "agentSkillItem.deleteConfirm.desc": "에이전트 스킬 \"{{name}}\"을(를) 삭제하시겠습니까? 이 작업은 되돌릴 수 없습니다.", + "agentSkillItem.deleteConfirm.title": "에이전트 스킬 삭제", + "agentSkillModal.content": "스킬 내용", + "agentSkillModal.contentPlaceholder": "Markdown 형식으로 스킬 내용을 입력하세요...", + "agentSkillModal.description": "설명", + "agentSkillModal.descriptionPlaceholder": "이 스킬에 대해 간략히 설명하세요", + "agentSkillModal.github.desc": "공개 GitHub 저장소에서 스킬을 직접 가져옵니다.", + "agentSkillModal.github.title": "GitHub에서 가져오기", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "가져오기 실패: {{error}}", + "agentSkillModal.importSuccess": "에이전트 스킬이 성공적으로 가져와졌습니다", + "agentSkillModal.upload.desc": "로컬 .zip 또는 .skill 파일을 업로드하여 설치합니다.", + "agentSkillModal.upload.dragText": "드래그 앤 드롭하거나 클릭하여 업로드하세요", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md는 YAML 형식으로 스킬 이름과 설명을 포함해야 합니다", + "agentSkillModal.upload.requirementZip": "SKILL.md가 루트 디렉토리에 포함된 .zip 또는 .skill 파일", + "agentSkillModal.upload.requirements": "파일 요구사항", + "agentSkillModal.upload.title": "스킬 업로드", + "agentSkillModal.upload.uploading": "업로드 중...", + "agentSkillModal.url.desc": "SKILL.md 파일의 직접 링크를 제공하여 스킬을 가져옵니다.", + "agentSkillModal.url.title": "URL에서 가져오기", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "에이전트 스킬", "agentTab.chat": "채팅 환경설정", "agentTab.meta": "도우미 정보", "agentTab.modal": "모델 설정", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "번역에 사용되는 모델 지정", "systemAgent.translation.title": "메시지 내용 번역 도우미", "tab.about": "소개", + "tab.addAgentSkill": "에이전트 스킬 추가", + "tab.addCustomMcp": "사용자 정의 MCP 스킬 추가", + "tab.addCustomMcp.desc": "사용자 정의 MCP 서버를 수동으로 구성합니다", "tab.addCustomSkill": "사용자 정의 스킬 추가", "tab.agent": "기본 도우미", "tab.all": "전체", @@ -652,7 +691,13 @@ "tab.experiment": "실험", "tab.hotkey": "단축키", "tab.image": "그림 서비스", + "tab.importFromGithub": "GitHub에서 가져오기", + "tab.importFromGithub.desc": "공개 GitHub 저장소에서 가져오기", + "tab.importFromUrl": "URL에서 가져오기", + "tab.importFromUrl.desc": "SKILL.md의 직접 링크를 통해 가져오기", "tab.llm": "언어 모델", + "tab.manualFill": "수동 입력", + "tab.manualFill.desc": "사용자 정의 MCP 스킬을 수동으로 구성합니다", "tab.memory": "기억 설정", "tab.profile": "내 계정", "tab.provider": "AI 서비스 제공자", @@ -669,6 +714,8 @@ "tab.sync": "클라우드 동기화", "tab.systemTools": "시스템 도구", "tab.tts": "음성 서비스", + "tab.uploadZip": "Zip 업로드", + "tab.uploadZip.desc": "로컬 .zip 또는 .skill 파일 업로드", "tab.usage": "사용량 통계", "tools.add": "기능 통합", "tools.builtins.groupName": "내장", diff --git a/locales/nl-NL/common.json b/locales/nl-NL/common.json index 8c8b4f6513..23f6328b8e 100644 --- a/locales/nl-NL/common.json +++ b/locales/nl-NL/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Geef ons een ster op GitHub", "footer.title": "Tevreden over ons product?", "fullscreen": "Volledig scherm", - "geminiImageChineseWarning.content": "Nano Banana kan soms geen afbeeldingen genereren bij gebruik van Chinees. Gebruik bij voorkeur Engels voor betere resultaten.", - "geminiImageChineseWarning.continueGenerate": "Doorgaan met genereren", - "geminiImageChineseWarning.continueSend": "Doorgaan met verzenden", - "geminiImageChineseWarning.doNotShowAgain": "Niet meer tonen", - "geminiImageChineseWarning.title": "Opmerking bij Chinese invoer", "historyRange": "Geschiedenisbereik", "home.suggestQuestions": "Probeer deze voorbeelden", "import": "Importeren", @@ -397,6 +392,7 @@ "tab.chat": "Chat", "tab.community": "Community", "tab.discover": "Ontdekken", + "tab.eval": "Evaluatie Lab", "tab.files": "Bestanden", "tab.home": "Home", "tab.knowledgeBase": "Bibliotheek", diff --git a/locales/nl-NL/eval.json b/locales/nl-NL/eval.json new file mode 100644 index 0000000000..9c47d561ce --- /dev/null +++ b/locales/nl-NL/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Benchmark verwijderen", + "benchmark.actions.delete.confirm": "Weet u zeker dat u deze benchmark wilt verwijderen? Gerelateerde datasets en evaluatierecords worden ook verwijderd.", + "benchmark.actions.edit": "Benchmark bewerken", + "benchmark.actions.export": "Exporteren", + "benchmark.card.bestScore": "Beste", + "benchmark.card.caseCount": "{{count}} gevallen", + "benchmark.card.datasetCount": "{{count}} datasets", + "benchmark.card.empty": "Nog geen evaluaties", + "benchmark.card.emptyHint": "Maak een nieuwe evaluatie aan vanaf de benchmarkdetailpagina", + "benchmark.card.importDataset": "Dataset importeren", + "benchmark.card.noDataset": "Nog geen datasets", + "benchmark.card.noDatasetHint": "Importeer een dataset om te beginnen met evalueren", + "benchmark.card.noRecentRuns": "Geen recente evaluaties om weer te geven", + "benchmark.card.recentRuns": "Recente evaluaties", + "benchmark.card.runCount": "{{count}} evaluaties", + "benchmark.card.startFirst": "Start eerste evaluatie", + "benchmark.card.viewAll": "Bekijk alle {{count}}", + "benchmark.create.confirm": "Aanmaken", + "benchmark.create.description.label": "Beschrijving", + "benchmark.create.description.placeholder": "Benchmarkbeschrijving (optioneel)", + "benchmark.create.error": "Benchmark aanmaken mislukt", + "benchmark.create.identifier.label": "Identificatie", + "benchmark.create.identifier.placeholder": "benchmark-identificatie", + "benchmark.create.identifierRequired": "Voer een identificatie in", + "benchmark.create.name.label": "Naam", + "benchmark.create.name.placeholder": "Voer benchmarknaam in", + "benchmark.create.nameRequired": "Voer een benchmarknaam in", + "benchmark.create.success": "Benchmark succesvol aangemaakt", + "benchmark.create.tags.label": "Tags", + "benchmark.create.tags.placeholder": "Voeg tags toe, gescheiden door komma of spatie", + "benchmark.create.title": "Benchmark aanmaken", + "benchmark.detail.backToOverview": "Terug naar overzicht", + "benchmark.detail.datasetCount": "{{count}} dataset{{count, plural, one {} other {s}}} in deze benchmark", + "benchmark.detail.runCount": "{{count}} evaluatierun{{count, plural, one {} other {s}}} op deze benchmark", + "benchmark.detail.stats.addFirstDataset": "Klik om de eerste dataset toe te voegen", + "benchmark.detail.stats.avgCost": "Gemiddelde kosten", + "benchmark.detail.stats.avgDuration": "Gemiddelde duur", + "benchmark.detail.stats.basedOnLastNRuns": "Gebaseerd op de laatste {{count}} runs", + "benchmark.detail.stats.bestPerformance": "Beste prestatie door {{agent}} met {{passRate}}% slaagpercentage", + "benchmark.detail.stats.bestScore": "Beste score", + "benchmark.detail.stats.cases": "Gevallen", + "benchmark.detail.stats.dataScale": "Dataschaal", + "benchmark.detail.stats.datasets": "Datasets", + "benchmark.detail.stats.needSetup": "Instelling vereist", + "benchmark.detail.stats.noEvalRecord": "Nog geen evaluatierecords", + "benchmark.detail.stats.perRun": "/ Run", + "benchmark.detail.stats.runs": "Runs", + "benchmark.detail.stats.tags": "Tags", + "benchmark.detail.stats.topAgents": "Topagenten", + "benchmark.detail.stats.totalCases": "Totaal aantal gevallen", + "benchmark.detail.stats.waiting": "Wachten...", + "benchmark.detail.tabs.data": "Data", + "benchmark.detail.tabs.datasets": "Datasets", + "benchmark.detail.tabs.runs": "Runs", + "benchmark.edit.confirm": "Opslaan", + "benchmark.edit.error": "Benchmark bijwerken mislukt", + "benchmark.edit.success": "Benchmark succesvol bijgewerkt", + "benchmark.edit.title": "Benchmark bewerken", + "benchmark.empty": "Nog geen benchmarks. Maak er een aan om te beginnen.", + "caseDetail.actual": "Werkelijke output", + "caseDetail.chatArea.title": "Gesprek", + "caseDetail.completionReason": "Status", + "caseDetail.cost": "Kosten", + "caseDetail.difficulty": "Moeilijkheidsgraad", + "caseDetail.duration": "Duur", + "caseDetail.expected": "Verwachte output", + "caseDetail.failureReason": "Reden van mislukking", + "caseDetail.input": "Invoer", + "caseDetail.judgeComment": "Opmerking van de beoordelaar", + "caseDetail.resources": "Bronnen", + "caseDetail.score": "Score", + "caseDetail.section.runtime": "Runtime", + "caseDetail.section.scoring": "Scoregegevens", + "caseDetail.section.testCase": "Testgeval", + "caseDetail.steps": "Stappen", + "caseDetail.threads.attempt": "Traject #{{number}}", + "caseDetail.tokens": "Tokengebruik", + "common.cancel": "Annuleren", + "common.create": "Aanmaken", + "common.delete": "Verwijderen", + "common.edit": "Bewerken", + "common.later": "Later", + "common.next": "Volgende", + "common.update": "Bijwerken", + "dataset.actions.addDataset": "Dataset toevoegen", + "dataset.actions.import": "Data importeren", + "dataset.actions.importDataset": "Dataset importeren", + "dataset.create.description.label": "Beschrijving", + "dataset.create.description.placeholder": "Datasetbeschrijving (optioneel)", + "dataset.create.error": "Dataset aanmaken mislukt", + "dataset.create.identifier.label": "Identificatie", + "dataset.create.identifier.placeholder": "dataset-identificatie", + "dataset.create.identifierRequired": "Voer een identificatie in", + "dataset.create.importNow": "Wilt u nu data importeren?", + "dataset.create.name.label": "Datasetnaam", + "dataset.create.name.placeholder": "Voer datasetnaam in", + "dataset.create.nameRequired": "Voer een datasetnaam in", + "dataset.create.preset.label": "Datasetpreset", + "dataset.create.success": "Dataset succesvol aangemaakt", + "dataset.create.successTitle": "Dataset aangemaakt", + "dataset.create.title": "Dataset aanmaken", + "dataset.delete.confirm": "Weet u zeker dat u deze dataset wilt verwijderen? Alle testgevallen erin worden ook verwijderd.", + "dataset.delete.error": "Dataset verwijderen mislukt", + "dataset.delete.success": "Dataset succesvol verwijderd", + "dataset.detail.addRun": "Nieuwe run", + "dataset.detail.backToBenchmark": "Terug naar benchmark", + "dataset.detail.caseCount": "{{count}} testgeval{{count, plural, one {} other {len}}}", + "dataset.detail.relatedRuns": "Gerelateerde runs ({{count}})", + "dataset.detail.testCases": "Testgevallen", + "dataset.detail.viewDetail": "Details bekijken", + "dataset.edit.error": "Dataset bijwerken mislukt", + "dataset.edit.success": "Dataset succesvol bijgewerkt", + "dataset.edit.title": "Dataset bewerken", + "dataset.empty": "Geen datasets", + "dataset.empty.description": "Importeer een dataset om te beginnen met het bouwen van deze benchmark", + "dataset.empty.title": "Nog geen datasets", + "dataset.evalMode.hint": "Standaard evaluatiemodus voor de dataset, kan worden overschreven op testgevalniveau", + "dataset.import.category": "Categorie", + "dataset.import.categoryDesc": "Classificatielabel voor groepering", + "dataset.import.choices": "Keuzes", + "dataset.import.choicesDesc": "Opties voor meerkeuze", + "dataset.import.confirm": "Importeren", + "dataset.import.error": "Dataset importeren mislukt", + "dataset.import.expected": "Verwacht antwoord", + "dataset.import.expectedDelimiter": "Antwoordscheidingsteken", + "dataset.import.expectedDelimiter.desc": "Scheidingsteken voor antwoorden", + "dataset.import.expectedDelimiter.placeholder": "bijv. | of ,", + "dataset.import.expectedDesc": "Correct antwoord om mee te vergelijken", + "dataset.import.fieldMapping": "Veldtoewijzing", + "dataset.import.fieldMapping.desc": "\"Invoer\"-kolom is vereist", + "dataset.import.hideSkipped": "Overgeslagen kolommen verbergen", + "dataset.import.ignore": "Overslaan", + "dataset.import.ignoreDesc": "Deze kolom niet importeren", + "dataset.import.input": "Invoer", + "dataset.import.inputDesc": "Vraag of prompt die naar het model wordt gestuurd", + "dataset.import.metadata": "Metadata", + "dataset.import.metadataDesc": "Extra informatie, opgeslagen zoals het is", + "dataset.import.next": "Volgende", + "dataset.import.parseError": "Bestand parseren mislukt", + "dataset.import.parsing": "Bestand aan het parseren...", + "dataset.import.prev": "Vorige", + "dataset.import.preview": "Datavoorbeeld", + "dataset.import.preview.desc": "Bevestig dat de toewijzing correct is en importeer dan.", + "dataset.import.preview.rows": "{{count}} rijen totaal", + "dataset.import.sortOrder": "Itemnummer", + "dataset.import.sortOrderDesc": "Vraag-/item-ID ter referentie", + "dataset.import.step.mapping": "Velden toewijzen", + "dataset.import.step.preview": "Voorbeeld", + "dataset.import.step.upload": "Bestand uploaden", + "dataset.import.success": "Succesvol {{count}} testgevallen geïmporteerd", + "dataset.import.title": "Dataset importeren", + "dataset.import.upload.hint": "Ondersteunt CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Klik of sleep bestand hier om te uploaden", + "dataset.import.uploading": "Bezig met uploaden...", + "dataset.switchDataset": "Dataset wisselen", + "difficulty.easy": "Makkelijk", + "difficulty.hard": "Moeilijk", + "difficulty.medium": "Gemiddeld", + "evalMode.contains": "Bevat match", + "evalMode.contains.desc": "Output moet de verwachte tekst bevatten", + "evalMode.equals": "Exacte match", + "evalMode.equals.desc": "Output moet exact hetzelfde zijn als verwacht", + "evalMode.label": "Evaluatiemodus", + "evalMode.llm-rubric": "LLM-beoordelaar", + "evalMode.llm-rubric.desc": "Gebruik LLM om de outputkwaliteit te evalueren", + "evalMode.placeholder": "Selecteer evaluatiemodus", + "evalMode.prompt.label": "Beoordelingsprompt", + "evalMode.prompt.placeholder": "Voer de evaluatiecriteria of prompt in voor LLM-beoordelaar", + "evalMode.rubric": "Rubriekenscore", + "evalMode.rubric.desc": "Score output met behulp van benchmarkrubrieken met gewogen criteria", + "overview.createBenchmark": "Benchmark aanmaken", + "overview.importDataset": "Dataset importeren", + "overview.subtitle": "Benchmark en evalueer uw AI-agenten over datasets", + "overview.title": "Evaluatielab", + "run.actions.abort": "Afbreken", + "run.actions.abort.confirm": "Weet u zeker dat u deze evaluatie wilt afbreken?", + "run.actions.create": "Nieuwe evaluatie", + "run.actions.delete": "Verwijderen", + "run.actions.delete.confirm": "Weet u zeker dat u deze evaluatie wilt verwijderen?", + "run.actions.edit": "Bewerken", + "run.actions.retryCase": "Opnieuw proberen", + "run.actions.retryErrors": "Fouten opnieuw proberen", + "run.actions.retryErrors.confirm": "Dit zal alle fout- en time-outgevallen opnieuw uitvoeren. Geslaagde en mislukte gevallen worden niet beïnvloed.", + "run.actions.run": "Uitvoeren", + "run.actions.start": "Starten", + "run.actions.start.confirm": "Weet u zeker dat u deze evaluatie wilt starten?", + "run.chart.duration": "Duur (s)", + "run.chart.error": "Fout", + "run.chart.fail": "Mislukt", + "run.chart.latencyDistribution": "Latentieverdeling", + "run.chart.latencyTokenDistribution": "Latentie / Tokenverdeling", + "run.chart.pass": "Geslaagd", + "run.chart.passFailError": "Geslaagd / Mislukt / Fout", + "run.chart.tokens": "Tokens", + "run.config.agentId": "Agent", + "run.config.concurrency": "Gelijktijdigheid", + "run.config.judgeModel": "Beoordelingsmodel", + "run.config.k": "Uitvoeringen (K)", + "run.config.k.hint": "Voer elk testgeval {{k}} keer uit voor pass@{{k}}/pass^{{k}}-statistieken", + "run.config.maxSteps": "Maximale stappen", + "run.config.maxSteps.hint": "Elke LLM-oproep of tooloproep door de agent telt als 1 stap", + "run.config.model": "Model", + "run.config.temperature": "Temperatuur", + "run.config.timeout": "Time-out", + "run.config.timeout.unit": "min", + "run.create.advanced": "Geavanceerde instellingen", + "run.create.agent": "Agent", + "run.create.agent.placeholder": "Selecteer een agent", + "run.create.agent.required": "Selecteer een agent", + "run.create.caseCount": "{{count}} gevallen", + "run.create.confirm": "Aanmaken & Starten", + "run.create.createOnly": "Alleen aanmaken", + "run.create.dataset": "Dataset", + "run.create.dataset.placeholder": "Selecteer een dataset", + "run.create.dataset.required": "Selecteer een dataset", + "run.create.name": "Runnaam", + "run.create.name.placeholder": "Voer een naam in voor deze run", + "run.create.name.required": "Voer een runnaam in", + "run.create.name.useTimestamp": "Gebruik huidige tijd als naam", + "run.create.openAgent": "Open agent in nieuw venster", + "run.create.title": "Nieuwe evaluatie", + "run.create.titleWithDataset": "Nieuwe evaluatie op \"{{dataset}}\"", + "run.detail.agent": "Agent", + "run.detail.agent.none": "Niet gespecificeerd", + "run.detail.agent.unnamed": "Naamloze agent", + "run.detail.backToBenchmark": "Terug naar benchmark", + "run.detail.caseResults": "Evaluatiedetails", + "run.detail.config": "Evaluatieconfiguratie", + "run.detail.configSnapshot": "Configuratiesnapshot", + "run.detail.dataset": "Dataset", + "run.detail.model": "Model", + "run.detail.overview": "Overzicht", + "run.detail.progress": "Voortgang", + "run.detail.progressCases": "gevallen", + "run.detail.report": "Evaluatiesamenvatting", + "run.edit.error": "Evaluatie bijwerken mislukt", + "run.edit.success": "Evaluatie succesvol bijgewerkt", + "run.edit.title": "Evaluatie bewerken", + "run.empty.description": "Start uw eerste evaluatierun op deze dataset", + "run.empty.descriptionBenchmark": "Start uw eerste evaluatierun op deze benchmark", + "run.empty.title": "Nog geen runs", + "run.filter.active": "Actief", + "run.filter.empty": "Geen runs komen overeen met het huidige filter.", + "run.idle.hint": "Klik op Start om de evaluatie te beginnen", + "run.metrics.avgScore": "Gemiddelde score", + "run.metrics.cost": "Kosten", + "run.metrics.duration": "Duur", + "run.metrics.errorCases": "Fout", + "run.metrics.evaluated": "{{count}} geëvalueerd", + "run.metrics.passRate": "Slaagpercentage", + "run.metrics.perCase": "/ geval", + "run.metrics.tokens": "Tokens", + "run.metrics.totalDuration": "Cumulatief", + "run.pending.hint": "Evaluatie staat in de wachtrij, wachtend om te starten...", + "run.running.hint": "Evaluatie wordt uitgevoerd, resultaten verschijnen binnenkort...", + "run.status.aborted": "Afgebroken", + "run.status.completed": "Voltooid", + "run.status.error": "Runfout", + "run.status.failed": "Mislukt", + "run.status.idle": "Inactief", + "run.status.pending": "In behandeling", + "run.status.running": "Bezig", + "run.status.timeout": "Time-out", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Dashboard", + "sidebar.datasets": "Datasets", + "sidebar.runs": "Runs", + "table.columns.avgCost": "Gemiddelde kosten", + "table.columns.category": "Categorie", + "table.columns.cost": "Kosten", + "table.columns.difficulty": "Moeilijkheidsgraad", + "table.columns.duration": "Duur", + "table.columns.evalMode": "Evaluatiemodus", + "table.columns.expected": "Verwacht antwoord", + "table.columns.input": "Invoer", + "table.columns.score": "Score", + "table.columns.status": "Status", + "table.columns.steps": "Stappen", + "table.columns.tags": "Tags", + "table.columns.tokens": "Tokens", + "table.columns.totalCost": "Totale kosten", + "table.filter.all": "Alle", + "table.filter.error": "Runfout", + "table.filter.failed": "Mislukt", + "table.filter.passed": "Geslaagd", + "table.filter.running": "Bezig", + "table.search.placeholder": "Zoek gevallen...", + "table.total": "Totaal {{count}}", + "testCase.actions.add": "Testgeval toevoegen", + "testCase.actions.import": "Testgevallen importeren", + "testCase.create.advanced": "Meer opties", + "testCase.create.difficulty.label": "Moeilijkheidsgraad", + "testCase.create.error": "Testgeval toevoegen mislukt", + "testCase.create.expected.label": "Verwachte output", + "testCase.create.expected.placeholder": "Voer het verwachte antwoord in", + "testCase.create.expected.required": "Voer de verwachte output in", + "testCase.create.input.label": "Invoer", + "testCase.create.input.placeholder": "Voer de invoer of vraag van het testgeval in", + "testCase.create.success": "Testgeval succesvol toegevoegd", + "testCase.create.tags.label": "Tags", + "testCase.create.tags.placeholder": "Tags gescheiden door komma (optioneel)", + "testCase.create.title": "Testgeval toevoegen", + "testCase.delete.confirm": "Weet u zeker dat u dit testgeval wilt verwijderen?", + "testCase.delete.error": "Testgeval verwijderen mislukt", + "testCase.delete.success": "Testgeval verwijderd", + "testCase.edit.error": "Testgeval bijwerken mislukt", + "testCase.edit.success": "Testgeval succesvol bijgewerkt", + "testCase.edit.title": "Testgeval bewerken", + "testCase.empty.description": "Importeer of voeg handmatig testgevallen toe aan deze dataset", + "testCase.empty.title": "Nog geen testgevallen", + "testCase.preview.expected": "Verwacht", + "testCase.preview.input": "Invoer", + "testCase.preview.title": "Voorbeeld testgeval", + "testCase.search.placeholder": "Zoek gevallen..." +} diff --git a/locales/nl-NL/home.json b/locales/nl-NL/home.json index 63c272961c..2346004c3d 100644 --- a/locales/nl-NL/home.json +++ b/locales/nl-NL/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Diepgaand onderzoek", "starter.developing": "Binnenkort beschikbaar", "starter.image": "Afbeelding", + "starter.nanoBanana2": "🍌 Nano Banaan 2", "starter.seedance": "Seedance 2.0", "starter.write": "Schrijven" } diff --git a/locales/nl-NL/modelProvider.json b/locales/nl-NL/modelProvider.json index b91a4205f3..e0f9931db8 100644 --- a/locales/nl-NL/modelProvider.json +++ b/locales/nl-NL/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Voor Gemini-serie; regelt het denkbudget.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Voor Gemini 3 Flash Preview-modellen; regelt de diepgang van het denken.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Voor Gemini 3 Pro Preview-modellen; regelt de diepgang van het denken.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Voor Gemini 3.1 Pro Preview-modellen; regelt de denkdiepte met lage/middelmatige/hoge niveaus.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Voor Gemini-serie; ondersteunt het aanleveren van URL-context.", "providerModels.item.modelConfig.extendParams.placeholder": "Selecteer uit te schakelen uitgebreide parameters", "providerModels.item.modelConfig.extendParams.previewFallback": "Voorbeeld niet beschikbaar", diff --git a/locales/nl-NL/models.json b/locales/nl-NL/models.json index fd9f5d0df3..91421bccd5 100644 --- a/locales/nl-NL/models.json +++ b/locales/nl-NL/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo biedt krachtige reken- en chatmogelijkheden met uitstekende semantische interpretatie en generatie-efficiëntie, ideaal voor bedrijven en ontwikkelaars.", "360gpt2-o1.description": "360gpt2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.", "360gpt2-pro.description": "360GPT2 Pro is een geavanceerd NLP-model van 360 met uitstekende tekstgeneratie en -begrip, vooral geschikt voor creatieve taken, complexe transformaties en rollenspel.", + "360zhinao2-o1.5.description": "360 Zhinao's krachtigste redeneermodel, met de sterkste capaciteiten en ondersteuning voor zowel toolgebruik als geavanceerd redeneren.", "360zhinao2-o1.description": "360zhinao2-o1 bouwt een redeneerlijn op via boomzoektechnieken met een reflectiemechanisme en reinforcement learning, waardoor zelfreflectie en zelfcorrectie mogelijk zijn.", + "360zhinao3-o1.5.description": "360 Zhinao Next-Generation Redeneermodel.", "4.0Ultra.description": "Spark Ultra is het krachtigste model in de Spark-serie. Het verbetert tekstbegrip en samenvatting, en optimaliseert webzoekopdrachten. Het is een allesomvattende oplossing voor hogere productiviteit op de werkvloer en nauwkeurige antwoorden, en positioneert zich als een toonaangevend intelligent product.", "AnimeSharp.description": "AnimeSharp (ook bekend als \"4x-AnimeSharp\") is een open-source superresolutiemodel gebaseerd op ESRGAN van Kim2091, gericht op het opschalen en verscherpen van anime-afbeeldingen. In februari 2022 hernoemd van \"4x-TextSharpV1\", oorspronkelijk ook bedoeld voor tekstafbeeldingen, maar sterk geoptimaliseerd voor anime-inhoud.", "Baichuan2-Turbo.description": "Maakt gebruik van zoekverrijking om het model te verbinden met domein- en webkennis. Ondersteunt het uploaden van PDF/Word-bestanden en URL-invoer voor tijdige, uitgebreide informatieopvraging en professionele, nauwkeurige output.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision is een geavanceerd multimodaal model dat sterk presteert op belangrijke benchmarks voor taal, tekst en beeld. Deze 8B-versie is geoptimaliseerd voor lage latentie en sterke prestaties.", "charglm-3.description": "CharGLM-3 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.", "charglm-4.description": "CharGLM-4 is ontworpen voor rollenspel en emotionele interactie, met ondersteuning voor ultralange gesprekken en gepersonaliseerde dialogen.", - "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in realtime wordt bijgewerkt en sterke begrip- en generatiecapaciteiten combineert voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.", + "chatgpt-4o-latest.description": "ChatGPT-4o is een dynamisch model dat in real-time wordt bijgewerkt. Het combineert sterke taalbegrip- en generatiecapaciteiten voor grootschalige toepassingen zoals klantenservice, onderwijs en technische ondersteuning.", "claude-2.0.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", "claude-2.1.description": "Claude 2 biedt belangrijke verbeteringen voor bedrijven, waaronder een toonaangevende context van 200.000 tokens, minder hallucinaties, systeemprompts en een nieuwe testfunctie: toolgebruik.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku is het snelste next-gen model van Anthropic, met verbeterde vaardigheden en betere prestaties dan de vorige topversie Claude 3 Opus op veel benchmarks.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) is een innovatief model dat diep taalbegrip en interactie biedt.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 is een next-gen redeneermodel met sterkere complexe redenering en chain-of-thought voor diepgaande analysetaken.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 is een next-gen redeneermodel met sterkere complexe redeneer- en keten-van-denken-capaciteiten.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 is een MoE vision-language model gebaseerd op DeepSeekMoE-27B met sparse activatie, dat sterke prestaties levert met slechts 4,5B actieve parameters. Het blinkt uit in visuele QA, OCR, document-/tabel-/grafiekbegrip en visuele verankering.", "deepseek-chat.description": "DeepSeek V3.2 biedt een balans tussen redeneervermogen en outputlengte voor dagelijkse vraag-en-antwoord- en agenttaken. Publieke benchmarks bereiken GPT-5-niveau, en het is het eerste model dat denken integreert in het gebruik van tools, wat leidt tot toonaangevende open-source agentbeoordelingen.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B is een codeertaalmodel getraind op 2 biljoen tokens (87% code, 13% Chinees/Engels tekst). Het introduceert een contextvenster van 16K en 'fill-in-the-middle'-taken, wat projectniveau codeaanvulling en fragmentinvoeging mogelijk maakt.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 is een nieuw hybride redeneermodel van DeepSeek, dat zowel denk- als niet-denkmodi ondersteunt en een hogere denkefficiëntie biedt dan DeepSeek-R1-0528. Optimalisaties na training verbeteren het gebruik van agenttools en de prestaties bij agenttaken aanzienlijk. Het ondersteunt een contextvenster van 128k en tot 64k outputtokens.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 is een next-gen redeneermodel met verbeterde complexe redenering en gedachtegang, geschikt voor taken die diepgaande analyse vereisen.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduceert sparse attention om de efficiëntie van training en inferentie op lange teksten te verbeteren, tegen een lagere prijs dan deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Bij zeer complexe taken presteert het Speciale model aanzienlijk beter dan de standaardversie, maar het verbruikt aanzienlijk meer tokens en brengt hogere kosten met zich mee. Momenteel is DeepSeek-V3.2-Speciale alleen bedoeld voor onderzoeksgebruik, ondersteunt het geen toolgebruik en is het niet specifiek geoptimaliseerd voor dagelijkse gesprekken of schrijftaken.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think is een volledig diepdenkend model met sterker langketen-redeneervermogen.", "deepseek-v3.2.description": "DeepSeek-V3.2 is het eerste hybride redeneermodel van DeepSeek dat denken integreert in het gebruik van tools. Het maakt gebruik van een efficiënte architectuur om rekenkracht te besparen, grootschalige reinforcement learning om capaciteiten te verbeteren, en synthetische taakdata op grote schaal om generalisatie te versterken. Deze combinatie levert prestaties vergelijkbaar met GPT-5-High, met aanzienlijk kortere outputlengte, wat de rekentijd en wachttijd voor gebruikers sterk vermindert.", "deepseek-v3.description": "DeepSeek-V3 is een krachtig MoE-model met in totaal 671B parameters en 37B actief per token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging. Het ondersteunt een contextvenster van 128k en tot 16k outputtokens.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro is een geüpgraded multimodaal model dat afbeeldingen ondersteunt in elke resolutie en extreme beeldverhoudingen. Het verbetert visuele redenering, documentherkenning, detailbegrip en instructieopvolging.", - "doubao-lite-128k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 128k.", "doubao-lite-32k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.", - "doubao-lite-4k.description": "Ultrasnelle reacties met betere waarde, biedt flexibelere keuzes voor verschillende scenario's. Ondersteunt redenering en fine-tuning met een contextvenster van 4k.", - "doubao-pro-256k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 256k.", "doubao-pro-32k.description": "Het best presterende vlaggenschipmodel voor complexe taken, met sterke resultaten in referentievragen, samenvattingen, creatie, tekstclassificatie en rollenspel. Ondersteunt redenering en fine-tuning met een contextvenster van 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash is een ultrasnel multimodaal diep redeneermodel met een TPOT van slechts 10ms. Het ondersteunt zowel tekst als visuele input, overtreft het vorige lite-model in tekstbegrip en evenaart concurrerende pro-modellen in visuele prestaties. Het ondersteunt een contextvenster van 256k en tot 16k outputtokens.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite is een nieuw multimodaal diep redeneermodel met instelbare redeneerinspanning (Minimaal, Laag, Gemiddeld, Hoog), biedt betere waarde en is een sterke keuze voor algemene taken, met een contextvenster tot 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Het Doubao-beeldmodel van ByteDance Seed ondersteunt tekst- en afbeeldingsinvoer met zeer controleerbare, hoogwaardige beeldgeneratie. Het ondersteunt tekstgestuurde beeldbewerking, met uitvoerformaten tussen 512 en 1536 aan de lange zijde.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 is een beeldgeneratiemodel van ByteDance Seed dat tekst- en afbeeldingsinvoer ondersteunt voor zeer controleerbare, hoogwaardige beeldgeneratie. Het genereert beelden op basis van tekstprompts.", - "doubao-vision-lite-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.", - "doubao-vision-pro-32k.description": "Doubao-vision is een multimodaal model van Doubao met sterk beeldbegrip en redenering, plus nauwkeurige instructieopvolging. Het presteert goed bij beeld-tekstextractie en op beeld gebaseerde redeneertaken, waardoor complexere en bredere visuele vraag-en-antwoordscenario's mogelijk zijn.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 is het nieuwste multimodale beeldmodel van ByteDance, dat tekst-naar-beeld, beeld-naar-beeld en batchbeeldgeneratiecapaciteiten integreert, terwijl het gezond verstand en redeneervermogen bevat. Vergeleken met de vorige 4.0-versie levert het aanzienlijk verbeterde generatiekwaliteit, met betere bewerkingsconsistentie en multi-beeldfusie. Het biedt meer precieze controle over visuele details, produceert kleine teksten en gezichten natuurlijker, en bereikt een harmonieuzere lay-out en kleur, wat de algehele esthetiek verbetert.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite is het nieuwste beeldgeneratiemodel van ByteDance. Voor het eerst integreert het online zoekmogelijkheden, waardoor het real-time webinformatie kan opnemen en de actualiteit van gegenereerde beelden kan verbeteren. De intelligentie van het model is ook geüpgraded, waardoor het complexe instructies en visuele inhoud nauwkeurig kan interpreteren. Bovendien biedt het verbeterde wereldwijde kennisdekking, referentieconsistentie en generatiekwaliteit in professionele scenario's, waardoor het beter voldoet aan visuele creatiebehoeften op ondernemingsniveau.", "emohaa.description": "Emohaa is een mentaal gezondheidsmodel met professionele begeleidingsvaardigheden om gebruikers te helpen emotionele problemen te begrijpen.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B is een lichtgewicht open-source model voor lokale en aangepaste implementatie.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking is een tekst MoE (Mixture-of-Experts) post-getraind model met in totaal 21B parameters en 3B actieve parameters, wat aanzienlijk verbeterde redeneerkwaliteit en diepte biedt.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B is een open-source model met veel parameters en verbeterde begrips- en generatiecapaciteiten.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B is het ultra-grote MoE-model van Baidu ERNIE met uitstekende redeneercapaciteiten.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview is een previewmodel met 8K context voor het evalueren van ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K is een lichtgewicht model met hoge prestaties voor scenario's met lage latentie en kosten.", "ernie-novel-8k.description": "ERNIE Novel 8K is ontworpen voor lange romans en IP-verhalen met meerdere personages.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K is een model met hoge gelijktijdigheid en hoge waarde voor grootschalige online diensten en zakelijke toepassingen.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview is een snel denkend model met 32K context voor complexe redeneringen en meerstapsgesprekken.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K is een snel denkend model met 32K context voor complexe redenatie en meerstapsgesprekken.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview is een preview van een denkmodel voor evaluatie en testen.", + "ernie-x1.1.description": "ERNIE X1.1 is een preview van een denkmodel voor evaluatie en testen.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, ontwikkeld door het Seed-team van ByteDance, ondersteunt bewerking en compositie van meerdere afbeeldingen. Het biedt verbeterde onderwerpconsistentie, nauwkeurige opvolging van instructies, ruimtelijk inzicht, esthetische expressie, posterlay-out en logodesign met zeer nauwkeurige tekst-beeldweergave.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, ontwikkeld door ByteDance Seed, ondersteunt tekst- en afbeeldingsinvoer voor zeer controleerbare en hoogwaardige beeldgeneratie op basis van prompts.", "fal-ai/flux-kontext/dev.description": "FLUX.1-model gericht op beeldbewerking, met ondersteuning voor tekst- en afbeeldingsinvoer.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash-Lite.", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite is het kleinste en meest kostenefficiënte model van Google, ontworpen voor grootschalig gebruik.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview is het meest voordelige model van Google met volledige functionaliteit.", - "gemini-2.5-flash-preview-09-2025.description": "Preview-release (25 september 2025) van Gemini 2.5 Flash.", "gemini-2.5-flash.description": "Gemini 2.5 Flash is het meest voordelige model van Google met volledige functionaliteit.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview is het meest geavanceerde redeneermodel van Google, in staat om te redeneren over code, wiskunde en STEM-vraagstukken en grote datasets, codebases en documenten met lange context te analyseren.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) is het beeldgeneratiemodel van Google en ondersteunt ook multimodale gesprekken.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) is Google's beeldgeneratiemodel en ondersteunt ook multimodale chat.", "gemini-3-pro-preview.description": "Gemini 3 Pro is het krachtigste agent- en vibe-codingmodel van Google, met rijkere visuele output en diepere interactie bovenop geavanceerde redeneercapaciteiten.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) levert Pro-niveau beeldkwaliteit met Flash-snelheid en ondersteuning voor multimodale chat.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview verbetert Gemini 3 Pro met verbeterde redeneercapaciteiten en voegt ondersteuning toe voor een gemiddeld denkniveau.", "gemini-flash-latest.description": "Nieuwste versie van Gemini Flash.", "gemini-flash-lite-latest.description": "Nieuwste versie van Gemini Flash-Lite.", "gemini-pro-latest.description": "Nieuwste versie van Gemini Pro.", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus begrijpt video’s en meerdere afbeeldingen en is geschikt voor multimodale taken.", "glm-4v-plus.description": "GLM-4V-Plus begrijpt video’s en meerdere afbeeldingen en is geschikt voor multimodale taken.", "glm-4v.description": "GLM-4V biedt krachtig beeldbegrip en redenering voor visuele taken.", - "glm-5.description": "Een sterk redeneer- en agent-gebaseerd model van Z.ai met in totaal 744B parameters (40B actief), ontworpen voor complexe systeemengineering en langetermijntaken.", + "glm-5.description": "De GLM-serie is een hybride redeneermodel van Zhipu AI, gebouwd voor agents, met denk- en niet-denkmodi.", "glm-z1-air.description": "Redeneermodel met sterke inferentiecapaciteiten voor taken die diepgaand redeneren vereisen.", "glm-z1-airx.description": "Ultrasnelle redenering met hoge kwaliteit van inferentie.", "glm-z1-flash.description": "De GLM-Z1-serie biedt krachtige complexe redenering en blinkt uit in logica, wiskunde en programmeren.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "We zijn verheugd Grok 4 Fast uit te brengen, onze nieuwste vooruitgang in kosteneffectieve redeneermodellen.", "grok-4.description": "Ons nieuwste en krachtigste vlaggenschipmodel, uitblinkend in NLP, wiskunde en redenering—een ideale allrounder.", "grok-code-fast-1.description": "We zijn verheugd om grok-code-fast-1 te lanceren, een snel en kosteneffectief redeneermodel dat uitblinkt in agentmatig programmeren.", + "grok-imagine-image-pro.description": "Genereer beelden vanuit tekstprompts, bewerk bestaande beelden met natuurlijke taal, of verfijn beelden iteratief via meerstapsgesprekken.", + "grok-imagine-image.description": "Genereer beelden vanuit tekstprompts, bewerk bestaande beelden met natuurlijke taal, of verfijn beelden iteratief via meerstapsgesprekken.", "groq/compound-mini.description": "Compound-mini is een samengesteld AI-systeem dat gebruikmaakt van openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.", "groq/compound.description": "Compound is een samengesteld AI-systeem dat gebruikmaakt van meerdere openbaar beschikbare modellen op GroqCloud en intelligent hulpmiddelen inzet om gebruikersvragen te beantwoorden.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B is een creatief en intelligent taalmodel dat is samengesteld uit meerdere topmodellen.", + "hunyuan-2.0-instruct-20251111.description": "Releasekenmerken: Het model is geüpgraded van TurboS naar **Hunyuan 2.0**, wat resulteert in uitgebreide capaciteitsverbeteringen. Het verbetert aanzienlijk het volgen van instructies, meerstaps- en langetekstbegrip, literaire creatie, kennisnauwkeurigheid, codering en redeneervermogen.", + "hunyuan-2.0-thinking-20251109.description": "Releasekenmerken: Het model is geüpgraded van TurboS naar **Hunyuan 2.0**, wat resulteert in uitgebreide capaciteitsverbeteringen. Het verbetert aanzienlijk het vermogen van het model om complexe instructies te volgen, meerstaps- en langetekstbegrip te begrijpen, code te verwerken, als agent te opereren en redeneertaken uit te voeren.", "hunyuan-a13b.description": "Het eerste hybride redeneermodel van Hunyuan, een upgrade van hun hunyuan-standard-256K (80B totaal, 13B actief). Standaard ingesteld op langzaam denken, met ondersteuning voor snel/langzaam schakelen via parameters of prefix /no_think. De algehele capaciteit is verbeterd ten opzichte van de vorige generatie, vooral in wiskunde, wetenschap, langetekstbegrip en agenttaken.", - "hunyuan-code.description": "Het nieuwste codegeneratiemodel, getraind met 200 miljard hoogwaardige codevoorbeelden en zes maanden SFT; context uitgebreid tot 8K. Het scoort hoog in geautomatiseerde benchmarks voor vijf programmeertalen en in menselijke evaluaties op tien criteria.", - "hunyuan-functioncall.description": "Het nieuwste MoE FunctionCall-model, getraind met hoogwaardige functieaanroepdata, met een contextvenster van 32K en toonaangevende benchmarkresultaten op meerdere dimensies.", - "hunyuan-large-longcontext.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.", - "hunyuan-large-vision.description": "Een visueel-taalkundig model getraind vanuit Hunyuan Large voor beeld-tekstbegrip. Ondersteunt invoer van meerdere afbeeldingen + tekst in elke resolutie en verbetert meertalig visueel begrip.", - "hunyuan-large.description": "Hunyuan-large heeft ~389 miljard totale parameters en ~52 miljard actieve, het grootste en krachtigste open MoE-model in een Transformer-architectuur.", - "hunyuan-lite-vision.description": "Het nieuwste 7B multimodale model met een contextvenster van 32K, ondersteunt Chinees/Engels multimodaal chatten, objectherkenning, documenttabelbegrip en multimodale wiskunde, en presteert beter dan andere 7B-modellen op meerdere benchmarks.", + "hunyuan-code.description": "Hunyuan's nieuwste codemodel, getraind op 200B hoogwaardige codegegevens plus zes maanden SFT-gegevens, met 8K context. Het scoort bijna bovenaan in geautomatiseerde codebenchmarks en in deskundige menselijke evaluaties in vijf talen.", + "hunyuan-functioncall.description": "Hunyuan's nieuwste MoE FunctionCall-model, getraind op hoogwaardige toolgebruikgegevens, met een 32K contextvenster en toonaangevende benchmarks over verschillende dimensies.", "hunyuan-lite.description": "Geüpgraded naar een MoE-architectuur met een contextvenster van 256K, en overtreft veel open modellen op het gebied van NLP, code, wiskunde en industriële benchmarks.", "hunyuan-pro.description": "Een MoE-model met biljoenen parameters en een contextvenster van 32K, toonaangevend in benchmarks, sterk in complexe instructies en redenering, geavanceerde wiskunde, functieaanroepen, en geoptimaliseerd voor meertalige vertaling, financiën, recht en medische domeinen.", - "hunyuan-role.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.", - "hunyuan-standard-256K.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-256K breidt contextlengte en kwaliteit verder uit.", - "hunyuan-standard-vision.description": "Het nieuwste multimodale model met meertalige antwoorden en gebalanceerde Chinese/Engelse vaardigheden.", - "hunyuan-standard.description": "Maakt gebruik van verbeterde routering om load balancing en expertverval te voorkomen. Behaalt 99,9% 'needle-in-a-haystack'-score op lange context. MOE-32K biedt sterke prestaties bij lange invoer.", - "hunyuan-t1-20250321.description": "Combineert evenwichtige artistieke en bètavaardigheden met sterk langetekstinformatiebegrip. Ondersteunt redenerende antwoorden voor wiskunde-, logica-, wetenschap- en programmeerproblemen op verschillende niveaus.", - "hunyuan-t1-20250403.description": "Verbetert projectmatige codegeneratie en schrijfkwaliteit, versterkt begrip van meerstapsgesprekken en ToB-instructies, verbetert woordbegrip en vermindert problemen met gemengde vereenvoudigde/traditionele en Chinese/Engelse output.", - "hunyuan-t1-20250529.description": "Verbetert creatief schrijven en compositie, versterkt frontend-programmeren, wiskunde en logische redenering, en verbetert het opvolgen van instructies.", - "hunyuan-t1-20250711.description": "Verbetert aanzienlijk de prestaties bij moeilijke wiskunde, logica en programmeren, verhoogt de outputstabiliteit en versterkt langetekstcapaciteiten.", + "hunyuan-role.description": "Hunyuan's nieuwste rollenspelmodel, officieel fijn afgestemd met rollenspelgegevens, levert sterkere basisprestaties in rollenspelscenario's.", + "hunyuan-standard-256K.description": "Maakt gebruik van verbeterde routering om load balancing en expertinstorting te verminderen. Langetekst 'speld in een hooiberg' bereikt 99,9%. MOE-256K gaat verder in lengte en kwaliteit, waardoor de invoerlengte aanzienlijk wordt uitgebreid.", + "hunyuan-standard.description": "Maakt gebruik van verbeterde routering om load balancing en expertinstorting te verminderen. Langetekst 'speld in een hooiberg' bereikt 99,9%. MOE-32K biedt betere waarde terwijl kwaliteit en prijs voor langetekstinvoer in balans worden gehouden.", "hunyuan-t1-latest.description": "Verbetert het langzaam-denkende model aanzienlijk op het gebied van moeilijke wiskunde, complexe redenering, uitdagende codeertaken, instructieopvolging en creatieve schrijfkwaliteit.", - "hunyuan-t1-vision-20250619.description": "Het nieuwste t1-vision multimodale diep-redeneermodel met native keten-van-gedachten, aanzienlijk verbeterd ten opzichte van de vorige standaardversie.", "hunyuan-t1-vision-20250916.description": "Het nieuwste t1-vision diep-redeneermodel met grote verbeteringen in VQA, visuele verankering, OCR, grafieken, het oplossen van gefotografeerde problemen en beeldgebaseerde creatie, plus sterkere prestaties in Engels en talen met weinig middelen.", - "hunyuan-turbo-20241223.description": "Deze versie verbetert de schaalbaarheid van instructies voor betere generalisatie, verhoogt de prestaties in wiskunde/code/logica, verbetert woordbegrip en verhoogt de schrijfkwaliteit.", - "hunyuan-turbo-latest.description": "Algemene verbeteringen in NLP-begrip, schrijven, chatten, vraag-antwoord, vertaling en domeinspecifieke toepassingen; menselijkere reacties, betere verduidelijking van onduidelijke intenties, verbeterde woordanalyse, hogere creatieve kwaliteit en interactiviteit, en sterkere meerstapsgesprekken.", - "hunyuan-turbo-vision.description": "Volgende generatie visueel-taalkundig vlaggenschip met een nieuwe MoE-architectuur, met brede verbeteringen in herkenning, contentcreatie, kennisvraag-antwoord en analytisch redeneren.", "hunyuan-turbo.description": "Voorvertoning van Hunyuan’s volgende generatie LLM met een nieuwe MoE-architectuur, levert snellere redenering en sterkere resultaten dan hun hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Vereenvoudigt de stijl van wiskundige oplossingen en versterkt meerstaps wiskundige vraag-antwoord. De schrijfstijl is verfijnd om een minder AI-achtig karakter te hebben en meer gepolijst te zijn.", - "hunyuan-turbos-20250416.description": "Geüpgradede pretrainingbasis voor beter begrip en opvolging van instructies; afstemming verbetert wiskunde, code, logica en wetenschap; verhoogt schrijfkwaliteit, begrip, vertaalnauwkeurigheid en kennisvraag-antwoord; versterkt agentvaardigheden, vooral bij meerstapsbegrip.", - "hunyuan-turbos-20250604.description": "Geüpgradede pretrainingbasis met verbeterd schrijven en leesbegrip, aanzienlijke vooruitgang in code en STEM, en beter opvolgen van complexe instructies.", - "hunyuan-turbos-20250926.description": "Verbeterde kwaliteit van pretrainingdata en post-trainingsstrategie, met verbeteringen in agenten, Engels/talen met weinig middelen, instructieopvolging, code en STEM-vaardigheden.", "hunyuan-turbos-latest.description": "Het nieuwste Hunyuan TurboS vlaggenschipmodel met sterkere redenering en een betere algehele ervaring.", - "hunyuan-turbos-longtext-128k-20250325.description": "Blinkt uit in taken met lange documenten zoals samenvattingen en vraag-antwoord, en is ook sterk in algemene tekstgeneratie. Uitstekend in analyse en generatie van complexe, gedetailleerde lange teksten.", - "hunyuan-turbos-role-plus.description": "Het nieuwste rollenspelmodel, officieel getraind op rollenspeldata, met verbeterde prestaties voor rollenspeltoepassingen.", - "hunyuan-turbos-vision-20250619.description": "Het nieuwste TurboS visueel-taalkundig vlaggenschip met grote verbeteringen in beeld-teksttaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.", - "hunyuan-turbos-vision.description": "Een visueel-taalkundig vlaggenschip van de volgende generatie gebaseerd op de nieuwste TurboS, gericht op beeld-tekstbegriptaken zoals entiteitsherkenning, kennisvraag-antwoord, copywriting en het oplossen van problemen op basis van foto's.", - "hunyuan-vision-1.5-instruct.description": "Een snel denkend model dat tekst genereert op basis van afbeeldingen, gebouwd op het TurboS-platform. Vergeleken met de vorige versie zijn de prestaties op het gebied van beeldherkenning en visuele redenatie aanzienlijk verbeterd.", - "hunyuan-vision.description": "Het nieuwste multimodale model dat tekst genereert op basis van gecombineerde beeld- en tekstinvoer.", + "hunyuan-vision-1.5-instruct.description": "Een snel denkend beeld-naar-tekstmodel gebouwd op de TurboS-tekstbasis, met opmerkelijke verbeteringen ten opzichte van de vorige versie in fundamentele beeldherkenning en beeldanalyse-redenering.", + "hunyuan-vision.description": "Hunyuan's nieuwste multimodale model dat beeld + tekstinvoer ondersteunt om tekst te genereren.", "image-01-live.description": "Een beeldgeneratiemodel met fijne details, dat tekst-naar-beeld en aanpasbare stijlpresets ondersteunt.", "image-01.description": "Een nieuw beeldgeneratiemodel met fijne details, dat zowel tekst-naar-beeld als beeld-naar-beeld ondersteunt.", "imagen-4.0-fast-generate-001.description": "Snelle versie van de vierde generatie Imagen tekst-naar-beeld modelserie.", "imagen-4.0-generate-001.description": "Vierde generatie Imagen tekst-naar-beeld modelserie.", - "imagen-4.0-generate-preview-06-06.description": "De vierde generatie tekst-naar-beeld modellen van Imagen.", "imagen-4.0-ultra-generate-001.description": "Ultra-versie van de vierde generatie Imagen tekst-naar-beeld modelserie.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Ultra-variant van de vierde generatie tekst-naar-beeld modellen van Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small is ideaal voor codegeneratie, foutopsporing en herstructurering met minimale vertraging.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 is het derde model in de Ling 2.0-architectuur van het Bailing-team van Ant Group. Het is een MoE-model met 100 miljard parameters, waarvan slechts 6,1 miljard actief per token (4,8 miljard exclusief embedding). Ondanks de lichte configuratie presteert het gelijk aan of beter dan dichte modellen van 40 miljard en grotere MoE-modellen op meerdere benchmarks, dankzij een efficiënte architectuur en trainingsstrategie.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 is een klein, krachtig MoE LLM met 16 miljard parameters en slechts 1,4 miljard actief per token (789 miljoen exclusief embedding), wat zorgt voor zeer snelle generatie. Dankzij een efficiënte MoE-architectuur en hoogwaardige trainingsdata levert het topprestaties die vergelijkbaar zijn met dichte modellen onder 10 miljard en grotere MoE-modellen.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T is inclusionAI’s triljoen-parameter MoE redeneermodel, geschikt voor grootschalige redeneer- en onderzoekstaken.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 is een variant van het Ring-model van inclusionAI voor scenario’s met hoge doorvoer, met nadruk op snelheid en kostenefficiëntie.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 is inclusionAI’s lichte MoE-model met hoge doorvoer, ontworpen voor gelijktijdige toepassingen.", + "intern-latest.description": "Standaard verwijst het naar ons nieuwste vrijgegeven Intern-seriemodel, momenteel ingesteld op intern-s1-pro.", + "intern-s1-mini.description": "Een lichtgewicht multimodaal groot model met sterke wetenschappelijke redeneercapaciteiten.", + "intern-s1-pro.description": "We hebben ons meest geavanceerde open-source multimodale redeneermodel gelanceerd, momenteel het best presterende open-source multimodale grote taalmodel qua algehele prestaties.", + "intern-s1.description": "Het open-source multimodale redeneermodel toont niet alleen sterke algemene capaciteiten, maar behaalt ook state-of-the-art prestaties over een breed scala aan wetenschappelijke taken.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat is een open-source chatmodel gebaseerd op de InternLM2-architectuur. Het 7B-model richt zich op dialooggeneratie met ondersteuning voor Chinees en Engels, en maakt gebruik van moderne trainingstechnieken voor vloeiende en intelligente gesprekken. Geschikt voor toepassingen zoals klantenservice en persoonlijke assistenten.", - "internlm2.5-latest.description": "Legacy-modellen die nog steeds worden onderhouden met uitstekende, stabiele prestaties na vele iteraties. Beschikbaar in 7B- en 20B-varianten, met ondersteuning voor 1M context en verbeterde instructieopvolging en toolgebruik. Standaard ingesteld op de nieuwste InternLM2.5-serie (momenteel internlm2.5-20b-chat).", - "internlm3-latest.description": "Onze nieuwste modelserie met uitstekende redeneercapaciteiten, toonaangevend onder open modellen in zijn klasse. Standaard ingesteld op de nieuwste InternLM3-serie (momenteel internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO is een multimodaal voorgetraind model voor complexe beeld-tekst redenatie.", - "internvl2.5-latest.description": "InternVL2.5 wordt nog steeds onderhouden met sterke, stabiele prestaties. Standaard ingesteld op de nieuwste InternVL2.5-serie (momenteel internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B is een middelgroot multimodaal model dat prestaties en kosten in balans houdt.", "internvl3-1b.description": "InternVL3 1B is een lichtgewicht multimodaal model voor implementatie in omgevingen met beperkte middelen.", "internvl3-38b.description": "InternVL3 38B is een groot open-source multimodaal model voor nauwkeurige beeld-tekst interpretatie.", - "internvl3-latest.description": "Ons nieuwste multimodale model met verbeterd begrip van beeld-tekst en lange sequenties, vergelijkbaar met toonaangevende gesloten modellen. Standaard ingesteld op de nieuwste InternVL-serie (momenteel internvl3-78b).", + "internvl3.5-241b-a28b.description": "Ons nieuw vrijgegeven multimodale grote model biedt verbeterd beeld-en-tekstbegrip en langesequentiebeeldbegrip, met prestaties vergelijkbaar met toonaangevende gesloten-source modellen.", + "internvl3.5-latest.description": "Standaard verwijst het naar het nieuwste model in de InternVL3.5-serie, momenteel ingesteld op internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG is een model voor beeldopzoeking-ondersteunde generatie, geschikt voor beeldzoekopdrachten, beeld-tekstopzoeking en contentcreatie.", "jamba-large.description": "Ons krachtigste en meest geavanceerde model, ontworpen voor complexe zakelijke taken met uitstekende prestaties.", "jamba-mini.description": "Het meest efficiënte model in zijn klasse, met een optimale balans tussen snelheid en kwaliteit en een kleinere omvang.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 is een efficiënt groot taalmodel dat speciaal is ontwikkeld voor programmeer- en agentworkflows.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 is een lichtgewicht, geavanceerd groot taalmodel geoptimaliseerd voor programmeren, proxyworkflows en moderne applicatieontwikkeling, met schonere, beknoptere output en snellere reactietijden.", "minimax/minimax-m2.description": "MiniMax-M2 is een waardevol model dat uitblinkt in programmeer- en agenttaken voor veel technische scenario’s.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 is een compact, snel, kosteneffectief MoE-model gebouwd voor topprestaties in codering en agentgebruik.", "minimaxai/minimax-m2.description": "MiniMax-M2 is een compact, snel en kosteneffectief MoE-model (230B totaal, 10B actief) gebouwd voor topprestaties in programmeren en agenttaken, met behoud van sterke algemene intelligentie. Het blinkt uit in bewerkingen over meerdere bestanden, code-uitvoerings- en correctielussen, testvalidatie en complexe toolchains.", "ministral-3b-latest.description": "Ministral 3B is het topmodel voor edge-toepassingen van Mistral.", "ministral-8b-latest.description": "Ministral 8B is een zeer kosteneffectief edge-model van Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Het kimi-k2-0905-preview model ondersteunt een contextvenster van 256k, met sterkere agentmatige codering, meer verfijnde en praktische frontend-code en beter contextbegrip.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo is een snelle versie van Kimi K2 Thinking, met aanzienlijk lagere latentie terwijl diepe redenering behouden blijft.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking is Moonshot’s redeneermodel, geoptimaliseerd voor diepgaande redeneertaken, met algemene agentcapaciteiten.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 is het meest intelligente Kimi-model tot nu toe, met een native multimodale architectuur.", "moonshotai/kimi-k2.description": "Kimi K2 is een groot MoE-model van Moonshot AI met 1T totale parameters en 32B actief per forward pass, geoptimaliseerd voor agentcapaciteiten zoals geavanceerd toolgebruik, redenering en codesynthese.", "morph/morph-v3-fast.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 4500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.", "morph/morph-v3-large.description": "Morph biedt een gespecialiseerd model om codewijzigingen toe te passen die zijn voorgesteld door frontier-modellen (zoals Claude of GPT-4o) op je bestaande bestanden met een snelheid van 2500+ tokens/sec. Het is de laatste stap in een AI-coderingworkflow en ondersteunt 16k input/output tokens.", + "musesteamer-air-image.description": "musesteamer-air-image is een beeldgeneratiemodel ontwikkeld door het zoekteam van Baidu om uitzonderlijke kosten-prestatieverhoudingen te leveren. Het kan snel duidelijke, actie-consistente beelden genereren op basis van gebruikersprompts, waardoor gebruikersbeschrijvingen moeiteloos in visuals worden omgezet.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B is een bijgewerkte versie van Nous Hermes 2 met de nieuwste intern ontwikkelde datasets.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B is een door NVIDIA aangepast LLM om behulpzaamheid te verbeteren. Het presteert sterk op Arena Hard, AlpacaEval 2 LC en GPT-4-Turbo MT-Bench, en staat op 1 in alle drie auto-alignment benchmarks per 1 oktober 2024. Het is getraind vanuit Llama-3.1-70B-Instruct met behulp van RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward en HelpSteer2-Preference prompts.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Een onderscheidend taalmodel dat uitzonderlijke nauwkeurigheid en efficiëntie levert.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Op basis van contextlengte, onderwerp en complexiteit wordt je verzoek doorgestuurd naar Llama 3 70B Instruct, Claude 3.5 Sonnet (zelf-gemodereerd) of GPT-4o.", "oswe-vscode-prime.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.", "oswe-vscode-secondary.description": "Raptor mini is een previewmodel geoptimaliseerd voor codegerelateerde taken.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 is een model dat een balans vindt tussen hoge rekenefficiëntie en uitstekende redeneer- en agentprestaties.", "perplexity/sonar-pro.description": "Het vlaggenschipproduct van Perplexity met zoekverankering, ondersteuning voor geavanceerde vragen en vervolginteracties.", "perplexity/sonar-reasoning-pro.description": "Een geavanceerd redeneermodel dat keten-van-gedachten (CoT) genereert met verbeterde zoekfunctionaliteit, inclusief meerdere zoekopdrachten per verzoek.", "perplexity/sonar-reasoning.description": "Een redeneermodel dat keten-van-gedachten (CoT) genereert met gedetailleerde, op zoek gebaseerde uitleg.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen codeermodel.", "qwen-coder-turbo.description": "Qwen codeermodel.", "qwen-flash.description": "Snelste en goedkoopste Qwen-model, ideaal voor eenvoudige taken.", + "qwen-image-edit-max.description": "Qwen Image Editing Model ondersteunt multi-beeldinvoer en multi-beelduitvoer, waardoor nauwkeurige in-beeld tekstbewerking, objecttoevoeging, verwijdering of verplaatsing, wijziging van onderwerpacties, beeldstijltransfers en verbeterde visuele details mogelijk zijn.", + "qwen-image-edit-plus.description": "Qwen Image Editing Model ondersteunt multi-beeldinvoer en multi-beelduitvoer, waardoor nauwkeurige in-beeld tekstbewerking, objecttoevoeging, verwijdering of verplaatsing, wijziging van onderwerpacties, beeldstijltransfers en verbeterde visuele details mogelijk zijn.", "qwen-image-edit.description": "Qwen Image Edit is een beeld-naar-beeldmodel dat afbeeldingen bewerkt op basis van invoerafbeeldingen en tekstprompts, voor nauwkeurige aanpassingen en creatieve transformaties.", + "qwen-image-max.description": "Qwen Image Generation Model (Max-serie) levert verbeterde realisme en visuele natuurlijkheid in vergelijking met de Plus-serie, vermindert effectief AI-gegenereerde artefacten en toont uitstekende prestaties in menselijke verschijning, textuurdetails en tekstrendering.", + "qwen-image-plus.description": "Het ondersteunt een breed scala aan artistieke stijlen en is bijzonder bedreven in het weergeven van complexe tekst binnen beelden, waardoor geïntegreerd beeld-tekst lay-outontwerp mogelijk is.", "qwen-image.description": "Qwen-Image is een algemeen beeldgeneratiemodel dat meerdere kunststijlen ondersteunt en complexe tekstweergave aankan, vooral in het Chinees en Engels. Het ondersteunt meerregelige lay-outs, tekst op alinea-niveau en fijne details voor complexe tekst-beeldcombinaties.", "qwen-long.description": "Ultragroot Qwen-model met lange context en chatmogelijkheden over lange en meerdere documenten.", "qwen-math-plus-latest.description": "Qwen Math is een taalmodel gespecialiseerd in het oplossen van wiskundige problemen.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Open-source Qwen-codeermodel. De nieuwste qwen3-coder-30b-a3b-instruct is gebaseerd op Qwen3 en levert sterke codeeragentmogelijkheden, toolgebruik en omgevingsinteractie voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct is een toonaangevend codeermodel voor meertalige programmering en complexe codebegrip.", "qwen3-coder-flash.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.", + "qwen3-coder-next.description": "Next-gen Qwen coder geoptimaliseerd voor complexe multi-bestandscodegeneratie, debugging en workflows met hoge doorvoer voor agents. Ontworpen voor sterke toolintegratie en verbeterde redeneerprestaties.", "qwen3-coder-plus.description": "Qwen-codeermodel. De nieuwste Qwen3-Coder-serie is gebaseerd op Qwen3 en biedt krachtige mogelijkheden voor programmeeragenten, gereedschapsgebruik en interactie met omgevingen voor autonoom programmeren, met uitstekende codeprestaties en solide algemene capaciteiten.", "qwen3-coder:480b.description": "Alibaba’s krachtige model met lange context voor agent- en programmeertaken.", "qwen3-max-2026-01-23.description": "Qwen3 Max-modellen leveren grote verbeteringen ten opzichte van de 2.5-serie in algemene vaardigheden, Chinees/Engels begrip, complexe instructieopvolging, subjectieve open taken, meertalige vaardigheden en toolgebruik, met minder hallucinaties. De nieuwste qwen3-max verbetert agentisch programmeren en toolgebruik ten opzichte van qwen3-max-preview. Deze release bereikt SOTA-niveau en richt zich op complexere agentbehoeften.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking is een multimodaal keten-van-gedachten model voor gedetailleerde visuele redenering.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lichtgewicht, snelle redeneerversie voor latency-gevoelige of grootschalige verzoeken.", "qwen3-vl-plus.description": "Qwen VL is een tekstgeneratiemodel met visueel begrip. Het kan OCR uitvoeren en ook samenvatten en redeneren, zoals het extraheren van kenmerken uit productfoto’s of het oplossen van problemen op basis van afbeeldingen.", + "qwen3.5-397b-a17b.description": "Ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, met hogere efficiëntie en lagere kosten. In multimodale capaciteiten levert het significante verbeteringen ten opzichte van de Qwen3 VL-serie.", + "qwen3.5-plus.description": "Qwen3.5 Plus ondersteunt tekst-, beeld- en video-invoer. Voor alleen teksttaken is de prestatie vergelijkbaar met Qwen3 Max, terwijl het betere efficiëntie en lagere kosten biedt. Qua multimodale capaciteiten toont het significante verbeteringen ten opzichte van de Qwen3 VL-serie.", "qwen3.description": "Qwen3 is Alibaba’s volgende generatie groot taalmodel met sterke prestaties in diverse toepassingen.", "qwq-32b-preview.description": "QwQ is een experimenteel onderzoeksmodel van Qwen gericht op verbeterde redenering.", "qwq-32b.description": "QwQ is een redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen biedt het denk- en redeneervermogen dat de prestaties op complexe problemen aanzienlijk verbetert. QwQ-32B is een middelgroot redeneermodel dat zich kan meten met topmodellen zoals DeepSeek-R1 en o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Middelgroot redeneermodel binnen de Qwen-familie. In vergelijking met standaard instructie-getrainde modellen verbeteren QwQ’s denk- en redeneervermogen de prestaties op complexe problemen aanzienlijk.", "r1-1776.description": "R1-1776 is een na-getrainde variant van DeepSeek R1, ontworpen om ongecensureerde, onbevooroordeelde feitelijke informatie te bieden.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro van ByteDance ondersteunt tekst-naar-video, beeld-naar-video (eerste frame, eerste+laatste frame) en audiogeneratie gesynchroniseerd met visuele elementen.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite van BytePlus biedt web-gebaseerde generatie voor real-time informatie, verbeterde interpretatie van complexe prompts en verbeterde referentieconsistentie voor professionele visuele creatie.", "solar-mini-ja.description": "Solar Mini (Ja) breidt Solar Mini uit met focus op Japans, terwijl het efficiënte, sterke prestaties in Engels en Koreaans behoudt.", "solar-mini.description": "Solar Mini is een compact LLM dat beter presteert dan GPT-3.5, met sterke meertalige ondersteuning voor Engels en Koreaans, en biedt een efficiënte oplossing met een kleine voetafdruk.", "solar-pro.description": "Solar Pro is een intelligent LLM van Upstage, gericht op instructieopvolging op een enkele GPU, met IFEval-scores boven de 80. Momenteel ondersteunt het Engels; de volledige release stond gepland voor november 2024 met uitgebreidere taalondersteuning en langere context.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.", "sonar-reasoning.description": "Een geavanceerd zoekproduct met zoekverankering voor complexe vragen en vervolgvragen.", "sonar.description": "Een lichtgewicht zoekproduct met verankering, sneller en goedkoper dan Sonar Pro.", - "spark-x.description": "X1.5-updates: (1) voegt dynamische denkmodus toe via het veld `thinking`; (2) grotere contextlengte met 64K invoer en 64K uitvoer; (3) ondersteunt FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 is een model dat een balans vindt tussen hoge rekenefficiëntie en uitstekende redeneer- en agentprestaties.", + "spark-x.description": "X2 Capaciteitenoverzicht: 1. Introduceert dynamische aanpassing van redeneermodus, gecontroleerd via het `thinking` veld. 2. Uitgebreide contextlengte: 64K invoertokens en 128K uitvoertokens. 3. Ondersteunt Function Call-functionaliteit.", "stable-diffusion-3-medium.description": "Het nieuwste tekst-naar-beeldmodel van Stability AI. Deze versie verbetert de beeldkwaliteit, tekstbegrip en stijlvariatie aanzienlijk, interpreteert complexe natuurlijke taal nauwkeuriger en genereert preciezere, gevarieerdere beelden.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo past adversarial diffusion distillation (ADD) toe op stable-diffusion-3.5-large voor hogere snelheid.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large is een 800M-parameter MMDiT tekst-naar-beeldmodel met uitstekende kwaliteit en prompt-afstemming, ondersteunt 1-megapixel beelden en draait efficiënt op consumentenhardware.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Ondersteunt interacties met grote context voor complexe dialogen.", "step-2-mini.description": "Gebouwd op de volgende generatie interne MFA-attentiearchitectuur, levert Step-1-achtige resultaten tegen veel lagere kosten met hogere doorvoer en snellere latency. Behandelt algemene taken met sterke codeercapaciteit.", "step-2x-large.description": "Een nieuwe generatie StepFun-beeldmodel gericht op beeldgeneratie, produceert beelden van hoge kwaliteit op basis van tekstprompts. Levert realistischere texturen en sterkere Chinese/Engelse tekstrendering.", + "step-3.5-flash.description": "Het vlaggenschip taalredeneermodel van Stepfun. Dit model levert topniveau redeneercapaciteiten samen met snelle en betrouwbare uitvoering. Het kan complexe taken ontleden en plannen, snel en betrouwbaar tools oproepen om ze uit te voeren, en uitblinken in logisch redeneren, wiskunde, software-engineering, diepgaand onderzoek en andere geavanceerde taken. De contextlengte is 256K.", "step-3.description": "Dit model beschikt over sterke visuele waarneming en complexe redeneercapaciteiten, en verwerkt nauwkeurig domeinoverstijgend begrip, wiskundig-visuele analyses en een breed scala aan alledaagse visuele taken.", "step-r1-v-mini.description": "Een redeneermodel met sterke beeldbegripcapaciteiten dat afbeeldingen en tekst verwerkt en vervolgens tekst genereert na diepgaande redenering. Het blinkt uit in visueel redeneren en levert topprestaties in wiskunde, programmeren en tekstuele redenering, met een contextvenster van 100K.", "stepfun-ai/step3.description": "Step3 is een geavanceerd multimodaal redeneermodel van StepFun, gebouwd op een MoE-architectuur met 321B totale en 38B actieve parameters. Het end-to-end ontwerp minimaliseert de decodeerkosten en levert topklasse visueel-taalkundige redenering. Dankzij MFA- en AFD-ontwerp blijft het efficiënt op zowel krachtige als eenvoudige accelerators. De pretraining gebruikt meer dan 20T teksttokens en 4T beeld-teksttokens in meerdere talen. Het behaalt toonaangevende prestaties op benchmarks voor wiskunde, code en multimodaliteit.", - "taichu_llm.description": "Getraind op enorme hoeveelheden hoogwaardige data, met sterk verbeterd tekstbegrip, contentcreatie en conversatiegerichte vraagbeantwoording.", - "taichu_o1.description": "taichu_o1 is een next-gen redeneermodel dat multimodale interactie en reinforcement learning gebruikt om mensachtige redeneerketens te bereiken. Het ondersteunt complexe beslissingssimulaties en toont redeneerpaden terwijl het nauwkeurige output levert, ideaal voor strategische analyses en diepgaand denken.", - "taichu_vl.description": "Combineert beeldbegrip, kennisoverdracht en logische toewijzing, en blinkt uit in beeld-tekst vraagbeantwoording.", + "taichu4_vl_2b_nothinking.description": "De No-Thinking versie van het Taichu4.0-VL 2B-model kenmerkt zich door lager geheugengebruik, een lichtgewicht ontwerp, snelle reactiesnelheid en sterke multimodale begripsmogelijkheden.", + "taichu4_vl_32b.description": "De Thinking versie van het Taichu4.0-VL 32B-model is geschikt voor complexe multimodale begrip- en redeneertaken, en toont uitstekende prestaties in multimodale wiskundige redenering, multimodale agentcapaciteiten en algemeen beeld- en visueel begrip.", + "taichu4_vl_32b_nothinking.description": "De No-Thinking versie van het Taichu4.0-VL 32B-model is ontworpen voor complexe beeld-en-tekstbegrip- en visuele kennis-QA-scenario's, en blinkt uit in beeldonderschriften, visuele vraagbeantwoording, videobegrip en visuele lokalisatietaken.", + "taichu4_vl_3b.description": "De Thinking versie van het Taichu4.0-VL 3B-model voert efficiënt multimodale begrip- en redeneertaken uit, met uitgebreide upgrades in visueel begrip, visuele lokalisatie, OCR-herkenning en gerelateerde capaciteiten.", + "taichu_llm.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.", + "taichu_llm_14b.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.", + "taichu_llm_2b.description": "Het Zidong Taichu grote taalmodel is een hoogwaardig tekstgeneratiemodel ontwikkeld met volledig binnenlandse full-stack technologieën. Door gestructureerde compressie van een basismodel met honderd miljard parameters en taakspecifieke optimalisatie verbetert het aanzienlijk complexe tekstbegrip en kennisredeneercapaciteiten. Het blinkt uit in scenario's zoals langdocumentanalyse, cross-linguale informatie-extractie en kennisbeperkte generatie.", + "taichu_o1.description": "taichu_o1 is een next-generation redeneermodel dat mensachtige keten-van-denken bereikt via multimodale interactie en versterkend leren. Het ondersteunt complexe besluitvormingssimulaties en, terwijl het een hoge precisie-output behoudt, onthult het interpreteerbare redeneerpaden. Het is goed geschikt voor strategieanalyse, diep nadenken en soortgelijke scenario's.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct gebruikt 80B totale parameters met 13B actieve om te concurreren met grotere modellen. Het ondersteunt snelle/langzame hybride redenering, stabiel begrip van lange teksten en toonaangevende agentprestaties op BFCL-v3 en τ-Bench. GQA- en multi-quant-formaten maken efficiënte inferentie mogelijk.", "tencent/Hunyuan-MT-7B.description": "Hunyuan Translation Model omvat Hunyuan-MT-7B en het ensemble Hunyuan-MT-Chimera. Hunyuan-MT-7B is een lichtgewicht vertaalmodel van 7B dat 33 talen en 5 Chinese minderheidstalen ondersteunt. In WMT25 behaalde het 30 eerste plaatsen in 31 taalkoppels. Tencent Hunyuan gebruikt een volledige trainingspipeline van pretraining tot SFT, vertaal-RL en ensemble-RL, en levert toonaangevende prestaties met efficiënte en eenvoudige implementatie.", "text-embedding-3-large.description": "Het krachtigste embeddingmodel voor taken in het Engels en andere talen.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md is geschikt voor alledaagse taken en UI-generatie.", "vercel/v0-1.0-md.description": "Toegang tot de modellen achter v0 om moderne webapps te genereren, verbeteren en optimaliseren met framework-specifieke redenering en actuele kennis.", "vercel/v0-1.5-md.description": "Toegang tot de modellen achter v0 om moderne webapps te genereren, verbeteren en optimaliseren met framework-specifieke redenering en actuele kennis.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code is geoptimaliseerd voor bedrijfsgerichte programmeerbehoeften. Op basis van de uitstekende Agent- en VLM-capaciteiten van Seed 2.0 is de codecapaciteit speciaal verbeterd. Het presteert niet alleen uitstekend in frontend-capaciteiten, maar is ook speciaal geoptimaliseerd voor veelvoorkomende meertalige codeerbehoeften van bedrijven, en is geschikt voor integratie in diverse AI-programmeertools.", + "volcengine/doubao-seed-2-0-lite.description": "Combineert generatiekwaliteit en reactiesnelheid, geschikt als algemeen productiemodel.", + "volcengine/doubao-seed-2-0-mini.description": "Verwijst naar de nieuwste versie van doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Verwijst naar de nieuwste versie van doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code is het LLM van ByteDance Volcano Engine, geoptimaliseerd voor agentisch programmeren, met sterke prestaties op programmeer- en agentbenchmarks en ondersteuning voor 256K context.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en levert snelle generatie en hoge waarde.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en produceert rijkere details.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en levert snelle generatie en hoge waarde.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus is het nieuwste model met verbeteringen in creativiteit, stabiliteit en realisme, en produceert rijkere details.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview ondersteunt bewerking van enkele beelden en fusie van meerdere beelden.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I ondersteunt flexibele selectie van beeldafmetingen binnen totale pixelgebied- en beeldverhoudingsbeperkingen.", + "wan2.6-image.description": "Wanxiang 2.6 Image ondersteunt beeldbewerking en gemengde beeld-tekst lay-outuitvoer.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I ondersteunt flexibele selectie van beeldafmetingen binnen totale pixelgebied- en beeldverhoudingsbeperkingen (hetzelfde als Wanxiang 2.5).", "wanx-v1.description": "Basis tekst-naar-beeldmodel. Komt overeen met Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Blinkt uit in getextureerde portretten met gemiddelde snelheid en lagere kosten. Komt overeen met Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Volledig geüpgraded model met rijkere beeldkwaliteit en iets tragere snelheid. Komt overeen met Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4.1 Fast is xAI’s model met hoge verwerkingssnelheid en lage kosten (ondersteunt een contextvenster van 2M), ideaal voor toepassingen met hoge gelijktijdigheid en lange contexten.", "x-ai/grok-4.description": "Grok 4 is xAI's toonaangevende model voor redenering met sterke multimodale capaciteiten.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 is xAI's snelle codemodel met leesbare, gebruiksvriendelijke output voor engineers.", + "x1.description": "X1.5 updates: (1) voegt dynamische denkmodus toe, gecontroleerd door het `thinking` veld; (2) grotere contextlengte met 64K invoer en 64K uitvoer; (3) ondersteunt FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision blinkt uit in visuele taken en levert SOTA-prestaties op visuele wiskundige redenering (MathVista) en documentvragen (DocVQA). Het verwerkt documenten, grafieken, diagrammen, schermafbeeldingen en foto's.", "xai/grok-2.description": "Grok 2 is een geavanceerd model met state-of-the-art redenering, sterke chat-, codeer- en redeneercapaciteiten, en scoort hoger dan Claude 3.5 Sonnet en GPT-4 Turbo op LMSYS.", "xai/grok-3-fast.description": "xAI’s vlaggenschipmodel blinkt uit in zakelijke toepassingen zoals data-extractie, codering en samenvatting, met diepgaande domeinkennis in financiën, gezondheidszorg, recht en wetenschap. De snelle variant draait op snellere infrastructuur voor veel snellere reacties tegen hogere kosten per token.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 is Z.AI’s vlaggenschipmodel met hybride redenering, geoptimaliseerd voor engineering- en lang-contexttaken.", "z-ai/glm-4.6.description": "GLM 4.6 is Z.AI's vlaggenschipmodel met uitgebreide contextlengte en codeercapaciteiten.", "z-ai/glm-4.7.description": "GLM-4.7 is het nieuwste vlaggenschipmodel van Zhipu, met verbeterde algemene capaciteiten, eenvoudigere en natuurlijkere antwoorden, en een meeslepende schrijfervaring.", - "z-ai/glm5.description": "Een sterk redeneer- en agent-gebaseerd model van Z.ai met in totaal 744B parameters (40B actief), ontworpen voor complexe systeemengineering en langetermijntaken.", + "z-ai/glm4.7.description": "GLM-4.7 is Zhipu's nieuwste vlaggenschipmodel, verbeterd voor Agentic Coding-scenario's met verbeterde codeercapaciteiten.", + "z-ai/glm5.description": "GLM-5 is Zhipu AI's nieuwe vlaggenschipfundamentmodel voor agent-engineering, dat open-source SOTA-prestaties behaalt in codering en agentcapaciteiten. Het evenaart Claude Opus 4.5 in prestaties.", + "z-image-turbo.description": "Z-Image is een lichtgewicht tekst-naar-beeldgeneratiemodel dat snel beelden kan produceren, zowel Chinese als Engelse tekstrendering ondersteunt, en flexibel kan worden aangepast aan meerdere resoluties en beeldverhoudingen.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air is een basismodel voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.", "zai-org/GLM-4.5.description": "GLM-4.5 is een basismodel gebouwd voor agenttoepassingen met een Mixture-of-Experts-architectuur. Het is diepgaand geoptimaliseerd voor toolgebruik, webnavigatie, softwareontwikkeling en frontend-codering, en integreert met code-agents zoals Claude Code en Roo Code. Het gebruikt hybride redenering om zowel complexe als alledaagse scenario’s aan te kunnen.", "zai-org/GLM-4.5V.description": "GLM-4.5V is Zhipu AI’s nieuwste VLM, gebaseerd op het GLM-4.5-Air vlaggenschiptekstmodel (106B totaal, 12B actief) met een MoE-architectuur voor sterke prestaties tegen lagere kosten. Het volgt het GLM-4.1V-Thinking pad en voegt 3D-RoPE toe voor verbeterde 3D-ruimtelijke redenering. Geoptimaliseerd via pretraining, SFT en RL, verwerkt het beelden, video’s en lange documenten en scoort het hoog op 41 openbare multimodale benchmarks. Een Thinking-modus schakelaar laat gebruikers kiezen tussen snelheid en diepgang.", diff --git a/locales/nl-NL/plugin.json b/locales/nl-NL/plugin.json index fa02c509be..ea4a324b55 100644 --- a/locales/nl-NL/plugin.json +++ b/locales/nl-NL/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Knooppunt bijwerken", "builtins.lobe-page-agent.apiName.wrapNodes": "Knooppunten inpakken", "builtins.lobe-page-agent.title": "Pagina", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importeren uit de Markt", + "builtins.lobe-skill-store.apiName.importSkill": "Vaardigheid Importeren", + "builtins.lobe-skill-store.apiName.searchSkill": "Vaardigheden Zoeken", + "builtins.lobe-skill-store.title": "Vaardighedenwinkel", + "builtins.lobe-skills.apiName.execScript": "Script Uitvoeren", + "builtins.lobe-skills.apiName.exportFile": "Bestand Exporteren", + "builtins.lobe-skills.apiName.importFromMarket": "Importeren uit de Markt", + "builtins.lobe-skills.apiName.importSkill": "Vaardigheid Importeren", + "builtins.lobe-skills.apiName.readReference": "Referentie Lezen", + "builtins.lobe-skills.apiName.runSkill": "Vaardigheid Activeren", + "builtins.lobe-skills.apiName.searchSkill": "Vaardigheden Zoeken", + "builtins.lobe-skills.title": "Vaardigheden", + "builtins.lobe-tools.apiName.activateTools": "Hulpmiddelen Activeren", "builtins.lobe-user-memory.apiName.addContextMemory": "Contextgeheugen toevoegen", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Ervaringsgeheugen toevoegen", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Identiteitsgeheugen toevoegen", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Webzoekopdracht", "confirm": "Bevestigen", "debug.arguments": "Argumenten", + "debug.error": "Foutenlogboek", "debug.function_call": "Functieaanroep", "debug.intervention": "Skill-interventie", "debug.off": "Debug uit", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Instellingen opgeslagen", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Metainfo", - "dev.title.create": "Aangepaste Skill toevoegen", - "dev.title.edit": "Aangepaste Skill bewerken", + "dev.title.create": "Aangepaste MCP Vaardigheid Toevoegen", + "dev.title.edit": "Aangepaste MCP Vaardigheid Bewerken", "dev.title.editCommunity": "Community-vaardigheid bewerken", "dev.title.skillDetails": "Vaardigheidsdetails", "dev.title.skillSettings": "Vaardigheidsinstellingen", diff --git a/locales/nl-NL/providers.json b/locales/nl-NL/providers.json index 0682333289..83f75240f3 100644 --- a/locales/nl-NL/providers.json +++ b/locales/nl-NL/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud is een kosteneffectieve GenAI-cloudservice gebaseerd op sterke open-source basismodellen.", "spark.description": "iFLYTEK Spark biedt krachtige meertalige AI over verschillende domeinen, en maakt innovaties mogelijk in slimme hardware, gezondheidszorg, financiën en andere sectoren.", "stepfun.description": "Stepfun-modellen bieden toonaangevende multimodale en complexe redeneercapaciteiten, met begrip van lange contexten en krachtige autonome zoekcoördinatie.", + "straico.description": "Straico vereenvoudigt AI-integratie door een uniforme werkruimte te bieden die de beste tekst-, beeld- en audiogeneratieve AI-modellen samenbrengt, waardoor marketeers, ondernemers en enthousiastelingen naadloze toegang krijgen tot diverse AI-tools.", "taichu.description": "Een next-gen multimodaal model van CASIA en het Wuhan Institute of AI, met ondersteuning voor meerstaps Q&A, schrijven, beeldgeneratie, 3D-begrip en signaalanalyse, met verbeterde cognitie en creativiteit.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power biedt end-to-end kennis-Q&A voor bedrijven en ontwikkelaars, met modulaire diensten zoals documentanalyse, chunking, embeddings en meerstaps herschrijving voor het samenstellen van aangepaste AI-oplossingen.", "togetherai.description": "Together AI levert toonaangevende prestaties met innovatieve modellen, brede aanpasbaarheid, snelle schaalbaarheid en eenvoudige implementatie voor zakelijke behoeften.", diff --git a/locales/nl-NL/setting.json b/locales/nl-NL/setting.json index 2524d4f4f0..60297f7b9d 100644 --- a/locales/nl-NL/setting.json +++ b/locales/nl-NL/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Agentprofiel", "agentInfoDescription.value.unset": "Niet ingesteld", "agentInfoDescription.value.untitled": "Naamloze agent", + "agentSkillDetail.addedAt": "Toegevoegd", + "agentSkillDetail.publishedAt": "Gepubliceerd", + "agentSkillDetail.repository": "GitHub-repository", + "agentSkillDetail.skillContent": "Vaardigheidsinhoud", + "agentSkillDetail.sourceUrl": "Bron van vaardigheidsimport", + "agentSkillDetail.updatedAt": "Bijgewerkt", + "agentSkillEdit.descriptionDesc": "Een korte samenvatting van wat de vaardigheid doet, zodat de agent begrijpt wanneer deze te gebruiken", + "agentSkillEdit.fileReadonly": "Dit bestand is alleen-lezen. Alleen de beschrijving en instructies van de vaardigheid kunnen worden bewerkt.", + "agentSkillEdit.instructions": "Instructies", + "agentSkillEdit.instructionsDesc": "De kerninstructies in Markdown die het gedrag en de workflow van de vaardigheid definiëren", + "agentSkillEdit.instructionsPlaceholder": "Voer de vaardigheidsinstructies in Markdown-formaat in...", + "agentSkillEdit.nameDesc": "De unieke identificatie voor deze vaardigheid, niet bewerkbaar na aanmaak", + "agentSkillEdit.saveSuccess": "Vaardigheid succesvol bijgewerkt", + "agentSkillEdit.title": "Vaardigheidsinstellingen", + "agentSkillItem.deleteConfirm.desc": "Weet u zeker dat u de agentvaardigheid \"{{name}}\" wilt verwijderen? Deze actie kan niet ongedaan worden gemaakt.", + "agentSkillItem.deleteConfirm.title": "Agentvaardigheid Verwijderen", + "agentSkillModal.content": "Vaardigheidsinhoud", + "agentSkillModal.contentPlaceholder": "Voer vaardigheidsinhoud in Markdown-formaat in...", + "agentSkillModal.description": "Beschrijving", + "agentSkillModal.descriptionPlaceholder": "Beschrijf deze vaardigheid kort", + "agentSkillModal.github.desc": "Importeer vaardigheden direct vanuit een openbare GitHub-repository.", + "agentSkillModal.github.title": "Importeren vanuit GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/gebruikersnaam/repo", + "agentSkillModal.importError": "Importeren mislukt: {{error}}", + "agentSkillModal.importSuccess": "Agentvaardigheid succesvol geïmporteerd", + "agentSkillModal.upload.desc": "Upload een lokaal .zip- of .skill-bestand om te installeren.", + "agentSkillModal.upload.dragText": "Sleep en zet neer of klik om te uploaden", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md bevat vaardigheidsnaam en beschrijving in YAML-formaat", + "agentSkillModal.upload.requirementZip": ".zip- of .skill-bestand met SKILL.md in de hoofdmap", + "agentSkillModal.upload.requirements": "Bestandsvereisten", + "agentSkillModal.upload.title": "Vaardigheid Uploaden", + "agentSkillModal.upload.uploading": "Bezig met uploaden...", + "agentSkillModal.url.desc": "Importeer een vaardigheid door een directe link naar een SKILL.md-bestand op te geven.", + "agentSkillModal.url.title": "Importeren via URL", + "agentSkillModal.url.urlPlaceholder": "https://voorbeeld.com/pad/naar/SKILL.md", + "agentSkillTag": "Agentvaardigheid", "agentTab.chat": "Chatvoorkeuren", "agentTab.meta": "Agentinformatie", "agentTab.modal": "Modelinstellingen", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Specificeer het model dat wordt gebruikt voor vertaling", "systemAgent.translation.title": "Berichtvertalingsagent", "tab.about": "Over", + "tab.addAgentSkill": "Agentvaardigheid Toevoegen", + "tab.addCustomMcp": "Aangepaste MCP-vaardigheid Toevoegen", + "tab.addCustomMcp.desc": "Handmatig een aangepaste MCP-server configureren", "tab.addCustomSkill": "Aangepaste skill toevoegen", "tab.agent": "Agentservice", "tab.all": "Alles", @@ -652,7 +691,13 @@ "tab.experiment": "Experiment", "tab.hotkey": "Sneltoetsen", "tab.image": "Afbeeldingengeneratie", + "tab.importFromGithub": "Importeren vanuit GitHub", + "tab.importFromGithub.desc": "Importeren vanuit een openbare GitHub-repository", + "tab.importFromUrl": "Importeren via URL", + "tab.importFromUrl.desc": "Importeren via een directe link naar SKILL.md", "tab.llm": "Taalmodel", + "tab.manualFill": "Handmatig Invullen", + "tab.manualFill.desc": "Handmatig een aangepaste MCP-vaardigheid configureren", "tab.memory": "Geheugen", "tab.profile": "Mijn Account", "tab.provider": "AI-dienstverlener", @@ -669,6 +714,8 @@ "tab.sync": "Cloudsynchronisatie", "tab.systemTools": "Systeemhulpmiddelen", "tab.tts": "Tekst-naar-Spraak", + "tab.uploadZip": "Zip Uploaden", + "tab.uploadZip.desc": "Upload een lokaal .zip- of .skill-bestand", "tab.usage": "Gebruiksstatistieken", "tools.add": "Vaardigheid Toevoegen", "tools.builtins.groupName": "Ingebouwd", diff --git a/locales/pl-PL/common.json b/locales/pl-PL/common.json index 75b733b996..e691fe2913 100644 --- a/locales/pl-PL/common.json +++ b/locales/pl-PL/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Oceń nas na GitHubie", "footer.title": "Podoba Ci się nasz produkt?", "fullscreen": "Tryb pełnoekranowy", - "geminiImageChineseWarning.content": "Nano Banana może czasami nie generować obrazów przy użyciu języka chińskiego. Zalecamy użycie języka angielskiego dla lepszych rezultatów.", - "geminiImageChineseWarning.continueGenerate": "Kontynuuj generowanie", - "geminiImageChineseWarning.continueSend": "Kontynuuj wysyłanie", - "geminiImageChineseWarning.doNotShowAgain": "Nie pokazuj ponownie", - "geminiImageChineseWarning.title": "Uwaga dotycząca języka chińskiego", "historyRange": "Zakres historii", "home.suggestQuestions": "Wypróbuj te przykłady", "import": "Importuj", @@ -397,6 +392,7 @@ "tab.chat": "Czat", "tab.community": "Społeczność", "tab.discover": "Odkrywaj", + "tab.eval": "Laboratorium Ewaluacji", "tab.files": "Pliki", "tab.home": "Strona główna", "tab.knowledgeBase": "Biblioteka", diff --git a/locales/pl-PL/eval.json b/locales/pl-PL/eval.json new file mode 100644 index 0000000000..2a332983e9 --- /dev/null +++ b/locales/pl-PL/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Usuń Benchmark", + "benchmark.actions.delete.confirm": "Czy na pewno chcesz usunąć ten benchmark? Powiązane zestawy danych i rekordy oceny również zostaną usunięte.", + "benchmark.actions.edit": "Edytuj Benchmark", + "benchmark.actions.export": "Eksportuj", + "benchmark.card.bestScore": "Najlepszy", + "benchmark.card.caseCount": "{{count}} przypadków", + "benchmark.card.datasetCount": "{{count}} zestawów danych", + "benchmark.card.empty": "Brak ocen", + "benchmark.card.emptyHint": "Utwórz nową ocenę na stronie szczegółów benchmarku", + "benchmark.card.importDataset": "Importuj Zestaw Danych", + "benchmark.card.noDataset": "Brak zestawów danych", + "benchmark.card.noDatasetHint": "Zaimportuj zestaw danych, aby rozpocząć ocenianie", + "benchmark.card.noRecentRuns": "Brak ostatnich ocen do wyświetlenia", + "benchmark.card.recentRuns": "Ostatnie Oceny", + "benchmark.card.runCount": "{{count}} ocen", + "benchmark.card.startFirst": "Rozpocznij Pierwszą Ocenę", + "benchmark.card.viewAll": "Zobacz wszystkie {{count}}", + "benchmark.create.confirm": "Utwórz", + "benchmark.create.description.label": "Opis", + "benchmark.create.description.placeholder": "Opis benchmarku (opcjonalnie)", + "benchmark.create.error": "Nie udało się utworzyć benchmarku", + "benchmark.create.identifier.label": "Identyfikator", + "benchmark.create.identifier.placeholder": "identyfikator-benchmarku", + "benchmark.create.identifierRequired": "Wprowadź identyfikator", + "benchmark.create.name.label": "Nazwa", + "benchmark.create.name.placeholder": "Wprowadź nazwę benchmarku", + "benchmark.create.nameRequired": "Wprowadź nazwę benchmarku", + "benchmark.create.success": "Benchmark został pomyślnie utworzony", + "benchmark.create.tags.label": "Tagi", + "benchmark.create.tags.placeholder": "Dodaj tagi, oddzielone przecinkiem lub spacją", + "benchmark.create.title": "Utwórz Benchmark", + "benchmark.detail.backToOverview": "Powrót do Przeglądu", + "benchmark.detail.datasetCount": "{{count}} zestaw{{count, plural, one {} other {ów}}} danych w tym benchmarku", + "benchmark.detail.runCount": "{{count}} uruchomienie{{count, plural, one {} other {ń}}} oceny w tym benchmarku", + "benchmark.detail.stats.addFirstDataset": "Kliknij, aby dodać pierwszy zestaw danych", + "benchmark.detail.stats.avgCost": "Średni Koszt", + "benchmark.detail.stats.avgDuration": "Średni Czas Trwania", + "benchmark.detail.stats.basedOnLastNRuns": "Na podstawie ostatnich {{count}} uruchomień", + "benchmark.detail.stats.bestPerformance": "Najlepsza wydajność przez {{agent}} z {{passRate}}% wskaźnikiem sukcesu", + "benchmark.detail.stats.bestScore": "Najlepszy Wynik", + "benchmark.detail.stats.cases": "Przypadki", + "benchmark.detail.stats.dataScale": "Skala Danych", + "benchmark.detail.stats.datasets": "Zestawy Danych", + "benchmark.detail.stats.needSetup": "Wymagane Ustawienia", + "benchmark.detail.stats.noEvalRecord": "Brak rekordów oceny", + "benchmark.detail.stats.perRun": "/ Uruchomienie", + "benchmark.detail.stats.runs": "Uruchomienia", + "benchmark.detail.stats.tags": "Tagi", + "benchmark.detail.stats.topAgents": "Najlepsi Agenci", + "benchmark.detail.stats.totalCases": "Łączna Liczba Przypadków", + "benchmark.detail.stats.waiting": "Oczekiwanie...", + "benchmark.detail.tabs.data": "Dane", + "benchmark.detail.tabs.datasets": "Zestawy Danych", + "benchmark.detail.tabs.runs": "Uruchomienia", + "benchmark.edit.confirm": "Zapisz", + "benchmark.edit.error": "Nie udało się zaktualizować benchmarku", + "benchmark.edit.success": "Benchmark został pomyślnie zaktualizowany", + "benchmark.edit.title": "Edytuj Benchmark", + "benchmark.empty": "Brak benchmarków. Utwórz jeden, aby rozpocząć.", + "caseDetail.actual": "Rzeczywisty Wynik", + "caseDetail.chatArea.title": "Rozmowa", + "caseDetail.completionReason": "Status", + "caseDetail.cost": "Koszt", + "caseDetail.difficulty": "Trudność", + "caseDetail.duration": "Czas Trwania", + "caseDetail.expected": "Oczekiwany Wynik", + "caseDetail.failureReason": "Powód Niepowodzenia", + "caseDetail.input": "Wejście", + "caseDetail.judgeComment": "Komentarz Sędziego", + "caseDetail.resources": "Zasoby", + "caseDetail.score": "Wynik", + "caseDetail.section.runtime": "Czas Wykonania", + "caseDetail.section.scoring": "Szczegóły Punktacji", + "caseDetail.section.testCase": "Przypadek Testowy", + "caseDetail.steps": "Kroki", + "caseDetail.threads.attempt": "Próba #{{number}}", + "caseDetail.tokens": "Użycie Tokenów", + "common.cancel": "Anuluj", + "common.create": "Utwórz", + "common.delete": "Usuń", + "common.edit": "Edytuj", + "common.later": "Później", + "common.next": "Dalej", + "common.update": "Aktualizuj", + "dataset.actions.addDataset": "Dodaj Zestaw Danych", + "dataset.actions.import": "Importuj Dane", + "dataset.actions.importDataset": "Importuj Zestaw Danych", + "dataset.create.description.label": "Opis", + "dataset.create.description.placeholder": "Opis zestawu danych (opcjonalnie)", + "dataset.create.error": "Nie udało się utworzyć zestawu danych", + "dataset.create.identifier.label": "Identyfikator", + "dataset.create.identifier.placeholder": "identyfikator-zestawu-danych", + "dataset.create.identifierRequired": "Wprowadź identyfikator", + "dataset.create.importNow": "Czy chcesz teraz zaimportować dane?", + "dataset.create.name.label": "Nazwa Zestawu Danych", + "dataset.create.name.placeholder": "Wprowadź nazwę zestawu danych", + "dataset.create.nameRequired": "Wprowadź nazwę zestawu danych", + "dataset.create.preset.label": "Predefiniowany Zestaw Danych", + "dataset.create.success": "Zestaw danych został pomyślnie utworzony", + "dataset.create.successTitle": "Zestaw Danych Utworzony", + "dataset.create.title": "Utwórz Zestaw Danych", + "dataset.delete.confirm": "Czy na pewno chcesz usunąć ten zestaw danych? Wszystkie przypadki testowe w nim zawarte również zostaną usunięte.", + "dataset.delete.error": "Nie udało się usunąć zestawu danych", + "dataset.delete.success": "Zestaw danych został pomyślnie usunięty", + "dataset.detail.addRun": "Nowe Uruchomienie", + "dataset.detail.backToBenchmark": "Powrót do Benchmarku", + "dataset.detail.caseCount": "{{count}} przypadek testowy{{count, plural, one {} other {ów}}}", + "dataset.detail.relatedRuns": "Powiązane Uruchomienia ({{count}})", + "dataset.detail.testCases": "Przypadki Testowe", + "dataset.detail.viewDetail": "Zobacz Szczegóły", + "dataset.edit.error": "Nie udało się zaktualizować zestawu danych", + "dataset.edit.success": "Zestaw danych został pomyślnie zaktualizowany", + "dataset.edit.title": "Edytuj Zestaw Danych", + "dataset.empty": "Brak zestawów danych", + "dataset.empty.description": "Zaimportuj zestaw danych, aby rozpocząć budowanie tego benchmarku", + "dataset.empty.title": "Brak zestawów danych", + "dataset.evalMode.hint": "Domyślny tryb oceny dla zestawu danych, można go nadpisać na poziomie przypadku testowego", + "dataset.import.category": "Kategoria", + "dataset.import.categoryDesc": "Etykieta klasyfikacji do grupowania", + "dataset.import.choices": "Opcje", + "dataset.import.choicesDesc": "Opcje wielokrotnego wyboru", + "dataset.import.confirm": "Importuj", + "dataset.import.error": "Nie udało się zaimportować zestawu danych", + "dataset.import.expected": "Oczekiwana Odpowiedź", + "dataset.import.expectedDelimiter": "Separator Odpowiedzi", + "dataset.import.expectedDelimiter.desc": "Separator odpowiedzi", + "dataset.import.expectedDelimiter.placeholder": "np. | lub ,", + "dataset.import.expectedDesc": "Poprawna odpowiedź do porównania", + "dataset.import.fieldMapping": "Mapowanie Pól", + "dataset.import.fieldMapping.desc": "Kolumna \"Wejście\" jest wymagana", + "dataset.import.hideSkipped": "Ukryj pominięte kolumny", + "dataset.import.ignore": "Pomiń", + "dataset.import.ignoreDesc": "Nie importuj tej kolumny", + "dataset.import.input": "Wejście", + "dataset.import.inputDesc": "Pytanie lub polecenie wysłane do modelu", + "dataset.import.metadata": "Metadane", + "dataset.import.metadataDesc": "Dodatkowe informacje, przechowywane w oryginalnej formie", + "dataset.import.next": "Dalej", + "dataset.import.parseError": "Nie udało się przetworzyć pliku", + "dataset.import.parsing": "Przetwarzanie pliku...", + "dataset.import.prev": "Wstecz", + "dataset.import.preview": "Podgląd Danych", + "dataset.import.preview.desc": "Potwierdź poprawność mapowania, a następnie zaimportuj.", + "dataset.import.preview.rows": "Łącznie {{count}} wierszy", + "dataset.import.sortOrder": "Numer Elementu", + "dataset.import.sortOrderDesc": "ID pytania/elementu do odniesienia", + "dataset.import.step.mapping": "Mapuj Pola", + "dataset.import.step.preview": "Podgląd", + "dataset.import.step.upload": "Prześlij Plik", + "dataset.import.success": "Pomyślnie zaimportowano {{count}} przypadków testowych", + "dataset.import.title": "Importuj Zestaw Danych", + "dataset.import.upload.hint": "Obsługuje formaty CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Kliknij lub przeciągnij plik tutaj, aby przesłać", + "dataset.import.uploading": "Przesyłanie...", + "dataset.switchDataset": "Zmień Zestaw Danych", + "difficulty.easy": "Łatwy", + "difficulty.hard": "Trudny", + "difficulty.medium": "Średni", + "evalMode.contains": "Zawiera Dopasowanie", + "evalMode.contains.desc": "Wynik musi zawierać oczekiwany tekst", + "evalMode.equals": "Dokładne Dopasowanie", + "evalMode.equals.desc": "Wynik musi być dokładnie taki sam jak oczekiwany", + "evalMode.label": "Tryb Oceny", + "evalMode.llm-rubric": "Sędzia LLM", + "evalMode.llm-rubric.desc": "Użyj LLM do oceny jakości wyniku", + "evalMode.placeholder": "Wybierz tryb oceny", + "evalMode.prompt.label": "Kryteria Oceny", + "evalMode.prompt.placeholder": "Wprowadź kryteria oceny lub polecenie dla sędziego LLM", + "evalMode.rubric": "Punktacja Rubrykowa", + "evalMode.rubric.desc": "Oceń wynik za pomocą rubryk benchmarku z ważonymi kryteriami", + "overview.createBenchmark": "Utwórz Benchmark", + "overview.importDataset": "Importuj Zestaw Danych", + "overview.subtitle": "Benchmarkuj i oceniaj swoich agentów AI na zestawach danych", + "overview.title": "Laboratorium Oceny", + "run.actions.abort": "Przerwij", + "run.actions.abort.confirm": "Czy na pewno chcesz przerwać tę ocenę?", + "run.actions.create": "Nowa Ocena", + "run.actions.delete": "Usuń", + "run.actions.delete.confirm": "Czy na pewno chcesz usunąć tę ocenę?", + "run.actions.edit": "Edytuj", + "run.actions.retryCase": "Ponów Przypadek", + "run.actions.retryErrors": "Ponów Błędy", + "run.actions.retryErrors.confirm": "To ponownie uruchomi wszystkie przypadki błędów i przekroczeń czasu. Przypadki zaliczone i niezaliczone nie zostaną zmienione.", + "run.actions.run": "Uruchom", + "run.actions.start": "Rozpocznij", + "run.actions.start.confirm": "Czy na pewno chcesz rozpocząć tę ocenę?", + "run.chart.duration": "Czas Trwania (s)", + "run.chart.error": "Błąd", + "run.chart.fail": "Niepowodzenie", + "run.chart.latencyDistribution": "Rozkład Opóźnień", + "run.chart.latencyTokenDistribution": "Opóźnienie / Rozkład Tokenów", + "run.chart.pass": "Sukces", + "run.chart.passFailError": "Sukces / Niepowodzenie / Błąd", + "run.chart.tokens": "Tokeny", + "run.config.agentId": "Agent", + "run.config.concurrency": "Równoczesność", + "run.config.judgeModel": "Model Sędziego", + "run.config.k": "Wykonania (K)", + "run.config.k.hint": "Uruchom każdy przypadek testowy {{k}} razy dla metryk pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Maks. Kroki", + "run.config.maxSteps.hint": "Każde wywołanie LLM lub narzędzia przez agenta liczy się jako 1 krok", + "run.config.model": "Model", + "run.config.temperature": "Temperatura", + "run.config.timeout": "Limit Czasu", + "run.config.timeout.unit": "min", + "run.create.advanced": "Zaawansowane Ustawienia", + "run.create.agent": "Agent", + "run.create.agent.placeholder": "Wybierz agenta", + "run.create.agent.required": "Wybierz agenta", + "run.create.caseCount": "{{count}} przypadków", + "run.create.confirm": "Utwórz i Rozpocznij", + "run.create.createOnly": "Utwórz", + "run.create.dataset": "Zestaw Danych", + "run.create.dataset.placeholder": "Wybierz zestaw danych", + "run.create.dataset.required": "Wybierz zestaw danych", + "run.create.name": "Nazwa Uruchomienia", + "run.create.name.placeholder": "Wprowadź nazwę dla tego uruchomienia", + "run.create.name.required": "Wprowadź nazwę uruchomienia", + "run.create.name.useTimestamp": "Użyj bieżącego czasu jako nazwy", + "run.create.openAgent": "Otwórz agenta w nowym oknie", + "run.create.title": "Nowa Ocena", + "run.create.titleWithDataset": "Nowa Ocena na \"{{dataset}}\"", + "run.detail.agent": "Agent", + "run.detail.agent.none": "Nie określono", + "run.detail.agent.unnamed": "Agent Bez Nazwy", + "run.detail.backToBenchmark": "Powrót do Benchmarku", + "run.detail.caseResults": "Szczegóły Oceny", + "run.detail.config": "Konfiguracja Oceny", + "run.detail.configSnapshot": "Migawka Konfiguracji", + "run.detail.dataset": "Zestaw Danych", + "run.detail.model": "Model", + "run.detail.overview": "Przegląd", + "run.detail.progress": "Postęp", + "run.detail.progressCases": "przypadków", + "run.detail.report": "Podsumowanie Oceny", + "run.edit.error": "Nie udało się zaktualizować oceny", + "run.edit.success": "Ocena została pomyślnie zaktualizowana", + "run.edit.title": "Edytuj Ocenę", + "run.empty.description": "Rozpocznij pierwsze uruchomienie oceny na tym zestawie danych", + "run.empty.descriptionBenchmark": "Rozpocznij pierwsze uruchomienie oceny na tym benchmarku", + "run.empty.title": "Brak uruchomień", + "run.filter.active": "Aktywne", + "run.filter.empty": "Brak uruchomień pasujących do bieżącego filtra.", + "run.idle.hint": "Kliknij Rozpocznij, aby rozpocząć ocenę", + "run.metrics.avgScore": "Średni Wynik", + "run.metrics.cost": "Koszt", + "run.metrics.duration": "Czas Trwania", + "run.metrics.errorCases": "Błąd", + "run.metrics.evaluated": "{{count}} ocenione", + "run.metrics.passRate": "Wskaźnik Sukcesu", + "run.metrics.perCase": "/ przypadek", + "run.metrics.tokens": "Tokeny", + "run.metrics.totalDuration": "Łączny Czas", + "run.pending.hint": "Ocena jest w kolejce, oczekuje na rozpoczęcie...", + "run.running.hint": "Ocena trwa, wyniki pojawią się wkrótce...", + "run.status.aborted": "Przerwane", + "run.status.completed": "Zakończone", + "run.status.error": "Błąd Uruchomienia", + "run.status.failed": "Niepowodzenie", + "run.status.idle": "Bezczynne", + "run.status.pending": "Oczekujące", + "run.status.running": "Uruchomione", + "run.status.timeout": "Przekroczono Limit Czasu", + "sidebar.benchmarks": "Benchmarki", + "sidebar.dashboard": "Pulpit", + "sidebar.datasets": "Zestawy Danych", + "sidebar.runs": "Uruchomienia", + "table.columns.avgCost": "Średni Koszt", + "table.columns.category": "Kategoria", + "table.columns.cost": "Koszt", + "table.columns.difficulty": "Trudność", + "table.columns.duration": "Czas Trwania", + "table.columns.evalMode": "Tryb Oceny", + "table.columns.expected": "Oczekiwana Odpowiedź", + "table.columns.input": "Wejście", + "table.columns.score": "Wynik", + "table.columns.status": "Status", + "table.columns.steps": "Kroki", + "table.columns.tags": "Tagi", + "table.columns.tokens": "Tokeny", + "table.columns.totalCost": "Całkowity Koszt", + "table.filter.all": "Wszystkie", + "table.filter.error": "Błąd Uruchomienia", + "table.filter.failed": "Niepowodzenie", + "table.filter.passed": "Sukces", + "table.filter.running": "Uruchomione", + "table.search.placeholder": "Szukaj przypadków...", + "table.total": "Łącznie {{count}}", + "testCase.actions.add": "Dodaj Przypadek Testowy", + "testCase.actions.import": "Importuj Przypadki Testowe", + "testCase.create.advanced": "Więcej Opcji", + "testCase.create.difficulty.label": "Trudność", + "testCase.create.error": "Nie udało się dodać przypadku testowego", + "testCase.create.expected.label": "Oczekiwany Wynik", + "testCase.create.expected.placeholder": "Wprowadź oczekiwaną odpowiedź", + "testCase.create.expected.required": "Wprowadź oczekiwany wynik", + "testCase.create.input.label": "Wejście", + "testCase.create.input.placeholder": "Wprowadź dane wejściowe lub pytanie dla przypadku testowego", + "testCase.create.success": "Przypadek testowy został pomyślnie dodany", + "testCase.create.tags.label": "Tagi", + "testCase.create.tags.placeholder": "Tagi oddzielone przecinkami (opcjonalnie)", + "testCase.create.title": "Dodaj Przypadek Testowy", + "testCase.delete.confirm": "Czy na pewno chcesz usunąć ten przypadek testowy?", + "testCase.delete.error": "Nie udało się usunąć przypadku testowego", + "testCase.delete.success": "Przypadek testowy został usunięty", + "testCase.edit.error": "Nie udało się zaktualizować przypadku testowego", + "testCase.edit.success": "Przypadek testowy został pomyślnie zaktualizowany", + "testCase.edit.title": "Edytuj Przypadek Testowy", + "testCase.empty.description": "Zaimportuj lub ręcznie dodaj przypadki testowe do tego zestawu danych", + "testCase.empty.title": "Brak przypadków testowych", + "testCase.preview.expected": "Oczekiwany", + "testCase.preview.input": "Wejście", + "testCase.preview.title": "Podgląd Przypadku Testowego", + "testCase.search.placeholder": "Szukaj przypadków..." +} diff --git a/locales/pl-PL/home.json b/locales/pl-PL/home.json index a9536cc241..8feee497e3 100644 --- a/locales/pl-PL/home.json +++ b/locales/pl-PL/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Dogłębne badania", "starter.developing": "Wkrótce dostępne", "starter.image": "Obraz", + "starter.nanoBanana2": "🍌 Nano Banan 2", "starter.seedance": "Seedance 2.0", "starter.write": "Pisz" } diff --git a/locales/pl-PL/modelProvider.json b/locales/pl-PL/modelProvider.json index 5ca3ac5875..277f2fdce6 100644 --- a/locales/pl-PL/modelProvider.json +++ b/locales/pl-PL/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dla serii Gemini; kontroluje budżet na myślenie.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dla modeli Gemini 3 Flash Preview; kontroluje głębokość myślenia.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dla modeli Gemini 3 Pro Preview; kontroluje głębokość myślenia.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Dla modeli Gemini 3.1 Pro Preview; kontroluje głębokość myślenia na poziomach niskim/średnim/wysokim.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dla serii Gemini; umożliwia podanie kontekstu w postaci adresu URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Wybierz parametry rozszerzone do włączenia", "providerModels.item.modelConfig.extendParams.previewFallback": "Podgląd niedostępny", diff --git a/locales/pl-PL/models.json b/locales/pl-PL/models.json index b9bc99e6b4..778095fa9d 100644 --- a/locales/pl-PL/models.json +++ b/locales/pl-PL/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo oferuje wysoką wydajność obliczeniową i zdolności konwersacyjne, z doskonałym rozumieniem semantycznym i efektywnością generowania — idealny dla firm i deweloperów.", "360gpt2-o1.description": "360gpt2-o1 buduje łańcuch rozumowania poprzez przeszukiwanie drzewa z mechanizmem refleksji i treningiem RL, umożliwiając samorefleksję i autokorektę.", "360gpt2-pro.description": "360GPT2 Pro to zaawansowany model NLP od 360, wyróżniający się w generowaniu i rozumieniu tekstu, szczególnie w zadaniach kreatywnych, transformacjach i odgrywaniu ról.", + "360zhinao2-o1.5.description": "360 Zhinao to najpotężniejszy model rozumowania, charakteryzujący się najsilniejszymi możliwościami i obsługujący zarówno wywoływanie narzędzi, jak i zaawansowane rozumowanie.", "360zhinao2-o1.description": "360zhinao2-o1 buduje łańcuch rozumowania poprzez przeszukiwanie drzewa z mechanizmem refleksji i treningiem RL, umożliwiając samorefleksję i autokorektę.", + "360zhinao3-o1.5.description": "360 Zhinao to model rozumowania nowej generacji.", "4.0Ultra.description": "Spark Ultra to najpotężniejszy model z serii Spark, ulepszający rozumienie tekstu i podsumowywanie oraz wzbogacający wyszukiwanie internetowe. Stanowi kompleksowe rozwiązanie zwiększające produktywność w pracy i precyzję odpowiedzi, pozycjonując się jako wiodący produkt inteligentny.", "AnimeSharp.description": "AnimeSharp (znany również jako „4x-AnimeSharp”) to otwartoźródłowy model super-rozdzielczości oparty na ESRGAN autorstwa Kim2091, skoncentrowany na skalowaniu i wyostrzaniu obrazów w stylu anime. W lutym 2022 roku zmieniono jego nazwę z „4x-TextSharpV1”; pierwotnie służył również do obrazów tekstowych, ale został silnie zoptymalizowany pod kątem treści anime.", "Baichuan2-Turbo.description": "Wykorzystuje rozszerzenie wyszukiwania do połączenia modelu z wiedzą dziedzinową i internetową. Obsługuje przesyłanie plików PDF/Word oraz wprowadzanie adresów URL w celu szybkiego i kompleksowego pozyskiwania informacji oraz generowania profesjonalnych i precyzyjnych odpowiedzi.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision to nowoczesny model multimodalny, który osiąga wysokie wyniki w kluczowych testach językowych, tekstowych i wizualnych. Wersja 8B została zoptymalizowana pod kątem niskich opóźnień i wysokiej wydajności.", "charglm-3.description": "CharGLM-3 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.", "charglm-4.description": "CharGLM-4 został zaprojektowany do odgrywania ról i emocjonalnego towarzyszenia, obsługując ultra-długą pamięć wieloetapową i spersonalizowany dialog.", - "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym, łączący silne rozumienie i generowanie treści w zastosowaniach na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.", + "chatgpt-4o-latest.description": "ChatGPT-4o to dynamiczny model aktualizowany w czasie rzeczywistym. Łączy silne zrozumienie języka i generowanie, co czyni go idealnym do zastosowań na dużą skalę, takich jak obsługa klienta, edukacja i wsparcie techniczne.", "claude-2.0.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.", "claude-2.1.description": "Claude 2 wprowadza kluczowe ulepszenia dla przedsiębiorstw, w tym kontekst 200 tys. tokenów, zmniejszoną halucynację, podpowiedzi systemowe i nową funkcję testową: wywoływanie narzędzi.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku to najszybszy model nowej generacji od Anthropic, oferujący ulepszone umiejętności i przewyższający poprzedni flagowy model Claude 3 Opus w wielu testach porównawczych.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) to innowacyjny model oferujący głębokie zrozumienie języka i interakcję.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 to model nowej generacji do rozumowania z silniejszym rozumowaniem złożonym i łańcuchem myśli do zadań wymagających głębokiej analizy.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 to model rozumowania nowej generacji z ulepszonymi zdolnościami do rozwiązywania złożonych problemów i myślenia łańcuchowego.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 to model językowo-wizualny MoE oparty na DeepSeekMoE-27B z rzadką aktywacją, osiągający wysoką wydajność przy zaledwie 4,5B aktywnych parametrów. Wyróżnia się w zadaniach QA wizualnych, OCR, rozumieniu dokumentów/tabel/wykresów i ugruntowaniu wizualnym.", "deepseek-chat.description": "DeepSeek V3.2 łączy rozumowanie i długość odpowiedzi, idealny do codziennych zadań QA i agentów. Osiąga poziom GPT-5 w publicznych benchmarkach i jako pierwszy integruje myślenie z użyciem narzędzi, prowadząc w ocenach agentów open-source.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B to model języka kodu wytrenowany na 2T tokenach (87% kod, 13% tekst chiński/angielski). Wprowadza okno kontekstu 16K i zadania uzupełniania w środku, oferując uzupełnianie kodu na poziomie projektu i wypełnianie fragmentów.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 to nowy hybrydowy model rozumowania od DeepSeek, obsługujący tryby myślenia i bezmyślenia, oferujący wyższą efektywność rozumowania niż DeepSeek-R1-0528. Optymalizacje po etapie trenowania znacznie poprawiają wykorzystanie narzędzi i wydajność zadań agentowych. Obsługuje okno kontekstowe 128k i do 64k tokenów wyjściowych.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 to model nowej generacji do złożonego rozumowania i łańcuchów myślowych, odpowiedni do zadań wymagających głębokiej analizy.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp wprowadza rzadką uwagę (sparse attention), poprawiając efektywność trenowania i wnioskowania na długich tekstach przy niższej cenie niż deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "W przypadku bardzo złożonych zadań model Speciale znacznie przewyższa standardową wersję, ale zużywa znacznie więcej tokenów i generuje wyższe koszty. Obecnie DeepSeek-V3.2-Speciale jest przeznaczony wyłącznie do celów badawczych, nie obsługuje wywoływania narzędzi i nie został specjalnie zoptymalizowany do codziennych rozmów lub zadań pisarskich.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think to pełny model głębokiego rozumowania z silniejszymi zdolnościami do długich łańcuchów myślowych.", "deepseek-v3.2.description": "DeepSeek-V3.2 to pierwszy hybrydowy model rozumowania od DeepSeek, który integruje myślenie z wykorzystaniem narzędzi. Wykorzystuje wydajną architekturę w celu oszczędności obliczeń, uczenie przez wzmocnienie na dużą skalę do zwiększenia możliwości oraz syntetyczne dane zadań do wzmocnienia uogólniania. Połączenie tych trzech elementów zapewnia wydajność porównywalną z GPT-5-High, przy znacznie krótszych odpowiedziach, co znacząco zmniejsza obciążenie obliczeniowe i czas oczekiwania użytkownika.", "deepseek-v3.description": "DeepSeek-V3 to potężny model MoE z 671 miliardami parametrów ogółem i 37 miliardami aktywnymi na token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji. Obsługuje kontekst 128k i do 16k tokenów wyjściowych.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro to ulepszony model multimodalny obsługujący obrazy w dowolnej rozdzielczości i ekstremalnych proporcjach, poprawiający rozumowanie wizualne, rozpoznawanie dokumentów, zrozumienie szczegółów i wykonywanie instrukcji.", - "doubao-lite-128k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 128k.", "doubao-lite-32k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.", - "doubao-lite-4k.description": "Ultraszybka odpowiedź i lepsza wartość, oferująca bardziej elastyczne opcje w różnych scenariuszach. Obsługuje rozumowanie i dostrajanie z kontekstem 4k.", - "doubao-pro-256k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 256k.", "doubao-pro-32k.description": "Najlepszy flagowy model do złożonych zadań, z doskonałymi wynikami w QA z odniesieniami, streszczaniu, tworzeniu treści, klasyfikacji tekstu i odgrywaniu ról. Obsługuje rozumowanie i dostrajanie z kontekstem 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash to ultraszybki multimodalny model głębokiego rozumowania z TPOT na poziomie 10 ms. Obsługuje tekst i obraz, przewyższa poprzedni model lite w rozumieniu tekstu i dorównuje konkurencyjnym modelom pro w wizji. Obsługuje kontekst 256k i do 16k tokenów wyjściowych.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite to nowy multimodalny model głębokiego rozumowania z regulowanym wysiłkiem rozumowania (Minimalny, Niski, Średni, Wysoki), oferujący lepszą wartość i silny wybór do typowych zadań, z kontekstem do 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Model obrazowy Doubao z ByteDance Seed obsługuje wejścia tekstowe i obrazowe z wysoką kontrolą i jakością generowania obrazów. Obsługuje edycję obrazów kierowaną tekstem, z rozmiarami wyjściowymi od 512 do 1536 po dłuższym boku.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 to model generowania obrazów od ByteDance Seed, obsługujący wejścia tekstowe i obrazowe z wysoką kontrolą i jakością. Generuje obrazy na podstawie tekstowych promptów.", - "doubao-vision-lite-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.", - "doubao-vision-pro-32k.description": "Doubao-vision to multimodalny model od Doubao z silnym rozumieniem obrazów i rozumowaniem oraz precyzyjnym wykonywaniem instrukcji. Dobrze radzi sobie z ekstrakcją tekstu z obrazów i zadaniami rozumowania obrazowego, umożliwiając bardziej złożone i szerokie scenariusze QA wizualnego.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 to najnowszy multimodalny model obrazu ByteDance, integrujący funkcje tekst-do-obrazu, obraz-do-obrazu i generowanie obrazów w partiach, jednocześnie uwzględniając zdrowy rozsądek i zdolności rozumowania. W porównaniu do poprzedniej wersji 4.0 oferuje znacznie lepszą jakość generowania, lepszą spójność edycji i fuzję wielu obrazów. Zapewnia bardziej precyzyjną kontrolę nad szczegółami wizualnymi, naturalnie generując małe teksty i twarze, a także osiąga bardziej harmonijny układ i kolorystykę, poprawiając estetykę ogólną.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite to najnowszy model generowania obrazów ByteDance. Po raz pierwszy integruje funkcje wyszukiwania online, co pozwala na uwzględnienie informacji w czasie rzeczywistym i poprawę aktualności generowanych obrazów. Inteligencja modelu została również ulepszona, umożliwiając precyzyjną interpretację złożonych instrukcji i treści wizualnych. Dodatkowo oferuje lepsze pokrycie globalnej wiedzy, spójność odniesień i jakość generowania w profesjonalnych scenariuszach, lepiej spełniając potrzeby wizualnej kreacji na poziomie przedsiębiorstw.", "emohaa.description": "Emohaa to model zdrowia psychicznego z profesjonalnymi umiejętnościami doradczymi, pomagający użytkownikom zrozumieć problemy emocjonalne.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B to lekki model open-source przeznaczony do lokalnego i dostosowanego wdrażania.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking to tekstowy model MoE (Mixture-of-Experts) z 21 miliardami parametrów, z czego 3 miliardy są aktywne, oferujący znacznie lepszą jakość i głębię rozumowania.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B to model open-source o dużej liczbie parametrów, oferujący lepsze zrozumienie i generowanie treści.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B to ultraduży model MoE od Baidu ERNIE, wyróżniający się doskonałym rozumowaniem.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview to model podglądowy z kontekstem 8K, służący do oceny możliwości ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K to lekki model wysokiej wydajności do scenariuszy wrażliwych na opóźnienia i koszty.", "ernie-novel-8k.description": "ERNIE Novel 8K został stworzony do długich powieści i fabuł IP z narracją wielopostaciową.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K to model o wysokiej równoczesności i dużej wartości do usług online na dużą skalę i aplikacji korporacyjnych.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview to szybki model rozumowania z kontekstem 32K, przeznaczony do złożonego rozumowania i wieloetapowych rozmów.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K to szybki model rozumowania z kontekstem 32K do złożonego rozumowania i dialogów wieloetapowych.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview to podgląd modelu rozumowania do oceny i testów.", + "ernie-x1.1.description": "ERNIE X1.1 to model rozumowania w wersji podglądowej do oceny i testowania.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, stworzony przez zespół Seed ByteDance, obsługuje edycję i kompozycję wielu obrazów. Oferuje lepszą spójność tematyczną, precyzyjne wykonywanie poleceń, rozumienie logiki przestrzennej, ekspresję estetyczną, układ plakatów i projektowanie logo z wysoką precyzją renderowania tekstu i obrazu.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, opracowany przez ByteDance Seed, obsługuje wejścia tekstowe i obrazowe do generowania wysokiej jakości obrazów z dużą kontrolą nad wynikiem.", "fal-ai/flux-kontext/dev.description": "Model FLUX.1 skoncentrowany na edycji obrazów, obsługujący wejścia tekstowe i obrazowe.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite to najmniejszy i najbardziej opłacalny model Google, zaprojektowany do zastosowań na dużą skalę.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview to najbardziej opłacalny model Google z pełnymi możliwościami.", - "gemini-2.5-flash-preview-09-2025.description": "Wersja zapoznawcza (25 września 2025) Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash to najbardziej opłacalny model Google z pełnymi możliwościami.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview to najbardziej zaawansowany model rozumowania Google, zdolny do analizy kodu, matematyki i problemów STEM oraz dużych zbiorów danych, baz kodu i dokumentów z długim kontekstem.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również dialogi multimodalne.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) to model generowania obrazów od Google, który obsługuje również czat multimodalny.", "gemini-3-pro-preview.description": "Gemini 3 Pro to najpotężniejszy model agenta i kodowania nastrojów od Google, oferujący bogatsze wizualizacje i głębszą interakcję przy zaawansowanym rozumowaniu.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro w błyskawicznym tempie, wspierając multimodalne rozmowy.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferuje jakość obrazu na poziomie Pro w błyskawicznym tempie, wspierając multimodalne rozmowy.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview ulepsza Gemini 3 Pro, oferując lepsze zdolności rozumowania i wsparcie dla średniego poziomu myślenia.", "gemini-flash-latest.description": "Najnowsza wersja Gemini Flash", "gemini-flash-lite-latest.description": "Najnowsza wersja Gemini Flash-Lite", "gemini-pro-latest.description": "Najnowsza wersja Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.", "glm-4v-plus.description": "GLM-4V-Plus rozumie wideo i wiele obrazów, idealny do zadań multimodalnych.", "glm-4v.description": "GLM-4V zapewnia zaawansowane rozumienie obrazów i wnioskowanie w zadaniach wizualnych.", - "glm-5.description": "Silny model rozumowania i agentowy od Z.ai z 744B całkowitymi parametrami (40B aktywnych), zaprojektowany do inżynierii złożonych systemów i zadań o długim horyzoncie czasowym.", + "glm-5.description": "Seria GLM to hybrydowy model rozumowania od Zhipu AI, zaprojektowany dla agentów, z trybami myślenia i bez myślenia.", "glm-z1-air.description": "Model wnioskowania o wysokiej zdolności do głębokiej analizy i dedukcji.", "glm-z1-airx.description": "Ultraszybkie wnioskowanie przy zachowaniu wysokiej jakości rozumowania.", "glm-z1-flash.description": "Seria GLM-Z1 oferuje zaawansowane wnioskowanie z naciskiem na logikę, matematykę i programowanie.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Z radością prezentujemy Grok 4 Fast — nasz najnowszy postęp w dziedzinie modeli rozumowania o wysokiej opłacalności.", "grok-4.description": "Nasz najnowszy i najmocniejszy model flagowy, doskonały w NLP, matematyce i rozumowaniu — idealny model uniwersalny.", "grok-code-fast-1.description": "Z radością ogłaszamy premierę grok-code-fast-1 — szybkiego i opłacalnego modelu rozumowania, który doskonale radzi sobie z programowaniem agentowym.", + "grok-imagine-image-pro.description": "Generuj obrazy na podstawie tekstowych wskazówek, edytuj istniejące obrazy za pomocą naturalnego języka lub iteracyjnie udoskonalaj obrazy w trakcie wieloetapowych rozmów.", + "grok-imagine-image.description": "Generuj obrazy na podstawie tekstowych wskazówek, edytuj istniejące obrazy za pomocą naturalnego języka lub iteracyjnie udoskonalaj obrazy w trakcie wieloetapowych rozmów.", "groq/compound-mini.description": "Compound-mini to złożony system AI oparty na publicznie dostępnych modelach wspieranych przez GroqCloud, inteligentnie i selektywnie wykorzystujący narzędzia do odpowiadania na zapytania użytkowników.", "groq/compound.description": "Compound to złożony system AI oparty na wielu publicznie dostępnych modelach wspieranych przez GroqCloud, inteligentnie i selektywnie wykorzystujący narzędzia do odpowiadania na zapytania użytkowników.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B to kreatywny, inteligentny model językowy połączony z wielu czołowych modeli.", + "hunyuan-2.0-instruct-20251111.description": "Funkcje wydania: Podstawa modelu została zaktualizowana z TurboS do **Hunyuan 2.0**, co skutkuje kompleksowymi ulepszeniami możliwości. Znacząco poprawia zdolność do podążania za instrukcjami, zrozumienia wieloetapowych i długich tekstów, tworzenia literackiego, dokładności wiedzy, kodowania i zdolności rozumowania.", + "hunyuan-2.0-thinking-20251109.description": "Funkcje wydania: Podstawa modelu została zaktualizowana z TurboS do **Hunyuan 2.0**, co skutkuje kompleksowymi ulepszeniami możliwości. Znacząco poprawia zdolność modelu do podążania za złożonymi instrukcjami, zrozumienia wieloetapowych i długich tekstów, obsługi kodu, działania jako agent i wykonywania zadań rozumowania.", "hunyuan-a13b.description": "Pierwszy model hybrydowego rozumowania od Hunyuan, ulepszony względem hunyuan-standard-256K (łącznie 80B, 13B aktywnych). Domyślnie działa w trybie wolnego myślenia i obsługuje przełączanie między trybem szybkim i wolnym za pomocą parametrów lub prefiksu /no_think. Ogólne możliwości zostały poprawione względem poprzedniej generacji, szczególnie w matematyce, naukach ścisłych, rozumieniu długich tekstów i zadaniach agentowych.", - "hunyuan-code.description": "Najnowszy model generowania kodu, wytrenowany na 200 miliardach wysokiej jakości kodu i sześciu miesiącach SFT; kontekst rozszerzony do 8K. Osiąga najwyższe wyniki w automatycznych testach dla pięciu języków programowania oraz w ocenach ludzkich według dziesięciu kryteriów.", - "hunyuan-functioncall.description": "Najnowszy model MoE FunctionCall, wytrenowany na wysokiej jakości danych wywołań funkcji, z oknem kontekstu 32K i czołowymi wynikami w wielu wymiarach.", - "hunyuan-large-longcontext.description": "Wyróżnia się w zadaniach związanych z długimi dokumentami, takich jak streszczanie i QA, a także radzi sobie z ogólną generacją. Silny w analizie i generowaniu długich tekstów o złożonej, szczegółowej treści.", - "hunyuan-large-vision.description": "Model językowo-wizualny wytrenowany na bazie Hunyuan Large do rozumienia obrazu i tekstu. Obsługuje wejścia z wielu obrazów i tekstu w dowolnej rozdzielczości oraz poprawia wielojęzyczne rozumienie wizualne.", - "hunyuan-large.description": "Hunyuan-large ma ~389 miliardów parametrów ogółem i ~52 miliardy aktywnych, co czyni go największym i najsilniejszym otwartym modelem MoE w architekturze Transformer.", - "hunyuan-lite-vision.description": "Najnowszy multimodalny model 7B z oknem kontekstu 32K, obsługujący czat multimodalny w języku chińskim i angielskim, rozpoznawanie obiektów, rozumienie tabel w dokumentach i multimodalną matematykę, przewyższający inne modele 7B w wielu testach.", + "hunyuan-code.description": "Najnowszy model kodowania Hunyuan, wytrenowany na 200 miliardach wysokiej jakości danych kodu oraz sześciu miesiącach danych SFT, z kontekstem 8K. Osiąga czołowe wyniki w automatycznych benchmarkach kodowania i w ocenach ekspertów w pięciu językach.", + "hunyuan-functioncall.description": "Najnowszy model MoE FunctionCall Hunyuan, wytrenowany na wysokiej jakości danych wywoływania narzędzi, z oknem kontekstowym 32K i wiodącymi wynikami w różnych wymiarach.", "hunyuan-lite.description": "Ulepszony do architektury MoE z oknem kontekstu 256K, przewyższa wiele otwartych modeli w dziedzinach NLP, kodowania, matematyki i benchmarków branżowych.", "hunyuan-pro.description": "Model MOE-32K z bilionem parametrów i długim kontekstem, lider w testach, silny w złożonych instrukcjach i rozumowaniu, zaawansowanej matematyce, wywoływaniu funkcji i zoptymalizowany pod kątem tłumaczeń wielojęzycznych, finansów, prawa i medycyny.", - "hunyuan-role.description": "Najnowszy model do odgrywania ról, oficjalnie dostrojony na zbiorach danych do odgrywania ról, zapewniający lepszą wydajność bazową w takich scenariuszach.", - "hunyuan-standard-256K.description": "Wykorzystuje ulepszone trasowanie w celu ograniczenia przeciążenia i zapadania się ekspertów. Osiąga 99,9% skuteczności w zadaniu „igła w stogu siana” przy długim kontekście. MOE-256K dodatkowo rozszerza długość i jakość kontekstu.", - "hunyuan-standard-vision.description": "Najnowszy model multimodalny z wielojęzycznymi odpowiedziami i zrównoważonymi zdolnościami w języku chińskim i angielskim.", - "hunyuan-standard.description": "Wykorzystuje ulepszone trasowanie w celu ograniczenia przeciążenia i zapadania się ekspertów. Osiąga 99,9% skuteczności w zadaniu „igła w stogu siana” przy długim kontekście. MOE-32K oferuje dużą wartość przy obsłudze długich danych wejściowych.", - "hunyuan-t1-20250321.description": "Rozwija zrównoważone kompetencje humanistyczne i STEM, z silnym uchwyceniem informacji w długich tekstach. Wspiera rozumowanie w odpowiedziach z matematyki, logiki, nauk ścisłych i programowania na różnych poziomach trudności.", - "hunyuan-t1-20250403.description": "Ulepsza generowanie kodu na poziomie projektu i jakość pisania, wzmacnia zrozumienie tematów w wielu turach oraz przestrzeganie instrukcji B2B, poprawia rozumienie na poziomie słów i redukuje problemy z mieszaniem uproszczonego/tradycyjnego chińskiego oraz chińsko-angielskiego wyjścia.", - "hunyuan-t1-20250529.description": "Poprawia kreatywne pisanie i kompozycję, wzmacnia programowanie frontendowe, rozumowanie matematyczne i logiczne oraz zwiększa skuteczność wykonywania instrukcji.", - "hunyuan-t1-20250711.description": "Znacząco poprawia rozwiązywanie trudnych zadań matematycznych, logicznych i programistycznych, zwiększa stabilność wyników i wzmacnia zdolność przetwarzania długich tekstów.", + "hunyuan-role.description": "Najnowszy model odgrywania ról Hunyuan, oficjalnie dostrojony na podstawie danych odgrywania ról, oferujący lepszą wydajność w scenariuszach odgrywania ról.", + "hunyuan-standard-256K.description": "Wykorzystuje ulepszone trasowanie, aby złagodzić problemy z równoważeniem obciążenia i zapadaniem się ekspertów. Długie teksty \"igła w stogu siana\" osiągają 99,9%. MOE-256K jeszcze bardziej zwiększa długość i jakość wejść.", + "hunyuan-standard.description": "Wykorzystuje ulepszone trasowanie, aby złagodzić problemy z równoważeniem obciążenia i zapadaniem się ekspertów. Długie teksty \"igła w stogu siana\" osiągają 99,9%. MOE-32K oferuje lepszą wartość, równoważąc jakość i cenę dla długich tekstów.", "hunyuan-t1-latest.description": "Znacząco ulepsza model wolnego myślenia w zakresie trudnej matematyki, złożonego rozumowania, skomplikowanego kodowania, wykonywania instrukcji i jakości kreatywnego pisania.", - "hunyuan-t1-vision-20250619.description": "Najnowszy multimodalny model głębokiego rozumowania t1-vision z natywnym długim łańcuchem myślowym, znacznie ulepszony względem poprzedniej wersji domyślnej.", "hunyuan-t1-vision-20250916.description": "Najnowszy model głębokiego rozumowania t1-vision z dużymi ulepszeniami w zakresie VQA, lokalizacji wizualnej, OCR, wykresów, rozwiązywania sfotografowanych problemów i tworzenia treści na podstawie obrazów, a także silniejszym wsparciem dla języka angielskiego i języków niskozasobowych.", - "hunyuan-turbo-20241223.description": "Ta wersja zwiększa skalowalność instrukcji dla lepszej uogólnialności, znacząco poprawia rozumowanie matematyczne/kodowe/logiczne, wzmacnia rozumienie na poziomie słów i poprawia jakość pisania.", - "hunyuan-turbo-latest.description": "Ogólne ulepszenia doświadczenia w zakresie rozumienia NLP, pisania, czatu, QA, tłumaczenia i dziedzin; bardziej ludzkie odpowiedzi, lepsze wyjaśnianie niejednoznacznych intencji, ulepszone przetwarzanie słów, wyższa jakość kreatywna i interaktywność oraz silniejsze rozmowy wielotur.", - "hunyuan-turbo-vision.description": "Flagowy model nowej generacji łączący wizję i język, oparty na nowej architekturze MoE, z szerokimi ulepszeniami w rozpoznawaniu, tworzeniu treści, QA wiedzy i analitycznym rozumowaniu.", "hunyuan-turbo.description": "Podgląd nowej generacji LLM Hunyuan z nową architekturą MoE, oferujący szybsze rozumowanie i lepsze wyniki niż hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Ujednolica styl rozwiązywania zadań matematycznych i wzmacnia QA matematyczne w wielu turach. Styl pisania został udoskonalony, aby zmniejszyć ton AI i dodać elegancji.", - "hunyuan-turbos-20250416.description": "Zaktualizowana baza pretreningowa poprawiająca zrozumienie i wykonywanie instrukcji; dostosowanie wzmacnia matematykę, kod, logikę i nauki ścisłe; poprawia jakość pisania, rozumienie, dokładność tłumaczeń i QA wiedzy; wzmacnia zdolności agentów, szczególnie w zrozumieniu wielotur.", - "hunyuan-turbos-20250604.description": "Zaktualizowana baza pretreningowa z ulepszoną jakością pisania i rozumienia tekstu, znaczącymi postępami w kodzie i STEM oraz lepszym wykonywaniem złożonych instrukcji.", - "hunyuan-turbos-20250926.description": "Ulepszona jakość danych pretreningowych i strategia potreningowa, poprawiająca działanie agentów, język angielski/języki niskozasobowe, wykonywanie instrukcji, kod i możliwości STEM.", "hunyuan-turbos-latest.description": "Najnowszy flagowy model Hunyuan TurboS z silniejszym rozumowaniem i lepszym ogólnym doświadczeniem.", - "hunyuan-turbos-longtext-128k-20250325.description": "Wyróżnia się w zadaniach związanych z długimi dokumentami, takich jak streszczanie i QA, a także radzi sobie z ogólną generacją. Silny w analizie i generowaniu długich tekstów o złożonej, szczegółowej treści.", - "hunyuan-turbos-role-plus.description": "Najnowszy model do odgrywania ról, oficjalnie dostrojony na zbiorach danych do odgrywania ról, zapewniający lepszą wydajność bazową w scenariuszach odgrywania ról.", - "hunyuan-turbos-vision-20250619.description": "Najnowszy flagowy model TurboS łączący wizję i język z dużymi postępami w zadaniach obraz-tekst, takich jak rozpoznawanie encji, QA wiedzy, copywriting i rozwiązywanie problemów na podstawie zdjęć.", - "hunyuan-turbos-vision.description": "Flagowy model nowej generacji łączący wizję i język, oparty na najnowszym TurboS, skoncentrowany na zadaniach rozumienia obraz-tekst, takich jak rozpoznawanie encji, QA wiedzy, copywriting i rozwiązywanie problemów na podstawie zdjęć.", - "hunyuan-vision-1.5-instruct.description": "Model szybkiego myślenia generujący tekst na podstawie obrazu, oparty na bazie tekstowej TurboS, z wyraźnymi ulepszeniami w zakresie podstawowego rozpoznawania obrazu i analitycznego rozumowania wizualnego w porównaniu z poprzednią wersją.", - "hunyuan-vision.description": "Najnowszy model multimodalny obsługujący wejście obraz + tekst do generowania tekstu.", + "hunyuan-vision-1.5-instruct.description": "Szybki model rozumowania obraz-do-tekst oparty na bazie tekstowej TurboS, wykazujący znaczące ulepszenia w podstawowym rozpoznawaniu obrazów i analizie rozumowania obrazowego w porównaniu do poprzedniej wersji.", + "hunyuan-vision.description": "Najnowszy multimodalny model Hunyuan obsługujący wejścia obraz + tekst do generowania tekstu.", "image-01-live.description": "Model generowania obrazów z drobnymi szczegółami, obsługujący konwersję tekstu na obraz i kontrolowane style.", "image-01.description": "Nowy model generowania obrazów z drobnymi szczegółami, obsługujący konwersję tekstu na obraz i obraz na obraz.", "imagen-4.0-fast-generate-001.description": "Szybka wersja czwartej generacji modeli tekst-na-obraz Imagen", "imagen-4.0-generate-001.description": "Czwarta generacja modeli tekst-na-obraz Imagen", - "imagen-4.0-generate-preview-06-06.description": "Rodzina modeli tekst-na-obraz czwartej generacji Imagen.", "imagen-4.0-ultra-generate-001.description": "Wersja Ultra czwartej generacji modeli tekst-na-obraz Imagen", - "imagen-4.0-ultra-generate-preview-06-06.description": "Wariant Ultra czwartej generacji modeli tekst-na-obraz Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small to idealne rozwiązanie do generowania kodu, debugowania i refaktoryzacji przy minimalnych opóźnieniach.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 to trzeci model architektury Ling 2.0 od zespołu Bailing firmy Ant Group. Jest to model MoE z łączną liczbą 100 miliardów parametrów, z których tylko 6,1 miliarda jest aktywnych na token (4,8 miliarda bez osadzania). Pomimo lekkiej konfiguracji dorównuje lub przewyższa modele gęste 40B i większe modele MoE w wielu testach, eksplorując wysoką wydajność dzięki architekturze i strategii treningowej.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 to mały, wydajny model MoE LLM z 16 miliardami parametrów i tylko 1,4 miliarda aktywnych na token (789 milionów bez osadzania), zapewniający bardzo szybkie generowanie. Dzięki wydajnej konstrukcji MoE i dużym, wysokiej jakości danym treningowym osiąga wydajność porównywalną z modelami gęstymi poniżej 10B i większymi modelami MoE.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T to model MoE firmy inclusionAI z bilionem parametrów, przeznaczony do zadań badawczych i rozumowania na dużą skalę.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 to wariant modelu Ring firmy inclusionAI, zaprojektowany do scenariuszy o wysokiej przepustowości, z naciskiem na szybkość i efektywność kosztową.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 to lekki model MoE firmy inclusionAI o wysokiej przepustowości, stworzony z myślą o równoczesnym przetwarzaniu.", + "intern-latest.description": "Domyślnie wskazuje na nasz najnowszy wydany model z serii Intern, obecnie ustawiony na intern-s1-pro.", + "intern-s1-mini.description": "Lekki multimodalny duży model o silnych zdolnościach rozumowania naukowego.", + "intern-s1-pro.description": "Wprowadziliśmy nasz najbardziej zaawansowany otwartoźródłowy multimodalny model rozumowania, obecnie najlepiej oceniany otwartoźródłowy duży model językowy pod względem ogólnej wydajności.", + "intern-s1.description": "Otwartoźródłowy multimodalny model rozumowania, który nie tylko wykazuje silne zdolności ogólnego przeznaczenia, ale także osiąga najlepsze wyniki w szerokim zakresie zadań naukowych.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat to otwartoźródłowy model konwersacyjny oparty na architekturze InternLM2. Model 7B koncentruje się na generowaniu dialogów w języku chińskim i angielskim, wykorzystując nowoczesne techniki treningowe do płynnych i inteligentnych rozmów. Nadaje się do wielu scenariuszy, takich jak obsługa klienta czy asystenci osobowi.", - "internlm2.5-latest.description": "Modele starszej generacji, nadal utrzymywane i oferujące doskonałą, stabilną wydajność po wielu iteracjach. Dostępne w wersjach 7B i 20B, obsługujące kontekst 1M, z lepszym podążaniem za instrukcjami i obsługą narzędzi. Domyślnie wybierany jest najnowszy model z serii InternLM2.5 (obecnie internlm2.5-20b-chat).", - "internlm3-latest.description": "Nasza najnowsza seria modeli z doskonałą wydajnością w zakresie rozumowania, przewodząca wśród otwartych modeli w swojej klasie rozmiarowej. Domyślnie wybierany jest najnowszy model z serii InternLM3 (obecnie internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO to multimodalny model wstępnie wytrenowany do złożonego rozumowania obraz-tekst.", - "internvl2.5-latest.description": "InternVL2.5 nadal utrzymuje silną i stabilną wydajność. Domyślnie wybierany jest najnowszy model z serii InternVL2.5 (obecnie internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B to multimodalny model średniej wielkości, łączący wydajność i efektywność kosztową.", "internvl3-1b.description": "InternVL3 1B to lekki model multimodalny przeznaczony do wdrożeń w środowiskach o ograniczonych zasobach.", "internvl3-38b.description": "InternVL3 38B to duży, otwartoźródłowy model multimodalny do precyzyjnego rozumienia obrazów i tekstu.", - "internvl3-latest.description": "Nasz najnowszy model multimodalny z ulepszonym rozumieniem obraz-tekst i długosekwencyjną analizą obrazów, porównywalny z najlepszymi zamkniętymi modelami. Domyślnie wybierany jest najnowszy model z serii InternVL (obecnie internvl3-78b).", + "internvl3.5-241b-a28b.description": "Nasz nowo wydany multimodalny duży model charakteryzuje się ulepszonym zrozumieniem obrazu i tekstu oraz zdolnościami do rozumienia długich sekwencji obrazów, osiągając wyniki porównywalne z wiodącymi zamkniętymi modelami.", + "internvl3.5-latest.description": "Domyślnie wskazuje na najnowszy model z serii InternVL3.5, obecnie ustawiony na internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG to model generatywny wspomagany wyszukiwaniem obrazów, przeznaczony do wyszukiwania obrazów, wyszukiwania obraz-tekst i generowania treści.", "jamba-large.description": "Nasz najbardziej zaawansowany model, zaprojektowany do złożonych zadań korporacyjnych, oferujący wyjątkową wydajność.", "jamba-mini.description": "Najbardziej efektywny model w swojej klasie, łączący szybkość i jakość przy mniejszym zużyciu zasobów.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 to wydajny duży model językowy zaprojektowany specjalnie do programowania i przepływów pracy agentów.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 to lekki, nowoczesny duży model językowy zoptymalizowany do programowania, przepływów proxy i nowoczesnego rozwoju aplikacji, oferujący czystsze, bardziej zwięzłe wyniki i szybszy czas reakcji.", "minimax/minimax-m2.description": "MiniMax-M2 to model o wysokiej wartości, który doskonale sprawdza się w zadaniach programistycznych i agentowych w wielu scenariuszach inżynieryjnych.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 to kompaktowy, szybki i opłacalny model MoE zaprojektowany do najwyższej klasy kodowania i wydajności agentów.", "minimaxai/minimax-m2.description": "MiniMax-M2 to kompaktowy, szybki i opłacalny model MoE (230B ogółem, 10B aktywnych), zaprojektowany z myślą o najwyższej wydajności w programowaniu i zadaniach agentowych, przy zachowaniu silnej inteligencji ogólnej. Doskonale radzi sobie z edycją wielu plików, pętlami uruchamiania i poprawiania kodu, walidacją testów i złożonymi łańcuchami narzędzi.", "ministral-3b-latest.description": "Ministral 3B to flagowy model edge firmy Mistral.", "ministral-8b-latest.description": "Ministral 8B to bardzo opłacalny model edge od Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Model kimi-k2-0905-preview obsługuje okno kontekstu 256K, z silniejszym kodowaniem agentowym, bardziej dopracowanym i praktycznym kodem frontendowym oraz lepszym rozumieniem kontekstu.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo to szybka wersja Kimi K2 Thinking, znacznie zmniejszająca opóźnienia przy zachowaniu głębokiego rozumowania.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking to model rozumowania Moonshot zoptymalizowany do zadań wymagających głębokiego rozumowania, z ogólnymi możliwościami agentowymi.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 to najbardziej inteligentny model Kimi do tej pory, charakteryzujący się natywną architekturą multimodalną.", "moonshotai/kimi-k2.description": "Kimi K2 to duży model MoE od Moonshot AI z 1T łącznych parametrów i 32B aktywnych na przebieg, zoptymalizowany pod kątem możliwości agentowych, w tym zaawansowanego użycia narzędzi, rozumowania i syntezy kodu.", "morph/morph-v3-fast.description": "Morph to wyspecjalizowany model do stosowania zmian w kodzie sugerowanych przez czołowe modele (np. Claude lub GPT-4o) w istniejących plikach z prędkością 4500+ tokenów/sek. To końcowy etap w przepływie pracy AI w kodowaniu i obsługuje 16k tokenów wejścia/wyjścia.", "morph/morph-v3-large.description": "Morph to wyspecjalizowany model do stosowania zmian w kodzie sugerowanych przez czołowe modele (np. Claude lub GPT-4o) w istniejących plikach z prędkością 2500+ tokenów/sek. To końcowy etap w przepływie pracy AI w kodowaniu i obsługuje 16k tokenów wejścia/wyjścia.", + "musesteamer-air-image.description": "musesteamer-air-image to model generowania obrazów opracowany przez zespół wyszukiwania Baidu, oferujący wyjątkowy stosunek kosztów do wydajności. Szybko generuje wyraźne, spójne obrazy na podstawie wskazówek użytkownika, łatwo przekształcając opisy użytkownika w wizualizacje.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B to zaktualizowana wersja Nous Hermes 2 z najnowszymi wewnętrznie opracowanymi zbiorami danych.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B to dostosowany przez NVIDIA model LLM poprawiający pomocność. Osiąga najwyższe wyniki w Arena Hard, AlpacaEval 2 LC i GPT-4-Turbo MT-Bench, zajmując 1. miejsce we wszystkich trzech testach auto-alignment na dzień 1 października 2024. Trening oparty na Llama-3.1-70B-Instruct z użyciem RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward i HelpSteer2-Preference prompts.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Wyjątkowy model językowy zapewniający doskonałą dokładność i wydajność.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "W zależności od długości kontekstu, tematu i złożoności, Twoje zapytanie jest kierowane do Llama 3 70B Instruct, Claude 3.5 Sonnet (z samomoderacją) lub GPT-4o.", "oswe-vscode-prime.description": "Raptor mini to model w wersji zapoznawczej zoptymalizowany do zadań związanych z programowaniem.", "oswe-vscode-secondary.description": "Raptor mini to model w wersji zapoznawczej zoptymalizowany do zadań związanych z programowaniem.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 to model, który równoważy wysoką wydajność obliczeniową z doskonałymi zdolnościami rozumowania i wydajnością agentów.", "perplexity/sonar-pro.description": "Flagowy produkt Perplexity z ugruntowaniem w wyszukiwarce, obsługujący zaawansowane zapytania i kontynuacje.", "perplexity/sonar-reasoning-pro.description": "Zaawansowany model skoncentrowany na rozumowaniu, generujący łańcuchy myślowe (CoT) z rozszerzonymi wynikami wyszukiwania, w tym wieloma zapytaniami na żądanie.", "perplexity/sonar-reasoning.description": "Model skoncentrowany na rozumowaniu, generujący łańcuchy myślowe (CoT) z dokładnymi, opartymi na wyszukiwaniu wyjaśnieniami.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Model kodowania Qwen.", "qwen-coder-turbo.description": "Model kodowania Qwen.", "qwen-flash.description": "Najszybszy i najtańszy model Qwen, idealny do prostych zadań.", + "qwen-image-edit-max.description": "Model edycji obrazów Qwen obsługuje wejścia wieloobrazowe i wyjścia wieloobrazowe, umożliwiając precyzyjną edycję tekstu w obrazie, dodawanie, usuwanie lub przenoszenie obiektów, modyfikację działań podmiotu, transfer stylu obrazu i ulepszone szczegóły wizualne.", + "qwen-image-edit-plus.description": "Model edycji obrazów Qwen obsługuje wejścia wieloobrazowe i wyjścia wieloobrazowe, umożliwiając precyzyjną edycję tekstu w obrazie, dodawanie, usuwanie lub przenoszenie obiektów, modyfikację działań podmiotu, transfer stylu obrazu i ulepszone szczegóły wizualne.", "qwen-image-edit.description": "Qwen Image Edit to model obraz-do-obrazu, który edytuje obrazy na podstawie wejściowych obrazów i tekstowych poleceń, umożliwiając precyzyjne korekty i twórcze przekształcenia.", + "qwen-image-max.description": "Model generowania obrazów Qwen (seria Max) oferuje większy realizm i naturalność wizualną w porównaniu z serią Plus, skutecznie redukując artefakty generowane przez AI i wykazując doskonałą wydajność w zakresie wyglądu ludzi, szczegółów tekstur i renderowania tekstu.", + "qwen-image-plus.description": "Obsługuje szeroką gamę stylów artystycznych i jest szczególnie biegły w renderowaniu złożonego tekstu w obrazach, umożliwiając zintegrowany projekt układu obraz-tekst.", "qwen-image.description": "Qwen-Image to ogólny model generowania obrazów, obsługujący wiele stylów artystycznych i zaawansowane renderowanie złożonego tekstu, szczególnie w języku chińskim i angielskim. Obsługuje układy wieloliniowe, tekst na poziomie akapitu i drobne szczegóły w złożonych układach tekst-obraz.", "qwen-long.description": "Ultraduży model Qwen z długim kontekstem i możliwością prowadzenia rozmów obejmujących wiele dokumentów.", "qwen-math-plus-latest.description": "Qwen Math to model językowy wyspecjalizowany w rozwiązywaniu problemów matematycznych.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Otwartoźródłowy model kodujący Qwen. Najnowszy qwen3-coder-30b-a3b-instruct oparty jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct to flagowy model kodujący do programowania wielojęzycznego i złożonego rozumienia kodu.", "qwen3-coder-flash.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.", + "qwen3-coder-next.description": "Następna generacja kodera Qwen zoptymalizowana pod kątem złożonego generowania kodu wieloplikowego, debugowania i wysokowydajnych przepływów pracy agentów. Zaprojektowana z myślą o silnej integracji narzędzi i ulepszonej wydajności rozumowania.", "qwen3-coder-plus.description": "Model kodujący Qwen. Najnowsza seria Qwen3-Coder oparta jest na Qwen3 i oferuje zaawansowane możliwości agenta kodującego, korzystania z narzędzi i interakcji ze środowiskiem do autonomicznego programowania, z doskonałą wydajnością kodu i solidnymi zdolnościami ogólnymi.", "qwen3-coder:480b.description": "Wysokowydajny model Alibaba do zadań agenta i kodowania z długim kontekstem.", "qwen3-max-2026-01-23.description": "Modele Qwen3 Max oferują znaczne ulepszenia względem serii 2.5 w zakresie ogólnych zdolności, rozumienia języka chińskiego i angielskiego, realizacji złożonych instrukcji, zadań subiektywnych i otwartych, wielojęzyczności oraz korzystania z narzędzi, przy mniejszej liczbie halucynacji. Najnowszy qwen3-max poprawia programowanie agentowe i użycie narzędzi względem wersji qwen3-max-preview. Wydanie to osiąga poziom SOTA i odpowiada na bardziej złożone potrzeby agentów.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking to multimodalny model łańcucha myśli do szczegółowego rozumowania wizualnego.", "qwen3-vl-flash.description": "Qwen3 VL Flash: lekka, szybka wersja rozumująca do zadań wrażliwych na opóźnienia lub o dużym wolumenie.", "qwen3-vl-plus.description": "Qwen VL to model generowania tekstu z rozumieniem wizji. Potrafi wykonywać OCR, podsumowywać i rozumować, np. wyodrębniać atrybuty ze zdjęć produktów lub rozwiązywać problemy na podstawie obrazów.", + "qwen3.5-397b-a17b.description": "Obsługuje wejścia tekstowe, obrazowe i wideo. W przypadku zadań tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych oferuje znaczące ulepszenia w porównaniu z serią Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus obsługuje wejścia tekstowe, obrazowe i wideo. W przypadku zadań tekstowych jego wydajność jest porównywalna z Qwen3 Max, oferując wyższą efektywność i niższe koszty. W zakresie możliwości multimodalnych oferuje znaczące ulepszenia w porównaniu z serią Qwen3 VL.", "qwen3.description": "Qwen3 to nowej generacji duży model językowy Alibaba o wysokiej wydajności w różnych zastosowaniach.", "qwq-32b-preview.description": "QwQ to eksperymentalny model badawczy z serii Qwen, skoncentrowany na ulepszonym rozumowaniu.", "qwq-32b.description": "QwQ to model rozumowania z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, oferuje zaawansowane myślenie i rozumowanie, co znacząco poprawia wydajność w zadaniach złożonych. QwQ-32B to model średniej wielkości, konkurujący z czołowymi modelami rozumowania, takimi jak DeepSeek-R1 i o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Model rozumowania średniej wielkości z rodziny Qwen. W porównaniu do standardowych modeli dostrojonych instrukcyjnie, zdolności myślenia i rozumowania QwQ znacząco poprawiają wydajność w trudnych zadaniach.", "r1-1776.description": "R1-1776 to wariant modelu DeepSeek R1 po dodatkowym treningu, zaprojektowany do dostarczania nieocenzurowanych, bezstronnych informacji faktograficznych.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro od ByteDance obsługuje generowanie wideo z tekstu, obrazu (pierwsza klatka, pierwsza + ostatnia klatka) oraz dźwięku zsynchronizowanego z obrazem.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite od BytePlus oferuje generowanie wspomagane wyszukiwaniem w sieci w czasie rzeczywistym, ulepszoną interpretację złożonych wskazówek i lepszą spójność odniesień dla profesjonalnej kreacji wizualnej.", "solar-mini-ja.description": "Solar Mini (Ja) rozszerza Solar Mini o nacisk na język japoński, zachowując jednocześnie wydajność w języku angielskim i koreańskim.", "solar-mini.description": "Solar Mini to kompaktowy model LLM, który przewyższa GPT-3.5, oferując silne możliwości wielojęzyczne w języku angielskim i koreańskim oraz efektywne działanie przy małych zasobach.", "solar-pro.description": "Solar Pro to inteligentny model LLM od Upstage, skoncentrowany na wykonywaniu instrukcji na pojedynczym GPU, z wynikami IFEval powyżej 80. Obecnie obsługuje język angielski; pełna wersja z rozszerzonym wsparciem językowym i dłuższym kontekstem planowana jest na listopad 2024.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Zaawansowany produkt wyszukiwania z ugruntowaniem w wynikach, przeznaczony do złożonych zapytań i kontynuacji.", "sonar-reasoning.description": "Zaawansowany produkt wyszukiwania z ugruntowaniem w wynikach, przeznaczony do złożonych zapytań i kontynuacji.", "sonar.description": "Lekki produkt wyszukiwania z ugruntowaniem, szybszy i tańszy niż Sonar Pro.", - "spark-x.description": "Aktualizacja X1.5: (1) dodaje dynamiczny tryb myślenia sterowany polem `thinking`; (2) większa długość kontekstu – 64K wejścia i 64K wyjścia; (3) obsługuje FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 to model, który równoważy wysoką wydajność obliczeniową z doskonałymi zdolnościami rozumowania i wydajnością agentów.", + "spark-x.description": "Przegląd możliwości X2: 1. Wprowadza dynamiczne dostosowanie trybu rozumowania, kontrolowane za pomocą pola `thinking`. 2. Rozszerzona długość kontekstu: 64K tokenów wejściowych i 128K tokenów wyjściowych. 3. Obsługuje funkcjonalność Function Call.", "stable-diffusion-3-medium.description": "Najnowszy model tekst-na-obraz od Stability AI. Ta wersja znacząco poprawia jakość obrazu, rozumienie tekstu i różnorodność stylów, dokładniej interpretując złożone polecenia językowe i generując precyzyjne, zróżnicowane obrazy.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo wykorzystuje Adversarial Diffusion Distillation (ADD) do przyspieszenia działania modelu stable-diffusion-3.5-large.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large to model tekst-na-obraz MMDiT z 800M parametrów, oferujący doskonałą jakość i zgodność z poleceniami, obsługujący obrazy 1-megapikselowe i wydajne działanie na sprzęcie konsumenckim.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Obsługuje interakcje z dużym kontekstem dla złożonych dialogów.", "step-2-mini.description": "Zbudowany na nowej architekturze MFA attention, oferuje wyniki podobne do Step-1 przy znacznie niższych kosztach, wyższej przepustowości i szybszym czasie odpowiedzi. Obsługuje zadania ogólne z silnymi zdolnościami kodowania.", "step-2x-large.description": "Nowej generacji model obrazowy StepFun skoncentrowany na generowaniu obrazów, tworzący wysokiej jakości obrazy z promptów tekstowych. Oferuje bardziej realistyczne tekstury i lepsze renderowanie tekstu chińskiego/angielskiego.", + "step-3.5-flash.description": "Flagowy model rozumowania językowego od Stepfun. Model ten oferuje najwyższej klasy zdolności rozumowania wraz z szybkim i niezawodnym wykonaniem. Potrafi rozkładać i planować złożone zadania, szybko i niezawodnie wywoływać narzędzia do ich realizacji oraz wyróżnia się w logicznym rozumowaniu, matematyce, inżynierii oprogramowania, głębokich badaniach i innych zaawansowanych zadaniach. Długość kontekstu wynosi 256K.", "step-3.description": "Model o silnej percepcji wizualnej i złożonym rozumowaniu, dokładnie radzący sobie z rozumieniem wiedzy międzydziedzinowej, analizą matematyczno-wizualną i szerokim zakresem codziennych zadań wizualnych.", "step-r1-v-mini.description": "Model rozumowania z silnym rozumieniem obrazów, przetwarza obrazy i tekst, a następnie generuje tekst po głębokim rozumowaniu. Doskonale radzi sobie z rozumowaniem wizualnym i osiąga najwyższy poziom w matematyce, kodowaniu i rozumowaniu tekstowym, z oknem kontekstu 100K.", "stepfun-ai/step3.description": "Step3 to nowoczesny model rozumowania multimodalnego od StepFun, oparty na architekturze MoE z 321 miliardami parametrów ogółem i 38 miliardami aktywnych. Jego kompleksowa konstrukcja minimalizuje koszty dekodowania, zapewniając jednocześnie najwyższy poziom rozumienia wizualno-językowego. Dzięki projektowi MFA i AFD pozostaje wydajny zarówno na flagowych, jak i budżetowych akceleratorach. Wstępne trenowanie obejmuje ponad 20 bilionów tokenów tekstowych i 4 biliony tokenów obraz-tekst w wielu językach. Osiąga czołowe wyniki wśród otwartych modeli w zadaniach matematycznych, kodowaniu i benchmarkach multimodalnych.", - "taichu_llm.description": "Trenowany na ogromnych zbiorach wysokiej jakości danych, oferuje lepsze rozumienie tekstu, tworzenie treści i konwersacyjne pytania i odpowiedzi.", - "taichu_o1.description": "taichu_o1 to nowej generacji model rozumowania, który wykorzystuje interakcję multimodalną i uczenie przez wzmacnianie do osiągnięcia ludzkiego łańcucha myślowego. Obsługuje symulację złożonych decyzji, ujawnia ścieżki rozumowania przy zachowaniu wysokiej dokładności wyników, idealny do analizy strategicznej i głębokiego myślenia.", - "taichu_vl.description": "Łączy rozumienie obrazu, transfer wiedzy i logiczną atrybucję, wyróżniając się w zadaniach pytanie-odpowiedź obraz-tekst.", + "taichu4_vl_2b_nothinking.description": "Wersja bez myślenia modelu Taichu4.0-VL 2B charakteryzuje się niższym zużyciem pamięci, lekką konstrukcją, szybkim czasem reakcji i silnymi zdolnościami rozumienia multimodalnego.", + "taichu4_vl_32b.description": "Wersja myśląca modelu Taichu4.0-VL 32B jest odpowiednia do złożonych zadań rozumienia i rozumowania multimodalnego, wykazując doskonałą wydajność w multimodalnym rozumowaniu matematycznym, zdolnościach agenta multimodalnego oraz ogólnym rozumieniu obrazów i wizualizacji.", + "taichu4_vl_32b_nothinking.description": "Wersja bez myślenia modelu Taichu4.0-VL 32B została zaprojektowana do złożonych scenariuszy rozumienia obrazów i tekstów oraz wizualnych pytań i odpowiedzi, wyróżniając się w opisywaniu obrazów, wizualnych pytaniach i odpowiedziach, rozumieniu wideo oraz zadaniach lokalizacji wizualnej.", + "taichu4_vl_3b.description": "Wersja myśląca modelu Taichu4.0-VL 3B efektywnie wykonuje zadania rozumienia i rozumowania multimodalnego, z kompleksowymi ulepszeniami w zakresie rozumienia wizualnego, lokalizacji wizualnej, rozpoznawania OCR i powiązanych zdolności.", + "taichu_llm.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.", + "taichu_llm_14b.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.", + "taichu_llm_2b.description": "Duży model językowy Zidong Taichu to wysokowydajny model generowania tekstu opracowany przy użyciu w pełni krajowych technologii pełnego stosu. Dzięki strukturalnej kompresji modelu bazowego o stu miliardach parametrów i optymalizacji specyficznej dla zadań, znacznie poprawia zdolności do rozumienia złożonych tekstów i rozumowania wiedzy. Wyróżnia się w scenariuszach takich jak analiza długich dokumentów, ekstrakcja informacji międzyjęzykowych i generowanie ograniczone wiedzą.", + "taichu_o1.description": "taichu_o1 to model rozumowania nowej generacji, który osiąga ludzkie myślenie łańcuchowe poprzez interakcję multimodalną i uczenie się przez wzmocnienie. Obsługuje symulacje złożonego podejmowania decyzji i, zachowując wysoką precyzję wyników, ujawnia interpretowalne ścieżki rozumowania. Jest dobrze dostosowany do analizy strategii, głębokiego myślenia i podobnych scenariuszy.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct wykorzystuje 80 miliardów parametrów całkowitych, z czego 13 miliardów aktywnych, aby dorównać większym modelom. Obsługuje hybrydowe rozumowanie szybkie/wolne, stabilne rozumienie długich tekstów i wiodące możliwości agenta w BFCL-v3 i τ-Bench. GQA i formaty wielokrotnej kwantyzacji umożliwiają wydajne wnioskowanie.", "tencent/Hunyuan-MT-7B.description": "Model tłumaczeniowy Hunyuan obejmuje Hunyuan-MT-7B oraz zespół Hunyuan-MT-Chimera. Hunyuan-MT-7B to lekki model tłumaczeniowy o 7 miliardach parametrów, obsługujący 33 języki oraz 5 języków mniejszości chińskich. W WMT25 zdobył 30 pierwszych miejsc w 31 parach językowych. Tencent Hunyuan wykorzystuje pełny cykl treningowy od pretreningu przez SFT po RL tłumaczeniowe i zespołowe, osiągając wiodącą wydajność przy łatwym wdrożeniu.", "text-embedding-3-large.description": "Najbardziej zaawansowany model osadzania tekstu dla zadań w języku angielskim i innych.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md jest odpowiedni do codziennych zadań i generowania interfejsów użytkownika.", "vercel/v0-1.0-md.description": "Uzyskaj dostęp do modeli stojących za v0, aby generować, naprawiać i optymalizować nowoczesne aplikacje webowe z rozumowaniem specyficznym dla frameworków i aktualną wiedzą.", "vercel/v0-1.5-md.description": "Uzyskaj dostęp do modeli stojących za v0, aby generować, naprawiać i optymalizować nowoczesne aplikacje webowe z rozumowaniem specyficznym dla frameworków i aktualną wiedzą.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code został zoptymalizowany pod kątem potrzeb programowania na poziomie przedsiębiorstw, wzmacniając zdolności kodowania na bazie doskonałych możliwości agenta i VLM Seed 2.0. Model ten wyróżnia się zarówno w programowaniu front-end, jak i w obsłudze wielojęzycznych potrzeb kodowania typowych dla przedsiębiorstw, co czyni go odpowiednim do integracji z różnymi narzędziami AI do programowania.", + "volcengine/doubao-seed-2-0-lite.description": "Łączy jakość generowania z szybkością odpowiedzi, odpowiedni jako uniwersalny model produkcyjny.", + "volcengine/doubao-seed-2-0-mini.description": "Wskazuje na najnowszą wersję doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Wskazuje na najnowszą wersję doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code to model LLM od ByteDance Volcano Engine zoptymalizowany do programowania agentowego, osiągający wysokie wyniki w benchmarkach programistycznych i agentowych z obsługą kontekstu 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, oferujący szybkie generowanie i wysoką wartość.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, generujący bogatsze detale.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, oferujący szybkie generowanie i wysoką wartość.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus to najnowszy model z ulepszeniami w zakresie kreatywności, stabilności i realizmu, generujący bogatsze szczegóły.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview obsługuje edycję pojedynczego obrazu i fuzję wielu obrazów.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I obsługuje elastyczny wybór wymiarów obrazu w ramach ograniczeń całkowitej powierzchni pikseli i proporcji.", + "wan2.6-image.description": "Wanxiang 2.6 Image obsługuje edycję obrazów i mieszane wyjścia układu obraz-tekst.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I obsługuje elastyczny wybór wymiarów obrazu w ramach ograniczeń całkowitej powierzchni pikseli i proporcji (tak samo jak Wanxiang 2.5).", "wanx-v1.description": "Bazowy model tekst-na-obraz. Odpowiada Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Wyróżnia się w portretach z teksturą przy umiarkowanej szybkości i niższym koszcie. Odpowiada Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "W pełni zaktualizowana wersja z bogatszymi detalami obrazu i nieco wolniejszą szybkością. Odpowiada Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast to model xAI o wysokiej przepustowości i niskim koszcie (obsługuje kontekst do 2M tokenów), idealny do zastosowań wymagających dużej równoczesności i długiego kontekstu.", "x-ai/grok-4.description": "Grok 4 to flagowy model rozumowania xAI z zaawansowanymi możliwościami rozumowania i obsługą danych multimodalnych.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 to szybki model kodowania od xAI, generujący czytelny i przyjazny dla inżynierów kod.", + "x1.description": "Aktualizacje X1.5: (1) dodaje dynamiczny tryb myślenia kontrolowany za pomocą pola `thinking`; (2) większa długość kontekstu z 64K wejściami i 64K wyjściami; (3) obsługuje funkcjonalność FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision wyróżnia się w zadaniach wizualnych, osiągając najwyższe wyniki w rozumowaniu matematycznym na obrazach (MathVista) i pytaniach do dokumentów (DocVQA). Obsługuje dokumenty, wykresy, grafy, zrzuty ekranu i zdjęcia.", "xai/grok-2.description": "Grok 2 to zaawansowany model z najnowocześniejszym rozumowaniem, silnymi możliwościami konwersacyjnymi i kodowaniem, przewyższający Claude 3.5 Sonnet i GPT-4 Turbo w rankingu LMSYS.", "xai/grok-3-fast.description": "Flagowy model xAI doskonale sprawdza się w zastosowaniach biznesowych, takich jak ekstrakcja danych, kodowanie i podsumowywanie, z głęboką wiedzą dziedzinową w finansach, opiece zdrowotnej, prawie i nauce. Wersja szybka działa na szybszej infrastrukturze, oferując znacznie szybsze odpowiedzi przy wyższym koszcie za token.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 to flagowy model Z.AI z hybrydowym rozumowaniem, zoptymalizowany do zadań inżynieryjnych i pracy z długim kontekstem.", "z-ai/glm-4.6.description": "GLM 4.6 to flagowy model Z.AI z rozszerzoną długością kontekstu i zaawansowanymi możliwościami kodowania.", "z-ai/glm-4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, oferujący ulepszone ogólne możliwości, prostsze i bardziej naturalne odpowiedzi oraz bardziej wciągające doświadczenie pisarskie.", - "z-ai/glm5.description": "Silny model rozumowania i agentowy od Z.ai z 744B całkowitymi parametrami (40B aktywnych), zaprojektowany do inżynierii złożonych systemów i zadań o długim horyzoncie czasowym.", + "z-ai/glm4.7.description": "GLM-4.7 to najnowszy flagowy model Zhipu, ulepszony pod kątem scenariuszy kodowania agentów z poprawionymi zdolnościami kodowania.", + "z-ai/glm5.description": "GLM-5 to nowy flagowy model bazowy Zhipu AI do inżynierii agentów, osiągający otwartoźródłową wydajność SOTA w kodowaniu i zdolnościach agentów. Dorównuje wydajnością Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image to lekki model generowania obrazów z tekstu, który może szybko tworzyć obrazy, obsługuje renderowanie tekstu w języku chińskim i angielskim oraz elastycznie dostosowuje się do różnych rozdzielczości i proporcji.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air to bazowy model dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.", "zai-org/GLM-4.5.description": "GLM-4.5 to bazowy model stworzony dla aplikacji agentowych, oparty na architekturze Mixture-of-Experts. Głęboko zoptymalizowany do korzystania z narzędzi, przeglądania internetu, inżynierii oprogramowania i kodowania frontendowego. Integruje się z agentami kodu, takimi jak Claude Code i Roo Code. Wykorzystuje hybrydowe rozumowanie do obsługi zarówno złożonych, jak i codziennych scenariuszy.", "zai-org/GLM-4.5V.description": "GLM-4.5V to najnowszy VLM Zhipu AI, oparty na flagowym modelu tekstowym GLM-4.5-Air (106B parametrów ogółem, 12B aktywnych) z architekturą MoE zapewniającą wysoką wydajność przy niższych kosztach. Podąża ścieżką GLM-4.1V-Thinking i dodaje 3D-RoPE dla lepszego rozumienia przestrzeni 3D. Zoptymalizowany poprzez pretrening, SFT i RL, obsługuje obrazy, wideo i długie dokumenty, zajmując czołowe miejsca wśród otwartych modeli w 41 publicznych benchmarkach multimodalnych. Przełącznik trybu Thinking pozwala użytkownikom balansować między szybkością a głębokością analizy.", diff --git a/locales/pl-PL/plugin.json b/locales/pl-PL/plugin.json index 1877c29079..c319bad543 100644 --- a/locales/pl-PL/plugin.json +++ b/locales/pl-PL/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Zaktualizuj węzeł", "builtins.lobe-page-agent.apiName.wrapNodes": "Zawiń węzły", "builtins.lobe-page-agent.title": "Strona", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importuj z Rynku", + "builtins.lobe-skill-store.apiName.importSkill": "Importuj Umiejętność", + "builtins.lobe-skill-store.apiName.searchSkill": "Wyszukaj Umiejętności", + "builtins.lobe-skill-store.title": "Sklep z Umiejętnościami", + "builtins.lobe-skills.apiName.execScript": "Uruchom Skrypt", + "builtins.lobe-skills.apiName.exportFile": "Eksportuj Plik", + "builtins.lobe-skills.apiName.importFromMarket": "Importuj z Rynku", + "builtins.lobe-skills.apiName.importSkill": "Importuj Umiejętność", + "builtins.lobe-skills.apiName.readReference": "Przeczytaj Odniesienie", + "builtins.lobe-skills.apiName.runSkill": "Aktywuj Umiejętność", + "builtins.lobe-skills.apiName.searchSkill": "Wyszukaj Umiejętności", + "builtins.lobe-skills.title": "Umiejętności", + "builtins.lobe-tools.apiName.activateTools": "Aktywuj Narzędzia", "builtins.lobe-user-memory.apiName.addContextMemory": "Dodaj pamięć kontekstu", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Dodaj pamięć doświadczenia", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Dodaj pamięć tożsamości", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Wyszukiwanie w Sieci", "confirm": "Potwierdź", "debug.arguments": "Argumenty", + "debug.error": "Dziennik błędów", "debug.function_call": "Wywołanie funkcji", "debug.intervention": "Interwencja umiejętności", "debug.off": "Debugowanie wyłączone", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Ustawienia zapisane", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Informacje meta", - "dev.title.create": "Dodaj niestandardową umiejętność", - "dev.title.edit": "Edytuj niestandardową umiejętność", + "dev.title.create": "Dodaj Niestandardową Umiejętność MCP", + "dev.title.edit": "Edytuj Niestandardową Umiejętność MCP", "dev.title.editCommunity": "Edytuj umiejętność społeczności", "dev.title.skillDetails": "Szczegóły umiejętności", "dev.title.skillSettings": "Ustawienia umiejętności", diff --git a/locales/pl-PL/providers.json b/locales/pl-PL/providers.json index c6e759e153..6ef6648baf 100644 --- a/locales/pl-PL/providers.json +++ b/locales/pl-PL/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud to opłacalna usługa chmurowa GenAI oparta na solidnych otwartych modelach.", "spark.description": "iFLYTEK Spark oferuje potężną wielojęzyczną AI w różnych dziedzinach, umożliwiając innowacje w inteligentnym sprzęcie, opiece zdrowotnej, finansach i innych branżach.", "stepfun.description": "Modele Stepfun oferują wiodące możliwości multimodalne i złożonego rozumowania, z rozumieniem długiego kontekstu i potężną autonomiczną orkiestracją wyszukiwania.", + "straico.description": "Straico upraszcza integrację AI, oferując zintegrowane środowisko pracy, które łączy najlepsze modele generatywne AI do tekstu, obrazów i dźwięku, umożliwiając marketerom, przedsiębiorcom i entuzjastom łatwy dostęp do różnorodnych narzędzi AI.", "taichu.description": "Model multimodalny nowej generacji od CASIA i Instytutu AI w Wuhan, obsługujący wieloetapowe pytania i odpowiedzi, pisanie, generowanie obrazów, rozumienie 3D i analizę sygnałów z większą kognicją i kreatywnością.", "tencentcloud.description": "Silnik wiedzy LLM Atomic Power zapewnia kompleksowe pytania i odpowiedzi dla przedsiębiorstw i deweloperów, z modułowymi usługami, takimi jak analiza dokumentów, dzielenie, osadzanie i wieloetapowe przekształcanie, umożliwiając tworzenie niestandardowych rozwiązań AI.", "togetherai.description": "Together AI oferuje wiodącą wydajność dzięki innowacyjnym modelom, szerokim możliwościom dostosowania, szybkiemu skalowaniu i prostemu wdrażaniu dla potrzeb przedsiębiorstw.", diff --git a/locales/pl-PL/setting.json b/locales/pl-PL/setting.json index ff646a3f6f..9647492cf2 100644 --- a/locales/pl-PL/setting.json +++ b/locales/pl-PL/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Profil agenta", "agentInfoDescription.value.unset": "Nieustawione", "agentInfoDescription.value.untitled": "Agent bez tytułu", + "agentSkillDetail.addedAt": "Dodano", + "agentSkillDetail.publishedAt": "Opublikowano", + "agentSkillDetail.repository": "Repozytorium GitHub", + "agentSkillDetail.skillContent": "Treść umiejętności", + "agentSkillDetail.sourceUrl": "Źródło importu umiejętności", + "agentSkillDetail.updatedAt": "Zaktualizowano", + "agentSkillEdit.descriptionDesc": "Krótki opis tego, co robi umiejętność, pomagający agentowi zrozumieć, kiedy jej używać", + "agentSkillEdit.fileReadonly": "Ten plik jest tylko do odczytu. Można edytować jedynie opis umiejętności i instrukcje.", + "agentSkillEdit.instructions": "Instrukcje", + "agentSkillEdit.instructionsDesc": "Główne instrukcje w formacie Markdown definiujące zachowanie i przepływ pracy umiejętności", + "agentSkillEdit.instructionsPlaceholder": "Wprowadź instrukcje umiejętności w formacie Markdown...", + "agentSkillEdit.nameDesc": "Unikalny identyfikator tej umiejętności, nieedytowalny po utworzeniu", + "agentSkillEdit.saveSuccess": "Umiejętność zaktualizowana pomyślnie", + "agentSkillEdit.title": "Ustawienia umiejętności", + "agentSkillItem.deleteConfirm.desc": "Czy na pewno chcesz usunąć umiejętność agenta \"{{name}}\"? Tej operacji nie można cofnąć.", + "agentSkillItem.deleteConfirm.title": "Usuń umiejętność agenta", + "agentSkillModal.content": "Treść umiejętności", + "agentSkillModal.contentPlaceholder": "Wprowadź treść umiejętności w formacie Markdown...", + "agentSkillModal.description": "Opis", + "agentSkillModal.descriptionPlaceholder": "Krótko opisz tę umiejętność", + "agentSkillModal.github.desc": "Importuj umiejętności bezpośrednio z publicznego repozytorium GitHub.", + "agentSkillModal.github.title": "Importuj z GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/użytkownik/repozytorium", + "agentSkillModal.importError": "Import nie powiódł się: {{error}}", + "agentSkillModal.importSuccess": "Umiejętność agenta zaimportowana pomyślnie", + "agentSkillModal.upload.desc": "Prześlij lokalny plik .zip lub .skill, aby zainstalować.", + "agentSkillModal.upload.dragText": "Przeciągnij i upuść lub kliknij, aby przesłać", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md zawiera nazwę i opis umiejętności w formacie YAML", + "agentSkillModal.upload.requirementZip": "Plik .zip lub .skill z SKILL.md w katalogu głównym", + "agentSkillModal.upload.requirements": "Wymagania dotyczące pliku", + "agentSkillModal.upload.title": "Prześlij umiejętność", + "agentSkillModal.upload.uploading": "Przesyłanie...", + "agentSkillModal.url.desc": "Importuj umiejętność, podając bezpośredni link do pliku SKILL.md.", + "agentSkillModal.url.title": "Importuj z URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/sciezka/do/SKILL.md", + "agentSkillTag": "Umiejętność agenta", "agentTab.chat": "Preferencje czatu", "agentTab.meta": "Informacje o agencie", "agentTab.modal": "Ustawienia modelu", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Określ model używany do tłumaczenia", "systemAgent.translation.title": "Agent tłumaczenia wiadomości", "tab.about": "O aplikacji", + "tab.addAgentSkill": "Dodaj umiejętność agenta", + "tab.addCustomMcp": "Dodaj niestandardową umiejętność MCP", + "tab.addCustomMcp.desc": "Ręcznie skonfiguruj niestandardowy serwer MCP", "tab.addCustomSkill": "Dodaj własną umiejętność", "tab.agent": "Usługa agenta", "tab.all": "Wszystkie", @@ -652,7 +691,13 @@ "tab.experiment": "Eksperyment", "tab.hotkey": "Skróty klawiszowe", "tab.image": "Usługa generowania obrazów", + "tab.importFromGithub": "Importuj z GitHub", + "tab.importFromGithub.desc": "Importuj z publicznego repozytorium GitHub", + "tab.importFromUrl": "Importuj z URL", + "tab.importFromUrl.desc": "Importuj za pomocą bezpośredniego linku do SKILL.md", "tab.llm": "Model językowy", + "tab.manualFill": "Wypełnij ręcznie", + "tab.manualFill.desc": "Ręcznie skonfiguruj niestandardową umiejętność MCP", "tab.memory": "Pamięć", "tab.profile": "Moje konto", "tab.provider": "Dostawca usług AI", @@ -669,6 +714,8 @@ "tab.sync": "Synchronizacja w chmurze", "tab.systemTools": "Narzędzia systemowe", "tab.tts": "Synteza mowy", + "tab.uploadZip": "Prześlij plik Zip", + "tab.uploadZip.desc": "Prześlij lokalny plik .zip lub .skill", "tab.usage": "Statystyki użycia", "tools.add": "Dodaj umiejętność", "tools.builtins.groupName": "Wbudowane", diff --git a/locales/pt-BR/common.json b/locales/pt-BR/common.json index 9d8c73c91e..3ef67fa58a 100644 --- a/locales/pt-BR/common.json +++ b/locales/pt-BR/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Dê uma estrela no GitHub", "footer.title": "Gosta do nosso produto?", "fullscreen": "Modo Tela Cheia", - "geminiImageChineseWarning.content": "O Nano Banana pode, ocasionalmente, falhar ao gerar imagens ao usar o idioma chinês. Recomenda-se utilizar o inglês para melhores resultados.", - "geminiImageChineseWarning.continueGenerate": "Continuar Gerando", - "geminiImageChineseWarning.continueSend": "Continuar Enviando", - "geminiImageChineseWarning.doNotShowAgain": "Não Mostrar Novamente", - "geminiImageChineseWarning.title": "Aviso sobre Entrada em Chinês", "historyRange": "Período do Histórico", "home.suggestQuestions": "Experimente estes exemplos", "import": "Importar", @@ -397,6 +392,7 @@ "tab.chat": "Chat", "tab.community": "Comunidade", "tab.discover": "Descobrir", + "tab.eval": "Laboratório de Avaliação", "tab.files": "Arquivos", "tab.home": "Início", "tab.knowledgeBase": "Biblioteca", diff --git a/locales/pt-BR/eval.json b/locales/pt-BR/eval.json new file mode 100644 index 0000000000..0abd7937c3 --- /dev/null +++ b/locales/pt-BR/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Excluir Benchmark", + "benchmark.actions.delete.confirm": "Tem certeza de que deseja excluir este benchmark? Conjuntos de dados relacionados e registros de avaliação também serão excluídos.", + "benchmark.actions.edit": "Editar Benchmark", + "benchmark.actions.export": "Exportar", + "benchmark.card.bestScore": "Melhor", + "benchmark.card.caseCount": "{{count}} casos", + "benchmark.card.datasetCount": "{{count}} conjuntos de dados", + "benchmark.card.empty": "Ainda não há avaliações", + "benchmark.card.emptyHint": "Crie uma nova avaliação na página de detalhes do benchmark", + "benchmark.card.importDataset": "Importar Conjunto de Dados", + "benchmark.card.noDataset": "Ainda não há conjuntos de dados", + "benchmark.card.noDatasetHint": "Importe um conjunto de dados para começar a avaliar", + "benchmark.card.noRecentRuns": "Nenhuma avaliação recente para exibir", + "benchmark.card.recentRuns": "Avaliações Recentes", + "benchmark.card.runCount": "{{count}} avaliações", + "benchmark.card.startFirst": "Iniciar Primeira Avaliação", + "benchmark.card.viewAll": "Ver todos {{count}}", + "benchmark.create.confirm": "Criar", + "benchmark.create.description.label": "Descrição", + "benchmark.create.description.placeholder": "Descrição do benchmark (opcional)", + "benchmark.create.error": "Falha ao criar benchmark", + "benchmark.create.identifier.label": "Identificador", + "benchmark.create.identifier.placeholder": "identificador-do-benchmark", + "benchmark.create.identifierRequired": "Por favor, insira um identificador", + "benchmark.create.name.label": "Nome", + "benchmark.create.name.placeholder": "Insira o nome do benchmark", + "benchmark.create.nameRequired": "Por favor, insira um nome para o benchmark", + "benchmark.create.success": "Benchmark criado com sucesso", + "benchmark.create.tags.label": "Tags", + "benchmark.create.tags.placeholder": "Adicione tags, separe por vírgula ou espaço", + "benchmark.create.title": "Criar Benchmark", + "benchmark.detail.backToOverview": "Voltar para Visão Geral", + "benchmark.detail.datasetCount": "{{count}} conjunto{{count, plural, one {} other {s}}} de dados neste benchmark", + "benchmark.detail.runCount": "{{count}} execução{{count, plural, one {} other {ões}}} de avaliação neste benchmark", + "benchmark.detail.stats.addFirstDataset": "Clique para adicionar o primeiro conjunto de dados", + "benchmark.detail.stats.avgCost": "Custo Médio", + "benchmark.detail.stats.avgDuration": "Duração Média", + "benchmark.detail.stats.basedOnLastNRuns": "Baseado nas últimas {{count}} execuções", + "benchmark.detail.stats.bestPerformance": "Melhor desempenho por {{agent}} com taxa de aprovação de {{passRate}}%", + "benchmark.detail.stats.bestScore": "Melhor Pontuação", + "benchmark.detail.stats.cases": "Casos", + "benchmark.detail.stats.dataScale": "Escala de Dados", + "benchmark.detail.stats.datasets": "Conjuntos de Dados", + "benchmark.detail.stats.needSetup": "Configuração Necessária", + "benchmark.detail.stats.noEvalRecord": "Ainda não há registros de avaliação", + "benchmark.detail.stats.perRun": "/ Execução", + "benchmark.detail.stats.runs": "Execuções", + "benchmark.detail.stats.tags": "Tags", + "benchmark.detail.stats.topAgents": "Melhores Agentes", + "benchmark.detail.stats.totalCases": "Total de Casos", + "benchmark.detail.stats.waiting": "Aguardando...", + "benchmark.detail.tabs.data": "Dados", + "benchmark.detail.tabs.datasets": "Conjuntos de Dados", + "benchmark.detail.tabs.runs": "Execuções", + "benchmark.edit.confirm": "Salvar", + "benchmark.edit.error": "Falha ao atualizar benchmark", + "benchmark.edit.success": "Benchmark atualizado com sucesso", + "benchmark.edit.title": "Editar Benchmark", + "benchmark.empty": "Ainda não há benchmarks. Crie um para começar.", + "caseDetail.actual": "Saída Atual", + "caseDetail.chatArea.title": "Conversa", + "caseDetail.completionReason": "Status", + "caseDetail.cost": "Custo", + "caseDetail.difficulty": "Dificuldade", + "caseDetail.duration": "Duração", + "caseDetail.expected": "Saída Esperada", + "caseDetail.failureReason": "Motivo da Falha", + "caseDetail.input": "Entrada", + "caseDetail.judgeComment": "Comentário do Juiz", + "caseDetail.resources": "Recursos", + "caseDetail.score": "Pontuação", + "caseDetail.section.runtime": "Tempo de Execução", + "caseDetail.section.scoring": "Detalhes da Pontuação", + "caseDetail.section.testCase": "Caso de Teste", + "caseDetail.steps": "Passos", + "caseDetail.threads.attempt": "Trajetória #{{number}}", + "caseDetail.tokens": "Uso de Tokens", + "common.cancel": "Cancelar", + "common.create": "Criar", + "common.delete": "Excluir", + "common.edit": "Editar", + "common.later": "Depois", + "common.next": "Próximo", + "common.update": "Atualizar", + "dataset.actions.addDataset": "Adicionar Conjunto de Dados", + "dataset.actions.import": "Importar Dados", + "dataset.actions.importDataset": "Importar Conjunto de Dados", + "dataset.create.description.label": "Descrição", + "dataset.create.description.placeholder": "Descrição do conjunto de dados (opcional)", + "dataset.create.error": "Falha ao criar conjunto de dados", + "dataset.create.identifier.label": "Identificador", + "dataset.create.identifier.placeholder": "identificador-do-conjunto-de-dados", + "dataset.create.identifierRequired": "Por favor, insira um identificador", + "dataset.create.importNow": "Gostaria de importar dados agora?", + "dataset.create.name.label": "Nome do Conjunto de Dados", + "dataset.create.name.placeholder": "Insira o nome do conjunto de dados", + "dataset.create.nameRequired": "Por favor, insira um nome para o conjunto de dados", + "dataset.create.preset.label": "Predefinição do Conjunto de Dados", + "dataset.create.success": "Conjunto de dados criado com sucesso", + "dataset.create.successTitle": "Conjunto de Dados Criado", + "dataset.create.title": "Criar Conjunto de Dados", + "dataset.delete.confirm": "Tem certeza de que deseja excluir este conjunto de dados? Todos os casos de teste nele também serão excluídos.", + "dataset.delete.error": "Falha ao excluir conjunto de dados", + "dataset.delete.success": "Conjunto de dados excluído com sucesso", + "dataset.detail.addRun": "Nova Execução", + "dataset.detail.backToBenchmark": "Voltar para Benchmark", + "dataset.detail.caseCount": "{{count}} caso de teste{{count, plural, one {} other {s}}}", + "dataset.detail.relatedRuns": "Execuções Relacionadas ({{count}})", + "dataset.detail.testCases": "Casos de Teste", + "dataset.detail.viewDetail": "Ver Detalhes", + "dataset.edit.error": "Falha ao atualizar conjunto de dados", + "dataset.edit.success": "Conjunto de dados atualizado com sucesso", + "dataset.edit.title": "Editar Conjunto de Dados", + "dataset.empty": "Sem conjuntos de dados", + "dataset.empty.description": "Importe um conjunto de dados para começar a construir este benchmark", + "dataset.empty.title": "Ainda não há conjuntos de dados", + "dataset.evalMode.hint": "Modo de avaliação padrão para o conjunto de dados, pode ser substituído no nível do caso de teste", + "dataset.import.category": "Categoria", + "dataset.import.categoryDesc": "Rótulo de classificação para agrupamento", + "dataset.import.choices": "Opções", + "dataset.import.choicesDesc": "Opções de múltipla escolha", + "dataset.import.confirm": "Importar", + "dataset.import.error": "Falha ao importar conjunto de dados", + "dataset.import.expected": "Resposta Esperada", + "dataset.import.expectedDelimiter": "Delimitador de Resposta", + "dataset.import.expectedDelimiter.desc": "Delimitador de resposta", + "dataset.import.expectedDelimiter.placeholder": "ex.: | ou ,", + "dataset.import.expectedDesc": "Resposta correta para comparar", + "dataset.import.fieldMapping": "Mapeamento de Campos", + "dataset.import.fieldMapping.desc": "A coluna \"Entrada\" é obrigatória", + "dataset.import.hideSkipped": "Ocultar colunas ignoradas", + "dataset.import.ignore": "Ignorar", + "dataset.import.ignoreDesc": "Não importar esta coluna", + "dataset.import.input": "Entrada", + "dataset.import.inputDesc": "Pergunta ou prompt enviado ao modelo", + "dataset.import.metadata": "Metadados", + "dataset.import.metadataDesc": "Informações extras, armazenadas como estão", + "dataset.import.next": "Próximo", + "dataset.import.parseError": "Falha ao analisar arquivo", + "dataset.import.parsing": "Analisando arquivo...", + "dataset.import.prev": "Anterior", + "dataset.import.preview": "Pré-visualização de Dados", + "dataset.import.preview.desc": "Confirme se o mapeamento está correto e, em seguida, importe.", + "dataset.import.preview.rows": "{{count}} linhas no total", + "dataset.import.sortOrder": "Número do Item", + "dataset.import.sortOrderDesc": "ID da pergunta/item para referência", + "dataset.import.step.mapping": "Mapear Campos", + "dataset.import.step.preview": "Pré-visualizar", + "dataset.import.step.upload": "Carregar Arquivo", + "dataset.import.success": "{{count}} casos de teste importados com sucesso", + "dataset.import.title": "Importar Conjunto de Dados", + "dataset.import.upload.hint": "Suporta CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Clique ou arraste o arquivo aqui para carregar", + "dataset.import.uploading": "Carregando...", + "dataset.switchDataset": "Trocar Conjunto de Dados", + "difficulty.easy": "Fácil", + "difficulty.hard": "Difícil", + "difficulty.medium": "Médio", + "evalMode.contains": "Correspondência Contém", + "evalMode.contains.desc": "A saída deve conter o texto esperado", + "evalMode.equals": "Correspondência Exata", + "evalMode.equals.desc": "A saída deve ser exatamente igual ao esperado", + "evalMode.label": "Modo de Avaliação", + "evalMode.llm-rubric": "Juiz LLM", + "evalMode.llm-rubric.desc": "Use LLM para avaliar a qualidade da saída", + "evalMode.placeholder": "Selecione o modo de avaliação", + "evalMode.prompt.label": "Prompt do Juiz", + "evalMode.prompt.placeholder": "Insira os critérios de avaliação ou prompt para o juiz LLM", + "evalMode.rubric": "Pontuação por Rubrica", + "evalMode.rubric.desc": "Pontue a saída usando rubricas de benchmark com critérios ponderados", + "overview.createBenchmark": "Criar Benchmark", + "overview.importDataset": "Importar Conjunto de Dados", + "overview.subtitle": "Avalie e compare seus agentes de IA em diferentes conjuntos de dados", + "overview.title": "Laboratório de Avaliação", + "run.actions.abort": "Abortar", + "run.actions.abort.confirm": "Tem certeza de que deseja abortar esta avaliação?", + "run.actions.create": "Nova Avaliação", + "run.actions.delete": "Excluir", + "run.actions.delete.confirm": "Tem certeza de que deseja excluir esta avaliação?", + "run.actions.edit": "Editar", + "run.actions.retryCase": "Tentar Novamente", + "run.actions.retryErrors": "Tentar Erros Novamente", + "run.actions.retryErrors.confirm": "Isso irá reexecutar todos os casos de erro e timeout. Casos aprovados e falhados não serão afetados.", + "run.actions.run": "Executar", + "run.actions.start": "Iniciar", + "run.actions.start.confirm": "Tem certeza de que deseja iniciar esta avaliação?", + "run.chart.duration": "Duração (s)", + "run.chart.error": "Erro", + "run.chart.fail": "Falha", + "run.chart.latencyDistribution": "Distribuição de Latência", + "run.chart.latencyTokenDistribution": "Latência / Distribuição de Tokens", + "run.chart.pass": "Aprovado", + "run.chart.passFailError": "Aprovado / Falha / Erro", + "run.chart.tokens": "Tokens", + "run.config.agentId": "Agente", + "run.config.concurrency": "Concorrência", + "run.config.judgeModel": "Modelo do Juiz", + "run.config.k": "Execuções (K)", + "run.config.k.hint": "Execute cada caso de teste {{k}} vezes para métricas pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Máximo de Passos", + "run.config.maxSteps.hint": "Cada chamada LLM ou ferramenta pelo agente conta como 1 passo", + "run.config.model": "Modelo", + "run.config.temperature": "Temperatura", + "run.config.timeout": "Timeout", + "run.config.timeout.unit": "min", + "run.create.advanced": "Configurações Avançadas", + "run.create.agent": "Agente", + "run.create.agent.placeholder": "Selecione um agente", + "run.create.agent.required": "Por favor, selecione um agente", + "run.create.caseCount": "{{count}} casos", + "run.create.confirm": "Criar e Iniciar", + "run.create.createOnly": "Criar", + "run.create.dataset": "Conjunto de Dados", + "run.create.dataset.placeholder": "Selecione um conjunto de dados", + "run.create.dataset.required": "Por favor, selecione um conjunto de dados", + "run.create.name": "Nome da Execução", + "run.create.name.placeholder": "Insira um nome para esta execução", + "run.create.name.required": "Por favor, insira um nome para a execução", + "run.create.name.useTimestamp": "Usar horário atual como nome", + "run.create.openAgent": "Abrir agente em nova janela", + "run.create.title": "Nova Avaliação", + "run.create.titleWithDataset": "Nova Avaliação em \"{{dataset}}\"", + "run.detail.agent": "Agente", + "run.detail.agent.none": "Não especificado", + "run.detail.agent.unnamed": "Agente Sem Nome", + "run.detail.backToBenchmark": "Voltar para Benchmark", + "run.detail.caseResults": "Detalhes da Avaliação", + "run.detail.config": "Configuração da Avaliação", + "run.detail.configSnapshot": "Instantâneo da Configuração", + "run.detail.dataset": "Conjunto de Dados", + "run.detail.model": "Modelo", + "run.detail.overview": "Visão Geral", + "run.detail.progress": "Progresso", + "run.detail.progressCases": "casos", + "run.detail.report": "Resumo da Avaliação", + "run.edit.error": "Falha ao atualizar avaliação", + "run.edit.success": "Avaliação atualizada com sucesso", + "run.edit.title": "Editar Avaliação", + "run.empty.description": "Inicie sua primeira execução de avaliação neste conjunto de dados", + "run.empty.descriptionBenchmark": "Inicie sua primeira execução de avaliação neste benchmark", + "run.empty.title": "Ainda não há execuções", + "run.filter.active": "Ativo", + "run.filter.empty": "Nenhuma execução corresponde ao filtro atual.", + "run.idle.hint": "Clique em Iniciar para começar a avaliação", + "run.metrics.avgScore": "Pontuação Média", + "run.metrics.cost": "Custo", + "run.metrics.duration": "Duração", + "run.metrics.errorCases": "Erro", + "run.metrics.evaluated": "{{count}} avaliados", + "run.metrics.passRate": "Taxa de Aprovação", + "run.metrics.perCase": "/ caso", + "run.metrics.tokens": "Tokens", + "run.metrics.totalDuration": "Cumulativo", + "run.pending.hint": "Avaliação está na fila, aguardando para começar...", + "run.running.hint": "Avaliação está em execução, os resultados aparecerão em breve...", + "run.status.aborted": "Abortado", + "run.status.completed": "Concluído", + "run.status.error": "Erro na Execução", + "run.status.failed": "Falhou", + "run.status.idle": "Inativo", + "run.status.pending": "Pendente", + "run.status.running": "Executando", + "run.status.timeout": "Timeout", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Painel", + "sidebar.datasets": "Conjuntos de Dados", + "sidebar.runs": "Execuções", + "table.columns.avgCost": "Custo Médio", + "table.columns.category": "Categoria", + "table.columns.cost": "Custo", + "table.columns.difficulty": "Dificuldade", + "table.columns.duration": "Duração", + "table.columns.evalMode": "Modo de Avaliação", + "table.columns.expected": "Resposta Esperada", + "table.columns.input": "Entrada", + "table.columns.score": "Pontuação", + "table.columns.status": "Status", + "table.columns.steps": "Passos", + "table.columns.tags": "Tags", + "table.columns.tokens": "Tokens", + "table.columns.totalCost": "Custo Total", + "table.filter.all": "Todos", + "table.filter.error": "Erro na Execução", + "table.filter.failed": "Falhou", + "table.filter.passed": "Aprovado", + "table.filter.running": "Executando", + "table.search.placeholder": "Pesquisar casos...", + "table.total": "Total {{count}}", + "testCase.actions.add": "Adicionar Caso de Teste", + "testCase.actions.import": "Importar Casos de Teste", + "testCase.create.advanced": "Mais Opções", + "testCase.create.difficulty.label": "Dificuldade", + "testCase.create.error": "Falha ao adicionar caso de teste", + "testCase.create.expected.label": "Saída Esperada", + "testCase.create.expected.placeholder": "Insira a resposta esperada", + "testCase.create.expected.required": "Por favor, insira a saída esperada", + "testCase.create.input.label": "Entrada", + "testCase.create.input.placeholder": "Insira a entrada ou pergunta do caso de teste", + "testCase.create.success": "Caso de teste adicionado com sucesso", + "testCase.create.tags.label": "Tags", + "testCase.create.tags.placeholder": "Tags separadas por vírgula (opcional)", + "testCase.create.title": "Adicionar Caso de Teste", + "testCase.delete.confirm": "Tem certeza de que deseja excluir este caso de teste?", + "testCase.delete.error": "Falha ao excluir caso de teste", + "testCase.delete.success": "Caso de teste excluído", + "testCase.edit.error": "Falha ao atualizar caso de teste", + "testCase.edit.success": "Caso de teste atualizado com sucesso", + "testCase.edit.title": "Editar Caso de Teste", + "testCase.empty.description": "Importe ou adicione manualmente casos de teste a este conjunto de dados", + "testCase.empty.title": "Ainda não há casos de teste", + "testCase.preview.expected": "Esperado", + "testCase.preview.input": "Entrada", + "testCase.preview.title": "Pré-visualização do Caso de Teste", + "testCase.search.placeholder": "Pesquisar casos..." +} diff --git a/locales/pt-BR/home.json b/locales/pt-BR/home.json index 729902f698..f12536a28f 100644 --- a/locales/pt-BR/home.json +++ b/locales/pt-BR/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Pesquisa Aprofundada", "starter.developing": "Em breve", "starter.image": "Imagem", + "starter.nanoBanana2": "🍌 Nano Banana 2", "starter.seedance": "Seedance 2.0", "starter.write": "Escrever" } diff --git a/locales/pt-BR/modelProvider.json b/locales/pt-BR/modelProvider.json index 7c0b5e7059..47d1ee771e 100644 --- a/locales/pt-BR/modelProvider.json +++ b/locales/pt-BR/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Para a série Gemini; controla o orçamento de pensamento.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Para modelos Gemini 3 Flash Preview; controla a profundidade do pensamento.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Para modelos Gemini 3 Pro Preview; controla a profundidade do pensamento.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Para modelos Gemini 3.1 Pro Preview; controla a profundidade de pensamento com níveis baixo/médio/alto.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Para a série Gemini; permite fornecer contexto via URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Selecione os parâmetros estendidos a serem ativados", "providerModels.item.modelConfig.extendParams.previewFallback": "Pré-visualização indisponível", diff --git a/locales/pt-BR/models.json b/locales/pt-BR/models.json index e19e85c576..0104681879 100644 --- a/locales/pt-BR/models.json +++ b/locales/pt-BR/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "O 360GPT Turbo oferece forte capacidade de computação e chat com excelente compreensão semântica e eficiência de geração, ideal para empresas e desenvolvedores.", "360gpt2-o1.description": "O 360gpt2-o1 constrói cadeias de raciocínio por meio de busca em árvore com mecanismo de reflexão e treinamento por reforço, permitindo autorreflexão e autocorreção.", "360gpt2-pro.description": "O 360GPT2 Pro é um modelo avançado de PLN da 360 com excelente geração e compreensão de texto, especialmente para tarefas criativas, transformações complexas e simulações de papéis.", + "360zhinao2-o1.5.description": "360 Zhinao, o modelo de raciocínio mais poderoso, com as capacidades mais avançadas, suportando tanto chamadas de ferramentas quanto raciocínio avançado.", "360zhinao2-o1.description": "O 360zhinao2-o1 constrói cadeias de raciocínio por meio de busca em árvore com mecanismo de reflexão e treinamento por reforço, permitindo autorreflexão e autocorreção.", + "360zhinao3-o1.5.description": "360 Zhinao, modelo de raciocínio de próxima geração.", "4.0Ultra.description": "O Spark Ultra é o modelo mais poderoso da série Spark, aprimorando a compreensão e a sumarização de texto, além de melhorar a busca na web. É uma solução completa para aumentar a produtividade no trabalho e fornecer respostas precisas, posicionando-se como um produto inteligente de destaque.", "AnimeSharp.description": "AnimeSharp (também conhecido como \"4x-AnimeSharp\") é um modelo open-source de super-resolução baseado no ESRGAN de Kim2091, focado em ampliar e aprimorar imagens no estilo anime. Foi renomeado de \"4x-TextSharpV1\" em fevereiro de 2022, originalmente também voltado para imagens de texto, mas fortemente otimizado para conteúdo de anime.", "Baichuan2-Turbo.description": "Utiliza aumento por busca para conectar o modelo ao conhecimento de domínio e da web. Suporta upload de arquivos PDF/Word e entrada de URLs para recuperação abrangente e atualizada, com saídas profissionais e precisas.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision é um modelo multimodal de última geração com forte desempenho em benchmarks de linguagem, texto e visão. Esta versão de 8B foca em baixa latência e desempenho robusto.", "charglm-3.description": "CharGLM-3 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.", "charglm-4.description": "CharGLM-4 foi desenvolvido para simulação de papéis e companhia emocional, com suporte a memória de múltiplas interações de longo prazo e diálogo personalizado.", - "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real, combinando forte compreensão e geração para casos de uso em larga escala como suporte ao cliente, educação e suporte técnico.", + "chatgpt-4o-latest.description": "ChatGPT-4o é um modelo dinâmico atualizado em tempo real. Combina forte compreensão e geração de linguagem para casos de uso em larga escala, como suporte ao cliente, educação e assistência técnica.", "claude-2.0.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.", "claude-2.1.description": "Claude 2 oferece melhorias importantes para empresas, incluindo um contexto líder de 200 mil tokens, menos alucinações, prompts de sistema e um novo recurso de teste: chamadas de ferramentas.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku é o modelo de nova geração mais rápido da Anthropic, com melhorias em diversas habilidades e superando o antigo modelo principal Claude 3 Opus em muitos benchmarks.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "O DeepSeek LLM Chat (67B) é um modelo inovador que oferece compreensão profunda da linguagem e interação.", "deepseek-ai/deepseek-v3.1-terminus.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.", "deepseek-ai/deepseek-v3.1.description": "O DeepSeek V3.1 é um modelo de raciocínio de nova geração com raciocínio complexo mais forte e cadeia de pensamento para tarefas de análise profunda.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo de raciocínio de próxima geração com capacidades mais fortes de raciocínio complexo e cadeia de pensamento.", "deepseek-ai/deepseek-vl2.description": "O DeepSeek-VL2 é um modelo de visão e linguagem MoE baseado no DeepSeekMoE-27B com ativação esparsa, alcançando alto desempenho com apenas 4,5B de parâmetros ativos. Destaca-se em QA visual, OCR, compreensão de documentos/tabelas/gráficos e ancoragem visual.", "deepseek-chat.description": "DeepSeek V3.2 equilibra raciocínio e comprimento de saída para tarefas diárias de perguntas e respostas e agentes. Os benchmarks públicos atingem níveis comparáveis ao GPT-5, sendo o primeiro a integrar raciocínio ao uso de ferramentas, liderando avaliações de agentes de código aberto.", "deepseek-coder-33B-instruct.description": "O DeepSeek Coder 33B é um modelo de linguagem para código treinado com 2 trilhões de tokens (87% código, 13% texto em chinês/inglês). Introduz uma janela de contexto de 16K e tarefas de preenchimento intermediário, oferecendo preenchimento de código em nível de projeto e inserção de trechos.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 é um novo modelo híbrido de raciocínio da DeepSeek, que suporta modos com e sem raciocínio, oferecendo maior eficiência de pensamento em comparação ao DeepSeek-R1-0528. Otimizações pós-treinamento melhoram significativamente o uso de ferramentas por agentes e o desempenho em tarefas. Suporta uma janela de contexto de 128k e até 64k tokens de saída.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 é um modelo de raciocínio de nova geração com melhorias em raciocínio complexo e cadeia de pensamento, ideal para tarefas que exigem análise profunda.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp introduz atenção esparsa para melhorar a eficiência de treinamento e inferência em textos longos, com custo inferior ao deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Em tarefas altamente complexas, o modelo Speciale supera significativamente a versão padrão, mas consome consideravelmente mais tokens e gera custos mais altos. Atualmente, o DeepSeek-V3.2-Speciale é destinado apenas para uso em pesquisa, não suporta chamadas de ferramentas e não foi especificamente otimizado para conversas ou tarefas de escrita do dia a dia.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think é um modelo completo de raciocínio profundo com raciocínio em cadeias longas mais robusto.", "deepseek-v3.2.description": "DeepSeek-V3.2 é o primeiro modelo de raciocínio híbrido da DeepSeek que integra pensamento ao uso de ferramentas. Utiliza uma arquitetura eficiente para economizar computação, aprendizado por reforço em larga escala para ampliar capacidades e dados sintéticos em grande escala para fortalecer a generalização. A combinação desses três elementos atinge desempenho comparável ao GPT-5-High, com comprimento de saída significativamente reduzido, diminuindo notavelmente a sobrecarga computacional e o tempo de espera do usuário.", "deepseek-v3.description": "DeepSeek-V3 é um poderoso modelo MoE com 671 bilhões de parâmetros totais e 37 bilhões ativos por token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "O Doubao-1.5-vision-lite é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções. Suporta uma janela de contexto de 128k e até 16k tokens de saída.", "doubao-1.5-vision-pro-32k.description": "O Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.", "doubao-1.5-vision-pro.description": "O Doubao-1.5-vision-pro é um modelo multimodal aprimorado que suporta imagens em qualquer resolução e proporções extremas, melhorando o raciocínio visual, reconhecimento de documentos, compreensão de detalhes e seguimento de instruções.", - "doubao-lite-128k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 128k.", "doubao-lite-32k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 32k.", - "doubao-lite-4k.description": "Resposta ultrarrápida com melhor custo-benefício, oferecendo mais flexibilidade em diversos cenários. Suporta raciocínio e ajuste fino com janela de contexto de 4k.", - "doubao-pro-256k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com excelentes resultados em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 256k.", "doubao-pro-32k.description": "O modelo carro-chefe com melhor desempenho para tarefas complexas, com excelentes resultados em QA com referência, sumarização, criação, classificação de texto e simulação de papéis. Suporta raciocínio e ajuste fino com janela de contexto de 32k.", "doubao-seed-1.6-flash.description": "O Doubao-Seed-1.6-flash é um modelo multimodal de raciocínio profundo ultrarrápido com TPOT de até 10ms. Suporta entrada de texto e imagem, supera o modelo lite anterior em compreensão de texto e se equipara aos modelos pro concorrentes em visão. Suporta janela de contexto de 256k e até 16k tokens de saída.", "doubao-seed-1.6-lite.description": "O Doubao-Seed-1.6-lite é um novo modelo multimodal de raciocínio profundo com esforço de raciocínio ajustável (Mínimo, Baixo, Médio, Alto), oferecendo melhor custo-benefício e sendo uma escolha sólida para tarefas comuns, com janela de contexto de até 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "O modelo de imagem Doubao da ByteDance Seed suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Suporta edição de imagem guiada por texto, com tamanhos de saída entre 512 e 1536 no lado mais longo.", "doubao-seedream-3-0-t2i-250415.description": "O Seedream 3.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.", "doubao-seedream-4-0-250828.description": "O Seedream 4.0 é um modelo de geração de imagem da ByteDance Seed, que suporta entradas de texto e imagem com geração de imagem altamente controlável e de alta qualidade. Gera imagens a partir de comandos de texto.", - "doubao-vision-lite-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.", - "doubao-vision-pro-32k.description": "O Doubao-vision é um modelo multimodal da Doubao com forte compreensão e raciocínio de imagens, além de seguir instruções com precisão. Tem bom desempenho em tarefas de extração imagem-texto e raciocínio baseado em imagem, permitindo cenários de QA visual mais complexos e amplos.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 é o mais recente modelo multimodal de imagem da ByteDance, integrando capacidades de texto-para-imagem, imagem-para-imagem e geração de imagens em lote, enquanto incorpora senso comum e habilidades de raciocínio. Comparado à versão anterior 4.0, oferece qualidade de geração significativamente melhorada, com maior consistência de edição e fusão de múltiplas imagens. Oferece controle mais preciso sobre detalhes visuais, produzindo texto pequeno e rostos pequenos de forma mais natural, além de alcançar layouts e cores mais harmoniosos, melhorando a estética geral.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite é o mais recente modelo de geração de imagens da ByteDance. Pela primeira vez, integra capacidades de recuperação online, permitindo incorporar informações da web em tempo real e melhorar a atualidade das imagens geradas. A inteligência do modelo também foi aprimorada, permitindo interpretação precisa de instruções complexas e conteúdo visual. Além disso, oferece melhor cobertura de conhecimento global, consistência de referência e qualidade de geração em cenários profissionais, atendendo melhor às necessidades de criação visual em nível empresarial.", "emohaa.description": "O Emohaa é um modelo voltado para saúde mental com habilidades profissionais de aconselhamento para ajudar os usuários a compreender questões emocionais.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B é um modelo leve de código aberto para implantação local e personalizada.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking é um modelo MoE (Mixture-of-Experts) de texto pós-treinado com um total de 21 bilhões de parâmetros e 3 bilhões de parâmetros ativos, oferecendo qualidade e profundidade de raciocínio significativamente aprimoradas.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B é um modelo de código aberto com grande número de parâmetros, com melhor compreensão e geração.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B é o modelo MoE ultra-grande da Baidu ERNIE, com excelente capacidade de raciocínio.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview é um modelo de pré-visualização com contexto de 8K para avaliação do ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K é um modelo leve de alto desempenho para cenários sensíveis à latência e ao custo.", "ernie-novel-8k.description": "ERNIE Novel 8K é projetado para romances longos e enredos de IP com narrativas de múltiplos personagens.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K é um modelo de alto valor e alta concorrência para serviços online em larga escala e aplicativos corporativos.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview é um modelo de pensamento rápido com 32K de contexto para raciocínio complexo e conversas de múltiplas interações.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K é um modelo de raciocínio rápido com contexto de 32K para raciocínio complexo e bate-papo de múltiplas interações.", "ernie-x1.1-preview.description": "Pré-visualização do modelo de raciocínio ERNIE X1.1 para avaliação e testes.", + "ernie-x1.1.description": "ERNIE X1.1 é um modelo de pensamento em pré-visualização para avaliação e testes.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, desenvolvido pela equipe Seed da ByteDance, oferece edição e composição com múltiplas imagens. Apresenta consistência aprimorada de elementos, seguimento preciso de instruções, compreensão de lógica espacial, expressão estética, layout de pôsteres e design de logotipos com renderização texto-imagem de alta precisão.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, desenvolvido pela ByteDance Seed, aceita entradas de texto e imagem para geração de imagens altamente controlável e de alta qualidade a partir de prompts.", "fal-ai/flux-kontext/dev.description": "Modelo FLUX.1 focado em edição de imagens, com suporte a entradas de texto e imagem.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite é o menor e mais econômico modelo do Google, projetado para uso em larga escala.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview é o modelo com melhor custo-benefício do Google, com capacidades completas.", - "gemini-2.5-flash-preview-09-2025.description": "Versão de prévia (25 de setembro de 2025) do Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash é o modelo com melhor custo-benefício do Google, com capacidades completas.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview é o modelo de raciocínio mais avançado do Google, capaz de raciocinar sobre código, matemática e problemas STEM, além de analisar grandes conjuntos de dados, bases de código e documentos com contexto longo.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google, com suporte a conversas multimodais.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) é o modelo de geração de imagens do Google e também oferece suporte a chat multimodal.", "gemini-3-pro-preview.description": "Gemini 3 Pro é o agente mais poderoso do Google, com capacidades de codificação emocional e visuais aprimoradas, além de raciocínio de última geração.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível profissional com velocidade Flash e suporte a chat multimodal.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) oferece qualidade de imagem em nível profissional com velocidade Flash e suporte a chat multimodal.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview melhora o Gemini 3 Pro com capacidades de raciocínio aprimoradas e adiciona suporte a nível médio de pensamento.", "gemini-flash-latest.description": "Última versão do Gemini Flash", "gemini-flash-lite-latest.description": "Última versão do Gemini Flash-Lite", "gemini-pro-latest.description": "Última versão do Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.", "glm-4v-plus.description": "GLM-4V-Plus compreende vídeos e múltiplas imagens, adequado para tarefas multimodais.", "glm-4v.description": "GLM-4V oferece forte compreensão e raciocínio visual em diversas tarefas visuais.", - "glm-5.description": "Um modelo forte de raciocínio e agentivo da Z.ai com 744B de parâmetros totais (40B ativos), projetado para engenharia de sistemas complexos e tarefas de longo prazo.", + "glm-5.description": "A série GLM é um modelo híbrido de raciocínio da Zhipu AI projetado para agentes, com modos de pensamento e não-pensamento.", "glm-z1-air.description": "Modelo de raciocínio com forte capacidade de inferência para tarefas que exigem dedução profunda.", "glm-z1-airx.description": "Raciocínio ultrarrápido com alta qualidade de inferência.", "glm-z1-flash.description": "A série GLM-Z1 oferece raciocínio complexo robusto, com destaque em lógica, matemática e programação.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Estamos entusiasmados em lançar o Grok 4 Fast, nosso mais recente avanço em modelos de raciocínio com ótimo custo-benefício.", "grok-4.description": "Nosso modelo principal mais recente e poderoso, excelente em PLN, matemática e raciocínio — um modelo versátil ideal.", "grok-code-fast-1.description": "Estamos entusiasmados em lançar o grok-code-fast-1, um modelo de raciocínio rápido e econômico que se destaca em codificação com agentes.", + "grok-imagine-image-pro.description": "Gere imagens a partir de prompts de texto, edite imagens existentes com linguagem natural ou refine imagens iterativamente por meio de conversas de múltiplas interações.", + "grok-imagine-image.description": "Gere imagens a partir de prompts de texto, edite imagens existentes com linguagem natural ou refine imagens iterativamente por meio de conversas de múltiplas interações.", "groq/compound-mini.description": "Compound-mini é um sistema de IA composto alimentado por modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.", "groq/compound.description": "Compound é um sistema de IA composto alimentado por múltiplos modelos públicos disponíveis no GroqCloud, utilizando ferramentas de forma inteligente e seletiva para responder às perguntas dos usuários.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B é um modelo de linguagem criativo e inteligente, fundido a partir de diversos modelos de ponta.", + "hunyuan-2.0-instruct-20251111.description": "Recursos de lançamento: A base do modelo foi atualizada de TurboS para **Hunyuan 2.0**, resultando em melhorias abrangentes de capacidade. Melhora significativamente o seguimento de instruções, compreensão de texto de múltiplas interações e longo formato, criação literária, precisão de conhecimento, codificação e habilidades de raciocínio.", + "hunyuan-2.0-thinking-20251109.description": "Recursos de lançamento: A base do modelo foi atualizada de TurboS para **Hunyuan 2.0**, resultando em melhorias abrangentes de capacidade. Melhora significativamente a capacidade do modelo de seguir instruções complexas, compreender texto de múltiplas interações e longo formato, lidar com código, operar como um agente e realizar tarefas de raciocínio.", "hunyuan-a13b.description": "O primeiro modelo de raciocínio híbrido da Hunyuan, atualizado a partir do hunyuan-standard-256K (80B no total, 13B ativos). Opera por padrão em modo de pensamento lento e permite alternância entre rápido/lento via parâmetros ou prefixo /no_think. A capacidade geral foi aprimorada em relação à geração anterior, especialmente em matemática, ciências, compreensão de textos longos e tarefas de agentes.", - "hunyuan-code.description": "Modelo mais recente de geração de código, treinado com 200B de código de alta qualidade e seis meses de SFT; contexto expandido para 8K. Classificado entre os melhores em benchmarks automatizados para cinco linguagens e em avaliações humanas em dez critérios.", - "hunyuan-functioncall.description": "Modelo FunctionCall MoE mais recente, treinado com dados de chamadas de função de alta qualidade, com janela de contexto de 32K e resultados líderes em benchmarks em diversas dimensões.", - "hunyuan-large-longcontext.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.", - "hunyuan-large-vision.description": "Modelo de linguagem e visão treinado a partir do Hunyuan Large para compreensão de imagem e texto. Suporta entrada de múltiplas imagens + texto em qualquer resolução e melhora a compreensão visual multilíngue.", - "hunyuan-large.description": "O hunyuan-large possui ~389B de parâmetros totais e ~52B ativados, sendo o maior e mais poderoso modelo MoE aberto com arquitetura Transformer.", - "hunyuan-lite-vision.description": "Modelo multimodal mais recente de 7B com janela de contexto de 32K, compatível com chat multimodal em chinês/inglês, reconhecimento de objetos, compreensão de tabelas em documentos e matemática multimodal, superando outros modelos de 7B em vários benchmarks.", + "hunyuan-code.description": "O mais recente modelo de código Hunyuan treinado com 200 bilhões de dados de código de alta qualidade e seis meses de dados SFT, com contexto de 8K. Classifica-se próximo ao topo em benchmarks automatizados de código e em avaliações humanas especializadas em cinco idiomas.", + "hunyuan-functioncall.description": "O mais recente modelo MoE FunctionCall da Hunyuan treinado com dados de chamadas de ferramentas de alta qualidade, com uma janela de contexto de 32K e benchmarks líderes em várias dimensões.", "hunyuan-lite.description": "Atualizado para uma arquitetura MoE com janela de contexto de 256K, liderando muitos modelos abertos em benchmarks de NLP, código, matemática e indústria.", "hunyuan-pro.description": "Modelo MoE com trilhões de parâmetros e contexto longo de 32K, líder em benchmarks, excelente em instruções complexas e raciocínio, matemática avançada, chamadas de função e otimizado para tradução multilíngue, finanças, direito e medicina.", - "hunyuan-role.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.", - "hunyuan-standard-256K.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-256K expande ainda mais o comprimento e a qualidade do contexto.", - "hunyuan-standard-vision.description": "Modelo multimodal mais recente com respostas multilíngues e equilíbrio entre habilidades em chinês e inglês.", - "hunyuan-standard.description": "Utiliza roteamento aprimorado para mitigar desequilíbrio de carga e colapso de especialistas. Alcança 99,9% em 'agulha no palheiro' com contexto longo. O MOE-32K oferece ótimo custo-benefício ao lidar com entradas extensas.", - "hunyuan-t1-20250321.description": "Desenvolve capacidades equilibradas em artes e STEM com forte captura de informações em textos longos. Suporta respostas com raciocínio para problemas de matemática, lógica, ciência e programação em diversos níveis de dificuldade.", - "hunyuan-t1-20250403.description": "Melhora a geração de código em nível de projeto e a qualidade da escrita, fortalece a compreensão de tópicos em múltiplas interações e o seguimento de instruções ToB, aprimora a compreensão lexical e reduz problemas de mistura entre chinês simplificado/tradicional e chinês/inglês.", - "hunyuan-t1-20250529.description": "Aprimora a escrita criativa e composição, fortalece a programação frontend, raciocínio matemático e lógico, e melhora o seguimento de instruções.", - "hunyuan-t1-20250711.description": "Melhora significativamente matemática avançada, lógica e programação, aumenta a estabilidade das respostas e aprimora a capacidade com textos longos.", + "hunyuan-role.description": "O mais recente modelo de interpretação de papéis da Hunyuan, ajustado oficialmente com dados de interpretação de papéis, oferecendo desempenho base mais forte em cenários de interpretação.", + "hunyuan-standard-256K.description": "Usa roteamento aprimorado para mitigar o balanceamento de carga e o colapso de especialistas. Texto longo \"agulha no palheiro\" atinge 99,9%. MOE-256K avança ainda mais em comprimento e qualidade, expandindo significativamente o comprimento de entrada.", + "hunyuan-standard.description": "Usa roteamento aprimorado para mitigar o balanceamento de carga e o colapso de especialistas. Texto longo \"agulha no palheiro\" atinge 99,9%. MOE-32K oferece melhor valor enquanto equilibra qualidade e preço para entradas de texto longo.", "hunyuan-t1-latest.description": "Melhora significativamente o modelo de pensamento lento em matemática avançada, raciocínio complexo, programação difícil, seguimento de instruções e qualidade da escrita criativa.", - "hunyuan-t1-vision-20250619.description": "Modelo multimodal de raciocínio profundo t1-vision mais recente com cadeia de pensamento nativa longa, significativamente melhorado em relação à versão padrão anterior.", "hunyuan-t1-vision-20250916.description": "Modelo de raciocínio profundo t1-vision mais recente com grandes avanços em VQA, ancoragem visual, OCR, gráficos, resolução de problemas fotografados e criação baseada em imagem, além de melhor desempenho em inglês e idiomas de poucos recursos.", - "hunyuan-turbo-20241223.description": "Esta versão amplia a escalabilidade de instruções para melhor generalização, melhora significativamente o raciocínio em matemática/código/lógica, aprimora a compreensão lexical e eleva a qualidade da escrita.", - "hunyuan-turbo-latest.description": "Melhorias gerais na experiência em compreensão de NLP, escrita, chat, perguntas e respostas, tradução e domínios; respostas mais humanas, melhor esclarecimento de intenções ambíguas, análise lexical aprimorada, maior criatividade e interatividade, e conversas multi-turno mais robustas.", - "hunyuan-turbo-vision.description": "Modelo de linguagem e visão de próxima geração com nova arquitetura MoE, com amplas melhorias em reconhecimento, criação de conteúdo, perguntas e respostas baseadas em conhecimento e raciocínio analítico.", "hunyuan-turbo.description": "Prévia do LLM de próxima geração da Hunyuan com nova arquitetura MoE, oferecendo raciocínio mais rápido e resultados superiores ao hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Unifica o estilo de resolução de problemas matemáticos e fortalece perguntas e respostas matemáticas em múltiplas interações. O estilo de escrita foi refinado para reduzir o tom artificial e adicionar sofisticação.", - "hunyuan-turbos-20250416.description": "Base de pré-treinamento atualizada para melhorar a compreensão e seguimento de instruções; alinhamento aprimora matemática, código, lógica e ciência; melhora a qualidade da escrita, compreensão, precisão de tradução e perguntas e respostas baseadas em conhecimento; fortalece habilidades de agente, especialmente em múltiplas interações.", - "hunyuan-turbos-20250604.description": "Base de pré-treinamento atualizada com melhorias na escrita e compreensão de leitura, avanços significativos em código e STEM, e melhor seguimento de instruções complexas.", - "hunyuan-turbos-20250926.description": "Melhoria na qualidade dos dados de pré-treinamento e estratégia de pós-treinamento, aprimorando agentes, idiomas de poucos recursos/inglês, seguimento de instruções, código e capacidades STEM.", "hunyuan-turbos-latest.description": "O mais recente modelo principal Hunyuan TurboS com raciocínio mais forte e melhor experiência geral.", - "hunyuan-turbos-longtext-128k-20250325.description": "Excelente em tarefas com documentos longos, como resumo e perguntas e respostas, além de lidar com geração geral. Forte em análise e geração de textos longos e complexos.", - "hunyuan-turbos-role-plus.description": "Modelo de interpretação de papéis mais recente, ajustado oficialmente com conjuntos de dados específicos, oferecendo desempenho base mais forte para cenários de roleplay.", - "hunyuan-turbos-vision-20250619.description": "Modelo principal TurboS de linguagem e visão mais recente com grandes avanços em tarefas imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.", - "hunyuan-turbos-vision.description": "Modelo principal de linguagem e visão de próxima geração baseado no mais recente TurboS, focado em tarefas de compreensão imagem-texto como reconhecimento de entidades, perguntas e respostas baseadas em conhecimento, redação publicitária e resolução de problemas com fotos.", - "hunyuan-vision-1.5-instruct.description": "Modelo de pensamento rápido para geração de texto a partir de imagem baseado no TurboS textual. Em comparação com a versão anterior, apresenta melhorias significativas em reconhecimento básico de imagem e raciocínio analítico visual.", - "hunyuan-vision.description": "Modelo multimodal mais recente com suporte a entrada de imagem + texto para geração de texto.", + "hunyuan-vision-1.5-instruct.description": "Um modelo de imagem-para-texto de pensamento rápido baseado na base de texto TurboS, mostrando melhorias notáveis em relação à versão anterior no reconhecimento fundamental de imagens e raciocínio de análise de imagens.", + "hunyuan-vision.description": "O mais recente modelo multimodal da Hunyuan que suporta entradas de imagem + texto para gerar texto.", "image-01-live.description": "Modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e estilos controláveis.", "image-01.description": "Novo modelo de geração de imagem com detalhes refinados, suportando geração de imagem a partir de texto e de imagem para imagem.", "imagen-4.0-fast-generate-001.description": "Versão rápida da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.", "imagen-4.0-generate-001.description": "Série de modelos de geração de imagem a partir de texto Imagen de quarta geração.", - "imagen-4.0-generate-preview-06-06.description": "Família de modelos de geração de imagem a partir de texto da quarta geração Imagen.", "imagen-4.0-ultra-generate-001.description": "Versão Ultra da série de modelos de geração de imagem a partir de texto Imagen de quarta geração.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Variante Ultra da quarta geração de modelos de geração de imagem a partir de texto Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small é ideal para geração de código, depuração e refatoração com latência mínima.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 é o terceiro modelo da arquitetura Ling 2.0 da equipe Bailing do Ant Group. É um modelo MoE com 100 bilhões de parâmetros totais, mas apenas 6,1 bilhões ativos por token (4,8 bilhões sem embeddings). Apesar de sua configuração leve, iguala ou supera modelos densos de 40B e MoEs maiores em diversos benchmarks, explorando alta eficiência por meio de arquitetura e estratégia de treinamento.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 é um LLM MoE pequeno e de alto desempenho com 16 bilhões de parâmetros totais e apenas 1,4 bilhão ativo por token (789 milhões sem embeddings), oferecendo geração muito rápida. Com design MoE eficiente e grandes volumes de dados de treinamento de alta qualidade, atinge desempenho de ponta comparável a modelos densos abaixo de 10B e MoEs maiores.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T é o modelo MoE de raciocínio com um trilhão de parâmetros da inclusionAI, adequado para tarefas de raciocínio em larga escala e pesquisa.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 é uma variante do modelo Ring da inclusionAI para cenários de alto rendimento, com foco em velocidade e eficiência de custo.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 é o modelo MoE leve e de alto rendimento da inclusionAI, projetado para alta concorrência.", + "intern-latest.description": "Por padrão, aponta para o modelo mais recente da série Intern, atualmente definido como intern-s1-pro.", + "intern-s1-mini.description": "Um modelo multimodal leve com fortes capacidades de raciocínio científico.", + "intern-s1-pro.description": "Lançamos nosso modelo de raciocínio multimodal mais avançado de código aberto, atualmente o modelo de linguagem multimodal de código aberto com melhor desempenho geral.", + "intern-s1.description": "O modelo de raciocínio multimodal de código aberto não apenas demonstra fortes capacidades de uso geral, mas também alcança desempenho de ponta em uma ampla gama de tarefas científicas.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat é um modelo de chat de código aberto baseado na arquitetura InternLM2. O modelo de 7B é focado em geração de diálogos com suporte a chinês e inglês, utilizando treinamento moderno para conversas fluentes e inteligentes. É adequado para diversos cenários de chat, como atendimento ao cliente e assistentes pessoais.", - "internlm2.5-latest.description": "Modelos legados ainda mantidos com desempenho excelente e estável após várias iterações. Disponíveis nos tamanhos 7B e 20B, com suporte a contexto de 1 milhão e melhor seguimento de instruções e uso de ferramentas. Padrão para a série InternLM2.5 mais recente (atualmente internlm2.5-20b-chat).", - "internlm3-latest.description": "Nossa série de modelos mais recente com excelente desempenho em raciocínio, liderando entre os modelos abertos de seu porte. Padrão para a série InternLM3 mais recente (atualmente internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO é um modelo multimodal pré-treinado para raciocínio complexo entre imagem e texto.", - "internvl2.5-latest.description": "InternVL2.5 continua sendo mantido com desempenho forte e estável. Padrão para a série InternVL2.5 mais recente (atualmente internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B é um modelo multimodal de porte médio que equilibra desempenho e custo.", "internvl3-1b.description": "InternVL3 1B é um modelo multimodal leve para implantação com recursos limitados.", "internvl3-38b.description": "InternVL3 38B é um modelo multimodal de código aberto de grande porte para compreensão precisa de imagem e texto.", - "internvl3-latest.description": "Nosso modelo multimodal mais recente com compreensão aprimorada de imagem e texto e capacidade de lidar com sequências longas de imagens, comparável aos principais modelos fechados. Padrão para a série InternVL mais recente (atualmente internvl3-78b).", + "internvl3.5-241b-a28b.description": "Nosso modelo multimodal recém-lançado apresenta compreensão aprimorada de imagem e texto e capacidades de compreensão de imagens de sequência longa, alcançando desempenho comparável aos principais modelos de código fechado.", + "internvl3.5-latest.description": "Por padrão, aponta para o modelo mais recente da série InternVL3.5, atualmente definido como internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG é um modelo de geração aumentada por recuperação de imagens para busca de imagens, recuperação imagem-texto e geração de conteúdo.", "jamba-large.description": "Nosso modelo mais poderoso e avançado, projetado para tarefas empresariais complexas com desempenho excepcional.", "jamba-mini.description": "O modelo mais eficiente de sua categoria, equilibrando velocidade e qualidade com baixo consumo de recursos.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 é um modelo de linguagem grande e eficiente, construído especificamente para fluxos de trabalho de programação e agentes.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 é um modelo de linguagem grande, leve e de ponta, otimizado para programação, fluxos de trabalho com agentes e desenvolvimento moderno de aplicações, oferecendo saídas mais limpas, concisas e com tempos de resposta mais rápidos.", "minimax/minimax-m2.description": "MiniMax-M2 é um modelo de alto valor que se destaca em tarefas de programação e agentes em diversos cenários de engenharia.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 é um modelo MoE compacto, rápido e econômico, projetado para desempenho de codificação e agentes de alto nível.", "minimaxai/minimax-m2.description": "MiniMax-M2 é um modelo MoE compacto, rápido e econômico (230B total, 10B ativos), construído para desempenho de ponta em programação e agentes, mantendo forte inteligência geral. Ele se destaca em edições de múltiplos arquivos, ciclos de execução e correção de código, validação de testes e cadeias de ferramentas complexas.", "ministral-3b-latest.description": "Ministral 3B é o modelo de ponta da Mistral para uso em borda.", "ministral-8b-latest.description": "Ministral 8B é um modelo de borda altamente econômico da Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "O modelo kimi-k2-0905-preview oferece uma janela de contexto de 256k, com codificação mais autônoma, código frontend mais refinado e prático, e melhor compreensão de contexto.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo é a versão de alta velocidade do Kimi K2 Thinking, reduzindo significativamente a latência sem perder profundidade de raciocínio.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking é o modelo de raciocínio da Moonshot otimizado para tarefas de raciocínio profundo, com capacidades gerais de agente.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 é o modelo Kimi mais inteligente até hoje, com arquitetura multimodal nativa.", "moonshotai/kimi-k2.description": "Kimi K2 é um modelo MoE de grande porte da Moonshot AI com 1 trilhão de parâmetros totais e 32 bilhões ativos por passagem, otimizado para capacidades de agente, incluindo uso avançado de ferramentas, raciocínio e síntese de código.", "morph/morph-v3-fast.description": "Morph oferece um modelo especializado para aplicar alterações de código sugeridas por modelos de ponta (como Claude ou GPT-4o) aos seus arquivos existentes a uma velocidade de 4500+ tokens/seg. É a etapa final em um fluxo de trabalho de codificação com IA e suporta 16k tokens de entrada/saída.", "morph/morph-v3-large.description": "Morph oferece um modelo especializado para aplicar alterações de código sugeridas por modelos de ponta (como Claude ou GPT-4o) aos seus arquivos existentes a uma velocidade de 2500+ tokens/seg. É a etapa final em um fluxo de trabalho de codificação com IA e suporta 16k tokens de entrada/saída.", + "musesteamer-air-image.description": "musesteamer-air-image é um modelo de geração de imagens desenvolvido pela equipe de busca da Baidu para oferecer desempenho excepcional em custo-benefício. Ele pode gerar rapidamente imagens claras e coerentes com ações com base em prompts do usuário, transformando descrições em visuais sem esforço.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B é uma versão atualizada do Nous Hermes 2 com os mais recentes conjuntos de dados desenvolvidos internamente.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B é um LLM personalizado da NVIDIA para melhorar a utilidade. Apresenta desempenho superior nos benchmarks Arena Hard, AlpacaEval 2 LC e GPT-4-Turbo MT-Bench, ocupando o 1º lugar em todos os três benchmarks de autoalinhamento em 1º de outubro de 2024. Treinado a partir do Llama-3.1-70B-Instruct usando RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward e prompts HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Modelo de linguagem distinto com precisão e eficiência excepcionais.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Com base no comprimento do contexto, tópico e complexidade, sua solicitação é roteada para Llama 3 70B Instruct, Claude 3.5 Sonnet (auto-moderado) ou GPT-4o.", "oswe-vscode-prime.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.", "oswe-vscode-secondary.description": "Raptor mini é um modelo de pré-visualização otimizado para tarefas relacionadas a código.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo que equilibra alta eficiência computacional com excelente desempenho de raciocínio e agentes.", "perplexity/sonar-pro.description": "Produto principal da Perplexity com base em busca, oferecendo suporte a consultas avançadas e seguimentos.", "perplexity/sonar-reasoning-pro.description": "Modelo avançado com foco em raciocínio que gera cadeia de pensamento (CoT) com busca aprimorada, incluindo múltiplas consultas por solicitação.", "perplexity/sonar-reasoning.description": "Modelo com foco em raciocínio que gera cadeia de pensamento (CoT) com explicações detalhadas baseadas em busca.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Modelo de código Qwen.", "qwen-coder-turbo.description": "Modelo de código Qwen.", "qwen-flash.description": "Modelo Qwen mais rápido e de menor custo, ideal para tarefas simples.", + "qwen-image-edit-max.description": "O Modelo de Edição de Imagens Qwen suporta entrada e saída de múltiplas imagens, permitindo edição precisa de texto em imagens, adição, remoção ou realocação de objetos, modificação de ações de sujeitos, transferência de estilo de imagem e detalhes visuais aprimorados.", + "qwen-image-edit-plus.description": "O Modelo de Edição de Imagens Qwen suporta entrada e saída de múltiplas imagens, permitindo edição precisa de texto em imagens, adição, remoção ou realocação de objetos, modificação de ações de sujeitos, transferência de estilo de imagem e detalhes visuais aprimorados.", "qwen-image-edit.description": "Qwen Image Edit é um modelo de imagem para imagem que edita imagens com base em imagens de entrada e comandos de texto, permitindo ajustes precisos e transformações criativas.", + "qwen-image-max.description": "O Modelo de Geração de Imagens Qwen (série Max) oferece maior realismo e naturalidade visual em comparação com a série Plus, reduzindo efetivamente artefatos gerados por IA e demonstrando desempenho excepcional em aparência humana, detalhes de textura e renderização de texto.", + "qwen-image-plus.description": "Suporta uma ampla gama de estilos artísticos e é particularmente proficiente em renderizar texto complexo dentro de imagens, permitindo design integrado de layout imagem-texto.", "qwen-image.description": "Qwen-Image é um modelo geral de geração de imagens que suporta múltiplos estilos artísticos e renderização complexa de texto, especialmente em chinês e inglês. Suporta layouts em várias linhas, texto em nível de parágrafo e detalhes refinados para composições complexas de texto e imagem.", "qwen-long.description": "Modelo Qwen ultra-grande com contexto longo e suporte a chat em cenários com múltiplos documentos.", "qwen-math-plus-latest.description": "Qwen Math é um modelo de linguagem especializado na resolução de problemas matemáticos.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Modelo de código Qwen de código aberto. O qwen3-coder-30b-a3b-instruct mais recente é baseado no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct é um modelo de código de ponta para programação multilíngue e compreensão de código complexa.", "qwen3-coder-flash.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.", + "qwen3-coder-next.description": "Próxima geração do codificador Qwen otimizado para geração de código complexo em múltiplos arquivos, depuração e fluxos de trabalho de agentes de alta produtividade. Projetado para forte integração de ferramentas e desempenho de raciocínio aprimorado.", "qwen3-coder-plus.description": "Modelo de código Qwen. A série Qwen3-Coder mais recente é baseada no Qwen3 e oferece fortes habilidades de agente de codificação, uso de ferramentas e interação com o ambiente para programação autônoma, com excelente desempenho de código e sólida capacidade geral.", "qwen3-coder:480b.description": "Modelo de alto desempenho da Alibaba com suporte a contexto longo para tarefas de agente e codificação.", "qwen3-max-2026-01-23.description": "Os modelos Qwen3 Max apresentam grandes avanços em relação à série 2.5 em capacidade geral, compreensão de chinês/inglês, seguimento de instruções complexas, tarefas subjetivas abertas, habilidade multilíngue e uso de ferramentas, com menos alucinações. A versão mais recente do qwen3-max melhora a programação agente e o uso de ferramentas em relação ao qwen3-max-preview. Este lançamento atinge o SOTA da área e atende a necessidades mais complexas de agentes.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking é um modelo multimodal com raciocínio em cadeia para raciocínio visual detalhado.", "qwen3-vl-flash.description": "Qwen3 VL Flash: versão leve e de raciocínio rápido para solicitações com baixa latência ou alto volume.", "qwen3-vl-plus.description": "Qwen VL é um modelo de geração de texto com compreensão visual. Pode realizar OCR, além de resumir e raciocinar, como extrair atributos de fotos de produtos ou resolver problemas a partir de imagens.", + "qwen3.5-397b-a17b.description": "Suporta entradas de texto, imagem e vídeo. Para tarefas apenas de texto, seu desempenho é comparável ao Qwen3 Max, oferecendo maior eficiência e menor custo. Em capacidades multimodais, oferece melhorias significativas em relação à série Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus suporta entradas de texto, imagem e vídeo. Para tarefas apenas de texto, seu desempenho é comparável ao Qwen3 Max, enquanto oferece melhor eficiência e menor custo. Em termos de capacidades multimodais, apresenta melhorias significativas em relação à série Qwen3 VL.", "qwen3.description": "Qwen3 é o modelo de linguagem de próxima geração da Alibaba com desempenho robusto em diversos casos de uso.", "qwq-32b-preview.description": "QwQ é um modelo de pesquisa experimental da Qwen focado em raciocínio aprimorado.", "qwq-32b.description": "QwQ é um modelo de raciocínio da família Qwen. Em comparação com modelos ajustados por instruções padrão, oferece raciocínio e pensamento que aumentam significativamente o desempenho em tarefas complexas. O QwQ-32B é um modelo de raciocínio de porte médio que rivaliza com os principais modelos como DeepSeek-R1 e o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Modelo de raciocínio de porte médio da família Qwen. Em comparação com modelos ajustados por instruções padrão, as habilidades de pensamento e raciocínio do QwQ aumentam significativamente o desempenho em tarefas difíceis.", "r1-1776.description": "R1-1776 é uma variante pós-treinada do DeepSeek R1 projetada para fornecer informações factuais sem censura e imparciais.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro da ByteDance oferece suporte à geração de vídeo a partir de texto, imagem para vídeo (primeiro quadro, primeiro+último quadro) e geração de áudio sincronizado com os visuais.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite da BytePlus apresenta geração aumentada por recuperação na web para informações em tempo real, interpretação aprimorada de prompts complexos e consistência de referência melhorada para criação visual profissional.", "solar-mini-ja.description": "Solar Mini (Ja) estende o Solar Mini com foco no japonês, mantendo desempenho eficiente e forte em inglês e coreano.", "solar-mini.description": "Solar Mini é um LLM compacto que supera o GPT-3.5, com forte capacidade multilíngue suportando inglês e coreano, oferecendo uma solução eficiente e de baixo custo.", "solar-pro.description": "Solar Pro é um LLM de alta inteligência da Upstage, focado em seguir instruções em uma única GPU, com pontuações IFEval acima de 80. Atualmente suporta inglês; o lançamento completo está previsto para novembro de 2024 com suporte expandido a idiomas e contexto mais longo.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.", "sonar-reasoning.description": "Produto de busca avançada com fundamentação de pesquisa para consultas complexas e seguimentos.", "sonar.description": "Produto leve com fundamentação de busca, mais rápido e barato que o Sonar Pro.", - "spark-x.description": "Atualizações do X1.5: (1) adiciona modo de pensamento dinâmico controlado pelo campo `thinking`; (2) comprimento de contexto maior com entrada de 64K e saída de 64K; (3) suporte a FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 é um modelo que equilibra alta eficiência computacional com excelente desempenho de raciocínio e agentes.", + "spark-x.description": "Visão geral das capacidades do X2: 1. Introduz ajuste dinâmico do modo de raciocínio, controlado pelo campo `thinking`. 2. Comprimento de contexto expandido: 64K tokens de entrada e 128K tokens de saída. 3. Suporta funcionalidade Function Call.", "stable-diffusion-3-medium.description": "O mais recente modelo de texto para imagem da Stability AI. Esta versão melhora significativamente a qualidade da imagem, compreensão de texto e diversidade de estilo, interpretando comandos em linguagem natural complexa com mais precisão e gerando imagens mais precisas e diversas.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo aplica difusão adversarial destilada (ADD) ao stable-diffusion-3.5-large para maior velocidade.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large é um modelo MMDiT de texto para imagem com 800 milhões de parâmetros, oferecendo excelente qualidade e alinhamento com prompts, suportando imagens de 1 megapixel e execução eficiente em hardwares de consumo.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Suporta interações com contexto amplo para diálogos complexos.", "step-2-mini.description": "Baseado na arquitetura de atenção MFA de próxima geração, oferece resultados semelhantes ao Step-1 com custo muito menor, maior rendimento e menor latência. Lida com tarefas gerais com forte capacidade de programação.", "step-2x-large.description": "Modelo de imagem StepFun de nova geração focado em geração de imagens, produzindo imagens de alta qualidade a partir de prompts de texto. Oferece texturas mais realistas e melhor renderização de texto em chinês/inglês.", + "step-3.5-flash.description": "O modelo de raciocínio linguístico carro-chefe da Stepfun. Este modelo oferece capacidades de raciocínio de alto nível junto com execução rápida e confiável. Ele pode decompor e planejar tarefas complexas, invocar ferramentas rapidamente e de forma confiável para realizá-las, e se destacar em raciocínio lógico, matemática, engenharia de software, pesquisa profunda e outras tarefas sofisticadas. O comprimento do contexto é de 256K.", "step-3.description": "Este modelo possui forte percepção visual e raciocínio complexo, lidando com precisão com compreensão de conhecimento entre domínios, análise cruzada de matemática e visão, e uma ampla gama de tarefas visuais do cotidiano.", "step-r1-v-mini.description": "Modelo de raciocínio com forte compreensão de imagem que pode processar imagens e textos, gerando texto após raciocínio profundo. Destaca-se em raciocínio visual e oferece desempenho de ponta em matemática, programação e raciocínio textual, com janela de contexto de 100K.", "stepfun-ai/step3.description": "Step3 é um modelo de raciocínio multimodal de ponta da StepFun, baseado em arquitetura MoE com 321B de parâmetros totais e 38B ativos. Seu design de ponta a ponta minimiza o custo de decodificação enquanto entrega raciocínio visão-linguagem de alto nível. Com design MFA e AFD, mantém eficiência tanto em aceleradores topo de linha quanto de entrada. Pré-treinado com mais de 20T de tokens de texto e 4T de tokens imagem-texto em vários idiomas. Alcança desempenho líder entre modelos abertos em benchmarks de matemática, código e multimodalidade.", - "taichu_llm.description": "Treinado com dados massivos de alta qualidade, com melhor compreensão de texto, criação de conteúdo e perguntas e respostas conversacionais.", - "taichu_o1.description": "taichu_o1 é um modelo de raciocínio de próxima geração que utiliza interação multimodal e aprendizado por reforço para alcançar raciocínio em cadeia semelhante ao humano, suportando simulação de decisões complexas e expondo caminhos de raciocínio com alta precisão, ideal para análise estratégica e pensamento profundo.", - "taichu_vl.description": "Combina compreensão de imagem, transferência de conhecimento e atribuição lógica, destacando-se em perguntas e respostas imagem-texto.", + "taichu4_vl_2b_nothinking.description": "A versão Sem Pensamento do modelo Taichu4.0-VL 2B apresenta menor uso de memória, design leve, velocidade de resposta rápida e fortes capacidades de compreensão multimodal.", + "taichu4_vl_32b.description": "A versão Pensante do modelo Taichu4.0-VL 32B é adequada para tarefas complexas de compreensão e raciocínio multimodal, demonstrando desempenho excepcional em raciocínio matemático multimodal, capacidades de agentes multimodais e compreensão geral de imagens e visuais.", + "taichu4_vl_32b_nothinking.description": "A versão Sem Pensamento do modelo Taichu4.0-VL 32B é projetada para cenários complexos de compreensão de imagem e texto e perguntas e respostas de conhecimento visual, destacando-se em legendagem de imagens, perguntas e respostas visuais, compreensão de vídeos e tarefas de localização visual.", + "taichu4_vl_3b.description": "A versão Pensante do modelo Taichu4.0-VL 3B executa eficientemente tarefas de compreensão e raciocínio multimodal, com atualizações abrangentes em compreensão visual, localização visual, reconhecimento OCR e capacidades relacionadas.", + "taichu_llm.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.", + "taichu_llm_14b.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.", + "taichu_llm_2b.description": "O modelo de linguagem Zidong Taichu é um modelo de geração de texto de alto desempenho desenvolvido com tecnologias totalmente nacionais de pilha completa. Por meio de compressão estruturada de um modelo base de cem bilhões de parâmetros e otimização específica para tarefas, melhora significativamente a compreensão de texto complexo e as capacidades de raciocínio de conhecimento. Destaca-se em cenários como análise de documentos longos, extração de informações multilíngues e geração restrita por conhecimento.", + "taichu_o1.description": "taichu_o1 é um modelo de raciocínio de próxima geração que alcança uma cadeia de pensamento semelhante à humana por meio de interação multimodal e aprendizado por reforço. Suporta simulações de tomada de decisão complexas e, enquanto mantém saídas de alta precisão, revela caminhos de raciocínio interpretáveis. É bem adequado para análise estratégica, pensamento profundo e cenários semelhantes.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct utiliza 80B de parâmetros totais com 13B ativos para igualar modelos maiores. Suporta raciocínio híbrido rápido/lento, compreensão estável de textos longos e desempenho líder em agentes nos benchmarks BFCL-v3 e τ-Bench. Formatos GQA e multi-quant permitem inferência eficiente.", "tencent/Hunyuan-MT-7B.description": "O Modelo de Tradução Hunyuan inclui o Hunyuan-MT-7B e o conjunto Hunyuan-MT-Chimera. O Hunyuan-MT-7B é um modelo leve de tradução com 7B de parâmetros, suportando 33 idiomas e 5 línguas minoritárias chinesas. No WMT25, obteve 30 primeiros lugares em 31 pares de idiomas. A Hunyuan da Tencent utiliza um pipeline completo de pré-treinamento, SFT, RL de tradução e RL em conjunto, alcançando desempenho líder em seu porte com implantação eficiente e fácil.", "text-embedding-3-large.description": "O modelo de embedding mais avançado para tarefas em inglês e outros idiomas.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md é adequado para tarefas cotidianas e geração de interfaces.", "vercel/v0-1.0-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.", "vercel/v0-1.5-md.description": "Acesse os modelos por trás do v0 para gerar, corrigir e otimizar aplicativos web modernos com raciocínio específico de framework e conhecimento atualizado.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code é otimizado para necessidades de programação em nível empresarial, com base nas excelentes capacidades de Agente e VLM do Seed 2.0, especialmente aprimorado para habilidades de código. Não apenas se destaca em capacidades de front-end, mas também foi otimizado para as necessidades comuns de codificação multilíngue em empresas, sendo adequado para integração com várias ferramentas de programação de IA.", + "volcengine/doubao-seed-2-0-lite.description": "Equilibra qualidade de geração e velocidade de resposta, adequado como modelo de produção geral.", + "volcengine/doubao-seed-2-0-mini.description": "Aponta para a versão mais recente do doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Aponta para a versão mais recente do doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code é o LLM da Volcano Engine da ByteDance otimizado para programação agente, com forte desempenho em benchmarks de programação e agentes, com suporte a contexto de 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, oferecendo geração rápida e alto valor.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, produzindo detalhes mais ricos.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, oferecendo geração rápida e alto valor.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus é o modelo mais recente com melhorias em criatividade, estabilidade e realismo, produzindo detalhes mais ricos.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview suporta edição de imagem única e fusão de múltiplas imagens.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I suporta seleção flexível de dimensões de imagem dentro de limites de área total de pixels e proporções de aspecto.", + "wan2.6-image.description": "Wanxiang 2.6 Image suporta edição de imagens e saída de layout misto imagem-texto.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I suporta seleção flexível de dimensões de imagem dentro de limites de área total de pixels e proporções de aspecto (igual ao Wanxiang 2.5).", "wanx-v1.description": "Modelo base de texto para imagem. Corresponde ao Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Excelente em retratos texturizados com velocidade moderada e menor custo. Corresponde ao Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Versão totalmente atualizada com mais detalhes de imagem e velocidade ligeiramente menor. Corresponde ao Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast é o modelo de alta vazão e baixo custo da xAI (com suporte a janela de contexto de 2M), ideal para casos de uso com alta concorrência e contexto longo.", "x-ai/grok-4.description": "Grok 4 é o modelo de raciocínio de ponta da xAI com forte capacidade de raciocínio e multimodalidade.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 é o modelo de código rápido da xAI com saída legível e amigável para engenharia.", + "x1.description": "Atualizações do X1.5: (1) adiciona modo de pensamento dinâmico controlado pelo campo `thinking`; (2) maior comprimento de contexto com 64K de entrada e 64K de saída; (3) suporta FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision se destaca em tarefas visuais, oferecendo desempenho de ponta em raciocínio visual matemático (MathVista) e perguntas e respostas em documentos (DocVQA). Lida com documentos, gráficos, tabelas, capturas de tela e fotos.", "xai/grok-2.description": "Grok 2 é um modelo de fronteira com raciocínio de ponta, forte desempenho em chat, codificação e raciocínio, superando Claude 3.5 Sonnet e GPT-4 Turbo no LMSYS.", "xai/grok-3-fast.description": "Modelo de ponta da xAI que se destaca em casos de uso corporativos como extração de dados, codificação e sumarização, com profundo conhecimento em finanças, saúde, direito e ciência. A variante rápida roda em infraestrutura mais ágil para respostas muito mais rápidas com maior custo por token.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 é o modelo de ponta da Z.AI com raciocínio híbrido otimizado para engenharia e tarefas com contexto longo.", "z-ai/glm-4.6.description": "GLM 4.6 é o modelo de ponta da Z.AI com comprimento de contexto estendido e capacidade de codificação.", "z-ai/glm-4.7.description": "GLM-4.7 é o mais novo modelo de ponta da Zhipu, oferecendo capacidades gerais aprimoradas, respostas mais simples e naturais, e uma experiência de escrita mais imersiva.", - "z-ai/glm5.description": "Um modelo forte de raciocínio e agentivo da Z.ai com 744B de parâmetros totais (40B ativos), projetado para engenharia de sistemas complexos e tarefas de longo prazo.", + "z-ai/glm4.7.description": "GLM-4.7 é o mais recente modelo carro-chefe da Zhipu, aprimorado para cenários de Codificação Agente com capacidades de codificação melhoradas.", + "z-ai/glm5.description": "GLM-5 é o novo modelo base carro-chefe da Zhipu AI para engenharia de agentes, alcançando desempenho SOTA de código aberto em capacidades de codificação e agentes. Ele iguala o desempenho do Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image é um modelo leve de geração de texto-para-imagem que pode produzir rapidamente imagens, suporta renderização de texto em chinês e inglês e se adapta de forma flexível a múltiplas resoluções e proporções de aspecto.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air é um modelo base para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. Ele é otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar tanto com cenários complexos quanto com situações do dia a dia.", "zai-org/GLM-4.5.description": "GLM-4.5 é um modelo base desenvolvido para aplicações com agentes, utilizando uma arquitetura Mixture-of-Experts. É profundamente otimizado para uso de ferramentas, navegação na web, engenharia de software e codificação frontend, e integra-se com agentes de código como Claude Code e Roo Code. Utiliza raciocínio híbrido para lidar com raciocínios complexos e situações cotidianas.", "zai-org/GLM-4.5V.description": "GLM-4.5V é o mais recente VLM da Zhipu AI, baseado no modelo de texto principal GLM-4.5-Air (106B no total, 12B ativos), com uma arquitetura MoE que oferece alto desempenho a um custo reduzido. Segue a linha de desenvolvimento do GLM-4.1V-Thinking e adiciona 3D-RoPE para melhorar o raciocínio espacial em 3D. Otimizado por meio de pré-treinamento, SFT e RL, lida com imagens, vídeos e documentos longos, e está entre os melhores modelos abertos em 41 benchmarks multimodais públicos. Um modo de alternância de raciocínio permite ao usuário equilibrar velocidade e profundidade.", diff --git a/locales/pt-BR/plugin.json b/locales/pt-BR/plugin.json index b7f979a5ec..777702e1ba 100644 --- a/locales/pt-BR/plugin.json +++ b/locales/pt-BR/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Atualizar nó", "builtins.lobe-page-agent.apiName.wrapNodes": "Agrupar nós", "builtins.lobe-page-agent.title": "Página", + "builtins.lobe-skill-store.apiName.importFromMarket": "Importar do Mercado", + "builtins.lobe-skill-store.apiName.importSkill": "Importar Habilidade", + "builtins.lobe-skill-store.apiName.searchSkill": "Buscar Habilidades", + "builtins.lobe-skill-store.title": "Loja de Habilidades", + "builtins.lobe-skills.apiName.execScript": "Executar Script", + "builtins.lobe-skills.apiName.exportFile": "Exportar Arquivo", + "builtins.lobe-skills.apiName.importFromMarket": "Importar do Mercado", + "builtins.lobe-skills.apiName.importSkill": "Importar Habilidade", + "builtins.lobe-skills.apiName.readReference": "Ler Referência", + "builtins.lobe-skills.apiName.runSkill": "Ativar Habilidade", + "builtins.lobe-skills.apiName.searchSkill": "Buscar Habilidades", + "builtins.lobe-skills.title": "Habilidades", + "builtins.lobe-tools.apiName.activateTools": "Ativar Ferramentas", "builtins.lobe-user-memory.apiName.addContextMemory": "Adicionar memória de contexto", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Adicionar memória de experiência", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Adicionar memória de identidade", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Busca na Web", "confirm": "Confirmar", "debug.arguments": "Argumentos", + "debug.error": "Registro de Erros", "debug.function_call": "Chamada de função", "debug.intervention": "Intervenção da Skill", "debug.off": "Depuração desativada", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Configurações salvas", "dev.tabs.manifest": "Manifesto", "dev.tabs.meta": "Informações meta", - "dev.title.create": "Adicionar Skill personalizada", - "dev.title.edit": "Editar Skill personalizada", + "dev.title.create": "Adicionar Habilidade MCP Personalizada", + "dev.title.edit": "Editar Habilidade MCP Personalizada", "dev.title.editCommunity": "Editar Habilidade da Comunidade", "dev.title.skillDetails": "Detalhes da Habilidade", "dev.title.skillSettings": "Configurações da Habilidade", diff --git a/locales/pt-BR/providers.json b/locales/pt-BR/providers.json index d0f6b82859..2bbd16ded9 100644 --- a/locales/pt-BR/providers.json +++ b/locales/pt-BR/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "A SiliconCloud é um serviço de nuvem GenAI econômico baseado em modelos open-source robustos.", "spark.description": "O iFLYTEK Spark oferece IA multilíngue poderosa em diversos domínios, possibilitando inovações em hardware inteligente, saúde, finanças e outros setores.", "stepfun.description": "Os modelos Stepfun oferecem capacidades líderes em multimodalidade e raciocínio complexo, com compreensão de contexto longo e orquestração autônoma de busca poderosa.", + "straico.description": "O Straico simplifica a integração de IA ao oferecer um espaço de trabalho unificado que reúne os melhores modelos generativos de IA para texto, imagem e áudio, capacitando profissionais de marketing, empreendedores e entusiastas com acesso fácil a diversas ferramentas de IA.", "taichu.description": "Um modelo multimodal de nova geração do CASIA e do Instituto de IA de Wuhan, com suporte a perguntas e respostas em múltiplas etapas, redação, geração de imagens, compreensão 3D e análise de sinais, com cognição e criatividade aprimoradas.", "tencentcloud.description": "O LLM Knowledge Engine Atomic Power oferece perguntas e respostas de conhecimento de ponta a ponta para empresas e desenvolvedores, com serviços modulares como análise de documentos, divisão, embeddings e reescrita em múltiplas etapas para montar soluções de IA personalizadas.", "togetherai.description": "A Together AI oferece desempenho líder com modelos inovadores, ampla personalização, escalabilidade rápida e implantação simplificada para necessidades empresariais.", diff --git a/locales/pt-BR/setting.json b/locales/pt-BR/setting.json index ebcafe8bd9..6ebc18b91d 100644 --- a/locales/pt-BR/setting.json +++ b/locales/pt-BR/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Perfil do Agente", "agentInfoDescription.value.unset": "Não Definido", "agentInfoDescription.value.untitled": "Agente Sem Título", + "agentSkillDetail.addedAt": "Adicionado", + "agentSkillDetail.publishedAt": "Publicado", + "agentSkillDetail.repository": "Repositório GitHub", + "agentSkillDetail.skillContent": "Conteúdo da Habilidade", + "agentSkillDetail.sourceUrl": "Fonte de Importação da Habilidade", + "agentSkillDetail.updatedAt": "Atualizado", + "agentSkillEdit.descriptionDesc": "Um breve resumo do que a habilidade faz, ajudando o agente a entender quando usá-la", + "agentSkillEdit.fileReadonly": "Este arquivo é somente leitura. Apenas a descrição e as instruções da habilidade podem ser editadas.", + "agentSkillEdit.instructions": "Instruções", + "agentSkillEdit.instructionsDesc": "As instruções principais em Markdown que definem o comportamento e o fluxo de trabalho da habilidade", + "agentSkillEdit.instructionsPlaceholder": "Insira as instruções da habilidade no formato Markdown...", + "agentSkillEdit.nameDesc": "O identificador único para esta habilidade, não editável após a criação", + "agentSkillEdit.saveSuccess": "Habilidade atualizada com sucesso", + "agentSkillEdit.title": "Configurações da Habilidade", + "agentSkillItem.deleteConfirm.desc": "Tem certeza de que deseja excluir a habilidade do agente \"{{name}}\"? Esta ação não pode ser desfeita.", + "agentSkillItem.deleteConfirm.title": "Excluir Habilidade do Agente", + "agentSkillModal.content": "Conteúdo da Habilidade", + "agentSkillModal.contentPlaceholder": "Insira o conteúdo da habilidade no formato Markdown...", + "agentSkillModal.description": "Descrição", + "agentSkillModal.descriptionPlaceholder": "Descreva brevemente esta habilidade", + "agentSkillModal.github.desc": "Importe habilidades diretamente de um repositório público do GitHub.", + "agentSkillModal.github.title": "Importar do GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/usuario/repositorio", + "agentSkillModal.importError": "Falha na importação: {{error}}", + "agentSkillModal.importSuccess": "Habilidade do Agente importada com sucesso", + "agentSkillModal.upload.desc": "Envie um arquivo local .zip ou .skill para instalar.", + "agentSkillModal.upload.dragText": "Arraste e solte ou clique para enviar", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md contém o nome e a descrição da habilidade no formato YAML", + "agentSkillModal.upload.requirementZip": "Arquivo .zip ou .skill com SKILL.md no diretório raiz", + "agentSkillModal.upload.requirements": "Requisitos do Arquivo", + "agentSkillModal.upload.title": "Enviar Habilidade", + "agentSkillModal.upload.uploading": "Enviando...", + "agentSkillModal.url.desc": "Importe uma habilidade fornecendo um link direto para um arquivo SKILL.md.", + "agentSkillModal.url.title": "Importar de URL", + "agentSkillModal.url.urlPlaceholder": "https://exemplo.com/caminho/para/SKILL.md", + "agentSkillTag": "Habilidade do Agente", "agentTab.chat": "Preferências de Conversa", "agentTab.meta": "Informações do Agente", "agentTab.modal": "Configurações do Modelo", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Especifique o modelo usado para tradução", "systemAgent.translation.title": "Agente de Tradução de Mensagens", "tab.about": "Sobre", + "tab.addAgentSkill": "Adicionar Habilidade do Agente", + "tab.addCustomMcp": "Adicionar Habilidade MCP Personalizada", + "tab.addCustomMcp.desc": "Configure manualmente um servidor MCP personalizado", "tab.addCustomSkill": "Adicionar habilidade personalizada", "tab.agent": "Serviço de Agente", "tab.all": "Todos", @@ -652,7 +691,13 @@ "tab.experiment": "Experimentos", "tab.hotkey": "Atalhos de Teclado", "tab.image": "Serviço de Geração de Imagens", + "tab.importFromGithub": "Importar do GitHub", + "tab.importFromGithub.desc": "Importar de um repositório público do GitHub", + "tab.importFromUrl": "Importar de URL", + "tab.importFromUrl.desc": "Importar via um link direto para SKILL.md", "tab.llm": "Modelo de Linguagem", + "tab.manualFill": "Preencher Manualmente", + "tab.manualFill.desc": "Configurar manualmente uma habilidade MCP personalizada", "tab.memory": "Memória", "tab.profile": "Minha Conta", "tab.provider": "Provedor de Serviço de IA", @@ -669,6 +714,8 @@ "tab.sync": "Sincronização em Nuvem", "tab.systemTools": "Ferramentas do Sistema", "tab.tts": "Texto para Fala", + "tab.uploadZip": "Enviar Zip", + "tab.uploadZip.desc": "Envie um arquivo local .zip ou .skill", "tab.usage": "Estatísticas de Uso", "tools.add": "Adicionar Habilidade", "tools.builtins.groupName": "Integrados", diff --git a/locales/ru-RU/common.json b/locales/ru-RU/common.json index 6af04aec80..6da9da4ae7 100644 --- a/locales/ru-RU/common.json +++ b/locales/ru-RU/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Поставьте нам звезду на GitHub", "footer.title": "Нравится наш продукт?", "fullscreen": "Полноэкранный режим", - "geminiImageChineseWarning.content": "Nano Banana может иногда не создавать изображения при использовании китайского языка. Рекомендуется использовать английский для лучших результатов.", - "geminiImageChineseWarning.continueGenerate": "Продолжить генерацию", - "geminiImageChineseWarning.continueSend": "Продолжить отправку", - "geminiImageChineseWarning.doNotShowAgain": "Больше не показывать", - "geminiImageChineseWarning.title": "Уведомление о вводе на китайском", "historyRange": "Диапазон истории", "home.suggestQuestions": "Попробуйте эти примеры", "import": "Импорт", @@ -397,6 +392,7 @@ "tab.chat": "Чат", "tab.community": "Сообщество", "tab.discover": "Обзор", + "tab.eval": "Лаборатория оценки", "tab.files": "Файлы", "tab.home": "Главная", "tab.knowledgeBase": "Библиотека", diff --git a/locales/ru-RU/eval.json b/locales/ru-RU/eval.json new file mode 100644 index 0000000000..c9f81577ff --- /dev/null +++ b/locales/ru-RU/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Удалить эталон", + "benchmark.actions.delete.confirm": "Вы уверены, что хотите удалить этот эталон? Связанные наборы данных и записи оценок также будут удалены.", + "benchmark.actions.edit": "Редактировать эталон", + "benchmark.actions.export": "Экспортировать", + "benchmark.card.bestScore": "Лучший", + "benchmark.card.caseCount": "{{count}} случаев", + "benchmark.card.datasetCount": "{{count}} наборов данных", + "benchmark.card.empty": "Оценок пока нет", + "benchmark.card.emptyHint": "Создайте новую оценку на странице деталей эталона", + "benchmark.card.importDataset": "Импортировать набор данных", + "benchmark.card.noDataset": "Наборов данных пока нет", + "benchmark.card.noDatasetHint": "Импортируйте набор данных, чтобы начать оценку", + "benchmark.card.noRecentRuns": "Нет недавних оценок для отображения", + "benchmark.card.recentRuns": "Недавние оценки", + "benchmark.card.runCount": "{{count}} оценок", + "benchmark.card.startFirst": "Начать первую оценку", + "benchmark.card.viewAll": "Просмотреть все {{count}}", + "benchmark.create.confirm": "Создать", + "benchmark.create.description.label": "Описание", + "benchmark.create.description.placeholder": "Описание эталона (необязательно)", + "benchmark.create.error": "Не удалось создать эталон", + "benchmark.create.identifier.label": "Идентификатор", + "benchmark.create.identifier.placeholder": "идентификатор-эталона", + "benchmark.create.identifierRequired": "Пожалуйста, введите идентификатор", + "benchmark.create.name.label": "Название", + "benchmark.create.name.placeholder": "Введите название эталона", + "benchmark.create.nameRequired": "Пожалуйста, введите название эталона", + "benchmark.create.success": "Эталон успешно создан", + "benchmark.create.tags.label": "Теги", + "benchmark.create.tags.placeholder": "Добавьте теги, разделяя их запятой или пробелом", + "benchmark.create.title": "Создать эталон", + "benchmark.detail.backToOverview": "Вернуться к обзору", + "benchmark.detail.datasetCount": "{{count}} набор{{count, plural, one {} other {ов}}} данных в этом эталоне", + "benchmark.detail.runCount": "{{count}} запуск{{count, plural, one {} other {ов}}} оценки для этого эталона", + "benchmark.detail.stats.addFirstDataset": "Нажмите, чтобы добавить первый набор данных", + "benchmark.detail.stats.avgCost": "Средняя стоимость", + "benchmark.detail.stats.avgDuration": "Средняя продолжительность", + "benchmark.detail.stats.basedOnLastNRuns": "На основе последних {{count}} запусков", + "benchmark.detail.stats.bestPerformance": "Лучший результат от {{agent}} с {{passRate}}% успешных прохождений", + "benchmark.detail.stats.bestScore": "Лучший результат", + "benchmark.detail.stats.cases": "Случаи", + "benchmark.detail.stats.dataScale": "Масштаб данных", + "benchmark.detail.stats.datasets": "Наборы данных", + "benchmark.detail.stats.needSetup": "Требуется настройка", + "benchmark.detail.stats.noEvalRecord": "Записей оценок пока нет", + "benchmark.detail.stats.perRun": "/ запуск", + "benchmark.detail.stats.runs": "Запуски", + "benchmark.detail.stats.tags": "Теги", + "benchmark.detail.stats.topAgents": "Лучшие агенты", + "benchmark.detail.stats.totalCases": "Всего случаев", + "benchmark.detail.stats.waiting": "Ожидание...", + "benchmark.detail.tabs.data": "Данные", + "benchmark.detail.tabs.datasets": "Наборы данных", + "benchmark.detail.tabs.runs": "Запуски", + "benchmark.edit.confirm": "Сохранить", + "benchmark.edit.error": "Не удалось обновить эталон", + "benchmark.edit.success": "Эталон успешно обновлен", + "benchmark.edit.title": "Редактировать эталон", + "benchmark.empty": "Эталонов пока нет. Создайте один, чтобы начать.", + "caseDetail.actual": "Фактический результат", + "caseDetail.chatArea.title": "Диалог", + "caseDetail.completionReason": "Статус", + "caseDetail.cost": "Стоимость", + "caseDetail.difficulty": "Сложность", + "caseDetail.duration": "Продолжительность", + "caseDetail.expected": "Ожидаемый результат", + "caseDetail.failureReason": "Причина неудачи", + "caseDetail.input": "Ввод", + "caseDetail.judgeComment": "Комментарий судьи", + "caseDetail.resources": "Ресурсы", + "caseDetail.score": "Оценка", + "caseDetail.section.runtime": "Время выполнения", + "caseDetail.section.scoring": "Детали оценки", + "caseDetail.section.testCase": "Тестовый случай", + "caseDetail.steps": "Шаги", + "caseDetail.threads.attempt": "Траектория №{{number}}", + "caseDetail.tokens": "Использование токенов", + "common.cancel": "Отмена", + "common.create": "Создать", + "common.delete": "Удалить", + "common.edit": "Редактировать", + "common.later": "Позже", + "common.next": "Далее", + "common.update": "Обновить", + "dataset.actions.addDataset": "Добавить набор данных", + "dataset.actions.import": "Импортировать данные", + "dataset.actions.importDataset": "Импортировать набор данных", + "dataset.create.description.label": "Описание", + "dataset.create.description.placeholder": "Описание набора данных (необязательно)", + "dataset.create.error": "Не удалось создать набор данных", + "dataset.create.identifier.label": "Идентификатор", + "dataset.create.identifier.placeholder": "идентификатор-набора-данных", + "dataset.create.identifierRequired": "Пожалуйста, введите идентификатор", + "dataset.create.importNow": "Хотите импортировать данные сейчас?", + "dataset.create.name.label": "Название набора данных", + "dataset.create.name.placeholder": "Введите название набора данных", + "dataset.create.nameRequired": "Пожалуйста, введите название набора данных", + "dataset.create.preset.label": "Пресет набора данных", + "dataset.create.success": "Набор данных успешно создан", + "dataset.create.successTitle": "Набор данных создан", + "dataset.create.title": "Создать набор данных", + "dataset.delete.confirm": "Вы уверены, что хотите удалить этот набор данных? Все тестовые случаи в нем также будут удалены.", + "dataset.delete.error": "Не удалось удалить набор данных", + "dataset.delete.success": "Набор данных успешно удален", + "dataset.detail.addRun": "Новый запуск", + "dataset.detail.backToBenchmark": "Вернуться к эталону", + "dataset.detail.caseCount": "{{count}} тестовый случай{{count, plural, one {} other {ев}}}", + "dataset.detail.relatedRuns": "Связанные запуски ({{count}})", + "dataset.detail.testCases": "Тестовые случаи", + "dataset.detail.viewDetail": "Просмотреть детали", + "dataset.edit.error": "Не удалось обновить набор данных", + "dataset.edit.success": "Набор данных успешно обновлен", + "dataset.edit.title": "Редактировать набор данных", + "dataset.empty": "Нет наборов данных", + "dataset.empty.description": "Импортируйте набор данных, чтобы начать создавать этот эталон", + "dataset.empty.title": "Наборов данных пока нет", + "dataset.evalMode.hint": "Режим оценки по умолчанию для набора данных, может быть переопределен на уровне тестового случая", + "dataset.import.category": "Категория", + "dataset.import.categoryDesc": "Классификационная метка для группировки", + "dataset.import.choices": "Варианты", + "dataset.import.choicesDesc": "Варианты для выбора", + "dataset.import.confirm": "Импортировать", + "dataset.import.error": "Не удалось импортировать набор данных", + "dataset.import.expected": "Ожидаемый ответ", + "dataset.import.expectedDelimiter": "Разделитель ответов", + "dataset.import.expectedDelimiter.desc": "Разделитель ответов", + "dataset.import.expectedDelimiter.placeholder": "например, | или ,", + "dataset.import.expectedDesc": "Правильный ответ для сравнения", + "dataset.import.fieldMapping": "Сопоставление полей", + "dataset.import.fieldMapping.desc": "Столбец \"Ввод\" обязателен", + "dataset.import.hideSkipped": "Скрыть пропущенные столбцы", + "dataset.import.ignore": "Пропустить", + "dataset.import.ignoreDesc": "Не импортировать этот столбец", + "dataset.import.input": "Ввод", + "dataset.import.inputDesc": "Вопрос или запрос, отправленный модели", + "dataset.import.metadata": "Метаданные", + "dataset.import.metadataDesc": "Дополнительная информация, сохраняется как есть", + "dataset.import.next": "Далее", + "dataset.import.parseError": "Не удалось разобрать файл", + "dataset.import.parsing": "Разбор файла...", + "dataset.import.prev": "Назад", + "dataset.import.preview": "Предварительный просмотр данных", + "dataset.import.preview.desc": "Подтвердите правильность сопоставления, затем импортируйте.", + "dataset.import.preview.rows": "Всего {{count}} строк", + "dataset.import.sortOrder": "Номер элемента", + "dataset.import.sortOrderDesc": "Идентификатор вопроса/элемента для справки", + "dataset.import.step.mapping": "Сопоставить поля", + "dataset.import.step.preview": "Предпросмотр", + "dataset.import.step.upload": "Загрузить файл", + "dataset.import.success": "Успешно импортировано {{count}} тестовых случаев", + "dataset.import.title": "Импортировать набор данных", + "dataset.import.upload.hint": "Поддерживаются форматы CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Нажмите или перетащите файл сюда для загрузки", + "dataset.import.uploading": "Загрузка...", + "dataset.switchDataset": "Сменить набор данных", + "difficulty.easy": "Легкий", + "difficulty.hard": "Сложный", + "difficulty.medium": "Средний", + "evalMode.contains": "Содержит совпадение", + "evalMode.contains.desc": "Вывод должен содержать ожидаемый текст", + "evalMode.equals": "Точное совпадение", + "evalMode.equals.desc": "Вывод должен быть точно таким же, как ожидаемый", + "evalMode.label": "Режим оценки", + "evalMode.llm-rubric": "Судья LLM", + "evalMode.llm-rubric.desc": "Используйте LLM для оценки качества вывода", + "evalMode.placeholder": "Выберите режим оценки", + "evalMode.prompt.label": "Запрос судьи", + "evalMode.prompt.placeholder": "Введите критерии оценки или запрос для судьи LLM", + "evalMode.rubric": "Оценка по критериям", + "evalMode.rubric.desc": "Оцените вывод с использованием эталонных критериев с весовыми коэффициентами", + "overview.createBenchmark": "Создать эталон", + "overview.importDataset": "Импортировать набор данных", + "overview.subtitle": "Эталонируйте и оценивайте своих AI-агентов на различных наборах данных", + "overview.title": "Лаборатория оценок", + "run.actions.abort": "Прервать", + "run.actions.abort.confirm": "Вы уверены, что хотите прервать эту оценку?", + "run.actions.create": "Новая оценка", + "run.actions.delete": "Удалить", + "run.actions.delete.confirm": "Вы уверены, что хотите удалить эту оценку?", + "run.actions.edit": "Редактировать", + "run.actions.retryCase": "Повторить", + "run.actions.retryErrors": "Повторить ошибки", + "run.actions.retryErrors.confirm": "Это повторно запустит все случаи с ошибками и тайм-аутами. Успешные и неудачные случаи не будут затронуты.", + "run.actions.run": "Запустить", + "run.actions.start": "Начать", + "run.actions.start.confirm": "Вы уверены, что хотите начать эту оценку?", + "run.chart.duration": "Продолжительность (с)", + "run.chart.error": "Ошибка", + "run.chart.fail": "Неудача", + "run.chart.latencyDistribution": "Распределение задержек", + "run.chart.latencyTokenDistribution": "Задержка / Токены", + "run.chart.pass": "Успех", + "run.chart.passFailError": "Успех / Неудача / Ошибка", + "run.chart.tokens": "Токены", + "run.config.agentId": "Агент", + "run.config.concurrency": "Параллельность", + "run.config.judgeModel": "Модель судьи", + "run.config.k": "Исполнения (K)", + "run.config.k.hint": "Запустите каждый тестовый случай {{k}} раз для метрик pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Максимум шагов", + "run.config.maxSteps.hint": "Каждый вызов LLM или инструментом агентом считается за 1 шаг", + "run.config.model": "Модель", + "run.config.temperature": "Температура", + "run.config.timeout": "Тайм-аут", + "run.config.timeout.unit": "мин", + "run.create.advanced": "Расширенные настройки", + "run.create.agent": "Агент", + "run.create.agent.placeholder": "Выберите агента", + "run.create.agent.required": "Пожалуйста, выберите агента", + "run.create.caseCount": "{{count}} случаев", + "run.create.confirm": "Создать и начать", + "run.create.createOnly": "Создать", + "run.create.dataset": "Набор данных", + "run.create.dataset.placeholder": "Выберите набор данных", + "run.create.dataset.required": "Пожалуйста, выберите набор данных", + "run.create.name": "Название запуска", + "run.create.name.placeholder": "Введите название для этого запуска", + "run.create.name.required": "Пожалуйста, введите название запуска", + "run.create.name.useTimestamp": "Использовать текущее время как название", + "run.create.openAgent": "Открыть агента в новом окне", + "run.create.title": "Новая оценка", + "run.create.titleWithDataset": "Новая оценка на \"{{dataset}}\"", + "run.detail.agent": "Агент", + "run.detail.agent.none": "Не указан", + "run.detail.agent.unnamed": "Безымянный агент", + "run.detail.backToBenchmark": "Вернуться к эталону", + "run.detail.caseResults": "Детали оценки", + "run.detail.config": "Конфигурация оценки", + "run.detail.configSnapshot": "Снимок конфигурации", + "run.detail.dataset": "Набор данных", + "run.detail.model": "Модель", + "run.detail.overview": "Обзор", + "run.detail.progress": "Прогресс", + "run.detail.progressCases": "случаев", + "run.detail.report": "Сводка оценки", + "run.edit.error": "Не удалось обновить оценку", + "run.edit.success": "Оценка успешно обновлена", + "run.edit.title": "Редактировать оценку", + "run.empty.description": "Начните первый запуск оценки на этом наборе данных", + "run.empty.descriptionBenchmark": "Начните первый запуск оценки на этом эталоне", + "run.empty.title": "Запусков пока нет", + "run.filter.active": "Активные", + "run.filter.empty": "Нет запусков, соответствующих текущему фильтру.", + "run.idle.hint": "Нажмите \"Начать\", чтобы начать оценку", + "run.metrics.avgScore": "Средняя оценка", + "run.metrics.cost": "Стоимость", + "run.metrics.duration": "Продолжительность", + "run.metrics.errorCases": "Ошибки", + "run.metrics.evaluated": "{{count}} оценено", + "run.metrics.passRate": "Процент успешных", + "run.metrics.perCase": "/ случай", + "run.metrics.tokens": "Токены", + "run.metrics.totalDuration": "Суммарная", + "run.pending.hint": "Оценка в очереди, ожидает начала...", + "run.running.hint": "Оценка выполняется, результаты появятся в ближайшее время...", + "run.status.aborted": "Прервано", + "run.status.completed": "Завершено", + "run.status.error": "Ошибка запуска", + "run.status.failed": "Неудача", + "run.status.idle": "Ожидание", + "run.status.pending": "В ожидании", + "run.status.running": "Выполняется", + "run.status.timeout": "Тайм-аут", + "sidebar.benchmarks": "Эталоны", + "sidebar.dashboard": "Панель управления", + "sidebar.datasets": "Наборы данных", + "sidebar.runs": "Запуски", + "table.columns.avgCost": "Средняя стоимость", + "table.columns.category": "Категория", + "table.columns.cost": "Стоимость", + "table.columns.difficulty": "Сложность", + "table.columns.duration": "Продолжительность", + "table.columns.evalMode": "Режим оценки", + "table.columns.expected": "Ожидаемый ответ", + "table.columns.input": "Ввод", + "table.columns.score": "Оценка", + "table.columns.status": "Статус", + "table.columns.steps": "Шаги", + "table.columns.tags": "Теги", + "table.columns.tokens": "Токены", + "table.columns.totalCost": "Общая стоимость", + "table.filter.all": "Все", + "table.filter.error": "Ошибка запуска", + "table.filter.failed": "Неудача", + "table.filter.passed": "Успешно", + "table.filter.running": "Выполняется", + "table.search.placeholder": "Поиск случаев...", + "table.total": "Всего {{count}}", + "testCase.actions.add": "Добавить тестовый случай", + "testCase.actions.import": "Импортировать тестовые случаи", + "testCase.create.advanced": "Дополнительные параметры", + "testCase.create.difficulty.label": "Сложность", + "testCase.create.error": "Не удалось добавить тестовый случай", + "testCase.create.expected.label": "Ожидаемый результат", + "testCase.create.expected.placeholder": "Введите ожидаемый ответ", + "testCase.create.expected.required": "Пожалуйста, введите ожидаемый результат", + "testCase.create.input.label": "Ввод", + "testCase.create.input.placeholder": "Введите ввод или вопрос для тестового случая", + "testCase.create.success": "Тестовый случай успешно добавлен", + "testCase.create.tags.label": "Теги", + "testCase.create.tags.placeholder": "Теги, разделенные запятой (необязательно)", + "testCase.create.title": "Добавить тестовый случай", + "testCase.delete.confirm": "Вы уверены, что хотите удалить этот тестовый случай?", + "testCase.delete.error": "Не удалось удалить тестовый случай", + "testCase.delete.success": "Тестовый случай удален", + "testCase.edit.error": "Не удалось обновить тестовый случай", + "testCase.edit.success": "Тестовый случай успешно обновлен", + "testCase.edit.title": "Редактировать тестовый случай", + "testCase.empty.description": "Импортируйте или добавьте тестовые случаи вручную в этот набор данных", + "testCase.empty.title": "Тестовых случаев пока нет", + "testCase.preview.expected": "Ожидаемый", + "testCase.preview.input": "Ввод", + "testCase.preview.title": "Предпросмотр тестового случая", + "testCase.search.placeholder": "Поиск случаев..." +} diff --git a/locales/ru-RU/home.json b/locales/ru-RU/home.json index 01051d1bb1..0155ea5f84 100644 --- a/locales/ru-RU/home.json +++ b/locales/ru-RU/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Глубокое исследование", "starter.developing": "Скоро появится", "starter.image": "Изображение", + "starter.nanoBanana2": "🍌 Нано Банан 2", "starter.seedance": "Seedance 2.0", "starter.write": "Написать" } diff --git a/locales/ru-RU/modelProvider.json b/locales/ru-RU/modelProvider.json index c71fc97ee1..05181f07c5 100644 --- a/locales/ru-RU/modelProvider.json +++ b/locales/ru-RU/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Для серии Gemini; управляет бюджетом на размышления.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Для моделей Gemini 3 Flash Preview; управляет глубиной размышлений.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Для моделей Gemini 3 Pro Preview; управляет глубиной размышлений.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Для моделей Gemini 3.1 Pro Preview; управляет глубиной мышления с низким/средним/высоким уровнями.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Для серии Gemini; поддерживает предоставление контекста по URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Выберите параметры для активации", "providerModels.item.modelConfig.extendParams.previewFallback": "Предпросмотр недоступен", diff --git a/locales/ru-RU/models.json b/locales/ru-RU/models.json index 9dd7af3a4a..c7409d8d3a 100644 --- a/locales/ru-RU/models.json +++ b/locales/ru-RU/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo обеспечивает высокую вычислительную и диалоговую производительность с отличным пониманием семантики и эффективной генерацией, идеально подходит для бизнеса и разработчиков.", "360gpt2-o1.description": "360gpt2-o1 формирует цепочку рассуждений с помощью древовидного поиска, механизма рефлексии и обучения с подкреплением, позволяя модели к саморефлексии и самокоррекции.", "360gpt2-pro.description": "360GPT2 Pro — продвинутая модель обработки естественного языка от 360 с выдающимися возможностями генерации и понимания текста, особенно в творческих задачах, включая сложные преобразования и ролевые сценарии.", + "360zhinao2-o1.5.description": "360 Zhinao — самая мощная модель рассуждений, обладающая сильнейшими возможностями и поддерживающая как вызов инструментов, так и продвинутые рассуждения.", "360zhinao2-o1.description": "360zhinao2-o1 формирует цепочку рассуждений с помощью древовидного поиска, механизма рефлексии и обучения с подкреплением, позволяя модели к саморефлексии и самокоррекции.", + "360zhinao3-o1.5.description": "360 Zhinao — модель рассуждений следующего поколения.", "4.0Ultra.description": "Spark Ultra — самая мощная модель в серии Spark, улучшает понимание текста и его резюмирование, а также расширяет возможности веб-поиска. Это комплексное решение для повышения продуктивности на рабочем месте и точности ответов, позиционирующееся как передовой интеллектуальный продукт.", "AnimeSharp.description": "AnimeSharp (также известная как \"4x-AnimeSharp\") — это открытая модель суперразрешения на основе ESRGAN от Kim2091, предназначенная для увеличения и повышения резкости изображений в аниме-стиле. В феврале 2022 года была переименована из \"4x-TextSharpV1\"; изначально также предназначалась для текстовых изображений, но была глубоко оптимизирована под аниме-контент.", "Baichuan2-Turbo.description": "Использует расширение поиска для подключения модели к отраслевым и веб-знаниям. Поддерживает загрузку PDF/Word и ввод URL для своевременного, всестороннего поиска и профессионального, точного вывода.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision — это передовая мультимодальная модель, демонстрирующая высокие результаты на ключевых языковых, текстовых и визуальных бенчмарках. Версия с 8 миллиардами параметров ориентирована на низкую задержку и высокую производительность.", "charglm-3.description": "CharGLM-3 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.", "charglm-4.description": "CharGLM-4 создана для ролевых игр и эмоционального общения, поддерживает сверхдолгую многотуровую память и персонализированный диалог.", - "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель с обновлением в реальном времени, сочетающая сильное понимание и генерацию для масштабных сценариев, таких как поддержка клиентов, образование и техническая помощь.", + "chatgpt-4o-latest.description": "ChatGPT-4o — это динамическая модель, обновляемая в реальном времени. Она сочетает в себе мощное понимание языка и генерацию для масштабных сценариев использования, таких как поддержка клиентов, образование и техническая помощь.", "claude-2.0.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.", "claude-2.1.description": "Claude 2 предлагает ключевые улучшения для бизнеса, включая контекст до 200 тысяч токенов, снижение галлюцинаций, системные подсказки и новую функцию тестирования — вызов инструментов.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku — самая быстрая модель нового поколения от Anthropic, улучшенная по множеству навыков и превосходящая предыдущий флагман Claude 3 Opus по многим показателям.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) — инновационная модель с глубоким пониманием языка и возможностью взаимодействия.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 — модель нового поколения для рассуждений, обладающая улучшенными возможностями для сложных рассуждений и цепочек размышлений, подходящая для задач глубокого анализа.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 — это модель рассуждений следующего поколения с улучшенными возможностями сложных рассуждений и цепочки размышлений.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 — модель визуально-языкового типа MoE на базе DeepSeekMoE-27B с разреженной активацией, достигающая высокой производительности при использовании всего 4.5B активных параметров. Отличается в задачах визуального QA, OCR, понимания документов/таблиц/диаграмм и визуального связывания.", "deepseek-chat.description": "DeepSeek V3.2 сочетает логическое мышление и длину вывода для повседневных задач вопросов-ответов и работы агентов. На публичных бенчмарках достигает уровня GPT-5 и первым интегрирует мышление в использование инструментов, лидируя в оценках среди open-source агентов.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B — языковая модель для программирования, обученная на 2 триллионах токенов (87% кода, 13% китайского/английского текста). Поддерживает контекстное окно 16K и задачи заполнения в середине, обеспечивая автодополнение на уровне проекта и вставку фрагментов кода.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 — гибридная модель логического вывода нового поколения от DeepSeek, поддерживающая режимы с мышлением и без, с более высокой эффективностью мышления по сравнению с DeepSeek-R1-0528. Оптимизации после обучения значительно улучшают использование инструментов агентами и выполнение задач. Поддерживает окно контекста 128k и до 64k выходных токенов.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 — модель логического вывода следующего поколения с улучшенным сложным мышлением и цепочкой рассуждений, подходящая для задач, требующих глубокого анализа.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp внедряет разреженное внимание для повышения эффективности обучения и вывода на длинных текстах по более низкой цене, чем deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "На высоко сложных задачах модель Speciale значительно превосходит стандартную версию, но потребляет значительно больше токенов и обходится дороже. В настоящее время DeepSeek-V3.2-Speciale предназначена только для исследовательского использования, не поддерживает вызов инструментов и не оптимизирована специально для повседневных разговоров или задач письма.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think — полноценная модель глубокого мышления с усиленным длинноцепочечным рассуждением.", "deepseek-v3.2.description": "DeepSeek-V3.2 — первая гибридная модель рассуждения от DeepSeek, интегрирующая мышление в использование инструментов. Использует эффективную архитектуру для снижения вычислительных затрат, масштабное обучение с подкреплением для повышения возможностей и синтетические задачи для лучшей обобщаемости. Эта комбинация обеспечивает производительность, сопоставимую с GPT-5-High, при значительно меньшей длине вывода, что снижает нагрузку и время ожидания пользователя.", "deepseek-v3.description": "DeepSeek-V3 — мощная модель MoE с 671B общих параметров и 37B активных на токен.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям. Поддерживает контекстное окно 128k и до 16k токенов вывода.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro — обновлённая мультимодальная модель, поддерживающая изображения любого разрешения и экстремальных соотношений сторон, улучшая визуальное рассуждение, распознавание документов, понимание деталей и следование инструкциям.", - "doubao-lite-128k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагая более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 128k.", "doubao-lite-32k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагая более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 32k.", - "doubao-lite-4k.description": "Ультрабыстрый отклик с лучшей ценностью, предлагая более гибкие варианты для различных сценариев. Поддерживает рассуждение и дообучение с контекстным окном 4k.", - "doubao-pro-256k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах по справочным данным, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 256k.", "doubao-pro-32k.description": "Флагманская модель с наилучшей производительностью для сложных задач, демонстрирующая отличные результаты в вопросах по справочным данным, суммировании, создании контента, классификации текста и ролевых играх. Поддерживает рассуждение и дообучение с контекстным окном 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash — ультрабыстрая мультимодальная модель глубокого рассуждения с TPOT до 10 мс. Поддерживает текст и изображения, превосходит предыдущую lite-модель в понимании текста и сопоставима с pro-моделями в области зрения. Поддерживает контекстное окно 256k и до 16k токенов вывода.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite — новая мультимодальная модель глубокого рассуждения с регулируемой степенью рассуждения (минимальная, низкая, средняя, высокая), обеспечивающая лучшую ценность и отличный выбор для повседневных задач. Поддерживает контекст до 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Модель изображений Doubao от ByteDance Seed поддерживает ввод текста и изображений с высококачественной и управляемой генерацией изображений. Поддерживает редактирование изображений по тексту с размерами вывода от 512 до 1536 по длинной стороне.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной и управляемой генерацией. Генерирует изображения по текстовым подсказкам.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 — модель генерации изображений от ByteDance Seed, поддерживающая ввод текста и изображений с высококачественной и управляемой генерацией. Генерирует изображения по текстовым подсказкам.", - "doubao-vision-lite-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и логикой, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального рассуждения, расширяя возможности визуальных вопросов и ответов.", - "doubao-vision-pro-32k.description": "Doubao-vision — мультимодальная модель от Doubao с сильным пониманием изображений и логикой, а также точным следованием инструкциям. Отлично справляется с извлечением информации из изображений и задачами визуального рассуждения, расширяя возможности визуальных вопросов и ответов.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 — это последняя мультимодальная модель изображений от ByteDance, объединяющая возможности преобразования текста в изображение, изображения в изображение и пакетной генерации изображений, а также включающая здравый смысл и способности к рассуждению. По сравнению с предыдущей версией 4.0, она обеспечивает значительно улучшенное качество генерации, лучшую согласованность редактирования и слияние нескольких изображений. Модель предлагает более точный контроль над визуальными деталями, естественно воспроизводя мелкий текст и лица, а также достигает более гармоничного макета и цветовой палитры, улучшая общую эстетику.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite — это последняя модель генерации изображений от ByteDance. Впервые она интегрирует возможности онлайн-поиска, что позволяет использовать информацию в реальном времени и улучшать актуальность создаваемых изображений. Интеллект модели также был обновлен, что позволяет точно интерпретировать сложные инструкции и визуальный контент. Кроме того, она предлагает улучшенное покрытие глобальных знаний, согласованность ссылок и качество генерации в профессиональных сценариях, лучше удовлетворяя потребности корпоративного визуального творчества.", "emohaa.description": "Emohaa — модель для поддержки психического здоровья с профессиональными навыками консультирования, помогающая пользователям разобраться в эмоциональных проблемах.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B — легковесная модель с открытым исходным кодом для локального и кастомизированного развертывания.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking — это текстовая модель MoE (смесь экспертов) с общим количеством параметров 21B и активными параметрами 3B, обеспечивающая значительно улучшенное качество и глубину рассуждений.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B — крупная модель с открытым исходным кодом, обладающая улучшенными возможностями понимания и генерации.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B — сверхкрупная модель MoE от Baidu ERNIE с выдающимися способностями к рассуждению.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview — модель с контекстом 8K для предварительной оценки возможностей ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K — легковесная высокопроизводительная модель для сценариев с чувствительностью к задержке и стоимости.", "ernie-novel-8k.description": "ERNIE Novel 8K предназначена для написания длинных романов и IP-сюжетов с участием нескольких персонажей.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K — модель с высокой пропускной способностью и ценностью для масштабных онлайн-сервисов и корпоративных приложений.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview — это модель быстрого мышления с контекстом 32K для сложных рассуждений и многократных диалогов.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K — быстрая модель мышления с контекстом 32K для сложного рассуждения и многотурового общения.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview — предварительная версия модели мышления для оценки и тестирования.", + "ernie-x1.1.description": "ERNIE X1.1 — это предварительная версия модели мышления для оценки и тестирования.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, разработанная командой ByteDance Seed, поддерживает редактирование и компоновку нескольких изображений. Обеспечивает улучшенную согласованность объектов, точное следование инструкциям, понимание пространственной логики, эстетическое выражение, макет постеров и дизайн логотипов с высокоточной визуализацией текста и изображений.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, разработанная ByteDance Seed, поддерживает ввод текста и изображений для высококачественной генерации изображений с высокой степенью управляемости.", "fal-ai/flux-kontext/dev.description": "Модель FLUX.1, ориентированная на редактирование изображений, поддерживает ввод текста и изображений.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Предварительный выпуск (25 сентября 2025 г.) модели Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite — самая компактная и экономичная модель от Google, предназначенная для масштабного использования.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview — самая выгодная модель от Google с полным набором возможностей.", - "gemini-2.5-flash-preview-09-2025.description": "Предварительный выпуск (25 сентября 2025 г.) модели Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash — самая выгодная модель от Google с полным набором возможностей.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview — самая продвинутая модель рассуждения от Google, способная анализировать код, математику и задачи STEM, а также обрабатывать большие наборы данных, кодовые базы и документы с длинным контекстом.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google с поддержкой мультимодального диалога.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) — модель генерации изображений от Google, также поддерживающая мультимодальный чат.", "gemini-3-pro-preview.description": "Gemini 3 Pro — самая мощная агентная модель от Google с поддержкой визуализации и глубокой интерактивности, основанная на передовых возможностях рассуждения.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) обеспечивает профессиональное качество изображений на высокой скорости с поддержкой мультимодального чата.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) обеспечивает профессиональное качество изображений на высокой скорости с поддержкой мультимодального чата.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview улучшает Gemini 3 Pro с расширенными возможностями рассуждений и добавляет поддержку среднего уровня мышления.", "gemini-flash-latest.description": "Последний выпуск Gemini Flash", "gemini-flash-lite-latest.description": "Последний выпуск Gemini Flash-Lite", "gemini-pro-latest.description": "Последний выпуск Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus понимает видео и несколько изображений, подходит для мультимодальных задач.", "glm-4v-plus.description": "GLM-4V-Plus понимает видео и несколько изображений, подходит для мультимодальных задач.", "glm-4v.description": "GLM-4V обеспечивает высокое качество понимания изображений и логического вывода в визуальных задачах.", - "glm-5.description": "Мощная модель рассуждения и агентности от Z.ai с общим количеством параметров 744B (40B активных), созданная для сложной системной инженерии и долгосрочных задач.", + "glm-5.description": "Серия GLM — это гибридная модель рассуждений от Zhipu AI, созданная для агентов, с режимами мышления и без мышления.", "glm-z1-air.description": "Модель логического вывода с высокой точностью для задач, требующих глубокого анализа.", "glm-z1-airx.description": "Ультрабыстрая модель логического вывода с высоким качеством рассуждений.", "glm-z1-flash.description": "Серия GLM-Z1 обеспечивает мощный логический вывод, особенно в задачах логики, математики и программирования.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Мы рады представить Grok 4 Fast — наш последний прогресс в области экономичных моделей рассуждения.", "grok-4.description": "Наша новейшая и самая мощная флагманская модель, превосходящая в НЛП, математике и логике — идеальный универсал.", "grok-code-fast-1.description": "Мы рады представить grok-code-fast-1 — быструю и экономичную модель рассуждения, превосходную в агентном программировании.", + "grok-imagine-image-pro.description": "Создавайте изображения из текстовых подсказок, редактируйте существующие изображения с помощью естественного языка или итеративно улучшайте изображения через многократные диалоги.", + "grok-imagine-image.description": "Создавайте изображения из текстовых подсказок, редактируйте существующие изображения с помощью естественного языка или итеративно улучшайте изображения через многократные диалоги.", "groq/compound-mini.description": "Compound-mini — это составная ИИ-система, работающая на базе общедоступных моделей в GroqCloud, которая интеллектуально и избирательно использует инструменты для ответа на запросы пользователей.", "groq/compound.description": "Compound — это составная ИИ-система, работающая на базе нескольких общедоступных моделей в GroqCloud, которая интеллектуально и избирательно использует инструменты для ответа на запросы пользователей.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B — это креативная и интеллектуальная языковая модель, объединяющая лучшие качества нескольких топовых моделей.", + "hunyuan-2.0-instruct-20251111.description": "Особенности выпуска: базовая модель была обновлена с TurboS до **Hunyuan 2.0**, что привело к всестороннему улучшению возможностей. Она значительно улучшает следование инструкциям, понимание многократных и длинных текстов, литературное творчество, точность знаний, кодирование и способности к рассуждению.", + "hunyuan-2.0-thinking-20251109.description": "Особенности выпуска: базовая модель была обновлена с TurboS до **Hunyuan 2.0**, что привело к всестороннему улучшению возможностей. Она значительно улучшает способность модели следовать сложным инструкциям, понимать многократные и длинные тексты, работать с кодом, функционировать как агент и выполнять задачи рассуждений.", "hunyuan-a13b.description": "Первая гибридная модель рассуждения от Hunyuan, улучшенная версия hunyuan-standard-256K (всего 80B, активных 13B). По умолчанию использует медленное мышление, поддерживает переключение между быстрым и медленным режимами через параметры или префикс /no_think. Общие возможности улучшены по сравнению с предыдущим поколением, особенно в математике, науке, понимании длинных текстов и задачах агентов.", - "hunyuan-code.description": "Новейшая модель генерации кода, обученная на 200B высококачественного кода и шести месяцах SFT; контекст расширен до 8K. Лидирует в автоматических тестах по пяти языкам и в человеческих оценках по десяти критериям.", - "hunyuan-functioncall.description": "Новейшая модель MoE FunctionCall, обученная на высококачественных данных вызова функций, с контекстным окном 32K и лидирующими результатами в различных метриках.", - "hunyuan-large-longcontext.description": "Отлично справляется с задачами на длинные документы, такими как суммирование и ответы на вопросы, а также с общей генерацией. Сильна в анализе и генерации длинных текстов со сложным содержанием.", - "hunyuan-large-vision.description": "Модель визуально-языкового понимания, обученная на базе Hunyuan Large. Поддерживает ввод нескольких изображений и текста в любом разрешении, улучшает мультиязычное визуальное понимание.", - "hunyuan-large.description": "Hunyuan-large содержит ~389B общих параметров и ~52B активных — крупнейшая и самая мощная открытая модель MoE в архитектуре Transformer.", - "hunyuan-lite-vision.description": "Новейшая мультимодальная модель на 7B с контекстом 32K, поддерживающая мультимодальный чат на китайском и английском, распознавание объектов, понимание таблиц и мультимодальную математику, превосходящая аналоги на 7B по многим метрикам.", + "hunyuan-code.description": "Последняя модель кода Hunyuan, обученная на 200B высококачественных данных кода плюс шесть месяцев данных SFT, с контекстом 8K. Она занимает лидирующие позиции в автоматизированных тестах кода и экспертных оценках на пяти языках.", + "hunyuan-functioncall.description": "Последняя модель MoE FunctionCall от Hunyuan, обученная на высококачественных данных вызова инструментов, с окном контекста 32K и ведущими показателями по различным измерениям.", "hunyuan-lite.description": "Обновлена до архитектуры MoE с контекстом 256K, опережает многие открытые модели в NLP, коде, математике и отраслевых тестах.", "hunyuan-pro.description": "Модель MoE с триллионом параметров и контекстом 32K, лидирующая в тестах, сильна в сложных инструкциях и рассуждениях, продвинутой математике, вызове функций и оптимизирована для перевода, финансов, права и медицины.", - "hunyuan-role.description": "Новейшая ролевая модель, официально дообученная на ролевых датасетах, обеспечивающая более высокую базовую производительность в ролевых сценариях.", - "hunyuan-standard-256K.description": "Использует улучшенную маршрутизацию для устранения дисбаланса нагрузки и коллапса экспертов. Достигает 99.9% точности в задаче «иголка в стоге сена» на длинном контексте. MOE-256K расширяет длину и качество контекста.", - "hunyuan-standard-vision.description": "Новейшая мультимодальная модель с мультиязычными ответами и сбалансированными возможностями на китайском и английском языках.", - "hunyuan-standard.description": "Использует улучшенную маршрутизацию для устранения дисбаланса нагрузки и коллапса экспертов. Достигает 99.9% точности в задаче «иголка в стоге сена» на длинном контексте. MOE-32K обеспечивает высокую ценность при работе с длинными входами.", - "hunyuan-t1-20250321.description": "Формирует сбалансированные гуманитарные и технические навыки с сильным захватом информации из длинных текстов. Поддерживает рассуждения по математике, логике, науке и программированию на разных уровнях сложности.", - "hunyuan-t1-20250403.description": "Улучшает генерацию кода на уровне проектов и качество письма, усиливает понимание тем в нескольких репликах и следование инструкциям B2B, улучшает понимание слов и снижает смешение упрощённого/традиционного китайского и китайско-английского вывода.", - "hunyuan-t1-20250529.description": "Улучшает креативное письмо и сочинение, усиливает фронтенд-кодинг, математику и логическое рассуждение, а также следование инструкциям.", - "hunyuan-t1-20250711.description": "Значительно улучшает сложную математику, логику и программирование, повышает стабильность вывода и усиливает работу с длинными текстами.", + "hunyuan-role.description": "Последняя модель ролевой игры Hunyuan, официально дообученная на данных ролевой игры, обеспечивающая более сильную базовую производительность в сценариях ролевой игры.", + "hunyuan-standard-256K.description": "Использует улучшенную маршрутизацию для смягчения дисбаланса нагрузки и коллапса экспертов. Длинные тексты \"иголка в стоге сена\" достигают 99.9%. MOE-256K продвигает длину и качество дальше, значительно расширяя длину ввода.", + "hunyuan-standard.description": "Использует улучшенную маршрутизацию для смягчения дисбаланса нагрузки и коллапса экспертов. Длинные тексты \"иголка в стоге сена\" достигают 99.9%. MOE-32K предлагает лучшее соотношение цены и качества для длинных текстов.", "hunyuan-t1-latest.description": "Существенно улучшает модель медленного мышления в сложной математике, рассуждениях, трудном программировании, следовании инструкциям и качестве креативного письма.", - "hunyuan-t1-vision-20250619.description": "Новейшая мультимодальная модель глубокого рассуждения t1-vision с нативной цепочкой мыслей, значительно улучшенная по сравнению с предыдущей версией по умолчанию.", "hunyuan-t1-vision-20250916.description": "Новейшая модель глубокого рассуждения t1-vision с серьёзными улучшениями в VQA, визуальной привязке, OCR, графиках, решении задач по фото и создании изображений, а также с усиленной поддержкой английского и языков с низкими ресурсами.", - "hunyuan-turbo-20241223.description": "Эта версия усиливает масштабирование инструкций для лучшей обобщаемости, значительно улучшает рассуждения в математике/коде/логике, усиливает понимание слов и улучшает качество письма.", - "hunyuan-turbo-latest.description": "Общие улучшения пользовательского опыта в понимании NLP, письме, чате, QA, переводе и специализированных областях; более человечные ответы, лучшее уточнение неясных намерений, улучшенный разбор слов, более высокое качество креатива и интерактивности, а также более сильные диалоги в несколько реплик.", - "hunyuan-turbo-vision.description": "Флагманская модель визуально-языкового понимания нового поколения с архитектурой MoE, с широкими улучшениями в распознавании, создании контента, QA по знаниям и аналитическом рассуждении.", "hunyuan-turbo.description": "Предварительная версия LLM нового поколения от Hunyuan с новой архитектурой MoE, обеспечивающая более быстрое рассуждение и лучшие результаты, чем hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Унифицирует стиль решения математических задач и усиливает QA по математике в несколько реплик. Стиль письма улучшен для уменьшения «ИИ-подобного» тона и придания изящности.", - "hunyuan-turbos-20250416.description": "Обновлённая база предобучения для лучшего понимания и следования инструкциям; улучшенное соответствие усиливает математику, код, логику и науку; улучшает качество письма, понимание, точность перевода и QA по знаниям; усиливает способности агентов, особенно в понимании нескольких реплик.", - "hunyuan-turbos-20250604.description": "Обновлённая база предобучения с улучшенным письмом и пониманием прочитанного, значительным прогрессом в коде и STEM, а также лучшим следованием сложным инструкциям.", - "hunyuan-turbos-20250926.description": "Улучшено качество предобученных данных и стратегия постобучения, улучшены агенты, английский/языки с низкими ресурсами, следование инструкциям, код и STEM-навыки.", "hunyuan-turbos-latest.description": "Новейшая флагманская модель Hunyuan TurboS с более сильным рассуждением и улучшенным общим пользовательским опытом.", - "hunyuan-turbos-longtext-128k-20250325.description": "Отлично справляется с задачами на длинные документы, такими как суммирование и QA, а также с общей генерацией. Сильна в анализе и генерации длинных текстов со сложным, детализированным содержанием.", - "hunyuan-turbos-role-plus.description": "Новейшая ролевая модель, официально дообученная на ролевых датасетах, обеспечивающая более высокую базовую производительность в ролевых сценариях.", - "hunyuan-turbos-vision-20250619.description": "Новейшая флагманская модель TurboS для визуально-языковых задач с серьёзными улучшениями в распознавании сущностей, QA по знаниям, копирайтинге и решении задач по фото.", - "hunyuan-turbos-vision.description": "Флагманская модель визуально-языкового понимания нового поколения на базе последней версии TurboS, ориентированная на задачи понимания изображений и текста, такие как распознавание сущностей, QA по знаниям, копирайтинг и решение задач по фото.", - "hunyuan-vision-1.5-instruct.description": "Модель быстрого мышления для генерации текста по изображению, созданная на базе TurboS. По сравнению с предыдущей версией значительно улучшена в распознавании изображений, анализе и логическом выводе.", - "hunyuan-vision.description": "Новейшая мультимодальная модель, поддерживающая ввод изображения и текста для генерации текста.", + "hunyuan-vision-1.5-instruct.description": "Быстродействующая модель преобразования изображения в текст, построенная на текстовой базе TurboS, демонстрирующая заметные улучшения по сравнению с предыдущей версией в области базового распознавания изображений и анализа рассуждений.", + "hunyuan-vision.description": "Последняя мультимодальная модель Hunyuan, поддерживающая ввод изображения + текста для генерации текста.", "image-01-live.description": "Модель генерации изображений с высокой детализацией, поддерживает генерацию по тексту и управляемые стили.", "image-01.description": "Новая модель генерации изображений с высокой детализацией, поддерживает генерацию по тексту и по изображению.", "imagen-4.0-fast-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения, версия Fast.", "imagen-4.0-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения.", - "imagen-4.0-generate-preview-06-06.description": "Семейство моделей генерации изображений Imagen 4-го поколения.", "imagen-4.0-ultra-generate-001.description": "Серия моделей генерации изображений Imagen 4-го поколения, версия Ultra.", - "imagen-4.0-ultra-generate-preview-06-06.description": "Вариант Ultra семейства моделей генерации изображений Imagen 4-го поколения.", "inception/mercury-coder-small.description": "Mercury Coder Small идеально подходит для генерации, отладки и рефакторинга кода с минимальной задержкой.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 — третья модель архитектуры Ling 2.0 от команды Bailing компании Ant Group. Это модель MoE с 100 миллиардами параметров, из которых активно только 6.1 миллиарда на токен (4.8 миллиарда без учета эмбеддингов). Несмотря на легкую конфигурацию, она сопоставима или превосходит плотные модели на 40 миллиардов и более крупные MoE-модели по многим метрикам, демонстрируя высокую эффективность благодаря архитектуре и стратегии обучения.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 — компактная высокопроизводительная MoE LLM с 16 миллиардами параметров и только 1.4 миллиарда активных на токен (789 миллионов без эмбеддингов), обеспечивающая очень быструю генерацию. Благодаря эффективной архитектуре MoE и большому объему качественных обучающих данных, она достигает уровня производительности, сопоставимого с плотными моделями до 10 миллиардов и более крупными MoE-моделями.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T — MoE-модель от inclusionAI с триллионом параметров, предназначенная для масштабных задач логического вывода и исследований.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 — вариант модели Ring от inclusionAI для сценариев с высокой пропускной способностью, с акцентом на скорость и экономичность.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 — легковесная MoE-модель от inclusionAI с высокой пропускной способностью, разработана для параллельной обработки.", + "intern-latest.description": "По умолчанию указывает на последнюю выпущенную модель серии Intern, в настоящее время установленную на intern-s1-pro.", + "intern-s1-mini.description": "Легковесная мультимодальная большая модель с сильными научными способностями к рассуждению.", + "intern-s1-pro.description": "Мы запустили нашу самую продвинутую открытую мультимодальную модель рассуждений, которая в настоящее время является лучшей среди открытых мультимодальных больших языковых моделей по общим показателям.", + "intern-s1.description": "Открытая мультимодальная модель рассуждений демонстрирует не только сильные универсальные способности, но и достигает передовых результатов в широком спектре научных задач.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat — открытая модель для чата на базе архитектуры InternLM2. Модель с 7 миллиардами параметров ориентирована на генерацию диалогов с поддержкой китайского и английского языков, использует современные методы обучения для создания плавных и интеллектуальных бесед. Подходит для сценариев, таких как поддержка клиентов и персональные ассистенты.", - "internlm2.5-latest.description": "Поддерживаемые устаревшие модели с отличной и стабильной производительностью после множества итераций. Доступны в версиях 7B и 20B, поддерживают контекст до 1 миллиона токенов, улучшенное следование инструкциям и использование инструментов. По умолчанию используется последняя серия InternLM2.5 (в настоящее время internlm2.5-20b-chat).", - "internlm3-latest.description": "Наша последняя серия моделей с выдающейся производительностью в логическом мышлении, лидирует среди открытых моделей в своем классе. По умолчанию используется последняя серия InternLM3 (в настоящее время internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO — мультимодальная предварительно обученная модель для сложного логического вывода на основе изображений и текста.", - "internvl2.5-latest.description": "InternVL2.5 по-прежнему поддерживается и демонстрирует стабильную высокую производительность. По умолчанию используется последняя версия серии InternVL2.5 (в настоящее время internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B — мультимодальная модель среднего размера, обеспечивающая баланс между производительностью и стоимостью.", "internvl3-1b.description": "InternVL3 1B — легковесная мультимодальная модель для развертывания в условиях ограниченных ресурсов.", "internvl3-38b.description": "InternVL3 38B — крупная открытая мультимодальная модель для высокоточного понимания изображений и текста.", - "internvl3-latest.description": "Наша последняя мультимодальная модель с улучшенным пониманием изображений и текста, а также восприятием длинных последовательностей изображений, сопоставимая с ведущими закрытыми моделями. По умолчанию используется последняя серия InternVL (в настоящее время internvl3-78b).", + "internvl3.5-241b-a28b.description": "Наша недавно выпущенная мультимодальная большая модель обладает улучшенным пониманием изображений и текста, а также способностями к долгосрочному восприятию изображений, достигая производительности, сопоставимой с ведущими закрытыми моделями.", + "internvl3.5-latest.description": "По умолчанию указывает на последнюю модель серии InternVL3.5, в настоящее время установленную на internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG — модель генерации с дополнением через поиск изображений, предназначенная для поиска изображений, извлечения информации из изображений и текста, а также генерации контента.", "jamba-large.description": "Наша самая мощная и продвинутая модель, предназначенная для сложных корпоративных задач с выдающейся производительностью.", "jamba-mini.description": "Самая эффективная модель в своем классе, обеспечивающая баланс между скоростью и качеством при минимальных ресурсах.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 — эффективная большая языковая модель, специально созданная для программирования и агентных рабочих процессов.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 — лёгкая и передовая большая языковая модель, оптимизированная для программирования, агентных рабочих процессов и современного приложения, обеспечивающая более чистый и лаконичный вывод и быструю реакцию.", "minimax/minimax-m2.description": "MiniMax-M2 — высокоэффективная модель, превосходно справляющаяся с программированием и агентными задачами в инженерных сценариях.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 — это компактная, быстрая, экономичная модель MoE, созданная для первоклассного кодирования и производительности агентов.", "minimaxai/minimax-m2.description": "MiniMax-M2 — компактная, быстрая и экономичная модель MoE (230B общих, 10B активных параметров), созданная для высококлассного программирования и агентных задач при сохранении сильного общего интеллекта. Отлично справляется с редактированием нескольких файлов, циклами запуска-кода-исправления, проверкой тестов и сложными цепочками инструментов.", "ministral-3b-latest.description": "Ministral 3B — это флагманская модель edge-класса от Mistral.", "ministral-8b-latest.description": "Ministral 8B — высокоэффективная модель edge-класса от Mistral с оптимальным соотношением цена/качество.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Модель kimi-k2-0905-preview поддерживает окно контекста 256K, обладает улучшенными возможностями программирования агентов, более качественным и практичным фронтенд-кодом и лучшим пониманием контекста.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo — высокоскоростная версия Kimi K2 Thinking, значительно снижает задержку при сохранении глубины рассуждений.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking — модель рассуждений от Moonshot, оптимизированная для задач глубокого мышления, с общими агентными возможностями.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 — самая интеллектуальная модель Kimi на сегодняшний день, с нативной мультимодальной архитектурой.", "moonshotai/kimi-k2.description": "Kimi K2 — крупная модель MoE от Moonshot AI с 1 триллионом параметров и 32 миллиардами активных на проход, оптимизирована для агентных возможностей, включая продвинутую работу с инструментами, логическое мышление и синтез кода.", "morph/morph-v3-fast.description": "Morph — специализированная модель для применения изменений в коде, предложенных передовыми моделями (например, Claude или GPT-4o), к существующим файлам со скоростью более 4500 токенов/сек. Это финальный этап в AI-пайплайне программирования, поддерживает 16k токенов на вход/выход.", "morph/morph-v3-large.description": "Morph — специализированная модель для применения изменений в коде, предложенных передовыми моделями (например, Claude или GPT-4o), к существующим файлам со скоростью более 2500 токенов/сек. Это финальный этап в AI-пайплайне программирования, поддерживает 16k токенов на вход/выход.", + "musesteamer-air-image.description": "musesteamer-air-image — это модель генерации изображений, разработанная командой поиска Baidu для обеспечения исключительного соотношения цены и качества. Она может быстро создавать четкие, согласованные по действиям изображения на основе пользовательских подсказок, легко превращая описания пользователей в визуальные образы.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B — обновлённая версия Nous Hermes 2 с новейшими внутренними датасетами.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B — кастомизированная модель от NVIDIA, улучшающая полезность. Демонстрирует высокие результаты на Arena Hard, AlpacaEval 2 LC и GPT-4-Turbo MT-Bench, занимая первое место на всех трёх бенчмарках авто-выравнивания по состоянию на 1 октября 2024 года. Обучена на основе Llama-3.1-70B-Instruct с использованием RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward и HelpSteer2-Preference prompts.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Уникальная языковая модель с выдающейся точностью и эффективностью.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "В зависимости от длины контекста, темы и сложности ваш запрос направляется в Llama 3 70B Instruct, Claude 3.5 Sonnet (с самомодерацией) или GPT-4o.", "oswe-vscode-prime.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.", "oswe-vscode-secondary.description": "Raptor mini — предварительная модель, оптимизированная для задач, связанных с программированием.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 — это модель, которая сочетает высокую вычислительную эффективность с отличной производительностью в рассуждениях и работе агентов.", "perplexity/sonar-pro.description": "Флагманский продукт Perplexity с привязкой к поиску, поддерживающий сложные запросы и уточнения.", "perplexity/sonar-reasoning-pro.description": "Продвинутая модель, ориентированная на рассуждение, выводящая цепочку мыслей с расширенным поиском, включая несколько поисковых запросов на один запрос.", "perplexity/sonar-reasoning.description": "Модель, ориентированная на рассуждение, выводящая цепочку мыслей с подробными объяснениями, основанными на поиске.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Модель программирования Qwen.", "qwen-coder-turbo.description": "Модель программирования Qwen.", "qwen-flash.description": "Самая быстрая и недорогая модель Qwen, идеально подходит для простых задач.", + "qwen-image-edit-max.description": "Модель редактирования изображений Qwen поддерживает ввод и вывод нескольких изображений, позволяя точно редактировать текст в изображениях, добавлять, удалять или перемещать объекты, изменять действия субъектов, переносить стили изображений и улучшать визуальные детали.", + "qwen-image-edit-plus.description": "Модель редактирования изображений Qwen поддерживает ввод и вывод нескольких изображений, позволяя точно редактировать текст в изображениях, добавлять, удалять или перемещать объекты, изменять действия субъектов, переносить стили изображений и улучшать визуальные детали.", "qwen-image-edit.description": "Qwen Image Edit — это модель преобразования изображений, которая редактирует изображения на основе входных изображений и текстовых подсказок, обеспечивая точные корректировки и творческие трансформации.", + "qwen-image-max.description": "Модель генерации изображений Qwen (серия Max) обеспечивает улучшенный реализм и визуальную естественность по сравнению с серией Plus, эффективно снижая артефакты, создаваемые ИИ, и демонстрируя выдающиеся результаты в отображении внешности человека, текстурных деталей и рендеринге текста.", + "qwen-image-plus.description": "Поддерживает широкий спектр художественных стилей и особенно хорошо справляется с рендерингом сложного текста в изображениях, позволяя интегрированное проектирование макета изображений и текста.", "qwen-image.description": "Qwen-Image — это универсальная модель генерации изображений, поддерживающая различные художественные стили и сложную отрисовку текста, особенно на китайском и английском языках. Поддерживает многострочные макеты, абзацы и детализированную генерацию для сложных текстово-визуальных композиций.", "qwen-long.description": "Ультра-крупная модель Qwen с поддержкой длинного контекста и диалогов в рамках одного или нескольких документов.", "qwen-math-plus-latest.description": "Qwen Math — языковая модель, специализирующаяся на решении математических задач.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Открытая модель кода Qwen. Новейшая qwen3-coder-30b-a3b-instruct основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct — флагманская модель кода для многоязычного программирования и сложного понимания кода.", "qwen3-coder-flash.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.", + "qwen3-coder-next.description": "Следующее поколение Qwen coder, оптимизированное для сложной генерации кода из нескольких файлов, отладки и высокопроизводительных рабочих процессов агентов. Разработано для сильной интеграции инструментов и улучшенной производительности рассуждений.", "qwen3-coder-plus.description": "Модель кода Qwen. Новейшая серия Qwen3-Coder основана на Qwen3 и обладает мощными возможностями кодирующего агента, использования инструментов и взаимодействия со средой для автономного программирования, с отличной производительностью кода и общей функциональностью.", "qwen3-coder:480b.description": "Высокопроизводительная модель от Alibaba с длинным контекстом для задач агентов и программирования.", "qwen3-max-2026-01-23.description": "Модели Qwen3 Max значительно превосходят серию 2.5 по общей способности, пониманию китайского/английского, следованию сложным инструкциям, выполнению субъективных задач, многоязычности и использованию инструментов, с меньшим количеством галлюцинаций. Последняя версия qwen3-max улучшает агентное программирование и использование инструментов по сравнению с qwen3-max-preview. Эта версия достигает уровня SOTA и ориентирована на более сложные агентные задачи.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking — мультимодальная модель с цепочкой рассуждений для детального визуального анализа.", "qwen3-vl-flash.description": "Qwen3 VL Flash: легковесная, высокоскоростная версия рассуждений для задач с низкой задержкой или высоким объемом запросов.", "qwen3-vl-plus.description": "Qwen VL — модель генерации текста с пониманием изображений. Поддерживает OCR, а также умеет обобщать и рассуждать, например, извлекать атрибуты с фото товаров или решать задачи по изображениям.", + "qwen3.5-397b-a17b.description": "Поддерживает текст, изображения и видео. Для задач только с текстом его производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях он демонстрирует значительные улучшения по сравнению с серией Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus поддерживает текст, изображения и видео. Для задач только с текстом его производительность сопоставима с Qwen3 Max, обеспечивая более высокую эффективность и меньшую стоимость. В мультимодальных возможностях он демонстрирует значительные улучшения по сравнению с серией Qwen3 VL.", "qwen3.description": "Qwen3 — это LLM нового поколения от Alibaba с высокой производительностью в различных сценариях использования.", "qwq-32b-preview.description": "QwQ — экспериментальная исследовательская модель от Qwen, ориентированная на улучшенный логический вывод.", "qwq-32b.description": "QwQ — модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, она обеспечивает более глубокое мышление и логический анализ, значительно повышая производительность на сложных задачах. QwQ-32B — среднеразмерная модель, сопоставимая с ведущими моделями, такими как DeepSeek-R1 и o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Среднеразмерная модель логического вывода из семейства Qwen. По сравнению со стандартными моделями, обученными на инструкциях, способности QwQ к мышлению и логике значительно повышают производительность на сложных задачах.", "r1-1776.description": "R1-1776 — дообученный вариант DeepSeek R1, предназначенный для предоставления нецензурированной, объективной и достоверной информации.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro от ByteDance поддерживает генерацию видео по тексту, преобразование изображений в видео (по первому кадру или первому и последнему), а также синхронизированную генерацию аудио с визуальным рядом.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite от BytePlus включает генерацию с использованием веб-поиска для получения информации в реальном времени, улучшенную интерпретацию сложных подсказок и улучшенную согласованность ссылок для профессионального визуального творчества.", "solar-mini-ja.description": "Solar Mini (Ja) расширяет возможности Solar Mini с акцентом на японский язык, сохраняя при этом высокую эффективность и производительность на английском и корейском.", "solar-mini.description": "Solar Mini — компактная LLM-модель, превосходящая GPT-3.5, с мощной многоязычной поддержкой английского и корейского языков, предлагающая эффективное решение с малым объемом.", "solar-pro.description": "Solar Pro — интеллектуальная LLM-модель от Upstage, ориентированная на следование инструкциям на одном GPU, с результатами IFEval выше 80. В настоящее время поддерживает английский язык; полный релиз с расширенной языковой поддержкой и увеличенным контекстом запланирован на ноябрь 2024 года.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.", "sonar-reasoning.description": "Продвинутый поисковый продукт с привязкой к источникам для сложных запросов и уточнений.", "sonar.description": "Легковесный продукт с привязкой к поиску, быстрее и дешевле, чем Sonar Pro.", - "spark-x.description": "Обновления X1.5: (1) добавлен динамический режим мышления, управляемый полем `thinking`; (2) увеличенная длина контекста: 64K на вход и 64K на выход; (3) поддержка FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 — это модель, которая сочетает высокую вычислительную эффективность с отличной производительностью в рассуждениях и работе агентов.", + "spark-x.description": "Обзор возможностей X2: 1. Вводит динамическую настройку режима рассуждений, управляемую через поле `thinking`. 2. Расширенная длина контекста: 64K входных токенов и 128K выходных токенов. 3. Поддерживает функциональность Function Call.", "stable-diffusion-3-medium.description": "Последняя модель преобразования текста в изображение от Stability AI. Эта версия значительно улучшает качество изображений, понимание текста и разнообразие стилей, точнее интерпретирует сложные текстовые запросы и генерирует более точные и разнообразные изображения.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo использует метод диффузионной дистилляции (ADD) для ускорения модели stable-diffusion-3.5-large.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large — модель преобразования текста в изображение с 800 миллионами параметров (MMDiT), обеспечивающая высокое качество и соответствие запросам, поддерживает изображения до 1 мегапикселя и эффективно работает на потребительском оборудовании.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Поддержка взаимодействия с большим контекстом для сложных диалогов.", "step-2-mini.description": "Построена на архитектуре MFA следующего поколения, обеспечивает производительность уровня Step-1 при значительно меньших затратах, с высокой пропускной способностью и низкой задержкой. Отлично справляется с общими задачами и программированием.", "step-2x-large.description": "Модель нового поколения StepFun для генерации изображений, создает изображения высокого качества по текстовому описанию. Обеспечивает реалистичную текстуру и качественную отрисовку текста на китайском и английском языках.", + "step-3.5-flash.description": "Флагманская модель языковых рассуждений от Stepfun. Эта модель обеспечивает первоклассные возможности рассуждений вместе с быстрой и надежной реализацией. Она может разбирать и планировать сложные задачи, быстро и надежно вызывать инструменты для их выполнения, а также превосходить в логических рассуждениях, математике, программной инженерии, глубоких исследованиях и других сложных задачах. Длина контекста составляет 256K.", "step-3.description": "Модель с мощным визуальным восприятием и сложным логическим выводом, точно обрабатывает знания из разных областей, анализ математики и изображений, а также широкий спектр повседневных визуальных задач.", "step-r1-v-mini.description": "Модель логического вывода с продвинутым пониманием изображений, способна обрабатывать изображения и текст, а затем генерировать текст после глубокого анализа. Отлично справляется с визуальной логикой, математикой, программированием и текстовыми задачами, поддерживает контекст до 100K.", "stepfun-ai/step3.description": "Step3 — передовая мультимодальная модель логического вывода от StepFun, построенная на архитектуре MoE с 321 миллиардами параметров (38 миллиардов активных). Эффективна по затратам на декодирование и обеспечивает высококлассный логико-визуальный анализ. Благодаря архитектурам MFA и AFD работает эффективно как на флагманских, так и на недорогих ускорителях. Предобучена на более чем 20 триллионах текстов и 4 триллионах пар изображение-текст на разных языках. Достигает лидирующих результатов среди открытых моделей в математике, программировании и мультимодальных задачах.", - "taichu_llm.description": "Обучена на огромном объеме высококачественных данных, обладает улучшенным пониманием текста, генерацией контента и ведением диалога.", - "taichu_o1.description": "taichu_o1 — это модель нового поколения для рассуждений, использующая мультимодальное взаимодействие и обучение с подкреплением для достижения человекоподобного хода мыслей. Она поддерживает моделирование сложных решений, демонстрирует логические цепочки и обеспечивает высокую точность, идеально подходя для стратегического анализа и глубокого мышления.", - "taichu_vl.description": "Объединяет понимание изображений, перенос знаний и логическую атрибуцию, превосходно справляясь с задачами вопрос-ответ по изображению и тексту.", + "taichu4_vl_2b_nothinking.description": "Версия Taichu4.0-VL 2B без мышления отличается меньшим использованием памяти, легким дизайном, высокой скоростью отклика и сильными мультимодальными возможностями понимания.", + "taichu4_vl_32b.description": "Версия Taichu4.0-VL 32B с мышлением подходит для сложных мультимодальных задач понимания и рассуждений, демонстрируя выдающиеся результаты в мультимодальных математических рассуждениях, возможностях мультимодальных агентов и общем понимании изображений и визуального контента.", + "taichu4_vl_32b_nothinking.description": "Версия Taichu4.0-VL 32B без мышления предназначена для сложных сценариев понимания изображений и текста, а также визуальных вопросов и ответов, превосходя в описании изображений, визуальных вопросах и ответах, понимании видео и задачах визуальной локализации.", + "taichu4_vl_3b.description": "Версия Taichu4.0-VL 3B с мышлением эффективно выполняет мультимодальные задачи понимания и рассуждений, с комплексными улучшениями в визуальном понимании, визуальной локализации, распознавании OCR и связанных возможностях.", + "taichu_llm.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.", + "taichu_llm_14b.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.", + "taichu_llm_2b.description": "Большая языковая модель Zidong Taichu — это высокопроизводительная модель генерации текста, разработанная с использованием полностью отечественных технологий полного цикла. Благодаря структурной компрессии базовой модели с сотнями миллиардов параметров и оптимизации для конкретных задач, она значительно улучшает понимание сложных текстов и возможности рассуждений на основе знаний. Она превосходит в таких сценариях, как анализ длинных документов, извлечение информации на разных языках и генерация, ограниченная знаниями.", + "taichu_o1.description": "taichu_o1 — это модель больших рассуждений следующего поколения, которая достигает человеческого уровня цепочки размышлений через мультимодальное взаимодействие и обучение с подкреплением. Она поддерживает сложные симуляции принятия решений и, сохраняя высокую точность вывода, раскрывает интерпретируемые пути рассуждений. Она хорошо подходит для анализа стратегий, глубоких размышлений и подобных сценариев.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct использует 80 миллиардов параметров, из которых активно 13 миллиардов, обеспечивая производительность, сопоставимую с более крупными моделями. Поддерживает гибридное быстрое/медленное рассуждение, стабильное понимание длинных текстов и лидирующие возможности агентов на BFCL-v3 и τ-Bench. Поддержка GQA и мульти-квантованных форматов обеспечивает эффективный вывод.", "tencent/Hunyuan-MT-7B.description": "Модель перевода Hunyuan включает Hunyuan-MT-7B и ансамбль Hunyuan-MT-Chimera. Hunyuan-MT-7B — это легковесная модель на 7 миллиардов параметров, поддерживающая 33 языка и 5 языков китайских меньшинств. На WMT25 заняла первое место в 30 из 31 языковой пары. Tencent Hunyuan использует полный цикл обучения от предобучения до SFT, RL для перевода и ансамблевого RL, достигая выдающейся производительности при компактных размерах и легкости развертывания.", "text-embedding-3-large.description": "Самая мощная модель встраивания для задач на английском и других языках.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md подходит для повседневных задач и генерации пользовательских интерфейсов.", "vercel/v0-1.0-md.description": "Доступ к моделям v0 для генерации, исправления и оптимизации современных веб-приложений с учетом особенностей фреймворков и актуальных знаний.", "vercel/v0-1.5-md.description": "Доступ к моделям v0 для генерации, исправления и оптимизации современных веб-приложений с учетом особенностей фреймворков и актуальных знаний.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code оптимизирован для корпоративных потребностей в программировании, на основе выдающихся возможностей Agent и VLM Seed 2.0, с особым усилением кодовых возможностей. Модель демонстрирует выдающиеся результаты как в переднем, так и в многозадачном программировании, подходя для интеграции в различные инструменты AI-программирования.", + "volcengine/doubao-seed-2-0-lite.description": "Сочетает качество генерации и скорость отклика, подходит в качестве универсальной производственной модели.", + "volcengine/doubao-seed-2-0-mini.description": "Указывает на последнюю версию doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Указывает на последнюю версию doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code — это LLM от ByteDance Volcano Engine, оптимизированная для агентного программирования, демонстрирующая высокие результаты на бенчмарках программирования и агентов с поддержкой контекста до 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed — последняя модель с улучшениями в креативности, стабильности и реалистичности, обеспечивающая быструю генерацию и высокую ценность.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro — последняя модель с улучшениями в креативности, стабильности и реалистичности, создающая более детализированные изображения.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash — это последняя модель с улучшениями в креативности, стабильности и реалистичности, обеспечивающая быструю генерацию и высокую ценность.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus — это последняя модель с улучшениями в креативности, стабильности и реалистичности, создающая более богатые детали.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview поддерживает редактирование одного изображения и слияние нескольких изображений.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I поддерживает гибкий выбор размеров изображения в пределах общей площади пикселей и ограничений соотношения сторон.", + "wan2.6-image.description": "Wanxiang 2.6 Image поддерживает редактирование изображений и смешанный вывод макета изображений и текста.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I поддерживает гибкий выбор размеров изображения в пределах общей площади пикселей и ограничений соотношения сторон (аналогично Wanxiang 2.5).", "wanx-v1.description": "Базовая модель преобразования текста в изображение. Соответствует Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Отличается текстурированными портретами при умеренной скорости и низкой стоимости. Соответствует Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Полностью обновленная версия с более богатыми деталями изображения и немного меньшей скоростью. Соответствует Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast — это высокопроизводительная, недорогая модель от xAI (поддерживает контекст до 2M), идеально подходящая для сценариев с высокой конкуренцией и длинным контекстом.", "x-ai/grok-4.description": "Grok 4 — флагманская модель xAI с мощными возможностями рассуждения и мультимодальности.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 — быстрая модель программирования от xAI с читаемым и удобным для инженеров выводом.", + "x1.description": "Обновления X1.5: (1) добавлен динамический режим мышления, управляемый через поле `thinking`; (2) увеличена длина контекста до 64K входных и 64K выходных токенов; (3) поддерживает FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision превосходно справляется с визуальными задачами, демонстрируя передовые результаты в визуальном математическом рассуждении (MathVista) и вопросах по документам (DocVQA). Обрабатывает документы, диаграммы, графики, скриншоты и фотографии.", "xai/grok-2.description": "Grok 2 — передовая модель с передовыми возможностями рассуждения, чата и программирования, превосходящая Claude 3.5 Sonnet и GPT-4 Turbo по LMSYS.", "xai/grok-3-fast.description": "Флагманская модель xAI, превосходно подходящая для корпоративных задач, таких как извлечение данных, программирование и суммирование, с глубокими знаниями в области финансов, здравоохранения, права и науки. Быстрая версия работает на ускоренной инфраструктуре для более быстрых ответов при более высокой стоимости за токен.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 — флагманская модель Z.AI с гибридным рассуждением, оптимизированная для инженерных задач и задач с длинным контекстом.", "z-ai/glm-4.6.description": "GLM 4.6 — флагманская модель Z.AI с расширенной длиной контекста и улучшенными возможностями программирования.", "z-ai/glm-4.7.description": "GLM-4.7 — флагманская модель от Zhipu с улучшенными общими возможностями, более естественными и простыми ответами, а также более захватывающим опытом письма.", - "z-ai/glm5.description": "Мощная модель рассуждения и агентности от Z.ai с общим количеством параметров 744B (40B активных), созданная для сложной системной инженерии и долгосрочных задач.", + "z-ai/glm4.7.description": "GLM-4.7 — это последняя флагманская модель Zhipu, улучшенная для сценариев Agentic Coding с улучшенными возможностями кодирования.", + "z-ai/glm5.description": "GLM-5 — это новая флагманская базовая модель Zhipu AI для инженерии агентов, достигающая открытого SOTA-результата в кодировании и возможностях агентов. Она сопоставима с производительностью Claude Opus 4.5.", + "z-image-turbo.description": "Z-Image — это легковесная модель генерации изображений из текста, которая может быстро создавать изображения, поддерживает рендеринг текста на китайском и английском языках, а также гибко адаптируется к различным разрешениям и соотношениям сторон.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air — базовая модель для агентных приложений с архитектурой Mixture-of-Experts. Оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.", "zai-org/GLM-4.5.description": "GLM-4.5 — базовая модель, созданная для агентных приложений с архитектурой Mixture-of-Experts. Глубоко оптимизирована для использования инструментов, веб-браузинга, программной инженерии и фронтенд-разработки, интегрируется с агентами кода, такими как Claude Code и Roo Code. Использует гибридное рассуждение для решения как сложных, так и повседневных задач.", "zai-org/GLM-4.5V.description": "GLM-4.5V — последняя мультимодальная модель Zhipu AI, построенная на флагманской текстовой модели GLM-4.5-Air (106B всего, 12B активно) с архитектурой MoE для высокой производительности при низкой стоимости. Следует пути GLM-4.1V-Thinking и добавляет 3D-RoPE для улучшения пространственного 3D-рассуждения. Оптимизирована через предобучение, SFT и RL, обрабатывает изображения, видео и длинные документы, занимает лидирующие позиции среди открытых моделей на 41 мультимодальном бенчмарке. Переключатель Thinking mode позволяет пользователям выбирать между скоростью и глубиной.", diff --git a/locales/ru-RU/plugin.json b/locales/ru-RU/plugin.json index 9ce7d62065..758e0f6978 100644 --- a/locales/ru-RU/plugin.json +++ b/locales/ru-RU/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Обновить узел", "builtins.lobe-page-agent.apiName.wrapNodes": "Обернуть узлы", "builtins.lobe-page-agent.title": "Страница", + "builtins.lobe-skill-store.apiName.importFromMarket": "Импортировать с рынка", + "builtins.lobe-skill-store.apiName.importSkill": "Импортировать навык", + "builtins.lobe-skill-store.apiName.searchSkill": "Поиск навыков", + "builtins.lobe-skill-store.title": "Магазин навыков", + "builtins.lobe-skills.apiName.execScript": "Запустить скрипт", + "builtins.lobe-skills.apiName.exportFile": "Экспортировать файл", + "builtins.lobe-skills.apiName.importFromMarket": "Импортировать с рынка", + "builtins.lobe-skills.apiName.importSkill": "Импортировать навык", + "builtins.lobe-skills.apiName.readReference": "Читать справочник", + "builtins.lobe-skills.apiName.runSkill": "Активировать навык", + "builtins.lobe-skills.apiName.searchSkill": "Поиск навыков", + "builtins.lobe-skills.title": "Навыки", + "builtins.lobe-tools.apiName.activateTools": "Активировать инструменты", "builtins.lobe-user-memory.apiName.addContextMemory": "Добавить контекстную память", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Добавить память опыта", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Добавить память личности", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Веб-поиск", "confirm": "Подтвердить", "debug.arguments": "Аргументы", + "debug.error": "Журнал ошибок", "debug.function_call": "Вызов функции", "debug.intervention": "Вмешательство навыка", "debug.off": "Отладка выключена", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Настройки сохранены", "dev.tabs.manifest": "Манифест", "dev.tabs.meta": "Мета-информация", - "dev.title.create": "Добавить пользовательский навык", - "dev.title.edit": "Редактировать пользовательский навык", + "dev.title.create": "Добавить пользовательский навык MCP", + "dev.title.edit": "Редактировать пользовательский навык MCP", "dev.title.editCommunity": "Редактировать навык сообщества", "dev.title.skillDetails": "Детали навыка", "dev.title.skillSettings": "Настройки навыка", diff --git a/locales/ru-RU/providers.json b/locales/ru-RU/providers.json index 20621524cf..64f507d062 100644 --- a/locales/ru-RU/providers.json +++ b/locales/ru-RU/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud — это экономичный облачный сервис генеративного ИИ, построенный на мощных open-source моделях.", "spark.description": "iFLYTEK Spark предоставляет мощные многоязычные ИИ-решения для различных отраслей, включая умные устройства, здравоохранение, финансы и другие вертикали.", "stepfun.description": "Модели Stepfun обладают передовыми мультимодальными и логическими возможностями, поддерживают понимание длинного контекста и мощную автономную оркестрацию поиска.", + "straico.description": "Straico упрощает интеграцию ИИ, предоставляя единое рабочее пространство, которое объединяет лучшие модели генеративного ИИ для текста, изображений и аудио, обеспечивая маркетологов, предпринимателей и энтузиастов удобным доступом к разнообразным инструментам ИИ.", "taichu.description": "Модель нового поколения от CASIA и Уханьского института ИИ, поддерживающая многотуровые вопросы и ответы, письмо, генерацию изображений, 3D-понимание и анализ сигналов с улучшенным когнитивным и креативным потенциалом.", "tencentcloud.description": "Ядро знаний LLM Atomic Power предоставляет сквозные решения для вопросов и ответов для предприятий и разработчиков, с модульными сервисами, такими как разбор документов, разбиение, эмбеддинги и многотуровая переформулировка для создания кастомных ИИ-решений.", "togetherai.description": "Together AI обеспечивает передовую производительность с инновационными моделями, широкой кастомизацией, быстрым масштабированием и простым развертыванием для нужд бизнеса.", diff --git a/locales/ru-RU/setting.json b/locales/ru-RU/setting.json index 77e40e184d..f54c82812b 100644 --- a/locales/ru-RU/setting.json +++ b/locales/ru-RU/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Профиль агента", "agentInfoDescription.value.unset": "Не задано", "agentInfoDescription.value.untitled": "Агент без названия", + "agentSkillDetail.addedAt": "Добавлено", + "agentSkillDetail.publishedAt": "Опубликовано", + "agentSkillDetail.repository": "Репозиторий GitHub", + "agentSkillDetail.skillContent": "Содержимое навыка", + "agentSkillDetail.sourceUrl": "Источник импорта навыка", + "agentSkillDetail.updatedAt": "Обновлено", + "agentSkillEdit.descriptionDesc": "Краткое описание того, что делает навык, чтобы агент понимал, когда его использовать", + "agentSkillEdit.fileReadonly": "Этот файл доступен только для чтения. Можно редактировать только описание и инструкции навыка.", + "agentSkillEdit.instructions": "Инструкции", + "agentSkillEdit.instructionsDesc": "Основные инструкции в формате Markdown, определяющие поведение и рабочий процесс навыка", + "agentSkillEdit.instructionsPlaceholder": "Введите инструкции для навыка в формате Markdown...", + "agentSkillEdit.nameDesc": "Уникальный идентификатор этого навыка, не подлежит редактированию после создания", + "agentSkillEdit.saveSuccess": "Навык успешно обновлен", + "agentSkillEdit.title": "Настройки навыка", + "agentSkillItem.deleteConfirm.desc": "Вы уверены, что хотите удалить навык агента \"{{name}}\"? Это действие нельзя отменить.", + "agentSkillItem.deleteConfirm.title": "Удалить навык агента", + "agentSkillModal.content": "Содержимое навыка", + "agentSkillModal.contentPlaceholder": "Введите содержимое навыка в формате Markdown...", + "agentSkillModal.description": "Описание", + "agentSkillModal.descriptionPlaceholder": "Кратко опишите этот навык", + "agentSkillModal.github.desc": "Импортируйте навыки напрямую из публичного репозитория GitHub.", + "agentSkillModal.github.title": "Импорт из GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "Ошибка импорта: {{error}}", + "agentSkillModal.importSuccess": "Навык агента успешно импортирован", + "agentSkillModal.upload.desc": "Загрузите локальный файл .zip или .skill для установки.", + "agentSkillModal.upload.dragText": "Перетащите файл или нажмите для загрузки", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md содержит имя и описание навыка в формате YAML", + "agentSkillModal.upload.requirementZip": "Файл .zip или .skill с SKILL.md в корневом каталоге", + "agentSkillModal.upload.requirements": "Требования к файлу", + "agentSkillModal.upload.title": "Загрузить навык", + "agentSkillModal.upload.uploading": "Загрузка...", + "agentSkillModal.url.desc": "Импортируйте навык, указав прямую ссылку на файл SKILL.md.", + "agentSkillModal.url.title": "Импорт из URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Навык агента", "agentTab.chat": "Настройки чата", "agentTab.meta": "Информация об агенте", "agentTab.modal": "Настройки модели", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Укажите модель, используемую для перевода", "systemAgent.translation.title": "Агент перевода сообщений", "tab.about": "О программе", + "tab.addAgentSkill": "Добавить навык агента", + "tab.addCustomMcp": "Добавить пользовательский навык MCP", + "tab.addCustomMcp.desc": "Ручная настройка пользовательского сервера MCP", "tab.addCustomSkill": "Добавить пользовательский навык", "tab.agent": "Служба агентов", "tab.all": "Все", @@ -652,7 +691,13 @@ "tab.experiment": "Эксперимент", "tab.hotkey": "Горячие клавиши", "tab.image": "Служба генерации изображений", + "tab.importFromGithub": "Импорт из GitHub", + "tab.importFromGithub.desc": "Импорт из публичного репозитория GitHub", + "tab.importFromUrl": "Импорт из URL", + "tab.importFromUrl.desc": "Импорт через прямую ссылку на SKILL.md", "tab.llm": "Языковая модель", + "tab.manualFill": "Заполнить вручную", + "tab.manualFill.desc": "Ручная настройка пользовательского навыка MCP", "tab.memory": "Память", "tab.profile": "Мой аккаунт", "tab.provider": "Поставщик ИИ", @@ -669,6 +714,8 @@ "tab.sync": "Облачная синхронизация", "tab.systemTools": "Системные инструменты", "tab.tts": "Синтез речи", + "tab.uploadZip": "Загрузить архив", + "tab.uploadZip.desc": "Загрузите локальный файл .zip или .skill", "tab.usage": "Статистика использования", "tools.add": "Добавить навык", "tools.builtins.groupName": "Встроенные", diff --git a/locales/tr-TR/common.json b/locales/tr-TR/common.json index 4bc4475a15..085c3ef414 100644 --- a/locales/tr-TR/common.json +++ b/locales/tr-TR/common.json @@ -256,11 +256,6 @@ "footer.star.title": "GitHub'da bize yıldız verin", "footer.title": "Ürünümüzü Beğendiniz mi?", "fullscreen": "Tam Ekran Modu", - "geminiImageChineseWarning.content": "Nano Banana, Çince kullanıldığında zaman zaman görsel oluşturamayabilir. Daha iyi sonuçlar için İngilizce kullanmanız önerilir.", - "geminiImageChineseWarning.continueGenerate": "Oluşturmaya Devam Et", - "geminiImageChineseWarning.continueSend": "Göndermeye Devam Et", - "geminiImageChineseWarning.doNotShowAgain": "Bir Daha Gösterme", - "geminiImageChineseWarning.title": "Çince Giriş Uyarısı", "historyRange": "Geçmiş Aralığı", "home.suggestQuestions": "Bu örnekleri deneyin", "import": "İçe Aktar", @@ -397,6 +392,7 @@ "tab.chat": "Sohbet", "tab.community": "Topluluk", "tab.discover": "Keşfet", + "tab.eval": "Değerlendirme Laboratuvarı", "tab.files": "Dosyalar", "tab.home": "Ana Sayfa", "tab.knowledgeBase": "Kütüphane", diff --git a/locales/tr-TR/eval.json b/locales/tr-TR/eval.json new file mode 100644 index 0000000000..1b8999efd7 --- /dev/null +++ b/locales/tr-TR/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Benchmark Sil", + "benchmark.actions.delete.confirm": "Bu benchmark'ı silmek istediğinizden emin misiniz? İlgili veri setleri ve değerlendirme kayıtları da silinecek.", + "benchmark.actions.edit": "Benchmark Düzenle", + "benchmark.actions.export": "Dışa Aktar", + "benchmark.card.bestScore": "En İyi", + "benchmark.card.caseCount": "{{count}} vaka", + "benchmark.card.datasetCount": "{{count}} veri seti", + "benchmark.card.empty": "Henüz değerlendirme yok", + "benchmark.card.emptyHint": "Benchmark detay sayfasından yeni bir değerlendirme oluşturun", + "benchmark.card.importDataset": "Veri Seti İçe Aktar", + "benchmark.card.noDataset": "Henüz veri seti yok", + "benchmark.card.noDatasetHint": "Değerlendirmeye başlamak için bir veri seti içe aktarın", + "benchmark.card.noRecentRuns": "Gösterilecek son değerlendirme yok", + "benchmark.card.recentRuns": "Son Değerlendirmeler", + "benchmark.card.runCount": "{{count}} değerlendirme", + "benchmark.card.startFirst": "İlk Değerlendirmeyi Başlat", + "benchmark.card.viewAll": "Tümünü Görüntüle {{count}}", + "benchmark.create.confirm": "Oluştur", + "benchmark.create.description.label": "Açıklama", + "benchmark.create.description.placeholder": "Benchmark açıklaması (isteğe bağlı)", + "benchmark.create.error": "Benchmark oluşturulamadı", + "benchmark.create.identifier.label": "Tanımlayıcı", + "benchmark.create.identifier.placeholder": "benchmark-tanımlayıcı", + "benchmark.create.identifierRequired": "Lütfen bir tanımlayıcı girin", + "benchmark.create.name.label": "Ad", + "benchmark.create.name.placeholder": "Benchmark adını girin", + "benchmark.create.nameRequired": "Lütfen bir benchmark adı girin", + "benchmark.create.success": "Benchmark başarıyla oluşturuldu", + "benchmark.create.tags.label": "Etiketler", + "benchmark.create.tags.placeholder": "Etiket ekleyin, virgül veya boşluk ile ayırın", + "benchmark.create.title": "Benchmark Oluştur", + "benchmark.detail.backToOverview": "Genel Görünüme Dön", + "benchmark.detail.datasetCount": "Bu benchmark'ta {{count}} veri seti", + "benchmark.detail.runCount": "Bu benchmark'ta {{count}} değerlendirme çalışması", + "benchmark.detail.stats.addFirstDataset": "İlk veri setini eklemek için tıklayın", + "benchmark.detail.stats.avgCost": "Ortalama Maliyet", + "benchmark.detail.stats.avgDuration": "Ortalama Süre", + "benchmark.detail.stats.basedOnLastNRuns": "Son {{count}} çalışmaya dayanarak", + "benchmark.detail.stats.bestPerformance": "{{agent}} tarafından {{passRate}}% başarı oranı ile en iyi performans", + "benchmark.detail.stats.bestScore": "En İyi Skor", + "benchmark.detail.stats.cases": "Vakalar", + "benchmark.detail.stats.dataScale": "Veri Ölçeği", + "benchmark.detail.stats.datasets": "Veri Setleri", + "benchmark.detail.stats.needSetup": "Kurulum Gerekli", + "benchmark.detail.stats.noEvalRecord": "Henüz değerlendirme kaydı yok", + "benchmark.detail.stats.perRun": "/ Çalışma", + "benchmark.detail.stats.runs": "Çalışmalar", + "benchmark.detail.stats.tags": "Etiketler", + "benchmark.detail.stats.topAgents": "En İyi Ajanlar", + "benchmark.detail.stats.totalCases": "Toplam Vakalar", + "benchmark.detail.stats.waiting": "Bekleniyor...", + "benchmark.detail.tabs.data": "Veri", + "benchmark.detail.tabs.datasets": "Veri Setleri", + "benchmark.detail.tabs.runs": "Çalışmalar", + "benchmark.edit.confirm": "Kaydet", + "benchmark.edit.error": "Benchmark güncellenemedi", + "benchmark.edit.success": "Benchmark başarıyla güncellendi", + "benchmark.edit.title": "Benchmark Düzenle", + "benchmark.empty": "Henüz benchmark yok. Başlamak için bir tane oluşturun.", + "caseDetail.actual": "Gerçek Çıktı", + "caseDetail.chatArea.title": "Konuşma", + "caseDetail.completionReason": "Durum", + "caseDetail.cost": "Maliyet", + "caseDetail.difficulty": "Zorluk", + "caseDetail.duration": "Süre", + "caseDetail.expected": "Beklenen Çıktı", + "caseDetail.failureReason": "Başarısızlık Nedeni", + "caseDetail.input": "Girdi", + "caseDetail.judgeComment": "Hakem Yorumu", + "caseDetail.resources": "Kaynaklar", + "caseDetail.score": "Skor", + "caseDetail.section.runtime": "Çalışma Süresi", + "caseDetail.section.scoring": "Puanlama Detayları", + "caseDetail.section.testCase": "Test Vakası", + "caseDetail.steps": "Adımlar", + "caseDetail.threads.attempt": "Yörünge #{{number}}", + "caseDetail.tokens": "Token Kullanımı", + "common.cancel": "İptal", + "common.create": "Oluştur", + "common.delete": "Sil", + "common.edit": "Düzenle", + "common.later": "Sonra", + "common.next": "Sonraki", + "common.update": "Güncelle", + "dataset.actions.addDataset": "Veri Seti Ekle", + "dataset.actions.import": "Veri İçe Aktar", + "dataset.actions.importDataset": "Veri Seti İçe Aktar", + "dataset.create.description.label": "Açıklama", + "dataset.create.description.placeholder": "Veri seti açıklaması (isteğe bağlı)", + "dataset.create.error": "Veri seti oluşturulamadı", + "dataset.create.identifier.label": "Tanımlayıcı", + "dataset.create.identifier.placeholder": "veri-seti-tanımlayıcı", + "dataset.create.identifierRequired": "Lütfen bir tanımlayıcı girin", + "dataset.create.importNow": "Şimdi veri içe aktarmak ister misiniz?", + "dataset.create.name.label": "Veri Seti Adı", + "dataset.create.name.placeholder": "Veri seti adını girin", + "dataset.create.nameRequired": "Lütfen bir veri seti adı girin", + "dataset.create.preset.label": "Veri Seti Ön Ayarı", + "dataset.create.success": "Veri seti başarıyla oluşturuldu", + "dataset.create.successTitle": "Veri Seti Oluşturuldu", + "dataset.create.title": "Veri Seti Oluştur", + "dataset.delete.confirm": "Bu veri setini silmek istediğinizden emin misiniz? İçindeki tüm test vakaları da silinecek.", + "dataset.delete.error": "Veri seti silinemedi", + "dataset.delete.success": "Veri seti başarıyla silindi", + "dataset.detail.addRun": "Yeni Çalışma", + "dataset.detail.backToBenchmark": "Benchmark'a Dön", + "dataset.detail.caseCount": "{{count}} test vakası", + "dataset.detail.relatedRuns": "İlgili Çalışmalar ({{count}})", + "dataset.detail.testCases": "Test Vakaları", + "dataset.detail.viewDetail": "Detayları Görüntüle", + "dataset.edit.error": "Veri seti güncellenemedi", + "dataset.edit.success": "Veri seti başarıyla güncellendi", + "dataset.edit.title": "Veri Seti Düzenle", + "dataset.empty": "Henüz veri seti yok", + "dataset.empty.description": "Bu benchmark'ı oluşturmaya başlamak için bir veri seti içe aktarın", + "dataset.empty.title": "Henüz veri seti yok", + "dataset.evalMode.hint": "Veri seti için varsayılan değerlendirme modu, test vakası seviyesinde geçersiz kılınabilir", + "dataset.import.category": "Kategori", + "dataset.import.categoryDesc": "Gruplama için sınıflandırma etiketi", + "dataset.import.choices": "Seçenekler", + "dataset.import.choicesDesc": "Çoktan seçmeli seçenekler", + "dataset.import.confirm": "İçe Aktar", + "dataset.import.error": "Veri seti içe aktarılamadı", + "dataset.import.expected": "Beklenen Cevap", + "dataset.import.expectedDelimiter": "Cevap Ayırıcı", + "dataset.import.expectedDelimiter.desc": "Cevap ayırıcı", + "dataset.import.expectedDelimiter.placeholder": "ör. | veya ,", + "dataset.import.expectedDesc": "Karşılaştırılacak doğru cevap", + "dataset.import.fieldMapping": "Alan Eşleme", + "dataset.import.fieldMapping.desc": "\"Girdi\" sütunu gereklidir", + "dataset.import.hideSkipped": "Atlanan sütunları gizle", + "dataset.import.ignore": "Atla", + "dataset.import.ignoreDesc": "Bu sütunu içe aktarma", + "dataset.import.input": "Girdi", + "dataset.import.inputDesc": "Model'e gönderilen soru veya istem", + "dataset.import.metadata": "Meta Veri", + "dataset.import.metadataDesc": "Ekstra bilgi, olduğu gibi saklanır", + "dataset.import.next": "Sonraki", + "dataset.import.parseError": "Dosya ayrıştırılamadı", + "dataset.import.parsing": "Dosya ayrıştırılıyor...", + "dataset.import.prev": "Önceki", + "dataset.import.preview": "Veri Önizleme", + "dataset.import.preview.desc": "Eşlemenin doğru olduğunu onaylayın, ardından içe aktarın.", + "dataset.import.preview.rows": "Toplam {{count}} satır", + "dataset.import.sortOrder": "Öğe Numarası", + "dataset.import.sortOrderDesc": "Referans için soru/öğe kimliği", + "dataset.import.step.mapping": "Alanları Eşle", + "dataset.import.step.preview": "Önizleme", + "dataset.import.step.upload": "Dosya Yükle", + "dataset.import.success": "{{count}} test vakası başarıyla içe aktarıldı", + "dataset.import.title": "Veri Seti İçe Aktar", + "dataset.import.upload.hint": "CSV, XLSX, JSON, JSONL desteklenir", + "dataset.import.upload.text": "Dosyayı buraya tıklayın veya sürükleyin", + "dataset.import.uploading": "Yükleniyor...", + "dataset.switchDataset": "Veri Seti Değiştir", + "difficulty.easy": "Kolay", + "difficulty.hard": "Zor", + "difficulty.medium": "Orta", + "evalMode.contains": "İçerik Eşleşmesi", + "evalMode.contains.desc": "Çıktı beklenen metni içermelidir", + "evalMode.equals": "Tam Eşleşme", + "evalMode.equals.desc": "Çıktı beklenenle tamamen aynı olmalıdır", + "evalMode.label": "Değerlendirme Modu", + "evalMode.llm-rubric": "LLM Hakemi", + "evalMode.llm-rubric.desc": "Çıktı kalitesini değerlendirmek için LLM kullanın", + "evalMode.placeholder": "Değerlendirme modunu seçin", + "evalMode.prompt.label": "Hakem İstemi", + "evalMode.prompt.placeholder": "LLM hakemi için değerlendirme kriterlerini veya istemi girin", + "evalMode.rubric": "Rubrik Puanlama", + "evalMode.rubric.desc": "Benchmark rubrikleri ile ağırlıklı kriterler kullanarak çıktıyı puanlayın", + "overview.createBenchmark": "Benchmark Oluştur", + "overview.importDataset": "Veri Seti İçe Aktar", + "overview.subtitle": "AI ajanlarınızı veri setleri arasında benchmark yapın ve değerlendirin", + "overview.title": "Değerlendirme Laboratuvarı", + "run.actions.abort": "Durdur", + "run.actions.abort.confirm": "Bu değerlendirmeyi durdurmak istediğinizden emin misiniz?", + "run.actions.create": "Yeni Değerlendirme", + "run.actions.delete": "Sil", + "run.actions.delete.confirm": "Bu değerlendirmeyi silmek istediğinizden emin misiniz?", + "run.actions.edit": "Düzenle", + "run.actions.retryCase": "Tekrar Dene", + "run.actions.retryErrors": "Hataları Tekrar Dene", + "run.actions.retryErrors.confirm": "Bu, tüm hata ve zaman aşımı vakalarını yeniden çalıştıracaktır. Geçen ve başarısız olan vakalar etkilenmeyecektir.", + "run.actions.run": "Çalıştır", + "run.actions.start": "Başlat", + "run.actions.start.confirm": "Bu değerlendirmeyi başlatmak istediğinizden emin misiniz?", + "run.chart.duration": "Süre (s)", + "run.chart.error": "Hata", + "run.chart.fail": "Başarısız", + "run.chart.latencyDistribution": "Gecikme Dağılımı", + "run.chart.latencyTokenDistribution": "Gecikme / Token Dağılımı", + "run.chart.pass": "Başarılı", + "run.chart.passFailError": "Başarılı / Başarısız / Hata", + "run.chart.tokens": "Tokenlar", + "run.config.agentId": "Ajan", + "run.config.concurrency": "Eşzamanlılık", + "run.config.judgeModel": "Hakem Modeli", + "run.config.k": "Çalışmalar (K)", + "run.config.k.hint": "Her test vakasını {{k}} kez çalıştırın, pass@{{k}}/pass^{{k}} metrikleri için", + "run.config.maxSteps": "Maksimum Adım", + "run.config.maxSteps.hint": "Ajan tarafından yapılan her LLM çağrısı veya araç çağrısı 1 adım olarak sayılır", + "run.config.model": "Model", + "run.config.temperature": "Sıcaklık", + "run.config.timeout": "Zaman Aşımı", + "run.config.timeout.unit": "dak", + "run.create.advanced": "Gelişmiş Ayarlar", + "run.create.agent": "Ajan", + "run.create.agent.placeholder": "Bir ajan seçin", + "run.create.agent.required": "Lütfen bir ajan seçin", + "run.create.caseCount": "{{count}} vaka", + "run.create.confirm": "Oluştur ve Başlat", + "run.create.createOnly": "Sadece Oluştur", + "run.create.dataset": "Veri Seti", + "run.create.dataset.placeholder": "Bir veri seti seçin", + "run.create.dataset.required": "Lütfen bir veri seti seçin", + "run.create.name": "Çalışma Adı", + "run.create.name.placeholder": "Bu çalışma için bir ad girin", + "run.create.name.required": "Lütfen bir çalışma adı girin", + "run.create.name.useTimestamp": "Ad olarak mevcut zamanı kullan", + "run.create.openAgent": "Ajanı yeni pencerede aç", + "run.create.title": "Yeni Değerlendirme", + "run.create.titleWithDataset": "\"{{dataset}}\" üzerinde Yeni Değerlendirme", + "run.detail.agent": "Ajan", + "run.detail.agent.none": "Belirtilmemiş", + "run.detail.agent.unnamed": "Adsız Ajan", + "run.detail.backToBenchmark": "Benchmark'a Dön", + "run.detail.caseResults": "Değerlendirme Detayları", + "run.detail.config": "Değerlendirme Yapılandırması", + "run.detail.configSnapshot": "Yapılandırma Anlık Görüntüsü", + "run.detail.dataset": "Veri Seti", + "run.detail.model": "Model", + "run.detail.overview": "Genel Bakış", + "run.detail.progress": "İlerleme", + "run.detail.progressCases": "vakalar", + "run.detail.report": "Değerlendirme Özeti", + "run.edit.error": "Değerlendirme güncellenemedi", + "run.edit.success": "Değerlendirme başarıyla güncellendi", + "run.edit.title": "Değerlendirme Düzenle", + "run.empty.description": "Bu veri setinde ilk değerlendirme çalışmanızı başlatın", + "run.empty.descriptionBenchmark": "Bu benchmark'ta ilk değerlendirme çalışmanızı başlatın", + "run.empty.title": "Henüz çalışma yok", + "run.filter.active": "Aktif", + "run.filter.empty": "Mevcut filtreye uyan çalışma yok.", + "run.idle.hint": "Değerlendirmeyi başlatmak için Başlat'a tıklayın", + "run.metrics.avgScore": "Ortalama Skor", + "run.metrics.cost": "Maliyet", + "run.metrics.duration": "Süre", + "run.metrics.errorCases": "Hata", + "run.metrics.evaluated": "{{count}} değerlendirildi", + "run.metrics.passRate": "Başarı Oranı", + "run.metrics.perCase": "/ vaka", + "run.metrics.tokens": "Tokenlar", + "run.metrics.totalDuration": "Kümülatif", + "run.pending.hint": "Değerlendirme sırada, başlamak için bekliyor...", + "run.running.hint": "Değerlendirme çalışıyor, sonuçlar kısa süre içinde görünecek...", + "run.status.aborted": "Durduruldu", + "run.status.completed": "Tamamlandı", + "run.status.error": "Çalışma Hatası", + "run.status.failed": "Başarısız", + "run.status.idle": "Boşta", + "run.status.pending": "Bekliyor", + "run.status.running": "Çalışıyor", + "run.status.timeout": "Zaman Aşımı", + "sidebar.benchmarks": "Benchmark'lar", + "sidebar.dashboard": "Gösterge Paneli", + "sidebar.datasets": "Veri Setleri", + "sidebar.runs": "Çalışmalar", + "table.columns.avgCost": "Ortalama Maliyet", + "table.columns.category": "Kategori", + "table.columns.cost": "Maliyet", + "table.columns.difficulty": "Zorluk", + "table.columns.duration": "Süre", + "table.columns.evalMode": "Değerlendirme Modu", + "table.columns.expected": "Beklenen Cevap", + "table.columns.input": "Girdi", + "table.columns.score": "Skor", + "table.columns.status": "Durum", + "table.columns.steps": "Adımlar", + "table.columns.tags": "Etiketler", + "table.columns.tokens": "Tokenlar", + "table.columns.totalCost": "Toplam Maliyet", + "table.filter.all": "Tümü", + "table.filter.error": "Çalışma Hatası", + "table.filter.failed": "Başarısız", + "table.filter.passed": "Başarılı", + "table.filter.running": "Çalışıyor", + "table.search.placeholder": "Vakaları ara...", + "table.total": "Toplam {{count}}", + "testCase.actions.add": "Test Vakası Ekle", + "testCase.actions.import": "Test Vakalarını İçe Aktar", + "testCase.create.advanced": "Daha Fazla Seçenek", + "testCase.create.difficulty.label": "Zorluk", + "testCase.create.error": "Test vakası eklenemedi", + "testCase.create.expected.label": "Beklenen Çıktı", + "testCase.create.expected.placeholder": "Beklenen cevabı girin", + "testCase.create.expected.required": "Lütfen beklenen çıktıyı girin", + "testCase.create.input.label": "Girdi", + "testCase.create.input.placeholder": "Test vakası girdisini veya sorusunu girin", + "testCase.create.success": "Test vakası başarıyla eklendi", + "testCase.create.tags.label": "Etiketler", + "testCase.create.tags.placeholder": "Virgülle ayrılmış etiketler (isteğe bağlı)", + "testCase.create.title": "Test Vakası Ekle", + "testCase.delete.confirm": "Bu test vakasını silmek istediğinizden emin misiniz?", + "testCase.delete.error": "Test vakası silinemedi", + "testCase.delete.success": "Test vakası silindi", + "testCase.edit.error": "Test vakası güncellenemedi", + "testCase.edit.success": "Test vakası başarıyla güncellendi", + "testCase.edit.title": "Test Vakası Düzenle", + "testCase.empty.description": "Bu veri setine test vakalarını içe aktarın veya manuel olarak ekleyin", + "testCase.empty.title": "Henüz test vakası yok", + "testCase.preview.expected": "Beklenen", + "testCase.preview.input": "Girdi", + "testCase.preview.title": "Test Vakası Önizleme", + "testCase.search.placeholder": "Vakaları ara..." +} diff --git a/locales/tr-TR/home.json b/locales/tr-TR/home.json index 81cdc618a6..db749576b2 100644 --- a/locales/tr-TR/home.json +++ b/locales/tr-TR/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Derin Araştırma", "starter.developing": "Yakında geliyor", "starter.image": "Görsel", + "starter.nanoBanana2": "🍌 Nano Muz 2", "starter.seedance": "Seedance 2.0", "starter.write": "Yaz" } diff --git a/locales/tr-TR/modelProvider.json b/locales/tr-TR/modelProvider.json index 0b4db6e725..e2ddb46942 100644 --- a/locales/tr-TR/modelProvider.json +++ b/locales/tr-TR/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Gemini serisi için; düşünme bütçesini kontrol eder.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Gemini 3 Flash Önizleme modelleri için; düşünme derinliğini kontrol eder.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Gemini 3 Pro Önizleme modelleri için; düşünme derinliğini kontrol eder.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Gemini 3.1 Pro Önizleme modelleri için; düşünme derinliğini düşük/orta/yüksek seviyelerle kontrol eder.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Gemini serisi için; URL bağlamı sağlamayı destekler.", "providerModels.item.modelConfig.extendParams.placeholder": "Etkinleştirilecek gelişmiş parametreleri seçin", "providerModels.item.modelConfig.extendParams.previewFallback": "Önizleme kullanılamıyor", diff --git a/locales/tr-TR/models.json b/locales/tr-TR/models.json index e0636df649..411c384602 100644 --- a/locales/tr-TR/models.json +++ b/locales/tr-TR/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo, güçlü hesaplama ve sohbet yetenekleriyle birlikte mükemmel anlamsal anlama ve üretim verimliliği sunar; işletmeler ve geliştiriciler için idealdir.", "360gpt2-o1.description": "360gpt2-o1, düşünce zinciri oluşturmak için ağaç araması, yansıma mekanizması ve pekiştirmeli öğrenme eğitimi kullanır; bu sayede öz-yansıma ve öz-düzeltme yetenekleri kazanır.", "360gpt2-pro.description": "360GPT2 Pro, yaratıcı görevlerde üstün performans gösteren, karmaşık dönüşümler ve rol yapma gibi görevleri başarıyla yerine getiren gelişmiş bir NLP modelidir.", + "360zhinao2-o1.5.description": "360 Zhinao en güçlü akıl yürütme modeli, en güçlü yeteneklere sahip ve hem araç çağrısını hem de ileri düzey akıl yürütmeyi destekliyor.", "360zhinao2-o1.description": "360zhinao2-o1, düşünce zinciri oluşturmak için ağaç araması, yansıma mekanizması ve pekiştirmeli öğrenme eğitimi kullanır; bu sayede öz-yansıma ve öz-düzeltme yetenekleri kazanır.", + "360zhinao3-o1.5.description": "360 Zhinao Yeni Nesil Akıl Yürütme Modeli.", "4.0Ultra.description": "Spark Ultra, Spark serisinin en güçlü modelidir. Metin anlama ve özetleme yeteneklerini geliştirir, web aramasını iyileştirir. İş yerinde verimliliği artırmak ve doğru yanıtlar sağlamak için kapsamlı bir çözümdür; lider bir akıllı ürün olarak konumlanır.", "AnimeSharp.description": "AnimeSharp (diğer adıyla \"4x-AnimeSharp\"), Kim2091 tarafından geliştirilen ESRGAN tabanlı açık kaynaklı bir süper çözünürlük modelidir. Anime tarzı görselleri büyütme ve keskinleştirmeye odaklanır. Şubat 2022'de \"4x-TextSharpV1\" adından yeniden adlandırılmıştır; başlangıçta metin görselleri için de tasarlanmış olsa da anime içeriği için optimize edilmiştir.", "Baichuan2-Turbo.description": "Modeli alan ve web bilgisiyle birleştirmek için arama artırımı kullanır. PDF/Word yüklemeleri ve URL girişlerini destekleyerek zamanında, kapsamlı bilgi erişimi ve profesyonel, doğru çıktılar sağlar.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision, dil, metin ve görsel kıyaslamalarda güçlü performans sergileyen son teknoloji çok modlu bir modeldir. Bu 8B sürüm, düşük gecikme süresi ve güçlü performansa odaklanır.", "charglm-3.description": "CharGLM-3, rol yapma ve duygusal arkadaşlık için tasarlanmıştır; ultra uzun çoklu dönüş hafızası ve kişiselleştirilmiş diyalog desteği sunar.", "charglm-4.description": "CharGLM-4, rol yapma ve duygusal arkadaşlık için tasarlanmıştır; ultra uzun çoklu dönüş hafızası ve kişiselleştirilmiş diyalog desteği sunar.", - "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Müşteri hizmetleri, eğitim ve teknik destek gibi büyük ölçekli kullanım senaryoları için güçlü anlama ve üretim yeteneklerini birleştirir.", + "chatgpt-4o-latest.description": "ChatGPT-4o, gerçek zamanlı olarak güncellenen dinamik bir modeldir. Güçlü dil anlama ve üretim yeteneklerini birleştirerek müşteri desteği, eğitim ve teknik yardım gibi geniş ölçekli kullanım senaryoları için uygundur.", "claude-2.0.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.", "claude-2.1.description": "Claude 2, 200K-token bağlam desteği, azaltılmış halüsinasyonlar, sistem istemleri ve yeni bir test özelliği olan araç çağırma gibi kurumsal düzeyde iyileştirmeler sunar.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku, Anthropic'in en hızlı yeni nesil modeli olup, yeteneklerde gelişme göstermekte ve birçok ölçüt açısından önceki amiral gemisi Claude 3 Opus'u geride bırakmaktadır.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B), derin dil anlama ve etkileşim sunan yenilikçi bir modeldir.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciriyle derin analiz görevleri için geliştirilmiş yeni nesil bir modeldir.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2, daha güçlü karmaşık akıl yürütme ve düşünce zinciri yeteneklerine sahip yeni nesil bir akıl yürütme modelidir.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2, DeepSeekMoE-27B tabanlı, seyrek etkinleştirme kullanan bir MoE görsel-dil modelidir. Sadece 4.5B aktif parametreyle güçlü performans sunar. Görsel Soru-Cevap, OCR, belge/tablo/grafik anlama ve görsel eşleme konularında öne çıkar.", "deepseek-chat.description": "DeepSeek V3.2, günlük soru-cevap ve ajan görevleri için akıl yürütme ve çıktı uzunluğu arasında denge kurar. Kamuya açık ölçütlerde GPT-5 seviyelerine ulaşır ve araç kullanımına düşünme sürecini entegre eden ilk modeldir; açık kaynak ajan değerlendirmelerinde öne çıkar.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B, 2T token (%%87 kod, %%13 Çince/İngilizce metin) ile eğitilmiş bir kodlama dil modelidir. 16K bağlam penceresi ve ortadan doldurma görevleri sunar; proje düzeyinde kod tamamlama ve kod parçacığı doldurma sağlar.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1, düşünme ve düşünmeme modlarını destekleyen yeni bir hibrit akıl yürütme modelidir. DeepSeek-R1-0528'e kıyasla daha yüksek düşünme verimliliği sunar. Eğitim sonrası optimizasyonlar, araç kullanımı ve görev performansını büyük ölçüde artırır. 128k bağlam penceresi ve 64k'ya kadar çıktı token'ı desteği sunar.", "deepseek-v3.1:671b.description": "DeepSeek V3.1, karmaşık akıl yürütme ve düşünce zinciri yetenekleri geliştirilmiş yeni nesil bir akıl yürütme modelidir. Derin analiz gerektiren görevler için uygundur.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp, uzun metinlerde eğitim ve çıkarım verimliliğini artırmak için seyrek dikkat mekanizması sunar ve deepseek-v3.1'e göre daha uygun fiyatlıdır.", + "deepseek-v3.2-speciale.description": "Son derece karmaşık görevlerde, Speciale modeli standart versiyonu önemli ölçüde geride bırakır, ancak çok daha fazla token tüketir ve daha yüksek maliyetlere neden olur. Şu anda DeepSeek-V3.2-Speciale yalnızca araştırma amaçlı kullanım için tasarlanmıştır, araç çağrılarını desteklemez ve günlük konuşma veya yazma görevleri için özel olarak optimize edilmemiştir.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think, daha güçlü uzun zincirli akıl yürütme yeteneklerine sahip tam kapsamlı bir derin düşünme modelidir.", "deepseek-v3.2.description": "DeepSeek-V3.2, DeepSeek'in düşünmeyi araç kullanımına entegre eden ilk hibrit akıl yürütme modelidir. Hesaplama verimliliği için optimize edilmiş mimari, yetenekleri artırmak için büyük ölçekli pekiştirmeli öğrenme ve genelleme gücünü artırmak için sentetik görev verileri kullanır. Bu üç unsurun birleşimi, GPT-5-High ile karşılaştırılabilir bir performans sunarken çıktı uzunluğunu önemli ölçüde azaltır, böylece hesaplama yükünü ve kullanıcı bekleme süresini düşürür.", "deepseek-v3.description": "DeepSeek-V3, toplamda 671 milyar parametreye ve token başına 37 milyar aktif parametreye sahip güçlü bir MoE modelidir.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite, herhangi bir çözünürlükte ve uç oranlarda görselleri destekleyen, görsel akıl yürütme, belge tanıma, detay anlama ve talimat takibini geliştiren yükseltilmiş bir çok modlu modeldir. 128k bağlam penceresi ve 16k'ya kadar çıktı belirteci desteği sunar.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro, herhangi bir çözünürlükte ve uç oranlarda görselleri destekleyen, görsel akıl yürütme, belge tanıma, detay anlama ve talimat takibini geliştiren yükseltilmiş bir çok modlu modeldir.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro, herhangi bir çözünürlükte ve uç oranlarda görselleri destekleyen, görsel akıl yürütme, belge tanıma, detay anlama ve talimat takibini geliştiren yükseltilmiş bir çok modlu modeldir.", - "doubao-lite-128k.description": "Ultra hızlı yanıt süresi ve daha iyi değer sunar, farklı senaryolarda esnek seçenekler sağlar. 128k bağlam penceresiyle akıl yürütme ve ince ayar desteklenir.", "doubao-lite-32k.description": "Ultra hızlı yanıt süresi ve daha iyi değer sunar, farklı senaryolarda esnek seçenekler sağlar. 32k bağlam penceresiyle akıl yürütme ve ince ayar desteklenir.", - "doubao-lite-4k.description": "Ultra hızlı yanıt süresi ve daha iyi değer sunar, farklı senaryolarda esnek seçenekler sağlar. 4k bağlam penceresiyle akıl yürütme ve ince ayar desteklenir.", - "doubao-pro-256k.description": "Referans Soru-Cevap, özetleme, içerik üretimi, metin sınıflandırma ve rol yapma gibi karmaşık görevlerde en iyi performansı sunan amiral gemisi modeldir. 256k bağlam penceresiyle akıl yürütme ve ince ayar desteklenir.", "doubao-pro-32k.description": "Referans Soru-Cevap, özetleme, içerik üretimi, metin sınıflandırma ve rol yapma gibi karmaşık görevlerde en iyi performansı sunan amiral gemisi modeldir. 32k bağlam penceresiyle akıl yürütme ve ince ayar desteklenir.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash, TPOT süresi 10ms kadar düşük olan ultra hızlı çok modlu derin akıl yürütme modelidir. Metin ve görseli destekler, metin anlama açısından önceki lite modelin ötesine geçer ve görselde rakip pro modellerle eşleşir. 256k bağlam penceresi ve 16k'ya kadar çıktı belirteci desteği sunar.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite, ayarlanabilir akıl yürütme düzeyine (Minimal, Düşük, Orta, Yüksek) sahip yeni bir çok modlu derin akıl yürütme modelidir. Yaygın görevler için daha iyi değer sunar ve 256k'ya kadar bağlam penceresini destekler.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "ByteDance Seed tarafından geliştirilen Doubao görsel modeli, metin ve görsel girişlerini destekler ve yüksek kaliteli, kontrol edilebilir görsel üretimi sunar. Metinle yönlendirilen görsel düzenlemeyi destekler ve çıktı boyutları uzun kenarda 512 ile 1536 arasında değişir.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0, ByteDance Seed tarafından geliştirilen bir görsel üretim modelidir; metin ve görsel girişlerini destekler, yüksek kaliteli ve kontrol edilebilir görseller üretir. Metin istemlerinden görseller oluşturur.", "doubao-seedream-4-0-250828.description": "Seedream 4.0, ByteDance Seed tarafından geliştirilen bir görsel üretim modelidir; metin ve görsel girişlerini destekler, yüksek kaliteli ve kontrol edilebilir görseller üretir. Metin istemlerinden görseller oluşturur.", - "doubao-vision-lite-32k.description": "Doubao-vision, güçlü görsel anlama ve akıl yürütme yeteneklerine sahip bir Doubao çok modlu modelidir; doğru talimat takibiyle birlikte görsel-metin çıkarımı ve görsel tabanlı akıl yürütme görevlerinde başarılıdır. Daha karmaşık ve geniş görsel Soru-Cevap senaryolarını mümkün kılar.", - "doubao-vision-pro-32k.description": "Doubao-vision, güçlü görsel anlama ve akıl yürütme yeteneklerine sahip bir Doubao çok modlu modelidir; doğru talimat takibiyle birlikte görsel-metin çıkarımı ve görsel tabanlı akıl yürütme görevlerinde başarılıdır. Daha karmaşık ve geniş görsel Soru-Cevap senaryolarını mümkün kılar.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5, ByteDance'in en son çok modlu görüntü modelidir. Metinden görüntüye, görüntüden görüntüye ve toplu görüntü oluşturma yeteneklerini entegre ederken, sağduyu ve akıl yürütme yeteneklerini içerir. Önceki 4.0 sürümüne kıyasla, daha iyi düzenleme tutarlılığı ve çoklu görüntü birleştirme ile önemli ölçüde geliştirilmiş üretim kalitesi sunar. Görsel detaylar üzerinde daha hassas kontrol sağlar, küçük metin ve küçük yüzleri daha doğal bir şekilde üretir ve daha uyumlu düzen ve renk elde ederek genel estetiği artırır.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite, ByteDance'in en son görüntü oluşturma modelidir. İlk kez çevrimiçi bilgi alma yeteneklerini entegre ederek gerçek zamanlı web bilgilerini dahil etmesine ve oluşturulan görüntülerin zamanlamasını artırmasına olanak tanır. Modelin zekası da yükseltilmiş, karmaşık talimatları ve görsel içeriği hassas bir şekilde yorumlama yeteneği kazandırılmıştır. Ayrıca, profesyonel senaryolarda daha iyi küresel bilgi kapsamı, referans tutarlılığı ve üretim kalitesi sunarak kurumsal düzeyde görsel yaratım ihtiyaçlarını daha iyi karşılar.", "emohaa.description": "Emohaa, kullanıcıların duygusal sorunları anlamalarına yardımcı olmak için profesyonel danışmanlık yeteneklerine sahip bir ruh sağlığı modelidir.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B, yerel ve özelleştirilmiş dağıtım için açık kaynaklı hafif bir modeldir.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking, toplamda 21B parametre ve 3B aktif parametreye sahip bir metin MoE (Uzman Karışımı) sonrası eğitim modeli olup, önemli ölçüde geliştirilmiş akıl yürütme kalitesi ve derinliği sunar.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B, daha güçlü anlama ve üretim yeteneklerine sahip açık kaynaklı büyük parametreli bir modeldir.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B, Baidu ERNIE'nin mükemmel akıl yürütme yeteneğine sahip ultra büyük MoE modelidir.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Önizleme, ERNIE 4.5'in değerlendirilmesi için 8K bağlam önizleme modelidir.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K, gecikme ve maliyet hassasiyeti olan senaryolar için hafif ve yüksek performanslı bir modeldir.", "ernie-novel-8k.description": "ERNIE Novel 8K, çok karakterli anlatımlarla uzun biçimli romanlar ve IP hikâyeleri için tasarlanmıştır.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K, büyük ölçekli çevrimiçi hizmetler ve kurumsal uygulamalar için yüksek eşzamanlılık ve yüksek değer sunan bir modeldir.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview, karmaşık akıl yürütme ve çoklu dönüş sohbet için 32K bağlam sunan hızlı düşünme modelidir.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K, karmaşık akıl yürütme ve çoklu dönüşlü sohbetler için 32K bağlamlı hızlı düşünme modelidir.", "ernie-x1.1-preview.description": "ERNIE X1.1 Önizleme, değerlendirme ve test için bir düşünme modeli önizlemesidir.", + "ernie-x1.1.description": "ERNIE X1.1, değerlendirme ve test için bir düşünme-modeli önizlemesidir.", "fal-ai/bytedance/seedream/v4.5.description": "ByteDance Seed ekibi tarafından geliştirilen Seedream 4.5, çoklu görsel düzenleme ve kompozisyonu destekler. Geliştirilmiş konu tutarlılığı, talimatlara hassas uyum, mekânsal mantık anlayışı, estetik ifade, afiş yerleşimi ve logo tasarımı ile yüksek hassasiyetli metin-görsel işleme sunar.", "fal-ai/bytedance/seedream/v4.description": "ByteDance Seed tarafından geliştirilen Seedream 4.0, metin ve görsel girdileri destekleyerek yönlendirmelerden yüksek kaliteli ve kontrol edilebilir görsel üretimi sağlar.", "fal-ai/flux-kontext/dev.description": "FLUX.1 modeli, metin ve görsel girdileri destekleyen görsel düzenleme odaklı bir modeldir.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite'ın 25 Eylül 2025 tarihli önizleme sürümüdür.", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite, Google’ın büyük ölçekli kullanım için tasarlanmış en küçük ve en uygun fiyatlı modelidir.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview, Google’ın tam yetenekli en uygun fiyatlı modelidir.", - "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash'ın 25 Eylül 2025 tarihli önizleme sürümüdür.", "gemini-2.5-flash.description": "Gemini 2.5 Flash, Google’ın tam yetenekli en uygun fiyatlı modelidir.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview, Google’ın en gelişmiş akıl yürütme modelidir. Kod, matematik ve STEM problemleri üzerinde akıl yürütebilir; büyük veri kümeleri, kod tabanları ve uzun belgeleri analiz edebilir.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview, Google’ın en gelişmiş akıl yürütme modelidir. Kod, matematik ve STEM problemleri üzerinde akıl yürütebilir; büyük veri kümeleri, kod tabanları ve uzun belgeleri analiz edebilir.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image (Nano Banana Pro), Google’ın görsel üretim modelidir ve çok modlu sohbeti destekler.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro), Google'ın görüntü oluşturma modeli olup, aynı zamanda çok modlu sohbeti destekler.", "gemini-3-pro-preview.description": "Gemini 3 Pro, Google’ın en güçlü ajan ve vibe-coding modelidir. En yeni akıl yürütme yeteneklerinin üzerine zengin görseller ve derin etkileşim sunar.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2), Flash hızında Pro düzeyinde görüntü kalitesi sunar ve çok modlu sohbet desteği sağlar.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2), Flash hızında Pro düzeyinde görüntü kalitesi sunar ve çok modlu sohbet desteği sağlar.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview, Gemini 3 Pro'ya kıyasla geliştirilmiş akıl yürütme yetenekleri sunar ve orta düzey düşünme desteği ekler.", "gemini-flash-latest.description": "Gemini Flash'ın en son sürümü", "gemini-flash-lite-latest.description": "Gemini Flash-Lite'ın en son sürümü", "gemini-pro-latest.description": "Gemini Pro'nun en son sürümü", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus, video ve çoklu görüntüleri anlayabilir. Çok modlu görevler için uygundur.", "glm-4v-plus.description": "GLM-4V-Plus, video ve çoklu görüntüleri anlayabilir. Çok modlu görevler için uygundur.", "glm-4v.description": "GLM-4V, görsel görevlerde güçlü görüntü anlama ve akıl yürütme yetenekleri sunar.", - "glm-5.description": "Z.ai tarafından sunulan, karmaşık sistem mühendisliği ve uzun vadeli görevler için tasarlanmış, toplamda 744B parametreye (40B aktif) sahip güçlü bir akıl yürütme ve ajans modeli.", + "glm-5.description": "GLM serisi, Zhipu AI tarafından ajanlar için oluşturulmuş, düşünme ve düşünmeme modlarına sahip hibrit bir akıl yürütme modelidir.", "glm-z1-air.description": "Derin çıkarım gerektiren görevler için güçlü akıl yürütme yeteneğine sahip bir modeldir.", "glm-z1-airx.description": "Ultra hızlı akıl yürütme ve yüksek akıl yürütme kalitesi sunar.", "glm-z1-flash.description": "GLM-Z1 serisi, mantık, matematik ve programlama alanlarında güçlü karmaşık akıl yürütme yetenekleri sunar.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Grok 4 Fast modelimizi sunmaktan heyecan duyuyoruz; uygun maliyetli akıl yürütme modellerinde en son gelişmemizdir.", "grok-4.description": "En yeni ve en güçlü amiral gemisi modelimizdir; doğal dil işleme, matematik ve akıl yürütme konularında mükemmeldir—çok yönlü kullanım için idealdir.", "grok-code-fast-1.description": "Ajan tabanlı kodlama görevlerinde öne çıkan, hızlı ve uygun maliyetli bir akıl yürütme modeli olan grok-code-fast-1 modelini sunmaktan heyecan duyuyoruz.", + "grok-imagine-image-pro.description": "Metin istemlerinden görüntüler oluşturun, mevcut görüntüleri doğal dil ile düzenleyin veya çoklu dönüşlü konuşmalarla görüntüleri iteratif olarak geliştirin.", + "grok-imagine-image.description": "Metin istemlerinden görüntüler oluşturun, mevcut görüntüleri doğal dil ile düzenleyin veya çoklu dönüşlü konuşmalarla görüntüleri iteratif olarak geliştirin.", "groq/compound-mini.description": "Compound-mini, GroqCloud üzerinde desteklenen halka açık modellerle çalışan bileşik bir yapay zeka sistemidir; kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanır.", "groq/compound.description": "Compound, GroqCloud üzerinde desteklenen birden fazla halka açık modelle çalışan bileşik bir yapay zeka sistemidir; kullanıcı sorgularını yanıtlamak için araçları akıllıca ve seçici şekilde kullanır.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B, birden fazla üst düzey modelin birleşiminden oluşan yaratıcı ve zeki bir dil modelidir.", + "hunyuan-2.0-instruct-20251111.description": "Sürüm Özellikleri: Model tabanı TurboS'den **Hunyuan 2.0**'a yükseltilmiş olup, kapsamlı yetenek iyileştirmeleri sunar. Talimat takibi, çoklu dönüş ve uzun metin anlama, edebi yaratım, bilgi doğruluğu, kodlama ve akıl yürütme yeteneklerini önemli ölçüde geliştirir.", + "hunyuan-2.0-thinking-20251109.description": "Sürüm Özellikleri: Model tabanı TurboS'den **Hunyuan 2.0**'a yükseltilmiş olup, karmaşık talimatları takip etme, çoklu dönüş ve uzun metin anlama, kod işleme, ajan olarak çalışma ve akıl yürütme görevlerini gerçekleştirme yeteneklerini önemli ölçüde geliştirir.", "hunyuan-a13b.description": "Hunyuan'ın ilk hibrit akıl yürütme modeli, hunyuan-standard-256K'dan (toplam 80B, aktif 13B) yükseltilmiştir. Varsayılan olarak yavaş düşünme modundadır ve parametreler veya /no_think öneki ile hızlı/yavaş geçişi destekler. Özellikle matematik, bilim, uzun metin anlama ve ajan görevlerinde önceki nesle göre genel yetenek artışı sağlar.", - "hunyuan-code.description": "200B yüksek kaliteli kod ve altı aylık SFT ile eğitilmiş en yeni kod üretim modeli; bağlam 8K'ya genişletildi. Beş dilde otomatik ölçütlerde ve on kriterde insan değerlendirmelerinde üst sıralarda yer alır.", - "hunyuan-functioncall.description": "Yüksek kaliteli fonksiyon çağrısı verileriyle eğitilmiş en yeni MoE FunctionCall modeli; 32K bağlam penceresi ve çok boyutlu ölçütlerde lider sonuçlar sunar.", - "hunyuan-large-longcontext.description": "Özetleme ve Soru-Cevap gibi uzun belge görevlerinde mükemmeldir; aynı zamanda genel üretimi de destekler. Karmaşık ve ayrıntılı içerikler için güçlü uzun metin analizi ve üretimi sunar.", - "hunyuan-large-vision.description": "Hunyuan Large'dan eğitilmiş bir görsel-dil modeli; görsel-metin anlama için geliştirilmiştir. Her çözünürlükte çoklu görsel + metin girişi destekler ve çok dilli görsel anlama yeteneğini artırır.", - "hunyuan-large.description": "Hunyuan-large, yaklaşık 389B toplam parametreye ve yaklaşık 52B aktif parametreye sahiptir; Transformer mimarisinde en büyük ve en güçlü açık MoE modelidir.", - "hunyuan-lite-vision.description": "32K bağlam penceresine sahip en yeni 7B çok modlu model; Çince/İngilizce çok modlu sohbet, nesne tanıma, belge tablosu anlama ve çok modlu matematik destekler. Birçok ölçütte 7B rakiplerini geride bırakır.", + "hunyuan-code.description": "Hunyuan'ın en son kod modeli, 200B yüksek kaliteli kod verisi ve altı aylık SFT verisi üzerinde eğitilmiştir, 8K bağlam sunar. Otomatik kodlama kıyaslamalarında ve beş dilde uzman insan değerlendirmelerinde üst sıralarda yer alır.", + "hunyuan-functioncall.description": "Hunyuan'ın en son MoE FunctionCall modeli, yüksek kaliteli araç çağrısı verileri üzerinde eğitilmiştir, 32K bağlam penceresi sunar ve çeşitli boyutlarda lider kıyaslamalar sağlar.", "hunyuan-lite.description": "MoE mimarisine yükseltilmiş ve 256K bağlam penceresi ile donatılmıştır; NLP, kod, matematik ve sektör ölçütlerinde birçok açık modeli geride bırakır.", "hunyuan-pro.description": "Trilyon parametreli MOE-32K uzun bağlam modeli; karmaşık talimatlar ve akıl yürütmede güçlüdür. Gelişmiş matematik, fonksiyon çağrısı ve çok dilli çeviri, finans, hukuk ve tıp alanları için optimize edilmiştir.", - "hunyuan-role.description": "Rol yapma veri kümeleriyle resmi olarak ince ayar yapılmış en yeni rol yapma modeli; rol yapma senaryoları için daha güçlü temel performans sunar.", - "hunyuan-standard-256K.description": "Yük dengeleme ve uzman çökmesini azaltmak için geliştirilmiş yönlendirme kullanır. Uzun bağlamda %99,9 iğne-samanlık başarımı sağlar. MOE-256K, bağlam uzunluğunu ve kalitesini daha da artırır.", - "hunyuan-standard-vision.description": "Çok dilli yanıtlar ve dengeli Çince/İngilizce yetenek sunan en yeni çok modlu model.", - "hunyuan-standard.description": "Yük dengeleme ve uzman çökmesini azaltmak için geliştirilmiş yönlendirme kullanır. Uzun bağlamda %99,9 iğne-samanlık başarımı sağlar. MOE-32K, uzun girdileri işlerken yüksek değer sunar.", - "hunyuan-t1-20250321.description": "Sanat ve STEM yeteneklerini dengeler, uzun metin bilgisini güçlü şekilde yakalar. Matematik, mantık, bilim ve kod problemlerinde akıl yürütmeli yanıtlar sunar.", - "hunyuan-t1-20250403.description": "Proje düzeyinde kod üretimi ve yazım kalitesini geliştirir; çoklu dönüşlü konu anlama ve ToB talimat takibini güçlendirir; kelime düzeyinde anlama geliştirir ve sadeleştirilmiş/geleneksel ile Çince/İngilizce karışık çıktı sorunlarını azaltır.", - "hunyuan-t1-20250529.description": "Yaratıcı yazım ve kompozisyonu geliştirir; ön yüz kodlama, matematik ve mantık akıl yürütmesini güçlendirir; talimat takibini artırır.", - "hunyuan-t1-20250711.description": "Zor matematik, mantık ve kodlamada büyük gelişme sağlar; çıktı kararlılığını artırır ve uzun metin yeteneğini geliştirir.", + "hunyuan-role.description": "Hunyuan'ın en son rol yapma modeli, rol yapma verileriyle resmi olarak ince ayar yapılmış olup, rol yapma senaryolarında daha güçlü temel performans sunar.", + "hunyuan-standard-256K.description": "Yük dengeleme ve uzman çökmesini azaltmak için geliştirilmiş yönlendirme kullanır. Uzun metin \"samanlıkta iğne\" %99.9'a ulaşır. MOE-256K, uzunluk ve kaliteyi daha da ileriye taşıyarak giriş uzunluğunu büyük ölçüde genişletir.", + "hunyuan-standard.description": "Yük dengeleme ve uzman çökmesini azaltmak için geliştirilmiş yönlendirme kullanır. Uzun metin \"samanlıkta iğne\" %99.9'a ulaşır. MOE-32K, uzun metin girişleri için kalite ve fiyat arasında daha iyi bir denge sunar.", "hunyuan-t1-latest.description": "Zor matematik, karmaşık akıl yürütme, zorlu kodlama, talimat takibi ve yaratıcı yazım kalitesinde yavaş düşünme modelini önemli ölçüde geliştirir.", - "hunyuan-t1-vision-20250619.description": "Önceki varsayılan sürüme göre önemli ölçüde geliştirilmiş, yerel düşünce zincirine sahip en yeni t1-vision çok modlu derin akıl yürütme modeli.", "hunyuan-t1-vision-20250916.description": "VQA, görsel eşleme, OCR, grafikler, fotoğraflı problem çözme ve görsel tabanlı üretimde büyük gelişmeler sunan en yeni t1-vision derin akıl yürütme modeli; ayrıca İngilizce ve düşük kaynaklı dillerde daha güçlüdür.", - "hunyuan-turbo-20241223.description": "Genelleme için talimat ölçeklendirmesini artırır; matematik/kod/mantık akıl yürütmesini önemli ölçüde geliştirir; kelime düzeyinde anlama ve yazım kalitesini artırır.", - "hunyuan-turbo-latest.description": "NLP anlama, yazım, sohbet, Soru-Cevap, çeviri ve alanlarda genel deneyim iyileştirmeleri; daha insansı yanıtlar, belirsiz niyetlerde daha iyi açıklama, kelime ayrıştırmada gelişme, daha yüksek yaratıcı kalite ve etkileşim, daha güçlü çoklu dönüşlü konuşmalar.", - "hunyuan-turbo-vision.description": "Yeni MoE mimarisi kullanan yeni nesil görsel-dil amiral gemisi; tanıma, içerik üretimi, bilgi Soru-Cevap ve analitik akıl yürütmede geniş gelişmeler sunar.", "hunyuan-turbo.description": "Hunyuan’ın yeni nesil LLM önizlemesi; yeni MoE mimarisiyle daha hızlı akıl yürütme ve hunyuan-pro'dan daha güçlü sonuçlar sunar.", - "hunyuan-turbos-20250313.description": "Matematik çözüm stilini birleştirir ve çoklu dönüşlü matematik Soru-Cevap'ı güçlendirir. Yazım stili, yapay zeka benzeri tonu azaltmak ve cilalamak için iyileştirilmiştir.", - "hunyuan-turbos-20250416.description": "Talimat anlama ve takibini geliştirmek için ön eğitim tabanı yükseltildi; hizalama matematik, kod, mantık ve bilimi geliştirir; yazım kalitesi, anlama, çeviri doğruluğu ve bilgi Soru-Cevap'ı artırır; özellikle çoklu dönüşlü anlama için ajan yeteneklerini güçlendirir.", - "hunyuan-turbos-20250604.description": "Yazım ve okuma anlama geliştirmeleriyle ön eğitim tabanı yükseltildi; kod ve STEM'de önemli kazanımlar; karmaşık talimat takibinde daha iyi performans.", - "hunyuan-turbos-20250926.description": "Ön eğitim veri kalitesi ve son eğitim stratejisi geliştirildi; ajanlar, İngilizce/düşük kaynaklı diller, talimat takibi, kod ve STEM yetenekleri iyileştirildi.", "hunyuan-turbos-latest.description": "En yeni Hunyuan TurboS amiral gemisi modeli; daha güçlü akıl yürütme ve genel deneyim sunar.", - "hunyuan-turbos-longtext-128k-20250325.description": "Özetleme ve Soru-Cevap gibi uzun belge görevlerinde mükemmeldir; aynı zamanda genel üretimi de destekler. Karmaşık, ayrıntılı içerikler için güçlü uzun metin analizi ve üretimi sunar.", - "hunyuan-turbos-role-plus.description": "Rol yapma veri kümeleriyle resmi olarak ince ayar yapılmış en yeni rol yapma modeli; rol yapma senaryoları için daha güçlü temel performans sunar.", - "hunyuan-turbos-vision-20250619.description": "Görsel-metin görevlerinde büyük kazanımlar sunan en yeni TurboS görsel-dil amiral gemisi; varlık tanıma, bilgi Soru-Cevap, metin yazımı ve fotoğraf tabanlı problem çözme gibi görevlerde öne çıkar.", - "hunyuan-turbos-vision.description": "En yeni TurboS tabanlı yeni nesil görsel-dil amiral gemisi; varlık tanıma, bilgi Soru-Cevap, metin yazımı ve fotoğraf tabanlı problem çözme gibi görsel-metin anlama görevlerine odaklanır.", - "hunyuan-vision-1.5-instruct.description": "Metin tabanlı TurboS temelinde geliştirilen, görselden metin üretimi için hızlı düşünme modeli. Önceki sürüme kıyasla görüntü tanıma, analiz ve akıl yürütme alanlarında belirgin performans artışı sağlar.", - "hunyuan-vision.description": "Görüntü + metin girişiyle metin üretebilen en yeni çok modlu model.", + "hunyuan-vision-1.5-instruct.description": "TurboS metin tabanında oluşturulmuş hızlı düşünme görüntüden metne modeli, temel görüntü tanıma ve görüntü analizi akıl yürütme alanlarında önceki sürüme göre belirgin iyileştirmeler gösterir.", + "hunyuan-vision.description": "Hunyuan'ın en son çok modlu modeli, metin ve görüntü girişlerini destekleyerek metin oluşturur.", "image-01-live.description": "İnce detaylara sahip görüntü üretim modeli; metinden görsele ve kontrol edilebilir stil ön ayarlarını destekler.", "image-01.description": "İnce detaylara sahip yeni bir görüntü üretim modeli; metinden görsele ve görselden görsele dönüşümü destekler.", "imagen-4.0-fast-generate-001.description": "Imagen 4. nesil metinden görsele model serisinin Hızlı sürümü", "imagen-4.0-generate-001.description": "Imagen 4. nesil metinden görsele model serisi", - "imagen-4.0-generate-preview-06-06.description": "Imagen 4. nesil metinden görsele model ailesi.", "imagen-4.0-ultra-generate-001.description": "Imagen 4. nesil metinden görsele model serisinin Ultra sürümü", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen 4. nesil metinden görsele model ailesinin Ultra varyantı.", "inception/mercury-coder-small.description": "Mercury Coder Small, düşük gecikmeyle kod üretimi, hata ayıklama ve yeniden yapılandırma için idealdir.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0, Ant Group’un Bailing ekibinin geliştirdiği Ling 2.0 mimarisine dayalı üçüncü modeldir. Toplamda 100 milyar parametreye sahip MoE modelidir, ancak her token için yalnızca 6.1 milyar (gömme hariç 4.8 milyar) parametre aktiftir. Hafif yapısına rağmen, birçok ölçüt üzerinde 40B yoğun modelleri ve daha büyük MoE modelleri eşitler veya geçer. Mimari ve eğitim stratejisiyle yüksek verimlilik araştırılır.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0, 16B toplam parametreye ve token başına yalnızca 1.4B aktif (789M gömme hariç) parametreye sahip, küçük ama yüksek performanslı bir MoE LLM’dir. Hızlı üretim sağlar. Verimli MoE tasarımı ve yüksek kaliteli büyük eğitim verisiyle, 10B altı yoğun modellerle ve daha büyük MoE modellerle karşılaştırılabilir üst düzey performans sunar.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T, inclusionAI’nin trilyon parametreli MoE akıl yürütme modelidir; büyük ölçekli akıl yürütme ve araştırma görevleri için uygundur.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0, inclusionAI’nin yüksek verimli senaryolar için hız ve maliyet verimliliğine odaklanan Ring model varyantıdır.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0, inclusionAI’nin yüksek eşzamanlılık için tasarlanmış hafif MoE modelidir.", + "intern-latest.description": "Varsayılan olarak, şu anda intern-s1-pro olarak ayarlanmış en son yayınlanan Intern serisi modelimize işaret eder.", + "intern-s1-mini.description": "Güçlü bilimsel akıl yürütme yeteneklerine sahip hafif bir çok modlu büyük model.", + "intern-s1-pro.description": "En gelişmiş açık kaynaklı çok modlu akıl yürütme modelimizi piyasaya sürdük, şu anda genel performans açısından en iyi açık kaynaklı çok modlu büyük dil modeli.", + "intern-s1.description": "Açık kaynaklı çok modlu akıl yürütme modeli, yalnızca güçlü genel amaçlı yetenekler sergilemekle kalmaz, aynı zamanda çok çeşitli bilimsel görevlerde en son teknoloji performansı elde eder.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat, InternLM2 mimarisi üzerine kurulu açık kaynaklı bir sohbet modelidir. 7B modeli, Çince/İngilizce destekli diyalog üretimine odaklanır ve modern eğitim teknikleriyle akıcı ve zeki sohbetler sunar. Müşteri hizmetleri ve kişisel asistan gibi birçok sohbet senaryosuna uygundur.", - "internlm2.5-latest.description": "Birçok yineleme sonrası hâlâ korunan eski modellerdir; mükemmel ve kararlı performans sunar. 7B ve 20B boyutlarında mevcuttur, 1M bağlamı destekler ve daha güçlü talimat izleme ile araç kullanımı sağlar. Varsayılan olarak en son InternLM2.5 serisini (şu anda internlm2.5-20b-chat) kullanır.", - "internlm3-latest.description": "Boyut sınıfında önde gelen açık modeller arasında yer alan, mükemmel akıl yürütme performansına sahip en yeni model serimizdir. Varsayılan olarak en son InternLM3 serisini (şu anda internlm3-8b-instruct) kullanır.", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO, karmaşık görsel-metin akıl yürütmesi için çok modlu önceden eğitilmiş bir modeldir.", - "internvl2.5-latest.description": "InternVL2.5 hâlâ güçlü ve kararlı performansla korunmaktadır. Varsayılan olarak en son InternVL2.5 serisini (şu anda internvl2.5-78b) kullanır.", "internvl3-14b.description": "InternVL3 14B, performans ve maliyet arasında denge sağlayan orta boyutlu bir çok modlu modeldir.", "internvl3-1b.description": "InternVL3 1B, kaynak kısıtlı dağıtımlar için hafif bir çok modlu modeldir.", "internvl3-38b.description": "InternVL3 38B, yüksek doğrulukta görsel-metin anlama için büyük bir açık kaynaklı çok modlu modeldir.", - "internvl3-latest.description": "En yeni çok modlu modelimizdir; daha güçlü görsel-metin anlama ve uzun dizili görsel kavrama sunar, en iyi kapalı modellerle karşılaştırılabilir. Varsayılan olarak en son InternVL serisini (şu anda internvl3-78b) kullanır.", + "internvl3.5-241b-a28b.description": "Yeni yayınlanan çok modlu büyük modelimiz, görüntü ve metin anlama ile uzun dizilim görüntü anlama yeteneklerini geliştirerek, lider kapalı kaynaklı modellerle karşılaştırılabilir performans elde eder.", + "internvl3.5-latest.description": "Varsayılan olarak, şu anda internvl3.5-241b-a28b olarak ayarlanmış InternVL3.5 serisinin en son modeline işaret eder.", "irag-1.0.description": "ERNIE iRAG, görsel arama, görsel-metin alma ve içerik üretimi için görsel geri getirme destekli üretim modelidir.", "jamba-large.description": "Karmaşık kurumsal görevler için tasarlanmış, en güçlü ve gelişmiş modelimizdir; olağanüstü performans sunar.", "jamba-mini.description": "Sınıfındaki en verimli modeldir; hız ve kalite arasında denge sağlar, daha küçük bir kaynak kullanımı sunar.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2, özellikle kodlama ve ajan iş akışları için oluşturulmuş verimli bir büyük dil modelidir.", "minimax/minimax-m2.1.description": "MiniMax-M2.1, kodlama, vekil iş akışları ve modern uygulama geliştirme için optimize edilmiş, hafif ve son teknoloji bir büyük dil modelidir. Daha temiz, özlü çıktılar ve daha hızlı algısal yanıt süreleri sunar.", "minimax/minimax-m2.description": "MiniMax-M2, birçok mühendislik senaryosu için kodlama ve ajan görevlerinde üstün performans gösteren yüksek değerli bir modeldir.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1, üst düzey kodlama ve ajan performansı için tasarlanmış kompakt, hızlı ve maliyet etkin bir MoE modelidir.", "minimaxai/minimax-m2.description": "MiniMax-M2, üst düzey kodlama ve ajan performansı için oluşturulmuş, kompakt, hızlı ve maliyet etkin bir MoE modelidir (toplam 230B, aktif 10B). Çoklu dosya düzenlemeleri, kod çalıştır-düzelt döngüleri, test doğrulama ve karmaşık araç zincirlerinde mükemmeldir.", "ministral-3b-latest.description": "Ministral 3B, Mistral’in en üst düzey uç modelidir.", "ministral-8b-latest.description": "Ministral 8B, Mistral’in son derece uygun maliyetli uç modelidir.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview modeli, 256K bağlam penceresini destekler; daha güçlü ajan kodlama, daha rafine ve pratik ön yüz kodu ve daha iyi bağlam anlama sunar.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo, Kimi K2 Thinking’in yüksek hızlı versiyonudur; gecikmeyi önemli ölçüde azaltırken derin akıl yürütmeyi korur.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking, Moonshot’un derin akıl yürütme görevleri için optimize edilmiş düşünme modelidir; genel ajan yeteneklerine sahiptir.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5, yerel çok modlu mimariye sahip en akıllı Kimi modelidir.", "moonshotai/kimi-k2.description": "Kimi K2, Moonshot AI tarafından geliştirilen büyük bir MoE modelidir. 1T toplam parametre ve her geçişte 32B aktif parametre ile gelişmiş araç kullanımı, akıl yürütme ve kod üretimi gibi ajan yetenekleri için optimize edilmiştir.", "morph/morph-v3-fast.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 4500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.", "morph/morph-v3-large.description": "Morph, öncü modellerin (ör. Claude veya GPT-4o) önerdiği kod değişikliklerini mevcut dosyalarınıza uygulayan özel bir modeldir. FAST 2500+ token/sn hızında çalışır. 16k giriş/çıkış token desteğiyle AI kodlama iş akışının son adımıdır.", + "musesteamer-air-image.description": "musesteamer-air-image, Baidu'nun arama ekibi tarafından geliştirilen bir görüntü oluşturma modelidir ve olağanüstü maliyet-performans oranı sunar. Kullanıcı istemlerine dayalı olarak hızlı bir şekilde net, eylem uyumlu görüntüler oluşturabilir ve kullanıcı açıklamalarını zahmetsizce görsellere dönüştürür.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B, en son dahili veri kümeleriyle güncellenmiş Nous Hermes 2 sürümüdür.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B, NVIDIA tarafından özelleştirilmiş bir LLM’dir. Arena Hard, AlpacaEval 2 LC ve GPT-4-Turbo MT-Bench testlerinde 1. sırada yer alır. Llama-3.1-70B-Instruct modelinden RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward ve HelpSteer2-Preference istemleriyle eğitilmiştir.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Olağanüstü doğruluk ve verimlilik sunan özgün bir dil modelidir.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Bağlam uzunluğu, konu ve karmaşıklığa göre isteğiniz Llama 3 70B Instruct, Claude 3.5 Sonnet (kendi kendini denetleyen) veya GPT-4o’ya yönlendirilir.", "oswe-vscode-prime.description": "Raptor mini, kodla ilgili görevler için optimize edilmiş bir önizleme modelidir.", "oswe-vscode-secondary.description": "Raptor mini, kodla ilgili görevler için optimize edilmiş bir önizleme modelidir.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2, yüksek hesaplama verimliliği ile mükemmel akıl yürütme ve ajan performansı arasında bir denge kuran bir modeldir.", "perplexity/sonar-pro.description": "Perplexity’nin gelişmiş sorgular ve takipler için arama temelli amiral gemisi ürünüdür.", "perplexity/sonar-reasoning-pro.description": "Gelişmiş arama ile CoT çıktısı veren, çoklu arama sorgularını destekleyen akıl yürütme odaklı bir modeldir.", "perplexity/sonar-reasoning.description": "Detaylı, arama temelli açıklamalarla birlikte zincirleme düşünme (CoT) çıktısı veren akıl yürütme odaklı bir modeldir.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen kod modeli.", "qwen-coder-turbo.description": "Qwen kod modeli.", "qwen-flash.description": "En hızlı ve en düşük maliyetli Qwen modeli, basit görevler için ideal.", + "qwen-image-edit-max.description": "Qwen Görüntü Düzenleme Modeli, çoklu görüntü girişi ve çoklu görüntü çıkışını destekler, görüntü içi metin düzenleme, nesne ekleme, kaldırma veya yeniden konumlandırma, konu eylemi değiştirme, görüntü stil transferi ve görsel detayları geliştirme sağlar.", + "qwen-image-edit-plus.description": "Qwen Görüntü Düzenleme Modeli, çoklu görüntü girişi ve çoklu görüntü çıkışını destekler, görüntü içi metin düzenleme, nesne ekleme, kaldırma veya yeniden konumlandırma, konu eylemi değiştirme, görüntü stil transferi ve görsel detayları geliştirme sağlar.", "qwen-image-edit.description": "Qwen Image Edit, görüntüleri giriş görselleri ve metin istemlerine göre düzenleyen bir görüntüden-görüntüye modeldir; hassas ayarlamalar ve yaratıcı dönüşümler sağlar.", + "qwen-image-max.description": "Qwen Görüntü Oluşturma Modeli (Max serisi), Plus serisine kıyasla artırılmış gerçekçilik ve görsel doğallık sunar, AI tarafından oluşturulan artefaktları etkili bir şekilde azaltır ve insan görünümü, doku detayları ve metin işleme alanlarında olağanüstü performans gösterir.", + "qwen-image-plus.description": "Geniş bir sanatsal stil yelpazesini destekler ve özellikle görüntülerde karmaşık metin işleme konusunda yetkindir, entegre görüntü-metni düzen tasarımı sağlar.", "qwen-image.description": "Qwen-Image, çoklu sanat tarzlarını destekleyen ve özellikle Çince ve İngilizce metinleri güçlü şekilde işleyebilen genel bir görüntü üretim modelidir. Çok satırlı düzenleri, paragraf düzeyinde metinleri ve karmaşık metin-görsel düzenleri için ince detayları destekler.", "qwen-long.description": "Uzun bağlam ve çok belgeli senaryolarda sohbet desteği sunan ultra büyük Qwen modeli.", "qwen-math-plus-latest.description": "Qwen Math, matematik problemlerini çözmeye odaklı bir dil modelidir.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Açık kaynaklı Qwen kod modeli. En yeni qwen3-coder-30b-a3b-instruct, Qwen3 tabanlıdır ve otonom programlama için güçlü kodlama ajan yetenekleri, araç kullanımı ve ortam etkileşimi sunar. Mükemmel kod performansı ve sağlam genel yetenek sağlar.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct, çok dilli programlama ve karmaşık kod anlama için amiral gemisi bir kod modelidir.", "qwen3-coder-flash.description": "Qwen kod modeli. En yeni Qwen3-Coder serisi, Qwen3 tabanlıdır ve otonom programlama için güçlü kodlama ajan yetenekleri, araç kullanımı ve ortam etkileşimi sunar. Mükemmel kod performansı ve sağlam genel yetenek sağlar.", + "qwen3-coder-next.description": "Karmaşık çok dosyalı kod oluşturma, hata ayıklama ve yüksek verimli ajan iş akışları için optimize edilmiş yeni nesil Qwen kodlayıcı. Güçlü araç entegrasyonu ve geliştirilmiş akıl yürütme performansı için tasarlanmıştır.", "qwen3-coder-plus.description": "Qwen kod modeli. En yeni Qwen3-Coder serisi, Qwen3 tabanlıdır ve otonom programlama için güçlü kodlama ajan yetenekleri, araç kullanımı ve ortam etkileşimi sunar. Mükemmel kod performansı ve sağlam genel yetenek sağlar.", "qwen3-coder:480b.description": "Ajan ve kodlama görevleri için Alibaba'nın yüksek performanslı uzun bağlam modeli.", "qwen3-max-2026-01-23.description": "Qwen3 Max modelleri, genel yetenek, Çince/İngilizce anlama, karmaşık yönerge takibi, öznel açık görevler, çok dilli yetenek ve araç kullanımı gibi alanlarda 2.5 serisine göre büyük gelişmeler sunar ve daha az halüsinasyon üretir. En son qwen3-max, qwen3-max-preview'e göre ajan programlama ve araç kullanımında gelişmiştir. Bu sürüm, alanında SOTA seviyesine ulaşır ve daha karmaşık ajan ihtiyaçlarını hedefler.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking, ayrıntılı görsel akıl yürütme için çok modlu bir düşünce zinciri modelidir.", "qwen3-vl-flash.description": "Qwen3 VL Flash: gecikmeye duyarlı veya yüksek hacimli istekler için hafif, yüksek hızlı akıl yürütme sürümüdür.", "qwen3-vl-plus.description": "Qwen VL, görsel anlama yeteneğine sahip bir metin üretim modelidir. OCR yapabilir, özetleyebilir ve akıl yürütebilir; örneğin ürün fotoğraflarından özellik çıkarabilir veya görsellerden problemleri çözebilir.", + "qwen3.5-397b-a17b.description": "Metin, görüntü ve video girişlerini destekler. Yalnızca metin görevlerinde, performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde, Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", + "qwen3.5-plus.description": "Qwen3.5 Plus, metin, görüntü ve video girişlerini destekler. Yalnızca metin görevlerinde, performansı Qwen3 Max ile karşılaştırılabilir olup, daha yüksek verimlilik ve daha düşük maliyet sunar. Çok modlu yeteneklerde, Qwen3 VL serisine göre önemli iyileştirmeler sağlar.", "qwen3.description": "Qwen3, Alibaba’nın çeşitli kullanım senaryolarında güçlü performans sunan yeni nesil büyük dil modelidir.", "qwq-32b-preview.description": "QwQ, geliştirilmiş akıl yürütmeye odaklanan Qwen'in deneysel bir araştırma modelidir.", "qwq-32b.description": "QwQ, Qwen ailesine ait bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla düşünme ve akıl yürütme yetenekleriyle özellikle karmaşık problemler üzerinde performansı önemli ölçüde artırır. QwQ-32B, DeepSeek-R1 ve o1-mini gibi üst düzey modellerle rekabet eden orta boyutlu bir modeldir.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Qwen ailesine ait orta boyutlu bir akıl yürütme modelidir. Standart talimatla eğitilmiş modellere kıyasla QwQ’nun düşünme ve akıl yürütme yetenekleri, özellikle zor problemler üzerinde performansı önemli ölçüde artırır.", "r1-1776.description": "R1-1776, sansürsüz ve tarafsız gerçek bilgi sunmak üzere DeepSeek R1 üzerine eğitilmiş bir varyanttır.", "seedance-1-5-pro-251215.description": "ByteDance tarafından geliştirilen Seedance 1.5 Pro, metinden videoya, görselden videoya (ilk kare, ilk+son kare) ve görsellerle senkronize ses üretimini destekler.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite, BytePlus tarafından geliştirilen, gerçek zamanlı bilgi için web bilgi alma ile artırılmış üretim, karmaşık istem yorumlama ve profesyonel görsel yaratım için geliştirilmiş referans tutarlılığı sunar.", "solar-mini-ja.description": "Solar Mini (Ja), Japonca odaklı geliştirilmiş Solar Mini modelidir; İngilizce ve Korece'de de verimli ve güçlü performans sunar.", "solar-mini.description": "Solar Mini, GPT-3.5'i geride bırakan kompakt bir LLM'dir. İngilizce ve Korece destekli çok dilli yetenekleriyle verimli ve küçük boyutlu bir çözüm sunar.", "solar-pro.description": "Solar Pro, Upstage tarafından geliştirilen yüksek zekaya sahip bir LLM'dir. Tek bir GPU üzerinde talimat izleme odaklıdır ve IFEval skorları 80'in üzerindedir. Şu anda İngilizce desteklidir; tam sürüm Kasım 2024'te daha fazla dil desteği ve uzun bağlamla planlanmıştır.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Karmaşık sorgular ve takip soruları için arama temelli gelişmiş bir arama ürünüdür.", "sonar-reasoning.description": "Karmaşık sorgular ve takip soruları için arama temelli gelişmiş bir arama ürünüdür.", "sonar.description": "Sonar Pro'dan daha hızlı ve daha uygun maliyetli, hafif bir arama temelli üründür.", - "spark-x.description": "X1.5 güncellemeleri: (1) `thinking` alanı ile kontrol edilen dinamik düşünme modu; (2) 64K giriş ve 64K çıkış ile daha uzun bağlam desteği; (3) FunctionCall desteği.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2, yüksek hesaplama verimliliği ile mükemmel akıl yürütme ve ajan performansı arasında bir denge kuran bir modeldir.", + "spark-x.description": "X2 Yetenekler Genel Bakış: 1. `thinking` alanı aracılığıyla kontrol edilen akıl yürütme modunun dinamik ayarını tanıtır. 2. Genişletilmiş bağlam uzunluğu: 64K giriş tokeni ve 128K çıkış tokeni. 3. Function Call işlevselliğini destekler.", "stable-diffusion-3-medium.description": "Stability AI tarafından geliştirilen en yeni metinden görsele modeldir. Görsel kalitesi, metin anlama ve stil çeşitliliğinde önemli gelişmeler sunar; karmaşık doğal dil komutlarını daha doğru yorumlar ve daha hassas, çeşitli görseller üretir.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo, stable-diffusion-3.5-large üzerine karşıt yayılma damıtması (ADD) uygular ve daha hızlı çalışır.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large, 800M parametreli bir MMDiT metinden görsele modelidir; yüksek kalite ve komut uyumu sunar, 1 megapiksel görselleri destekler ve tüketici donanımında verimli çalışır.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Karmaşık diyaloglar için geniş bağlamlı etkileşimleri destekler.", "step-2-mini.description": "Yeni nesil kurum içi MFA dikkat mimarisi üzerine inşa edilmiştir, Step-1 benzeri sonuçları çok daha düşük maliyetle sunar, daha yüksek verim ve daha hızlı gecikme sağlar. Genel görevleri güçlü kodlama yeteneğiyle işler.", "step-2x-large.description": "Metin istemlerinden yüksek kaliteli görseller üreten yeni nesil StepFun görsel modeli. Daha gerçekçi dokular ve daha güçlü Çince/İngilizce metin işleme sunar.", + "step-3.5-flash.description": "Stepfun'un amiral gemisi dil akıl yürütme modeli. Bu model, üst düzey akıl yürütme yetenekleri ile hızlı ve güvenilir yürütme sağlar. Karmaşık görevleri çözebilir ve planlayabilir, bunları gerçekleştirmek için araçları hızlı ve güvenilir bir şekilde çağırabilir ve mantıksal akıl yürütme, matematik, yazılım mühendisliği, derin araştırma ve diğer sofistike görevlerde üstün performans gösterir. Bağlam uzunluğu 256K'dir.", "step-3.description": "Bu model güçlü görsel algı ve karmaşık akıl yürütme yeteneklerine sahiptir, alanlar arası bilgi anlama, matematik-görsel analiz ve günlük görsel analiz görevlerini doğru şekilde işler.", "step-r1-v-mini.description": "Görselleri ve metni işleyip derin akıl yürütme sonrası metin üretebilen güçlü görsel anlama yeteneğine sahip bir akıl yürütme modelidir. Görsel akıl yürütmede üst düzey performans sunar ve 100K bağlam penceresiyle matematik, kodlama ve metin akıl yürütmede en üst düzeyde performans gösterir.", "stepfun-ai/step3.description": "Step3, StepFun tarafından geliştirilen son teknoloji çok modlu akıl yürütme modelidir. 321B toplam ve 38B aktif parametreye sahip MoE mimarisi üzerine kuruludur. Uçtan uca tasarımı, kod çözme maliyetini en aza indirirken üst düzey görsel-dil akıl yürütmesi sunar. MFA ve AFD tasarımı sayesinde hem üst düzey hem de düşük seviye hızlandırıcılarda verimlidir. 20T+ metin ve 4T görsel-metin verisiyle çok dilli ön eğitimden geçirilmiştir. Matematik, kodlama ve çok modlu kıyaslamalarda lider açık model performansına ulaşır.", - "taichu_llm.description": "Yüksek kaliteli büyük veriyle eğitilmiş, daha güçlü metin anlama, içerik üretimi ve diyalog tabanlı soru-cevap yeteneklerine sahiptir.", - "taichu_o1.description": "taichu_o1, çok modlu etkileşim ve pekiştirmeli öğrenme ile insan benzeri düşünce zinciri oluşturan yeni nesil bir akıl yürütme modelidir. Karmaşık karar simülasyonlarını destekler, akıl yürütme yollarını görünür kılar ve yüksek doğruluklu çıktılar sunar. Strateji analizi ve derin düşünme için uygundur.", - "taichu_vl.description": "Görsel anlama, bilgi aktarımı ve mantıksal ilişkilendirmeyi birleştirerek görsel-metin soru-cevapta üstün performans gösterir.", + "taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2B modelinin Düşünme Olmayan versiyonu, daha düşük bellek kullanımı, hafif tasarım, hızlı yanıt hızı ve güçlü çok modlu anlama yetenekleri sunar.", + "taichu4_vl_32b.description": "Taichu4.0-VL 32B modelinin Düşünme versiyonu, karmaşık çok modlu anlama ve akıl yürütme görevleri için uygundur, çok modlu matematiksel akıl yürütme, çok modlu ajan yetenekleri ve genel görüntü ve görsel anlama alanlarında olağanüstü performans gösterir.", + "taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32B modelinin Düşünme Olmayan versiyonu, karmaşık görüntü ve metin anlama ve görsel bilgi QA senaryoları için tasarlanmıştır, görüntü açıklama, görsel soru yanıtlama, video anlama ve görsel yerelleştirme görevlerinde üstün performans gösterir.", + "taichu4_vl_3b.description": "Taichu4.0-VL 3B modelinin Düşünme versiyonu, çok modlu anlama ve akıl yürütme görevlerini verimli bir şekilde gerçekleştirir, görsel anlama, görsel yerelleştirme, OCR tanıma ve ilgili yeteneklerde kapsamlı iyileştirmeler sunar.", + "taichu_llm.description": "Zidong Taichu büyük dil modeli, tamamen yerli tam yığın teknolojiler kullanılarak geliştirilmiş yüksek performanslı bir metin oluşturma modelidir. Yüz milyar parametreli temel modelin yapılandırılmış sıkıştırması ve görev odaklı optimizasyon yoluyla, karmaşık metin anlama ve bilgi akıl yürütme yeteneklerini önemli ölçüde geliştirir. Uzun belge analizi, çapraz dil bilgi çıkarımı ve bilgi kısıtlı üretim gibi senaryolarda üstün performans gösterir.", + "taichu_llm_14b.description": "Zidong Taichu büyük dil modeli, tamamen yerli tam yığın teknolojiler kullanılarak geliştirilmiş yüksek performanslı bir metin oluşturma modelidir. Yüz milyar parametreli temel modelin yapılandırılmış sıkıştırması ve görev odaklı optimizasyon yoluyla, karmaşık metin anlama ve bilgi akıl yürütme yeteneklerini önemli ölçüde geliştirir. Uzun belge analizi, çapraz dil bilgi çıkarımı ve bilgi kısıtlı üretim gibi senaryolarda üstün performans gösterir.", + "taichu_llm_2b.description": "Zidong Taichu büyük dil modeli, tamamen yerli tam yığın teknolojiler kullanılarak geliştirilmiş yüksek performanslı bir metin oluşturma modelidir. Yüz milyar parametreli temel modelin yapılandırılmış sıkıştırması ve görev odaklı optimizasyon yoluyla, karmaşık metin anlama ve bilgi akıl yürütme yeteneklerini önemli ölçüde geliştirir. Uzun belge analizi, çapraz dil bilgi çıkarımı ve bilgi kısıtlı üretim gibi senaryolarda üstün performans gösterir.", + "taichu_o1.description": "taichu_o1, çok modlu etkileşim ve pekiştirmeli öğrenme yoluyla insan benzeri düşünce zinciri elde eden yeni nesil bir akıl yürütme büyük modelidir. Karmaşık karar simülasyonlarını destekler ve yüksek hassasiyetli çıktıyı korurken yorumlanabilir akıl yürütme yollarını ortaya çıkarır. Strateji analizi, derin düşünme ve benzeri senaryolar için uygundur.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct, 80B toplam ve 13B aktif parametreyle daha büyük modellerle eşleşir. Hızlı/yavaş hibrit akıl yürütme, kararlı uzun metin anlama ve BFCL-v3 ile τ-Bench üzerinde lider ajan yetenekleri sunar. GQA ve çoklu kuant formatları verimli çıkarım sağlar.", "tencent/Hunyuan-MT-7B.description": "Hunyuan Çeviri Modeli, Hunyuan-MT-7B ve birleşik Hunyuan-MT-Chimera'yı içerir. Hunyuan-MT-7B, 33 dil ve 5 Çin azınlık dili destekleyen 7B hafif bir çeviri modelidir. WMT25'te 31 dil çifti arasında 30 birincilik elde etmiştir. Tencent Hunyuan, ön eğitimden SFT'ye, çeviri RL'den birleşik RL'ye kadar tam bir eğitim hattı kullanarak boyutuna göre lider performans ve kolay dağıtım sunar.", "text-embedding-3-large.description": "İngilizce ve İngilizce dışı görevler için en yetenekli gömme modeli.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "Günlük görevler ve kullanıcı arayüzü üretimi için uygundur.", "vercel/v0-1.0-md.description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modelleri framework'e özel akıl yürütme ve güncel bilgiyle kullanın.", "vercel/v0-1.5-md.description": "Modern web uygulamaları oluşturmak, düzeltmek ve optimize etmek için v0 arkasındaki modelleri framework'e özel akıl yürütme ve güncel bilgiyle kullanın.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code, kurumsal düzeyde kodlama ihtiyaçları için optimize edilmiştir. Seed 2.0'ın üstün Ajan ve VLM yetenekleri temelinde, kodlama yeteneklerini özellikle güçlendirmiştir. Sadece ön uç yetenekleriyle öne çıkmakla kalmaz, aynı zamanda kurumsal yaygın çok dilli kodlama ihtiyaçlarına özel optimizasyon sağlar ve çeşitli AI kodlama araçlarına entegre edilmek için uygundur.", + "volcengine/doubao-seed-2-0-lite.description": "Üretim kalitesi ve yanıt hızını dengeleyerek genel üretim düzeyinde model olarak uygundur.", + "volcengine/doubao-seed-2-0-mini.description": "doubao-seed-2-0-mini'nin en son sürümüne işaret eder.", + "volcengine/doubao-seed-2-0-pro.description": "doubao-seed-2-0-pro'nun en son sürümüne işaret eder.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code, ByteDance Volcano Engine’in ajan programlama için optimize edilmiş LLM modelidir. 256K bağlam desteğiyle programlama ve ajan kıyaslamalarında güçlü performans gösterir.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed, yaratıcılık, kararlılık ve gerçekçilikte iyileştirmelerle en yeni modeldir; hızlı üretim ve yüksek değer sunar.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro, yaratıcılık, kararlılık ve gerçekçilikte iyileştirmelerle en yeni modeldir; daha zengin detaylar üretir.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash, yaratıcılık, istikrar ve gerçekçilikte iyileştirmelerle hızlı üretim ve yüksek değer sunan en son modeldir.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus, yaratıcılık, istikrar ve gerçekçilikte iyileştirmelerle daha zengin detaylar üreten en son modeldir.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview, tek görüntü düzenleme ve çoklu görüntü birleştirmeyi destekler.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I, toplam piksel alanı ve en-boy oranı kısıtlamaları dahilinde görüntü boyutlarının esnek seçimini destekler.", + "wan2.6-image.description": "Wanxiang 2.6 Görüntü, görüntü düzenleme ve karma görüntü-metni düzen çıkışı sağlar.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I, toplam piksel alanı ve en-boy oranı kısıtlamaları dahilinde görüntü boyutlarının esnek seçimini destekler (Wanxiang 2.5 ile aynı).", "wanx-v1.description": "Temel metinden görsele model. Tongyi Wanxiang 1.0 Genel sürümüne karşılık gelir.", "wanx2.0-t2i-turbo.description": "Orta hız ve düşük maliyetle dokulu portrelerde üstün performans. Tongyi Wanxiang 2.0 Speed sürümüne karşılık gelir.", "wanx2.1-t2i-plus.description": "Daha zengin görsel detaylar ve biraz daha yavaş hızla tam anlamıyla yükseltilmiş sürüm. Tongyi Wanxiang 2.1 Pro sürümüne karşılık gelir.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast, xAI’nin yüksek verimli, düşük maliyetli modelidir (2M bağlam penceresini destekler) ve yüksek eşzamanlılık ile uzun bağlam gerektiren kullanım senaryoları için idealdir.", "x-ai/grok-4.description": "Grok 4, güçlü akıl yürütme ve çok modlu yeteneklere sahip xAI'nin amiral gemisi akıl yürütme modelidir.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1, okunabilir ve mühendis dostu çıktılar sunan xAI'nin hızlı kodlama modelidir.", + "x1.description": "X1.5 güncellemeleri: (1) `thinking` alanı tarafından kontrol edilen dinamik düşünme modu ekler; (2) daha büyük bağlam uzunluğu ile 64K giriş ve 64K çıkış; (3) FunctionCall'ı destekler.", "xai/grok-2-vision.description": "Grok 2 Vision, görsel görevlerde üstün performans gösterir; görsel matematiksel akıl yürütme (MathVista) ve belge soru-cevap (DocVQA) alanlarında SOTA başarım sunar. Belgeler, grafikler, çizelgeler, ekran görüntüleri ve fotoğrafları işler.", "xai/grok-2.description": "Grok 2, ileri düzey akıl yürütme, güçlü sohbet, kodlama ve mantıksal performans sunan öncü bir modeldir; LMSYS sıralamasında Claude 3.5 Sonnet ve GPT-4 Turbo'nun üzerindedir.", "xai/grok-3-fast.description": "xAI’nin amiral gemisi modeli; veri çıkarımı, kodlama ve özetleme gibi kurumsal kullanım senaryolarında üstün performans gösterir. Finans, sağlık, hukuk ve bilim alanlarında derin alan bilgisine sahiptir. Hızlı varyantı, daha hızlı yanıtlar için yüksek hızlı altyapıda çalışır ve token başına daha yüksek maliyetlidir.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5, mühendislik ve uzun bağlam görevleri için optimize edilmiş hibrit akıl yürütme yeteneğine sahip Z.AI’nin amiral gemisi modelidir.", "z-ai/glm-4.6.description": "GLM 4.6, Z.AI'nin genişletilmiş bağlam uzunluğu ve kodlama yeteneğine sahip amiral gemisi modelidir.", "z-ai/glm-4.7.description": "GLM-4.7, Zhipu'nun en yeni amiral gemisi modelidir; genel yeteneklerde gelişme, daha doğal ve sade yanıtlar ile daha etkileyici bir yazım deneyimi sunar.", - "z-ai/glm5.description": "Z.ai tarafından sunulan, karmaşık sistem mühendisliği ve uzun vadeli görevler için tasarlanmış, toplamda 744B parametreye (40B aktif) sahip güçlü bir akıl yürütme ve ajans modeli.", + "z-ai/glm4.7.description": "GLM-4.7, Zhipu'nun en son amiral gemisi modeli olup, Agentic Kodlama senaryoları için geliştirilmiş kodlama yetenekleri sunar.", + "z-ai/glm5.description": "GLM-5, Zhipu AI'nın ajan mühendisliği için yeni amiral gemisi temel modelidir ve kodlama ve ajan yeteneklerinde açık kaynaklı SOTA performansı elde eder. Claude Opus 4.5 ile performans açısından eşleşir.", + "z-image-turbo.description": "Z-Image, hızlı bir şekilde görüntü üretebilen hafif bir metinden görüntüye oluşturma modelidir, hem Çince hem de İngilizce metin işleme destekler ve birden fazla çözünürlük ve en-boy oranına esnek bir şekilde uyum sağlar.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air, Mixture-of-Experts mimarisi kullanan ajan uygulamaları için temel bir modeldir. Araç kullanımı, web tarama, yazılım mühendisliği ve ön yüz kodlama için optimize edilmiştir ve Claude Code ile Roo Code gibi kod ajanlarıyla entegre çalışır. Karmaşık akıl yürütme ve günlük senaryoları hibrit akıl yürütme ile ele alır.", "zai-org/GLM-4.5.description": "GLM-4.5, Mixture-of-Experts mimarisi kullanan ajan uygulamaları için geliştirilmiş temel bir modeldir. Araç kullanımı, web tarama, yazılım mühendisliği ve ön yüz kodlama için derinlemesine optimize edilmiştir ve Claude Code ile Roo Code gibi kod ajanlarıyla entegre çalışır. Karmaşık akıl yürütme ve günlük senaryoları hibrit akıl yürütme ile ele alır.", "zai-org/GLM-4.5V.description": "GLM-4.5V, GLM-4.5-Air amiral gemisi metin modeli (106B toplam, 12B aktif) üzerine inşa edilmiş Zhipu AI’nin en yeni VLM modelidir. Daha düşük maliyetle yüksek performans sunan MoE mimarisi kullanır. GLM-4.1V-Thinking yolunu izler ve 3D-RoPE ile 3B mekansal akıl yürütmeyi geliştirir. Ön eğitim, SFT ve RL ile optimize edilmiştir; görüntü, video ve uzun belgeleri işler ve 41 açık çok modlu benchmark’ta en üst sıralarda yer alır. Düşünme modu geçişi, hız ve derinlik arasında denge sağlar.", diff --git a/locales/tr-TR/plugin.json b/locales/tr-TR/plugin.json index 97e3fc3768..19a7f3db31 100644 --- a/locales/tr-TR/plugin.json +++ b/locales/tr-TR/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Düğümü güncelle", "builtins.lobe-page-agent.apiName.wrapNodes": "Düğümleri sar", "builtins.lobe-page-agent.title": "Sayfa", + "builtins.lobe-skill-store.apiName.importFromMarket": "Pazardan İçe Aktar", + "builtins.lobe-skill-store.apiName.importSkill": "Beceri İçe Aktar", + "builtins.lobe-skill-store.apiName.searchSkill": "Becerileri Ara", + "builtins.lobe-skill-store.title": "Beceri Mağazası", + "builtins.lobe-skills.apiName.execScript": "Komut Dosyasını Çalıştır", + "builtins.lobe-skills.apiName.exportFile": "Dosya Dışa Aktar", + "builtins.lobe-skills.apiName.importFromMarket": "Pazardan İçe Aktar", + "builtins.lobe-skills.apiName.importSkill": "Beceri İçe Aktar", + "builtins.lobe-skills.apiName.readReference": "Referansı Oku", + "builtins.lobe-skills.apiName.runSkill": "Beceriyi Etkinleştir", + "builtins.lobe-skills.apiName.searchSkill": "Becerileri Ara", + "builtins.lobe-skills.title": "Beceriler", + "builtins.lobe-tools.apiName.activateTools": "Araçları Etkinleştir", "builtins.lobe-user-memory.apiName.addContextMemory": "Bağlam hafızası ekle", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Deneyim hafızası ekle", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Kimlik hafızası ekle", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Web Arama", "confirm": "Onayla", "debug.arguments": "Argümanlar", + "debug.error": "Hata Günlüğü", "debug.function_call": "Fonksiyon çağrısı", "debug.intervention": "Yetenek müdahalesi", "debug.off": "Hata ayıklama kapalı", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Ayarlar kaydedildi", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Meta bilgi", - "dev.title.create": "Özel Yetenek ekle", - "dev.title.edit": "Özel Yeteneği düzenle", + "dev.title.create": "Özel MCP Becerisi Ekle", + "dev.title.edit": "Özel MCP Becerisini Düzenle", "dev.title.editCommunity": "Topluluk Yeteneğini Düzenle", "dev.title.skillDetails": "Yetenek Detayları", "dev.title.skillSettings": "Yetenek Ayarları", diff --git a/locales/tr-TR/providers.json b/locales/tr-TR/providers.json index 043d79af9d..90c179454c 100644 --- a/locales/tr-TR/providers.json +++ b/locales/tr-TR/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud, güçlü açık kaynaklı temel modeller üzerine inşa edilmiş uygun maliyetli bir üretken yapay zeka bulut hizmetidir.", "spark.description": "iFLYTEK Spark, çok dilli güçlü yapay zeka yetenekleriyle akıllı donanım, sağlık, finans ve diğer dikey alanlarda yenilikler sağlar.", "stepfun.description": "Stepfun modelleri, uzun bağlam anlama ve güçlü otonom arama düzenleme özellikleriyle öne çıkan çok modlu ve karmaşık akıl yürütme yetenekleri sunar.", + "straico.description": "Straico, pazarlamacılar, girişimciler ve meraklılara çeşitli yapay zeka araçlarına sorunsuz erişim sağlayarak, en iyi metin, görüntü ve ses üretici yapay zeka modellerini bir araya getiren birleşik bir çalışma alanı sunarak yapay zeka entegrasyonunu kolaylaştırır.", "taichu.description": "CASIA ve Wuhan Yapay Zeka Enstitüsü tarafından geliştirilen yeni nesil çok modlu modeldir. Çok turlu soru-cevap, yazım, görsel üretim, 3D anlama ve sinyal analizi gibi görevlerde güçlü bilişsel ve yaratıcı yetenekler sunar.", "tencentcloud.description": "LLM Bilgi Motoru Atom Gücü, belgeleri ayrıştırma, parçalara ayırma, gömme ve çok turlu yeniden yazma gibi modüler hizmetlerle kurumsal ve geliştiricilere özel yapay zeka çözümleri oluşturma imkanı sunar.", "togetherai.description": "Together AI, yenilikçi modeller, geniş özelleştirme seçenekleri, hızlı ölçeklenebilirlik ve kolay dağıtım ile kurumsal ihtiyaçlara yönelik üstün performans sunar.", diff --git a/locales/tr-TR/setting.json b/locales/tr-TR/setting.json index 2211af20ca..b3c681801f 100644 --- a/locales/tr-TR/setting.json +++ b/locales/tr-TR/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Temsilci Profili", "agentInfoDescription.value.unset": "Ayarlanmadı", "agentInfoDescription.value.untitled": "İsimsiz Temsilci", + "agentSkillDetail.addedAt": "Eklendi", + "agentSkillDetail.publishedAt": "Yayınlandı", + "agentSkillDetail.repository": "GitHub Deposu", + "agentSkillDetail.skillContent": "Beceri İçeriği", + "agentSkillDetail.sourceUrl": "Beceri İçe Aktarma Kaynağı", + "agentSkillDetail.updatedAt": "Güncellendi", + "agentSkillEdit.descriptionDesc": "Becerinin ne yaptığını kısaca özetleyen, ajanın ne zaman kullanacağını anlamasına yardımcı olan açıklama", + "agentSkillEdit.fileReadonly": "Bu dosya salt okunur. Sadece beceri açıklaması ve talimatlar düzenlenebilir.", + "agentSkillEdit.instructions": "Talimatlar", + "agentSkillEdit.instructionsDesc": "Beceri davranışını ve iş akışını tanımlayan Markdown formatında temel talimatlar", + "agentSkillEdit.instructionsPlaceholder": "Beceri talimatlarını Markdown formatında girin...", + "agentSkillEdit.nameDesc": "Bu beceri için benzersiz bir tanımlayıcı, oluşturulduktan sonra düzenlenemez", + "agentSkillEdit.saveSuccess": "Beceri başarıyla güncellendi", + "agentSkillEdit.title": "Beceri Ayarları", + "agentSkillItem.deleteConfirm.desc": "Ajan becerisini \"{{name}}\" silmek istediğinizden emin misiniz? Bu işlem geri alınamaz.", + "agentSkillItem.deleteConfirm.title": "Ajan Becerisini Sil", + "agentSkillModal.content": "Beceri İçeriği", + "agentSkillModal.contentPlaceholder": "Beceri içeriğini Markdown formatında girin...", + "agentSkillModal.description": "Açıklama", + "agentSkillModal.descriptionPlaceholder": "Bu beceriyi kısaca açıklayın", + "agentSkillModal.github.desc": "Becerileri doğrudan bir genel GitHub deposundan içe aktarın.", + "agentSkillModal.github.title": "GitHub'dan İçe Aktar", + "agentSkillModal.github.urlPlaceholder": "https://github.com/kullanıcıadı/depo", + "agentSkillModal.importError": "İçe aktarma başarısız: {{error}}", + "agentSkillModal.importSuccess": "Ajan Beceri başarıyla içe aktarıldı", + "agentSkillModal.upload.desc": "Yerel bir .zip veya .skill dosyasını yükleyerek kurulum yapın.", + "agentSkillModal.upload.dragText": "Sürükleyip bırakın veya yüklemek için tıklayın", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md, YAML formatında beceri adı ve açıklamasını içerir", + "agentSkillModal.upload.requirementZip": "SKILL.md kök dizininde bulunan .zip veya .skill dosyası", + "agentSkillModal.upload.requirements": "Dosya Gereksinimleri", + "agentSkillModal.upload.title": "Beceri Yükle", + "agentSkillModal.upload.uploading": "Yükleniyor...", + "agentSkillModal.url.desc": "Bir SKILL.md dosyasına doğrudan bağlantı sağlayarak bir beceri içe aktarın.", + "agentSkillModal.url.title": "URL'den İçe Aktar", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Ajan Beceri", "agentTab.chat": "Sohbet Tercihleri", "agentTab.meta": "Temsilci Bilgisi", "agentTab.modal": "Model Ayarları", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Çeviri için kullanılacak modeli belirtin", "systemAgent.translation.title": "Mesaj Çeviri Temsilcisi", "tab.about": "Hakkında", + "tab.addAgentSkill": "Ajan Beceri Ekle", + "tab.addCustomMcp": "Özel MCP Beceri Ekle", + "tab.addCustomMcp.desc": "Özel bir MCP sunucusunu manuel olarak yapılandırın", "tab.addCustomSkill": "Özel yetenek ekle", "tab.agent": "Temsilci Hizmeti", "tab.all": "Tümü", @@ -652,7 +691,13 @@ "tab.experiment": "Deney", "tab.hotkey": "Kısayollar", "tab.image": "Görsel Oluşturma Hizmeti", + "tab.importFromGithub": "GitHub'dan İçe Aktar", + "tab.importFromGithub.desc": "Genel bir GitHub deposundan içe aktar", + "tab.importFromUrl": "URL'den İçe Aktar", + "tab.importFromUrl.desc": "SKILL.md'ye doğrudan bağlantı aracılığıyla içe aktar", "tab.llm": "Dil Modeli", + "tab.manualFill": "Manuel Doldur", + "tab.manualFill.desc": "Özel bir MCP becerisini manuel olarak yapılandırın", "tab.memory": "Hafıza", "tab.profile": "Hesabım", "tab.provider": "Yapay Zeka Hizmet Sağlayıcısı", @@ -669,6 +714,8 @@ "tab.sync": "Bulut Senkronizasyonu", "tab.systemTools": "Sistem Araçları", "tab.tts": "Metinden Konuşmaya", + "tab.uploadZip": "Zip Yükle", + "tab.uploadZip.desc": "Yerel bir .zip veya .skill dosyasını yükleyin", "tab.usage": "Kullanım İstatistikleri", "tools.add": "Yetenek Ekle", "tools.builtins.groupName": "Yerleşikler", diff --git a/locales/vi-VN/common.json b/locales/vi-VN/common.json index e67120c964..6ffa7b071b 100644 --- a/locales/vi-VN/common.json +++ b/locales/vi-VN/common.json @@ -256,11 +256,6 @@ "footer.star.title": "Gắn sao cho chúng tôi trên GitHub", "footer.title": "Bạn thích sản phẩm của chúng tôi?", "fullscreen": "Chế độ toàn màn hình", - "geminiImageChineseWarning.content": "Nano Banana đôi khi có thể không tạo được hình ảnh khi sử dụng tiếng Trung. Khuyến nghị sử dụng tiếng Anh để có kết quả tốt hơn.", - "geminiImageChineseWarning.continueGenerate": "Tiếp tục tạo", - "geminiImageChineseWarning.continueSend": "Tiếp tục gửi", - "geminiImageChineseWarning.doNotShowAgain": "Không hiển thị lại", - "geminiImageChineseWarning.title": "Lưu ý khi nhập tiếng Trung", "historyRange": "Phạm vi lịch sử", "home.suggestQuestions": "Hãy thử những ví dụ này", "import": "Nhập khẩu", @@ -397,6 +392,7 @@ "tab.chat": "Trò chuyện", "tab.community": "Cộng đồng", "tab.discover": "Khám phá", + "tab.eval": "Phòng Thí Nghiệm Đánh Giá", "tab.files": "Tệp", "tab.home": "Trang chủ", "tab.knowledgeBase": "Thư viện", diff --git a/locales/vi-VN/eval.json b/locales/vi-VN/eval.json new file mode 100644 index 0000000000..bfc4510c08 --- /dev/null +++ b/locales/vi-VN/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "Xóa Benchmark", + "benchmark.actions.delete.confirm": "Bạn có chắc chắn muốn xóa benchmark này không? Các tập dữ liệu liên quan và hồ sơ đánh giá cũng sẽ bị xóa.", + "benchmark.actions.edit": "Chỉnh sửa Benchmark", + "benchmark.actions.export": "Xuất", + "benchmark.card.bestScore": "Tốt nhất", + "benchmark.card.caseCount": "{{count}} trường hợp", + "benchmark.card.datasetCount": "{{count}} tập dữ liệu", + "benchmark.card.empty": "Chưa có đánh giá nào", + "benchmark.card.emptyHint": "Tạo một đánh giá mới từ trang chi tiết benchmark", + "benchmark.card.importDataset": "Nhập Tập Dữ Liệu", + "benchmark.card.noDataset": "Chưa có tập dữ liệu", + "benchmark.card.noDatasetHint": "Nhập một tập dữ liệu để bắt đầu đánh giá", + "benchmark.card.noRecentRuns": "Không có đánh giá gần đây để hiển thị", + "benchmark.card.recentRuns": "Đánh giá gần đây", + "benchmark.card.runCount": "{{count}} đánh giá", + "benchmark.card.startFirst": "Bắt đầu Đánh giá Đầu tiên", + "benchmark.card.viewAll": "Xem tất cả {{count}}", + "benchmark.create.confirm": "Tạo", + "benchmark.create.description.label": "Mô tả", + "benchmark.create.description.placeholder": "Mô tả benchmark (tùy chọn)", + "benchmark.create.error": "Không thể tạo benchmark", + "benchmark.create.identifier.label": "Định danh", + "benchmark.create.identifier.placeholder": "định-danh-benchmark", + "benchmark.create.identifierRequired": "Vui lòng nhập định danh", + "benchmark.create.name.label": "Tên", + "benchmark.create.name.placeholder": "Nhập tên benchmark", + "benchmark.create.nameRequired": "Vui lòng nhập tên benchmark", + "benchmark.create.success": "Benchmark đã được tạo thành công", + "benchmark.create.tags.label": "Thẻ", + "benchmark.create.tags.placeholder": "Thêm thẻ, cách nhau bằng dấu phẩy hoặc khoảng trắng", + "benchmark.create.title": "Tạo Benchmark", + "benchmark.detail.backToOverview": "Quay lại Tổng quan", + "benchmark.detail.datasetCount": "{{count}} tập dữ liệu{{count, plural, one {} other {s}}} trong benchmark này", + "benchmark.detail.runCount": "{{count}} lần chạy đánh giá{{count, plural, one {} other {s}}} trên benchmark này", + "benchmark.detail.stats.addFirstDataset": "Nhấp để thêm tập dữ liệu đầu tiên", + "benchmark.detail.stats.avgCost": "Chi phí Trung bình", + "benchmark.detail.stats.avgDuration": "Thời gian Trung bình", + "benchmark.detail.stats.basedOnLastNRuns": "Dựa trên {{count}} lần chạy gần nhất", + "benchmark.detail.stats.bestPerformance": "Hiệu suất tốt nhất bởi {{agent}} với tỷ lệ vượt qua {{passRate}}%", + "benchmark.detail.stats.bestScore": "Điểm Tốt nhất", + "benchmark.detail.stats.cases": "Trường hợp", + "benchmark.detail.stats.dataScale": "Quy mô Dữ liệu", + "benchmark.detail.stats.datasets": "Tập Dữ Liệu", + "benchmark.detail.stats.needSetup": "Cần Thiết Lập", + "benchmark.detail.stats.noEvalRecord": "Chưa có hồ sơ đánh giá nào", + "benchmark.detail.stats.perRun": "/ Lần chạy", + "benchmark.detail.stats.runs": "Lần chạy", + "benchmark.detail.stats.tags": "Thẻ", + "benchmark.detail.stats.topAgents": "Các Agent Hàng Đầu", + "benchmark.detail.stats.totalCases": "Tổng số Trường hợp", + "benchmark.detail.stats.waiting": "Đang chờ...", + "benchmark.detail.tabs.data": "Dữ liệu", + "benchmark.detail.tabs.datasets": "Tập Dữ Liệu", + "benchmark.detail.tabs.runs": "Lần chạy", + "benchmark.edit.confirm": "Lưu", + "benchmark.edit.error": "Không thể cập nhật benchmark", + "benchmark.edit.success": "Benchmark đã được cập nhật thành công", + "benchmark.edit.title": "Chỉnh sửa Benchmark", + "benchmark.empty": "Chưa có benchmark nào. Tạo một benchmark để bắt đầu.", + "caseDetail.actual": "Kết quả Thực tế", + "caseDetail.chatArea.title": "Cuộc hội thoại", + "caseDetail.completionReason": "Trạng thái", + "caseDetail.cost": "Chi phí", + "caseDetail.difficulty": "Độ khó", + "caseDetail.duration": "Thời gian", + "caseDetail.expected": "Kết quả Mong đợi", + "caseDetail.failureReason": "Lý do Thất bại", + "caseDetail.input": "Đầu vào", + "caseDetail.judgeComment": "Nhận xét của Giám khảo", + "caseDetail.resources": "Tài nguyên", + "caseDetail.score": "Điểm", + "caseDetail.section.runtime": "Thời gian chạy", + "caseDetail.section.scoring": "Chi tiết Điểm số", + "caseDetail.section.testCase": "Trường hợp Kiểm tra", + "caseDetail.steps": "Các bước", + "caseDetail.threads.attempt": "Hành trình #{{number}}", + "caseDetail.tokens": "Sử dụng Token", + "common.cancel": "Hủy", + "common.create": "Tạo", + "common.delete": "Xóa", + "common.edit": "Chỉnh sửa", + "common.later": "Sau", + "common.next": "Tiếp theo", + "common.update": "Cập nhật", + "dataset.actions.addDataset": "Thêm Tập Dữ Liệu", + "dataset.actions.import": "Nhập Dữ Liệu", + "dataset.actions.importDataset": "Nhập Tập Dữ Liệu", + "dataset.create.description.label": "Mô tả", + "dataset.create.description.placeholder": "Mô tả tập dữ liệu (tùy chọn)", + "dataset.create.error": "Không thể tạo tập dữ liệu", + "dataset.create.identifier.label": "Định danh", + "dataset.create.identifier.placeholder": "định-danh-tập-dữ-liệu", + "dataset.create.identifierRequired": "Vui lòng nhập định danh", + "dataset.create.importNow": "Bạn có muốn nhập dữ liệu ngay bây giờ không?", + "dataset.create.name.label": "Tên Tập Dữ Liệu", + "dataset.create.name.placeholder": "Nhập tên tập dữ liệu", + "dataset.create.nameRequired": "Vui lòng nhập tên tập dữ liệu", + "dataset.create.preset.label": "Preset Tập Dữ Liệu", + "dataset.create.success": "Tập dữ liệu đã được tạo thành công", + "dataset.create.successTitle": "Tập Dữ Liệu Đã Được Tạo", + "dataset.create.title": "Tạo Tập Dữ Liệu", + "dataset.delete.confirm": "Bạn có chắc chắn muốn xóa tập dữ liệu này không? Tất cả các trường hợp kiểm tra trong đó cũng sẽ bị xóa.", + "dataset.delete.error": "Không thể xóa tập dữ liệu", + "dataset.delete.success": "Tập dữ liệu đã được xóa thành công", + "dataset.detail.addRun": "Lần chạy mới", + "dataset.detail.backToBenchmark": "Quay lại Benchmark", + "dataset.detail.caseCount": "{{count}} trường hợp kiểm tra{{count, plural, one {} other {s}}}", + "dataset.detail.relatedRuns": "Các lần chạy liên quan ({{count}})", + "dataset.detail.testCases": "Trường hợp Kiểm tra", + "dataset.detail.viewDetail": "Xem Chi tiết", + "dataset.edit.error": "Không thể cập nhật tập dữ liệu", + "dataset.edit.success": "Tập dữ liệu đã được cập nhật thành công", + "dataset.edit.title": "Chỉnh sửa Tập Dữ Liệu", + "dataset.empty": "Không có tập dữ liệu", + "dataset.empty.description": "Nhập một tập dữ liệu để bắt đầu xây dựng benchmark này", + "dataset.empty.title": "Chưa có tập dữ liệu", + "dataset.evalMode.hint": "Chế độ đánh giá mặc định cho tập dữ liệu, có thể được ghi đè ở cấp độ trường hợp kiểm tra", + "dataset.import.category": "Danh mục", + "dataset.import.categoryDesc": "Nhãn phân loại để nhóm", + "dataset.import.choices": "Lựa chọn", + "dataset.import.choicesDesc": "Các tùy chọn nhiều lựa chọn", + "dataset.import.confirm": "Nhập", + "dataset.import.error": "Không thể nhập tập dữ liệu", + "dataset.import.expected": "Câu trả lời Mong đợi", + "dataset.import.expectedDelimiter": "Dấu phân cách Câu trả lời", + "dataset.import.expectedDelimiter.desc": "Dấu phân cách câu trả lời", + "dataset.import.expectedDelimiter.placeholder": "ví dụ: | hoặc ,", + "dataset.import.expectedDesc": "Câu trả lời đúng để so sánh", + "dataset.import.fieldMapping": "Ánh xạ Trường", + "dataset.import.fieldMapping.desc": "Cột \"Đầu vào\" là bắt buộc", + "dataset.import.hideSkipped": "Ẩn các cột bị bỏ qua", + "dataset.import.ignore": "Bỏ qua", + "dataset.import.ignoreDesc": "Không nhập cột này", + "dataset.import.input": "Đầu vào", + "dataset.import.inputDesc": "Câu hỏi hoặc gợi ý gửi đến mô hình", + "dataset.import.metadata": "Metadata", + "dataset.import.metadataDesc": "Thông tin bổ sung, được lưu nguyên trạng", + "dataset.import.next": "Tiếp theo", + "dataset.import.parseError": "Không thể phân tích tệp", + "dataset.import.parsing": "Đang phân tích tệp...", + "dataset.import.prev": "Trước", + "dataset.import.preview": "Xem trước Dữ liệu", + "dataset.import.preview.desc": "Xác nhận ánh xạ là chính xác, sau đó nhập.", + "dataset.import.preview.rows": "Tổng cộng {{count}} hàng", + "dataset.import.sortOrder": "Số thứ tự", + "dataset.import.sortOrderDesc": "ID câu hỏi/mục để tham khảo", + "dataset.import.step.mapping": "Ánh xạ Trường", + "dataset.import.step.preview": "Xem trước", + "dataset.import.step.upload": "Tải lên Tệp", + "dataset.import.success": "Đã nhập thành công {{count}} trường hợp kiểm tra", + "dataset.import.title": "Nhập Tập Dữ Liệu", + "dataset.import.upload.hint": "Hỗ trợ CSV, XLSX, JSON, JSONL", + "dataset.import.upload.text": "Nhấp hoặc kéo tệp vào đây để tải lên", + "dataset.import.uploading": "Đang tải lên...", + "dataset.switchDataset": "Chuyển Tập Dữ Liệu", + "difficulty.easy": "Dễ", + "difficulty.hard": "Khó", + "difficulty.medium": "Trung bình", + "evalMode.contains": "Khớp Nội dung", + "evalMode.contains.desc": "Kết quả phải chứa nội dung mong đợi", + "evalMode.equals": "Khớp Chính xác", + "evalMode.equals.desc": "Kết quả phải hoàn toàn giống với nội dung mong đợi", + "evalMode.label": "Chế độ Đánh giá", + "evalMode.llm-rubric": "Giám khảo LLM", + "evalMode.llm-rubric.desc": "Sử dụng LLM để đánh giá chất lượng kết quả", + "evalMode.placeholder": "Chọn chế độ đánh giá", + "evalMode.prompt.label": "Gợi ý Giám khảo", + "evalMode.prompt.placeholder": "Nhập tiêu chí đánh giá hoặc gợi ý cho giám khảo LLM", + "evalMode.rubric": "Chấm điểm theo Tiêu chí", + "evalMode.rubric.desc": "Chấm điểm kết quả bằng các tiêu chí đánh giá của benchmark với trọng số", + "overview.createBenchmark": "Tạo Benchmark", + "overview.importDataset": "Nhập Tập Dữ Liệu", + "overview.subtitle": "Đánh giá và so sánh các agent AI của bạn trên các tập dữ liệu", + "overview.title": "Phòng Thí nghiệm Đánh giá", + "run.actions.abort": "Hủy bỏ", + "run.actions.abort.confirm": "Bạn có chắc chắn muốn hủy bỏ đánh giá này không?", + "run.actions.create": "Đánh giá Mới", + "run.actions.delete": "Xóa", + "run.actions.delete.confirm": "Bạn có chắc chắn muốn xóa đánh giá này không?", + "run.actions.edit": "Chỉnh sửa", + "run.actions.retryCase": "Thử lại", + "run.actions.retryErrors": "Thử lại Lỗi", + "run.actions.retryErrors.confirm": "Điều này sẽ chạy lại tất cả các trường hợp lỗi và hết thời gian. Các trường hợp đã vượt qua và thất bại sẽ không bị ảnh hưởng.", + "run.actions.run": "Chạy", + "run.actions.start": "Bắt đầu", + "run.actions.start.confirm": "Bạn có chắc chắn muốn bắt đầu đánh giá này không?", + "run.chart.duration": "Thời gian (s)", + "run.chart.error": "Lỗi", + "run.chart.fail": "Thất bại", + "run.chart.latencyDistribution": "Phân phối Độ trễ", + "run.chart.latencyTokenDistribution": "Phân phối Độ trễ / Token", + "run.chart.pass": "Vượt qua", + "run.chart.passFailError": "Vượt qua / Thất bại / Lỗi", + "run.chart.tokens": "Token", + "run.config.agentId": "Agent", + "run.config.concurrency": "Đồng thời", + "run.config.judgeModel": "Mô hình Giám khảo", + "run.config.k": "Lần thực hiện (K)", + "run.config.k.hint": "Chạy mỗi trường hợp kiểm tra {{k}} lần để tính các chỉ số pass@{{k}}/pass^{{k}}", + "run.config.maxSteps": "Số bước tối đa", + "run.config.maxSteps.hint": "Mỗi lần gọi LLM hoặc công cụ bởi agent được tính là 1 bước", + "run.config.model": "Mô hình", + "run.config.temperature": "Nhiệt độ", + "run.config.timeout": "Hết thời gian", + "run.config.timeout.unit": "phút", + "run.create.advanced": "Cài đặt Nâng cao", + "run.create.agent": "Agent", + "run.create.agent.placeholder": "Chọn một agent", + "run.create.agent.required": "Vui lòng chọn một agent", + "run.create.caseCount": "{{count}} trường hợp", + "run.create.confirm": "Tạo & Bắt đầu", + "run.create.createOnly": "Chỉ Tạo", + "run.create.dataset": "Tập Dữ Liệu", + "run.create.dataset.placeholder": "Chọn một tập dữ liệu", + "run.create.dataset.required": "Vui lòng chọn một tập dữ liệu", + "run.create.name": "Tên Lần chạy", + "run.create.name.placeholder": "Nhập tên cho lần chạy này", + "run.create.name.required": "Vui lòng nhập tên lần chạy", + "run.create.name.useTimestamp": "Sử dụng thời gian hiện tại làm tên", + "run.create.openAgent": "Mở agent trong cửa sổ mới", + "run.create.title": "Đánh giá Mới", + "run.create.titleWithDataset": "Đánh giá Mới trên \"{{dataset}}\"", + "run.detail.agent": "Agent", + "run.detail.agent.none": "Không được chỉ định", + "run.detail.agent.unnamed": "Agent Không tên", + "run.detail.backToBenchmark": "Quay lại Benchmark", + "run.detail.caseResults": "Chi tiết Đánh giá", + "run.detail.config": "Cấu hình Đánh giá", + "run.detail.configSnapshot": "Ảnh chụp Cấu hình", + "run.detail.dataset": "Tập Dữ Liệu", + "run.detail.model": "Mô hình", + "run.detail.overview": "Tổng quan", + "run.detail.progress": "Tiến độ", + "run.detail.progressCases": "trường hợp", + "run.detail.report": "Tóm tắt Đánh giá", + "run.edit.error": "Không thể cập nhật đánh giá", + "run.edit.success": "Đánh giá đã được cập nhật thành công", + "run.edit.title": "Chỉnh sửa Đánh giá", + "run.empty.description": "Bắt đầu lần chạy đánh giá đầu tiên của bạn trên tập dữ liệu này", + "run.empty.descriptionBenchmark": "Bắt đầu lần chạy đánh giá đầu tiên của bạn trên benchmark này", + "run.empty.title": "Chưa có lần chạy nào", + "run.filter.active": "Hoạt động", + "run.filter.empty": "Không có lần chạy nào phù hợp với bộ lọc hiện tại.", + "run.idle.hint": "Nhấp vào Bắt đầu để bắt đầu đánh giá", + "run.metrics.avgScore": "Điểm Trung bình", + "run.metrics.cost": "Chi phí", + "run.metrics.duration": "Thời gian", + "run.metrics.errorCases": "Lỗi", + "run.metrics.evaluated": "{{count}} đã được đánh giá", + "run.metrics.passRate": "Tỷ lệ Vượt qua", + "run.metrics.perCase": "/ trường hợp", + "run.metrics.tokens": "Token", + "run.metrics.totalDuration": "Tích lũy", + "run.pending.hint": "Đánh giá đang được xếp hàng, chờ bắt đầu...", + "run.running.hint": "Đánh giá đang chạy, kết quả sẽ xuất hiện sớm...", + "run.status.aborted": "Đã hủy", + "run.status.completed": "Hoàn thành", + "run.status.error": "Lỗi Đánh giá", + "run.status.failed": "Thất bại", + "run.status.idle": "Nhàn rỗi", + "run.status.pending": "Đang chờ", + "run.status.running": "Đang chạy", + "run.status.timeout": "Hết thời gian", + "sidebar.benchmarks": "Benchmarks", + "sidebar.dashboard": "Bảng điều khiển", + "sidebar.datasets": "Tập Dữ Liệu", + "sidebar.runs": "Lần chạy", + "table.columns.avgCost": "Chi phí Trung bình", + "table.columns.category": "Danh mục", + "table.columns.cost": "Chi phí", + "table.columns.difficulty": "Độ khó", + "table.columns.duration": "Thời gian", + "table.columns.evalMode": "Chế độ Đánh giá", + "table.columns.expected": "Câu trả lời Mong đợi", + "table.columns.input": "Đầu vào", + "table.columns.score": "Điểm", + "table.columns.status": "Trạng thái", + "table.columns.steps": "Các bước", + "table.columns.tags": "Thẻ", + "table.columns.tokens": "Token", + "table.columns.totalCost": "Tổng Chi phí", + "table.filter.all": "Tất cả", + "table.filter.error": "Lỗi Đánh giá", + "table.filter.failed": "Thất bại", + "table.filter.passed": "Vượt qua", + "table.filter.running": "Đang chạy", + "table.search.placeholder": "Tìm kiếm trường hợp...", + "table.total": "Tổng cộng {{count}}", + "testCase.actions.add": "Thêm Trường hợp Kiểm tra", + "testCase.actions.import": "Nhập Trường hợp Kiểm tra", + "testCase.create.advanced": "Tùy chọn Khác", + "testCase.create.difficulty.label": "Độ khó", + "testCase.create.error": "Không thể thêm trường hợp kiểm tra", + "testCase.create.expected.label": "Kết quả Mong đợi", + "testCase.create.expected.placeholder": "Nhập câu trả lời mong đợi", + "testCase.create.expected.required": "Vui lòng nhập kết quả mong đợi", + "testCase.create.input.label": "Đầu vào", + "testCase.create.input.placeholder": "Nhập đầu vào hoặc câu hỏi cho trường hợp kiểm tra", + "testCase.create.success": "Trường hợp kiểm tra đã được thêm thành công", + "testCase.create.tags.label": "Thẻ", + "testCase.create.tags.placeholder": "Thẻ cách nhau bằng dấu phẩy (tùy chọn)", + "testCase.create.title": "Thêm Trường hợp Kiểm tra", + "testCase.delete.confirm": "Bạn có chắc chắn muốn xóa trường hợp kiểm tra này không?", + "testCase.delete.error": "Không thể xóa trường hợp kiểm tra", + "testCase.delete.success": "Trường hợp kiểm tra đã được xóa", + "testCase.edit.error": "Không thể cập nhật trường hợp kiểm tra", + "testCase.edit.success": "Trường hợp kiểm tra đã được cập nhật thành công", + "testCase.edit.title": "Chỉnh sửa Trường hợp Kiểm tra", + "testCase.empty.description": "Nhập hoặc thêm thủ công các trường hợp kiểm tra vào tập dữ liệu này", + "testCase.empty.title": "Chưa có trường hợp kiểm tra", + "testCase.preview.expected": "Mong đợi", + "testCase.preview.input": "Đầu vào", + "testCase.preview.title": "Xem trước Trường hợp Kiểm tra", + "testCase.search.placeholder": "Tìm kiếm trường hợp..." +} diff --git a/locales/vi-VN/home.json b/locales/vi-VN/home.json index 92c1f70b8d..dbf6192479 100644 --- a/locales/vi-VN/home.json +++ b/locales/vi-VN/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "Nghiên cứu chuyên sâu", "starter.developing": "Sắp ra mắt", "starter.image": "Hình ảnh", + "starter.nanoBanana2": "🍌 Nano Chuối 2", "starter.seedance": "Seedance 2.0", "starter.write": "Viết" } diff --git a/locales/vi-VN/modelProvider.json b/locales/vi-VN/modelProvider.json index a96fab31b0..bc7985af6e 100644 --- a/locales/vi-VN/modelProvider.json +++ b/locales/vi-VN/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "Dành cho dòng Gemini; điều chỉnh ngân sách suy nghĩ.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "Dành cho các mô hình Gemini 3 Flash Preview; điều chỉnh độ sâu suy nghĩ.", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "Dành cho các mô hình Gemini 3 Pro Preview; điều chỉnh độ sâu suy nghĩ.", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "Dành cho các mô hình Gemini 3.1 Pro Preview; điều chỉnh độ sâu suy nghĩ với các mức thấp/trung bình/cao.", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "Dành cho dòng Gemini; hỗ trợ cung cấp ngữ cảnh từ URL.", "providerModels.item.modelConfig.extendParams.placeholder": "Chọn các tham số mở rộng để kích hoạt", "providerModels.item.modelConfig.extendParams.previewFallback": "Không thể xem trước", diff --git a/locales/vi-VN/models.json b/locales/vi-VN/models.json index 02f7431bd7..4b751c8fcb 100644 --- a/locales/vi-VN/models.json +++ b/locales/vi-VN/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo cung cấp khả năng tính toán và hội thoại mạnh mẽ với khả năng hiểu và sinh ngữ nghĩa xuất sắc, lý tưởng cho doanh nghiệp và nhà phát triển.", "360gpt2-o1.description": "360gpt2-o1 xây dựng chuỗi suy nghĩ thông qua tìm kiếm cây kết hợp cơ chế phản chiếu và huấn luyện bằng học tăng cường, cho phép tự phản ánh và tự điều chỉnh.", "360gpt2-pro.description": "360GPT2 Pro là mô hình NLP tiên tiến của 360 với khả năng sinh và hiểu văn bản xuất sắc, đặc biệt phù hợp với các tác vụ sáng tạo, xử lý chuyển đổi phức tạp và nhập vai.", + "360zhinao2-o1.5.description": "360 Zhinao là mô hình suy luận mạnh mẽ nhất, với khả năng vượt trội và hỗ trợ cả việc gọi công cụ lẫn suy luận nâng cao.", "360zhinao2-o1.description": "360zhinao2-o1 xây dựng chuỗi suy nghĩ thông qua tìm kiếm cây kết hợp cơ chế phản chiếu và huấn luyện bằng học tăng cường, cho phép tự phản ánh và tự điều chỉnh.", + "360zhinao3-o1.5.description": "360 Zhinao là mô hình suy luận thế hệ tiếp theo.", "4.0Ultra.description": "Spark Ultra là mô hình mạnh mẽ nhất trong dòng Spark, nâng cao khả năng hiểu và tóm tắt văn bản đồng thời cải thiện tìm kiếm web. Đây là giải pháp toàn diện giúp tăng năng suất làm việc và phản hồi chính xác, định vị như một sản phẩm trí tuệ hàng đầu.", "AnimeSharp.description": "AnimeSharp (còn gọi là \"4x-AnimeSharp\") là mô hình nâng cấp độ phân giải mã nguồn mở dựa trên ESRGAN của Kim2091, tập trung vào việc phóng to và làm sắc nét hình ảnh phong cách anime. Mô hình được đổi tên từ \"4x-TextSharpV1\" vào tháng 2 năm 2022, ban đầu cũng dùng cho hình ảnh văn bản nhưng đã được tối ưu mạnh cho nội dung anime.", "Baichuan2-Turbo.description": "Sử dụng tăng cường tìm kiếm để kết nối mô hình với tri thức chuyên ngành và web. Hỗ trợ tải lên PDF/Word và nhập URL để truy xuất kịp thời, toàn diện và tạo đầu ra chuyên nghiệp, chính xác.", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision là mô hình đa phương thức tiên tiến với hiệu suất mạnh mẽ trên các bài kiểm tra ngôn ngữ, văn bản và hình ảnh. Phiên bản 8B tập trung vào độ trễ thấp và hiệu suất mạnh mẽ.", "charglm-3.description": "CharGLM-3 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.", "charglm-4.description": "CharGLM-4 được xây dựng cho nhập vai và đồng hành cảm xúc, hỗ trợ bộ nhớ nhiều lượt siêu dài và đối thoại cá nhân hóa.", - "chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực, kết hợp khả năng hiểu và sinh văn bản mạnh mẽ cho các tình huống sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.", + "chatgpt-4o-latest.description": "ChatGPT-4o là mô hình động được cập nhật theo thời gian thực. Nó kết hợp khả năng hiểu và tạo ngôn ngữ mạnh mẽ cho các trường hợp sử dụng quy mô lớn như hỗ trợ khách hàng, giáo dục và hỗ trợ kỹ thuật.", "claude-2.0.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.", "claude-2.1.description": "Claude 2 mang đến những cải tiến quan trọng cho doanh nghiệp, bao gồm ngữ cảnh 200K token hàng đầu, giảm ảo giác, prompt hệ thống và tính năng thử nghiệm mới: gọi công cụ.", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku là mô hình thế hệ mới nhanh nhất của Anthropic, cải thiện toàn diện các kỹ năng và vượt qua mô hình hàng đầu trước đó Claude 3 Opus trên nhiều tiêu chuẩn đánh giá.", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat (67B) là một mô hình sáng tạo cung cấp khả năng hiểu và tương tác ngôn ngữ sâu sắc.", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và chuỗi suy nghĩ cho các tác vụ phân tích chuyên sâu.", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 là mô hình suy luận thế hệ mới với khả năng suy luận phức tạp mạnh mẽ và tư duy chuỗi.", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 là mô hình thị giác-ngôn ngữ MoE dựa trên DeepSeekMoE-27B với kích hoạt thưa, đạt hiệu suất cao với chỉ 4.5B tham số hoạt động. Mô hình vượt trội trong QA thị giác, OCR, hiểu tài liệu/bảng/biểu đồ và định vị hình ảnh.", "deepseek-chat.description": "DeepSeek V3.2 cân bằng giữa khả năng suy luận và độ dài đầu ra cho các tác vụ hỏi đáp hàng ngày và tác tử. Trên các tiêu chuẩn công khai, mô hình đạt mức GPT-5 và là mô hình đầu tiên tích hợp tư duy vào việc sử dụng công cụ, dẫn đầu trong các đánh giá tác tử mã nguồn mở.", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B là mô hình ngôn ngữ lập trình được huấn luyện trên 2 nghìn tỷ token (87% mã nguồn, 13% văn bản tiếng Trung/Anh). Mô hình này hỗ trợ cửa sổ ngữ cảnh 16K và nhiệm vụ điền vào giữa đoạn mã, cung cấp khả năng hoàn thành mã ở cấp độ dự án và chèn đoạn mã chính xác.", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 là mô hình suy luận lai mới từ DeepSeek, hỗ trợ cả chế độ suy nghĩ và không suy nghĩ, mang lại hiệu quả suy luận cao hơn so với DeepSeek-R1-0528. Tối ưu hóa sau huấn luyện giúp cải thiện đáng kể việc sử dụng công cụ và hiệu suất tác vụ của tác nhân. Hỗ trợ cửa sổ ngữ cảnh 128k và đầu ra lên đến 64k token.", "deepseek-v3.1:671b.description": "DeepSeek V3.1 là mô hình suy luận thế hệ tiếp theo với khả năng suy luận phức tạp và chuỗi suy nghĩ được cải thiện, phù hợp cho các tác vụ yêu cầu phân tích sâu.", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp giới thiệu cơ chế chú ý thưa để cải thiện hiệu quả huấn luyện và suy luận trên văn bản dài, với chi phí thấp hơn deepseek-v3.1.", + "deepseek-v3.2-speciale.description": "Đối với các nhiệm vụ cực kỳ phức tạp, mô hình Speciale vượt trội hơn đáng kể so với phiên bản tiêu chuẩn, nhưng tiêu thụ nhiều token hơn và chi phí cao hơn. Hiện tại, DeepSeek-V3.2-Speciale chỉ dành cho mục đích nghiên cứu, không hỗ trợ gọi công cụ và chưa được tối ưu hóa đặc biệt cho các nhiệm vụ hội thoại hoặc viết hàng ngày.", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think là mô hình suy nghĩ sâu đầy đủ với khả năng suy luận chuỗi dài mạnh mẽ hơn.", "deepseek-v3.2.description": "DeepSeek-V3.2 là mô hình suy luận lai đầu tiên từ DeepSeek tích hợp tư duy vào việc sử dụng công cụ. Mô hình sử dụng kiến trúc hiệu quả để tiết kiệm tính toán, học tăng cường quy mô lớn để nâng cao năng lực, và dữ liệu tác vụ tổng hợp quy mô lớn để tăng khả năng tổng quát. Sự kết hợp này đạt hiệu suất tương đương GPT-5-High, với độ dài đầu ra giảm đáng kể, từ đó giảm chi phí tính toán và thời gian chờ của người dùng.", "deepseek-v3.description": "DeepSeek-V3 là mô hình MoE mạnh mẽ với tổng số tham số 671B và 37B hoạt động trên mỗi token.", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite là mô hình đa phương thức nâng cấp hỗ trợ hình ảnh ở mọi độ phân giải và tỷ lệ khung hình cực đoan, nâng cao khả năng suy luận thị giác, nhận diện tài liệu, hiểu chi tiết và tuân thủ hướng dẫn. Hỗ trợ cửa sổ ngữ cảnh 128k và đầu ra lên đến 16k token.", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro là mô hình đa phương thức nâng cấp hỗ trợ hình ảnh ở mọi độ phân giải và tỷ lệ khung hình cực đoan, nâng cao khả năng suy luận thị giác, nhận diện tài liệu, hiểu chi tiết và tuân thủ hướng dẫn.", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro là mô hình đa phương thức nâng cấp hỗ trợ hình ảnh ở mọi độ phân giải và tỷ lệ khung hình cực đoan, nâng cao khả năng suy luận thị giác, nhận diện tài liệu, hiểu chi tiết và tuân thủ hướng dẫn.", - "doubao-lite-128k.description": "Phản hồi siêu nhanh với giá trị vượt trội, cung cấp lựa chọn linh hoạt hơn cho nhiều tình huống. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 128k.", "doubao-lite-32k.description": "Phản hồi siêu nhanh với giá trị vượt trội, cung cấp lựa chọn linh hoạt hơn cho nhiều tình huống. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 32k.", - "doubao-lite-4k.description": "Phản hồi siêu nhanh với giá trị vượt trội, cung cấp lựa chọn linh hoạt hơn cho nhiều tình huống. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 4k.", - "doubao-pro-256k.description": "Mô hình hàng đầu có hiệu suất tốt nhất cho các tác vụ phức tạp, đạt kết quả mạnh mẽ trong hỏi đáp tham chiếu, tóm tắt, sáng tạo, phân loại văn bản và nhập vai. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 256k.", "doubao-pro-32k.description": "Mô hình hàng đầu có hiệu suất tốt nhất cho các tác vụ phức tạp, đạt kết quả mạnh mẽ trong hỏi đáp tham chiếu, tóm tắt, sáng tạo, phân loại văn bản và nhập vai. Hỗ trợ suy luận và tinh chỉnh với cửa sổ ngữ cảnh 32k.", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash là mô hình suy luận sâu đa phương thức siêu nhanh với TPOT chỉ 10ms. Hỗ trợ cả văn bản và hình ảnh, vượt trội mô hình lite trước đó về hiểu văn bản và ngang tầm các mô hình pro cạnh tranh về thị giác. Hỗ trợ cửa sổ ngữ cảnh 256k và đầu ra lên đến 16k token.", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite là mô hình suy luận sâu đa phương thức mới với mức độ suy luận có thể điều chỉnh (Tối thiểu, Thấp, Trung bình, Cao), mang lại giá trị tốt hơn và là lựa chọn mạnh mẽ cho các tác vụ phổ biến, hỗ trợ cửa sổ ngữ cảnh lên đến 256k.", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Mô hình hình ảnh Doubao từ ByteDance Seed hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo hình ảnh chất lượng cao, dễ kiểm soát. Hỗ trợ chỉnh sửa hình ảnh theo văn bản, với kích thước đầu ra từ 512 đến 1536 theo cạnh dài.", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 là mô hình tạo hình ảnh từ ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo hình ảnh chất lượng cao, dễ kiểm soát. Mô hình tạo hình ảnh từ văn bản gợi ý.", "doubao-seedream-4-0-250828.description": "Seedream 4.0 là mô hình tạo hình ảnh từ ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh với khả năng tạo hình ảnh chất lượng cao, dễ kiểm soát. Mô hình tạo hình ảnh từ văn bản gợi ý.", - "doubao-vision-lite-32k.description": "Doubao-vision là mô hình đa phương thức từ Doubao với khả năng hiểu và suy luận hình ảnh mạnh mẽ cùng khả năng tuân thủ hướng dẫn chính xác. Mô hình hoạt động tốt trong các tác vụ trích xuất văn bản từ hình ảnh và suy luận dựa trên hình ảnh, cho phép mở rộng các tình huống hỏi đáp thị giác phức tạp hơn.", - "doubao-vision-pro-32k.description": "Doubao-vision là mô hình đa phương thức từ Doubao với khả năng hiểu và suy luận hình ảnh mạnh mẽ cùng khả năng tuân thủ hướng dẫn chính xác. Mô hình hoạt động tốt trong các tác vụ trích xuất văn bản từ hình ảnh và suy luận dựa trên hình ảnh, cho phép mở rộng các tình huống hỏi đáp thị giác phức tạp hơn.", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 là mô hình hình ảnh đa phương thức mới nhất của ByteDance, tích hợp khả năng tạo hình ảnh từ văn bản, chỉnh sửa hình ảnh và tạo hình ảnh hàng loạt, đồng thời kết hợp khả năng suy luận và kiến thức thông thường. So với phiên bản 4.0 trước đó, nó mang lại chất lượng tạo hình ảnh được cải thiện đáng kể, với sự nhất quán chỉnh sửa tốt hơn và khả năng hợp nhất nhiều hình ảnh. Nó cung cấp khả năng kiểm soát chi tiết hình ảnh chính xác hơn, tạo ra văn bản nhỏ và khuôn mặt nhỏ một cách tự nhiên hơn, và đạt được bố cục và màu sắc hài hòa hơn, nâng cao tính thẩm mỹ tổng thể.", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite là mô hình tạo hình ảnh mới nhất của ByteDance. Lần đầu tiên, nó tích hợp khả năng truy xuất trực tuyến, cho phép kết hợp thông tin web theo thời gian thực và nâng cao tính kịp thời của hình ảnh được tạo. Trí tuệ của mô hình cũng được nâng cấp, cho phép diễn giải chính xác các hướng dẫn phức tạp và nội dung hình ảnh. Ngoài ra, nó cung cấp phạm vi kiến thức toàn cầu được cải thiện, tính nhất quán tham chiếu và chất lượng tạo hình ảnh trong các tình huống chuyên nghiệp, đáp ứng tốt hơn nhu cầu sáng tạo hình ảnh ở cấp độ doanh nghiệp.", "emohaa.description": "Emohaa là mô hình hỗ trợ sức khỏe tinh thần với khả năng tư vấn chuyên nghiệp, giúp người dùng hiểu rõ các vấn đề cảm xúc.", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B là mô hình nhẹ mã nguồn mở, phù hợp để triển khai cục bộ và tùy chỉnh.", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking là mô hình văn bản MoE (Hỗn hợp chuyên gia) được huấn luyện sau với tổng cộng 21 tỷ tham số và 3 tỷ tham số hoạt động, mang lại chất lượng và chiều sâu suy luận được cải thiện đáng kể.", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B là mô hình mã nguồn mở với số lượng tham số lớn, có khả năng hiểu và tạo nội dung mạnh mẽ hơn.", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B là mô hình MoE siêu lớn của Baidu ERNIE với khả năng lý luận xuất sắc.", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview là mô hình xem trước với ngữ cảnh 8K để đánh giá ERNIE 4.5.", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K là mô hình nhẹ hiệu suất cao dành cho các tình huống nhạy cảm về độ trễ và chi phí.", "ernie-novel-8k.description": "ERNIE Novel 8K được xây dựng để tạo tiểu thuyết dài và cốt truyện IP với nhiều nhân vật.", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K là mô hình giá trị cao, hỗ trợ đồng thời cao dành cho dịch vụ trực tuyến quy mô lớn và ứng dụng doanh nghiệp.", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview là mô hình suy nghĩ nhanh với ngữ cảnh 32K dành cho suy luận phức tạp và hội thoại nhiều lượt.", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K là mô hình tư duy nhanh với ngữ cảnh 32K dành cho lý luận phức tạp và trò chuyện nhiều lượt.", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview là bản xem trước mô hình tư duy để đánh giá và thử nghiệm.", + "ernie-x1.1.description": "ERNIE X1.1 là mô hình suy nghĩ thử nghiệm dành cho đánh giá và kiểm tra.", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5, được phát triển bởi nhóm Seed của ByteDance, hỗ trợ chỉnh sửa và phối hợp nhiều hình ảnh. Tính năng bao gồm duy trì nhất quán chủ thể, tuân thủ chính xác hướng dẫn, hiểu logic không gian, biểu đạt thẩm mỹ, bố cục poster và thiết kế logo với khả năng kết xuất văn bản-hình ảnh chính xác cao.", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0, được phát triển bởi ByteDance Seed, hỗ trợ đầu vào văn bản và hình ảnh để tạo hình ảnh chất lượng cao, có thể kiểm soát tốt từ lời nhắc.", "fal-ai/flux-kontext/dev.description": "Mô hình FLUX.1 tập trung vào chỉnh sửa hình ảnh, hỗ trợ đầu vào văn bản và hình ảnh.", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Phiên bản xem trước (25 tháng 9, 2025) của Gemini 2.5 Flash-Lite", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite là mô hình nhỏ nhất và có giá trị tốt nhất của Google, được thiết kế cho các trường hợp sử dụng quy mô lớn.", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview là mô hình có giá trị tốt nhất của Google với đầy đủ tính năng.", - "gemini-2.5-flash-preview-09-2025.description": "Phiên bản xem trước (25 tháng 9, 2025) của Gemini 2.5 Flash", "gemini-2.5-flash.description": "Gemini 2.5 Flash là mô hình có giá trị tốt nhất của Google với đầy đủ tính năng.", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview là mô hình suy luận tiên tiến nhất của Google, có khả năng suy luận trên mã, toán học và các vấn đề STEM, cũng như phân tích tập dữ liệu lớn, mã nguồn và tài liệu với ngữ cảnh dài.", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ hội thoại đa phương thức.", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image (Nano Banana Pro) là mô hình tạo hình ảnh của Google, đồng thời hỗ trợ trò chuyện đa phương thức.", "gemini-3-pro-preview.description": "Gemini 3 Pro là mô hình mạnh mẽ nhất của Google, kết hợp khả năng mã hóa cảm xúc và suy luận tiên tiến, mang đến hình ảnh phong phú và tương tác sâu sắc.", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image (Nano Banana 2) mang lại chất lượng hình ảnh cấp độ chuyên nghiệp với tốc độ Flash và hỗ trợ hội thoại đa phương thức.", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image (Nano Banana 2) mang lại chất lượng hình ảnh cấp độ chuyên nghiệp với tốc độ Flash và hỗ trợ hội thoại đa phương thức.", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview cải tiến Gemini 3 Pro với khả năng suy luận nâng cao và bổ sung hỗ trợ mức suy nghĩ trung bình.", "gemini-flash-latest.description": "Phiên bản mới nhất của Gemini Flash", "gemini-flash-lite-latest.description": "Phiên bản mới nhất của Gemini Flash-Lite", "gemini-pro-latest.description": "Phiên bản mới nhất của Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus có khả năng hiểu video và nhiều hình ảnh, phù hợp với các tác vụ đa phương thức.", "glm-4v-plus.description": "GLM-4V-Plus có khả năng hiểu video và nhiều hình ảnh, phù hợp với các tác vụ đa phương thức.", "glm-4v.description": "GLM-4V cung cấp khả năng hiểu và suy luận hình ảnh mạnh mẽ trong các tác vụ thị giác.", - "glm-5.description": "Mô hình lý luận và tác nhân mạnh mẽ từ Z.ai với tổng số tham số 744B (40B kích hoạt), được xây dựng cho kỹ thuật hệ thống phức tạp và các nhiệm vụ dài hạn.", + "glm-5.description": "Dòng GLM là mô hình suy luận lai từ Zhipu AI được xây dựng cho các tác nhân, với chế độ suy nghĩ và không suy nghĩ.", "glm-z1-air.description": "Mô hình suy luận với khả năng suy luận sâu cho các tác vụ yêu cầu phân tích phức tạp.", "glm-z1-airx.description": "Suy luận siêu nhanh với chất lượng suy luận cao.", "glm-z1-flash.description": "Dòng GLM-Z1 cung cấp khả năng suy luận phức tạp mạnh mẽ, vượt trội trong logic, toán học và lập trình.", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "Chúng tôi rất vui mừng ra mắt Grok 4 Fast, bước tiến mới nhất trong các mô hình suy luận tiết kiệm chi phí.", "grok-4.description": "Mô hình hàng đầu mới nhất và mạnh nhất của chúng tôi, vượt trội trong NLP, toán học và suy luận — một lựa chọn toàn diện lý tưởng.", "grok-code-fast-1.description": "Chúng tôi rất vui mừng ra mắt grok-code-fast-1, một mô hình suy luận nhanh và tiết kiệm chi phí, nổi bật trong lập trình tác vụ tự động.", + "grok-imagine-image-pro.description": "Tạo hình ảnh từ các gợi ý văn bản, chỉnh sửa hình ảnh hiện có bằng ngôn ngữ tự nhiên hoặc tinh chỉnh hình ảnh thông qua hội thoại nhiều lượt.", + "grok-imagine-image.description": "Tạo hình ảnh từ các gợi ý văn bản, chỉnh sửa hình ảnh hiện có bằng ngôn ngữ tự nhiên hoặc tinh chỉnh hình ảnh thông qua hội thoại nhiều lượt.", "groq/compound-mini.description": "Compound-mini là hệ thống AI tổng hợp sử dụng các mô hình công khai được hỗ trợ trên GroqCloud, lựa chọn và sử dụng công cụ một cách thông minh để trả lời câu hỏi của người dùng.", "groq/compound.description": "Compound là hệ thống AI tổng hợp sử dụng nhiều mô hình công khai được hỗ trợ trên GroqCloud, lựa chọn và sử dụng công cụ một cách thông minh để trả lời câu hỏi của người dùng.", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B là một mô hình ngôn ngữ sáng tạo và thông minh, được kết hợp từ nhiều mô hình hàng đầu.", + "hunyuan-2.0-instruct-20251111.description": "Các tính năng phát hành: Nền tảng mô hình đã được nâng cấp từ TurboS lên **Hunyuan 2.0**, mang lại cải tiến toàn diện về khả năng. Nó cải thiện đáng kể khả năng tuân theo hướng dẫn, hiểu văn bản nhiều lượt và dài, sáng tạo văn học, độ chính xác kiến thức, mã hóa và khả năng suy luận.", + "hunyuan-2.0-thinking-20251109.description": "Các tính năng phát hành: Nền tảng mô hình đã được nâng cấp từ TurboS lên **Hunyuan 2.0**, mang lại cải tiến toàn diện về khả năng. Nó cải thiện đáng kể khả năng tuân theo hướng dẫn phức tạp, hiểu văn bản nhiều lượt và dài, xử lý mã, hoạt động như một tác nhân và thực hiện các nhiệm vụ suy luận.", "hunyuan-a13b.description": "Mô hình suy luận lai đầu tiên từ Hunyuan, được nâng cấp từ hunyuan-standard-256K (80B tổng, 13B hoạt động). Mặc định suy nghĩ chậm và hỗ trợ chuyển đổi nhanh/chậm thông qua tham số hoặc tiền tố /no_think. Năng lực tổng thể được cải thiện so với thế hệ trước, đặc biệt trong toán học, khoa học, hiểu văn bản dài và các tác vụ tác nhân.", - "hunyuan-code.description": "Mô hình tạo mã mới nhất được huấn luyện với 200B mã chất lượng cao và sáu tháng SFT; ngữ cảnh mở rộng đến 8K. Xếp hạng hàng đầu trong các bài kiểm tra tự động cho năm ngôn ngữ và đánh giá con người trên mười tiêu chí.", - "hunyuan-functioncall.description": "Mô hình FunctionCall MoE mới nhất được huấn luyện với dữ liệu gọi hàm chất lượng cao, có cửa sổ ngữ cảnh 32K và kết quả hàng đầu trong nhiều tiêu chí đánh giá.", - "hunyuan-large-longcontext.description": "Xuất sắc trong các tác vụ tài liệu dài như tóm tắt và hỏi đáp, đồng thời xử lý tốt việc tạo nội dung tổng quát. Mạnh mẽ trong phân tích và tạo văn bản dài cho nội dung phức tạp, chi tiết.", - "hunyuan-large-vision.description": "Mô hình ngôn ngữ-thị giác được huấn luyện từ Hunyuan Large để hiểu hình ảnh và văn bản. Hỗ trợ đầu vào nhiều hình ảnh + văn bản ở mọi độ phân giải và cải thiện khả năng hiểu hình ảnh đa ngôn ngữ.", - "hunyuan-large.description": "Hunyuan-large có khoảng 389B tham số tổng và khoảng 52B tham số hoạt động, là mô hình MoE mở lớn nhất và mạnh nhất trong kiến trúc Transformer.", - "hunyuan-lite-vision.description": "Mô hình đa phương tiện 7B mới nhất với cửa sổ ngữ cảnh 32K, hỗ trợ trò chuyện đa phương tiện Trung/Anh, nhận diện đối tượng, hiểu bảng tài liệu và toán học đa phương tiện, vượt trội so với các mô hình 7B khác trong nhiều bài kiểm tra.", + "hunyuan-code.description": "Mô hình mã mới nhất của Hunyuan được huấn luyện trên 200 tỷ dữ liệu mã chất lượng cao cộng với sáu tháng dữ liệu SFT, với ngữ cảnh 8K. Nó xếp gần đầu trong các tiêu chuẩn mã hóa tự động và trong các đánh giá của chuyên gia con người trên năm ngôn ngữ.", + "hunyuan-functioncall.description": "Mô hình MoE FunctionCall mới nhất của Hunyuan được huấn luyện trên dữ liệu gọi công cụ chất lượng cao, với cửa sổ ngữ cảnh 32K và đạt tiêu chuẩn hàng đầu trên nhiều khía cạnh.", "hunyuan-lite.description": "Được nâng cấp lên kiến trúc MoE với cửa sổ ngữ cảnh 256K, dẫn đầu nhiều mô hình mở trong các bài kiểm tra NLP, mã hóa, toán học và ngành công nghiệp.", "hunyuan-pro.description": "Mô hình MoE-32K với hàng nghìn tỷ tham số, dẫn đầu các bài kiểm tra, mạnh mẽ trong hướng dẫn phức tạp và suy luận, toán học nâng cao, gọi hàm và tối ưu hóa cho dịch đa ngôn ngữ, tài chính, pháp lý và y tế.", - "hunyuan-role.description": "Mô hình nhập vai mới nhất, được tinh chỉnh chính thức trên tập dữ liệu nhập vai, mang lại hiệu suất cơ bản mạnh mẽ hơn cho các tình huống nhập vai.", - "hunyuan-standard-256K.description": "Sử dụng định tuyến cải tiến để giảm thiểu mất cân bằng tải và sụp đổ chuyên gia. Đạt 99,9% trong bài kiểm tra 'kim trong đống cỏ' với ngữ cảnh dài. MOE-256K mở rộng thêm độ dài và chất lượng ngữ cảnh.", - "hunyuan-standard-vision.description": "Mô hình đa phương tiện mới nhất với phản hồi đa ngôn ngữ và khả năng cân bằng giữa tiếng Trung và tiếng Anh.", - "hunyuan-standard.description": "Sử dụng định tuyến cải tiến để giảm thiểu mất cân bằng tải và sụp đổ chuyên gia. Đạt 99,9% trong bài kiểm tra 'kim trong đống cỏ' với ngữ cảnh dài. MOE-32K mang lại giá trị cao khi xử lý đầu vào dài.", - "hunyuan-t1-20250321.description": "Xây dựng khả năng cân bằng giữa nghệ thuật và STEM với khả năng nắm bắt thông tin văn bản dài mạnh mẽ. Hỗ trợ trả lời suy luận cho các vấn đề toán học, logic, khoa học và mã hóa ở nhiều cấp độ khó.", - "hunyuan-t1-20250403.description": "Cải thiện chất lượng tạo mã ở cấp độ dự án và viết, tăng cường hiểu chủ đề nhiều lượt và tuân theo hướng dẫn ToB, cải thiện hiểu từ ngữ và giảm lỗi đầu ra pha trộn giữa giản thể/phồn thể và Trung/Anh.", - "hunyuan-t1-20250529.description": "Cải thiện viết sáng tạo và biên soạn, tăng cường mã hóa giao diện người dùng, suy luận toán học và logic, và nâng cao khả năng tuân theo hướng dẫn.", - "hunyuan-t1-20250711.description": "Cải thiện đáng kể toán học khó, logic và mã hóa, tăng độ ổn định đầu ra và nâng cao khả năng xử lý văn bản dài.", + "hunyuan-role.description": "Mô hình nhập vai mới nhất của Hunyuan, được tinh chỉnh chính thức với dữ liệu nhập vai, mang lại hiệu suất cơ bản mạnh mẽ hơn trong các tình huống nhập vai.", + "hunyuan-standard-256K.description": "Sử dụng định tuyến cải tiến để giảm thiểu cân bằng tải và sự sụp đổ của chuyên gia. Văn bản dài \"kim trong đống rơm\" đạt 99,9%. MOE-256K đẩy xa hơn về độ dài và chất lượng, mở rộng đáng kể độ dài đầu vào.", + "hunyuan-standard.description": "Sử dụng định tuyến cải tiến để giảm thiểu cân bằng tải và sự sụp đổ của chuyên gia. Văn bản dài \"kim trong đống rơm\" đạt 99,9%. MOE-32K mang lại giá trị tốt hơn trong khi cân bằng chất lượng và giá cả cho các đầu vào văn bản dài.", "hunyuan-t1-latest.description": "Cải thiện đáng kể mô hình suy nghĩ chậm trong toán học khó, suy luận phức tạp, mã hóa khó, tuân theo hướng dẫn và chất lượng viết sáng tạo.", - "hunyuan-t1-vision-20250619.description": "Mô hình suy luận sâu đa phương tiện t1-vision mới nhất với chuỗi suy nghĩ dài tự nhiên, cải thiện đáng kể so với phiên bản mặc định trước đó.", "hunyuan-t1-vision-20250916.description": "Mô hình suy luận sâu t1-vision mới nhất với cải tiến lớn trong VQA, định vị hình ảnh, OCR, biểu đồ, giải bài toán qua ảnh và sáng tạo dựa trên hình ảnh, cùng khả năng tiếng Anh và ngôn ngữ ít tài nguyên mạnh hơn.", - "hunyuan-turbo-20241223.description": "Phiên bản này tăng khả năng mở rộng hướng dẫn để tổng quát hóa tốt hơn, cải thiện đáng kể suy luận toán/mã/logic, nâng cao hiểu từ ngữ và cải thiện chất lượng viết.", - "hunyuan-turbo-latest.description": "Cải thiện trải nghiệm tổng thể trong hiểu NLP, viết, trò chuyện, hỏi đáp, dịch và các lĩnh vực; phản hồi giống con người hơn, làm rõ ý định mơ hồ tốt hơn, phân tích từ ngữ chính xác hơn, chất lượng sáng tạo và tương tác cao hơn, và hội thoại nhiều lượt mạnh mẽ hơn.", - "hunyuan-turbo-vision.description": "Mô hình ngôn ngữ-thị giác thế hệ tiếp theo sử dụng kiến trúc MoE mới, cải thiện toàn diện trong nhận diện, tạo nội dung, hỏi đáp kiến thức và suy luận phân tích.", "hunyuan-turbo.description": "Bản xem trước của LLM thế hệ tiếp theo từ Hunyuan với kiến trúc MoE mới, mang lại suy luận nhanh hơn và kết quả mạnh mẽ hơn so với hunyuan-pro.", - "hunyuan-turbos-20250313.description": "Thống nhất phong cách giải toán và tăng cường hỏi đáp toán nhiều lượt. Phong cách viết được tinh chỉnh để giảm giọng điệu giống AI và tăng độ mượt mà.", - "hunyuan-turbos-20250416.description": "Nâng cấp nền tảng tiền huấn luyện để cải thiện hiểu và tuân theo hướng dẫn; căn chỉnh tăng cường toán, mã, logic và khoa học; cải thiện chất lượng viết, hiểu, độ chính xác dịch và hỏi đáp kiến thức; tăng cường khả năng tác nhân, đặc biệt là hiểu nhiều lượt.", - "hunyuan-turbos-20250604.description": "Nâng cấp nền tảng tiền huấn luyện với cải thiện viết và đọc hiểu, tiến bộ đáng kể trong mã hóa và STEM, và tuân theo hướng dẫn phức tạp tốt hơn.", - "hunyuan-turbos-20250926.description": "Nâng cấp chất lượng dữ liệu tiền huấn luyện và chiến lược hậu huấn luyện, cải thiện tác nhân, ngôn ngữ tiếng Anh/ít tài nguyên, tuân theo hướng dẫn, mã hóa và khả năng STEM.", "hunyuan-turbos-latest.description": "Mô hình hàng đầu Hunyuan TurboS mới nhất với khả năng suy luận mạnh mẽ hơn và trải nghiệm tổng thể tốt hơn.", - "hunyuan-turbos-longtext-128k-20250325.description": "Xuất sắc trong các tác vụ tài liệu dài như tóm tắt và hỏi đáp, đồng thời xử lý tốt việc tạo nội dung tổng quát. Mạnh mẽ trong phân tích và tạo văn bản dài cho nội dung phức tạp, chi tiết.", - "hunyuan-turbos-role-plus.description": "Mô hình nhập vai mới nhất, được tinh chỉnh chính thức trên tập dữ liệu nhập vai, mang lại hiệu suất cơ bản mạnh mẽ hơn cho các tình huống nhập vai.", - "hunyuan-turbos-vision-20250619.description": "Mô hình ngôn ngữ-thị giác TurboS hàng đầu mới nhất với cải tiến lớn trong các tác vụ hình ảnh-văn bản như nhận diện thực thể, hỏi đáp kiến thức, viết quảng cáo và giải bài toán qua ảnh.", - "hunyuan-turbos-vision.description": "Mô hình ngôn ngữ-thị giác hàng đầu thế hệ tiếp theo dựa trên TurboS mới nhất, tập trung vào các tác vụ hiểu hình ảnh-văn bản như nhận diện thực thể, hỏi đáp kiến thức, viết quảng cáo và giải bài toán qua ảnh.", - "hunyuan-vision-1.5-instruct.description": "Mô hình suy nghĩ nhanh sinh văn bản từ hình ảnh dựa trên nền tảng TurboS văn bản, có cải tiến rõ rệt so với phiên bản trước trong nhận diện cơ bản và suy luận phân tích hình ảnh.", - "hunyuan-vision.description": "Mô hình đa phương tiện mới nhất hỗ trợ đầu vào hình ảnh + văn bản để tạo văn bản.", + "hunyuan-vision-1.5-instruct.description": "Mô hình hình ảnh-to-văn bản suy nghĩ nhanh được xây dựng trên nền tảng văn bản TurboS, cho thấy những cải tiến đáng chú ý so với phiên bản trước trong nhận diện hình ảnh cơ bản và suy luận phân tích hình ảnh.", + "hunyuan-vision.description": "Mô hình đa phương thức mới nhất của Hunyuan hỗ trợ đầu vào hình ảnh + văn bản để tạo văn bản.", "image-01-live.description": "Mô hình tạo ảnh với chi tiết tinh xảo, hỗ trợ chuyển văn bản thành hình ảnh và các kiểu dáng có thể điều chỉnh.", "image-01.description": "Mô hình tạo ảnh mới với chi tiết tinh xảo, hỗ trợ chuyển văn bản thành hình ảnh và từ hình ảnh sang hình ảnh.", "imagen-4.0-fast-generate-001.description": "Phiên bản Nhanh của dòng mô hình chuyển văn bản thành hình ảnh thế hệ thứ tư Imagen", "imagen-4.0-generate-001.description": "Dòng mô hình chuyển văn bản thành hình ảnh thế hệ thứ tư Imagen", - "imagen-4.0-generate-preview-06-06.description": "Dòng mô hình chuyển văn bản thành hình ảnh thế hệ thứ tư Imagen.", "imagen-4.0-ultra-generate-001.description": "Phiên bản Ultra của dòng mô hình chuyển văn bản thành hình ảnh thế hệ thứ tư Imagen", - "imagen-4.0-ultra-generate-preview-06-06.description": "Biến thể Ultra của dòng mô hình chuyển văn bản thành hình ảnh thế hệ thứ tư Imagen.", "inception/mercury-coder-small.description": "Mercury Coder Small lý tưởng cho việc tạo mã, gỡ lỗi và tái cấu trúc với độ trễ tối thiểu.", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 là mô hình kiến trúc Ling 2.0 thứ ba từ nhóm Bailing của Ant Group. Đây là mô hình MoE với tổng số tham số 100B nhưng chỉ có 6.1B tham số hoạt động mỗi token (4.8B không bao gồm embedding). Dù cấu hình nhẹ, nó vẫn đạt hoặc vượt qua các mô hình dense 40B và các mô hình MoE lớn hơn trong nhiều bài kiểm tra, khám phá hiệu quả cao thông qua kiến trúc và chiến lược huấn luyện.", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 là mô hình MoE nhỏ, hiệu suất cao với tổng 16B tham số và chỉ 1.4B tham số hoạt động mỗi token (789M không bao gồm embedding), mang lại tốc độ tạo văn bản rất nhanh. Với thiết kế MoE hiệu quả và dữ liệu huấn luyện chất lượng cao, nó đạt hiệu suất hàng đầu tương đương với các mô hình dense dưới 10B và các mô hình MoE lớn hơn.", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T là mô hình MoE với hàng nghìn tỷ tham số của inclusionAI, phù hợp cho các tác vụ suy luận quy mô lớn và nghiên cứu.", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 là biến thể mô hình Ring từ inclusionAI dành cho các tình huống thông lượng cao, nhấn mạnh vào tốc độ và hiệu quả chi phí.", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 là mô hình MoE nhẹ, thông lượng cao của inclusionAI, được xây dựng cho môi trường đồng thời.", + "intern-latest.description": "Theo mặc định, nó trỏ đến mô hình mới nhất của dòng Intern, hiện được đặt là intern-s1-pro.", + "intern-s1-mini.description": "Mô hình lớn đa phương thức nhẹ với khả năng suy luận khoa học mạnh mẽ.", + "intern-s1-pro.description": "Chúng tôi đã ra mắt mô hình suy luận đa phương thức tiên tiến nhất mã nguồn mở, hiện là mô hình ngôn ngữ lớn đa phương thức mã nguồn mở có hiệu suất tổng thể hàng đầu.", + "intern-s1.description": "Mô hình suy luận đa phương thức mã nguồn mở không chỉ thể hiện khả năng mục đích chung mạnh mẽ mà còn đạt hiệu suất hàng đầu trong nhiều nhiệm vụ khoa học.", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat là mô hình trò chuyện mã nguồn mở dựa trên kiến trúc InternLM2. Mô hình 7B tập trung vào tạo hội thoại, hỗ trợ tiếng Trung và tiếng Anh, sử dụng huấn luyện hiện đại để tạo ra cuộc trò chuyện trôi chảy và thông minh. Phù hợp với nhiều tình huống trò chuyện như hỗ trợ khách hàng và trợ lý cá nhân.", - "internlm2.5-latest.description": "Các mô hình cũ vẫn được duy trì với hiệu suất ổn định và xuất sắc sau nhiều lần cải tiến. Có sẵn ở kích thước 7B và 20B, hỗ trợ ngữ cảnh 1M và khả năng tuân theo hướng dẫn và sử dụng công cụ mạnh mẽ hơn. Mặc định là dòng InternLM2.5 mới nhất (hiện tại là internlm2.5-20b-chat).", - "internlm3-latest.description": "Dòng mô hình mới nhất của chúng tôi với hiệu suất suy luận xuất sắc, dẫn đầu trong các mô hình mã nguồn mở cùng kích thước. Mặc định là dòng InternLM3 mới nhất (hiện tại là internlm3-8b-instruct).", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO là mô hình tiền huấn luyện đa phương thức cho suy luận hình ảnh-văn bản phức tạp.", - "internvl2.5-latest.description": "InternVL2.5 vẫn được duy trì với hiệu suất mạnh mẽ và ổn định. Mặc định là dòng InternVL2.5 mới nhất (hiện tại là internvl2.5-78b).", "internvl3-14b.description": "InternVL3 14B là mô hình đa phương thức cỡ trung cân bằng giữa hiệu suất và chi phí.", "internvl3-1b.description": "InternVL3 1B là mô hình đa phương thức nhẹ dành cho triển khai trong môi trường hạn chế tài nguyên.", "internvl3-38b.description": "InternVL3 38B là mô hình đa phương thức mã nguồn mở lớn dành cho hiểu hình ảnh-văn bản chính xác cao.", - "internvl3-latest.description": "Mô hình đa phương thức mới nhất của chúng tôi với khả năng hiểu hình ảnh-văn bản mạnh mẽ và hiểu hình ảnh chuỗi dài, sánh ngang với các mô hình đóng hàng đầu. Mặc định là dòng InternVL mới nhất (hiện tại là internvl3-78b).", + "internvl3.5-241b-a28b.description": "Mô hình lớn đa phương thức mới được phát hành của chúng tôi có khả năng hiểu hình ảnh và văn bản nâng cao và khả năng hiểu hình ảnh chuỗi dài, đạt hiệu suất tương đương với các mô hình mã nguồn đóng hàng đầu.", + "internvl3.5-latest.description": "Theo mặc định, nó trỏ đến mô hình mới nhất trong dòng InternVL3.5, hiện được đặt là internvl3.5-241b-a28b.", "irag-1.0.description": "ERNIE iRAG là mô hình tạo nội dung tăng cường truy xuất hình ảnh, dùng cho tìm kiếm hình ảnh, truy xuất hình ảnh-văn bản và tạo nội dung.", "jamba-large.description": "Mô hình mạnh mẽ và tiên tiến nhất của chúng tôi, được thiết kế cho các tác vụ doanh nghiệp phức tạp với hiệu suất vượt trội.", "jamba-mini.description": "Mô hình hiệu quả nhất trong phân khúc, cân bằng giữa tốc độ và chất lượng với dung lượng nhỏ gọn.", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 là mô hình ngôn ngữ lớn hiệu quả, được xây dựng đặc biệt cho lập trình và quy trình tác tử.", "minimax/minimax-m2.1.description": "MiniMax-M2.1 là mô hình ngôn ngữ lớn tiên tiến, nhẹ, được tối ưu hóa cho lập trình, quy trình proxy và phát triển ứng dụng hiện đại, mang lại đầu ra rõ ràng, ngắn gọn và phản hồi nhanh hơn.", "minimax/minimax-m2.description": "MiniMax-M2 là mô hình giá trị cao, xuất sắc trong các tác vụ lập trình và tác tử cho nhiều tình huống kỹ thuật.", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 là mô hình MoE nhỏ gọn, nhanh, hiệu quả về chi phí được xây dựng cho hiệu suất mã hóa và tác nhân hàng đầu.", "minimaxai/minimax-m2.description": "MiniMax-M2 là mô hình MoE nhỏ gọn, nhanh, tiết kiệm chi phí (230B tổng, 10B hoạt động), được xây dựng để đạt hiệu suất cao trong lập trình và tác tử, đồng thời vẫn giữ được trí tuệ tổng quát mạnh mẽ. Nó nổi bật trong chỉnh sửa nhiều tệp, vòng lặp chạy-sửa mã, xác thực kiểm thử và chuỗi công cụ phức tạp.", "ministral-3b-latest.description": "Ministral 3B là mô hình hàng đầu cho thiết bị biên của Mistral.", "ministral-8b-latest.description": "Ministral 8B là mô hình biên hiệu quả về chi phí cao từ Mistral.", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "Mô hình kimi-k2-0905-preview hỗ trợ cửa sổ ngữ cảnh 256k, với khả năng lập trình tác tử mạnh hơn, mã giao diện người dùng mượt mà và thực tế hơn, cùng khả năng hiểu ngữ cảnh tốt hơn.", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo là phiên bản tốc độ cao của Kimi K2 Thinking, giảm đáng kể độ trễ trong khi vẫn giữ được khả năng suy luận sâu.", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking là mô hình suy luận của Moonshot được tối ưu hóa cho các tác vụ suy luận sâu, với khả năng tác tử tổng quát.", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 là mô hình Kimi thông minh nhất cho đến nay, với kiến trúc đa phương thức tự nhiên.", "moonshotai/kimi-k2.description": "Kimi K2 là mô hình MoE lớn từ Moonshot AI với tổng 1T tham số và 32B hoạt động mỗi lần truyền, được tối ưu hóa cho khả năng tác tử bao gồm sử dụng công cụ nâng cao, suy luận và tổng hợp mã.", "morph/morph-v3-fast.description": "Morph cung cấp mô hình chuyên biệt để áp dụng các thay đổi mã do các mô hình tiên tiến (ví dụ: Claude hoặc GPT-4o) đề xuất vào tệp hiện có của bạn với tốc độ NHANH 4500+ token/giây. Đây là bước cuối cùng trong quy trình lập trình AI và hỗ trợ 16k token đầu vào/đầu ra.", "morph/morph-v3-large.description": "Morph cung cấp mô hình chuyên biệt để áp dụng các thay đổi mã do các mô hình tiên tiến (ví dụ: Claude hoặc GPT-4o) đề xuất vào tệp hiện có của bạn với tốc độ NHANH 2500+ token/giây. Đây là bước cuối cùng trong quy trình lập trình AI và hỗ trợ 16k token đầu vào/đầu ra.", + "musesteamer-air-image.description": "musesteamer-air-image là mô hình tạo hình ảnh được phát triển bởi đội tìm kiếm của Baidu để mang lại hiệu suất chi phí vượt trội. Nó có thể nhanh chóng tạo ra hình ảnh rõ ràng, hành động mạch lạc dựa trên các gợi ý của người dùng, biến mô tả của người dùng thành hình ảnh một cách dễ dàng.", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B là phiên bản cập nhật của Nous Hermes 2 với bộ dữ liệu nội bộ mới nhất được phát triển.", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B là mô hình LLM tùy chỉnh của NVIDIA nhằm cải thiện tính hữu ích. Nó đạt hiệu suất cao trên Arena Hard, AlpacaEval 2 LC và GPT-4-Turbo MT-Bench, xếp hạng #1 trên cả ba bài kiểm tra tự động căn chỉnh tính đến ngày 1 tháng 10 năm 2024. Mô hình được huấn luyện từ Llama-3.1-70B-Instruct bằng RLHF (REINFORCE), Llama-3.1-Nemotron-70B-Reward và các prompt HelpSteer2-Preference.", "nvidia/llama-3.1-nemotron-51b-instruct.description": "Mô hình ngôn ngữ đặc biệt với độ chính xác và hiệu quả vượt trội.", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "Dựa trên độ dài ngữ cảnh, chủ đề và độ phức tạp, yêu cầu của bạn sẽ được định tuyến đến Llama 3 70B Instruct, Claude 3.5 Sonnet (tự kiểm duyệt) hoặc GPT-4o.", "oswe-vscode-prime.description": "Raptor mini là mô hình xem trước được tối ưu hóa cho các nhiệm vụ liên quan đến mã.", "oswe-vscode-secondary.description": "Raptor mini là mô hình xem trước được tối ưu hóa cho các nhiệm vụ liên quan đến mã.", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 là mô hình cân bằng giữa hiệu quả tính toán cao và hiệu suất suy luận và tác nhân xuất sắc.", "perplexity/sonar-pro.description": "Sản phẩm hàng đầu của Perplexity với khả năng tìm kiếm làm nền, hỗ trợ truy vấn nâng cao và theo dõi.", "perplexity/sonar-reasoning-pro.description": "Mô hình tập trung vào suy luận nâng cao, xuất ra chuỗi suy nghĩ (CoT) với tìm kiếm nâng cao, bao gồm nhiều truy vấn tìm kiếm cho mỗi yêu cầu.", "perplexity/sonar-reasoning.description": "Mô hình tập trung vào suy luận, xuất ra chuỗi suy nghĩ (CoT) với giải thích chi tiết dựa trên tìm kiếm.", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Mô hình mã Qwen.", "qwen-coder-turbo.description": "Mô hình mã Qwen.", "qwen-flash.description": "Mô hình Qwen nhanh nhất và chi phí thấp nhất, lý tưởng cho các nhiệm vụ đơn giản.", + "qwen-image-edit-max.description": "Mô hình chỉnh sửa hình ảnh Qwen hỗ trợ đầu vào nhiều hình ảnh và đầu ra nhiều hình ảnh, cho phép chỉnh sửa văn bản trong hình ảnh chính xác, thêm, xóa hoặc di chuyển đối tượng, sửa đổi hành động của đối tượng, chuyển đổi phong cách hình ảnh và cải thiện chi tiết hình ảnh.", + "qwen-image-edit-plus.description": "Mô hình chỉnh sửa hình ảnh Qwen hỗ trợ đầu vào nhiều hình ảnh và đầu ra nhiều hình ảnh, cho phép chỉnh sửa văn bản trong hình ảnh chính xác, thêm, xóa hoặc di chuyển đối tượng, sửa đổi hành động của đối tượng, chuyển đổi phong cách hình ảnh và cải thiện chi tiết hình ảnh.", "qwen-image-edit.description": "Qwen Image Edit là mô hình chỉnh sửa hình ảnh từ hình ảnh đầu vào và gợi ý văn bản, cho phép điều chỉnh chính xác và biến đổi sáng tạo.", + "qwen-image-max.description": "Mô hình tạo hình ảnh Qwen (dòng Max) mang lại tính chân thực và tự nhiên hình ảnh được cải thiện so với dòng Plus, giảm hiệu quả các lỗi tạo hình ảnh AI, và thể hiện hiệu suất vượt trội trong ngoại hình con người, chi tiết kết cấu và hiển thị văn bản.", + "qwen-image-plus.description": "Nó hỗ trợ nhiều phong cách nghệ thuật và đặc biệt thành thạo trong việc hiển thị văn bản phức tạp trong hình ảnh, cho phép thiết kế bố cục hình ảnh–văn bản tích hợp.", "qwen-image.description": "Qwen-Image là mô hình tạo hình ảnh tổng quát hỗ trợ nhiều phong cách nghệ thuật và khả năng hiển thị văn bản phức tạp mạnh mẽ, đặc biệt là tiếng Trung và tiếng Anh. Nó hỗ trợ bố cục nhiều dòng, văn bản cấp đoạn và chi tiết tinh tế cho bố cục văn bản-hình ảnh phức tạp.", "qwen-long.description": "Mô hình Qwen siêu lớn với ngữ cảnh dài và trò chuyện qua các kịch bản tài liệu dài và đa tài liệu.", "qwen-math-plus-latest.description": "Qwen Math là mô hình ngôn ngữ chuyên giải quyết các bài toán toán học.", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "Mô hình mã nguồn mở Qwen mã. Mô hình qwen3-coder-30b-a3b-instruct mới nhất dựa trên Qwen3 và mang lại khả năng tác nhân lập trình mạnh mẽ, sử dụng công cụ và tương tác môi trường cho lập trình tự động, với hiệu suất mã xuất sắc và khả năng tổng quát vững chắc.", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct là mô hình mã hàng đầu dành cho lập trình đa ngôn ngữ và hiểu mã phức tạp.", "qwen3-coder-flash.description": "Mô hình mã Qwen. Dòng Qwen3-Coder mới nhất dựa trên Qwen3 và mang lại khả năng tác nhân lập trình mạnh mẽ, sử dụng công cụ và tương tác môi trường cho lập trình tự động, với hiệu suất mã xuất sắc và khả năng tổng quát vững chắc.", + "qwen3-coder-next.description": "Mã hóa Qwen thế hệ tiếp theo được tối ưu hóa cho việc tạo mã phức tạp nhiều tệp, gỡ lỗi và quy trình làm việc tác nhân thông lượng cao. Được thiết kế để tích hợp công cụ mạnh mẽ và cải thiện hiệu suất suy luận.", "qwen3-coder-plus.description": "Mô hình mã Qwen. Dòng Qwen3-Coder mới nhất dựa trên Qwen3 và mang lại khả năng tác nhân lập trình mạnh mẽ, sử dụng công cụ và tương tác môi trường cho lập trình tự động, với hiệu suất mã xuất sắc và khả năng tổng quát vững chắc.", "qwen3-coder:480b.description": "Mô hình hiệu suất cao của Alibaba dành cho các nhiệm vụ tác nhân và lập trình với ngữ cảnh dài.", "qwen3-max-2026-01-23.description": "Các mô hình Qwen3 Max mang lại những cải tiến lớn so với dòng 2.5 về khả năng tổng quát, hiểu biết tiếng Trung/tiếng Anh, tuân thủ hướng dẫn phức tạp, nhiệm vụ mở chủ quan, khả năng đa ngôn ngữ và sử dụng công cụ, với ít ảo giác hơn. Phiên bản qwen3-max mới nhất cải thiện lập trình tác nhân và sử dụng công cụ so với qwen3-max-preview. Phiên bản này đạt SOTA trong lĩnh vực và nhắm đến các nhu cầu tác nhân phức tạp hơn.", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking là mô hình chuỗi tư duy đa phương thức cho lập luận hình ảnh chi tiết.", "qwen3-vl-flash.description": "Qwen3 VL Flash: phiên bản lập luận nhẹ, tốc độ cao cho các yêu cầu nhạy cảm với độ trễ hoặc khối lượng lớn.", "qwen3-vl-plus.description": "Qwen VL là mô hình sinh văn bản với khả năng hiểu hình ảnh. Nó có thể thực hiện OCR, tóm tắt và lập luận, chẳng hạn như trích xuất thuộc tính từ ảnh sản phẩm hoặc giải quyết vấn đề từ hình ảnh.", + "qwen3.5-397b-a17b.description": "Hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, mang lại hiệu quả cao hơn và chi phí thấp hơn. Trong khả năng đa phương thức, nó mang lại cải tiến đáng kể so với dòng Qwen3 VL.", + "qwen3.5-plus.description": "Qwen3.5 Plus hỗ trợ đầu vào văn bản, hình ảnh và video. Đối với các nhiệm vụ chỉ văn bản, hiệu suất của nó tương đương với Qwen3 Max, trong khi mang lại hiệu quả cao hơn và chi phí thấp hơn. Về khả năng đa phương thức, nó cho thấy cải tiến đáng kể so với dòng Qwen3 VL.", "qwen3.description": "Qwen3 là mô hình ngôn ngữ lớn thế hệ tiếp theo của Alibaba với hiệu suất mạnh mẽ trên nhiều trường hợp sử dụng khác nhau.", "qwq-32b-preview.description": "QwQ là mô hình nghiên cứu thử nghiệm từ Qwen tập trung vào cải thiện khả năng lập luận.", "qwq-32b.description": "QwQ là mô hình lập luận trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, nó mang lại khả năng tư duy và lập luận giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề phức tạp. QwQ-32B là mô hình lập luận tầm trung có thể cạnh tranh với các mô hình hàng đầu như DeepSeek-R1 và o1-mini.", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Mô hình lập luận tầm trung trong họ Qwen. So với các mô hình điều chỉnh theo hướng dẫn tiêu chuẩn, khả năng tư duy và lập luận của QwQ giúp cải thiện đáng kể hiệu suất các tác vụ phía sau, đặc biệt là các vấn đề khó.", "r1-1776.description": "R1-1776 là biến thể hậu huấn luyện của DeepSeek R1 được thiết kế để cung cấp thông tin thực tế không kiểm duyệt, không thiên lệch.", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro của ByteDance hỗ trợ chuyển đổi văn bản thành video, hình ảnh thành video (khung đầu tiên, khung đầu tiên + cuối cùng), và tạo âm thanh đồng bộ với hình ảnh.", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite của BytePlus có khả năng tạo hình ảnh được tăng cường truy xuất web để cung cấp thông tin theo thời gian thực, diễn giải gợi ý phức tạp được cải thiện và tính nhất quán tham chiếu được nâng cao cho sáng tạo hình ảnh chuyên nghiệp.", "solar-mini-ja.description": "Solar Mini (Ja) mở rộng Solar Mini với trọng tâm vào tiếng Nhật trong khi vẫn duy trì hiệu suất mạnh mẽ và hiệu quả với tiếng Anh và tiếng Hàn.", "solar-mini.description": "Solar Mini là mô hình ngôn ngữ nhỏ gọn vượt trội hơn GPT-3.5, với khả năng đa ngôn ngữ mạnh mẽ hỗ trợ tiếng Anh và tiếng Hàn, mang lại giải pháp hiệu quả với dung lượng nhỏ.", "solar-pro.description": "Solar Pro là mô hình ngôn ngữ thông minh cao từ Upstage, tập trung vào tuân thủ hướng dẫn trên một GPU duy nhất, với điểm IFEval trên 80. Hiện hỗ trợ tiếng Anh; bản phát hành đầy đủ dự kiến vào tháng 11 năm 2024 với hỗ trợ ngôn ngữ mở rộng và ngữ cảnh dài hơn.", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "Sản phẩm tìm kiếm nâng cao với khả năng liên kết tìm kiếm cho các truy vấn phức tạp và truy vấn tiếp theo.", "sonar-reasoning.description": "Sản phẩm tìm kiếm nâng cao với khả năng liên kết tìm kiếm cho các truy vấn phức tạp và truy vấn tiếp theo.", "sonar.description": "Sản phẩm tìm kiếm nhẹ, nhanh hơn và rẻ hơn Sonar Pro.", - "spark-x.description": "Cập nhật X1.5: (1) thêm chế độ tư duy động điều khiển qua trường `thinking`; (2) độ dài ngữ cảnh lớn hơn với đầu vào 64K và đầu ra 64K; (3) hỗ trợ FunctionCall.", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 là mô hình cân bằng giữa hiệu quả tính toán cao và hiệu suất suy luận và tác nhân xuất sắc.", + "spark-x.description": "Tổng quan về khả năng X2: 1. Giới thiệu điều chỉnh động chế độ suy luận, được kiểm soát thông qua trường `thinking`. 2. Mở rộng độ dài ngữ cảnh: 64K token đầu vào và 128K token đầu ra. 3. Hỗ trợ chức năng Function Call.", "stable-diffusion-3-medium.description": "Mô hình chuyển văn bản thành hình ảnh mới nhất từ Stability AI. Phiên bản này cải thiện đáng kể chất lượng hình ảnh, hiểu văn bản và đa dạng phong cách, diễn giải chính xác hơn các yêu cầu ngôn ngữ tự nhiên phức tạp và tạo ra hình ảnh chính xác, đa dạng hơn.", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo áp dụng kỹ thuật khuếch tán đối kháng (ADD) cho stable-diffusion-3.5-large để tăng tốc độ.", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large là mô hình chuyển văn bản thành hình ảnh MMDiT với 800 triệu tham số, chất lượng xuất sắc và phù hợp với yêu cầu, hỗ trợ hình ảnh 1 megapixel và chạy hiệu quả trên phần cứng người dùng.", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "Hỗ trợ tương tác ngữ cảnh lớn cho các cuộc hội thoại phức tạp.", "step-2-mini.description": "Được xây dựng trên kiến trúc MFA thế hệ tiếp theo trong nhà, cung cấp kết quả tương tự như Step-1 với chi phí thấp hơn nhiều trong khi đạt được thông lượng cao hơn và độ trễ nhanh hơn. Xử lý các nhiệm vụ tổng quát với khả năng lập trình mạnh mẽ.", "step-2x-large.description": "Mô hình hình ảnh StepFun thế hệ mới tập trung vào tạo hình ảnh, tạo ra hình ảnh chất lượng cao từ các gợi ý văn bản. Nó mang lại kết cấu thực tế hơn và khả năng hiển thị văn bản tiếng Trung/tiếng Anh mạnh mẽ hơn.", + "step-3.5-flash.description": "Mô hình suy luận ngôn ngữ hàng đầu từ Stepfun. Mô hình này mang lại khả năng suy luận hàng đầu cùng với thực thi nhanh và đáng tin cậy. Nó có thể phân tích và lập kế hoạch các nhiệm vụ phức tạp, nhanh chóng và đáng tin cậy gọi công cụ để thực hiện chúng, và xuất sắc trong suy luận logic, toán học, kỹ thuật phần mềm, nghiên cứu sâu và các nhiệm vụ tinh vi khác. Độ dài ngữ cảnh là 256K.", "step-3.description": "Mô hình này có khả năng nhận thức thị giác mạnh mẽ và lý luận phức tạp, xử lý chính xác việc hiểu biết kiến thức đa lĩnh vực, phân tích chéo toán học-thị giác và một loạt các nhiệm vụ phân tích thị giác hàng ngày.", "step-r1-v-mini.description": "Mô hình lý luận với khả năng hiểu hình ảnh mạnh mẽ có thể xử lý hình ảnh và văn bản, sau đó tạo văn bản sau khi lý luận sâu. Nó xuất sắc trong lý luận thị giác và mang lại khả năng toán học, lập trình và lý luận văn bản hàng đầu, với cửa sổ ngữ cảnh 100K.", "stepfun-ai/step3.description": "Step3 là mô hình lý luận đa phương thức tiên tiến từ StepFun, được xây dựng trên kiến trúc MoE với tổng số 321B và 38B tham số hoạt động. Thiết kế đầu-cuối của nó giảm thiểu chi phí giải mã trong khi mang lại lý luận ngôn ngữ-thị giác hàng đầu. Với thiết kế MFA và AFD, nó vẫn hiệu quả trên cả các bộ tăng tốc hàng đầu và cấp thấp. Tiền huấn luyện sử dụng hơn 20T token văn bản và 4T token hình ảnh-văn bản trên nhiều ngôn ngữ. Nó đạt hiệu suất hàng đầu trong các mô hình mở trên các tiêu chuẩn toán học, mã và đa phương thức.", - "taichu_llm.description": "Được huấn luyện trên dữ liệu chất lượng cao khổng lồ, với khả năng hiểu văn bản, tạo nội dung và hỏi đáp hội thoại mạnh mẽ hơn.", - "taichu_o1.description": "taichu_o1 là mô hình lý luận thế hệ tiếp theo sử dụng tương tác đa phương thức và học tăng cường để đạt được chuỗi suy nghĩ giống con người, hỗ trợ mô phỏng quyết định phức tạp và hiển thị các con đường lý luận trong khi duy trì đầu ra chính xác cao, phù hợp cho phân tích chiến lược và suy nghĩ sâu.", - "taichu_vl.description": "Kết hợp hiểu hình ảnh, chuyển giao kiến thức và quy kết logic, xuất sắc trong hỏi đáp hình ảnh-văn bản.", + "taichu4_vl_2b_nothinking.description": "Phiên bản không suy nghĩ của mô hình Taichu4.0-VL 2B có mức sử dụng bộ nhớ thấp hơn, thiết kế nhẹ, tốc độ phản hồi nhanh và khả năng hiểu đa phương thức mạnh mẽ.", + "taichu4_vl_32b.description": "Phiên bản suy nghĩ của mô hình Taichu4.0-VL 32B phù hợp cho các nhiệm vụ hiểu và suy luận đa phương thức phức tạp, thể hiện hiệu suất vượt trội trong suy luận toán học đa phương thức, khả năng tác nhân đa phương thức và hiểu hình ảnh và thị giác tổng quát.", + "taichu4_vl_32b_nothinking.description": "Phiên bản không suy nghĩ của mô hình Taichu4.0-VL 32B được thiết kế cho các tình huống hiểu hình ảnh và văn bản phức tạp và hỏi đáp kiến thức thị giác, xuất sắc trong chú thích hình ảnh, trả lời câu hỏi thị giác, hiểu video và nhiệm vụ định vị thị giác.", + "taichu4_vl_3b.description": "Phiên bản suy nghĩ của mô hình Taichu4.0-VL 3B thực hiện hiệu quả các nhiệm vụ hiểu và suy luận đa phương thức, với các nâng cấp toàn diện về hiểu thị giác, định vị thị giác, nhận diện OCR và các khả năng liên quan.", + "taichu_llm.description": "Mô hình ngôn ngữ lớn Zidong Taichu là mô hình tạo văn bản hiệu suất cao được phát triển bằng công nghệ toàn bộ nội địa. Thông qua nén cấu trúc của mô hình cơ sở hàng trăm tỷ tham số và tối ưu hóa theo nhiệm vụ, nó cải thiện đáng kể khả năng hiểu văn bản phức tạp và suy luận kiến thức. Nó xuất sắc trong các tình huống như phân tích tài liệu dài, trích xuất thông tin đa ngôn ngữ và tạo văn bản bị ràng buộc bởi kiến thức.", + "taichu_llm_14b.description": "Mô hình ngôn ngữ lớn Zidong Taichu là mô hình tạo văn bản hiệu suất cao được phát triển bằng công nghệ toàn bộ nội địa. Thông qua nén cấu trúc của mô hình cơ sở hàng trăm tỷ tham số và tối ưu hóa theo nhiệm vụ, nó cải thiện đáng kể khả năng hiểu văn bản phức tạp và suy luận kiến thức. Nó xuất sắc trong các tình huống như phân tích tài liệu dài, trích xuất thông tin đa ngôn ngữ và tạo văn bản bị ràng buộc bởi kiến thức.", + "taichu_llm_2b.description": "Mô hình ngôn ngữ lớn Zidong Taichu là mô hình tạo văn bản hiệu suất cao được phát triển bằng công nghệ toàn bộ nội địa. Thông qua nén cấu trúc của mô hình cơ sở hàng trăm tỷ tham số và tối ưu hóa theo nhiệm vụ, nó cải thiện đáng kể khả năng hiểu văn bản phức tạp và suy luận kiến thức. Nó xuất sắc trong các tình huống như phân tích tài liệu dài, trích xuất thông tin đa ngôn ngữ và tạo văn bản bị ràng buộc bởi kiến thức.", + "taichu_o1.description": "taichu_o1 là mô hình lớn suy luận thế hệ tiếp theo đạt được chuỗi suy nghĩ giống con người thông qua tương tác đa phương thức và học tăng cường. Nó hỗ trợ mô phỏng ra quyết định phức tạp và, trong khi duy trì đầu ra chính xác cao, tiết lộ các con đường suy luận có thể giải thích. Nó phù hợp cho phân tích chiến lược, suy nghĩ sâu và các tình huống tương tự.", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct sử dụng tổng số 80B tham số với 13B tham số hoạt động để sánh ngang với các mô hình lớn hơn. Nó hỗ trợ lý luận lai nhanh/chậm, hiểu văn bản dài ổn định và khả năng tác nhân hàng đầu trên BFCL-v3 và τ-Bench. GQA và các định dạng đa lượng tử cho phép suy luận hiệu quả.", "tencent/Hunyuan-MT-7B.description": "Mô hình Dịch Hunyuan bao gồm Hunyuan-MT-7B và Hunyuan-MT-Chimera. Hunyuan-MT-7B là mô hình dịch nhẹ 7B hỗ trợ 33 ngôn ngữ cùng 5 ngôn ngữ dân tộc thiểu số Trung Quốc. Trong WMT25, nó đạt 30 giải nhất trên 31 cặp ngôn ngữ. Tencent Hunyuan sử dụng quy trình huấn luyện đầy đủ từ tiền huấn luyện đến SFT đến học tăng cường dịch và học tăng cường tổ hợp, đạt hiệu suất hàng đầu ở kích thước của nó với triển khai hiệu quả, dễ dàng.", "text-embedding-3-large.description": "Mô hình nhúng mạnh mẽ nhất cho các nhiệm vụ tiếng Anh và không phải tiếng Anh.", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md phù hợp cho các tác vụ hàng ngày và tạo giao diện người dùng.", "vercel/v0-1.0-md.description": "Truy cập các mô hình phía sau v0 để tạo, sửa và tối ưu hóa ứng dụng web hiện đại với khả năng suy luận theo framework và kiến thức cập nhật.", "vercel/v0-1.5-md.description": "Truy cập các mô hình phía sau v0 để tạo, sửa và tối ưu hóa ứng dụng web hiện đại với khả năng suy luận theo framework và kiến thức cập nhật.", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code được tối ưu hóa cho nhu cầu lập trình cấp doanh nghiệp, dựa trên khả năng Agent và VLM xuất sắc của Seed 2.0, đặc biệt tăng cường khả năng mã hóa, không chỉ thể hiện hiệu suất vượt trội ở khả năng front-end mà còn được tối ưu hóa đặc biệt cho nhu cầu mã hóa đa ngôn ngữ phổ biến của doanh nghiệp, phù hợp để tích hợp vào các công cụ lập trình AI.", + "volcengine/doubao-seed-2-0-lite.description": "Cân bằng giữa chất lượng tạo và tốc độ phản hồi, phù hợp làm mô hình sản xuất chung.", + "volcengine/doubao-seed-2-0-mini.description": "Trỏ đến phiên bản mới nhất của doubao-seed-2-0-mini.", + "volcengine/doubao-seed-2-0-pro.description": "Trỏ đến phiên bản mới nhất của doubao-seed-2-0-pro.", "volcengine/doubao-seed-code.description": "Doubao-Seed-Code là mô hình ngôn ngữ lớn của ByteDance Volcano Engine, được tối ưu hóa cho lập trình tác nhân, thể hiện hiệu suất cao trong các bài kiểm tra lập trình và tác nhân với hỗ trợ ngữ cảnh 256K.", - "wan2.2-t2i-flash.description": "Wanxiang 2.2 Speed là mô hình mới nhất với cải tiến về sáng tạo, ổn định và tính chân thực, mang lại tốc độ tạo nhanh và giá trị cao.", - "wan2.2-t2i-plus.description": "Wanxiang 2.2 Pro là mô hình mới nhất với cải tiến về sáng tạo, ổn định và tính chân thực, tạo ra chi tiết hình ảnh phong phú hơn.", + "wan2.2-t2i-flash.description": "Wanxiang 2.2 Flash là mô hình mới nhất với các nâng cấp về sáng tạo, ổn định và tính chân thực, mang lại khả năng tạo nhanh và giá trị cao.", + "wan2.2-t2i-plus.description": "Wanxiang 2.2 Plus là mô hình mới nhất với các nâng cấp về sáng tạo, ổn định và tính chân thực, tạo ra chi tiết phong phú hơn.", + "wan2.5-i2i-preview.description": "Wanxiang 2.5 I2I Preview hỗ trợ chỉnh sửa hình ảnh đơn và hợp nhất nhiều hình ảnh.", + "wan2.5-t2i-preview.description": "Wanxiang 2.5 T2I hỗ trợ lựa chọn linh hoạt kích thước hình ảnh trong giới hạn tổng diện tích pixel và tỷ lệ khung hình.", + "wan2.6-image.description": "Wanxiang 2.6 Image hỗ trợ chỉnh sửa hình ảnh và đầu ra bố cục hình ảnh–văn bản hỗn hợp.", + "wan2.6-t2i.description": "Wanxiang 2.6 T2I hỗ trợ lựa chọn linh hoạt kích thước hình ảnh trong giới hạn tổng diện tích pixel và tỷ lệ khung hình (giống như Wanxiang 2.5).", "wanx-v1.description": "Mô hình chuyển văn bản thành hình ảnh cơ bản. Tương ứng với Tongyi Wanxiang 1.0 General.", "wanx2.0-t2i-turbo.description": "Vượt trội trong tạo chân dung có kết cấu với tốc độ vừa phải và chi phí thấp. Tương ứng với Tongyi Wanxiang 2.0 Speed.", "wanx2.1-t2i-plus.description": "Phiên bản nâng cấp toàn diện với chi tiết hình ảnh phong phú hơn và tốc độ chậm hơn một chút. Tương ứng với Tongyi Wanxiang 2.1 Pro.", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast là mô hình thông lượng cao, chi phí thấp của xAI (hỗ trợ cửa sổ ngữ cảnh 2M), lý tưởng cho các trường hợp sử dụng đồng thời cao và ngữ cảnh dài.", "x-ai/grok-4.description": "Grok 4 là mô hình lý luận hàng đầu của xAI với khả năng lý luận và đa phương thức mạnh mẽ.", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 là mô hình mã nhanh của xAI với đầu ra dễ đọc, thân thiện với kỹ thuật.", + "x1.description": "Cập nhật X1.5: (1) thêm chế độ suy nghĩ động được kiểm soát bởi trường `thinking`; (2) độ dài ngữ cảnh lớn hơn với 64K đầu vào và 64K đầu ra; (3) hỗ trợ FunctionCall.", "xai/grok-2-vision.description": "Grok 2 Vision xuất sắc trong các nhiệm vụ thị giác, mang lại hiệu suất SOTA trong lý luận toán học thị giác (MathVista) và hỏi đáp tài liệu (DocVQA). Nó xử lý tài liệu, biểu đồ, đồ thị, ảnh chụp màn hình và ảnh chụp.", "xai/grok-2.description": "Grok 2 là mô hình tiên phong với lý luận tiên tiến, trò chuyện mạnh mẽ, hiệu suất lập trình và lý luận, và xếp hạng cao hơn Claude 3.5 Sonnet và GPT-4 Turbo trên LMSYS.", "xai/grok-3-fast.description": "Mô hình hàng đầu của xAI xuất sắc trong các trường hợp sử dụng doanh nghiệp như trích xuất dữ liệu, lập trình và tóm tắt, với kiến thức sâu rộng trong các lĩnh vực tài chính, y tế, pháp luật và khoa học. Biến thể nhanh chạy trên cơ sở hạ tầng nhanh hơn để có phản hồi nhanh hơn nhiều với chi phí mỗi token cao hơn.", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 là mô hình hàng đầu của Z.AI với lý luận lai được tối ưu hóa cho kỹ thuật và các nhiệm vụ ngữ cảnh dài.", "z-ai/glm-4.6.description": "GLM 4.6 là mô hình hàng đầu của Z.AI với độ dài ngữ cảnh mở rộng và khả năng lập trình.", "z-ai/glm-4.7.description": "GLM-4.7 là mô hình hàng đầu mới nhất của Zhipu, mang lại khả năng tổng quát được cải thiện, câu trả lời đơn giản và tự nhiên hơn, và trải nghiệm viết hấp dẫn hơn.", - "z-ai/glm5.description": "Mô hình lý luận và tác nhân mạnh mẽ từ Z.ai với tổng số tham số 744B (40B kích hoạt), được xây dựng cho kỹ thuật hệ thống phức tạp và các nhiệm vụ dài hạn.", + "z-ai/glm4.7.description": "GLM-4.7 là mô hình hàng đầu mới nhất của Zhipu, được tăng cường cho các tình huống mã hóa Agentic với khả năng mã hóa được cải thiện.", + "z-ai/glm5.description": "GLM-5 là mô hình nền tảng hàng đầu mới của Zhipu AI dành cho kỹ thuật tác nhân, đạt hiệu suất SOTA mã nguồn mở trong khả năng mã hóa và tác nhân. Nó tương đương với Claude Opus 4.5 về hiệu suất.", + "z-image-turbo.description": "Z-Image là mô hình tạo hình ảnh từ văn bản nhẹ có thể nhanh chóng tạo ra hình ảnh, hỗ trợ cả hiển thị văn bản tiếng Trung và tiếng Anh, và linh hoạt thích ứng với nhiều độ phân giải và tỷ lệ khung hình.", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air là mô hình cơ bản dành cho các ứng dụng tác nhân sử dụng kiến trúc Mixture-of-Experts. Nó được tối ưu hóa cho sử dụng công cụ, duyệt web, kỹ thuật phần mềm và lập trình giao diện, và tích hợp với các tác nhân mã như Claude Code và Roo Code. Nó sử dụng lý luận lai để xử lý cả lý luận phức tạp và các kịch bản hàng ngày.", "zai-org/GLM-4.5.description": "GLM-4.5 là mô hình cơ bản được xây dựng cho các ứng dụng tác nhân sử dụng kiến trúc Mixture-of-Experts. Nó được tối ưu hóa sâu cho sử dụng công cụ, duyệt web, kỹ thuật phần mềm và lập trình giao diện, và tích hợp với các tác nhân mã như Claude Code và Roo Code. Nó sử dụng lý luận lai để xử lý cả lý luận phức tạp và các kịch bản hàng ngày.", "zai-org/GLM-4.5V.description": "GLM-4.5V là mô hình VLM mới nhất của Zhipu AI, được xây dựng trên mô hình văn bản hàng đầu GLM-4.5-Air (106B tổng, 12B hoạt động) với kiến trúc MoE để mang lại hiệu suất mạnh mẽ với chi phí thấp hơn. Nó theo con đường GLM-4.1V-Thinking và thêm 3D-RoPE để cải thiện lý luận không gian 3D. Được tối ưu hóa thông qua tiền huấn luyện, SFT và RL, nó xử lý hình ảnh, video và tài liệu dài và xếp hạng hàng đầu trong các mô hình mở trên 41 tiêu chuẩn đa phương thức công khai. Chế độ Thinking cho phép người dùng cân bằng giữa tốc độ và độ sâu.", diff --git a/locales/vi-VN/plugin.json b/locales/vi-VN/plugin.json index 09268e9aa1..f92ec33d20 100644 --- a/locales/vi-VN/plugin.json +++ b/locales/vi-VN/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "Cập nhật nút", "builtins.lobe-page-agent.apiName.wrapNodes": "Bao nút", "builtins.lobe-page-agent.title": "Trang", + "builtins.lobe-skill-store.apiName.importFromMarket": "Nhập từ Thị trường", + "builtins.lobe-skill-store.apiName.importSkill": "Nhập Kỹ năng", + "builtins.lobe-skill-store.apiName.searchSkill": "Tìm kiếm Kỹ năng", + "builtins.lobe-skill-store.title": "Cửa hàng Kỹ năng", + "builtins.lobe-skills.apiName.execScript": "Chạy Script", + "builtins.lobe-skills.apiName.exportFile": "Xuất Tệp", + "builtins.lobe-skills.apiName.importFromMarket": "Nhập từ Thị trường", + "builtins.lobe-skills.apiName.importSkill": "Nhập Kỹ năng", + "builtins.lobe-skills.apiName.readReference": "Đọc Tài liệu tham khảo", + "builtins.lobe-skills.apiName.runSkill": "Kích hoạt Kỹ năng", + "builtins.lobe-skills.apiName.searchSkill": "Tìm kiếm Kỹ năng", + "builtins.lobe-skills.title": "Kỹ năng", + "builtins.lobe-tools.apiName.activateTools": "Kích hoạt Công cụ", "builtins.lobe-user-memory.apiName.addContextMemory": "Thêm trí nhớ ngữ cảnh", "builtins.lobe-user-memory.apiName.addExperienceMemory": "Thêm trí nhớ kinh nghiệm", "builtins.lobe-user-memory.apiName.addIdentityMemory": "Thêm trí nhớ danh tính", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "Tìm kiếm Web", "confirm": "Xác nhận", "debug.arguments": "Tham số", + "debug.error": "Nhật ký lỗi", "debug.function_call": "Gọi hàm", "debug.intervention": "Can thiệp Kỹ năng", "debug.off": "Tắt gỡ lỗi", @@ -321,8 +335,8 @@ "dev.saveSuccess": "Đã lưu cài đặt", "dev.tabs.manifest": "Manifest", "dev.tabs.meta": "Thông tin meta", - "dev.title.create": "Thêm Kỹ năng tùy chỉnh", - "dev.title.edit": "Chỉnh sửa Kỹ năng tùy chỉnh", + "dev.title.create": "Thêm Kỹ năng MCP Tùy chỉnh", + "dev.title.edit": "Chỉnh sửa Kỹ năng MCP Tùy chỉnh", "dev.title.editCommunity": "Chỉnh sửa Kỹ năng Cộng đồng", "dev.title.skillDetails": "Chi tiết Kỹ năng", "dev.title.skillSettings": "Cài đặt Kỹ năng", diff --git a/locales/vi-VN/providers.json b/locales/vi-VN/providers.json index 54417e3728..482b8e05cf 100644 --- a/locales/vi-VN/providers.json +++ b/locales/vi-VN/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud là dịch vụ đám mây GenAI tiết kiệm chi phí, xây dựng trên các mô hình mã nguồn mở mạnh mẽ.", "spark.description": "iFLYTEK Spark cung cấp AI đa ngôn ngữ mạnh mẽ trên nhiều lĩnh vực, thúc đẩy đổi mới trong phần cứng thông minh, y tế, tài chính và các ngành dọc khác.", "stepfun.description": "Các mô hình Stepfun cung cấp khả năng đa phương thức và suy luận phức tạp hàng đầu, với hiểu ngữ cảnh dài và điều phối tìm kiếm tự động mạnh mẽ.", + "straico.description": "Straico đơn giản hóa việc tích hợp AI bằng cách cung cấp một không gian làm việc thống nhất, kết hợp các mô hình AI tạo văn bản, hình ảnh và âm thanh hàng đầu, mang đến cho các nhà tiếp thị, doanh nhân và những người đam mê khả năng truy cập dễ dàng vào các công cụ AI đa dạng.", "taichu.description": "Mô hình đa phương thức thế hệ mới từ CASIA và Viện AI Vũ Hán, hỗ trợ hỏi đáp nhiều lượt, viết, tạo hình ảnh, hiểu 3D và phân tích tín hiệu với nhận thức và sáng tạo vượt trội.", "tencentcloud.description": "LLM Knowledge Engine Atomic Power cung cấp hỏi đáp tri thức đầu-cuối cho doanh nghiệp và nhà phát triển, với các dịch vụ mô-đun như phân tích tài liệu, chia đoạn, nhúng và viết lại nhiều lượt để xây dựng giải pháp AI tùy chỉnh.", "togetherai.description": "Together AI mang lại hiệu suất hàng đầu với các mô hình sáng tạo, tùy chỉnh rộng, mở rộng nhanh và triển khai đơn giản cho nhu cầu doanh nghiệp.", diff --git a/locales/vi-VN/setting.json b/locales/vi-VN/setting.json index 47202f5c10..1b28f72bcb 100644 --- a/locales/vi-VN/setting.json +++ b/locales/vi-VN/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "Hồ sơ Agent", "agentInfoDescription.value.unset": "Chưa thiết lập", "agentInfoDescription.value.untitled": "Agent chưa đặt tên", + "agentSkillDetail.addedAt": "Đã thêm", + "agentSkillDetail.publishedAt": "Đã xuất bản", + "agentSkillDetail.repository": "Kho GitHub", + "agentSkillDetail.skillContent": "Nội dung Kỹ năng", + "agentSkillDetail.sourceUrl": "Nguồn nhập Kỹ năng", + "agentSkillDetail.updatedAt": "Đã cập nhật", + "agentSkillEdit.descriptionDesc": "Một tóm tắt ngắn gọn về những gì kỹ năng này thực hiện, giúp đại lý hiểu khi nào nên sử dụng nó", + "agentSkillEdit.fileReadonly": "Tệp này chỉ đọc. Chỉ có thể chỉnh sửa mô tả và hướng dẫn kỹ năng.", + "agentSkillEdit.instructions": "Hướng dẫn", + "agentSkillEdit.instructionsDesc": "Hướng dẫn cốt lõi bằng Markdown định nghĩa hành vi và quy trình làm việc của kỹ năng", + "agentSkillEdit.instructionsPlaceholder": "Nhập hướng dẫn kỹ năng bằng định dạng Markdown...", + "agentSkillEdit.nameDesc": "Định danh duy nhất cho kỹ năng này, không thể chỉnh sửa sau khi tạo", + "agentSkillEdit.saveSuccess": "Cập nhật kỹ năng thành công", + "agentSkillEdit.title": "Cài đặt Kỹ năng", + "agentSkillItem.deleteConfirm.desc": "Bạn có chắc chắn muốn xóa kỹ năng đại lý \"{{name}}\" không? Hành động này không thể hoàn tác.", + "agentSkillItem.deleteConfirm.title": "Xóa Kỹ năng Đại lý", + "agentSkillModal.content": "Nội dung Kỹ năng", + "agentSkillModal.contentPlaceholder": "Nhập nội dung kỹ năng bằng định dạng Markdown...", + "agentSkillModal.description": "Mô tả", + "agentSkillModal.descriptionPlaceholder": "Mô tả ngắn gọn về kỹ năng này", + "agentSkillModal.github.desc": "Nhập kỹ năng trực tiếp từ một kho GitHub công khai.", + "agentSkillModal.github.title": "Nhập từ GitHub", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "Nhập thất bại: {{error}}", + "agentSkillModal.importSuccess": "Nhập Kỹ năng Đại lý thành công", + "agentSkillModal.upload.desc": "Tải lên tệp .zip hoặc .skill từ máy tính để cài đặt.", + "agentSkillModal.upload.dragText": "Kéo và thả hoặc nhấp để tải lên", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md chứa tên và mô tả kỹ năng ở định dạng YAML", + "agentSkillModal.upload.requirementZip": "Tệp .zip hoặc .skill với SKILL.md trong thư mục gốc", + "agentSkillModal.upload.requirements": "Yêu cầu Tệp", + "agentSkillModal.upload.title": "Tải lên Kỹ năng", + "agentSkillModal.upload.uploading": "Đang tải lên...", + "agentSkillModal.url.desc": "Nhập một kỹ năng bằng cách cung cấp liên kết trực tiếp đến tệp SKILL.md.", + "agentSkillModal.url.title": "Nhập từ URL", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "Kỹ năng Đại lý", "agentTab.chat": "Tùy chọn trò chuyện", "agentTab.meta": "Thông tin Agent", "agentTab.modal": "Cài đặt Mô hình", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "Chỉ định mô hình dùng để dịch", "systemAgent.translation.title": "Tác Nhân Dịch Tin Nhắn", "tab.about": "Giới Thiệu", + "tab.addAgentSkill": "Thêm Kỹ năng Đại lý", + "tab.addCustomMcp": "Thêm Kỹ năng MCP Tùy chỉnh", + "tab.addCustomMcp.desc": "Cấu hình thủ công một máy chủ MCP tùy chỉnh", "tab.addCustomSkill": "Thêm kỹ năng tùy chỉnh", "tab.agent": "Dịch Vụ Tác Nhân", "tab.all": "Tất cả", @@ -652,7 +691,13 @@ "tab.experiment": "Thử Nghiệm", "tab.hotkey": "Phím Tắt", "tab.image": "Dịch Vụ Tạo Hình Ảnh", + "tab.importFromGithub": "Nhập từ GitHub", + "tab.importFromGithub.desc": "Nhập từ một kho GitHub công khai", + "tab.importFromUrl": "Nhập từ URL", + "tab.importFromUrl.desc": "Nhập qua liên kết trực tiếp đến SKILL.md", "tab.llm": "Mô Hình Ngôn Ngữ", + "tab.manualFill": "Điền Thủ công", + "tab.manualFill.desc": "Cấu hình thủ công một kỹ năng MCP tùy chỉnh", "tab.memory": "Bộ Nhớ", "tab.profile": "Tài Khoản Của Tôi", "tab.provider": "Nhà Cung Cấp AI", @@ -669,6 +714,8 @@ "tab.sync": "Đồng Bộ Đám Mây", "tab.systemTools": "Công cụ hệ thống", "tab.tts": "Chuyển Văn Bản Thành Giọng Nói", + "tab.uploadZip": "Tải lên Tệp Zip", + "tab.uploadZip.desc": "Tải lên tệp .zip hoặc .skill từ máy tính", "tab.usage": "Thống Kê Sử Dụng", "tools.add": "Thêm Kỹ Năng", "tools.builtins.groupName": "Tích Hợp Sẵn", diff --git a/locales/zh-CN/common.json b/locales/zh-CN/common.json index a0cdcdb499..745210c5b4 100644 --- a/locales/zh-CN/common.json +++ b/locales/zh-CN/common.json @@ -256,11 +256,6 @@ "footer.star.title": "在 GitHub 为我们点亮星标", "footer.title": "喜欢我们的产品?", "fullscreen": "全屏模式", - "geminiImageChineseWarning.content": "Nano Banana 使用中文有概率生成图片失败。建议使用英文以获得更好效果", - "geminiImageChineseWarning.continueGenerate": "继续生成", - "geminiImageChineseWarning.continueSend": "继续发送", - "geminiImageChineseWarning.doNotShowAgain": "不再提示", - "geminiImageChineseWarning.title": "中文输入提示", "historyRange": "历史范围", "home.suggestQuestions": "试试这些示例", "import": "导入", diff --git a/locales/zh-CN/eval.json b/locales/zh-CN/eval.json index 78512037a2..f4502aeb92 100644 --- a/locales/zh-CN/eval.json +++ b/locales/zh-CN/eval.json @@ -52,7 +52,7 @@ "benchmark.detail.stats.waiting": "Waiting...", "benchmark.detail.tabs.data": "数据", "benchmark.detail.tabs.datasets": "数据集", - "benchmark.detail.tabs.runs": "评测", + "benchmark.detail.tabs.runs": "运行", "benchmark.edit.confirm": "保存", "benchmark.edit.error": "更新基准失败", "benchmark.edit.success": "基准更新成功", @@ -103,10 +103,10 @@ "dataset.delete.confirm": "确定要删除此数据集吗?其中的所有数据用例也会被删除。", "dataset.delete.error": "删除数据集失败", "dataset.delete.success": "数据集删除成功", - "dataset.detail.addRun": "新建评测", + "dataset.detail.addRun": "新增运行", "dataset.detail.backToBenchmark": "返回基准测试", "dataset.detail.caseCount": "{{count}} 个测试用例", - "dataset.detail.relatedRuns": "关联评测 ({{count}})", + "dataset.detail.relatedRuns": "相关运行({{count}})", "dataset.detail.testCases": "测试用例", "dataset.detail.viewDetail": "查看详情", "dataset.edit.error": "更新数据集失败", @@ -239,9 +239,9 @@ "run.edit.title": "编辑评测", "run.empty.description": "在此数据集上开始你的首次评测", "run.empty.descriptionBenchmark": "在此基准上开始你的首次评测", - "run.empty.title": "暂无评测", + "run.empty.title": "尚无运行", "run.filter.active": "进行中", - "run.filter.empty": "没有符合当前筛选条件的评测。", + "run.filter.empty": "当前筛选条件下无匹配的运行。", "run.idle.hint": "点击开始以启动评测", "run.metrics.avgScore": "平均分", "run.metrics.cost": "费用", diff --git a/locales/zh-CN/home.json b/locales/zh-CN/home.json index 8c52ab3dfc..bd3d6fed3d 100644 --- a/locales/zh-CN/home.json +++ b/locales/zh-CN/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "探究", "starter.developing": "正在开发中", "starter.image": "绘画", + "starter.nanoBanana2": "🍌 Nano Banana 2", "starter.seedance": "Seedance 2.0", "starter.write": "写作" } diff --git a/locales/zh-CN/modelProvider.json b/locales/zh-CN/modelProvider.json index bc6ca0f34c..245922f34e 100644 --- a/locales/zh-CN/modelProvider.json +++ b/locales/zh-CN/modelProvider.json @@ -232,7 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "适用于 Gemini 系列;控制思考预算。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "适用于 Gemini 3 Flash 预览模型;控制思考深度。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "适用于 Gemini 3 Pro 预览模型;控制思考深度。", - "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "适用于 Gemini 3.1 Pro 预览模型;控制思考深度。", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "适用于 Gemini 3.1 Pro 预览模型;通过低/中/高等级控制思维深度。", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "适用于 Gemini 系列;支持提供 URL 上下文。", "providerModels.item.modelConfig.extendParams.placeholder": "选择要启用的扩展参数", "providerModels.item.modelConfig.extendParams.previewFallback": "无法预览", diff --git a/locales/zh-CN/models.json b/locales/zh-CN/models.json index 140bfac35d..ffb1522f0c 100644 --- a/locales/zh-CN/models.json +++ b/locales/zh-CN/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo 具备强大的计算与对话能力,语义理解与生成效率出色,适合企业与开发者使用。", "360gpt2-o1.description": "360gpt2-o1 通过树搜索构建思维链,结合反思机制与强化学习训练,实现自我反思与自我纠错。", "360gpt2-pro.description": "360GPT2 Pro 是 360 推出的高级自然语言处理模型,擅长文本生成与理解,尤其适用于创意任务,能处理复杂转换与角色扮演。", + "360zhinao2-o1.5.description": "360智脑最强大的推理模型,具备最强能力,支持工具调用和高级推理。", "360zhinao2-o1.description": "360zhinao2-o1 通过树搜索构建思维链,结合反思机制与强化学习训练,实现自我反思与自我纠错。", + "360zhinao3-o1.5.description": "360智脑下一代推理模型。", "4.0Ultra.description": "讯飞星火 Ultra 是星火系列中最强大的模型,提升了文本理解与摘要能力,并升级了网页搜索功能。它是提升职场效率与响应准确性的综合解决方案,定位为领先的智能产品。", "AnimeSharp.description": "AnimeSharp(又名“4x-AnimeSharp”)是由 Kim2091 基于 ESRGAN 开发的开源超分辨率模型,专注于提升和锐化动漫风格图像。该模型于 2022 年 2 月由原名“4x-TextSharpV1”更名,最初也用于文本图像,但已针对动漫内容进行了深度优化。", "Baichuan2-Turbo.description": "通过搜索增强技术将模型与领域知识和网页知识连接,支持 PDF/Word 上传和 URL 输入,实现及时、全面的检索与专业、准确的输出。", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision 是一款先进的多模态模型,在语言、文本和视觉基准测试中表现出色。该 80 亿参数版本专注于低延迟和强大性能。", "charglm-3.description": "CharGLM-3 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。", "charglm-4.description": "CharGLM-4 专为角色扮演和情感陪伴设计,支持超长多轮记忆和个性化对话。", - "chatgpt-4o-latest.description": "ChatGPT-4o 是一款实时更新的动态模型,结合强大的理解与生成能力,适用于客户支持、教育和技术支持等大规模应用场景。", + "chatgpt-4o-latest.description": "ChatGPT-4o是一个实时更新的动态模型,结合了强大的语言理解和生成能力,适用于客户支持、教育和技术协助等大规模应用场景。", "claude-2.0.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。", "claude-2.1.description": "Claude 2 提供关键的企业级改进,包括领先的 20 万 token 上下文窗口、减少幻觉、系统提示支持,以及新测试功能:工具调用。", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的下一代最快模型,在多项技能上实现了提升,并在多个基准测试中超越了前一代旗舰 Claude 3 Opus。", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)是一款创新模型,具备深度语言理解与交互能力。", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于深度分析任务。", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2是下一代推理模型,具备更强的复杂推理和链式思维能力。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是基于 DeepSeekMoE-27B 的 MoE 视觉语言模型,采用稀疏激活,仅使用 4.5B 激活参数即可实现强大性能。擅长视觉问答、OCR、文档/表格/图表理解和视觉定位。", "deepseek-chat.description": "DeepSeek V3.2 在推理能力与输出长度之间实现平衡,适用于日常问答与智能体任务。其在公开基准测试中达到 GPT-5 水平,并首创将思维过程融入工具使用,在开源智能体评估中表现领先。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款代码语言模型,训练于 2T 数据(87% 代码,13% 中英文文本)。支持 16K 上下文窗口与中间填充任务,提供项目级代码补全与片段填充。", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的新一代混合推理模型,支持思考与非思考模式,推理效率高于 DeepSeek-R1-0528。后训练优化显著提升智能体工具使用与任务执行能力,支持 128k 上下文窗口与最多 64k 输出。", "deepseek-v3.1:671b.description": "DeepSeek V3.1 是下一代推理模型,具备更强的复杂推理与链式思维能力,适用于需要深度分析的任务。", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp 引入稀疏注意力机制,在处理长文本时提升训练与推理效率,价格低于 deepseek-v3.1。", + "deepseek-v3.2-speciale.description": "在高度复杂任务中,Speciale模型显著优于标准版本,但消耗更多的tokens并产生更高的成本。目前,DeepSeek-V3.2-Speciale仅用于研究用途,不支持工具调用,也未针对日常对话或写作任务进行特别优化。", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是一款完整的深度思考模型,具备更强的长链推理能力。", "deepseek-v3.2.description": "DeepSeek-V3.2 是 DeepSeek 推出的首个融合推理能力的混合模型,将思维过程融入工具使用。该模型采用高效架构以节省计算资源,结合大规模强化学习提升能力,并利用大规模合成任务数据增强泛化能力。三者结合使其在性能上可媲美 GPT-5-High,同时显著缩短输出长度,降低计算开销并减少用户等待时间。", "deepseek-v3.description": "DeepSeek-V3 是一款强大的 MoE 模型,总参数量为 671B,每个 token 激活参数为 37B。", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite 是升级版多模态模型,支持任意分辨率和极端长宽比图像,提升视觉推理、文档识别、细节理解与指令遵循能力。支持 128k 上下文窗口和最多 16k 输出 token。", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro 是升级版多模态模型,支持任意分辨率和极端长宽比图像,提升视觉推理、文档识别、细节理解与指令遵循能力。", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro 是升级版多模态模型,支持任意分辨率和极端长宽比图像,提升视觉推理、文档识别、细节理解与指令遵循能力。", - "doubao-lite-128k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 128k 上下文窗口。", "doubao-lite-32k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 32k 上下文窗口。", - "doubao-lite-4k.description": "超快响应,性价比更高,适用于多种场景,支持推理与微调,具备 4k 上下文窗口。", - "doubao-pro-256k.description": "性能最强的旗舰模型,适用于复杂任务,在参考问答、摘要、创作、文本分类和角色扮演等方面表现优异。支持推理与微调,具备 256k 上下文窗口。", "doubao-pro-32k.description": "性能最强的旗舰模型,适用于复杂任务,在参考问答、摘要、创作、文本分类和角色扮演等方面表现优异。支持推理与微调,具备 32k 上下文窗口。", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash 是一款超快多模态深度推理模型,TPOT 低至 10ms,支持文本与图像输入,在文本理解上超越前代 lite 模型,在视觉方面媲美主流 pro 模型。支持 256k 上下文窗口和最多 16k 输出 token。", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite 是一款全新多模态深度推理模型,支持可调推理强度(最小、低、中、高),性价比更高,是通用任务的优选,支持最长 256k 上下文窗口。", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "字节跳动 Seed 推出的 Doubao 图像模型,支持文本与图像输入,具备高度可控的高质量图像生成能力。支持文本引导的图像编辑,输出尺寸长边在 512 至 1536 之间。", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 是字节跳动 Seed 推出的图像生成模型,支持文本与图像输入,具备高度可控的高质量图像生成能力。可根据文本提示生成图像。", "doubao-seedream-4-0-250828.description": "Seedream 4.0 是字节跳动 Seed 推出的图像生成模型,支持文本与图像输入,具备高度可控的高质量图像生成能力。可根据文本提示生成图像。", - "doubao-vision-lite-32k.description": "Doubao-vision 是 Doubao 推出的多模态模型,具备强大的图像理解与推理能力,并能精准执行指令。在图文提取与基于图像的推理任务中表现优异,支持更复杂、更广泛的视觉问答场景。", - "doubao-vision-pro-32k.description": "Doubao-vision 是 Doubao 推出的多模态模型,具备强大的图像理解与推理能力,并能精准执行指令。在图文提取与基于图像的推理任务中表现优异,支持更复杂、更广泛的视觉问答场景。", + "doubao-seedream-4-5-251128.description": "Seedream 4.5是字节跳动最新的多模态图像模型,集成了文本生成图像、图像生成图像和批量图像生成功能,同时具备常识和推理能力。与之前的4.0版本相比,生成质量显著提升,编辑一致性和多图融合效果更好。它对视觉细节的控制更加精确,能够更自然地生成小文字和小面部,并实现更和谐的布局和色彩,提升整体美感。", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite是字节跳动最新的图像生成模型。首次集成在线检索功能,能够结合实时网络信息,提升生成图像的时效性。模型智能性也得到升级,能够精确解析复杂指令和视觉内容。此外,它在专业场景中的全球知识覆盖、参考一致性和生成质量方面均有提升,更好地满足企业级视觉创作需求。", "emohaa.description": "Emohaa 是一款心理健康模型,具备专业咨询能力,帮助用户理解情绪问题。", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B 是一款开源轻量级模型,适用于本地和定制化部署。", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking是一个拥有21B总参数和3B活跃参数的文本专家混合模型,提供显著增强的推理质量和深度。", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B 是一款开源大参数模型,具备更强的理解与生成能力。", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B 是百度 ERNIE 的超大规模 MoE 模型,推理能力卓越。", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview 是一款用于评估 ERNIE 4.5 的 8K 上下文预览模型。", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K 是一款高性能轻量模型,适用于对延迟与成本敏感的场景。", "ernie-novel-8k.description": "ERNIE Novel 8K 专为长篇小说与 IP 剧情创作打造,支持多角色叙事。", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K 是一款高并发、高价值模型,适用于大规模在线服务与企业应用。", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview是一个快速思维模型,支持32K上下文,用于复杂推理和多轮对话。", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具备 32K 上下文能力,适合复杂推理与多轮对话。", "ernie-x1.1-preview.description": "ERNIE X1.1 Preview 是一款用于评估与测试的思考模型预览版。", + "ernie-x1.1.description": "ERNIE X1.1是一个用于评估和测试的思维模型预览版。", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字节跳动 Seed 团队打造,支持多图编辑与合成,具备更强的主体一致性、精准的指令执行能力、空间逻辑理解、美学表达、海报排版与标志设计,并实现高精度图文渲染。", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字节跳动 Seed 团队开发,支持文本与图像输入,可根据提示生成高度可控、高质量的图像。", "fal-ai/flux-kontext/dev.description": "FLUX.1 模型专注于图像编辑,支持文本与图像输入。", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite 的预览版本(2025 年 9 月 25 日发布)", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite 是 Google 最小、性价比最高的模型,适用于大规模使用场景。", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview 是 Google 功能最全、性价比最高的模型。", - "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash 的预览版本(2025 年 9 月 25 日发布)", "gemini-2.5-flash.description": "Gemini 2.5 Flash 是 Google 功能最全、性价比最高的模型。", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,能够处理代码、数学、STEM 问题,并分析大规模数据集、代码库和长文档。", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先进的推理模型,能够处理代码、数学、STEM 问题,并分析大规模数据集、代码库和长文档。", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的图像生成模型,同时支持多模态对话。", "gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最强大的智能体与编程模型,在最先进推理基础上提供更丰富的视觉效果与更深入的交互体验。", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)以 Flash 速度提供 Pro 级图像质量,同时支持多模态对话。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以 Flash 速度提供 Pro 级图像质量,同时支持多模态对话。", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview在Gemini 3 Pro的基础上增强了推理能力,并增加了中等思维水平支持。", "gemini-flash-latest.description": "Latest release of Gemini Flash", "gemini-flash-lite-latest.description": "Latest release of Gemini Flash-Lite", "gemini-pro-latest.description": "Latest release of Gemini Pro", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。", "glm-4v-plus.description": "GLM-4V-Plus 支持视频与多图像理解,适用于多模态任务。", "glm-4v.description": "GLM-4V 在视觉任务中具备强大的图像理解与推理能力。", - "glm-5.description": "来自 Z.ai 的强大推理与代理模型,拥有 744B 总参数(40B 激活),专为复杂系统工程和长周期任务打造。", + "glm-5.description": "GLM系列是智谱AI开发的混合推理模型,支持思维模式和非思维模式。", "glm-z1-air.description": "具备强大推理能力的模型,适用于需要深度推理的任务。", "glm-z1-airx.description": "超快推理,兼具高质量推理表现。", "glm-z1-flash.description": "GLM-Z1 系列具备强大的复杂推理能力,在逻辑、数学与编程方面表现出色。", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "我们很高兴发布 Grok 4 Fast,这是我们在高性价比推理模型方面的最新进展。", "grok-4.description": "我们最新最强的旗舰模型,在自然语言处理、数学和推理方面表现卓越,是理想的全能型模型。", "grok-code-fast-1.description": "我们很高兴推出 grok-code-fast-1,这是一款快速且高性价比的推理模型,擅长智能体编程。", + "grok-imagine-image-pro.description": "通过文本提示生成图像,用自然语言编辑现有图像,或通过多轮对话迭代优化图像。", + "grok-imagine-image.description": "通过文本提示生成图像,用自然语言编辑现有图像,或通过多轮对话迭代优化图像。", "groq/compound-mini.description": "Compound-mini 是一个由 GroqCloud 支持的复合 AI 系统,基于公开模型构建,能够智能选择工具回答用户问题。", "groq/compound.description": "Compound 是一个由 GroqCloud 支持的复合 AI 系统,基于多个公开模型构建,能够智能选择工具回答用户问题。", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B 是一个融合多个顶级模型的创意型智能语言模型。", + "hunyuan-2.0-instruct-20251111.description": "发布特性:模型基础从TurboS升级为**混元2.0**,能力全面提升。显著增强了指令跟随、多轮和长文本理解、文学创作、知识准确性、编码和推理能力。", + "hunyuan-2.0-thinking-20251109.description": "发布特性:模型基础从TurboS升级为**混元2.0**,能力全面提升。显著增强了模型处理复杂指令、多轮和长文本理解、代码处理、代理操作以及推理任务的能力。", "hunyuan-a13b.description": "混合推理模型 Hunyuan-A13B 是混元推出的首个此类模型,由 hunyuan-standard-256K(总参数 800 亿,激活参数 130 亿)升级而来。默认采用慢思考模式,可通过参数或前缀 /no_think 切换快/慢思维。整体能力较前代显著提升,尤其在数学、科学、长文本理解和智能体任务方面表现优异。", - "hunyuan-code.description": "最新代码生成模型,使用 2000 亿高质量代码训练,并经过六个月的 SFT 微调;上下文扩展至 8K。在五种编程语言的自动评测中排名前列,并在十项人工评估指标中表现优异。", - "hunyuan-functioncall.description": "最新 MoE 架构函数调用模型,使用高质量函数调用数据训练,具备 32K 上下文窗口,在多个维度的基准测试中表现领先。", - "hunyuan-large-longcontext.description": "擅长长文档任务,如摘要与问答,同时具备通用生成能力。对复杂、细致内容的长文本分析与生成能力强。", - "hunyuan-large-vision.description": "基于混元大模型训练的视觉语言模型,支持任意分辨率的多图+文本输入,提升多语言视觉理解能力。", - "hunyuan-large.description": "Hunyuan-large 拥有约 3890 亿总参数和约 520 亿激活参数,是目前最大的开源 MoE Transformer 架构模型,性能最强。", - "hunyuan-lite-vision.description": "最新 70 亿参数多模态模型,具备 32K 上下文窗口,支持中英文多模态对话、目标识别、文档表格理解和多模态数学任务,在多个基准测试中超越同类 7B 模型。", + "hunyuan-code.description": "混元最新代码模型,基于200B高质量代码数据和六个月的SFT数据训练,支持8K上下文。在自动代码基准测试和五种语言的专家人工评估中排名靠前。", + "hunyuan-functioncall.description": "混元最新专家混合工具调用模型,基于高质量工具调用数据训练,支持32K上下文窗口,在各维度基准测试中表现领先。", "hunyuan-lite.description": "升级为 MoE 架构,具备 256K 上下文窗口,在 NLP、代码、数学和行业基准测试中领先众多开源模型。", "hunyuan-pro.description": "万亿参数的 MOE-32K 长上下文模型,在复杂指令与推理、高级数学、函数调用等方面表现强劲,针对多语言翻译、金融、法律和医疗等领域进行了优化。", - "hunyuan-role.description": "最新角色扮演模型,基于角色扮演数据集官方微调,在角色扮演场景中提供更强的基础表现。", - "hunyuan-standard-256K.description": "通过改进路由机制缓解负载均衡与专家崩溃问题。在长上下文任务中实现 99.9% 的“针在大海捞”准确率。MOE-256K 进一步扩展上下文长度与质量。", - "hunyuan-standard-vision.description": "最新多模态模型,具备多语言响应能力,中英文能力均衡。", - "hunyuan-standard.description": "通过改进路由机制缓解负载均衡与专家崩溃问题。在长上下文任务中实现 99.9% 的“针在大海捞”准确率。MOE-32K 在处理长输入时性价比高,表现强劲。", - "hunyuan-t1-20250321.description": "在文艺与 STEM 能力之间实现平衡,具备强大的长文本信息捕捉能力。支持各类难度的数学、逻辑、科学与编程问题的推理解答。", - "hunyuan-t1-20250403.description": "提升项目级代码生成与写作质量,加强多轮话题理解与 ToB 指令遵循能力,提升词级理解能力,减少简繁混用与中英文混输问题。", - "hunyuan-t1-20250529.description": "提升创意写作与内容构思能力,加强前端编程、数学与逻辑推理能力,增强指令遵循能力。", - "hunyuan-t1-20250711.description": "大幅提升高难数学、逻辑与编程能力,增强输出稳定性与长文本处理能力。", + "hunyuan-role.description": "混元最新角色扮演模型,经过角色扮演数据的正式微调,在角色扮演场景中表现更强。", + "hunyuan-standard-256K.description": "通过改进路由技术缓解负载均衡和专家崩溃问题。长文本“海底捞针”准确率达到99.9%。MOE-256K在长度和质量上进一步突破,显著扩展输入长度。", + "hunyuan-standard.description": "通过改进路由技术缓解负载均衡和专家崩溃问题。长文本“海底捞针”准确率达到99.9%。MOE-32K在质量和价格之间实现更好的平衡,适用于长文本输入。", "hunyuan-t1-latest.description": "显著提升慢思考模型在高难数学、复杂推理、困难编程、指令遵循与创意写作方面的能力。", - "hunyuan-t1-vision-20250619.description": "最新 t1-vision 多模态深度推理模型,具备原生长链式思维能力,相较前代默认版本有显著提升。", "hunyuan-t1-vision-20250916.description": "最新 t1-vision 深度推理模型,在 VQA、视觉定位、OCR、图表理解、拍照题解与图像创作等方面有重大提升,同时增强英文与低资源语言能力。", - "hunyuan-turbo-20241223.description": "本版本提升指令泛化能力,显著增强数学/代码/逻辑推理能力,提升词级理解与写作质量。", - "hunyuan-turbo-latest.description": "在 NLP 理解、写作、对话、问答、翻译与专业领域方面全面优化;响应更具人性化,模糊意图澄清更清晰,词法解析更准确,创意质量与交互性更高,多轮对话能力更强。", - "hunyuan-turbo-vision.description": "下一代视觉语言旗舰模型,采用全新 MoE 架构,在识别、内容创作、知识问答与分析推理方面全面提升。", "hunyuan-turbo.description": "混元下一代大模型预览版,采用全新 MoE 架构,推理速度更快,性能超越 hunyuan-pro。", - "hunyuan-turbos-20250313.description": "统一数学解题风格,增强多轮数学问答能力。优化写作风格,减少 AI 语气,提升表达质量。", - "hunyuan-turbos-20250416.description": "升级预训练基座,提升指令理解与执行能力;对齐优化增强数学、编程、逻辑与科学能力;提升写作质量、理解力、翻译准确性与知识问答表现;强化智能体能力,尤其是多轮理解。", - "hunyuan-turbos-20250604.description": "升级预训练基座,提升写作与阅读理解能力,在编程与 STEM 领域取得显著进展,复杂指令执行能力更强。", - "hunyuan-turbos-20250926.description": "优化预训练数据质量与后训练策略,提升智能体能力、英语及低资源语言支持、指令执行、编程与 STEM 表现。", "hunyuan-turbos-latest.description": "最新的 Hunyuan TurboS 旗舰模型,具备更强推理能力与更优整体体验。", - "hunyuan-turbos-longtext-128k-20250325.description": "擅长长文档任务,如摘要生成与问答,同时具备通用生成能力。对复杂、细节丰富内容的长文本分析与生成表现出色。", - "hunyuan-turbos-role-plus.description": "最新角色扮演模型,基于角色扮演数据集官方微调,在角色扮演场景中具备更强的基础表现。", - "hunyuan-turbos-vision-20250619.description": "最新 TurboS 视觉语言旗舰模型,在图文任务如实体识别、知识问答、文案创作与图像题解方面取得重大进展。", - "hunyuan-turbos-vision.description": "基于最新 TurboS 的下一代视觉语言旗舰模型,专注于图文理解任务,如实体识别、知识问答、文案创作与图像题解。", - "hunyuan-vision-1.5-instruct.description": "基于文本 TurboS 基座打造的图生文快思考模型,相较上一版本在图像基础识别、图像分析推理等方面有显著提升。", - "hunyuan-vision.description": "最新多模态模型,支持图像+文本输入,生成文本输出。", + "hunyuan-vision-1.5-instruct.description": "基于TurboS文本基础构建的快速思维图像转文本模型,与上一版本相比,在基础图像识别和图像分析推理方面有显著提升。", + "hunyuan-vision.description": "混元最新多模态模型,支持图像+文本输入以生成文本。", "image-01-live.description": "一款细节精致的图像生成模型,支持文本生成图像与可控风格预设。", "image-01.description": "一款全新图像生成模型,细节表现出色,支持文本生成图像与图像转图像。", "imagen-4.0-fast-generate-001.description": "Imagen 第四代文本生成图像模型系列 Fast 版本", "imagen-4.0-generate-001.description": "Imagen 第四代文本生成图像模型系列", - "imagen-4.0-generate-preview-06-06.description": "Imagen 第四代文本生成图像模型家族。", "imagen-4.0-ultra-generate-001.description": "Imagen 第四代文本生成图像模型系列 Ultra 版本", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen 第四代文本生成图像 Ultra 变体。", "inception/mercury-coder-small.description": "Mercury Coder Small 是一款适用于代码生成、调试与重构的低延迟模型。", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 是蚂蚁集团百灵团队推出的第三款 Ling 2.0 架构模型。该模型采用 MoE 架构,总参数量为 100B,每个 token 激活参数仅为 6.1B(非嵌入部分为 4.8B)。尽管配置轻量,但在多个基准测试中表现与 40B 密集模型甚至更大 MoE 模型相当甚至更优,探索了通过架构与训练策略实现高效能的路径。", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 是一款小型高性能 MoE 大模型,总参数量为 16B,每个 token 激活参数仅为 1.4B(非嵌入部分为 789M),生成速度极快。凭借高效的 MoE 设计与大规模高质量训练数据,在性能上可媲美 10B 以下密集模型及更大 MoE 模型。", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T 是 inclusionAI 推出的万亿参数 MoE 推理模型,适用于大规模推理与科研任务。", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 是 inclusionAI 推出的 Ring 系列变体,面向高吞吐场景,强调速度与成本效率。", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 是 inclusionAI 推出的高吞吐轻量级 MoE 模型,专为高并发设计。", + "intern-latest.description": "默认指向我们最新发布的Intern系列模型,目前设置为intern-s1-pro。", + "intern-s1-mini.description": "一个轻量级多模态大模型,具备强大的科学推理能力。", + "intern-s1-pro.description": "我们推出了最先进的开源多模态推理模型,目前在整体性能上是表现最好的开源多模态大语言模型。", + "intern-s1.description": "开源多模态推理模型不仅展现了强大的通用能力,还在广泛的科学任务中实现了最先进的性能。", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat 是基于 InternLM2 架构的开源聊天模型。该 7B 模型专注于中英文对话生成,采用现代训练方法,具备流畅、智能的对话能力,适用于客服、个人助手等多种聊天场景。", - "internlm2.5-latest.description": "经典模型仍在维护,经过多轮迭代后表现稳定优异。提供 7B 与 20B 两种规格,支持 1M 上下文,具备更强的指令执行与工具使用能力。默认使用最新 InternLM2.5 系列(当前为 internlm2.5-20b-chat)。", - "internlm3-latest.description": "我们最新的模型系列,在推理性能方面表现卓越,在同类开源模型中处于领先地位。默认使用最新 InternLM3 系列(当前为 internlm3-8b-instruct)。", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO 是一款多模态预训练模型,专注于复杂图文推理任务。", - "internvl2.5-latest.description": "InternVL2.5 仍在维护,性能稳定强劲。默认使用最新 InternVL2.5 系列(当前为 internvl2.5-78b)。", "internvl3-14b.description": "InternVL3 14B 是一款中等规模的多模态模型,在性能与成本之间取得平衡。", "internvl3-1b.description": "InternVL3 1B 是一款轻量级多模态模型,适用于资源受限的部署场景。", "internvl3-38b.description": "InternVL3 38B 是一款大型开源多模态模型,专注于高精度图文理解。", - "internvl3-latest.description": "我们最新的多模态模型,具备更强的图文理解与长序列图像理解能力,表现媲美顶级闭源模型。默认使用最新 InternVL 系列(当前为 internvl3-78b)。", + "internvl3.5-241b-a28b.description": "我们新发布的多模态大模型,增强了图像与文本理解以及长序列图像理解能力,性能可媲美领先的闭源模型。", + "internvl3.5-latest.description": "默认指向InternVL3.5系列的最新模型,目前设置为internvl3.5-241b-a28b。", "irag-1.0.description": "ERNIE iRAG 是一款图像检索增强生成模型,支持图像搜索、图文检索与内容生成任务。", "jamba-large.description": "我们最强大、最先进的模型,专为复杂企业任务设计,性能卓越。", "jamba-mini.description": "同类中效率最高的模型,在速度与质量之间实现平衡,占用资源更少。", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 是一款专为编程和智能体工作流打造的高效大语言模型。", "minimax/minimax-m2.1.description": "MiniMax-M2.1 是一款轻量级、前沿的大语言模型,专为编程、代理工作流和现代应用开发而优化,提供更简洁的输出和更快的响应速度。", "minimax/minimax-m2.description": "MiniMax-M2 是一款高性价比模型,擅长编程和智能体任务,适用于多种工程场景。", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1是一个紧凑、快速、性价比高的专家混合模型,专为顶级编码和代理性能而设计。", "minimaxai/minimax-m2.description": "MiniMax-M2 是一款紧凑、快速、成本效益高的 MoE 模型(总参数 230B,激活参数 10B),在保持强大通用智能的同时,专为顶级编程和智能体性能打造。擅长多文件编辑、代码运行修复循环、测试验证和复杂工具链。", "ministral-3b-latest.description": "Ministral 3B 是 Mistral 推出的顶级边缘模型。", "ministral-8b-latest.description": "Ministral 8B 是 Mistral 推出的高性价比边缘模型。", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 模型支持 256K 上下文窗口,具备更强的智能体编程能力、更精致实用的前端代码,以及更好的上下文理解能力。", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo 是 Kimi K2 Thinking 的高速版本,在保持深度推理能力的同时显著降低延迟。", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking 是 Moonshot 推出的推理模型,专为深度推理任务优化,具备通用智能体能力。", + "moonshotai/kimi-k2.5.description": "Kimi K2.5是迄今为止最智能的Kimi模型,具有原生多模态架构。", "moonshotai/kimi-k2.description": "Kimi K2 是 Moonshot AI 推出的超大规模 MoE 模型,拥有 1 万亿总参数和每次前向传播 320 亿激活参数,专为高级工具使用、推理和代码合成等智能体能力优化。", "morph/morph-v3-fast.description": "Morph 提供专用模型,将前沿模型(如 Claude 或 GPT-4o)建议的代码更改快速应用于现有文件,速度达 4500+ tokens/秒,是 AI 编程流程的最后一步,支持 16k 输入/输出。", "morph/morph-v3-large.description": "Morph 提供专用模型,将前沿模型(如 Claude 或 GPT-4o)建议的代码更改快速应用于现有文件,速度达 2500+ tokens/秒,是 AI 编程流程的最后一步,支持 16k 输入/输出。", + "musesteamer-air-image.description": "musesteamer-air-image是百度搜索团队开发的图像生成模型,具有卓越的性价比。它可以根据用户提示快速生成清晰、动作连贯的图像,将用户描述轻松转化为视觉效果。", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的更新版本,采用最新内部开发的数据集训练。", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B 是 NVIDIA 定制的大语言模型,旨在提升有用性。在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 三项自动对齐基准测试中均排名第一(截至 2024 年 10 月 1 日)。该模型基于 Llama-3.1-70B-Instruct,通过 RLHF(REINFORCE)、Llama-3.1-Nemotron-70B-Reward 和 HelpSteer2-Preference 提示训练。", "nvidia/llama-3.1-nemotron-51b-instruct.description": "一款独特的语言模型,具备卓越的准确性与效率。", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "根据上下文长度、主题和复杂度,自动将请求路由至 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我审查)或 GPT-4o。", "oswe-vscode-prime.description": "Raptor mini 是一款为编程任务优化的预览模型。", "oswe-vscode-secondary.description": "Raptor mini 是一款为编程任务优化的预览模型。", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2是一款在高计算效率与卓越推理和代理性能之间取得平衡的模型。", "perplexity/sonar-pro.description": "Perplexity 的旗舰产品,具备搜索支撑,支持高级查询和追问。", "perplexity/sonar-reasoning-pro.description": "专注推理的高级模型,输出带搜索增强的思维链,每次请求可包含多个搜索查询。", "perplexity/sonar-reasoning.description": "专注推理的模型,输出详细的搜索支撑解释和思维链。", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen 编程模型。", "qwen-coder-turbo.description": "Qwen 编程模型。", "qwen-flash.description": "Qwen Flash 是最快、成本最低的模型,适合处理简单任务。", + "qwen-image-edit-max.description": "Qwen图像编辑模型支持多图输入和多图输出,能够精确进行图像内文字编辑、对象添加、移除或重新定位、主体动作修改、图像风格转换以及视觉细节增强。", + "qwen-image-edit-plus.description": "Qwen图像编辑模型支持多图输入和多图输出,能够精确进行图像内文字编辑、对象添加、移除或重新定位、主体动作修改、图像风格转换以及视觉细节增强。", "qwen-image-edit.description": "Qwen Image Edit 是一款图像到图像的编辑模型,基于输入图像与文本提示进行精准调整与创意变换。", + "qwen-image-max.description": "Qwen图像生成模型(Max系列)在视觉真实感和自然性方面相比Plus系列有显著提升,有效减少AI生成伪影,并在人物外观、纹理细节和文字渲染方面表现卓越。", + "qwen-image-plus.description": "支持广泛的艺术风格,特别擅长在图像中渲染复杂文字,能够实现图像与文字的集成布局设计。", "qwen-image.description": "Qwen-Image 是一款通用图像生成模型,支持多种艺术风格,具备强大的中英文复杂文本渲染能力,支持多行排版、段落级文本与复杂图文细节。", "qwen-long.description": "超大规模 Qwen 模型,支持长上下文与跨多文档场景的对话。", "qwen-math-plus-latest.description": "Qwen Math 是一款专注于数学问题求解的语言模型。", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "开源 Qwen 编程模型。最新的 qwen3-coder-30b-a3b-instruct 基于 Qwen3,具备强大的编程代理能力、工具使用与环境交互能力,编程表现优异,通用能力扎实。", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct 是一款旗舰级编程模型,支持多语言编程与复杂代码理解。", "qwen3-coder-flash.description": "Qwen 编程模型。最新的 Qwen3-Coder 系列基于 Qwen3,具备强大的编程代理能力、工具使用与环境交互能力,编程表现优异,通用能力扎实。", + "qwen3-coder-next.description": "下一代Qwen编码器,优化用于复杂多文件代码生成、调试和高吞吐代理工作流。设计用于强大的工具集成和改进的推理性能。", "qwen3-coder-plus.description": "Qwen 编程模型。最新的 Qwen3-Coder 系列基于 Qwen3,具备强大的编程代理能力、工具使用与环境交互能力,编程表现优异,通用能力扎实。", "qwen3-coder:480b.description": "阿里巴巴高性能长上下文模型,适用于代理与编程任务。", "qwen3-max-2026-01-23.description": "Qwen3 Max 系列在通用能力、中英文理解、复杂指令执行、主观开放任务、多语言能力与工具使用方面相较 2.5 系列有显著提升,幻觉更少。最新版本在智能体编程与工具使用方面优于 qwen3-max-preview,达到领域 SOTA,面向更复杂的智能体需求。", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款多模态思维链模型,适用于细致的视觉推理任务。", "qwen3-vl-flash.description": "Qwen3 VL Flash:轻量级、高速推理版本,适用于对延迟敏感或高并发请求。", "qwen3-vl-plus.description": "Qwen VL 是一款具备视觉理解能力的文本生成模型,支持 OCR、摘要与推理,可从商品图片中提取属性或解决图像问题。", + "qwen3.5-397b-a17b.description": "支持文本、图像和视频输入。在仅文本任务中,其性能可与Qwen3 Max媲美,效率更高且成本更低。在多模态能力方面,相比Qwen3 VL系列有显著提升。", + "qwen3.5-plus.description": "Qwen3.5 Plus支持文本、图像和视频输入。在仅文本任务中,其性能可与Qwen3 Max媲美,同时效率更高且成本更低。在多模态能力方面,相比Qwen3 VL系列有显著提升。", "qwen3.description": "Qwen3 是阿里巴巴推出的下一代大语言模型,在多种应用场景中表现出色。", "qwq-32b-preview.description": "QwQ 是 Qwen 推出的实验性研究模型,专注于推理能力的提升。", "qwq-32b.description": "QwQ 是 Qwen 系列中的推理模型。相比标准指令微调模型,具备更强的思维与推理能力,显著提升下游复杂任务表现。QwQ-32B 是一款中型推理模型,性能可媲美 DeepSeek-R1 和 o1-mini 等顶级模型。", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Qwen 系列中的中型推理模型。相比标准指令微调模型,QwQ 的思维与推理能力显著提升下游复杂任务表现。", "r1-1776.description": "R1-1776 是 DeepSeek R1 的后训练版本,旨在提供无审查、无偏见的真实信息。", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro 由字节跳动推出,支持文本转视频、图像转视频(首帧或首+末帧)以及与画面同步的音频生成。", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite由BytePlus推出,具备网络检索增强生成功能,可结合实时信息,提升复杂提示解析能力和参考一致性,适用于专业视觉创作。", "solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日语增强版本,同时保持在英语和韩语中的高效强性能。", "solar-mini.description": "Solar Mini 是一款紧凑型大语言模型,性能超越 GPT-3.5,具备强大的多语言能力,支持英语和韩语,提供高效的小体积解决方案。", "solar-pro.description": "Solar Pro 是 Upstage 推出的高智能大语言模型,专注于单 GPU 上的指令跟随任务,IFEval 得分超过 80。目前支持英语,完整版本计划于 2024 年 11 月发布,届时将扩展语言支持并提升上下文长度。", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "一款高级搜索产品,支持复杂查询与后续问题的搜索溯源。", "sonar-reasoning.description": "一款高级搜索产品,支持复杂查询与后续问题的搜索溯源。", "sonar.description": "一款轻量级搜索溯源产品,速度更快、成本更低,适用于对资源敏感的场景。", - "spark-x.description": "X1.5 更新内容:(1)新增由 `thinking` 字段控制的动态思维模式;(2)支持 64K 输入与 64K 输出的超长上下文;(3)支持 FunctionCall 功能。", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2是一款在高计算效率与卓越推理和代理性能之间取得平衡的模型。", + "spark-x.description": "X2能力概述:1. 引入通过`thinking`字段动态调整推理模式;2. 扩展上下文长度:64K输入tokens和128K输出tokens;3. 支持Function Call功能。", "stable-diffusion-3-medium.description": "Stability AI 最新的文本生成图像模型。该版本显著提升图像质量、文本理解与风格多样性,能更准确地解析复杂自然语言提示并生成更精确多样的图像。", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 通过对 stable-diffusion-3.5-large 应用对抗扩散蒸馏(ADD)技术,实现更快的生成速度。", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款拥有 8 亿参数的 MMDiT 文本生成图像模型,具备卓越的图像质量与提示对齐能力,支持百万像素图像,并可高效运行于消费级硬件。", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "支持大上下文交互,适用于复杂对话。", "step-2-mini.description": "基于下一代自研 MFA 注意力架构构建,在大幅降低成本的同时实现 Step-1 级别效果,具备更高吞吐与更低延迟,适用于通用任务,编程能力强。", "step-2x-large.description": "新一代 StepFun 图像模型,专注于图像生成,可根据文本提示生成高质量图像,具备更真实的纹理与更强的中英文文本渲染能力。", + "step-3.5-flash.description": "Stepfun的旗舰语言推理模型。该模型提供顶级推理能力以及快速可靠的执行能力。它能够分解和规划复杂任务,快速可靠地调用工具完成任务,并在逻辑推理、数学、软件工程、深度研究等复杂任务中表现卓越。上下文长度为256K。", "step-3.description": "该模型具备强大的视觉感知与复杂推理能力,能准确处理跨领域知识理解、数学与视觉交叉分析及多种日常视觉分析任务。", "step-r1-v-mini.description": "具备强图像理解能力的推理模型,可处理图像与文本,并在深度推理后生成文本。擅长视觉推理,在数学、编程与文本推理方面表现出色,支持 100K 上下文窗口。", "stepfun-ai/step3.description": "Step3 是 StepFun 推出的前沿多模态推理模型,基于 MoE 架构,总参数 321B,激活参数 38B。端到端设计降低解码成本,同时实现顶级视觉语言推理能力。采用 MFA 与 AFD 架构,在旗舰与低端加速器上均保持高效。预训练使用超过 20T 文本与 4T 图文数据,覆盖多种语言,在数学、编程与多模态评测中表现领先。", - "taichu_llm.description": "基于海量高质量数据训练,具备更强的文本理解、内容创作与对话问答能力。", - "taichu_o1.description": "taichu_o1 是一款新一代推理模型,结合多模态交互与强化学习,实现类人链式思维,支持复杂决策模拟,具备高准确率输出与推理路径可视化,适用于策略分析与深度思考。", - "taichu_vl.description": "融合图像理解、知识迁移与逻辑归因,在图文问答任务中表现出色。", + "taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2B模型的无思维版本,具有较低的内存使用率、轻量化设计、快速响应速度和强大的多模态理解能力。", + "taichu4_vl_32b.description": "Taichu4.0-VL 32B模型的思维版本,适用于复杂的多模态理解和推理任务,在多模态数学推理、多模态代理能力以及一般图像和视觉理解方面表现卓越。", + "taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32B模型的无思维版本,专为复杂的图像与文本理解和视觉知识问答场景设计,擅长图像描述、视觉问答、视频理解和视觉定位任务。", + "taichu4_vl_3b.description": "Taichu4.0-VL 3B模型的思维版本,能够高效执行多模态理解和推理任务,在视觉理解、视觉定位、OCR识别及相关能力方面全面升级。", + "taichu_llm.description": "紫东太初大语言模型是一款高性能文本生成模型,采用完全国产的全栈技术开发。通过对百亿参数基础模型的结构化压缩和任务优化,显著增强了复杂文本理解和知识推理能力。擅长长文档分析、跨语言信息提取和知识约束生成等场景。", + "taichu_llm_14b.description": "紫东太初大语言模型是一款高性能文本生成模型,采用完全国产的全栈技术开发。通过对百亿参数基础模型的结构化压缩和任务优化,显著增强了复杂文本理解和知识推理能力。擅长长文档分析、跨语言信息提取和知识约束生成等场景。", + "taichu_llm_2b.description": "紫东太初大语言模型是一款高性能文本生成模型,采用完全国产的全栈技术开发。通过对百亿参数基础模型的结构化压缩和任务优化,显著增强了复杂文本理解和知识推理能力。擅长长文档分析、跨语言信息提取和知识约束生成等场景。", + "taichu_o1.description": "taichu_o1是下一代推理大模型,通过多模态交互和强化学习实现类人链式思维。支持复杂决策模拟,同时保持高精度输出,揭示可解释的推理路径。适用于策略分析、深度思考等场景。", "tencent/Hunyuan-A13B-Instruct.description": "混元-A13B-Instruct 总参数 80B,激活参数 13B,性能媲美更大模型。支持快慢混合推理、稳定长文本理解,在 BFCL-v3 与 τ-Bench 上具备领先代理能力。支持 GQA 与多量化格式,推理高效。", "tencent/Hunyuan-MT-7B.description": "混元翻译模型包括 Hunyuan-MT-7B 与集成模型 Hunyuan-MT-Chimera。Hunyuan-MT-7B 是一款支持 33 种语言及 5 种中国少数民族语言的 7B 轻量翻译模型,在 WMT25 中 31 个语对中获得 30 个第一。腾讯混元采用从预训练到 SFT、翻译 RL 与集成 RL 的完整训练流程,在同等规模下实现领先性能,部署高效便捷。", "text-embedding-3-large.description": "最强大的嵌入模型,适用于英文与非英文任务。", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md 适用于日常任务和用户界面生成。", "vercel/v0-1.0-md.description": "访问 v0 背后的模型,结合框架特定的推理能力和最新知识,用于生成、修复和优化现代 Web 应用。", "vercel/v0-1.5-md.description": "访问 v0 背后的模型,结合框架特定的推理能力和最新知识,用于生成、修复和优化现代 Web 应用。", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code针对企业级编程需求优化,在Seed 2.0优秀的Agent、VLM能力基础上,特别增强了代码能力,不仅前端能力表现出众,也对企业常见的多语言编码需求做了特别优化,适合接入各种AI编程工具使用。", + "volcengine/doubao-seed-2-0-lite.description": "兼顾生成质量与响应速度,适合作为通用生产级模型。", + "volcengine/doubao-seed-2-0-mini.description": "指向doubao-seed-2-0-mini最新版。", + "volcengine/doubao-seed-2-0-pro.description": "指向doubao-seed-2-0-pro最新版。", "volcengine/doubao-seed-code.description": "豆包-Seed-Code 是字节跳动火山引擎推出的面向智能体编程优化的大模型,在编程和智能体基准测试中表现出色,支持 256K 上下文。", - "wan2.2-t2i-flash.description": "万象 2.2 极速版是最新模型,在创意性、稳定性和真实感方面全面升级,生成速度快,性价比高。", - "wan2.2-t2i-plus.description": "万象 2.2 专业版是最新模型,在创意性、稳定性和真实感方面全面升级,图像细节更丰富。", + "wan2.2-t2i-flash.description": "万象2.2 Flash是最新模型,在创造力、稳定性和真实感方面进行了升级,提供快速生成和高价值。", + "wan2.2-t2i-plus.description": "万象2.2 Plus是最新模型,在创造力、稳定性和真实感方面进行了升级,生成更丰富的细节。", + "wan2.5-i2i-preview.description": "万象2.5 I2I Preview支持单图编辑和多图融合。", + "wan2.5-t2i-preview.description": "万象2.5 T2I支持在总像素面积和纵横比限制内灵活选择图像尺寸。", + "wan2.6-image.description": "万象2.6 Image支持图像编辑和混合图像-文本布局输出。", + "wan2.6-t2i.description": "万象2.6 T2I支持在总像素面积和纵横比限制内灵活选择图像尺寸(与万象2.5相同)。", "wanx-v1.description": "基础文本转图像模型。对应通义万象 1.0 通用版。", "wanx2.0-t2i-turbo.description": "擅长纹理人像,速度适中,成本较低。对应通义万象 2.0 极速版。", "wanx2.1-t2i-plus.description": "全面升级版本,图像细节更丰富,生成速度略慢。对应通义万象 2.1 专业版。", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4 Fast 是 xAI 推出的高吞吐、低成本模型(支持 2M 上下文窗口),适用于高并发和长上下文场景。", "x-ai/grok-4.description": "Grok 4 是 xAI 的旗舰推理模型,具备强大的推理和多模态能力。", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 是 xAI 推出的快速代码模型,输出可读性强,适合工程使用。", + "x1.description": "X1.5更新内容:(1) 添加通过`thinking`字段控制的动态思维模式;(2) 更大的上下文长度,支持64K输入和64K输出;(3) 支持FunctionCall。", "xai/grok-2-vision.description": "Grok 2 Vision 擅长视觉任务,在视觉数学推理(MathVista)和文档问答(DocVQA)方面表现卓越,支持文档、图表、截图和照片等多种图像类型。", "xai/grok-2.description": "Grok 2 是一款前沿模型,具备先进的推理能力,强大的对话、编程和推理表现,在 LMSYS 排名中优于 Claude 3.5 Sonnet 和 GPT-4 Turbo。", "xai/grok-3-fast.description": "xAI 的旗舰模型,擅长企业场景如数据提取、编程和摘要,具备金融、医疗、法律和科学等领域的深度知识。快速版本运行在更快的基础设施上,响应速度更快但每个 token 成本更高。", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗舰模型,采用混合推理,优化用于工程和长上下文任务。", "z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗舰模型,具备更长上下文和更强编程能力。", "z-ai/glm-4.7.description": "GLM-4.7 是智谱最新旗舰模型,具备更强通用能力、自然简洁的回复风格与沉浸式写作体验。", - "z-ai/glm5.description": "来自 Z.ai 的强大推理与代理模型,拥有 744B 总参数(40B 激活),专为复杂系统工程和长周期任务打造。", + "z-ai/glm4.7.description": "GLM-4.7是智谱最新旗舰模型,针对代理编码场景优化,提升了编码能力。", + "z-ai/glm5.description": "GLM-5是智谱AI的新旗舰基础模型,专为代理工程设计,在编码和代理能力方面实现了开源SOTA性能,与Claude Opus 4.5性能相当。", + "z-image-turbo.description": "Z-Image是一个轻量级文本生成图像模型,能够快速生成图像,支持中英文文本渲染,并灵活适应多种分辨率和纵横比。", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款面向智能体应用的基础模型,采用专家混合架构,优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。", "zai-org/GLM-4.5.description": "GLM-4.5 是一款面向智能体应用的基础模型,采用专家混合架构,深度优化用于工具使用、网页浏览、软件工程和前端编程,并可与 Claude Code 和 Roo Code 等代码智能体集成。采用混合推理,兼顾复杂推理与日常任务。", "zai-org/GLM-4.5V.description": "GLM-4.5V 是智谱 AI 最新的多模态语言模型,基于 GLM-4.5-Air 旗舰文本模型(总参数 106B,激活参数 12B),采用 MoE 架构,在成本更低的同时保持强大性能。继承 GLM-4.1V-Thinking 路线,加入 3D-RoPE 提升三维空间推理能力。通过预训练、SFT 和 RL 优化,支持图像、视频和长文档,在 41 个公开多模态基准中排名领先。提供“思考模式”切换,平衡速度与深度。", diff --git a/locales/zh-CN/plugin.json b/locales/zh-CN/plugin.json index 307ff1b740..04a22e02d4 100644 --- a/locales/zh-CN/plugin.json +++ b/locales/zh-CN/plugin.json @@ -202,6 +202,7 @@ "builtins.lobe-web-browsing.title": "联网搜索", "confirm": "确认", "debug.arguments": "调用参数", + "debug.error": "错误日志", "debug.function_call": "函数调用", "debug.intervention": "技能干预", "debug.off": "关闭调试", @@ -334,8 +335,8 @@ "dev.saveSuccess": "技能设置保存成功", "dev.tabs.manifest": "功能描述清单 (Manifest)", "dev.tabs.meta": "技能元信息", - "dev.title.create": "添加自定义 MCP 技能", - "dev.title.edit": "编辑自定义 MCP 技能", + "dev.title.create": "添加自定义MCP技能", + "dev.title.edit": "编辑自定义MCP技能", "dev.title.editCommunity": "编辑社区技能", "dev.title.skillDetails": "技能详情", "dev.title.skillSettings": "技能设置", diff --git a/locales/zh-TW/common.json b/locales/zh-TW/common.json index 0a69f04c57..189bbcb8a3 100644 --- a/locales/zh-TW/common.json +++ b/locales/zh-TW/common.json @@ -256,11 +256,6 @@ "footer.star.title": "在 GitHub 為我們點亮星標", "footer.title": "喜歡我們的產品?", "fullscreen": "全螢幕模式", - "geminiImageChineseWarning.content": "Nano Banana 使用中文有機率生成圖片失敗。建議使用英文以獲得更好的效果。", - "geminiImageChineseWarning.continueGenerate": "繼續生成", - "geminiImageChineseWarning.continueSend": "繼續發送", - "geminiImageChineseWarning.doNotShowAgain": "不再提示", - "geminiImageChineseWarning.title": "中文輸入提示", "historyRange": "歷史範圍", "home.suggestQuestions": "試試這些範例", "import": "匯入", @@ -397,6 +392,7 @@ "tab.chat": "對話", "tab.community": "社群", "tab.discover": "發現", + "tab.eval": "評估實驗室", "tab.files": "檔案", "tab.home": "首頁", "tab.knowledgeBase": "資源庫", diff --git a/locales/zh-TW/eval.json b/locales/zh-TW/eval.json new file mode 100644 index 0000000000..700e95fb1e --- /dev/null +++ b/locales/zh-TW/eval.json @@ -0,0 +1,316 @@ +{ + "benchmark.actions.delete": "刪除基準", + "benchmark.actions.delete.confirm": "您確定要刪除此基準嗎?相關的數據集和評估記錄也將被刪除。", + "benchmark.actions.edit": "編輯基準", + "benchmark.actions.export": "匯出", + "benchmark.card.bestScore": "最佳", + "benchmark.card.caseCount": "{{count}} 個案例", + "benchmark.card.datasetCount": "{{count}} 個數據集", + "benchmark.card.empty": "尚無評估", + "benchmark.card.emptyHint": "從基準詳情頁面創建新的評估", + "benchmark.card.importDataset": "匯入數據集", + "benchmark.card.noDataset": "尚無數據集", + "benchmark.card.noDatasetHint": "匯入數據集以開始評估", + "benchmark.card.noRecentRuns": "無最近的評估可顯示", + "benchmark.card.recentRuns": "最近的評估", + "benchmark.card.runCount": "{{count}} 次評估", + "benchmark.card.startFirst": "開始首次評估", + "benchmark.card.viewAll": "查看全部 {{count}}", + "benchmark.create.confirm": "創建", + "benchmark.create.description.label": "描述", + "benchmark.create.description.placeholder": "基準描述(可選)", + "benchmark.create.error": "創建基準失敗", + "benchmark.create.identifier.label": "標識符", + "benchmark.create.identifier.placeholder": "基準標識符", + "benchmark.create.identifierRequired": "請輸入標識符", + "benchmark.create.name.label": "名稱", + "benchmark.create.name.placeholder": "輸入基準名稱", + "benchmark.create.nameRequired": "請輸入基準名稱", + "benchmark.create.success": "基準創建成功", + "benchmark.create.tags.label": "標籤", + "benchmark.create.tags.placeholder": "添加標籤,用逗號或空格分隔", + "benchmark.create.title": "創建基準", + "benchmark.detail.backToOverview": "返回概覽", + "benchmark.detail.datasetCount": "此基準中有 {{count}} 個數據集", + "benchmark.detail.runCount": "此基準上有 {{count}} 次評估運行", + "benchmark.detail.stats.addFirstDataset": "點擊添加第一個數據集", + "benchmark.detail.stats.avgCost": "平均成本", + "benchmark.detail.stats.avgDuration": "平均時長", + "benchmark.detail.stats.basedOnLastNRuns": "基於最近的 {{count}} 次運行", + "benchmark.detail.stats.bestPerformance": "{{agent}} 以 {{passRate}}% 的通過率達到最佳表現", + "benchmark.detail.stats.bestScore": "最佳分數", + "benchmark.detail.stats.cases": "案例", + "benchmark.detail.stats.dataScale": "數據規模", + "benchmark.detail.stats.datasets": "數據集", + "benchmark.detail.stats.needSetup": "需要設置", + "benchmark.detail.stats.noEvalRecord": "尚無評估記錄", + "benchmark.detail.stats.perRun": "/ 每次運行", + "benchmark.detail.stats.runs": "運行", + "benchmark.detail.stats.tags": "標籤", + "benchmark.detail.stats.topAgents": "頂級代理", + "benchmark.detail.stats.totalCases": "總案例數", + "benchmark.detail.stats.waiting": "等待中...", + "benchmark.detail.tabs.data": "數據", + "benchmark.detail.tabs.datasets": "數據集", + "benchmark.detail.tabs.runs": "運行", + "benchmark.edit.confirm": "保存", + "benchmark.edit.error": "更新基準失敗", + "benchmark.edit.success": "基準更新成功", + "benchmark.edit.title": "編輯基準", + "benchmark.empty": "尚無基準。創建一個以開始。", + "caseDetail.actual": "實際輸出", + "caseDetail.chatArea.title": "對話", + "caseDetail.completionReason": "狀態", + "caseDetail.cost": "成本", + "caseDetail.difficulty": "難度", + "caseDetail.duration": "時長", + "caseDetail.expected": "預期輸出", + "caseDetail.failureReason": "失敗原因", + "caseDetail.input": "輸入", + "caseDetail.judgeComment": "評審意見", + "caseDetail.resources": "資源", + "caseDetail.score": "分數", + "caseDetail.section.runtime": "運行時", + "caseDetail.section.scoring": "評分詳情", + "caseDetail.section.testCase": "測試案例", + "caseDetail.steps": "步驟", + "caseDetail.threads.attempt": "軌跡 #{{number}}", + "caseDetail.tokens": "令牌使用", + "common.cancel": "取消", + "common.create": "創建", + "common.delete": "刪除", + "common.edit": "編輯", + "common.later": "稍後", + "common.next": "下一步", + "common.update": "更新", + "dataset.actions.addDataset": "添加數據集", + "dataset.actions.import": "匯入數據", + "dataset.actions.importDataset": "匯入數據集", + "dataset.create.description.label": "描述", + "dataset.create.description.placeholder": "數據集描述(可選)", + "dataset.create.error": "創建數據集失敗", + "dataset.create.identifier.label": "標識符", + "dataset.create.identifier.placeholder": "數據集標識符", + "dataset.create.identifierRequired": "請輸入標識符", + "dataset.create.importNow": "您現在要匯入數據嗎?", + "dataset.create.name.label": "數據集名稱", + "dataset.create.name.placeholder": "輸入數據集名稱", + "dataset.create.nameRequired": "請輸入數據集名稱", + "dataset.create.preset.label": "數據集預設", + "dataset.create.success": "數據集創建成功", + "dataset.create.successTitle": "數據集已創建", + "dataset.create.title": "創建數據集", + "dataset.delete.confirm": "您確定要刪除此數據集嗎?其中的所有測試案例也將被刪除。", + "dataset.delete.error": "刪除數據集失敗", + "dataset.delete.success": "數據集刪除成功", + "dataset.detail.addRun": "新建運行", + "dataset.detail.backToBenchmark": "返回基準", + "dataset.detail.caseCount": "{{count}} 個測試案例", + "dataset.detail.relatedRuns": "相關運行 ({{count}})", + "dataset.detail.testCases": "測試案例", + "dataset.detail.viewDetail": "查看詳情", + "dataset.edit.error": "更新數據集失敗", + "dataset.edit.success": "數據集更新成功", + "dataset.edit.title": "編輯數據集", + "dataset.empty": "尚無數據集", + "dataset.empty.description": "匯入數據集以開始構建此基準", + "dataset.empty.title": "尚無數據集", + "dataset.evalMode.hint": "數據集的默認評估模式,可在測試案例級別覆蓋", + "dataset.import.category": "類別", + "dataset.import.categoryDesc": "分組的分類標籤", + "dataset.import.choices": "選項", + "dataset.import.choicesDesc": "多選項選擇", + "dataset.import.confirm": "匯入", + "dataset.import.error": "匯入數據集失敗", + "dataset.import.expected": "預期答案", + "dataset.import.expectedDelimiter": "答案分隔符", + "dataset.import.expectedDelimiter.desc": "答案分隔符", + "dataset.import.expectedDelimiter.placeholder": "例如 | 或 ,", + "dataset.import.expectedDesc": "用於比較的正確答案", + "dataset.import.fieldMapping": "字段映射", + "dataset.import.fieldMapping.desc": "“輸入”列是必需的", + "dataset.import.hideSkipped": "隱藏跳過的列", + "dataset.import.ignore": "跳過", + "dataset.import.ignoreDesc": "不匯入此列", + "dataset.import.input": "輸入", + "dataset.import.inputDesc": "發送給模型的問題或提示", + "dataset.import.metadata": "元數據", + "dataset.import.metadataDesc": "額外信息,按原樣存儲", + "dataset.import.next": "下一步", + "dataset.import.parseError": "解析文件失敗", + "dataset.import.parsing": "正在解析文件...", + "dataset.import.prev": "上一步", + "dataset.import.preview": "數據預覽", + "dataset.import.preview.desc": "確認映射正確,然後匯入。", + "dataset.import.preview.rows": "共 {{count}} 行", + "dataset.import.sortOrder": "項目編號", + "dataset.import.sortOrderDesc": "參考的問題/項目 ID", + "dataset.import.step.mapping": "映射字段", + "dataset.import.step.preview": "預覽", + "dataset.import.step.upload": "上傳文件", + "dataset.import.success": "成功匯入 {{count}} 個測試案例", + "dataset.import.title": "匯入數據集", + "dataset.import.upload.hint": "支持 CSV、XLSX、JSON、JSONL", + "dataset.import.upload.text": "點擊或拖動文件到此處上傳", + "dataset.import.uploading": "正在上傳...", + "dataset.switchDataset": "切換數據集", + "difficulty.easy": "簡單", + "difficulty.hard": "困難", + "difficulty.medium": "中等", + "evalMode.contains": "包含匹配", + "evalMode.contains.desc": "輸出必須包含預期文本", + "evalMode.equals": "完全匹配", + "evalMode.equals.desc": "輸出必須與預期完全相同", + "evalMode.label": "評估模式", + "evalMode.llm-rubric": "LLM 評審", + "evalMode.llm-rubric.desc": "使用 LLM 評估輸出質量", + "evalMode.placeholder": "選擇評估模式", + "evalMode.prompt.label": "評審提示", + "evalMode.prompt.placeholder": "輸入評估標準或 LLM 評審提示", + "evalMode.rubric": "評分標準", + "evalMode.rubric.desc": "使用基準標準和加權標準評分輸出", + "overview.createBenchmark": "創建基準", + "overview.importDataset": "匯入數據集", + "overview.subtitle": "在數據集中基準測試和評估您的 AI 代理", + "overview.title": "評估實驗室", + "run.actions.abort": "中止", + "run.actions.abort.confirm": "您確定要中止此評估嗎?", + "run.actions.create": "新建評估", + "run.actions.delete": "刪除", + "run.actions.delete.confirm": "您確定要刪除此評估嗎?", + "run.actions.edit": "編輯", + "run.actions.retryCase": "重試", + "run.actions.retryErrors": "重試錯誤", + "run.actions.retryErrors.confirm": "這將重新運行所有錯誤和超時案例。通過和失敗的案例不受影響。", + "run.actions.run": "運行", + "run.actions.start": "開始", + "run.actions.start.confirm": "您確定要開始此評估嗎?", + "run.chart.duration": "時長(秒)", + "run.chart.error": "錯誤", + "run.chart.fail": "失敗", + "run.chart.latencyDistribution": "延遲分佈", + "run.chart.latencyTokenDistribution": "延遲 / 令牌分佈", + "run.chart.pass": "通過", + "run.chart.passFailError": "通過 / 失敗 / 錯誤", + "run.chart.tokens": "令牌", + "run.config.agentId": "代理", + "run.config.concurrency": "併發", + "run.config.judgeModel": "評審模型", + "run.config.k": "執行次數 (K)", + "run.config.k.hint": "每個測試案例運行 {{k}} 次以獲取 pass@{{k}}/pass^{{k}} 指標", + "run.config.maxSteps": "最大步驟數", + "run.config.maxSteps.hint": "代理的每次 LLM 調用或工具調用計為 1 步", + "run.config.model": "模型", + "run.config.temperature": "溫度", + "run.config.timeout": "超時", + "run.config.timeout.unit": "分鐘", + "run.create.advanced": "高級設置", + "run.create.agent": "代理", + "run.create.agent.placeholder": "選擇一個代理", + "run.create.agent.required": "請選擇一個代理", + "run.create.caseCount": "{{count}} 個案例", + "run.create.confirm": "創建並開始", + "run.create.createOnly": "僅創建", + "run.create.dataset": "數據集", + "run.create.dataset.placeholder": "選擇一個數據集", + "run.create.dataset.required": "請選擇一個數據集", + "run.create.name": "運行名稱", + "run.create.name.placeholder": "輸入此運行的名稱", + "run.create.name.required": "請輸入運行名稱", + "run.create.name.useTimestamp": "使用當前時間作為名稱", + "run.create.openAgent": "在新窗口中打開代理", + "run.create.title": "新建評估", + "run.create.titleWithDataset": "在 \"{{dataset}}\" 上新建評估", + "run.detail.agent": "代理", + "run.detail.agent.none": "未指定", + "run.detail.agent.unnamed": "未命名代理", + "run.detail.backToBenchmark": "返回基準", + "run.detail.caseResults": "評估詳情", + "run.detail.config": "評估配置", + "run.detail.configSnapshot": "配置快照", + "run.detail.dataset": "數據集", + "run.detail.model": "模型", + "run.detail.overview": "概覽", + "run.detail.progress": "進度", + "run.detail.progressCases": "案例", + "run.detail.report": "評估摘要", + "run.edit.error": "更新評估失敗", + "run.edit.success": "評估更新成功", + "run.edit.title": "編輯評估", + "run.empty.description": "在此數據集上開始您的首次評估運行", + "run.empty.descriptionBenchmark": "在此基準上開始您的首次評估運行", + "run.empty.title": "尚無運行", + "run.filter.active": "活躍", + "run.filter.empty": "當前篩選條件下無運行。", + "run.idle.hint": "點擊開始以開始評估", + "run.metrics.avgScore": "平均分數", + "run.metrics.cost": "成本", + "run.metrics.duration": "時長", + "run.metrics.errorCases": "錯誤", + "run.metrics.evaluated": "{{count}} 已評估", + "run.metrics.passRate": "通過率", + "run.metrics.perCase": "/ 案例", + "run.metrics.tokens": "令牌", + "run.metrics.totalDuration": "累計", + "run.pending.hint": "評估已排隊,等待開始...", + "run.running.hint": "評估正在進行中,結果將很快顯示...", + "run.status.aborted": "已中止", + "run.status.completed": "已完成", + "run.status.error": "運行錯誤", + "run.status.failed": "失敗", + "run.status.idle": "空閒", + "run.status.pending": "待處理", + "run.status.running": "運行中", + "run.status.timeout": "超時", + "sidebar.benchmarks": "基準", + "sidebar.dashboard": "儀表板", + "sidebar.datasets": "數據集", + "sidebar.runs": "運行", + "table.columns.avgCost": "平均成本", + "table.columns.category": "類別", + "table.columns.cost": "成本", + "table.columns.difficulty": "難度", + "table.columns.duration": "時長", + "table.columns.evalMode": "評估模式", + "table.columns.expected": "預期答案", + "table.columns.input": "輸入", + "table.columns.score": "分數", + "table.columns.status": "狀態", + "table.columns.steps": "步驟", + "table.columns.tags": "標籤", + "table.columns.tokens": "令牌", + "table.columns.totalCost": "總成本", + "table.filter.all": "全部", + "table.filter.error": "運行錯誤", + "table.filter.failed": "失敗", + "table.filter.passed": "通過", + "table.filter.running": "運行中", + "table.search.placeholder": "搜索案例...", + "table.total": "共 {{count}}", + "testCase.actions.add": "添加測試案例", + "testCase.actions.import": "匯入測試案例", + "testCase.create.advanced": "更多選項", + "testCase.create.difficulty.label": "難度", + "testCase.create.error": "添加測試案例失敗", + "testCase.create.expected.label": "預期輸出", + "testCase.create.expected.placeholder": "輸入預期答案", + "testCase.create.expected.required": "請輸入預期輸出", + "testCase.create.input.label": "輸入", + "testCase.create.input.placeholder": "輸入測試案例的輸入或問題", + "testCase.create.success": "測試案例添加成功", + "testCase.create.tags.label": "標籤", + "testCase.create.tags.placeholder": "逗號分隔的標籤(可選)", + "testCase.create.title": "添加測試案例", + "testCase.delete.confirm": "您確定要刪除此測試案例嗎?", + "testCase.delete.error": "刪除測試案例失敗", + "testCase.delete.success": "測試案例已刪除", + "testCase.edit.error": "更新測試案例失敗", + "testCase.edit.success": "測試案例更新成功", + "testCase.edit.title": "編輯測試案例", + "testCase.empty.description": "匯入或手動添加測試案例到此數據集", + "testCase.empty.title": "尚無測試案例", + "testCase.preview.expected": "預期", + "testCase.preview.input": "輸入", + "testCase.preview.title": "測試案例預覽", + "testCase.search.placeholder": "搜索案例..." +} diff --git a/locales/zh-TW/home.json b/locales/zh-TW/home.json index 3607d42344..3a13f11e75 100644 --- a/locales/zh-TW/home.json +++ b/locales/zh-TW/home.json @@ -10,6 +10,7 @@ "starter.deepResearch": "深入研究", "starter.developing": "開發中", "starter.image": "繪圖", + "starter.nanoBanana2": "🍌 奈米香蕉 2", "starter.seedance": "Seedance 2.0", "starter.write": "寫作" } diff --git a/locales/zh-TW/modelProvider.json b/locales/zh-TW/modelProvider.json index f81cf502b5..f8d151a9a9 100644 --- a/locales/zh-TW/modelProvider.json +++ b/locales/zh-TW/modelProvider.json @@ -232,6 +232,7 @@ "providerModels.item.modelConfig.extendParams.options.thinkingBudget.hint": "適用於 Gemini 系列;控制思考預算。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel.hint": "適用於 Gemini 3 Flash Preview 模型;控制思考深度。", "providerModels.item.modelConfig.extendParams.options.thinkingLevel2.hint": "適用於 Gemini 3 Pro Preview 模型;控制思考深度。", + "providerModels.item.modelConfig.extendParams.options.thinkingLevel3.hint": "適用於 Gemini 3.1 Pro Preview 模型;通過低/中/高等級控制思考深度。", "providerModels.item.modelConfig.extendParams.options.urlContext.hint": "適用於 Gemini 系列;支援提供 URL 作為上下文。", "providerModels.item.modelConfig.extendParams.placeholder": "選擇要啟用的擴充參數", "providerModels.item.modelConfig.extendParams.previewFallback": "無法預覽", diff --git a/locales/zh-TW/models.json b/locales/zh-TW/models.json index 610dea1476..c85754406f 100644 --- a/locales/zh-TW/models.json +++ b/locales/zh-TW/models.json @@ -8,7 +8,9 @@ "360gpt-turbo.description": "360GPT Turbo 具備強大運算與對話能力,語義理解與生成效率優異,適合企業與開發者使用。", "360gpt2-o1.description": "360gpt2-o1 結合樹狀搜尋與反思機制,透過強化學習訓練建立思維鏈,實現自我反思與修正能力。", "360gpt2-pro.description": "360GPT2 Pro 是 360 推出的進階 NLP 模型,擅長創意生成與文本理解,能處理複雜轉換與角色扮演任務。", + "360zhinao2-o1.5.description": "360智腦最強大的推理模型,具備最強的能力,支持工具調用和高級推理。", "360zhinao2-o1.description": "360zhinao2-o1 結合樹狀搜尋與反思機制,透過強化學習訓練建立思維鏈,實現自我反思與修正能力。", + "360zhinao3-o1.5.description": "360智腦下一代推理模型。", "4.0Ultra.description": "Spark Ultra 為 Spark 系列中最強大的模型,提升文本理解與摘要能力,並升級網頁搜尋功能。為提升職場效率與準確回應的全方位解決方案,定位為領先的智慧產品。", "AnimeSharp.description": "AnimeSharp(又名「4x-AnimeSharp」)是由 Kim2091 基於 ESRGAN 開發的開源超解析度模型,專注於動畫風格圖像的放大與銳化。原名為「4x-TextSharpV1」,於 2022 年 2 月更名,雖最初也支援文字圖像,但已針對動畫內容進行深度優化。", "Baichuan2-Turbo.description": "透過搜尋增強技術,將模型與領域知識與網路資訊連結。支援 PDF/Word 上傳與網址輸入,實現即時、全面的檢索與專業、準確的輸出。", @@ -276,7 +278,7 @@ "c4ai-aya-vision-8b.description": "Aya Vision 是一款先進的多模態模型,在語言、文字與視覺基準測試中表現優異。此 80 億參數版本著重於低延遲與穩定效能。", "charglm-3.description": "CharGLM-3 專為角色扮演與情感陪伴設計,支援超長多輪記憶與個性化對話。", "charglm-4.description": "CharGLM-4 專為角色扮演與情感陪伴設計,支援超長多輪記憶與個性化對話。", - "chatgpt-4o-latest.description": "ChatGPT-4o 是一款即時更新的動態模型,結合強大的理解與生成能力,適用於客服、教育與技術支援等大規模應用場景。", + "chatgpt-4o-latest.description": "ChatGPT-4o 是一個實時更新的動態模型,結合了強大的語言理解和生成能力,適用於大規模使用場景,如客戶支持、教育和技術協助。", "claude-2.0.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。", "claude-2.1.description": "Claude 2 提供企業級關鍵改進,包括領先的 20 萬 token 上下文、降低幻覺、系統提示與新測試功能:工具調用。", "claude-3-5-haiku-20241022.description": "Claude 3.5 Haiku 是 Anthropic 推出的最新一代最快速模型,在多項技能上有所提升,並在多項基準測試中超越前一代旗艦 Claude 3 Opus。", @@ -368,6 +370,7 @@ "deepseek-ai/deepseek-llm-67b-chat.description": "DeepSeek LLM Chat(67B)是一款創新模型,具備深層語言理解與互動能力。", "deepseek-ai/deepseek-v3.1-terminus.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。", "deepseek-ai/deepseek-v3.1.description": "DeepSeek V3.1 是新一代推理模型,具備更強的複雜推理與思維鏈能力,適用於深度分析任務。", + "deepseek-ai/deepseek-v3.2.description": "DeepSeek V3.2 是下一代推理模型,具備更強的複雜推理和連鎖思維能力。", "deepseek-ai/deepseek-vl2.description": "DeepSeek-VL2 是一款基於 DeepSeekMoE-27B 的 MoE 視覺語言模型,採用稀疏激活,僅使用 4.5B 活躍參數即可達到強大表現。擅長視覺問答、OCR、文件/表格/圖表理解與視覺對齊。", "deepseek-chat.description": "DeepSeek V3.2 在推理能力與輸出長度之間取得平衡,適用於日常問答與智能代理任務。公開基準測試達到 GPT-5 水準,並首創將思考過程整合至工具使用中,於開源代理評測中表現領先。", "deepseek-coder-33B-instruct.description": "DeepSeek Coder 33B 是一款程式語言模型,訓練於 2T token(87% 程式碼,13% 中英文文本),支援 16K 上下文視窗與中間填充任務,提供專案級程式補全與片段填充功能。", @@ -401,6 +404,7 @@ "deepseek-v3.1.description": "DeepSeek-V3.1 是 DeepSeek 推出的新一代混合推理模型,支援思考與非思考模式,思考效率高於 DeepSeek-R1-0528。後訓練優化大幅提升代理工具使用與任務執行能力,支援 128k 上下文視窗與最多 64k 輸出字元。", "deepseek-v3.1:671b.description": "DeepSeek V3.1 是新一代推理模型,強化複雜推理與思路鏈能力,適合需要深入分析的任務。", "deepseek-v3.2-exp.description": "deepseek-v3.2-exp 引入稀疏注意力機制,在處理長文本時提升訓練與推理效率,價格低於 deepseek-v3.1。", + "deepseek-v3.2-speciale.description": "在高度複雜的任務中,Speciale 模型顯著優於標準版本,但會消耗更多的 tokens 並產生更高的成本。目前,DeepSeek-V3.2-Speciale 僅用於研究用途,不支持工具調用,且未針對日常對話或寫作任務進行特別優化。", "deepseek-v3.2-think.description": "DeepSeek V3.2 Think 是完整的深度思考模型,具備更強的長鏈推理能力。", "deepseek-v3.2.description": "DeepSeek-V3.2 是 DeepSeek 首個融合推理能力的混合模型,將思考能力整合至工具使用中。透過高效架構節省運算資源,結合大規模強化學習提升能力,並利用大量合成任務數據強化泛化能力。三者結合使其表現可媲美 GPT-5-High,且大幅縮短輸出長度,顯著降低計算負擔與用戶等待時間。", "deepseek-v3.description": "DeepSeek-V3 是一款強大的 MoE 模型,總參數達 671B,每個 token 啟用 37B 參數。", @@ -439,10 +443,7 @@ "doubao-1.5-vision-lite.description": "Doubao-1.5-vision-lite 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。支援 128k 上下文視窗與最多 16k 輸出字元。", "doubao-1.5-vision-pro-32k.description": "Doubao-1.5-vision-pro 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。", "doubao-1.5-vision-pro.description": "Doubao-1.5-vision-pro 是升級版多模態模型,支援任意解析度與極端長寬比的圖像,強化視覺推理、文件識別、細節理解與指令遵循。", - "doubao-lite-128k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 128k 上下文視窗。", "doubao-lite-32k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 32k 上下文視窗。", - "doubao-lite-4k.description": "極速回應與高性價比,提供多場景靈活選擇。支援推理與微調,具備 4k 上下文視窗。", - "doubao-pro-256k.description": "最強旗艦模型,適用於複雜任務,在參考問答、摘要、創作、文本分類與角色扮演等方面表現卓越。支援推理與微調,具備 256k 上下文視窗。", "doubao-pro-32k.description": "最強旗艦模型,適用於複雜任務,在參考問答、摘要、創作、文本分類與角色扮演等方面表現卓越。支援推理與微調,具備 32k 上下文視窗。", "doubao-seed-1.6-flash.description": "Doubao-Seed-1.6-flash 是一款極速多模態深度推理模型,TPOT 低至 10ms。支援文字與圖像,文字理解超越前代 lite 模型,視覺能力媲美競品 pro 模型。支援 256k 上下文視窗與最多 16k 輸出字元。", "doubao-seed-1.6-lite.description": "Doubao-Seed-1.6-lite 是一款全新多模態深度推理模型,支援可調推理強度(最低、低、中、高),在常見任務中提供更高性價比與穩定選擇,支援最高 256k 上下文視窗。", @@ -458,10 +459,11 @@ "doubao-seededit-3-0-i2i-250628.description": "Doubao 影像模型(來自字節跳動 Seed)支援文字與圖像輸入,實現高度可控、高品質的圖像生成。支援文字引導的圖像編輯,輸出尺寸長邊介於 512 至 1536。", "doubao-seedream-3-0-t2i-250415.description": "Seedream 3.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控、高品質的圖像生成。可根據文字提示生成圖像。", "doubao-seedream-4-0-250828.description": "Seedream 4.0 是字節跳動 Seed 團隊推出的圖像生成模型,支援文字與圖像輸入,實現高度可控、高品質的圖像生成。可根據文字提示生成圖像。", - "doubao-vision-lite-32k.description": "Doubao-vision 是 Doubao 推出的多模態模型,具備強大的圖像理解與推理能力,並能精準執行指令。擅長圖文抽取與基於圖像的推理任務,支援更複雜與廣泛的視覺問答場景。", - "doubao-vision-pro-32k.description": "Doubao-vision 是 Doubao 推出的多模態模型,具備強大的圖像理解與推理能力,並能精準執行指令。擅長圖文抽取與基於圖像的推理任務,支援更複雜與廣泛的視覺問答場景。", + "doubao-seedream-4-5-251128.description": "Seedream 4.5 是字節跳動最新的多模態圖像模型,整合了文本生成圖像、圖像生成圖像和批量圖像生成功能,同時融入了常識和推理能力。與之前的 4.0 版本相比,生成質量顯著提升,編輯一致性和多圖融合效果更好。它對視覺細節的控制更加精確,能更自然地生成小字和小臉,並實現更和諧的佈局和色彩,提升整體美感。", + "doubao-seedream-5-0-260128.description": "Doubao-Seedream-5.0-lite 是字節跳動最新的圖像生成模型。首次整合了在線檢索功能,能夠結合實時網絡信息,提升生成圖像的時效性。模型的智能性也得到了升級,能夠精確解讀複雜指令和視覺內容。此外,它在專業場景中的全球知識覆蓋、參考一致性和生成質量方面均有改進,更好地滿足企業級視覺創作需求。", "emohaa.description": "Emohaa 是一款心理健康模型,具備專業諮詢能力,協助使用者理解情緒問題。", "ernie-4.5-0.3b.description": "ERNIE 4.5 0.3B 是一款開源輕量級模型,適合本地與客製化部署。", + "ernie-4.5-21b-a3b-thinking.description": "ERNIE-4.5-21B-A3B-Thinking 是一個文本 MoE(專家混合)後訓練模型,總參數量為 21B,活躍參數為 3B,提供顯著增強的推理質量和深度。", "ernie-4.5-21b-a3b.description": "ERNIE 4.5 21B A3B 是一款開源大參數模型,具備更強的理解與生成能力。", "ernie-4.5-300b-a47b.description": "ERNIE 4.5 300B A47B 是百度 ERNIE 的超大規模 MoE 模型,推理能力卓越。", "ernie-4.5-8k-preview.description": "ERNIE 4.5 8K Preview 是一款 8K 上下文預覽模型,用於評估 ERNIE 4.5。", @@ -484,8 +486,10 @@ "ernie-lite-pro-128k.description": "ERNIE Lite Pro 128K 是一款輕量高效能模型,適用於延遲與成本敏感場景。", "ernie-novel-8k.description": "ERNIE 小說 8K 專為長篇小說與 IP 情節創作打造,支援多角色敘事。", "ernie-speed-pro-128k.description": "ERNIE Speed Pro 128K 是一款高併發、高價值模型,適用於大規模線上服務與企業應用。", + "ernie-x1-turbo-32k-preview.description": "ERNIE X1 Turbo 32K Preview 是一個快速思考模型,支持 32K 上下文,用於複雜推理和多輪對話。", "ernie-x1-turbo-32k.description": "ERNIE X1 Turbo 32K 是一款快速思考模型,具備 32K 上下文,適合複雜推理與多輪對話。", "ernie-x1.1-preview.description": "ERNIE X1.1 預覽版是一款思考模型預覽,用於評估與測試。", + "ernie-x1.1.description": "ERNIE X1.1 是一個用於評估和測試的思考模型預覽版。", "fal-ai/bytedance/seedream/v4.5.description": "Seedream 4.5 由字節跳動 Seed 團隊打造,支援多圖編輯與合成,具備更高的主體一致性、精準的指令執行、空間邏輯理解、美學表現、海報排版與標誌設計,並提供高精度的圖文渲染能力。", "fal-ai/bytedance/seedream/v4.description": "Seedream 4.0 由字節跳動 Seed 團隊開發,支援文字與圖像輸入,實現高度可控且高品質的圖像生成。", "fal-ai/flux-kontext/dev.description": "FLUX.1 模型專注於圖像編輯,支援文字與圖像輸入。", @@ -535,7 +539,6 @@ "gemini-2.5-flash-lite-preview-09-2025.description": "Gemini 2.5 Flash-Lite 的預覽版本(2025 年 9 月 25 日)。", "gemini-2.5-flash-lite.description": "Gemini 2.5 Flash-Lite 是 Google 體積最小、性價比最高的模型,專為大規模應用而設計。", "gemini-2.5-flash-preview-04-17.description": "Gemini 2.5 Flash Preview 是 Google 功能最完整、性價比最高的模型。", - "gemini-2.5-flash-preview-09-2025.description": "Gemini 2.5 Flash 的預覽版本(2025 年 9 月 25 日)。", "gemini-2.5-flash.description": "Gemini 2.5 Flash 是 Google 功能最完整、性價比最高的模型。", "gemini-2.5-pro-preview-03-25.description": "Gemini 2.5 Pro Preview 是 Google 最先進的推理模型,能處理程式碼、數學與 STEM 問題,並分析大型資料集、程式碼庫與長篇文件。", "gemini-2.5-pro-preview-05-06.description": "Gemini 2.5 Pro Preview 是 Google 最先進的推理模型,能處理程式碼、數學與 STEM 問題,並分析大型資料集、程式碼庫與長篇文件。", @@ -545,6 +548,9 @@ "gemini-3-pro-image-preview.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,支援多模態對話。", "gemini-3-pro-image-preview:image.description": "Gemini 3 Pro Image(Nano Banana Pro)是 Google 的圖像生成模型,同時支援多模態對話功能。", "gemini-3-pro-preview.description": "Gemini 3 Pro 是 Google 最強大的智能代理與情境編碼模型,具備頂尖推理能力、豐富視覺表現與深度互動。", + "gemini-3.1-flash-image-preview.description": "Gemini 3.1 Flash Image(Nano Banana 2)以閃電速度提供專業級圖像質量,並支持多模態聊天。", + "gemini-3.1-flash-image-preview:image.description": "Gemini 3.1 Flash Image(Nano Banana 2)以閃電速度提供專業級圖像質量,並支持多模態聊天。", + "gemini-3.1-pro-preview.description": "Gemini 3.1 Pro Preview 在 Gemini 3 Pro 的基礎上增強了推理能力,並新增了中等思考層級支持。", "gemini-flash-latest.description": "Gemini Flash 最新版本", "gemini-flash-lite-latest.description": "Gemini Flash-Lite 最新版本", "gemini-pro-latest.description": "Gemini Pro 最新版本", @@ -583,7 +589,7 @@ "glm-4v-plus-0111.description": "GLM-4V-Plus 能理解影片與多張圖像,適合多模態任務。", "glm-4v-plus.description": "GLM-4V-Plus 能理解影片與多張圖像,適合多模態任務。", "glm-4v.description": "GLM-4V 在各類視覺任務中展現強大的圖像理解與推理能力。", - "glm-5.description": "來自 Z.ai 的強大推理與代理模型,擁有 744B 總參數(40B 激活),專為複雜系統工程和長周期任務設計。", + "glm-5.description": "GLM 系列是智譜 AI 開發的混合推理模型,支持思考模式和非思考模式。", "glm-z1-air.description": "具備強大推理能力的模型,適用於需要深度推理的任務。", "glm-z1-airx.description": "超高速推理,兼具高品質推理表現。", "glm-z1-flash.description": "GLM-Z1 系列具備強大的複雜推理能力,擅長邏輯、數學與程式任務。", @@ -696,51 +702,32 @@ "grok-4-fast-reasoning.description": "我們很高興推出 Grok 4 Fast,這是我們在高性價比推理模型上的最新進展。", "grok-4.description": "我們最新且最強大的旗艦模型,在自然語言處理、數學與推理方面表現卓越,是理想的全能型模型。", "grok-code-fast-1.description": "我們很高興推出 grok-code-fast-1,一款快速且高性價比的推理模型,特別擅長智能體編碼。", + "grok-imagine-image-pro.description": "從文本提示生成圖像,使用自然語言編輯現有圖像,或通過多輪對話迭代優化圖像。", + "grok-imagine-image.description": "從文本提示生成圖像,使用自然語言編輯現有圖像,或通過多輪對話迭代優化圖像。", "groq/compound-mini.description": "Compound-mini 是一個由 GroqCloud 支援的複合式 AI 系統,整合多個公開模型,能智慧選擇工具來回應用戶查詢。", "groq/compound.description": "Compound 是一個由 GroqCloud 支援的複合式 AI 系統,整合多個公開模型,能智慧選擇工具來回應用戶查詢。", "gryphe/mythomax-l2-13b.description": "MythoMax L2 13B 是一款融合多個頂尖模型的創意型智慧語言模型。", + "hunyuan-2.0-instruct-20251111.description": "版本特性:模型基礎從 TurboS 升級為 **Hunyuan 2.0**,帶來全面能力提升。顯著增強了指令跟隨、多輪和長文本理解、文學創作、知識準確性、編碼和推理能力。", + "hunyuan-2.0-thinking-20251109.description": "版本特性:模型基礎從 TurboS 升級為 **Hunyuan 2.0**,帶來全面能力提升。顯著增強了模型處理複雜指令、多輪和長文本理解、代碼處理、代理操作和推理任務的能力。", "hunyuan-a13b.description": "混合推理模型 Hunyuan-A13B,從 hunyuan-standard-256K(總參數 800 億,活躍參數 130 億)升級而來。預設為慢思考模式,並可透過參數或前綴 /no_think 切換快/慢思考。整體能力較前代大幅提升,特別是在數學、科學、長文本理解與智能體任務方面。", - "hunyuan-code.description": "最新程式碼生成模型,使用 2000 億高品質程式碼與六個月 SFT 訓練,支援 8K 上下文。在五種語言的自動化基準測試中名列前茅,並在十項人工評估指標中表現優異。", - "hunyuan-functioncall.description": "最新 MoE FunctionCall 模型,使用高品質函數調用數據訓練,具備 32K 上下文視窗,在多項基準測試中表現領先。", - "hunyuan-large-longcontext.description": "擅長長文檔任務如摘要與問答,同時具備通用生成能力。對於複雜、細節豐富內容的長文本分析與生成表現出色。", - "hunyuan-large-vision.description": "由 Hunyuan Large 訓練的視覺語言模型,支援多圖+文字輸入,解析度不限,並提升多語言視覺理解能力。", - "hunyuan-large.description": "Hunyuan-large 擁有約 3890 億總參數與約 520 億活躍參數,是目前最大且最強的開源 MoE Transformer 架構模型。", - "hunyuan-lite-vision.description": "最新 70 億參數多模態模型,具備 32K 上下文視窗,支援中英文多模態對話、物體識別、文檔表格理解與多模態數學,在多項基準測試中超越同級模型。", + "hunyuan-code.description": "Hunyuan 最新的代碼模型,基於 200B 高質量代碼數據和六個月的 SFT 數據訓練,支持 8K 上下文。在自動化代碼基準測試和五種語言的專家人工評估中排名靠前。", + "hunyuan-functioncall.description": "Hunyuan 最新的 MoE FunctionCall 模型,基於高質量工具調用數據訓練,支持 32K 上下文窗口,在多維度基準測試中表現領先。", "hunyuan-lite.description": "升級為 MoE 架構,支援 256K 上下文視窗,在 NLP、程式碼、數學與產業基準測試中領先多數開源模型。", "hunyuan-pro.description": "兆級參數 MOE-32K 長上下文模型,在複雜指令與推理、高階數學、函數調用方面表現優異,並針對多語翻譯、金融、法律與醫療領域進行優化。", - "hunyuan-role.description": "最新角色扮演模型,經過角色扮演數據集精調,為角色扮演場景提供更強的基礎表現。", - "hunyuan-standard-256K.description": "透過改進路由機制減少負載不均與專家崩潰問題。在長上下文中達成 99.9% 的 needle-in-a-haystack 成就。MOE-256K 進一步擴展上下文長度與品質。", - "hunyuan-standard-vision.description": "最新多模態模型,具備多語言回應能力,中英文表現均衡。", - "hunyuan-standard.description": "透過改進路由機制減少負載不均與專家崩潰問題。在長上下文中達成 99.9% 的 needle-in-a-haystack 成就。MOE-32K 提供強大價值並能處理長輸入。", - "hunyuan-t1-20250321.description": "在文藝與 STEM 能力間取得平衡,具備強大的長文本資訊捕捉能力。支援數學、邏輯、科學與程式問題的推理解答,涵蓋各種難度。", - "hunyuan-t1-20250403.description": "提升專案級程式碼生成與寫作品質,加強多輪主題理解與 ToB 指令遵循,改善詞彙層級理解,減少簡繁混用與中英混雜輸出問題。", - "hunyuan-t1-20250529.description": "提升創意寫作與作文能力,加強前端編碼、數學與邏輯推理,並增強指令遵循能力。", - "hunyuan-t1-20250711.description": "大幅提升高難度數學、邏輯與程式能力,增強輸出穩定性與長文本處理能力。", + "hunyuan-role.description": "Hunyuan 最新的角色扮演模型,經過角色扮演數據的正式微調,在角色扮演場景中提供更強的基礎性能。", + "hunyuan-standard-256K.description": "使用改進的路由技術來緩解負載平衡和專家崩潰問題。長文本“海底撈針”達到 99.9%。MOE-256K 在長度和質量上更進一步,大幅擴展輸入長度。", + "hunyuan-standard.description": "使用改進的路由技術來緩解負載平衡和專家崩潰問題。長文本“海底撈針”達到 99.9%。MOE-32K 在平衡質量和價格的同時提供更高的價值。", "hunyuan-t1-latest.description": "顯著提升慢思考模型在高難度數學、複雜推理、困難編碼、指令遵循與創意寫作品質方面的表現。", - "hunyuan-t1-vision-20250619.description": "最新 t1-vision 多模態深度推理模型,具備原生長鏈思維,較前代預設版本有顯著提升。", "hunyuan-t1-vision-20250916.description": "最新 t1-vision 深度推理模型,在 VQA、視覺對齊、OCR、圖表、拍照題解與圖像創作方面有重大突破,並強化英文與低資源語言能力。", - "hunyuan-turbo-20241223.description": "本版本提升指令擴展能力以增強泛化性,顯著改善數學/程式/邏輯推理,增強詞彙層級理解與寫作品質。", - "hunyuan-turbo-latest.description": "在 NLP 理解、寫作、對話、問答、翻譯與專業領域方面全面提升體驗;回應更具人性化,對模糊意圖澄清更佳,詞彙解析更準確,創意與互動性更高,多輪對話能力更強。", - "hunyuan-turbo-vision.description": "下一代視覺語言旗艦模型,採用全新 MoE 架構,在識別、內容創作、知識問答與分析推理方面全面升級。", "hunyuan-turbo.description": "混元下一代大型語言模型預覽版,採用全新 MoE 架構,推理速度更快,整體表現超越 hunyuan-pro。", - "hunyuan-turbos-20250313.description": "統一數學解題風格,加強多輪數學問答。寫作風格更自然,減少 AI 感,提升語言潤色。", - "hunyuan-turbos-20250416.description": "升級預訓練基座以提升指令理解與遵循能力;對齊強化數學、程式、邏輯與科學能力;改善寫作品質、閱讀理解、翻譯準確性與知識問答;加強智能體能力,特別是多輪理解。", - "hunyuan-turbos-20250604.description": "升級預訓練基座,提升寫作與閱讀理解能力,在程式與 STEM 領域取得重大進展,並改善複雜指令遵循能力。", - "hunyuan-turbos-20250926.description": "升級預訓練數據品質與後訓練策略,提升智能體能力、英文與低資源語言表現、指令遵循、程式與 STEM 能力。", "hunyuan-turbos-latest.description": "最新混元 TurboS 旗艦模型,推理能力更強,整體體驗更佳。", - "hunyuan-turbos-longtext-128k-20250325.description": "擅長長文檔任務如摘要與問答,同時具備通用生成能力。對於複雜、細節豐富內容的長文本分析與生成表現出色。", - "hunyuan-turbos-role-plus.description": "最新角色扮演模型,經過角色扮演數據集精調,為角色扮演場景提供更強的基礎表現。", - "hunyuan-turbos-vision-20250619.description": "最新 TurboS 視覺語言旗艦模型,在圖文任務如實體識別、知識問答、文案撰寫與拍照題解方面取得重大進展。", - "hunyuan-turbos-vision.description": "基於最新 TurboS 的下一代視覺語言旗艦模型,專注於圖文理解任務,如實體識別、知識問答、文案撰寫與拍照題解。", - "hunyuan-vision-1.5-instruct.description": "基於文本 TurboS 基座打造的圖生文快思考模型,較前代在圖像基礎識別、圖像分析推理等方面有明顯提升。", - "hunyuan-vision.description": "最新多模態模型,支援圖像+文字輸入以生成文字。", + "hunyuan-vision-1.5-instruct.description": "基於 TurboS 文本基礎構建的快速思考圖像轉文本模型,與上一版本相比,在基礎圖像識別和圖像分析推理方面有顯著改進。", + "hunyuan-vision.description": "Hunyuan 最新的多模態模型,支持圖像+文本輸入以生成文本。", "image-01-live.description": "一款具備精細細節的圖像生成模型,支援文字轉圖像與可控風格預設。", "image-01.description": "一款全新圖像生成模型,具備精細細節,支援文字轉圖像與圖像轉圖像功能。", "imagen-4.0-fast-generate-001.description": "Imagen 第四代文字轉圖像模型系列的快速版本", "imagen-4.0-generate-001.description": "Imagen 第四代文字轉圖像模型系列", - "imagen-4.0-generate-preview-06-06.description": "Imagen 第四代文字轉圖像模型家族。", "imagen-4.0-ultra-generate-001.description": "Imagen 第四代文字轉圖像模型系列的超高版本", - "imagen-4.0-ultra-generate-preview-06-06.description": "Imagen 第四代文字轉圖像模型的 Ultra 變體。", "inception/mercury-coder-small.description": "Mercury Coder Small 是一款適用於程式碼生成、除錯與重構的低延遲模型。", "inclusionAI/Ling-flash-2.0.description": "Ling-flash-2.0 是螞蟻集團百靈團隊推出的第三款 Ling 2.0 架構模型。該模型為 MoE 架構,總參數量為 1000 億,但每個 token 僅啟用 61 億參數(不含嵌入為 48 億)。儘管配置輕量,卻在多項基準測試中與 400 億密集模型甚至更大型 MoE 模型相媲美甚至超越,展現出透過架構與訓練策略實現高效能的潛力。", "inclusionAI/Ling-mini-2.0.description": "Ling-mini-2.0 是一款小型高效能 MoE 大語言模型,總參數為 160 億,每個 token 僅啟用 14 億參數(不含嵌入為 7.89 億),具備極快的生成速度。透過高效的 MoE 設計與大量高品質訓練資料,其效能可媲美 100 億以下的密集模型與更大型的 MoE 模型。", @@ -752,15 +739,17 @@ "inclusionai/ring-1t.description": "Ring-1T 是 inclusionAI 推出的兆級參數 MoE 推理模型,適用於大規模推理與研究任務。", "inclusionai/ring-flash-2.0.description": "Ring-flash-2.0 是 inclusionAI 推出的 Ring 模型變體,專為高吞吐量場景設計,強調速度與成本效益。", "inclusionai/ring-mini-2.0.description": "Ring-mini-2.0 是 inclusionAI 推出的高吞吐量輕量級 MoE 模型,專為高併發場景打造。", + "intern-latest.description": "默認指向我們最新發布的 Intern 系列模型,目前設置為 intern-s1-pro。", + "intern-s1-mini.description": "一款輕量級多模態大模型,具備強大的科學推理能力。", + "intern-s1-pro.description": "我們推出了最先進的開源多模態推理模型,目前在整體性能上是表現最好的開源多模態大語言模型。", + "intern-s1.description": "這款開源多模態推理模型不僅展現了強大的通用能力,還在廣泛的科學任務中達到了最先進的性能。", "internlm/internlm2_5-7b-chat.description": "InternLM2.5-7B-Chat 是基於 InternLM2 架構的開源聊天模型。該 70 億參數模型專注於中英文對話生成,採用現代化訓練方法,實現流暢且智慧的對話體驗,適用於客服、個人助理等多種聊天場景。", - "internlm2.5-latest.description": "歷經多次迭代後仍維持優異穩定表現的舊版模型。提供 70 億與 200 億版本,支援 100 萬上下文長度,具備更強的指令遵循與工具使用能力。預設為最新 InternLM2.5 系列(目前為 internlm2.5-20b-chat)。", - "internlm3-latest.description": "我們最新的模型系列,具備卓越的推理能力,在同級開源模型中表現領先。預設為最新 InternLM3 系列(目前為 internlm3-8b-instruct)。", "internvl2.5-38b-mpo.description": "InternVL2.5 38B MPO 是一款多模態預訓練模型,專為複雜圖文推理任務設計。", - "internvl2.5-latest.description": "InternVL2.5 維持穩定且強大的表現。預設為最新 InternVL2.5 系列(目前為 internvl2.5-78b)。", "internvl3-14b.description": "InternVL3 14B 是一款中型多模態模型,在效能與成本之間取得平衡。", "internvl3-1b.description": "InternVL3 1B 是一款輕量級多模態模型,適合資源受限的部署場景。", "internvl3-38b.description": "InternVL3 38B 是一款大型開源多模態模型,專為高準確度圖文理解任務設計。", - "internvl3-latest.description": "我們最新的多模態模型,具備更強的圖文理解與長序列圖像理解能力,表現可媲美頂級封閉模型。預設為最新 InternVL 系列(目前為 internvl3-78b)。", + "internvl3.5-241b-a28b.description": "我們新發布的多模態大模型,增強了圖像與文本的理解能力以及長序列圖像理解能力,性能可媲美領先的閉源模型。", + "internvl3.5-latest.description": "默認指向 InternVL3.5 系列的最新模型,目前設置為 internvl3.5-241b-a28b。", "irag-1.0.description": "ERNIE iRAG 是一款圖像檢索增強生成模型,支援圖像搜尋、圖文檢索與內容生成任務。", "jamba-large.description": "我們最強大、最先進的模型,專為複雜企業任務設計,具備卓越效能。", "jamba-mini.description": "同級中最具效率的模型,在速度與品質之間取得平衡,佔用資源更少。", @@ -890,6 +879,7 @@ "minimax-m2.description": "MiniMax M2 是一款專為編碼與代理工作流程打造的高效大型語言模型。", "minimax/minimax-m2.1.description": "MiniMax-M2.1 是一款輕量且先進的大型語言模型,針對編碼、代理工作流程與現代應用開發進行優化,提供更簡潔的輸出與更快速的感知反應。", "minimax/minimax-m2.description": "MiniMax-M2 是一款高性價比模型,擅長處理多種工程場景中的編碼與代理任務。", + "minimaxai/minimax-m2.1.description": "MiniMax-M2.1 是一款緊湊、快速且具成本效益的 MoE 模型,專為頂級編碼和代理性能而設計。", "minimaxai/minimax-m2.description": "MiniMax-M2 是一款緊湊、快速且具成本效益的 MoE 模型(總參數 230B,啟用參數 10B),專為頂級編碼與代理效能打造,同時保有強大的通用智能。擅長多檔案編輯、代碼執行修復循環、測試驗證與複雜工具鏈。", "ministral-3b-latest.description": "Ministral 3B 是 Mistral 的頂級邊緣模型。", "ministral-8b-latest.description": "Ministral 8B 是 Mistral 推出的高性價比邊緣模型。", @@ -944,9 +934,11 @@ "moonshotai/kimi-k2-instruct-0905.description": "kimi-k2-0905-preview 模型支援 256K 上下文視窗,具備更強的智能代理程式設計能力、更精緻實用的前端程式碼,以及更佳的上下文理解。", "moonshotai/kimi-k2-thinking-turbo.description": "Kimi K2 Thinking Turbo 是 Kimi K2 Thinking 的高速版本,在保留深度推理能力的同時大幅降低延遲。", "moonshotai/kimi-k2-thinking.description": "Kimi K2 Thinking 是 Moonshot 專為深度推理任務優化的推理模型,具備通用智能代理能力。", + "moonshotai/kimi-k2.5.description": "Kimi K2.5 是迄今為止最智能的 Kimi 模型,具備原生多模態架構。", "moonshotai/kimi-k2.description": "Kimi K2 是 Moonshot AI 推出的大型 MoE 模型,總參數達 1 兆,每次前向傳遞啟用 32B,針對智能代理能力(如進階工具使用、推理與程式碼合成)進行優化。", "morph/morph-v3-fast.description": "Morph 提供專門模型,能以超過 4500 個 token/秒的速度,將前沿模型(如 Claude 或 GPT-4o)建議的程式碼變更應用至現有檔案。作為 AI 程式開發流程的最後一步,支援 16K 輸入/輸出 token。", "morph/morph-v3-large.description": "Morph 提供專門模型,能以超過 2500 個 token/秒的速度,將前沿模型(如 Claude 或 GPT-4o)建議的程式碼變更應用至現有檔案。作為 AI 程式開發流程的最後一步,支援 16K 輸入/輸出 token。", + "musesteamer-air-image.description": "musesteamer-air-image 是百度搜索團隊開發的圖像生成模型,提供卓越的性價比。它能根據用戶提示快速生成清晰且動作連貫的圖像,輕鬆將用戶描述轉化為視覺效果。", "nousresearch/hermes-2-pro-llama-3-8b.description": "Hermes 2 Pro Llama 3 8B 是 Nous Hermes 2 的更新版本,採用最新內部開發的資料集。", "nvidia/Llama-3.1-Nemotron-70B-Instruct-HF.description": "Llama 3.1 Nemotron 70B 是 NVIDIA 客製化的大型語言模型,旨在提升回應的有用性。於 2024 年 10 月 1 日,在 Arena Hard、AlpacaEval 2 LC 和 GPT-4-Turbo MT-Bench 三項自動對齊基準測試中皆排名第一。該模型基於 Llama-3.1-70B-Instruct,並透過 RLHF(REINFORCE)、Llama-3.1-Nemotron-70B-Reward 與 HelpSteer2-Preference 提示進行訓練。", "nvidia/llama-3.1-nemotron-51b-instruct.description": "一款具備卓越準確性與效率的獨特語言模型。", @@ -1006,6 +998,7 @@ "openrouter/auto.description": "根據上下文長度、主題與複雜度,自動將請求路由至 Llama 3 70B Instruct、Claude 3.5 Sonnet(自我審核)或 GPT-4o。", "oswe-vscode-prime.description": "Raptor mini 是一款預覽模型,專為程式碼相關任務優化。", "oswe-vscode-secondary.description": "Raptor mini 是一款預覽模型,專為程式碼相關任務優化。", + "paratera/deepseek-v3.2.description": "DeepSeek V3.2 是一款在高計算效率與卓越推理和代理性能之間取得平衡的模型。", "perplexity/sonar-pro.description": "Perplexity 的旗艦產品,具備搜尋依據,支援進階查詢與後續提問。", "perplexity/sonar-reasoning-pro.description": "一款專注推理的進階模型,輸出包含增強搜尋的思考鏈(CoT),每次請求可包含多個搜尋查詢。", "perplexity/sonar-reasoning.description": "一款專注推理的模型,輸出具詳細搜尋依據的思考鏈(CoT)解釋。", @@ -1039,7 +1032,11 @@ "qwen-coder-turbo-latest.description": "Qwen 程式碼模型。", "qwen-coder-turbo.description": "Qwen 程式碼模型。", "qwen-flash.description": "Qwen 最快且成本最低的模型,適用於簡單任務。", + "qwen-image-edit-max.description": "Qwen 圖像編輯模型支持多圖輸入和多圖輸出,實現精確的圖像內文本編輯、物體添加、移除或重新定位、主體動作修改、圖像風格轉換以及增強視覺細節。", + "qwen-image-edit-plus.description": "Qwen 圖像編輯模型支持多圖輸入和多圖輸出,實現精確的圖像內文本編輯、物體添加、移除或重新定位、主體動作修改、圖像風格轉換以及增強視覺細節。", "qwen-image-edit.description": "Qwen Image Edit 是一款圖像轉圖像模型,根據輸入圖片與文字提示進行圖像編輯,實現精準調整與創意轉換。", + "qwen-image-max.description": "Qwen 圖像生成模型(Max 系列)在真實感和視覺自然性方面相比 Plus 系列有顯著提升,有效減少 AI 生成的瑕疵,並在人物外觀、紋理細節和文本渲染方面表現出色。", + "qwen-image-plus.description": "支持多種藝術風格,特別擅長在圖像中渲染複雜文本,實現圖文一體化的佈局設計。", "qwen-image.description": "Qwen-Image 是一款通用圖像生成模型,支援多種藝術風格與強大的中英文複雜文字渲染能力。支援多行排版、段落級文字與複雜圖文細節。", "qwen-long.description": "超大型 Qwen 模型,具備長上下文處理能力,適用於長篇與多文件對話場景。", "qwen-math-plus-latest.description": "Qwen Math 是一款專門用於解決數學問題的語言模型。", @@ -1123,6 +1120,7 @@ "qwen3-coder-30b-a3b-instruct.description": "開源 Qwen 程式碼模型。最新的 qwen3-coder-30b-a3b-instruct 基於 Qwen3,具備強大的程式代理能力、工具使用與環境互動能力,支援自主編程,程式碼表現優異,通用能力穩健。", "qwen3-coder-480b-a35b-instruct.description": "Qwen3 Coder 480B A35B Instruct 是一款旗艦級程式碼模型,支援多語言編程與複雜程式理解。", "qwen3-coder-flash.description": "Qwen 程式碼模型。最新的 Qwen3-Coder 系列基於 Qwen3,具備強大的程式代理能力、工具使用與環境互動能力,支援自主編程,程式碼表現優異,通用能力穩健。", + "qwen3-coder-next.description": "下一代 Qwen 編碼器,針對複雜的多文件代碼生成、調試和高吞吐量代理工作流進行了優化。設計上強調工具集成和推理性能的提升。", "qwen3-coder-plus.description": "Qwen 程式碼模型。最新的 Qwen3-Coder 系列基於 Qwen3,具備強大的程式代理能力、工具使用與環境互動能力,支援自主編程,程式碼表現優異,通用能力穩健。", "qwen3-coder:480b.description": "阿里巴巴推出的高效能長上下文模型,適用於代理與程式任務。", "qwen3-max-2026-01-23.description": "Qwen3 Max 系列在通用能力、中英文理解、複雜指令執行、主觀開放任務、多語言能力與工具使用方面相較 2.5 系列有大幅提升,幻覺更少。最新版本在代理程式設計與工具使用方面優於 qwen3-max-preview,達到領域 SOTA,針對更複雜的代理需求而設計。", @@ -1141,6 +1139,8 @@ "qwen3-vl-8b-thinking.description": "Qwen3 VL 8B Thinking 是一款具備思維鏈能力的多模態模型,適用於細緻的視覺推理。", "qwen3-vl-flash.description": "Qwen3 VL Flash:輕量高速推理版本,適用於對延遲敏感或高頻請求場景。", "qwen3-vl-plus.description": "Qwen VL 是一款具備視覺理解能力的文字生成模型,能進行文字辨識(OCR)、摘要與推理,例如從商品圖片中提取屬性或解決圖像問題。", + "qwen3.5-397b-a17b.description": "支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 媲美,效率更高且成本更低。在多模態能力方面,與 Qwen3 VL 系列相比有顯著提升。", + "qwen3.5-plus.description": "Qwen3.5 Plus 支持文本、圖像和視頻輸入。對於僅文本任務,其性能可與 Qwen3 Max 媲美,同時提供更高的效率和更低的成本。在多模態能力方面,與 Qwen3 VL 系列相比有顯著提升。", "qwen3.description": "Qwen3 是阿里巴巴新一代大型語言模型,在多種應用場景中展現出強大效能。", "qwq-32b-preview.description": "QwQ 是 Qwen 的實驗性研究模型,專注於推理能力的提升。", "qwq-32b.description": "QwQ 是 Qwen 系列中的推理模型。相較於標準指令微調模型,它具備更強的思考與推理能力,顯著提升下游任務表現,特別是在處理複雜問題時。QwQ-32B 是中型推理模型,表現可媲美 DeepSeek-R1 與 o1-mini 等頂尖模型。", @@ -1149,6 +1149,7 @@ "qwq_32b.description": "Qwen 系列中的中型推理模型。相較於標準指令微調模型,QwQ 的思考與推理能力顯著提升下游任務表現,特別是在處理困難問題時。", "r1-1776.description": "R1-1776 是 DeepSeek R1 的後訓練版本,旨在提供未經審查、無偏見的事實資訊。", "seedance-1-5-pro-251215.description": "Seedance 1.5 Pro 由字節跳動開發,支援文字轉影片、圖像轉影片(首幀或首+尾幀)與視覺同步的音訊生成。", + "seedream-5-0-260128.description": "ByteDance-Seedream-5.0-lite 由 BytePlus 提供,具備網絡檢索增強生成功能,支持實時信息,增強了複雜提示解讀和專業視覺創作的參考一致性。", "solar-mini-ja.description": "Solar Mini (Ja) 是 Solar Mini 的日文強化版本,同時維持在英文與韓文上的高效能表現。", "solar-mini.description": "Solar Mini 是一款緊湊型大型語言模型,效能超越 GPT-3.5,具備強大的多語言能力,支援英文與韓文,提供高效能且佔用資源小的解決方案。", "solar-pro.description": "Solar Pro 是 Upstage 推出的高智慧大型語言模型,專注於單 GPU 上的指令遵循任務,IFEval 分數超過 80。目前支援英文,完整版本預計於 2024 年 11 月推出,將擴展語言支援與上下文長度。", @@ -1157,7 +1158,8 @@ "sonar-reasoning-pro.description": "進階搜尋產品,具備搜尋基礎能力,適用於處理複雜查詢與後續追問。", "sonar-reasoning.description": "進階搜尋產品,具備搜尋基礎能力,適用於處理複雜查詢與後續追問。", "sonar.description": "輕量級搜尋基礎產品,速度更快、成本更低,適合替代 Sonar Pro。", - "spark-x.description": "X1.5 更新內容:(1) 新增由 `thinking` 欄位控制的動態思考模式;(2) 支援 64K 輸入與 64K 輸出的大型上下文;(3) 支援 FunctionCall 功能。", + "sophnet/deepseek-v3.2.description": "DeepSeek V3.2 是一款在高計算效率與卓越推理和代理性能之間取得平衡的模型。", + "spark-x.description": "X2 功能概覽:1. 引入推理模式的動態調整,可通過 `thinking` 字段控制。2. 擴展上下文長度:64K 輸入 tokens 和 128K 輸出 tokens。3. 支持 Function Call 功能。", "stable-diffusion-3-medium.description": "Stability AI 最新的文字轉圖像模型。本版本大幅提升圖像品質、文字理解與風格多樣性,能更準確地解析複雜自然語言提示並生成精緻多樣的圖像。", "stable-diffusion-3.5-large-turbo.description": "stable-diffusion-3.5-large-turbo 將對抗擴散蒸餾(ADD)應用於 stable-diffusion-3.5-large,以提升生成速度。", "stable-diffusion-3.5-large.description": "stable-diffusion-3.5-large 是一款擁有 8 億參數的 MMDiT 文字轉圖像模型,具備優異的圖像品質與提示對齊能力,支援 1 百萬像素圖像,並可高效運行於消費級硬體。", @@ -1180,12 +1182,18 @@ "step-2-16k.description": "支援大上下文互動,適合複雜對話場景。", "step-2-mini.description": "基於新一代自研 MFA 注意力架構,提供類似 Step-1 的效能,成本更低、吞吐更高、延遲更低。具備強大程式能力,適用於通用任務。", "step-2x-large.description": "新一代 StepFun 圖像模型,專注於文字提示圖像生成,能產出高品質圖像,具備更真實的質感與更強的中英文文字渲染能力。", + "step-3.5-flash.description": "Stepfun 的旗艦語言推理模型。該模型提供頂級推理能力以及快速可靠的執行。它能分解和規劃複雜任務,快速可靠地調用工具執行,並在邏輯推理、數學、軟件工程、深度研究等高級任務中表現出色。上下文長度為 256K。", "step-3.description": "此模型具備強大的視覺感知與複雜推理能力,能準確處理跨領域知識理解、數學與視覺交叉分析,以及多種日常視覺分析任務。", "step-r1-v-mini.description": "具備強大圖像理解能力的推理模型,能處理圖像與文字,並在深度推理後生成文字。擅長視覺推理,在數學、程式碼與文字推理方面表現頂尖,支援 100K 上下文。", "stepfun-ai/step3.description": "Step3 是 StepFun 推出的尖端多模態推理模型,採用 MoE 架構,總參數 321B,啟用參數 38B。其端到端設計降低解碼成本,實現頂級視覺語言推理能力。透過 MFA 與 AFD 設計,在旗艦與低階加速器上皆具高效能。預訓練涵蓋超過 20 兆文字與 4 兆圖文資料,支援多語言,於數學、程式與多模態基準測試中表現領先。", - "taichu_llm.description": "基於海量高品質資料訓練,具備更強的文本理解、內容創作與對話問答能力。", - "taichu_o1.description": "taichu_o1 是新一代推理模型,透過多模態互動與強化學習實現類人思維鏈,支援複雜決策模擬,並在保持高準確輸出的同時揭示推理路徑,適用於策略分析與深度思考。", - "taichu_vl.description": "結合圖像理解、知識遷移與邏輯歸因,在圖文問答方面表現卓越。", + "taichu4_vl_2b_nothinking.description": "Taichu4.0-VL 2B 模型的無思考版本,具有較低的內存使用量、輕量化設計、快速響應速度和強大的多模態理解能力。", + "taichu4_vl_32b.description": "Taichu4.0-VL 32B 模型的思考版本,適用於複雜的多模態理解和推理任務,在多模態數學推理、多模態代理能力以及一般圖像和視覺理解方面表現出色。", + "taichu4_vl_32b_nothinking.description": "Taichu4.0-VL 32B 模型的無思考版本,專為複雜的圖像與文本理解和視覺知識問答場景設計,擅長圖像描述、視覺問答、視頻理解和視覺定位任務。", + "taichu4_vl_3b.description": "Taichu4.0-VL 3B 模型的思考版本,能高效執行多模態理解和推理任務,在視覺理解、視覺定位、OCR 識別及相關能力方面進行了全面升級。", + "taichu_llm.description": "紫東太初大語言模型是一款高性能文本生成模型,基於完全國產的全棧技術開發。通過對百億參數基礎模型的結構壓縮和任務特定優化,顯著增強了複雜文本理解和知識推理能力。它在長文檔分析、跨語言信息提取和知識約束生成等場景中表現出色。", + "taichu_llm_14b.description": "紫東太初大語言模型是一款高性能文本生成模型,基於完全國產的全棧技術開發。通過對百億參數基礎模型的結構壓縮和任務特定優化,顯著增強了複雜文本理解和知識推理能力。它在長文檔分析、跨語言信息提取和知識約束生成等場景中表現出色。", + "taichu_llm_2b.description": "紫東太初大語言模型是一款高性能文本生成模型,基於完全國產的全棧技術開發。通過對百億參數基礎模型的結構壓縮和任務特定優化,顯著增強了複雜文本理解和知識推理能力。它在長文檔分析、跨語言信息提取和知識約束生成等場景中表現出色。", + "taichu_o1.description": "taichu_o1 是一款下一代推理大模型,通過多模態交互和強化學習實現類人鏈式思維。它支持複雜的決策模擬,並在保持高精度輸出的同時,揭示可解釋的推理路徑。適用於策略分析、深度思考等場景。", "tencent/Hunyuan-A13B-Instruct.description": "Hunyuan-A13B-Instruct 採用總參數量 80B、啟用參數 13B 的架構,媲美更大型模型。支援快慢混合推理、穩定的長文本理解,並在 BFCL-v3 與 τ-Bench 上展現領先代理能力。GQA 與多量化格式實現高效推理。", "tencent/Hunyuan-MT-7B.description": "混元翻譯模型包含 Hunyuan-MT-7B 與集成模型 Hunyuan-MT-Chimera。Hunyuan-MT-7B 是一款輕量級 7B 翻譯模型,支援 33 種語言及 5 種中國少數民族語言。在 WMT25 中於 31 組語言對中獲得 30 項第一名。騰訊混元採用完整訓練流程,從預訓練到 SFT、翻譯強化學習與集成強化學習,在同級模型中表現領先,部署高效便捷。", "text-embedding-3-large.description": "目前最強大的英文與非英文任務嵌入模型。", @@ -1212,9 +1220,17 @@ "v0-1.5-md.description": "v0-1.5-md 適合日常任務與 UI 生成。", "vercel/v0-1.0-md.description": "存取 v0 背後的模型,以生成、修復與優化現代 Web 應用,具備框架特定推理與最新知識。", "vercel/v0-1.5-md.description": "存取 v0 背後的模型,以生成、修復與優化現代 Web 應用,具備框架特定推理與最新知識。", + "volcengine/doubao-seed-2-0-code.description": "Doubao-Seed-2.0-Code 面向企業級編程需求優化,在 Seed 2.0 優秀的 Agent、VLM 能力基礎上,特別增強了代碼能力,不僅前端能力表現出眾,也對企業常見的多語言編碼需求做了特別優化,適合接入各種 AI 編程工具使用。", + "volcengine/doubao-seed-2-0-lite.description": "兼顧生成質量與響應速度,適合作為通用生產級模型。", + "volcengine/doubao-seed-2-0-mini.description": "指向 doubao-seed-2-0-mini 最新版。", + "volcengine/doubao-seed-2-0-pro.description": "指向 doubao-seed-2-0-pro 最新版。", "volcengine/doubao-seed-code.description": "豆包 Seed Code 是字節跳動火山引擎推出的 LLM,針對代理式程式設計進行優化,在程式與代理基準上表現優異,支援 256K 上下文。", - "wan2.2-t2i-flash.description": "萬象 2.2 Speed 是最新模型,在創意、穩定性與寫實度方面全面升級,實現快速生成與高性價比。", - "wan2.2-t2i-plus.description": "萬象 2.2 Pro 是最新模型,在創意、穩定性與寫實度方面全面升級,生成細節更豐富。", + "wan2.2-t2i-flash.description": "萬象 2.2 Flash 是最新模型,在創意、穩定性和真實感方面進行了升級,提供快速生成和高價值。", + "wan2.2-t2i-plus.description": "萬象 2.2 Plus 是最新模型,在創意、穩定性和真實感方面進行了升級,生成更豐富的細節。", + "wan2.5-i2i-preview.description": "萬象 2.5 I2I Preview 支持單圖編輯和多圖融合。", + "wan2.5-t2i-preview.description": "萬象 2.5 T2I 支持在總像素面積和長寬比限制內靈活選擇圖像尺寸。", + "wan2.6-image.description": "萬象 2.6 Image 支持圖像編輯和混合圖文佈局輸出。", + "wan2.6-t2i.description": "萬象 2.6 T2I 支持在總像素面積和長寬比限制內靈活選擇圖像尺寸(與萬象 2.5 相同)。", "wanx-v1.description": "基礎文字轉圖像模型。對應通義萬象 1.0 通用版。", "wanx2.0-t2i-turbo.description": "擅長紋理人像,速度適中、成本較低。對應通義萬象 2.0 Speed。", "wanx2.1-t2i-plus.description": "全面升級版本,圖像細節更豐富,速度略慢。對應通義萬象 2.1 Pro。", @@ -1228,6 +1244,7 @@ "x-ai/grok-4.1-fast.description": "Grok 4.1 Fast 是 xAI 推出的高吞吐、低成本模型(支援 2M 上下文),適用於高併發與長上下文應用場景。", "x-ai/grok-4.description": "Grok 4 是 xAI 的旗艦推理模型,具備強大的推理與多模態能力。", "x-ai/grok-code-fast-1.description": "Grok Code Fast 1 是 xAI 推出的快速程式碼模型,輸出可讀性高,適合工程應用。", + "x1.description": "X1.5 更新:1. 添加了通過 `thinking` 字段控制的動態思考模式;2. 更大的上下文長度,支持 64K 輸入和 64K 輸出;3. 支持 FunctionCall。", "xai/grok-2-vision.description": "Grok 2 Vision 擅長視覺任務,在視覺數學推理(MathVista)與文件問答(DocVQA)上表現領先。可處理文件、圖表、截圖與照片。", "xai/grok-2.description": "Grok 2 是前沿模型,具備最先進的推理能力,擅長聊天、編碼與推理,在 LMSYS 排名中超越 Claude 3.5 Sonnet 與 GPT-4 Turbo。", "xai/grok-3-fast.description": "xAI 的旗艦模型,擅長企業應用如資料擷取、編碼與摘要,具備金融、醫療、法律與科學等領域的深度知識。快速版本運行於更快基礎設施,回應速度更快但每字成本較高。", @@ -1251,7 +1268,9 @@ "z-ai/glm-4.5.description": "GLM 4.5 是 Z.AI 的旗艦模型,採用混合推理設計,針對工程與長上下文任務進行優化。", "z-ai/glm-4.6.description": "GLM 4.6 是 Z.AI 的旗艦模型,擴展上下文長度並增強編碼能力。", "z-ai/glm-4.7.description": "GLM-4.7 是智譜最新旗艦模型,具備更強通用能力、回應更自然簡潔,並提供更具沉浸感的寫作體驗。", - "z-ai/glm5.description": "來自 Z.ai 的強大推理與代理模型,擁有 744B 總參數(40B 激活),專為複雜系統工程和長周期任務設計。", + "z-ai/glm4.7.description": "GLM-4.7 是智譜最新的旗艦模型,針對代理編碼場景進行了增強,提升了編碼能力。", + "z-ai/glm5.description": "GLM-5 是智譜 AI 的新一代旗艦基礎模型,在編碼和代理能力方面實現了開源 SOTA 性能,與 Claude Opus 4.5 的性能相當。", + "z-image-turbo.description": "Z-Image 是一款輕量級文本生成圖像模型,能快速生成圖像,支持中英文文本渲染,並靈活適應多種分辨率和長寬比。", "zai-org/GLM-4.5-Air.description": "GLM-4.5-Air 是一款基於專家混合架構的代理應用基礎模型,針對工具使用、網頁瀏覽、軟體工程與前端編碼進行優化,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。", "zai-org/GLM-4.5.description": "GLM-4.5 是一款基於專家混合架構的代理應用基礎模型,深度優化工具使用、網頁瀏覽、軟體工程與前端編碼,並可與 Claude Code、Roo Code 等程式代理整合。採用混合推理處理複雜與日常任務。", "zai-org/GLM-4.5V.description": "GLM-4.5V 是智譜 AI 最新 VLM,基於 GLM-4.5-Air 旗艦文本模型(總參數 106B,啟用 12B),採用 MoE 架構,在成本較低的情況下提供強大效能。延續 GLM-4.1V-Thinking 路線,加入 3D-RoPE 提升三維空間推理能力。透過預訓練、SFT 與強化學習優化,支援圖像、影片與長文檔,在 41 項公開多模態基準中名列前茅。提供「思考模式」切換,讓用戶在速度與深度間取得平衡。", diff --git a/locales/zh-TW/plugin.json b/locales/zh-TW/plugin.json index 7f301a21b7..a6030af4f4 100644 --- a/locales/zh-TW/plugin.json +++ b/locales/zh-TW/plugin.json @@ -170,6 +170,19 @@ "builtins.lobe-page-agent.apiName.updateNode": "更新節點", "builtins.lobe-page-agent.apiName.wrapNodes": "包裝節點", "builtins.lobe-page-agent.title": "文件", + "builtins.lobe-skill-store.apiName.importFromMarket": "從市場匯入", + "builtins.lobe-skill-store.apiName.importSkill": "匯入技能", + "builtins.lobe-skill-store.apiName.searchSkill": "搜尋技能", + "builtins.lobe-skill-store.title": "技能商店", + "builtins.lobe-skills.apiName.execScript": "執行腳本", + "builtins.lobe-skills.apiName.exportFile": "匯出檔案", + "builtins.lobe-skills.apiName.importFromMarket": "從市場匯入", + "builtins.lobe-skills.apiName.importSkill": "匯入技能", + "builtins.lobe-skills.apiName.readReference": "閱讀參考", + "builtins.lobe-skills.apiName.runSkill": "啟用技能", + "builtins.lobe-skills.apiName.searchSkill": "搜尋技能", + "builtins.lobe-skills.title": "技能", + "builtins.lobe-tools.apiName.activateTools": "啟用工具", "builtins.lobe-user-memory.apiName.addContextMemory": "新增情境記憶", "builtins.lobe-user-memory.apiName.addExperienceMemory": "新增經驗記憶", "builtins.lobe-user-memory.apiName.addIdentityMemory": "新增身份記憶", @@ -189,6 +202,7 @@ "builtins.lobe-web-browsing.title": "網路搜尋", "confirm": "確定", "debug.arguments": "調用參數", + "debug.error": "錯誤日誌", "debug.function_call": "函數調用", "debug.intervention": "技能介入", "debug.off": "關閉調試", @@ -321,8 +335,8 @@ "dev.saveSuccess": "插件設定保存成功", "dev.tabs.manifest": "功能描述清單 (Manifest)", "dev.tabs.meta": "插件元信息", - "dev.title.create": "添加自定義插件", - "dev.title.edit": "編輯自定義插件", + "dev.title.create": "新增自訂MCP技能", + "dev.title.edit": "編輯自訂MCP技能", "dev.title.editCommunity": "編輯社群技能", "dev.title.skillDetails": "技能詳情", "dev.title.skillSettings": "技能設定", diff --git a/locales/zh-TW/providers.json b/locales/zh-TW/providers.json index 7a5d9f6960..cdd59f6a3e 100644 --- a/locales/zh-TW/providers.json +++ b/locales/zh-TW/providers.json @@ -54,6 +54,7 @@ "siliconcloud.description": "SiliconCloud 是一個具成本效益的生成式 AI 雲端服務,基於強大的開源基礎模型構建。", "spark.description": "科大訊飛星火提供強大的多語言 AI 能力,推動智慧硬體、醫療、金融等垂直領域的創新。", "stepfun.description": "Stepfun 模型具備領先的多模態與複雜推理能力,支援長文本理解與強大的自主搜尋編排。", + "straico.description": "Straico 簡化了 AI 的整合,提供一個統一的工作空間,將頂尖的文字、圖像和音頻生成 AI 模型匯聚一處,為行銷人員、企業家和愛好者提供便捷的多元 AI 工具使用體驗。", "taichu.description": "太初是中科院自動化所與武漢人工智慧研究院推出的新一代多模態模型,支援多輪問答、寫作、圖像生成、3D 理解與訊號分析,具備更強的認知與創造力。", "tencentcloud.description": "騰訊雲 LLM 知識引擎原子能力為企業與開發者提供端到端的知識問答服務,包含文件解析、分段、嵌入與多輪重寫等模組化服務,打造客製化 AI 解決方案。", "togetherai.description": "Together AI 提供領先效能的創新模型,支援廣泛自訂、快速擴展與簡易部署,滿足企業需求。", diff --git a/locales/zh-TW/setting.json b/locales/zh-TW/setting.json index d8721d5e09..c511880977 100644 --- a/locales/zh-TW/setting.json +++ b/locales/zh-TW/setting.json @@ -129,6 +129,42 @@ "agentInfoDescription.role.title": "角色設定", "agentInfoDescription.value.unset": "未設定", "agentInfoDescription.value.untitled": "未命名助手", + "agentSkillDetail.addedAt": "新增於", + "agentSkillDetail.publishedAt": "發布於", + "agentSkillDetail.repository": "GitHub 儲存庫", + "agentSkillDetail.skillContent": "技能內容", + "agentSkillDetail.sourceUrl": "技能匯入來源", + "agentSkillDetail.updatedAt": "更新於", + "agentSkillEdit.descriptionDesc": "技能的簡要摘要,幫助代理了解何時使用", + "agentSkillEdit.fileReadonly": "此檔案為唯讀。僅能編輯技能描述和指示。", + "agentSkillEdit.instructions": "指示", + "agentSkillEdit.instructionsDesc": "以 Markdown 格式定義技能行為和工作流程的核心指示", + "agentSkillEdit.instructionsPlaceholder": "輸入技能指示,使用 Markdown 格式...", + "agentSkillEdit.nameDesc": "此技能的唯一識別碼,創建後無法編輯", + "agentSkillEdit.saveSuccess": "技能更新成功", + "agentSkillEdit.title": "技能設定", + "agentSkillItem.deleteConfirm.desc": "您確定要刪除代理技能「{{name}}」嗎?此操作無法撤銷。", + "agentSkillItem.deleteConfirm.title": "刪除代理技能", + "agentSkillModal.content": "技能內容", + "agentSkillModal.contentPlaceholder": "輸入技能內容,使用 Markdown 格式...", + "agentSkillModal.description": "描述", + "agentSkillModal.descriptionPlaceholder": "簡要描述此技能", + "agentSkillModal.github.desc": "直接從公開的 GitHub 儲存庫匯入技能。", + "agentSkillModal.github.title": "從 GitHub 匯入", + "agentSkillModal.github.urlPlaceholder": "https://github.com/username/repo", + "agentSkillModal.importError": "匯入失敗:{{error}}", + "agentSkillModal.importSuccess": "代理技能匯入成功", + "agentSkillModal.upload.desc": "上傳本地 .zip 或 .skill 檔案以安裝。", + "agentSkillModal.upload.dragText": "拖放或點擊以上傳", + "agentSkillModal.upload.requirementSkillMd": "SKILL.md 包含以 YAML 格式撰寫的技能名稱和描述", + "agentSkillModal.upload.requirementZip": "包含根目錄中有 SKILL.md 的 .zip 或 .skill 檔案", + "agentSkillModal.upload.requirements": "檔案要求", + "agentSkillModal.upload.title": "上傳技能", + "agentSkillModal.upload.uploading": "上傳中...", + "agentSkillModal.url.desc": "提供 SKILL.md 檔案的直接連結以匯入技能。", + "agentSkillModal.url.title": "從 URL 匯入", + "agentSkillModal.url.urlPlaceholder": "https://example.com/path/to/SKILL.md", + "agentSkillTag": "代理技能", "agentTab.chat": "聊天偏好", "agentTab.meta": "助手資訊", "agentTab.modal": "模型設定", @@ -643,6 +679,9 @@ "systemAgent.translation.modelDesc": "指定用於翻譯的模型", "systemAgent.translation.title": "訊息內容翻譯助手", "tab.about": "關於", + "tab.addAgentSkill": "新增代理技能", + "tab.addCustomMcp": "新增自訂 MCP 技能", + "tab.addCustomMcp.desc": "手動配置自訂 MCP 伺服器", "tab.addCustomSkill": "新增自訂技能", "tab.agent": "默認助手", "tab.all": "全部", @@ -652,7 +691,13 @@ "tab.experiment": "實驗", "tab.hotkey": "快速鍵", "tab.image": "繪圖服務", + "tab.importFromGithub": "從 GitHub 匯入", + "tab.importFromGithub.desc": "從公開的 GitHub 儲存庫匯入", + "tab.importFromUrl": "從 URL 匯入", + "tab.importFromUrl.desc": "透過 SKILL.md 的直接連結匯入", "tab.llm": "語言模型", + "tab.manualFill": "手動填寫", + "tab.manualFill.desc": "手動配置自訂 MCP 技能", "tab.memory": "記憶設定", "tab.profile": "我的帳號", "tab.provider": "AI 服務商", @@ -669,6 +714,8 @@ "tab.sync": "雲端同步", "tab.systemTools": "系統工具", "tab.tts": "語音服務", + "tab.uploadZip": "上傳壓縮檔", + "tab.uploadZip.desc": "上傳本地 .zip 或 .skill 檔案", "tab.usage": "使用量統計", "tools.add": "整合外掛", "tools.builtins.groupName": "內置", diff --git a/packages/model-bank/src/aiModels/lobehub/chat/google.ts b/packages/model-bank/src/aiModels/lobehub/chat/google.ts index b37e079a0a..fd636f574e 100644 --- a/packages/model-bank/src/aiModels/lobehub/chat/google.ts +++ b/packages/model-bank/src/aiModels/lobehub/chat/google.ts @@ -253,6 +253,35 @@ export const googleChatModels: AIChatModelCard[] = [ }, type: 'chat', }, + { + abilities: { + imageOutput: true, + reasoning: true, + search: true, + vision: true, + }, + contextWindowTokens: 131_072 + 32_768, + description: + 'Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.', + displayName: '🍌 Nano Banana 2', + enabled: true, + id: 'gemini-3.1-flash-image-preview', + maxOutput: 32_768, + pricing: { + approximatePricePerImage: 0.067, + units: [ + { name: 'imageOutput', rate: 60, strategy: 'fixed', unit: 'millionTokens' }, + { name: 'textInput', rate: 0.25, strategy: 'fixed', unit: 'millionTokens' }, + { name: 'textOutput', rate: 1.5, strategy: 'fixed', unit: 'millionTokens' }, + ], + }, + releasedAt: '2026-02-26', + settings: { + searchImpl: 'params', + searchProvider: 'google', + }, + type: 'chat', + }, { abilities: { imageOutput: true, @@ -263,7 +292,7 @@ export const googleChatModels: AIChatModelCard[] = [ contextWindowTokens: 131_072 + 32_768, description: "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.", - displayName: 'Nano Banana Pro', + displayName: '🍌 Nano Banana Pro', enabled: true, id: 'gemini-3-pro-image-preview', maxOutput: 32_768, @@ -289,7 +318,7 @@ export const googleChatModels: AIChatModelCard[] = [ contextWindowTokens: 32_768 + 32_768, description: "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", - displayName: 'Nano Banana', + displayName: '🍌 Nano Banana', id: 'gemini-2.5-flash-image-preview', maxOutput: 32_768, pricing: { diff --git a/packages/model-bank/src/aiModels/lobehub/image.ts b/packages/model-bank/src/aiModels/lobehub/image.ts index df5cf09a54..c08997f144 100644 --- a/packages/model-bank/src/aiModels/lobehub/image.ts +++ b/packages/model-bank/src/aiModels/lobehub/image.ts @@ -3,15 +3,34 @@ import { huanyuanImageParamsSchema, qwenEditParamsSchema, qwenImageParamsSchema import { gptImage1Schema, imagenBaseParameters, + nanoBanana2Parameters, nanoBananaParameters, nanoBananaProParameters, } from './utils'; export const lobehubImageModels: AIImageModelCard[] = [ + { + description: + 'Gemini 3.1 Flash Image (Nano Banana 2) delivers Pro-level image quality at Flash speed with multimodal chat support.', + displayName: '🍌 Nano Banana 2', + enabled: true, + id: 'gemini-3.1-flash-image-preview:image', + parameters: nanoBanana2Parameters, + pricing: { + approximatePricePerImage: 0.067, + units: [ + { name: 'imageOutput', rate: 60, strategy: 'fixed', unit: 'millionTokens' }, + { name: 'textInput', rate: 0.25, strategy: 'fixed', unit: 'millionTokens' }, + { name: 'textOutput', rate: 1.5, strategy: 'fixed', unit: 'millionTokens' }, + ], + }, + releasedAt: '2026-02-26', + type: 'image', + }, { description: "Gemini 3 Pro Image (Nano Banana Pro) is Google's image generation model and also supports multimodal chat.", - displayName: 'Nano Banana Pro', + displayName: '🍌 Nano Banana Pro', enabled: true, id: 'gemini-3-pro-image-preview:image', parameters: nanoBananaProParameters, @@ -29,7 +48,7 @@ export const lobehubImageModels: AIImageModelCard[] = [ { description: "Nano Banana is Google's newest, fastest, and most efficient native multimodal model, enabling conversational image generation and editing.", - displayName: 'Nano Banana', + displayName: '🍌 Nano Banana', id: 'gemini-2.5-flash-image-preview:image', parameters: nanoBananaParameters, pricing: { diff --git a/packages/model-bank/src/aiModels/lobehub/utils.ts b/packages/model-bank/src/aiModels/lobehub/utils.ts index 4346909f23..4f8132d83d 100644 --- a/packages/model-bank/src/aiModels/lobehub/utils.ts +++ b/packages/model-bank/src/aiModels/lobehub/utils.ts @@ -48,6 +48,29 @@ export const nanoBananaProParameters: ModelParamsSchema = { }, }; +export const NANO_BANANA_2_ASPECT_RATIOS = [ + ...NANO_BANANA_ASPECT_RATIOS, + '1:4', + '4:1', + '1:8', + '8:1', +]; + +export const nanoBanana2Parameters: ModelParamsSchema = { + aspectRatio: { + default: '1:1', + enum: NANO_BANANA_2_ASPECT_RATIOS, + }, + imageUrls: { + default: [], + }, + prompt: { default: '' }, + resolution: { + default: '1K', + enum: ['0.5K', '1K', '2K', '4K'], + }, +}; + export const gptImage1Schema = { imageUrls: { default: [], maxCount: 1, maxFileSize: 5 }, prompt: { default: '' }, diff --git a/packages/model-runtime/src/providers/google/index.ts b/packages/model-runtime/src/providers/google/index.ts index 58b12c48de..64ec6ef3cf 100644 --- a/packages/model-runtime/src/providers/google/index.ts +++ b/packages/model-runtime/src/providers/google/index.ts @@ -40,6 +40,7 @@ const modelsWithModalities = new Set([ 'gemini-2.5-flash-image-preview', 'gemini-2.5-flash-image', 'gemini-3-pro-image-preview', + 'gemini-3.1-flash-image-preview', 'nano-banana-pro-preview', ]); diff --git a/packages/model-runtime/src/utils/modelParse.test.ts b/packages/model-runtime/src/utils/modelParse.test.ts index 29000bafda..10c1650010 100644 --- a/packages/model-runtime/src/utils/modelParse.test.ts +++ b/packages/model-runtime/src/utils/modelParse.test.ts @@ -1079,7 +1079,7 @@ describe('modelParse', () => { // First model should have "Nano Banana" as displayName const geminiModel = result.find((m) => m.id === 'gemini-2.5-flash-image-preview'); - expect(geminiModel?.displayName).toBe('Nano Banana'); + expect(geminiModel?.displayName).toBe('🍌 Nano Banana'); // Second model should keep original displayName const otherModel = result.find((m) => m.id === 'some-other-model'); @@ -1087,11 +1087,11 @@ describe('modelParse', () => { // Third model (partial match) should replace only the matching part const partialModel = result.find((m) => m.id === 'partial-gemini-model'); - expect(partialModel?.displayName).toBe('Custom Nano Banana Enhanced'); + expect(partialModel?.displayName).toBe('Custom 🍌 Nano Banana Enhanced'); // Fourth model should preserve the (free) suffix const freeModel = result.find((m) => m.id === 'gemini-free-model'); - expect(freeModel?.displayName).toBe('Nano Banana (free)'); + expect(freeModel?.displayName).toBe('🍌 Nano Banana (free)'); }); it('should keep original displayName when not matching Gemini 2.5 Flash Image Preview', async () => { diff --git a/packages/model-runtime/src/utils/modelParse.ts b/packages/model-runtime/src/utils/modelParse.ts index c7d40c193c..2c4540d4e6 100644 --- a/packages/model-runtime/src/utils/modelParse.ts +++ b/packages/model-runtime/src/utils/modelParse.ts @@ -1,7 +1,7 @@ -import { type ChatModelCard } from '@lobechat/types'; -import { type AIBaseModelCard, type AiModelSettings, type ExtendParamsType } from 'model-bank'; +import { type ChatModelCard } from '@lobechat/types'; +import { type AIBaseModelCard, type AiModelSettings, type ExtendParamsType } from 'model-bank'; -import { type ModelProviderKey } from '../types'; +import { type ModelProviderKey } from '../types'; export interface ModelProcessorConfig { excludeKeywords?: readonly string[]; // Do not add tags to models that match @@ -336,9 +336,13 @@ const processReleasedAt = (model: any, knownModel?: any): string | undefined => * @returns Processed display name */ const processDisplayName = (displayName: string): string => { + if (displayName.includes('Gemini 3.1 Flash Image Preview')) { + return displayName.replace('Gemini 3.1 Flash Image Preview', '🍌 Nano Banana 2'); + } + // If it contains "Gemini 2.5 Flash Image Preview", replace the corresponding part with "Nano Banana" if (displayName.includes('Gemini 2.5 Flash Image Preview')) { - return displayName.replace('Gemini 2.5 Flash Image Preview', 'Nano Banana'); + return displayName.replace('Gemini 2.5 Flash Image Preview', '🍌 Nano Banana'); } return displayName; diff --git a/packages/model-runtime/src/utils/postProcessModelList.ts b/packages/model-runtime/src/utils/postProcessModelList.ts index 93f640a551..7e7fd63be8 100644 --- a/packages/model-runtime/src/utils/postProcessModelList.ts +++ b/packages/model-runtime/src/utils/postProcessModelList.ts @@ -9,6 +9,8 @@ export const IMAGE_GENERATION_MODEL_WHITELIST = [ 'gemini-2.5-flash-image-preview:free', 'gemini-3-pro-image-preview', 'gemini-3-pro-image-preview:free', + 'gemini-3.1-flash-image-preview', + 'gemini-3.1-flash-image-preview:free', // More models can be added in the future ] as const; diff --git a/packages/model-runtime/src/utils/uriParser.test.ts b/packages/model-runtime/src/utils/uriParser.test.ts index 575e7827ce..b1296d9788 100644 --- a/packages/model-runtime/src/utils/uriParser.test.ts +++ b/packages/model-runtime/src/utils/uriParser.test.ts @@ -26,4 +26,35 @@ describe('parseDataUri', () => { const result = parseDataUri(emptyInput); expect(result).toEqual({ base64: null, mimeType: null, type: null }); }); + + it('should handle data URI with additional parameters before base64 marker', () => { + const dataUri = 'data:image/png;charset=utf-8;base64,abc123'; + const result = parseDataUri(dataUri); + expect(result).toEqual({ + base64: 'abc123', + mimeType: 'image/png;charset=utf-8', + type: 'base64', + }); + }); + + it('should handle data URI without MIME type', () => { + const dataUri = 'data:;base64,abc'; + const result = parseDataUri(dataUri); + // No MIME type between "data:" and ";base64," should fail + expect(result).toEqual({ base64: null, mimeType: null, type: 'url' }); + }); + + it('should handle data URI with empty base64 content', () => { + const dataUri = 'data:image/png;base64,'; + const result = parseDataUri(dataUri); + expect(result).toEqual({ base64: null, mimeType: null, type: 'url' }); + }); + + it('should handle large data URIs without stack overflow', () => { + // Simulate a ~26MB data URI similar to what Nano Banana 2 generates + const largePadding = 'A'.repeat(1_000_000); + const dataUri = `data:image/png;base64,${largePadding}`; + const result = parseDataUri(dataUri); + expect(result).toEqual({ base64: largePadding, mimeType: 'image/png', type: 'base64' }); + }); }); diff --git a/packages/model-runtime/src/utils/uriParser.ts b/packages/model-runtime/src/utils/uriParser.ts index bc9d9722e6..3af60e53a0 100644 --- a/packages/model-runtime/src/utils/uriParser.ts +++ b/packages/model-runtime/src/utils/uriParser.ts @@ -5,12 +5,19 @@ interface UriParserResult { } export const parseDataUri = (dataUri: string): UriParserResult => { - // Regular expression to match the entire Data URI structure - const dataUriMatch = dataUri.match(/^data:([^;]+);base64,(.+)$/); + // Use indexOf instead of regex to avoid stack overflow on large data URIs (e.g. 26MB+ base64 images) + const DATA_PREFIX = 'data:'; + const BASE64_MARKER = ';base64,'; - if (dataUriMatch) { - // If it's a valid Data URI - return { base64: dataUriMatch[2], mimeType: dataUriMatch[1], type: 'base64' }; + if (dataUri.startsWith(DATA_PREFIX)) { + const markerIndex = dataUri.indexOf(BASE64_MARKER); + if (markerIndex > DATA_PREFIX.length) { + const mimeType = dataUri.slice(DATA_PREFIX.length, markerIndex); + const base64 = dataUri.slice(markerIndex + BASE64_MARKER.length); + if (base64.length > 0) { + return { base64, mimeType, type: 'base64' }; + } + } } try { diff --git a/packages/utils/src/uriParser.test.ts b/packages/utils/src/uriParser.test.ts index 575e7827ce..b1296d9788 100644 --- a/packages/utils/src/uriParser.test.ts +++ b/packages/utils/src/uriParser.test.ts @@ -26,4 +26,35 @@ describe('parseDataUri', () => { const result = parseDataUri(emptyInput); expect(result).toEqual({ base64: null, mimeType: null, type: null }); }); + + it('should handle data URI with additional parameters before base64 marker', () => { + const dataUri = 'data:image/png;charset=utf-8;base64,abc123'; + const result = parseDataUri(dataUri); + expect(result).toEqual({ + base64: 'abc123', + mimeType: 'image/png;charset=utf-8', + type: 'base64', + }); + }); + + it('should handle data URI without MIME type', () => { + const dataUri = 'data:;base64,abc'; + const result = parseDataUri(dataUri); + // No MIME type between "data:" and ";base64," should fail + expect(result).toEqual({ base64: null, mimeType: null, type: 'url' }); + }); + + it('should handle data URI with empty base64 content', () => { + const dataUri = 'data:image/png;base64,'; + const result = parseDataUri(dataUri); + expect(result).toEqual({ base64: null, mimeType: null, type: 'url' }); + }); + + it('should handle large data URIs without stack overflow', () => { + // Simulate a ~26MB data URI similar to what Nano Banana 2 generates + const largePadding = 'A'.repeat(1_000_000); + const dataUri = `data:image/png;base64,${largePadding}`; + const result = parseDataUri(dataUri); + expect(result).toEqual({ base64: largePadding, mimeType: 'image/png', type: 'base64' }); + }); }); diff --git a/packages/utils/src/uriParser.ts b/packages/utils/src/uriParser.ts index bc9d9722e6..3af60e53a0 100644 --- a/packages/utils/src/uriParser.ts +++ b/packages/utils/src/uriParser.ts @@ -5,12 +5,19 @@ interface UriParserResult { } export const parseDataUri = (dataUri: string): UriParserResult => { - // Regular expression to match the entire Data URI structure - const dataUriMatch = dataUri.match(/^data:([^;]+);base64,(.+)$/); + // Use indexOf instead of regex to avoid stack overflow on large data URIs (e.g. 26MB+ base64 images) + const DATA_PREFIX = 'data:'; + const BASE64_MARKER = ';base64,'; - if (dataUriMatch) { - // If it's a valid Data URI - return { base64: dataUriMatch[2], mimeType: dataUriMatch[1], type: 'base64' }; + if (dataUri.startsWith(DATA_PREFIX)) { + const markerIndex = dataUri.indexOf(BASE64_MARKER); + if (markerIndex > DATA_PREFIX.length) { + const mimeType = dataUri.slice(DATA_PREFIX.length, markerIndex); + const base64 = dataUri.slice(markerIndex + BASE64_MARKER.length); + if (base64.length > 0) { + return { base64, mimeType, type: 'base64' }; + } + } } try { diff --git a/src/app/[variants]/(main)/home/_layout/Header/components/Nav.tsx b/src/app/[variants]/(main)/home/_layout/Header/components/Nav.tsx index b2da62addd..54a611d74d 100644 --- a/src/app/[variants]/(main)/home/_layout/Header/components/Nav.tsx +++ b/src/app/[variants]/(main)/home/_layout/Header/components/Nav.tsx @@ -62,7 +62,6 @@ const Nav = memo(() => { { hidden: !enableBusinessFeatures, icon: getRouteById('video')!.icon, - isNew: true, key: SidebarTabKey.Video, title: t('tab.video'), url: '/video', diff --git a/src/app/[variants]/(main)/home/features/InputArea/StarterList.tsx b/src/app/[variants]/(main)/home/features/InputArea/StarterList.tsx index 8e99b19cf1..8948bc6fb7 100644 --- a/src/app/[variants]/(main)/home/features/InputArea/StarterList.tsx +++ b/src/app/[variants]/(main)/home/features/InputArea/StarterList.tsx @@ -34,7 +34,8 @@ type StarterTitleKey = | 'starter.createGroup' | 'starter.write' | 'starter.seedance' - | 'starter.deepResearch'; + | 'starter.deepResearch' + | 'starter.nanoBanana2'; interface StarterItem { disabled?: boolean; @@ -74,6 +75,10 @@ const StarterList = memo(() => { key: 'write', titleKey: 'starter.write', }, + { + key: 'image', + titleKey: 'starter.nanoBanana2', + }, // { // hot: true, // icon: VideoIcon, @@ -97,6 +102,11 @@ const StarterList = memo(() => { return; } + if (key === 'image') { + navigate?.('/image?model=gemini-3.1-flash-image-preview:image'); + return; + } + // Toggle mode: if clicking the active mode, clear it; otherwise set it if (inputActiveMode === key) { setInputActiveMode(null); @@ -104,7 +114,7 @@ const StarterList = memo(() => { setInputActiveMode(key); } }, - [inputActiveMode, setInputActiveMode], + [inputActiveMode, setInputActiveMode, navigate], ); return ( diff --git a/src/app/[variants]/(main)/image/features/PromptInput/index.tsx b/src/app/[variants]/(main)/image/features/PromptInput/index.tsx index cadf2555c8..4ddfda64fe 100644 --- a/src/app/[variants]/(main)/image/features/PromptInput/index.tsx +++ b/src/app/[variants]/(main)/image/features/PromptInput/index.tsx @@ -9,13 +9,12 @@ import { useEffect, useRef } from 'react'; import { useTranslation } from 'react-i18next'; import { loginRequired } from '@/components/Error/loginRequiredNotification'; -import { useGeminiChineseWarning } from '@/hooks/useGeminiChineseWarning'; import { useIsDark } from '@/hooks/useIsDark'; import { useQueryState } from '@/hooks/useQueryParam'; +import { aiProviderSelectors, useAiInfraStore } from '@/store/aiInfra'; import { useImageStore } from '@/store/image'; import { createImageSelectors } from '@/store/image/selectors'; import { useGenerationConfigParam } from '@/store/image/slices/generationConfig/hooks'; -import { imageGenerationConfigSelectors } from '@/store/image/slices/generationConfig/selectors'; import { useUserStore } from '@/store/user'; import { authSelectors } from '@/store/user/slices/auth/selectors'; @@ -47,31 +46,46 @@ const PromptInput = ({ showTitle = false }: PromptInputProps) => { const { value, setValue } = useGenerationConfigParam('prompt'); const isCreating = useImageStore(createImageSelectors.isCreating); const createImage = useImageStore((s) => s.createImage); - const currentModel = useImageStore(imageGenerationConfigSelectors.model); + const setModelAndProviderOnSelect = useImageStore((s) => s.setModelAndProviderOnSelect); + const isInit = useImageStore((s) => s.isInit); const isLogin = useUserStore(authSelectors.isLogin); - const checkGeminiChineseWarning = useGeminiChineseWarning(); + const enabledImageModelList = useAiInfraStore(aiProviderSelectors.enabledImageModelList); // Read prompt from query parameter const [promptParam, setPromptParam] = useQueryState('prompt'); + // Read model from query parameter + const [modelParam, setModelParam] = useQueryState('model'); const hasProcessedPrompt = useRef(false); + const hasProcessedModel = useRef(false); const handleGenerate = async () => { if (!isLogin) { loginRequired.redirect({ timeout: 2000 }); return; } - // Check for Chinese text warning with Gemini model - const shouldContinue = await checkGeminiChineseWarning({ - model: currentModel, - prompt: value, - scenario: 'image', - }); - - if (!shouldContinue) return; await createImage(); }; + // Auto-select model when model query parameter is present + useEffect(() => { + if (modelParam && !hasProcessedModel.current && isInit) { + const targetModel = modelParam; + + // Find the provider for this model from enabledImageModelList + for (const providerGroup of enabledImageModelList) { + const found = providerGroup.children.some((m) => m.id === targetModel); + if (found) { + setModelAndProviderOnSelect(targetModel, providerGroup.id); + break; + } + } + + hasProcessedModel.current = true; + setModelParam(null); + } + }, [modelParam, isInit, enabledImageModelList, setModelAndProviderOnSelect, setModelParam]); + // Auto-fill and auto-send when prompt query parameter is present useEffect(() => { if (promptParam && !hasProcessedPrompt.current && isLogin) { @@ -89,26 +103,10 @@ const PromptInput = ({ showTitle = false }: PromptInputProps) => { // Auto-trigger generation after a short delay to ensure state is updated setTimeout(async () => { - const shouldContinue = await checkGeminiChineseWarning({ - model: currentModel, - prompt: decodedPrompt, - scenario: 'image', - }); - - if (shouldContinue) { - await createImage(); - } + await createImage(); }, 100); } - }, [ - promptParam, - isLogin, - setValue, - setPromptParam, - checkGeminiChineseWarning, - currentModel, - createImage, - ]); + }, [promptParam, isLogin, setValue, setPromptParam, createImage]); const handleKeyDown = (e: KeyboardEvent) => { if (e.key === 'Enter' && !e.shiftKey && !e.nativeEvent.isComposing) { diff --git a/src/hooks/useGeminiChineseWarning.tsx b/src/hooks/useGeminiChineseWarning.tsx deleted file mode 100644 index 494f06356c..0000000000 --- a/src/hooks/useGeminiChineseWarning.tsx +++ /dev/null @@ -1,92 +0,0 @@ -import { containsChinese } from '@lobechat/utils'; -import { Checkbox } from '@lobehub/ui'; -import { App } from 'antd'; -import React, { useCallback } from 'react'; -import { useTranslation } from 'react-i18next'; - -import { useGlobalStore } from '@/store/global'; -import { systemStatusSelectors } from '@/store/global/selectors'; - -const shouldShowChineseWarning = ( - model: string, - prompt: string, - hasWarningBeenDismissed: boolean, -): boolean => { - return ( - model.includes('gemini-2.5-flash-image-preview') && - !hasWarningBeenDismissed && - Boolean(prompt) && - containsChinese(prompt) - ); -}; - -interface UseGeminiChineseWarningOptions { - model: string; - prompt: string; - scenario?: 'chat' | 'image'; -} - -export const useGeminiChineseWarning = () => { - const { t } = useTranslation('common'); - const { modal } = App.useApp(); - - const [hideGeminiChineseWarning, updateSystemStatus] = useGlobalStore((s) => [ - systemStatusSelectors.systemStatus(s).hideGemini2_5FlashImagePreviewChineseWarning ?? false, - s.updateSystemStatus, - ]); - - const checkWarning = useCallback( - async ({ - model, - prompt, - scenario = 'chat', - }: UseGeminiChineseWarningOptions): Promise => { - if (!shouldShowChineseWarning(model, prompt, hideGeminiChineseWarning)) { - return true; - } - - return new Promise((resolve) => { - let doNotShowAgain = false; - - // Select different button text based on scenario - const continueText = - scenario === 'image' - ? t('geminiImageChineseWarning.continueGenerate') - : t('geminiImageChineseWarning.continueSend'); - - modal.confirm({ - cancelText: t('cancel', { ns: 'common' }), - centered: true, - content: ( -
-

{t('geminiImageChineseWarning.content')}

-
- { - doNotShowAgain = v; - }} - > - {t('geminiImageChineseWarning.doNotShowAgain')} - -
-
- ), - okText: continueText, - onCancel: () => { - resolve(false); - }, - onOk: () => { - if (doNotShowAgain) { - updateSystemStatus({ hideGemini2_5FlashImagePreviewChineseWarning: true }); - } - resolve(true); - }, - title: t('geminiImageChineseWarning.title'), - }); - }); - }, - [modal, t, hideGeminiChineseWarning, updateSystemStatus], - ); - - return checkWarning; -}; diff --git a/src/locales/default/common.ts b/src/locales/default/common.ts index 439c5e0458..76c2c90d9a 100644 --- a/src/locales/default/common.ts +++ b/src/locales/default/common.ts @@ -325,12 +325,6 @@ export default { 'footer.star.title': 'Star us on GitHub', 'footer.title': 'Like Our Product?', 'fullscreen': 'Full Screen Mode', - 'geminiImageChineseWarning.content': - 'Nano Banana may occasionally fail to generate images when using Chinese. It is recommended to use English for better results.', - 'geminiImageChineseWarning.continueGenerate': 'Continue Generating', - 'geminiImageChineseWarning.continueSend': 'Continue Sending', - 'geminiImageChineseWarning.doNotShowAgain': 'Do Not Show Again', - 'geminiImageChineseWarning.title': 'Chinese Input Notice', 'historyRange': 'History Range', 'home.suggestQuestions': 'Try these examples', 'import': 'Import', diff --git a/src/locales/default/home.ts b/src/locales/default/home.ts index 8bcd90f083..aa15fc04f1 100644 --- a/src/locales/default/home.ts +++ b/src/locales/default/home.ts @@ -11,6 +11,7 @@ export default { 'starter.deepResearch': 'Deep Research', 'starter.developing': 'Coming soon', 'starter.image': 'Image', + 'starter.nanoBanana2': '🍌 Nano Banana 2', 'starter.seedance': 'Seedance 2.0', 'starter.write': 'Write', }; diff --git a/src/server/services/generation/index.test.ts b/src/server/services/generation/index.test.ts index 2b02e7fde3..79ac2141cd 100644 --- a/src/server/services/generation/index.test.ts +++ b/src/server/services/generation/index.test.ts @@ -9,7 +9,7 @@ import { calculateThumbnailDimensions } from '@/utils/number'; import { getYYYYmmddHHMMss } from '@/utils/time'; import { inferFileExtensionFromImageUrl } from '@/utils/url'; -import { fetchImageFromUrl,GenerationService } from './index'; +import { fetchImageFromUrl, GenerationService } from './index'; // Mock fetch globally const mockFetch = vi.fn(); @@ -102,10 +102,12 @@ describe('GenerationService', () => { 'iVBORw0KGgoAAAANSUhEUgAAAAEAAAABCAYAAAAfFcSJAAAADUlEQVR42mNkYPhfDwAChAGAWqGfKwAAAABJRU5ErkJggg=='; const dataUri = `data:image/png;charset=utf-8;base64,${base64Data}`; - // This should fail because parseDataUri only supports the strict format: data:mime/type;base64,data - await expect(fetchImageFromUrl(dataUri)).rejects.toThrow( - 'Invalid data URI format: data:image/png;charset=utf-8;base64,', - ); + const result = await fetchImageFromUrl(dataUri); + + // parseDataUri now supports additional parameters before ;base64, + expect(result.mimeType).toBe('image/png;charset=utf-8'); + expect(result.buffer).toBeInstanceOf(Buffer); + expect(Buffer.from(base64Data, 'base64').equals(result.buffer)).toBe(true); }); }); diff --git a/src/server/services/generation/index.ts b/src/server/services/generation/index.ts index be3eb6c43e..fe0ec27df5 100644 --- a/src/server/services/generation/index.ts +++ b/src/server/services/generation/index.ts @@ -28,14 +28,20 @@ export async function fetchImageFromUrl( mimeType: string; }> { if (url.startsWith('data:')) { + log('Data URI length:', url.length); + + log('parseDataUri: start'); const { base64, mimeType, type } = parseDataUri(url); + log('parseDataUri: done, base64 length:', base64?.length, 'mimeType:', mimeType); if (type !== 'base64' || !base64 || !mimeType) { throw new Error(`Invalid data URI format: ${url}`); } try { + log('Buffer.from base64: start'); const buffer = Buffer.from(base64, 'base64'); + log('Buffer.from base64: done, buffer size:', buffer.length); return { buffer, mimeType }; } catch (error) { throw new Error( @@ -90,14 +96,19 @@ export class GenerationService { log('Starting image transformation for:', url.startsWith('data:') ? 'base64 data' : url); // Fetch image buffer and MIME type using utility function + log('fetchImageFromUrl: start'); const { buffer: originalImageBuffer, mimeType: originalMimeType } = await fetchImageFromUrl( url, fetchHeaders, ); + log('fetchImageFromUrl: done, buffer size:', originalImageBuffer.length); // Calculate hash for original image + log('sha256: start'); const originalHash = sha256(originalImageBuffer); + log('sha256: done'); + log('sharp metadata: start'); const sharpInstance = sharp(originalImageBuffer); const { format, width, height } = await sharpInstance.metadata(); log('Image metadata:', { format, height, width }); diff --git a/src/store/global/initialState.ts b/src/store/global/initialState.ts index b016eb5aaf..b5bb083543 100644 --- a/src/store/global/initialState.ts +++ b/src/store/global/initialState.ts @@ -101,7 +101,6 @@ export interface SystemStatus { * Group Agent Builder panel width */ groupAgentBuilderPanelWidth?: number; - hideGemini2_5FlashImagePreviewChineseWarning?: boolean; hidePWAInstaller?: boolean; hideThreadLimitAlert?: boolean; hideTopicSharePrivacyWarning?: boolean; @@ -219,7 +218,6 @@ export const INITIAL_STATUS = { fileManagerViewMode: 'list' as const, filePanelWidth: 320, groupAgentBuilderPanelWidth: 360, - hideGemini2_5FlashImagePreviewChineseWarning: false, hidePWAInstaller: false, hideThreadLimitAlert: false, hideTopicSharePrivacyWarning: false, diff --git a/src/store/home/slices/homeInput/initialState.ts b/src/store/home/slices/homeInput/initialState.ts index 255df72652..29eae58b02 100644 --- a/src/store/home/slices/homeInput/initialState.ts +++ b/src/store/home/slices/homeInput/initialState.ts @@ -1,6 +1,6 @@ import { type NavigateFunction } from 'react-router-dom'; -export type StarterMode = 'agent' | 'group' | 'write' | 'video' | 'research' | null; +export type StarterMode = 'agent' | 'group' | 'write' | 'video' | 'research' | 'image' | null; export interface HomeInputState { homeInputLoading: boolean; diff --git a/src/store/image/slices/generationConfig/initialState.ts b/src/store/image/slices/generationConfig/initialState.ts index 573555808b..64c7acba06 100644 --- a/src/store/image/slices/generationConfig/initialState.ts +++ b/src/store/image/slices/generationConfig/initialState.ts @@ -1,12 +1,11 @@ -/* eslint-disable sort-keys-fix/sort-keys-fix, typescript-sort-keys/interface */ import { type ModelParamsSchema, type RuntimeImageGenParams } from 'model-bank'; import { extractDefaultValues, ModelProvider } from 'model-bank'; -import { nanoBananaProParameters } from 'model-bank/google'; +import { nanoBanana2Parameters } from 'model-bank/lobehub'; import { DEFAULT_IMAGE_CONFIG } from '@/const/settings'; export const DEFAULT_AI_IMAGE_PROVIDER = ModelProvider.Google; -export const DEFAULT_AI_IMAGE_MODEL = 'gemini-3-pro-image-preview:image'; +export const DEFAULT_AI_IMAGE_MODEL = 'gemini-3.1-flash-image-preview:image'; export interface GenerationConfigState { parameters: RuntimeImageGenParams; @@ -26,14 +25,14 @@ export interface GenerationConfigState { } export const DEFAULT_IMAGE_GENERATION_PARAMETERS: RuntimeImageGenParams = - extractDefaultValues(nanoBananaProParameters); + extractDefaultValues(nanoBanana2Parameters); export const initialGenerationConfigState: GenerationConfigState = { model: DEFAULT_AI_IMAGE_MODEL, provider: DEFAULT_AI_IMAGE_PROVIDER, imageNum: DEFAULT_IMAGE_CONFIG.defaultImageNum, parameters: DEFAULT_IMAGE_GENERATION_PARAMETERS, - parametersSchema: nanoBananaProParameters, + parametersSchema: nanoBanana2Parameters, isAspectRatioLocked: false, activeAspectRatio: null, isInit: false,